首页
题库
公司真题
专项练习
面试题库
在线编程
面试
面试经验
AI 模拟面试
简历
求职
学习
基础学习课
实战项目课
求职辅导课
专栏&文章
竞赛
搜索
我要招人
发布职位
发布职位、邀约牛人
更多企业解决方案
在线笔面试、雇主品牌宣传
登录
/
注册
菜菜菜菜菜菜鸟一枚
获赞
1
粉丝
0
关注
4
看过 TA
1
男
上海电力大学
2020
Java
IP属地:上海
暂未填写个人简介
私信
关注
拉黑
举报
举报
确定要拉黑菜菜菜菜菜菜鸟一枚吗?
发布(17)
评论
刷题
收藏
菜菜菜菜菜菜鸟一枚
关注TA,不错过内容更新
关注
2021-08-25 09:23
上海电力大学 Java
Angular
基础知识 使用{{…}}在标签外获取变量 ; 使用*ngFor进行遍历 ; 在属性中使用的变量,使用[]括住属性名 ; 使用*ngIf可以进行判断,决定标签是否显示 使用(…)完成事件的绑定 <div *ngFor =’let 自定义 of 数组变量名 ’> <!—这时链接的title属性可以接收变量,...
0
点赞
评论
收藏
分享
2021-08-25 09:22
上海电力大学 Java
Redis
Redis 配置 配置文件在·Redis安装目录下,文件名为redis.conf Redis数据类型 String 常用命令: set name “zhong” Hash 常用命令:hset age ‘1’ 设置了字段(field) 和 值(value) 的映射表 List 是简单的字符串有序双向链表 常用命令:lpush list ‘reids’ 从list表左边加入‘redis’ ,若没有list,直接创建 rpop list ‘hello’ 从list表右边取出‘hello’ 作用:最新消息排行等功能(比如朋友圈的时间线) ...
0
点赞
评论
收藏
分享
2021-08-25 09:19
上海电力大学 Java
4.Structure Preserving Embedding
算法思路 如果一种连通算法能够很容易地从嵌入后的节点坐标中恢复输入图的边,那么说明拓扑结构得到了保留(简单来说,映射后能逆向还原出原图的边点) SPE是一个半定程序(semidefinite program),它学习由一组线性不等式约束的低秩核矩阵,这些不等式捕获了输入图的连通性结构。 传统的Graph embedding算法一般将节点映射到某种平面(如欧几里得空间)上的一点,如果节点与节点之间存在权重或连接,那么在平面上就用弧线将两个点进行连接。 再次回顾拉普拉斯 推导得拉普拉斯矩阵L(D对角度矩阵,W邻接矩阵):$$ 利用拉普拉斯矩阵,和的约束条件,使用拉格朗日乘子法求导求解:$$于是形成...
0
点赞
评论
收藏
分享
2021-07-09 17:00
上海电力大学 Java
Deep Learning Note6
LeNet-5 针对灰度图片设计的 VGG-16 ResNet 问题 深层神经网络容易在长距离非线性转变过程中,梯度的相关性越来越差,使得梯度更新根本是在做白噪声的随机扰动,造成信息丢失。 思路 浅层网络如果足以达到不错的预测效果,那么要想加深层数,我们可以让后面的网络层什么都不做,输入的值等于输出的值,也即恒等映射。但是由于非线性转化不可逆的缘故,如何做到恒等映射? 过程 x为输入值,若输出值记作H(x),要做到恒等映射,则。但如果把网络设计为 即直接把恒等映射作为网络的一部分。就可以把问题转化为学习一个残差函数,F(x)是激活,卷积,池化等一系列操作 当,就构成了一个恒等映射 注意: ...
0
点赞
评论
收藏
分享
2021-07-22 11:32
已编辑
上海电力大学 Java
资料网站
国家电网研究生备考经验 https://zhuanlan.zhihu.com/p/372969608 国家电网研究生备考资料 http://www.pan58.com/f/13de5733d3e2.html 国家电网校招信息 https://www.zhihu.com/question/68733300/answer/1464214761 IT领域认证大全 https://zhuanlan.zhihu.com/p/266845790 shiyuan@ncsi.com.cn
0
点赞
评论
收藏
分享
2021-06-18 18:01
上海电力大学 Java
Angular
基础知识 使用{{…}}在标签外获取变量 ; 使用*ngFor进行遍历 ; 在属性中使用的变量,使用[]括住属性名 ; 使用*ngIf可以进行判断,决定标签是否显示 使用(…)完成事件的绑定 <div *ngFor =’let 自定义 of 数组变量名 ’> <!—这时链接的title属性可以接收变量,且属性中的变量不用用{{…}}包含起来--...
0
点赞
评论
收藏
分享
2021-06-18 17:18
上海电力大学 Java
3.Cauchy(柯西)特征映射
对比 LE Embedding为图的节点提供了一种低维表示的办法,其中边权值表示节点对象之间的相似性。 通常认为LE Embedding的结果保持了原始数据在低维投影子空间上的局部拓扑,即对于任何相似度较大的节点对,都应该在Embedding Space内距离相近。 然而,在本文中,我们将证明LE Embedding 往往不能很好地保存局部拓扑。 为了Node Embedding局部拓扑保持特性,可以利用一种新的柯西图嵌入方法,该方法通过分类保留了原始数据在嵌入空间中的相似关系,可以方便地对嵌入数据进行嵌入,并具有更好的性能。 在合成和真实基准数据集上的实验结果表明了这种新型嵌入的有效性。 无...
0
点赞
评论
收藏
分享
2021-06-19 17:10
已编辑
上海电力大学 Java
2.LLE(局部线性嵌入)特征映射
局部线性嵌入Locally Linear Embedding (LLE) 核心思想:一个节点可以用它邻近的节点线性降维表示,具有线性,局部的特点。例: 方法:图中特征相似的点,在二维邻接矩阵中的距离应该靠近 过程 权重初始化,表示i,j节点之间的权重。对一个节点得权重进行归一化,即将i节点及其所有相邻的节点的权重之和设为1 计算损失值,设有m个n维样本,j均为节点i的邻近节点,loss公式: 利用矩阵和拉格朗日乘子里法来求解最优(此时的均为0或1) 转化,是元素全是1的向量 利用拉格朗日乘法转换为一个极值优化目标 求导得极小值,在这里是约束条件,对W求导,得极小值(不严谨...
0
点赞
评论
收藏
分享
2021-06-18 17:17
已编辑
上海电力大学 Java
1.LE(拉普拉斯)特征映射
LE(拉普拉斯)特征映射 目的:为了构架一个降维表示图关系的邻接矩阵 如何构建:图中特征相似的点,在二维邻接矩阵中的距离应该靠近 定义,D是度矩阵,W是邻接矩阵(且W为对称矩阵),L是拉普拉斯矩阵: 表示方式: 表示邻接矩阵位置为ij的具体数据 表示一个节点实例的在低维空间中的向量表示 因此类似计算损失值来优化目标矩阵,y是点在低维空间中向量表示:$W_{ij}=W_{ji}\sum_{i=1}^{n}W_{im}y_iD_{ii}$使用最小的m个非零特征值对应的特征向量作为降维后的结果输出。 实操步骤: 构建图: 确定权重 特征映射:计算拉普拉斯矩阵L的特征向量与特征值:...
0
点赞
评论
收藏
分享
2021-06-07 17:38
上海电力大学 Java
https://blog.csdn.net/zuiyishihefang/article/details/108114617 基于时空图神经网络的交通流预测模型,先mark一下
投递北京创新乐知信息技术有限公司等公司6个岗位
0
点赞
评论
收藏
分享
2021-07-14 10:44
已编辑
上海电力大学 Java
Deep Learning Note5
什么是卷积 卷积首先要理解,瞬时行为的持续性后果。即一个函数f(x)对当前结果发生了影响,并对后续的g(x)函数产生影响,将这些影响进行积分,获得总的结果 “卷“表明f(x)对g(x)施加影响,而“积”表明影响是持续累积的。 所谓卷积,就是一个功能和另一个功能在时间的维度上的“叠加”作用。 什么叫卷积呢?举例来说,在一根铁丝某处不停地弯曲,假设发热函数是f(t) ,散热函数是 g(t) ,此时此刻的温度就是 f(t) 跟g(t)的卷积。在一个特定环境下,发声体的声源函数是f(t) ,该环境下对声源的反射效应函数是 g(t) ,那么这个环境下的接受到声音就是 f(t) 和 g(t) 的卷积。类似...
0
点赞
评论
收藏
分享
2021-07-11 11:15
已编辑
上海电力大学 Java
Deep Learning Note4
超参数的调试 所有的超参数在规定范围内随机取值。记录一组取值和结果都表现较好的数据。根据这些数据限定取值范围,再进行随机取值实验。 为超参数选择合适的范围 超参数选择的时候,一些超参数是在一个范围内进行均匀随机取值,如隐藏层神经元结点的个数、隐藏层的层数等。但是有一些超参数的选择做均匀随机取值是不合适的,这里需要按照一定的比例在不同的小范围内进行均匀随机取值,以学习率α 的选择为例,在不同比例范围内进行均匀随机取值,如0.001 ∼ 0.01、0.010.1、0.11范围内选择。 网络中激活值的归一化 在Logistic Regression 中,将输入特征进行归一化,可以加速模型的训练。将隐...
0
点赞
评论
收藏
分享
2021-06-09 16:49
已编辑
上海电力大学 Java
Deep Learning Note3
偏差与方差 欠拟合(在训练集中模型表现差): 偏差大。解决方案: 增加隐藏层数量 增加循环次数 过拟合(在训练集中模型表现好,但是在测试集中表现差):方差大解决方案: 获取更多数据 正则化 Regularization(正则化) 用于解决过拟合问题,加在损失函数上 正则表达式下标表示正则化类型 Frobenius norm正则化$$ 做反向传播时,w的导数为$$我们可以看出正则化相当于对原本的W做了衰减,弱化了W的权重,使得模型不会过分适配训练数据。 Dropout(随机失活)正则化 就是在神经网络的隐藏层,为每个神经元结点设置一个随机消除的概率,对保留下来的神经元进行训练,得到一个节...
0
点赞
评论
收藏
分享
2021-06-09 16:48
已编辑
上海电力大学 Java
Deep Learning Note2
logistic Regression(逻辑回归) 二元分类用0,1表示识别对象是否为目标对象,因此预测值取值范围为[0 ,1] 因此使用sigmoid函数转变线性预测结果$$ 当z越大时,sigmoid的值越接近1;当z越小时,sigmoid的值越接近0 sigmoid函数的导数和自身有关.令$$ 梯度最大的时候时,z=0时:$$ 注意sigmoid函数只是一个约束数值范围的函数 Loss function(损失函数) 当实际值等于 1 时: 如果预测值越接近1,损失值L会越接近0 ,表示预测效果越好;如果预测值越接近0, 损失值L会越接近无穷大 ,表示预测效果越差; 当实际值等于 0 时...
0
点赞
评论
收藏
分享
2021-06-09 16:47
已编辑
上海电力大学 Java
Deep Learning Note1
pyhton的方法和类 声明类 class Myclass(object): def _init_(self,name): self.name = name def greet(self, loud=False): print("%s",self.name) 注意 class的括号里声明该类的父类 class中的方法参数self 是一个隐藏参数,表明传入自身作为参数,这样才能在方法体中调用本类的成员变量和方法 python的向量和矩阵 python使用numpy中的dot函数进...
0
点赞
评论
收藏
分享
1
2
创作者周榜
更多
关注他的用户也关注了:
牛客网
牛客企业服务