首页
题库
公司真题
专项练习
面试题库
在线编程
面试
面试经验
AI 模拟面试
简历
求职
学习
基础学习课
实战项目课
求职辅导课
专栏&文章
竞赛
搜索
我要招人
发布职位
发布职位、邀约牛人
更多企业解决方案
在线笔面试、雇主品牌宣传
登录
/
注册
just_sort
获赞
57
粉丝
17
关注
1
看过 TA
35
西南科技大学
2018
C++
IP属地:未知
暂未填写个人简介
私信
关注
拉黑
举报
举报
确定要拉黑just_sort吗?
发布(2703)
评论
刷题
just_sort
关注TA,不错过内容更新
关注
2019-11-01 18:14
已编辑
西南科技大学 C++
维护了一个微信公众号,分享论文,算法,比赛,生活,欢迎加入。
公众号名称: GiantPandaCV 按照惯例,二维码: 欢迎加入和我讨论深度学习,机器学习,算法优化,Leetcode,工作生活等等。
0
点赞
评论
收藏
分享
2019-11-01 18:15
已编辑
西南科技大学 C++
机器学习算法之感知机算法
前言 感知机算法是一个比较古老的机器学习算法了,是Rosenblatt在1957年提出的,是神经网络和支持向量机的基础。感知机算法只能解决线性分类模型。 算法原理 1. 感知机算法的原始形式 感知机模型可以表示为:f(x)=sign(w*x+b) 其中w为权值,b为偏置,w * x表示内积,sign为符号函数。然后我们需要 建立误分类的损失函数,误分类点到超平面的总距离,损失函数是连续可导函数。损失函数表示为: 感知机算法的目标就是要最小化这个损失函数,使得误分类点个数为0,这也要求数据集是线性可分的。感知机算法的算法过程如下图所示: 这个算法过程中的梯度更新比较难理解,需要推导一下...
0
点赞
评论
收藏
分享
2019-10-24 11:11
西南科技大学 C++
#1024#程序员节快乐!
ACM圈
0
点赞
评论
收藏
分享
2019-10-23 20:39
西南科技大学 C++
#1024# 中奖绝缘体。
Java求职圈
0
点赞
评论
收藏
分享
2019-10-23 20:39
西南科技大学 C++
#1024#当然是couresa啦。
Java学习交流
0
点赞
评论
收藏
分享
2019-10-23 20:37
西南科技大学 C++
#1024# 福利就是不怎么加班
互联网职场交流
0
点赞
评论
收藏
分享
2019-10-23 20:37
西南科技大学 C++
#1024#不想和超过2个人以上合租一套房子。
租房圈
0
点赞
评论
收藏
分享
2019-10-23 20:35
西南科技大学 C++
#1024#电科,加油。
考研圈
0
点赞
评论
收藏
分享
2019-10-23 20:35
西南科技大学 C++
#1024#成都,划水调参菜鸡。
牛爱网
0
点赞
评论
收藏
分享
2019-10-23 20:34
西南科技大学 C++
#1024#继续摸鱼。
摸鱼圈
0
点赞
评论
收藏
分享
2019-10-23 20:33
西南科技大学 C++
#1024# 滴滴滴滴。
2019-10-23
在牛客打卡2天,今天也很努力鸭!
投递滴滴等公司10个岗位
许愿池
0
点赞
评论
收藏
分享
2019-11-01 18:16
已编辑
西南科技大学 C++
机器学习算法之线性判别分析(LDA多分类)
算法原理 紧接着上文:https://blog.csdn.net/just_sort/article/details/102690086 。在上文我们使用LDA实现了一个二分类任务。那么数据有大于2种类别,假设为C类,这时候怎么办呢?在上文我们定义的“类间散度矩阵” S b = ( ...
0
点赞
评论
收藏
分享
2019-11-01 18:16
已编辑
西南科技大学 C++
机器学习算法之线性判别分析(LDA二分类)
算法原理 线性判别分析(Linear Discriminant Analysis, LDA)的原理比较简单,就是我们希望寻找到一条直线,然后我们将数据投影到这条直线上,使得这两种数据之间尽可能远离,并且同类数据尽可能聚集在一起。 假设我们有两类数据,也就是说这里是针对二分类问题以及对应的标签。数据表示为 D = ( ...
0
点赞
评论
收藏
分享
2019-11-01 18:16
已编辑
西南科技大学 C++
【转】期望、方差、协方差和协方差矩阵
原文地址:https://blog.csdn.net/qq_23869697/article/details/80610361
0
点赞
评论
收藏
分享
2019-11-01 18:17
已编辑
西南科技大学 C++
机器学习算法之脊回归
算法原理 所谓脊回归就是在线性回归的基础上加了一个L2正则化,而套索回归则是在线性回归的基础上加上L1正则化。关于线性回归的算法算法请看我的这篇博客:https://blog.csdn.net/just_sort/article/details/101216607 。在线性回归的基础上,脊回归的损失函数可以表示为: J w = ...
0
点赞
评论
收藏
分享
1
2
3
4
5
6
181
关注他的用户也关注了:
牛客网
牛客企业服务