线性回归
引言
在中学就学习过,一元线性回归
多元线性回归
损失函数
类似地,多元线性回归
正规方程
同样可以使用正规方程,求解
标量对向量的求导方法
进一步地,对于二次型
于是
二阶导
上面直接认定了代价函数有最小值,在这里我们可以向量对向量求导求海森矩阵而对于任意非零实列向量
令
带回到一元线性回归
对于
梯度下降法
就是让某组
联想到seurat
seurat里的特征缩放就是ScaleData()
(特征内操作,不过seurat里行名才是特征),还有NormalizeData()
的话(样本内操作),会除去不同样本之间数据尺度的影响(测序深度)。
适用于
模拟退火!
(注:后来发现,
逻辑回归
引言
线性回归中,数据沿着拟合的曲线分布。若某曲线为
损失函数
逻辑回归中引入了Sigmoid函数
这时就不能使用线性回归一样的损失函数了。
假如还是使用均方差
一通捣鼓下来算得(可以保留
- 当
时,若 ,这一项为负 - 当
时,若 ,这一项为负
所以这时损失函数就可能是非凸的,更多的可以看这些回答。
所以我们使用交叉熵损失函数
不行,再这样下去不懂春节期间能不能看完,接下来仅浏览
总之
决策树
以前一直瞧不起决策树,但是其实人力找出根据特征进行分类的方法是一种更低效的行为...
神经网络
比较好玩的是用神经网络实现逻辑门,比如对于2输入1输出的2层神经网络,输入
PS:递归神经网络很适合处理视频这样的时间序列数据,但deeplabcut里面好像没有涉及?我只看到他们多目标的top-down模型(目标识别分割->单独目标姿态识别)的第一步里,声称是使用了前后帧的信息。
PPS:感觉卷积神经网络和动物视觉很像?