反向传播算法—从四个基本公式说起

反向传播四公式:   反向传播的最终目的是求得使代价C最小时w、b的最佳值,为了方便计算引入了神经单元误差δ_j^l,其定义为误差C关于某个神经单元z的关系;   其定义如上所示,某神经元误差为代价C(总误差)关于z的偏导数,其中l为神经网络的层数,j为第几个神经元;   这里的代价函数(

微积分拾遗——链式法则

  链式法则(chain rule)微积分中求导法则,用于求复合函数的导数;   链式法则应用广泛,比如神经网络中的反向传播算法就是已链式法则为基础演变的;接下来先说说链式法则的概念然后通过链式法则的两种形式学习链式法则;   链式法则:两个函数组合起来的复合函数,导数等于里面函数代入外函数值的导乘

机器学习是什么

  近几年机器学习非常火,机器学习并不是近来才出现的已经出现了几十年了,但随着互联网、移动互联网、计算资源的迅猛发展使得机器学习有了庞大的数据、 廉价的计算资源、 广泛的应用场景;三种条件可以说缺一不可,互联网、移动互联网带来了大数据与广泛的应用场景,摩尔定律使得机器越来越便宜云计算的出现又让计算资

模型评估与选择

  好记忆不如烂笔头,之前西瓜书这章也看过几次但还是掌握不够,今天又拿来翻翻顺便做个笔记;   前面写了几篇线性回归与逻辑回归的文章,是说模型训练的但是模型的性能怎样该怎么选择使用最小二乘法还是梯度下降法呢,我们总得要比较模型的性能再做选择吧;所以就有了这里所说的模型评估与选择;   既然是读书比较

逻辑回归

  前面几篇文章介绍了线性回归算法,他们都属于线性模型现在这篇说的是逻辑回归,虽然都有回归二字却是非线性模型;逻辑回归的输出为特定离散值,用于判定数据的分类所以 逻辑回归(Logistic regression) 也称为分类模型;分类模型又有二分与多分类,逻辑回归通常用于二分类;以下内容为Stand

线性回归——最大似然法

似然函数   似然函数与概率非常类似但又有根本的区别,概率为在某种条件(参数)下预测某事件发生的可能性;而似然函数与之相反为已知该事件的情况下推测出该事件发生时的条件(参数);所以似然估计也称为参数估计,为参数估计中的一种算法; 下面先求抛硬币的似然函数,然后再使用似然函数算出线性回归的参数;   

线性回归——梯度下降法_实例

  上篇文章介绍了梯度下降法在线性回归中的相关理论与证明,这里使用程序实例代码方式看梯度下降法是怎样一步一步下降求出最优解的; X = [1 4;2 5;5 1;4 2]; y = [19;26;19;20]; m = length(y); alpha = 0.002; %步长 num_it

线性回归——最小二乘法(一)

  相信学过数理统计的都学过线性回归(linear regression),本篇文章详细将讲解单变量线性回归并写出使用最小二乘法(least squares method)来求线性回归损失函数最优解的完整过程,首先推导出最小二乘法,后用最小二乘法对一个简单数据集进行线性回归拟合; 线性回归   线性
Your browser is out-of-date!

Update your browser to view this website correctly. Update my browser now

×