机器学习笔记_4_多变量线性回归
吴恩达机器学习课程_个人笔记
课程来源:https://www.bilibili.com/video/av9912938
4 多变量线性回归 Linear Regression with multiple variable
这一章主要是把第2章的单变量变成多变量来讲述,更加具有一般性。
4-1 多个特征量Multiple Features
如果使用多个特征量输入x=[x0,x1,…,xn] ,自然也有多个参数需要训练。
这就叫做多元线性回归(Multivariate Linear Regression)
4-2 多个特征量的梯度下降Gradient Descent for Multiple Variables
特征量有多个,hx的自变量有对个,可学习参数也有多个。
4-3 梯度下降-特征缩放Gradient Descent in Practice I - Feature Scaling
特征量缩放(归一化),能更快地收敛。
4–4 梯度下降—学习率Gradient Descent in Practice II - Learning Rate
1调试:如何使得梯度下降正确工作。
在迭代进行时,计算每次迭代之后的误差值。画出误差值-迭代次数曲线。
a.每次迭代之后,误差值应当减小。如果误差值不再减少,说明基本上已经收敛了。
b.如果使用误差函数的值是否小于某一个阈值,来判断迭代是否收敛
如果误差值一直增大,说明学习率可能太大了。
2 如何选择学习率α
作者一般按照3的倍数来取值
4-5 特征与多项式回归Features and Polynomial Regress
选择特征的方法。选择多样性。
多项式回归。(二次函数,三次函数…)举例说明此样本三次函数好一些一些
4-6 标准方程法Normal Equation
求解误差函数的最小值的方法
- 梯度下降法:多次迭代得到最优解。
- 标准方程法:使用解析解。
标准方程法,令误差函数的导数为零,解得:
最小二乘法https://baike.baidu.com/item/%E6%9C%80%E5%B0%8F%E4%BA%8C%E4%B9%98%E6%B3%95/2522346?fr=aladdin
4-7 标准方程法的不可逆性 Normal Equation Noninvertibility (Optional)
使用标准方程法求解误差函数的最小值时,有时无法求逆。
- 多余特征,x之间线性相关,x‘*x无法求逆。解决:删除多余特征。
- 太多的特征,也会不好操作。解决:删除一些特征;使用正则化方法。后续讲解。