线性回归(Linear Regression)
2016-02-26 16:11:53 10 举报
AI智能生成
线性回归是一种统计学上预测分析因变量与自变量之间关系的方法。它通过建立一个线性方程模型,来描述自变量和因变量之间的线性关系。在实际应用中,线性回归常用于预测和分析连续型变量之间的关系,如销售额与广告费用、房价与面积等。线性回归的目标是找到一条最佳拟合线,使得所有数据点到这条线的垂直距离的平方和最小。通过最小二乘法等优化算法,可以求解出最佳的回归系数,从而得到线性方程模型。线性回归简单易用,适用于各种领域的问题,但需要注意的是,它假设自变量和因变量之间存在线性关系,对于非线性关系的数据集,线性回归的效果可能不佳。
作者其他创作
大纲/内容
线性回归(Linear Regression)
代价函数(cost function)
最小二乘法(least squares)
最小均方(LMS:least mean squares)
梯度下降(gradient descent)
批量梯度下降(BGD:batch gradient descent)
随机梯度下降(SGD:stochastic gradient descent)
局部加权线性回归(LWR:locally weighted linear regression)
是一个非参数算法(Non-parametric algorithm)
欠拟合(underfitting)
过拟合(overfitting)
概率解释(Probabilistic interpretation)
独立同分布(IID:independently and identically distributed)
最大似然(maximum likelihood)
感知机学习算法
损失函数(感知机学习的经验风险函数)
数据集的线性可分性
原始形式
对偶形式
0 条评论
回复 删除
下一页