回归函数:
$$f_{w,b}(x) = wx + b$$代价函数:
$$J(w,b) = \frac{1}{2m}\sum_{i=1}^m(f_{w,b}(x_i)-y_i)^2$$
梯度下降法同时更新w和b:
\(\alpha\)是学习率,用来控制下降幅度
回归函数:
$$f_{w,b}(x) = wx + b$$代价函数:
$$J(w,b) = \frac{1}{2m}\sum_{i=1}^m(f_{w,b}(x_i)-y_i)^2$$
梯度下降法同时更新w和b:
\(\alpha\)是学习率,用来控制下降幅度