全部版块 我的主页
论坛 数据科学与人工智能 数据分析与数据科学 数据分析与数据挖掘
655 0
2023-02-16

线性回归是一种非常常见的统计方法,它允许我们从给定的连续数据集中学习函数或关系。例如,我们给出了一些数据点x和相应的数据点,y我们需要学习它们之间的关系,称为假设

在线性回归的情况下,假设是一条直线,即,



w是一个名为Weights的向量,b是一个名为Bias的标量。权重和偏差称为模型的参数

我们需要做的就是从给定的数据集中估计w和b的值,以便得到的假设产生最小的成本J,该成本由以下成本函数定义,



其中m是给定数据集中的数据点的数量。此成本函数也称为均方误差


为了找到J最小参数的优化值,我们将使用一种常用的优化算法Gradient Descent。以下是Gradient Descent的伪代码:

Repeat untill Convergence {
    w = w - α * δJ/δw
    b = b - α * δJ/δb
}


α是称为学习率超参数


二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群