全部版块 我的主页
论坛 数据科学与人工智能 数据分析与数据科学 数据分析与数据挖掘
822 0
2020-10-23
CDA人工智能学院致力于以优质的人工智能在线教育资源助力学员的DT职业梦想!课程内容涵盖数据分析机器学习深度学习人工智能tensorFlowPyTorch知识图谱等众多核心技术及行业案例,让每一个学员都可以在线灵活学习,快速掌握AI时代的前沿技术。PS:私信我即可获取CDA会员1个月免费试听机会

逻辑回归的函数表达式为

20180806071748_47709.png

用极大似然估计求解

每个样本发生的后验概率为

20180806071741_70275.png

则所以样本发生总概率即似然函数为

20180806071734_84187.png

L(θ)即为目标函数,-L(θ)即为loss函数,求-L(θ)最小

对数L(θ)函数为

20180806071727_72294.png

对θ求导,即

20180806071721_32001.png

无法求解。

用梯度下降法逼近最佳值,这里用的是梯度上升法,因为要求L(θ)最大值,其实道理一样。

20180806071713_73895.png

整体梯度上升算法:

初始化wT=1

重复直至收敛:

计算整体梯度(∂l(θ)/∂θ)

根据θ+α*(∂l(θ)/∂θ)来更新回归系数wT

随机梯度上升算法:

初始化wT=1

重复直至收敛:

计算随机每个样本梯度(∂l(θ)/∂θ)

根据θ+α*(∂l(θ)/∂θ)来更新回归系数wT

逻辑回归的优点是实现简单,分类快。缺点是容易欠拟合,只能处理二分类问题(加上softmax优化可用于多分类),但是必须是线性可分的数据。

0D04CBB8996CB009643B8D6FD844F0C0.jpg

关注“CDA人工智能学院”,回复“录播”获取更多人工智能精选直播视频!


二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群