全部版块 我的主页
论坛 提问 悬赏 求职 新闻 读书 功能一区 经管百科 爱问频道
1160 1
2014-09-09
如题,是优化理论里面的?
拉格朗日 条件极值
n维实空间几何
对偶问题、原问题的拉格朗日乘数
线性代数Kernel,内积计算方法
推广之后的支持向量机,假设不同了
\[\Phi(x)=\begin{pmatrix}x_1&x_1\\x_1&x_2\\x_1&x_3\\x_2&x_1\\x_2&x_2\\x_2&x_3\\x_3&x_1\\x_3&x_2\\x_3&x_3\\\end{pmatrix}\Phi(z)=\begin{pmatrix}z_1&z_1\\z_1&z_2\\z_1&z_3\\z_2&z_1\\z_2&z_2\\z_2&z_3\\z_3&z_1\\z_3&z_2\\z_3&z_3\\\end{pmatrix}\]
于是就有:
\[Kernal(x,z)\Phi(x)^T\Phi(z)=(x^Tz)^2\]
上式能成立的条件是kernal(x,z)半正定。Merce定理
KTT conditions:与超平面相关的一个函数,在或者不在某个值上,对应一个参数在不在一个区间上。
标号上升法:对于每一个参数使得
\[\alpha_i:= arg\, \underset{\hat{\alpha_i}}{max}\, w(\alpha_1,\alpha_2,...,\hat{\alpha_i},...,\alpha_n)\]
SMO:就是上述方法一次改变2个参数的算法,the sequential minmal optimization,一直运行直到满足KTT条件。
\[(1)\alpha_1,\alpha_2的方形约束(2)\zeta=\alpha_1y^(1)+\alpha_2y^(2)=-\sum{i=3}^{n}\alpha_iy^(i)两个约束条件\]
SMO作者John Platt
数字识别的最好算法是神经网络,SVM实际上也可以,效果和最好的神经网络相当。
\[多项式的kernal:K(x,y)=高斯的kernal:exp(-\frac{}{})\]
在像素识别中,即便把像素列阵打乱了都没关系。
还可以对蛋白质序列进行分类,特征向量的构造很有启发,写出所有四元组,特征向量表示有没有,构造\phi函数,做内积。

进行的方式:
(1)寻找新的代数,分析算法。Math Latex Writing
(2)寻找实现它们的工具。WEB News Forum
(3)寻找新的问题。Lessoning Read New Papers
(4)探索崭新的方向。Thinking
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

全部回复
2014-9-9 22:14:20
拉格朗日方法,应该就是在目标函数的基础上,根据约束条件,将两者结合起来以保证解的一致性,通过求导新的函数,根据事先给定的一阶条件得出符合目标函数与约束条件的解。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群