算法的分类——高级与不高级
在我心里Paxos是个高级算法,作者自己定义了问题核心,设计了算法,证明了算法,并且
威力强大。也许更多的是我觉得Paxos的作者强大。计算机中要调换两个值而用到第三个容
器的方法就不高级,只不过是受制于物理限制产生的方法。
问题建模、统计方法和算法
Modeling结果越纯粹结果越好,越容易使用对算法。Modling的中心在要解决的问题,问题问得越单纯越好,因为杂糅被去掉,形式化的算法对留下的核心更具适用可能性。同时越单纯的问题,更具有一般性能带来更多启示。标准正态分布的发现过程就是一个绝佳例子,将问题的核心严格纯粹的保留下来,导致广泛地用途。对不同问题既可以用成熟模型和算法,也可以观察探索。数理统计方法和算法之间的法是怎样不同的?(答:可以用算法实现一种数理统计方法)
算法实现和本文重点
可以用计算机实现算法,也可以在现实中用算法调换两个液体瓶子中装的内容。还有我不知道方式。
不过,本文重点在探讨一些算法为什么可以这么做,可以在什么地方做。

主要内容分为三块:
问题描述、
算法定理描述、
数据结构描述。
--------------------------------------------------------------------------------------------------------------------------------------------------------
问题描述Problem Description:
Dijkstra算法——单源最短路径问题:
\[\begin{cases} &给定赋权图G=(V,E)和特定顶点s,通过每条边(v_i,v_j)的代价是c_{i,j},则路径v_1v_2 \cdots v_N的无权路径长N-1,\\&有权路径长\sum_{i=1}^{N}c_{i,j},求s到G中其他任何一点的最短赋权路径。\\ \end{cases}\]
标号算法
Prim算法:
Kruskal算法:
贪婪算法:
分治算法:
动态规划:
随机化算法:
回溯算法:
蒙特卡洛方法:统计试验、求解问题。
EM算法:
KNN法:
k平均聚类:
k近邻算法:
AP聚类算法:
人工神经网络:感知机、Hopfild网络、Boltzman机、自适应共振理论、反向传播网络(批量梯度下降求解神经网络)
贝叶斯聚类:
决策树:
生存模式:
回归:线性就是乘法增长;相加是等可能增长。
树回归:
支持向量机:
向量空间模型:
牛顿法:
共轭梯度算法:
模拟退火算法:
黎曼高斯牛顿方法:
拉格朗日方法:
Wand算法:
Kuhn Munkres算法:
Paxos算法:
最小二乘法:对线性问题。
禁忌搜索:tabu search
遗传算法:
蚁群算法:
算法&定理描述Algorithm Description:
Dijkstra算法
Prim算法:
Kruskal算法:
贪婪算法:
分治算法:
动态规划:
随机化算法:
回溯算法:
蒙特卡洛方法:统计试验、求解问题。
EM算法:
KNN法:
k平均聚类:
k近邻算法:
AP聚类算法:
人工神经网络:感知机、Hopfild网络、Boltzman机、自适应共振理论、反向传播网络(批量梯度下降求解神经网络)
贝叶斯聚类:
决策树:
生存模式:
回归:线性就是乘法增长;相加是等可能增长。
树回归:
支持向量机:
向量空间模型:
牛顿法:
共轭梯度算法:
模拟退火算法:
黎曼高斯牛顿方法:
拉格朗日方法:
Wand算法:
Kuhn Munkres算法:
Paxos算法:
最小二乘法:对线性问题。
禁忌搜索:tabu search
遗传算法:
蚁群算法:
数据结构描述Data Structure Description:
Dijkstra算法
Prim算法:
Kruskal算法:
贪婪算法:
分治算法:
动态规划:
随机化算法:
回溯算法:
蒙特卡洛方法:统计试验、求解问题。
EM算法:
KNN法:
k平均聚类:
k近邻算法:
AP聚类算法:
人工神经网络:感知机、Hopfild网络、Boltzman机、自适应共振理论、反向传播网络(批量梯度下降求解神经网络)
贝叶斯聚类:
决策树:
生存模式:
回归:线性就是乘法增长;相加是等可能增长。
树回归:
支持向量机:
向量空间模型:
牛顿法:
共轭梯度算法:
模拟退火算法:
黎曼高斯牛顿方法:
拉格朗日方法:
Wand算法:
Kuhn Munkres算法:
Paxos算法:
最小二乘法:对线性问题。
禁忌搜索:tabu search
遗传算法:
蚁群算法: