全部版块 我的主页
论坛 数据科学与人工智能 数据分析与数据科学 SAS专版
1864 2
2013-06-08
悬赏 10 个论坛币 未解决
1,在100万个数据点的数据库中定义100个观测点,所以每个观测点就有1万个数据点,每一个观测点来估计用了好长的时间。
2.观察前5个点,然后通过找打最大的R^2来找到一个回归函数,(1) 线性回归 (2) log线性回归, (3) 二次回归, (4) 三次回归 (5) 指数回归


3.对于第6个点来说,做一个预测,在代码还在运行的时候,把剩余的时间显示出来。这个可以类似:在前6个观测点中,它看起来这个代码会在7:04到7:08之间结束。
4.随着程序的运行调整预测值。这意味着当有新的点加入的时候你每次都需要重新调整预测值。
5.继续做这个,直到做到了99个观测点。预测第100个就很简单了。




大概意思就是;用一个程序展示另外一个程序(比如proc sort)需要跑多少时间,然后在另外一个程序还在跑的过程中,适时的更新剩余时间,像迅雷那样

愿意详谈的加qq:1583411134



二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

全部回复
2013-6-8 17:48:17
关注下
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2013-6-29 14:26:32
这不需要两个程序吧,只需要在运行代码中插入相关的日志和时间代码即可
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群