全部版块 我的主页
论坛 数据科学与人工智能 数据分析与数据科学 SAS专版
8312 17
2011-09-25
偏从内存等角度处理这个,
[nosewjc]    不要把数据都读到内存里就好了,需要的时候读入,不需要的时候就释放掉空间。当然如果数据需要计算多次,那就需要改改算法,尽量只读一次来算。
其实,我个人认为这个nosewjc提议非常好,但是我们怎么才能实现?后面跟两个回复是相关一些介绍,内存方面的,还是讨论一下吧。这个解决方案是最理想的,如何才能实现是我比较关注的,由于能力有限,期待大家的讨论后产生火花!

上次的有相关的解决方案和问题的阐述,还请大家关注https://bbs.pinggu.org/thread-1188681-1-1.html

二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

全部回复
2011-9-25 16:28:01
[franklin_fuf] 本质上处理起来必须用内存缓冲技术,即要用到时分块地进入内存, 不用时存入临时文件. 那么接下来的问题就是如何处理分块矩阵拉,本质上任何算法都是矩阵运算,因此所有算法都要相应地为分块矩阵服务.比如原来简单的矩阵相乘, 如果分块计算,然后复原就困难点拉. 如果是特征值运算,那算法的复杂性就成倍上升.
其次是IT技术,比如多CPU处理, 分机协同处理. 偶不是很懂这些.
但本质仍然是算法. 比如稀疏矩阵就要用特殊算法才可行.
说得再理论点, 关键还是看你要解决的问题, 如果本身是NP问题, 估计再好的算法也无能为力了.
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2011-9-25 16:28:27
[fullwayshee]        理论上SAS可以处理无限大的数据,只要你有无限大的硬盘,这和内存关系不大。在处理大数据时,硬盘读写时间往往占去大块,因此在算法上需要多次读写的时候,最好把数据切成小块再进行计算,然后再合并,节约硬盘读写时间。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2011-9-25 22:19:48
受教了,粗略地看了下。目前还没有遇到这么大的数据,先收藏了
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2011-9-26 10:13:13
求高手相助、、、、
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2011-9-26 13:52:49
en,目前也没遇到这么大的数据,不过SAS可以直接连接ORACLE的
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

点击查看更多内容…
相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群