全部版块 我的主页
论坛 数据科学与人工智能 数据分析与数据科学 SAS专版
2316 8
2012-10-18
刚刚涉足金融行业的数据分析,发现这个行业的数据量太大,跑一个频数就要半个小时,大家有没有好的办法来解决这个问题。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

全部回复
2012-10-18 16:00:35
高频数据分析已经成为重要的研究领域了
仅发帖讨论显然不是理想的解决办法
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2012-10-18 16:44:40
用sql,走执行计划,把结果返回给sas,即可以
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2012-10-18 16:46:30
edwardhuanghz 发表于 2012-10-18 16:44
用sql,走执行计划,把结果返回给sas,即可以
能举个例子具体说一下吗?
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2012-10-18 23:45:19
用sas自己的话说,三点,网格技术,内存运算,库内分析。对于一般的机器而言,大数据最长的是io时间,所以有两个方法,一是上raid,二是加大内存,比如我现在用32g的内存,可以用软件将内存划出20g模拟硬盘,然后把work逻辑库都放到内存中,这样运行起来就能极大突破io瓶颈了。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2012-10-18 23:46:41
用sas自己的话说,三点,网格技术,内存运算,库内分析。对于一般的机器而言,大数据最长的是io时间,所以有两个方法,一是上raid,二是加大内存,比如我现在用32g的内存,可以用软件将内存划出20g模拟硬盘,然后把work逻辑库都放到内存中,这样运行起来就能极大突破io瓶颈了。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

点击查看更多内容…
相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群