全部版块 我的主页
论坛 数据科学与人工智能 数据分析与数据科学 SAS专版
1750 0
2012-03-06
众所周知,sas数据处理能力极强。但是影响效率的瓶颈最大的是io,根据sas文档上介绍,sas data读取数据是扫描一行然后进入逻辑内存inputbuffer中,然后进入data vector逻辑内存中(此时产生_N_,_ERROR_系统变量)。(如果数据源是sas 数据集那么直接进入data vector中),这样子每一次都执行一次那么会进行频繁的读写,IO太频繁,这样效率肯定很低,为什么sas不把几行记录打包一块放到inputbuffer 中或者data vector中呢,这样子效率不是更高么,请高手指点一下,是一次读取多次容易丢失数据呢还是其它原因?希望高手能解释一下,先谢谢啦。
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群