用SAS单机版链接hadoop,读任何表都是,数值型变量长度$32767,数字型长度都是8,造成的结果是读个1百万的表5T都没存完(列不多,打开了compress),然而同样的数据量用csv导出再导入到SAS中只有几百m。
在libname创建SAS库后里边是看不到任何表的,个人认为hadoop链接通道并没有将数据库的信息传过来,导致SAS将所有数值型变量长度统一$32767,数字型长度统一8。
这样造成任何步骤都很慢,proc部多数提示内存不足(即使分配了100G的物理内存给软件)
请问这要怎样解决?