最近在进行数据匹配练习,数据量很大,大约有2000,000个样本,发现如下问题:
第一,用相同的程序,其每次运行的结果存在差异,差异在16-2000个数据不等。即运行结束后,我用一个指令来删除一些不符合条件的样本;运行完全相同的代码,其删除量为16-2000年数据不等。原因何在?其不能保证完全可复制性。
第二,将命令从原始数据出发,即清除之前做过的所有过程数据,每次也不能得到完全一致的结果。原因何在?是不是计算机也会存在内存的误差?
请注明:姓名-公司-职位
以便审核进群资格,未注明则拒绝