全部版块 我的主页
论坛 数据科学与人工智能 数据分析与数据科学 python论坛
1416 9
2018-01-09

每天有3000+个TXT文件能不能实现批量化计算

数据例如:

    92501         395           -300

    92501         395           -700

    92501         395          -2000

    92501         395           -200

     

计算 第二列 乘第三列 例如  “395*-300/100=-1185”

对计算结果进行区间频率统计,及区间计算结果汇总

频率

MV1    0~30000                             

MV2   30000~100000

MV3   100000~500000

MV4   500000~1000000

MV5   >1000000

NV1    0~-30000

NV2   -30000~-100000

NV3   -100000~-500000

NV4   -500000~-1000000

NV5   <-1000000

汇总

MS1    0~30000                             

MS2   30000~100000

MS3   100000~500000

MS4  500000~1000000

MS5   >1000000

NS1    0~-30000

NS2   -30000~-100000

NS3   -100000~-500000

NS4   -500000~-1000000

NS5   <-1000000

计算结果保存:excel格式或其它格式,文件命名=TXT文件名+上级文件夹名称(日期)

Excel 内容格式

001.png


多日计算能不能自动汇总如

2

SH600017.txt
大小:(180 KB)

 马上下载



二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

全部回复
2018-1-9 11:30:00
数据量太大了 SPSS Modeler 手工忙不过来
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2018-1-9 11:41:32
SPSS Modeler 手工 心塞啊
附件列表
003.png

原图尺寸 83.47 KB

003.png

二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2018-1-9 11:43:29
请高手帮忙  半自动化 也行
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2018-1-9 12:00:41
你这是历史数据还是会有更新的数据呢。如果是历史数据,是不是可考虑先将3000多个txt文件进行合并或者导入到数据库中。如果是有更新的数据,也可以使用数据库来简化
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2018-1-9 13:21:24
gjinwei 发表于 2018-1-9 12:00
你这是历史数据还是会有更新的数据呢。如果是历史数据,是不是可考虑先将3000多个txt文件进行合并或者导入到 ...
数据库我还不会,能否指导下
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

点击查看更多内容…
相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群