全部版块 我的主页
论坛 数据科学与人工智能 数据分析与数据科学 R语言论坛
3522 3
2019-10-11
现在在做基于Rselenium的爬虫练习,试图批量抓取若干网页上的信息,现在发现打开网页这个过程是流程中最耗时的部分:
复制代码
但另一方面网页主体部分加载还是很快的,慢就慢在后面加载广告、相关网页链接之类的步骤。所以现在有个想法,能不能将这段代码设为运行几秒后强制停止?这样的话估计能节省至少90%的时间,不知是否可行?谢谢大家
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

全部回复
2019-10-11 10:53:13
这两个函数是你自己写的吗?
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2019-10-11 13:31:52
jinkelazzz 发表于 2019-10-11 10:53
这两个函数是你自己写的吗?
Rselenium函数
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

2019-10-12 16:52:41
好吧,在stackoverflow上发帖解决了... 使用 R.utils包和try函数联用即可,error不妨碍后续代码继续运行:

复制代码
二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群