RPA 自动化获取数据的一个小技巧



朋友们在用 RPA 进行自动化操作时,
一定离不开一个环节,就是获取数据。
甭管是获取图片,还是获取文本数据,还是 url 链接,都算。
今天就来讨论一个获取数据的小技巧。
当我们要获取数据时,肯定是为了处理数据。
举个例子,
我们要爬公众号文章的标题,正文,阅读量,点赞量,等数据。
拿到这些数据之后咋办呢?
比如可以保存到Excel里面。
拿到数据,保存excel,这就是一次数据闭环。
从获取数据到处理数据。
那么假如我要拿100条文章的数据呢?
我是拿一条,保存一条,拿一条,就保存一条吗?
这种做法当然可以,现在用影刀保存excel可能只需要几十毫秒。
假如数据量扩大十倍呢?
会不会导致切换软件或者什么的,耗时更长?
也有另一种做法。
就是我一次性把所有的数据都获取完,先保存到影刀自己的数据中。
然后把这所有的数据处理掉,比如保存到excel。
这样就可以不用频繁读写excel表格了。
说白了,就是集中获取数据,集中处理数据。
像一个流水线一样,工厂里的那种,大家都见过。
这样有啥好处呢?
分工,会带来效率的提升。
就像亚当斯密写的《国富论》中,人们的分工会使得技能更加熟练,
不会因为频繁切换不同工作导致时间消耗。
自动化机器人也是一样。
从获取数据,到处理数据,大概率是要切换软件的。
但凡切换,就会有时间差,时间消耗。
更何况在写自动化的流程时候,有时候为了保证稳定性,会多增加一些随机延时,保证网页、程序、代码运行的稳定。
毕竟加载也需要时间嘛。
所以,可能针对单次数据时,时间消耗不太明显,
但是数据量大了,循环的次数多了,时间消耗积累就会较大。
当然,对于从人工到自动化的效率提升来说,这点时间消耗不值一提。
假设从人工到自动化的效率是提升100%
时间消耗的效率降低了3%
从个人角度来说,整体还是提高97%,问题不大的。
好了,技巧分享到这,简单来说就是一次性获取所有的数据,减少因数据处理切换软件的时耗,提高效率。
最后,如果你感兴趣的话,千万记得要加我aiaiai2098,发送暗号:“芝麻开门”,我会拉你进 AI-RPA 群,一起交流。
一群只剩下最后5个名额啦,明天就要开二群了。
往期文章:
必看!RPA 自动化开发效率增加100%
RPA写的小红书AI Agnet,终于搞定了(文末自取)
我写了一款可以自动刷GPTs对话的机器人

到顶部