Python 频繁请求问题: [Errno 104] Connection reset by peer
记遇到的一个问题:[Errno 104] Connection reset by peer
今天工作上有个需求,数据库有个表有将近3万条url记录,每条记录都是一个图片,我需要请求他们拿到每个图片存到本地。一开始我是这么写的(伪代码):
import requests for url in urls: try: r = requests.get(url).content save_image(r) except Exception, e: print str(e)
然而在服务器上运行时, 会发现每隔一些请求会报类似下面的错误:
HTTPConnectionPool(host='wx.qlogo.cn', port=80): Max retries exceeded with url: /mmopen/aTVWntpJLCAr2pichIUx8XMevb3SEbktTuLkxJLHWVTwGfkprKZ7rkEYDrKRr5icyDGIvU4iasoyRrqsffbe3UUQXT5EfMEbYKg/0 (Caused by <class 'socket.error'>: [Errno 104] Connection reset by peer)
这让我想起了之前通过hacker news api 在自己电脑上请求一条一条数据时,为了加快处理速度,采用多进程的方式请求接口,也会出现这样的错误。之前我是做了错误记录直接pass了,这次情况下因为需要请求所有图片,在google查了相关原因,大概是因为我频繁请求,服务器关闭了部门请求连接。参见这里, 这里, 这里。
所以我粗暴地这么做,还真解决了:
import requests for url in urls: for i in range(10): try: r = requests.get(url).content except Exception, e: if i >= 9: do_some_log() else: time.sleep(0.5) else: time.sleep(0.1) break save_image(r)
代码很简陋,但可以说明大体解决方案,在每个请求间增加延时可以减少大部分请求拒绝,但还是存在一些请求被拒绝的,所以在那部分请求被拒绝后,发起重试,在被拒10次后才善罢甘休(记录到日志)。在实际的请求中,加了0.1s的延迟被拒绝的情况明显少了很多,被拒绝重试的次数最多为3次,最后成功地取下了全部图片。
相关推荐
哥哥的CSDN集 2020-01-08
KilluaZoldyck 2020-01-06
IsanaYashiro 2019-12-12
kidneybeans 2010-08-18
Pipcie 2010-12-04
mojianbin 2011-06-16
zjuwangleicn 2017-12-01
insularisland 2019-09-08
zzpdljd 2012-06-03
eastnow 2015-03-24
chengwei0 2012-09-13
Astray 2012-02-07
旭灿 2010-12-30
comeonxueRong 2010-05-07
resilient 2019-06-28
MySQLLelove 2019-06-25