zl程序教程

您现在的位置是:首页 >  其它

当前栏目

pythonsocket超时设置errno10054

设置 超时
2023-06-13 09:15:33 时间

pythonsocket.error:[Errno10054]远程主机强迫关闭了一个现有的连接。问题解决方案:

前几天使用python读取网页。因为对一个网站大量的使用urlopen操作,所以会被那个网站认定为攻击行为。有时就不再允许下载。导致urlopen()后,request.read()一直卡死在那里。最后会抛出errno10054.

这个错误是connectionresetbypeer.也就是传说的远端主机重置了此连接。原因可能是socket超时时间过长;也可能是request=urllib.request.urlopen(url)之后,没有进行request.close()操作;也可能是没有sleep几秒,导致网站认定这种行为是攻击。

具体解决方案如下面的代码:

01.importsocket
02.importtime
03.timeout=20
04.socket.setdefaulttimeout(timeout)#这里对整个socket层设置超时时间。后续文件中如果再使用到socket,不必再设置
05.sleep_download_time=10
06.time.sleep(sleep_download_time)#这里时间自己设定
07.request=urllib.request.urlopen(url)#这里是要读取内容的url
08.content=request.read()#读取,一般会在这里报异常
09.request.close()#记得要关闭

因为urlopen之后的read()操作其实是调用了socket层的某些函数。所以设置socket缺省超时时间,就可以让网络自己断掉。不必在read()处一直等待。

当然你也可以再外层再写几个try,except,例如:

try:
time.sleep(self.sleep_download_time)
request=urllib.request.urlopen(url)
content=request.read()
request.close()

exceptUnicodeDecodeErrorase:

print("-----UnicodeDecodeErrorurl:",url)

excepturllib.error.URLErrorase:
print("-----urlErrorurl:",url)

exceptsocket.timeoutase:
print("-----sockettimout:",url)

一般来说就莫有问题了。我测试了几千个网页的下载,然后才说出此话。不过如果是下载成千上万的,我做了下测试,ms还是会跳出这个异常。可能是time.sleep()的时间太短,也可能是网络突然中断。我使用urllib.request.retrieve()测试了一下,发现不停的下载数据,总会有失败的情况出现。

defDownload_auto(downloadlist,fun,sleep_time=15):
whileTrue:
try:#外包一层try
value=fun(downloadlist,sleep_time)#这里的fun是你的下载函数,我当函数指针传进来。
#只有正常执行方能退出。
ifvalue==Util.SUCCESS:
break
except:#如果发生了10054或者IOError或者XXXError
sleep_time+=5#多睡5秒,重新执行以上的download.因为做了检查点的缘故,上面的程序会从抛出异常的地方继续执行。防止了因为网络连接不稳定带来的程序中断。
print("enlargesleeptime:",sleep_time)

不过对于找不到相应的网页,又要做另外的一番处理:

#打印下载信息
defreporthook(blocks_read,block_size,total_size):
ifnotblocks_read:
print("Connectionopened")
iftotal_size<0:
print("Read%dblocks"%blocks_read)
else:
#如果找不到,页面不存在,可能totalsize就是0,不能计算百分比
print("downloading:%dMB,totalsize:%dMB"%(blocks_read*block_size/1048576.0,total_size/1048576.0))


defDownload(path,url):
#url="http://downloads.sourceforge.net/sourceforge/alliancep2p/Alliance-v1.0.6.jar"
#filename=url.rsplit("/")[-1]
try:
#python自带的下载函数
urllib.request.urlretrieve(url,path,reporthook)
exceptIOErrorase:#如果找不到,好像会引发IOError。
print("download",url,"/nerror:",e)
print("Done:%s/nCopyto:%s"%(url,path))

如果大家还是遇到了问题...请再评论里注上其他解决方案。