Python requests库:有效应对远程连接中断 (RemoteDisconnected) 错误
在使用Python的requests库抓取网页数据时,经常会遇到令人头疼的requests.exceptions.ConnectionError: ('Connection aborted.', RemoteDisconnected('Remote end closed connection without response'))错误,导致程序无法获取网页源码。本文将通过一个实际案例,分析该错误的成因并提供可靠的解决方案。
问题:
假设您尝试使用以下代码从剑桥词典网站获取网页:
立即学习“Python免费学习笔记(深入)”;
import requests url = "https://dictionary.cambridge.org/us/dictionary/english-arabic/hi" r = requests.get(url)
运行代码后,却出现requests.exceptions.ConnectionError,提示远程连接中断,服务器在未返回任何响应的情况下关闭了连接。 根本原因在于服务器识别出这是一个简单的请求,缺乏必要的身份信息,从而拒绝了连接。
解决方案:
解决方法是添加请求头,模拟浏览器访问。通过设置User-Agent,告知服务器请求来自浏览器,避免被识别为恶意请求或爬虫而被拒绝。修改后的代码如下:
import requests url = "https://dictionary.cambridge.org/us/dictionary/english-arabic/hi" headers = {'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/111.0.0.0 Safari/537.36'} r = requests.get(url, headers=headers)
通过在requests.get()函数中添加headers参数,并使用一个常见的浏览器User-Agent字符串(此处模拟Chrome浏览器),可以有效模拟浏览器行为,从而成功获取网页源码。您可以根据需要选择其他浏览器或自定义User-Agent。添加请求头后,服务器将识别请求为正常的浏览器请求,从而允许连接并返回网页数据。
通过以上方法,您可以有效地避免RemoteDisconnected错误,顺利地使用requests库获取网页内容。 记住,选择合适的User-Agent并尊重网站的robots.txt文件是负责任的网络爬取行为。
以上就是Python requests库连接中断:如何解决获取网页源码时遇到的RemoteDisconnected错误?的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号