
本教程旨在解决使用python `requests`库进行网络爬虫时,登录受保护网站(如plus500)遭遇406“rejected”状态码的问题。核心原因在于http请求缺少必要的浏览器头部信息。通过在请求中添加`user-agent`等关键http头,可以有效模拟真实浏览器行为,从而成功完成登录并访问目标数据。
在使用Python的requests库进行网络爬虫时,尤其是在尝试登录受保护的网站以获取数据时,开发者可能会遇到请求被服务器拒绝的情况。一个常见的场景是,即使提供了正确的用户名和密码,POST请求也可能返回一个类似“Rejected”的状态,并伴随着HTTP 406状态码。这通常表明服务器拒绝处理该请求,因为它不符合其预期的条件,例如缺少特定的HTTP头部信息。
以下是一个初始的Python代码示例,它尝试使用requests.session进行登录操作,但遭遇了失败:
import requests
from pprint import pprint
# 假设Config模块中定义了username和password
from Config import username, password
def main():
# 目标登录URL,通常包含一些会话或追踪参数
url = 'https://app.plus500.com/trade?innerTags=_cc_&webvisitid=d9cf772d-6ad5-492c-b782-e3fbeaf7863d&page=login' \
'&_ga=2.35401569.1585895796.1661533386-1432537898.1661336007 '
with requests.session() as session:
# 尝试使用auth参数发送POST请求进行认证
response = session.post(url, auth=(username, password))
pprint(response.text)
if __name__ == '__main__':
main()运行上述代码后,可能会得到如下响应:
('{\n'
' "status": "Rejected",\n'
' "statusCode": "406",\n'
' "supportID": "11920948162926473185252678965843397577",\n'
' "ipAddress": "my IP",\n'
' "timeStamp": "2022-08-27 12:30:47"\n'
'}')这种“Rejected”状态和406状态码明确指示服务器拒绝了请求。这并非用户名或密码错误,而是请求的“身份”不被服务器信任,导致服务器拒绝进一步处理。
立即学习“Python免费学习笔记(深入)”;
许多网站,特别是那些涉及敏感操作(如金融交易平台)的网站,对其接收到的HTTP请求进行严格的验证。它们不仅仅检查用户名和密码,还会检查请求的HTTP头部信息,以判断请求是否来自一个合法的浏览器或客户端。当使用requests库发送请求时,默认的头部信息可能非常精简,这使得服务器很容易识别出它不是一个“真实”的浏览器请求,从而触发反爬机制,拒绝服务。
其中,User-Agent(用户代理)是最关键的头部之一。它告诉服务器发出请求的客户端类型、操作系统和浏览器版本。如果缺少User-Agent或其值不常见,服务器可能会认为这是一个机器人或恶意请求。此外,Accept-Encoding、Accept、Accept-Language和Connection等头部也共同构成了浏览器请求的典型特征。模拟这些头部信息是成功进行网页抓取的关键一步。
解决此问题的关键在于模拟一个真实浏览器的HTTP头部。我们需要构建一个包含常见浏览器头部信息的字典,并在发送POST请求时将其作为headers参数传递。
以下是添加必要HTTP头部后的修正代码:
import requests
from pprint import pprint
from Config import username, password
def main():
url = 'https://app.plus500.com/trade?innerTags=_cc_&webvisitid=d9cf772d-6ad5-492c-b782-e3fbeaf863d&page=login' \
'&_ga=2.35401569.1585895796.1661533386-1432537898.1661336007 '
# 定义模拟浏览器行为的HTTP头部
headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64; rv:20.0) Gecko/20100101 Firefox/20.0",
"Accept-Encoding": "gzip, deflate",
"Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8",
"Accept-Language": "en-US,en;q=0.5",
"Connection": "keep-alive"
}
with requests.session() as session:
# 在POST请求中加入headers参数
response = session.post(url, auth=(username, password), headers=headers)
pprint(response.text)
if __name__ == '__main__':
main()通过在session.post()方法中添加headers=headers参数,我们有效地向服务器发送了更完整的请求信息,使其认为这是一个来自真实浏览器的合法请求,从而解决了406“Rejected”的问题。
了解每个HTTP头部的作用有助于我们更好地进行模拟:
如何获取正确的HTTP头部?
最直接和有效的方法是使用浏览器的开发者工具:
通过理解HTTP头部在网络请求中的作用,并学会如何模拟它们,开发者可以更有效地应对网站的反爬机制,成功地进行数据抓取。解决406“Rejected”状态码的问题,正是掌握这一技能的典型应用。
以上就是Python网络爬虫:解决登录请求被服务器拒绝(406状态码)的问题的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号