设置请求头可模拟浏览器行为,避免被识别为爬虫。通过requests的headers参数添加User-Agent、Accept等字段,使服务器误认为请求来自真实用户,提高爬取成功率,并可通过随机切换User-Agent增强隐蔽性。

在使用Python编写爬虫时,很多网站会通过检查请求头(Request Headers)来判断是否为浏览器访问。如果发现是爬虫程序发起的请求,可能会返回错误页面或直接拒绝访问。为了让爬虫更像真实用户行为,需要设置合适的请求头来模拟浏览器访问。
默认情况下,requests库发出的请求没有携带浏览器常见的头部信息,服务器很容易识别出这是自动化脚本。通过添加如 User-Agent、Accept、Referer 等字段,可以让服务器认为请求来自正常浏览器,从而提高爬取成功率。
以下是一些关键的请求头字段及其作用:
可以通过 headers 参数传入一个字典,自定义所有请求头信息。下面是一个完整示例:
立即学习“Python免费学习笔记(深入)”;
import requests
url = "https://httpbin.org/get"
headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/120.0 Safari/537.36",
"Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8",
"Accept-Language": "zh-CN,zh;q=0.9",
"Accept-Encoding": "gzip, deflate, br",
"Connection": "keep-alive",
"Referer": "https://www.google.com/"
}
response = requests.get(url, headers=headers)
print(response.text)
这个请求现在看起来就像从Chrome浏览器发出的一样,大大降低被拦截的概率。
为了进一步避免被封IP或识别为机器人,可以准备多个 User-Agent,在每次请求时随机选择:
import requests
import random
user_agents = [
"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36...",
"Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36...",
"Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36..."
]
headers = {
"User-Agent": random.choice(user_agents),
"Accept": "text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8",
"Accept-Language": "zh-CN,zh;q=0.9",
"Connection": "keep-alive"
}
response = requests.get("https://example.com", headers=headers)
这样每次请求使用的浏览器标识都不一样,更接近真实用户行为。
基本上就这些。合理设置请求头是爬虫基础但关键的一步,不仅能提升成功率,还能减少对目标网站的压力。注意遵守robots协议,控制请求频率,做负责任的数据采集。
以上就是Python爬虫如何设置请求头_Python爬虫设置请求头模拟浏览器访问方法的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号