
本文详细介绍了如何使用python处理看似静态但实际通过post请求实现分页的网页数据抓取。当url在翻页时保持不变时,传统的url枚举方法将失效。教程将指导读者如何通过分析网络请求,识别并构造post请求体中的分页参数,结合requests和beautifulsoup库,实现高效、完整的数据爬取,并将结果整理为结构化的dataframe。
在进行网络数据抓取时,我们经常会遇到网站内容通过分页展示的情况。传统的分页机制通常会在URL中体现页码参数(如 page=1, page=2),这使得通过简单地修改URL即可遍历所有页面。然而,许多现代网站为了提供更流畅的用户体验,会采用AJAX技术或通过POST请求在不刷新整个页面的情况下加载新数据。这意味着即使页面内容(例如表格数据)发生变化,浏览器地址栏中的URL也可能保持不变。
对于爬虫开发者而言,这种“静态URL下的动态分页”机制带来了挑战。例如,在抓取像 https://denver.coloradotaxsale.com/index.cfm?folder=auctionResults&mode=preview 这样的网站时,尽管页面上显示了数千条数据并提供了翻页功能,但实际的URL在翻页时并不会改变。此时,单纯依赖 requests.get() 和 pd.read_html() 只能获取到当前显示页面的数据,无法遍历所有页面。
解决此类问题的关键在于理解浏览器在用户点击“下一页”时实际执行了什么操作。通常,当URL不发生变化但内容更新时,浏览器会向服务器发送一个异步请求,这个请求往往是一个POST请求,并且在请求体(Request Body)中包含了控制分页、排序或筛选的参数。
我们的目标就是模拟这种POST请求:
立即学习“Python免费学习笔记(深入)”;
以下将详细介绍如何使用Python的 requests、BeautifulSoup 和 pandas 库来抓取此类分页数据。
首先,我们需要导入本教程将使用的Python库:
import requests import pandas as pd from bs4 import BeautifulSoup import time # 建议引入,用于控制请求间隔
通过浏览器开发者工具(F12),切换到“Network”选项卡,然后尝试点击网页上的“下一页”按钮。观察新出现的请求,通常会有一个POST请求到相同的URL。点击该请求,查看其“Payload”或“Form Data”部分,你会发现一系列键值对。
针对 https://denver.coloradotaxsale.com/index.cfm?folder=auctionResults&mode=preview 这个网站,经过分析,我们发现翻页时会发送以下形式的POST数据,其中 pageNum 是控制页码的关键参数:
data = {
"folder": "auctionResults",
"loginID": "00",
"pageNum": "1", # 关键参数,用于控制页码
"orderBy": "AdvNum",
"orderDir": "asc",
"justFirstCertOnGroups": "1",
"doSearch": "true",
"itemIDList": "",
"itemSetIDList": "",
"interest": "",
"premium": "",
"itemSetDID": "",
}
url = "https://denver.coloradotaxsale.com/index.cfm?folder=auctionResults&mode=preview"有了请求URL和POST数据模板,我们就可以在一个循环中迭代 pageNum 参数,发送请求,并解析返回的HTML内容。
all_data = [] # 用于存储所有页面的数据
# 假设我们需要抓取前N页数据,这里以3页为例,实际应根据总页数调整
# 注意:网站可能没有直接显示总页数,可能需要通过抓取一页数据后解析出总记录数再计算,
# 或者设置一个较大的循环次数直到不再返回新数据为止。
for page_num in range(1, 3): # <-- 增加循环次数以获取更多页面
data["pageNum"] = str(page_num) # 更新页码参数
# 发送POST请求
response = requests.post(url, data=data)
# 检查请求是否成功
if response.status_code == 200:
soup = BeautifulSoup(response.content, "html.parser")
# 定位数据表格,根据页面HTML结构,数据通常在特定的ID或Class的表格中
# 示例中,数据在id为"searchResults"的表格中,且前两行是表头
for row in soup.select("#searchResults tr")[2:]:
tds = [td.text.strip() for td in row.select("td")]
all_data.append(tds)
else:
print(f"请求第 {page_num} 页失败,状态码: {response.status_code}")
time.sleep(1) # 建议增加延迟,避免请求过快被服务器屏蔽抓取到所有页面的数据后,我们可以将其转换为一个结构化的Pandas DataFrame,以便于后续的数据分析和处理。
# 定义列名,确保与网页表格的列顺序一致
columns = [
"SEQ NUM",
"Tax Year",
"Notices",
"Parcel ID",
"Face Amount",
"Winning Bid",
"Sold To",
]
df = pd.DataFrame(all_data, columns=columns)
# 打印DataFrame的最后10条数据进行验证
print(df.tail(10).to_markdown(index=False)) # index=False 避免打印DataFrame索引import requests
import pandas as pd
from bs4 import BeautifulSoup
import time
# 目标URL,即使翻页也不会改变
url = "https://denver.coloradotaxsale.com/index.cfm?folder=auctionResults&mode=preview"
# POST请求的表单数据模板
# 这些参数通过浏览器开发者工具分析得到
data = {
"folder": "auctionResults",
"loginID": "00",
"pageNum": "1", # 关键参数,会在循环中更新
"orderBy": "AdvNum",
"orderDir": "asc",
"justFirstCertOnGroups": "1",
"doSearch": "true",
"itemIDList": "",
"itemSetIDList": "",
"interest": "",
"premium": "",
"itemSetDID": "",
}
all_data = [] # 用于存储从所有页面抓取到的数据
# 假设网站有N页数据,这里以抓取前2页为例。
# 实际应用中,你需要根据网站的实际总页数或通过其他方式判断何时停止。
# 例如,可以尝试抓取一页,解析出总记录数或总页码,再进行循环。
# 或者,可以循环到一个较大的页码,如果返回的数据为空或与上一页重复,则停止。
for page_num in range(1, 3): # 示例:抓取第1页和第2页
data["pageNum"] = str(page_num) # 更新当前请求的页码
try:
# 发送POST请求,附带更新后的表单数据
response = requests.post(url, data=data)
response.raise_for_status() # 检查HTTP请求是否成功,如果失败则抛出异常
# 使用BeautifulSoup解析HTML内容
soup = BeautifulSoup(response.content, "html.parser")
# 查找包含数据的表格行。根据HTML结构,#searchResults是表格的ID,
# tr是行,[2:]表示跳过前两行(通常是表头)
for row in soup.select("#searchResults tr")[2:]:
tds = [td.text.strip() for td in row.select("td")]
all_data.append(tds)
print(f"成功抓取第 {page_num} 页数据。")
except requests.exceptions.RequestException as e:
print(f"请求第 {page_num} 页时发生错误: {e}")
except Exception as e:
print(f"解析第 {page_num} 页数据时发生错误: {e}")
time.sleep(1) # 每次请求后暂停1秒,避免对服务器造成过大压力
# 定义DataFrame的列名,与网页表格的列对应
columns = [
"SEQ NUM",
"Tax Year",
"Notices",
"Parcel ID",
"Face Amount",
"Winning Bid",
"Sold To",
]
# 将抓取到的所有数据转换为Pandas DataFrame
df = pd.DataFrame(all_data, columns=columns)
# 打印DataFrame的最后10行数据进行验证
print("\n--- 抓取到的数据(最后10行)---")
print(df.tail(10).to_markdown(index=False))即使面对URL不变的分页场景,通过深入理解HTTP协议和网站的交互机制,我们依然可以有效地抓取所需数据。关键在于利用浏览器开发者工具分析出实际的POST请求及其参数,然后使用 requests 库模拟这些请求,结合 BeautifulSoup 进行HTML解析,最后用 pandas 整理数据。掌握这一技巧,将大大扩展Python网络爬虫的应用范围。
以上就是Python网络爬虫:处理URL不变的分页数据抓取的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号