
在进行网页数据抓取时,开发者常常会遇到一个挑战:首次加载的html页面中只包含部分数据,而完整的数据集需要通过点击“加载更多”按钮或滚动页面才能显示。使用 beautifulsoup 等工具直接解析初始html,往往只能获取到静态呈现的部分内容,对于动态加载的数据则束手无策。这是因为许多现代网站采用javascript和ajax(异步javascript和xml)技术,在用户与页面交互时,通过后台api异步获取数据并动态更新页面内容。
识别动态数据源:探索JSON API接口
解决动态数据抓取问题的关键在于,不再局限于解析浏览器渲染后的HTML,而是深入探究数据从何而来。通常,当页面动态加载数据时,浏览器会向服务器发送XHR(XMLHttpRequest)或Fetch请求,这些请求的响应往往是结构化的JSON数据。
识别这些API接口的方法是:
例如,对于本教程中涉及的网站,通过开发者工具分析,我们可以发现数据并非嵌入在HTML中,而是通过 https://www.racingpost.com/bloodstock/sales/catalogues/5/2023-12-04/data.json 这个URL进行获取的。更重要的是,这个API接口不仅返回了数据,还包含了分页信息,如总页数(totalPages),这为我们批量获取数据提供了便利。
通过API获取全量分页数据
一旦确定了JSON API接口,数据抓取过程将变得高效且稳定。基本步骤如下:
以下是使用Python requests 库实现这一过程的示例代码:
import requests
import json # 引入json库,虽然在此示例中直接处理,但解析复杂JSON时很有用
import time # 引入time库,用于添加请求间隔,避免速率限制
# 定义基础API URL
BASE_API_URL = 'https://www.racingpost.com/bloodstock/sales/catalogues/5/2023-12-04/data.json'
print("--- 开始通过API获取数据 ---")
try:
# 步骤1: 获取分页元数据
# 第一次请求不带page参数,通常会返回包含总页数等信息的元数据
print("正在获取分页元数据...")
metadata_response = requests.get(BASE_API_URL)
metadata_response.raise_for_status() # 检查HTTP请求是否成功(状态码200)
page_metadata = metadata_response.json()
# 从元数据中提取总页数
total_pages = page_metadata['pagination']['totalPages']
print(f"检测到总页数: {total_pages}")
all_scraped_data = [] # 用于存储所有页的数据
# 步骤2: 遍历所有页面并抓取数据
for page_num in range(1, total_pages + 1):
print(f"正在抓取第 {page_num}/{total_pages} 页数据...")
# 构造带分页参数的请求
# 注意:API通常通过URL参数(如'page'、'offset'、'limit')来控制分页
response = requests.get(BASE_API_URL, params={'page': str(page_num)})
response.raise_for_status() # 检查HTTP请求是否成功
# 解析JSON响应,提取实际的数据行
# 使用.get()方法访问字典键,可以避免KeyError,并提供默认值[]
current_page_data = response.json().get('rows', [])
all_scraped_data.extend(current_page_data)
# 建议:为了避免对服务器造成过大压力或触发速率限制,可以在每次请求后添加短暂延迟
time.sleep(0.5) # 暂停0.5秒
print(f"--- 数据抓取完成!共获取 {len(all_scraped_data)} 条数据。---")
# 示例:打印部分抓取到的数据
if all_scraped_data:
print("\n部分抓取数据示例 (前5条):")
for i, item in enumerate(all_scraped_data[:5]):
print(f"数据 {i+1}: {json.dumps(item, indent=2, ensure_ascii=False)}") # 使用json.dumps美化输出
else:
print("未获取到任何数据。")
except requests.exceptions.RequestException as e:
print(f"网络请求错误: {e}")
except KeyError as e:
print(f"JSON解析错误,缺少关键键: {e}。请检查API响应结构是否符合预期。")
except json.JSONDecodeError as e:
print(f"JSON解码错误: {e}。API响应可能不是有效的JSON格式。")
except Exception as e:
print(f"发生未知错误: {e}")
优势与注意事项
优势:
注意事项:
总结
当面对动态加载内容的网页时,直接解析HTML往往效率低下且容易出错。通过深入分析网站的网络请求,识别并利用其背后的JSON API接口,是获取全量数据的更优选择。这种方法不仅提高了数据抓取的效率和稳定性,也使数据处理变得更加便捷。掌握API抓取技术,是现代网页数据抓取不可或缺的重要技能。
以上就是高效网页数据抓取:利用JSON API获取动态分页数据的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号