
本文探讨了在使用beautifulsoup爬取动态加载内容网站(如binance p2p)时,因javascript渲染导致无法获取预期html数据的常见问题。针对此挑战,文章提供了一种高效且专业的解决方案:通过分析浏览器开发者工具中的网络请求,直接识别并调用网站的后端api来获取结构化的json数据,并结合python的requests库和pandas库进行数据请求与处理,从而稳定地抓取目标信息。
在进行网络数据抓取时,传统的HTML解析库如BeautifulSoup在处理静态网页时表现出色。然而,当目标网站采用JavaScript动态加载内容时,仅依赖requests库获取的初始HTML往往不包含用户在浏览器中看到的完整数据。这是因为这些数据是在浏览器执行JavaScript代码后才被渲染到DOM中的。尝试使用BeautifulSoup解析这类初始HTML,通常会发现缺失关键信息,甚至可能只得到一些样式定义(<style>标签)或其他非数据性的占位符,而非预期的div或其他承载数据的HTML元素。
解决动态网页爬取问题的关键在于绕过前端渲染过程,直接与网站后端进行数据交互。许多现代网站通过API(应用程序接口)提供数据,这些API通常返回JSON格式的结构化数据。通过以下步骤,我们可以识别并利用这些API:
一旦确定了API端点、请求方法、请求头和请求体,就可以使用Python的requests库来模拟这些请求。pandas库则非常适合处理返回的JSON数据,特别是通过json_normalize函数将其扁平化为DataFrame。
以下是一个具体的示例,展示如何从Binance P2P获取交易数据:
立即学习“Python免费学习笔记(深入)”;
import requests
import pandas as pd
import json # 用于处理JSON字符串
# 初始化一个requests会话,以便在多个请求中保持相同的头部信息
s = requests.Session()
# 定义请求头,模拟浏览器行为
headers = {
'content-type': 'application/json', # 明确告诉服务器发送的是JSON数据
'accept-language': 'en-US,en;q=0.9',
'User-Agent': "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/104.0.0.0 Safari/537.36"
}
# 定义POST请求的JSON payload(请求体)
# 这个payload是根据在浏览器开发者工具中观察到的实际请求体构造的
payload_data = {
"proMerchantAds": False,
"page": 1,
"rows": 10,
"payTypes": [],
"countries": [],
"publisherType": None,
"asset": "USDT",
"fiat": "RUB",
"tradeType": "BUY"
}
# 将Python字典转换为JSON字符串
payload = json.dumps(payload_data)
# 定义API的URL
url = 'https://p2p.binance.com/bapi/c2c/v2/friendly/c2c/adv/search'
# 更新会话的请求头
s.headers.update(headers)
# 发送POST请求
# data参数用于发送原始的请求体数据(如JSON字符串)
r = s.post(url, data=payload)
# 检查请求是否成功
if r.status_code == 200:
# 解析JSON响应
json_response = r.json()
# 使用pandas的json_normalize函数将嵌套的JSON数据扁平化为DataFrame
# 'data'是JSON响应中包含实际列表数据的键
df = pd.json_normalize(json_response['data'])
# 打印DataFrame的前几行
print(df.head())
else:
print(f"请求失败,状态码: {r.status_code}")
print(f"响应内容: {r.text}")
代码解析:
通过pd.json_normalize处理后,API返回的复杂JSON数据被转换成了一个易于操作的Pandas DataFrame。这个DataFrame包含了原始JSON中的所有字段,并且通过点符号(例如adv.price、advertiser.nickName)清晰地表示了嵌套结构。现在,你可以利用Pandas的强大功能对数据进行筛选、排序、聚合或进一步的分析。
例如,要获取价格和交易量信息,可以直接访问相应的列:
# 假设df是上面代码生成的DataFrame
if 'adv.price' in df.columns and 'adv.surplusAmount' in df.columns:
prices_and_amounts = df[['adv.price', 'adv.surplusAmount', 'advertiser.nickName']]
print("\n价格和剩余数量:")
print(prices_and_amounts)当面对JavaScript动态加载内容的网站时,传统的BeautifulSoup HTML解析方法往往力不从心。通过深入分析浏览器开发者工具中的网络请求,识别并直接调用网站的后端API,是获取结构化数据的更高效和稳定的方法。结合Python的requests库进行请求发送,以及pandas.json_normalize进行JSON数据处理,可以构建出强大且专业的网络爬虫,有效应对现代网页的复杂性。
以上就是应对动态网页爬取挑战:从HTML解析到API数据获取的Python实践的详细内容,更多请关注php中文网其它相关文章!
HTML怎么学习?HTML怎么入门?HTML在哪学?HTML怎么学才快?不用担心,这里为大家提供了HTML速学教程(入门课程),有需要的小伙伴保存下载就能学习啦!
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号