
当使用beautifulsoup爬取如binance p2p等动态加载内容的网站时,常会遇到无法获取完整数据的困境,因为实际数据由javascript异步加载。解决之道是利用浏览器开发者工具识别并直接调用网站后台api接口。通过python的requests库模拟api请求,获取json格式的原始数据,再结合pandas库进行高效解析和结构化处理,从而绕过前端渲染,直接获取所需信息。
现代网页为了提供更流畅的用户体验,普遍采用前端框架(如React, Vue, Angular)和异步JavaScript(AJAX)技术来动态加载内容。这意味着当用户首次访问一个页面时,服务器可能只返回一个包含基本结构和JavaScript代码的HTML骨架。实际的数据内容,如商品列表、价格信息等,会在页面加载完成后,由JavaScript执行一系列异步请求(API调用)从后端获取,再动态渲染到页面上。
传统的爬虫工具如BeautifulSoup,在默认情况下,只能解析 requests 库获取到的原始HTML文本。如果目标数据是通过JavaScript动态加载的,BeautifulSoup就无法“看到”这些内容,因为它不执行JavaScript。这就是为什么在尝试爬取Binance P2P页面时,我们可能只得到包含 <style> 标签的骨架HTML,而没有实际的交易数据。
考虑以下使用 requests 和 BeautifulSoup 尝试爬取Binance P2P数据的示例代码:
import requests
from bs4 import BeautifulSoup
from fake_useragent import UserAgent
# 初始化User-Agent
user_agent = UserAgent(verify_ssl=False)
headers = {'user-agent': user_agent.random}
url = 'https://p2p.binance.com/ru/trade/all-payments/USDT?fiat=RUB'
res = requests.get(url, headers=headers).text
soup = BeautifulSoup(res, 'lxml')
# 尝试查找特定div,期望获取交易列表
lst = soup.find('div', class_="css-186r813")
if lst:
underlst = lst.find('div', class_="css-cjwhpx")
print(underlst)
else:
print("未找到目标div 'css-186r813' 或页面内容未加载")当执行这段代码时,输出结果很可能是一堆 <style> 标签和一些表示加载状态的HTML结构,而不是包含具体价格和交易信息的 div。这表明 BeautifulSoup 捕获的是页面初始加载时的状态,而实际数据尚未通过JavaScript加载进来。这种现象明确指出,直接解析静态HTML不足以获取动态生成的内容。
立即学习“Python免费学习笔记(深入)”;
解决动态网页爬取问题的关键在于绕过前端渲染过程,直接与后端数据源交互。这通常意味着我们需要找到网页在后台调用的API接口。
如何识别API接口:
一旦我们识别出正确的API接口及其请求参数,就可以使用 requests 库来模拟这个请求,直接获取JSON数据。
import requests
import pandas as pd
import json # 导入json库,用于处理payload
# 创建一个会话对象,可以保持cookies和headers
s = requests.Session()
# 定义请求头,模拟浏览器行为
headers = {
'content-type': 'application/json', # 声明请求体是JSON格式
'accept-language': 'en-US,en;q=0.9',
'User-Agent': "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/104.0.0.0 Safari/537.36"
}
# 定义API请求的payload(请求体),这是Python字典
# 注意:这里我们假设要获取“购买”USDT,法币为RUB的广告
payload_data = {
"proMerchantAds": False,
"page": 1,
"rows": 10, # 每页显示10条数据
"payTypes": [],
"countries": [],
"publisherType": None,
"asset": "USDT",
"fiat": "RUB",
"tradeType": "BUY" # 交易类型:购买
}
payload = json.dumps(payload_data) # 将Python字典转换为JSON字符串
# API接口URL
url = 'https://p2p.binance.com/bapi/c2c/v2/friendly/c2c/adv/search'
# 更新会话的请求头
s.headers.update(headers)
# 发送POST请求,data参数用于发送JSON字符串作为请求体
r = s.post(url, data=payload)
# 检查请求是否成功
if r.status_code == 200:
# 将JSON响应转换为DataFrame
# r.json() 会自动解析JSON响应
df = pd.json_normalize(r.json()['data'])
print(df.head()) # 打印前几行数据
else:
print(f"请求失败,状态码:{r.status_code}")
print(r.text)代码解析:
上述代码执行后,将直接获得一个结构化的Pandas DataFrame,其中包含了Binance P2P的交易广告数据。DataFrame的每一行代表一个广告,每一列则对应广告的不同属性,例如:
通过DataFrame,你可以方便地进行数据筛选、排序、分析和存储。例如,你可以根据价格筛选出最低的报价,或者分析不同商家的交易表现。
当面对动态加载内容的网页时,直接使用BeautifulSoup解析HTML往往效率低下或无法奏效。通过深入分析浏览器开发者工具,识别并直接调用网站后端API是更专业、高效且稳定的爬取策略。这种方法不仅能获取到更干净、结构化的原始数据,还能有效规避前端渲染带来的复杂性。掌握API爬取技术是现代网络爬虫工程师必备的技能。
以上就是Python网络爬虫进阶:应对动态加载内容并获取结构化数据的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号