
在进行网页数据抓取时,我们经常会遇到动态加载或通过JavaScript渲染的内容,尤其是那些以图表形式展示的数据,如历史价格曲线、性能指标等。这些数据往往在用户鼠标悬停时才以工具提示(tooltip)的形式显示,这给传统的爬虫带来了挑战。
挑战:使用Selenium模拟鼠标悬停抓取动态数据
许多初学者在面对这类问题时,自然会想到使用Selenium等浏览器自动化工具来模拟用户行为。例如,对于一个展示CPU价格历史的图表,尝试通过模拟鼠标悬停在图表上的每一个点来获取对应的价格和日期信息。
以下是一个尝试使用Selenium模拟鼠标悬停的示例代码:
from selenium import webdriver
from selenium.webdriver import ActionChains
from selenium.webdriver.chrome.service import Service
from selenium.webdriver.chrome.options import Options
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.common.by import By
from selenium.webdriver.support import expected_conditions as EC
# 初始化WebDriver
options = Options()
options.add_argument("start-maximized")
webdriver_service = Service()
driver = webdriver.Chrome(options=options, service=webdriver_service)
# 访问目标网页
driver.get('https://www.cpubenchmark.net/cpu.php?cpu=Intel+Core+i9-11900K+%403.50GHz&id=3904')
# 等待图表元素加载
# 注意:EC.presence_of_element_located 返回的是单个WebElement对象
element = WebDriverWait(driver, 10).until(EC.presence_of_element_located((By.XPATH, "//*[@id='placeholder']/div/canvas[2]")))
# 尝试遍历元素(此处会报错,因为element是单个WebElement,不可迭代)
# for el in element:
# ActionChains(driver).move_to_element(el).perform()
# mouseover = WebDriverWait(driver, 30).until(EC.visibility_of_element_located((By.CSS_SELECTOR, ".placeholder > div > div.canvasjs-chart-tooltip > div > span")))
# print(mouseover.text)上述代码中存在一个常见错误:WebDriverWait.until(EC.presence_of_element_located(...))方法返回的是一个WebElement对象,代表页面上找到的第一个匹配元素,而不是一个可迭代的元素列表。因此,直接对其进行for el in element:循环会导致'WebElement' object is not iterable的运行时错误。
更重要的是,即使修复了迭代问题,通过模拟鼠标悬停来逐点抓取图表数据,效率也极其低下且不稳定。页面渲染、动画效果和JavaScript执行的延迟都可能导致抓取失败或数据不完整。
解决方案:直接解析HTML中的JavaScript数据
对于许多动态图表,其数据往往直接嵌入在页面的JavaScript代码中,而不是通过Ajax请求动态加载。在这种情况下,最有效且高效的方法是直接从网页的HTML源代码中提取这些JavaScript变量。
【极品模板】出品的一款功能强大、安全性高、调用简单、扩展灵活的响应式多语言企业网站管理系统。 产品主要功能如下: 01、支持多语言扩展(独立内容表,可一键复制中文版数据) 02、支持一键修改后台路径; 03、杜绝常见弱口令,内置多种参数过滤、有效防范常见XSS; 04、支持文件分片上传功能,实现大文件轻松上传; 05、支持一键获取微信公众号文章(保存文章的图片到本地服务器); 06、支持一键
以目标网站为例,图表数据通常以类似dataArray.push({x: ..., y: ...})的格式存储在
核心步骤:
- 获取网页内容: 使用requests库发送HTTP GET请求,获取目标URL的HTML源代码。
- 查找数据模式: 分析HTML源代码,定位包含图表数据的JavaScript代码块。识别数据点的通用模式,例如{x: 时间戳, y: 价格}。
- 使用正则表达式提取: 编写正则表达式来匹配并捕获这些数据点中的时间戳和价格值。
- 结构化数据: 将提取到的数据转换为结构化的格式,例如Pandas DataFrame,以便后续分析。
- 数据类型转换: 对提取到的时间戳进行转换,使其变为可读的日期时间格式。
示例代码:
import re
import pandas as pd
import requests
# 目标URL
url = "https://www.cpubenchmark.net/cpu.php?cpu=Intel+Core+i9-11900K+%403.50GHz&id=3904"
# 使用requests获取网页HTML内容
html_text = requests.get(url).text
# 使用正则表达式从HTML中查找并提取数据
# 模式解释:
# dataArray\.push\({x: (\d+), y: ([\d.]+)}
# - dataArray\.push\({x: : 匹配字面字符串 "dataArray.push({x: "
# - (\d+) : 捕获一个或多个数字(时间戳)
# - , y: : 匹配字面字符串 ", y: "
# - ([\d.]+) : 捕获一个或多个数字或点(价格,可能包含小数点)
# - } : 匹配字面字符串 "}"
df = pd.DataFrame(
re.findall(r"dataArray\.push\({x: (\d+), y: ([\d.]+)}", html_text),
columns=["time", "price"],
)
# 将时间戳(Unix时间戳,通常是毫秒)转换为可读的日期时间格式
# 网站给出的时间戳是毫秒,需要除以1000转换为秒
df["time"] = pd.to_datetime(df["time"].astype(int) // 1000, unit="s")
# 打印数据框的最后几行以验证结果
print(df.tail())运行结果示例:
time price 236 2023-05-28 06:00:00 317.86 237 2023-05-29 06:00:00 319.43 238 2023-05-30 06:00:00 429.99 239 2023-05-31 06:00:00 314.64 240 2023-06-01 06:00:00 318.9
优势与注意事项
这种直接解析JavaScript数据的方法具有显著优势:
- 高效性: 无需启动浏览器,大大减少了资源消耗和运行时间。
- 稳定性: 不依赖于页面渲染和JavaScript执行的复杂性,减少了因页面加载延迟或元素定位不准导致的错误。
- 简洁性: 代码逻辑更清晰,易于维护。
然而,此方法并非万能,有其适用范围和注意事项:
- 适用场景: 主要适用于数据直接嵌入在HTML源代码的
-
不适用场景:
- 数据通过复杂的AJAX请求在页面加载后异步获取,且这些请求的URL和参数难以推断。
- 数据经过高度混淆或加密,难以通过正则表达式直接解析。
- 需要模拟用户登录、表单提交、点击按钮等复杂交互才能获取数据的情况。
- 正则表达式的健壮性: 正则表达式需要根据目标网站的HTML结构和JavaScript代码模式进行定制。如果网站结构发生变化,正则表达式可能需要调整。
- 数据清洗: 提取出的数据可能需要进一步的清洗和类型转换,例如时间戳转换、数值类型转换等。
总结
在进行网页数据抓取时,面对动态内容,我们应优先考虑从网页源代码中直接提取数据。相比于依赖Selenium模拟复杂的用户交互,直接解析HTML中嵌入的JavaScript数据通常是更高效、稳定且资源友好的选择。只有当数据确实无法通过静态解析获取,或者需要模拟复杂的浏览器行为时,才考虑使用Selenium等浏览器自动化工具。理解这两种方法的优劣和适用场景,是成为一名高效网络爬虫开发者的关键。









