
本文提供了一个使用python进行网页抓取的高效教程,旨在从tonies.com网站提取tonies产品的播放时长和价格。文章解决了传统爬虫在处理shadow dom和cookie接受等复杂问题时的局限性,重点演示了如何利用requests和beautifulsoup库,通过解析网页中嵌入的json数据 (__next_data__脚本标签) 来准确、全面地获取结构化产品信息。
在尝试从现代网站(如tonies.com)抓取数据时,开发者经常会遇到一些挑战。例如,网站可能使用JavaScript动态加载内容,导致BeautifulSoup等静态解析工具难以直接获取所有信息。用户可能会遇到复杂的交互元素,如Shadow DOM中的Cookie接受弹窗,这使得使用Selenium等自动化工具也变得复杂。此外,直接解析HTML元素可能需要编写复杂的选择器和正则表达式,且容易因网站结构微小变化而失效,效率低下,且维护困难。最初的尝试可能仅能抓取到部分数据(例如,只抓取到21个项目),无法获取完整的页面信息。
幸运的是,许多现代Web应用(尤其是使用React、Next.js等框架构建的单页应用)会在HTML页面中嵌入结构化的JSON数据,通常位于一个ID为__NEXT_DATA__的<script>标签内。这些JSON数据包含了页面渲染所需的大部分或全部动态信息,包括产品列表、价格、描述等。通过直接解析这些JSON数据,我们可以绕过复杂的HTML元素定位、JavaScript执行以及Shadow DOM等问题,以一种更直接、更高效、更稳定的方式获取所需信息。这种方法不仅能获取更全面的数据(例如,一次性获取196个产品信息),还能减少对页面DOM结构的依赖。
我们将使用Python的requests库发送HTTP请求,BeautifulSoup库解析HTML,以及内置的json库处理JSON数据。
首先,确保安装了requests和beautifulsoup4库。如果尚未安装,可以通过pip install requests beautifulsoup4进行安装。
立即学习“Python免费学习笔记(深入)”;
import requests from bs4 import BeautifulSoup import json
使用requests.get()方法向目标URL发送请求,获取网页内容。为了模拟浏览器行为,建议添加User-Agent头信息。然后,使用BeautifulSoup将HTML内容解析成一个可操作的对象。
url = "https://tonies.com/en-gb/tonies/"
# 添加headers模拟浏览器请求,有助于避免被网站识别为爬虫而拒绝访问
headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36"
}
try:
response = requests.get(url, headers=headers, timeout=10)
response.raise_for_status() # 检查HTTP请求是否成功,如果失败则抛出异常
except requests.exceptions.RequestException as e:
print(f"请求失败: {e}")
# 在实际应用中,这里可能需要更复杂的错误处理或重试机制
exit()
soup = BeautifulSoup(response.text, "html.parser")这是整个过程的关键一步。我们通过ID选择器#__NEXT_DATA__来定位包含JSON数据的<script>标签,并提取其文本内容。由于这个文本内容是一个JSON字符串,我们需要使用json.loads()将其转换为Python字典。
next_data_script = soup.select_one("#__NEXT_DATA__")
if not next_data_script:
print("未找到__NEXT_DATA__ script标签,网站结构可能已改变。")
exit()
try:
data = json.loads(next_data_script.text)
except json.JSONDecodeError as e:
print(f"解析JSON数据失败: {e}")
exit()提取出的data字典包含了网站的各种状态和数据。我们需要根据其结构导航到具体的产品列表。对于tonies.com,产品数据通常嵌套在["props"]["pageProps"]["page"]["productList"]["normalizedProducts"]路径下。
try:
product_list = data["props"]["pageProps"]["page"]["productList"]["normalizedProducts"]
except KeyError as e:
print(f"导航到产品列表路径失败: {e},JSON结构可能已改变。")
exit()
# 定义我们感兴趣的键
use_keys = ["name", "price", "runTime"]
# 遍历产品列表,提取所需信息
tonies_data = []
for product in product_list:
item_info = {}
for key in use_keys:
if key == "price":
# 价格信息通常嵌套在另一个字典中,需要进一步提取'amount'
item_info[key] = product.get(key, {}).get("amount")
else:
item_info[key] = product.get(key)
tonies_data.append(item_info)将上述步骤整合,形成一个完整的Python脚本:
import requests
from bs4 import BeautifulSoup
import json
def scrape_tonies_data():
"""
从tonies.com抓取产品名称、价格和播放时长。
"""
url = "https://tonies.com/en-gb/tonies/"
headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124 Safari/537.36"
}
try:
response = requests.get(url, headers=headers, timeout=10)
response.raise_for_status() # 检查HTTP请求是否成功
except requests.exceptions.RequestException as e:
print(f"请求失败: {e}")
return []
soup = BeautifulSoup(response.text, "html.parser")
next_data_script = soup.select_one("#__NEXT_DATA__")
if not next_data_script:
print("未找到__NEXT_DATA__ script标签,网站结构可能已改变。")
return []
try:
data = json.loads(next_data_script.text)
product_list = data["props"]["pageProps"]["page"]["productList"]["normalizedProducts"]
except (json.JSONDecodeError, KeyError) as e:
print(f"解析JSON数据或导航路径失败: {e}以上就是Python网页抓取实战:高效解析Tonies产品时长与价格的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号