
1. 引言:网页数据抓取的挑战与数据对齐问题
在进行网页数据抓取(web scraping)时,我们常常会遇到目标网站结构不完全一致的情况。例如,某些数据记录可能包含所有预期的字段,而另一些记录则可能缺少部分字段。如果我们在抓取时未能妥善处理这些缺失的元素,很可能导致最终收集到的数据出现错位,从而影响数据的准确性和可用性。
本教程将以抓取漫画店名称及其网站为例,演示如何使用requests和BeautifulSoup库,结合pandas和numpy,构建一个健壮的抓取脚本,以确保即使在部分信息缺失的情况下,也能正确地将数据对齐。
2. 准备工作:所需库的安装
在开始之前,请确保您已经安装了以下Python库:
- requests: 用于发送HTTP请求,获取网页内容。
- BeautifulSoup4: 用于解析HTML和XML文档,从中提取数据。
- pandas: 用于数据处理和分析,特别是构建DataFrame。
- numpy: 提供nan(非数字)值,用于表示缺失数据。
您可以使用pip安装它们:
pip install requests beautifulsoup4 pandas numpy
3. 核心思路:按记录迭代与条件式提取
解决数据错位的关键在于按记录迭代。而不是分别抓取所有名称和所有网站,我们应该找到一个能够代表单个数据记录(例如,单个商店)的父级HTML元素,然后在这个父级元素内部提取该记录的所有相关信息。如果某个信息不存在,我们则明确地用一个占位符(如np.nan)来表示。
对于本例,我们观察目标网页结构,发现每个商店的信息都被包裹在一个div标签中,其class为CslsLocationItem。这将是我们迭代的基石。
3.1 抓取主页面数据
首先,我们需要发送HTTP请求获取主页面的HTML内容,并使用BeautifulSoup进行解析。
import requests import numpy as np import pandas as pd from bs4 import BeautifulSoup # 目标URL url = "https://www.comicshoplocator.com/StoreLocatorPremier?query=75077&showCsls=true" # 发送请求并解析HTML response = requests.get(url) soup = BeautifulSoup(response.content, "html.parser") # 用于存储所有商店数据的列表 all_data = []
3.2 迭代商店记录并提取信息
接下来,我们将遍历所有CslsLocationItem元素。对于每个商店,我们将执行以下步骤:
- 提取商店名称。
- 检查是否存在指向商店详情页的链接。
- 如果存在详情页链接,则访问该页面并提取网站链接。
- 如果不存在详情页链接或详情页中没有网站链接,则用np.nan填充。
for shop in soup.select(".CslsLocationItem"):
# 1. 提取商店名称
# 使用.select_one()确保只获取第一个匹配项
name_tag = shop.select_one(".LocationName")
name = name_tag.text if name_tag else np.nan # 确保元素存在
# 2. 检查是否存在商店详情页链接
profile_link_tag = shop.select_one(".LocationShopProfile a")
website_url = np.nan # 默认网站链接为NaN
if profile_link_tag:
# 如果存在详情页链接,则构建完整URL并访问
profile_page_url = "https://www.comicshoplocator.com" + profile_link_tag["href"]
profile_response = requests.get(profile_page_url)
profile_soup = BeautifulSoup(profile_response.content, "html.parser")
# 3. 在详情页中提取网站链接
web_link_tag = profile_soup.select_one(".StoreWeb a")
if web_link_tag:
website_url = web_link_tag["href"]
# else: website_url 保持为 np.nan
# 将名称和网站URL作为元组添加到列表中
all_data.append((name, website_url))代码解析与改进点:
- soup.select(".CslsLocationItem"): 使用CSS选择器select()方法可以高效地选择所有匹配的元素。CslsLocationItem是每个商店信息块的父容器。
- shop.select_one(".LocationName"): 在每个shop元素内部,使用select_one()来查找唯一的商店名称元素。select_one()返回第一个匹配的元素或None。
- 条件检查 if name_tag:: 在尝试访问name_tag.text之前,先检查name_tag是否存在,防止AttributeError。
- 嵌套请求: 当发现profile_link_tag时,我们才发起第二个HTTP请求去抓取商店详情页。这避免了不必要的请求,并且将网站信息的提取逻辑封装在条件分支内。
- u["href"] if u else np.nan: 这是一个简洁的Python三元表达式,用于在元素存在时提取href属性,否则直接使用np.nan。这确保了即使没有网站链接,该商店的网站字段也会被正确地标记为缺失值,而不是导致数据错位。
- np.nan: numpy.nan是表示缺失值的标准方式,尤其在与Pandas DataFrame结合使用时,它能被Pandas很好地识别和处理。
4. 构建Pandas DataFrame
抓取完所有数据后,我们可以将其转换为一个结构化的Pandas DataFrame,以便于后续的数据分析和存储。
# 使用抓取到的数据创建DataFrame df = pd.DataFrame(all_data, columns=["Name", "Website"]) # 打印结果(以Markdown表格形式,便于查看) print(df.to_markdown(index=False))
预期输出示例:
| Name | Website | |:--------------------------|:---------------------------------| | TWENTY ELEVEN COMICS | http://WWW.TWENTYELEVENCOMICS.COM | | READ COMICS | nan | | BOOMERANG COMICS | http://www.boomerangcomics.com | | MORE FUN COMICS AND GAMES | http://www.facebook.com/morefuncomics | | MADNESS COMICS & GAMES | http://www.madnesscomicsandgames.com | | SANCTUARY BOOKS AND GAMES | nan |
可以看到,READ COMICS和SANCTUARY BOOKS AND GAMES由于没有对应的网站信息,其Website列被正确地填充为nan,而其他商店的数据则准确对齐。
5. 完整代码示例
import requests
import numpy as np
import pandas as pd
from bs4 import BeautifulSoup
def scrape_comic_shops(query_zip_code="75077"):
"""
抓取指定邮政编码区域的漫画店名称和网站。
Args:
query_zip_code (str): 查询的邮政编码。
Returns:
pd.DataFrame: 包含漫画店名称和网站的DataFrame。
如果网站不存在,则对应值为np.nan。
"""
base_url = "https://www.comicshoplocator.com"
search_url = f"{base_url}/StoreLocatorPremier?query={query_zip_code}&showCsls=true"
try:
response = requests.get(search_url)
response.raise_for_status() # 检查HTTP请求是否成功
except requests.exceptions.RequestException as e:
print(f"请求主页面失败: {e}")
return pd.DataFrame(columns=["Name", "Website"])
soup = BeautifulSoup(response.content, "html.parser")
all_data = []
# 遍历每个商店的父容器
for shop in soup.select(".CslsLocationItem"):
name_tag = shop.select_one(".LocationName")
name = name_tag.text.strip() if name_tag else np.nan
profile_link_tag = shop.select_one(".LocationShopProfile a")
website_url = np.nan
if profile_link_tag and 'href' in profile_link_tag.attrs:
profile_path = profile_link_tag["href"]
profile_page_url = f"{base_url}{profile_path}"
try:
profile_response = requests.get(profile_page_url)
profile_response.raise_for_status()
profile_soup = BeautifulSoup(profile_response.content, "html.parser")
web_link_tag = profile_soup.select_one(".StoreWeb a")
if web_link_tag and 'href' in web_link_tag.attrs:
website_url = web_link_tag["href"].strip()
except requests.exceptions.RequestException as e:
print(f"请求商店详情页 {profile_page_url} 失败: {e}")
# 如果请求失败,website_url 保持为 np.nan
all_data.append((name, website_url))
df = pd.DataFrame(all_data, columns=["Name", "Website"])
return df
if __name__ == "__main__":
df_result = scrape_comic_shops(query_zip_code="75077")
print("抓取结果:")
print(df_result.to_markdown(index=False))6. 注意事项与最佳实践
- 错误处理: 在实际的抓取任务中,网络请求可能会失败(例如,网络连接问题、服务器错误)。使用try-except块来捕获requests.exceptions.RequestException可以使您的脚本更加健壮。
- 用户代理 (User-Agent): 某些网站可能会检查请求的User-Agent头。在requests.get()中添加headers参数可以模拟浏览器请求,减少被阻止的可能性。
- 网站结构变化: 网页结构可能会随时改变。如果脚本突然失效,通常是由于网站HTML结构发生了变化,需要更新相应的CSS选择器。
- 道德与法律: 在进行网页抓取时,请务必遵守网站的robots.txt协议,并尊重网站的使用条款。避免对网站造成过大负担(例如,短时间内发送大量请求),可以考虑引入延时(time.sleep())。
- 数据清洗: 抓取到的文本数据可能包含额外的空白字符或不必要的http://前缀。使用strip()、replace()等字符串方法进行清洗是良好的习惯。
7. 总结
本教程演示了如何使用requests和BeautifulSoup库,通过“按记录迭代”和“条件式提取”的策略,有效地解决了网页抓取中因元素缺失导致的数据错位问题。通过将每个记录的名称和其对应的(可能缺失的)网站信息作为一个整体进行处理,并利用numpy.nan填充缺失值,我们能够构建一个健壮且输出数据准确对齐的抓取脚本。掌握这些技巧对于任何需要从非结构化网页数据中提取结构化信息的任务都至关重要。










