0

0

使用BeautifulSoup处理缺失元素:构建健壮的网页数据抓取教程

霞舞

霞舞

发布时间:2025-10-07 13:21:00

|

307人浏览过

|

来源于php中文网

原创

使用BeautifulSoup处理缺失元素:构建健壮的网页数据抓取教程

本教程详细介绍了如何使用Python的requests和BeautifulSoup库进行网页数据抓取,并重点解决在抓取过程中因目标元素缺失导致数据错位的问题。通过迭代父级容器、条件式地提取子元素以及使用numpy.nan填充缺失值,确保数据准确对齐,最终生成结构化的Pandas DataFrame。

1. 引言:网页数据抓取的挑战与数据对齐问题

在进行网页数据抓取(web scraping)时,我们常常会遇到目标网站结构不完全一致的情况。例如,某些数据记录可能包含所有预期的字段,而另一些记录则可能缺少部分字段。如果我们在抓取时未能妥善处理这些缺失的元素,很可能导致最终收集到的数据出现错位,从而影响数据的准确性和可用性。

本教程将以抓取漫画店名称及其网站为例,演示如何使用requests和BeautifulSoup库,结合pandas和numpy,构建一个健壮的抓取脚本,以确保即使在部分信息缺失的情况下,也能正确地将数据对齐。

2. 准备工作:所需库的安装

在开始之前,请确保您已经安装了以下Python库:

  • requests: 用于发送HTTP请求,获取网页内容。
  • BeautifulSoup4: 用于解析HTML和XML文档,从中提取数据。
  • pandas: 用于数据处理和分析,特别是构建DataFrame。
  • numpy: 提供nan(非数字)值,用于表示缺失数据。

您可以使用pip安装它们:

pip install requests beautifulsoup4 pandas numpy

3. 核心思路:按记录迭代与条件式提取

解决数据错位的关键在于按记录迭代。而不是分别抓取所有名称和所有网站,我们应该找到一个能够代表单个数据记录(例如,单个商店)的父级HTML元素,然后在这个父级元素内部提取该记录的所有相关信息。如果某个信息不存在,我们则明确地用一个占位符(如np.nan)来表示。

对于本例,我们观察目标网页结构,发现每个商店的信息都被包裹在一个div标签中,其class为CslsLocationItem。这将是我们迭代的基石。

3.1 抓取主页面数据

首先,我们需要发送HTTP请求获取主页面的HTML内容,并使用BeautifulSoup进行解析。

import requests
import numpy as np
import pandas as pd
from bs4 import BeautifulSoup

# 目标URL
url = "https://www.comicshoplocator.com/StoreLocatorPremier?query=75077&showCsls=true"

# 发送请求并解析HTML
response = requests.get(url)
soup = BeautifulSoup(response.content, "html.parser")

# 用于存储所有商店数据的列表
all_data = []

3.2 迭代商店记录并提取信息

接下来,我们将遍历所有CslsLocationItem元素。对于每个商店,我们将执行以下步骤:

拍我AI
拍我AI

AI视频生成平台PixVerse的国内版本

下载
  1. 提取商店名称。
  2. 检查是否存在指向商店详情页的链接。
  3. 如果存在详情页链接,则访问该页面并提取网站链接。
  4. 如果不存在详情页链接或详情页中没有网站链接,则用np.nan填充。
for shop in soup.select(".CslsLocationItem"):
    # 1. 提取商店名称
    # 使用.select_one()确保只获取第一个匹配项
    name_tag = shop.select_one(".LocationName")
    name = name_tag.text if name_tag else np.nan # 确保元素存在

    # 2. 检查是否存在商店详情页链接
    profile_link_tag = shop.select_one(".LocationShopProfile a")
    website_url = np.nan # 默认网站链接为NaN

    if profile_link_tag:
        # 如果存在详情页链接,则构建完整URL并访问
        profile_page_url = "https://www.comicshoplocator.com" + profile_link_tag["href"]
        profile_response = requests.get(profile_page_url)
        profile_soup = BeautifulSoup(profile_response.content, "html.parser")

        # 3. 在详情页中提取网站链接
        web_link_tag = profile_soup.select_one(".StoreWeb a")
        if web_link_tag:
            website_url = web_link_tag["href"]
        # else: website_url 保持为 np.nan

    # 将名称和网站URL作为元组添加到列表中
    all_data.append((name, website_url))

代码解析与改进点:

  • soup.select(".CslsLocationItem"): 使用CSS选择器select()方法可以高效地选择所有匹配的元素。CslsLocationItem是每个商店信息块的父容器。
  • shop.select_one(".LocationName"): 在每个shop元素内部,使用select_one()来查找唯一的商店名称元素。select_one()返回第一个匹配的元素或None。
  • 条件检查 if name_tag:: 在尝试访问name_tag.text之前,先检查name_tag是否存在,防止AttributeError。
  • 嵌套请求: 当发现profile_link_tag时,我们才发起第二个HTTP请求去抓取商店详情页。这避免了不必要的请求,并且将网站信息的提取逻辑封装在条件分支内。
  • u["href"] if u else np.nan: 这是一个简洁的Python三元表达式,用于在元素存在时提取href属性,否则直接使用np.nan。这确保了即使没有网站链接,该商店的网站字段也会被正确地标记为缺失值,而不是导致数据错位。
  • np.nan: numpy.nan是表示缺失值的标准方式,尤其在与Pandas DataFrame结合使用时,它能被Pandas很好地识别和处理。

4. 构建Pandas DataFrame

抓取完所有数据后,我们可以将其转换为一个结构化的Pandas DataFrame,以便于后续的数据分析和存储。

# 使用抓取到的数据创建DataFrame
df = pd.DataFrame(all_data, columns=["Name", "Website"])

# 打印结果(以Markdown表格形式,便于查看)
print(df.to_markdown(index=False))

预期输出示例:

| Name                      | Website                          |
|:--------------------------|:---------------------------------|
| TWENTY ELEVEN COMICS      | http://WWW.TWENTYELEVENCOMICS.COM |
| READ COMICS               | nan                              |
| BOOMERANG COMICS          | http://www.boomerangcomics.com   |
| MORE FUN COMICS AND GAMES | http://www.facebook.com/morefuncomics |
| MADNESS COMICS & GAMES    | http://www.madnesscomicsandgames.com |
| SANCTUARY BOOKS AND GAMES | nan                              |

可以看到,READ COMICS和SANCTUARY BOOKS AND GAMES由于没有对应的网站信息,其Website列被正确地填充为nan,而其他商店的数据则准确对齐。

5. 完整代码示例

import requests
import numpy as np
import pandas as pd
from bs4 import BeautifulSoup

def scrape_comic_shops(query_zip_code="75077"):
    """
    抓取指定邮政编码区域的漫画店名称和网站。

    Args:
        query_zip_code (str): 查询的邮政编码。

    Returns:
        pd.DataFrame: 包含漫画店名称和网站的DataFrame。
                      如果网站不存在,则对应值为np.nan。
    """
    base_url = "https://www.comicshoplocator.com"
    search_url = f"{base_url}/StoreLocatorPremier?query={query_zip_code}&showCsls=true"

    try:
        response = requests.get(search_url)
        response.raise_for_status() # 检查HTTP请求是否成功
    except requests.exceptions.RequestException as e:
        print(f"请求主页面失败: {e}")
        return pd.DataFrame(columns=["Name", "Website"])

    soup = BeautifulSoup(response.content, "html.parser")
    all_data = []

    # 遍历每个商店的父容器
    for shop in soup.select(".CslsLocationItem"):
        name_tag = shop.select_one(".LocationName")
        name = name_tag.text.strip() if name_tag else np.nan

        profile_link_tag = shop.select_one(".LocationShopProfile a")
        website_url = np.nan

        if profile_link_tag and 'href' in profile_link_tag.attrs:
            profile_path = profile_link_tag["href"]
            profile_page_url = f"{base_url}{profile_path}"

            try:
                profile_response = requests.get(profile_page_url)
                profile_response.raise_for_status()
                profile_soup = BeautifulSoup(profile_response.content, "html.parser")

                web_link_tag = profile_soup.select_one(".StoreWeb a")
                if web_link_tag and 'href' in web_link_tag.attrs:
                    website_url = web_link_tag["href"].strip()
            except requests.exceptions.RequestException as e:
                print(f"请求商店详情页 {profile_page_url} 失败: {e}")
                # 如果请求失败,website_url 保持为 np.nan

        all_data.append((name, website_url))

    df = pd.DataFrame(all_data, columns=["Name", "Website"])
    return df

if __name__ == "__main__":
    df_result = scrape_comic_shops(query_zip_code="75077")
    print("抓取结果:")
    print(df_result.to_markdown(index=False))

6. 注意事项与最佳实践

  • 错误处理: 在实际的抓取任务中,网络请求可能会失败(例如,网络连接问题、服务器错误)。使用try-except块来捕获requests.exceptions.RequestException可以使您的脚本更加健壮。
  • 用户代理 (User-Agent): 某些网站可能会检查请求的User-Agent头。在requests.get()中添加headers参数可以模拟浏览器请求,减少被阻止的可能性。
  • 网站结构变化: 网页结构可能会随时改变。如果脚本突然失效,通常是由于网站HTML结构发生了变化,需要更新相应的CSS选择器。
  • 道德与法律: 在进行网页抓取时,请务必遵守网站的robots.txt协议,并尊重网站的使用条款。避免对网站造成过大负担(例如,短时间内发送大量请求),可以考虑引入延时(time.sleep())。
  • 数据清洗: 抓取到的文本数据可能包含额外的空白字符或不必要的http://前缀。使用strip()、replace()等字符串方法进行清洗是良好的习惯。

7. 总结

本教程演示了如何使用requests和BeautifulSoup库,通过“按记录迭代”和“条件式提取”的策略,有效地解决了网页抓取中因元素缺失导致的数据错位问题。通过将每个记录的名称和其对应的(可能缺失的)网站信息作为一个整体进行处理,并利用numpy.nan填充缺失值,我们能够构建一个健壮且输出数据准确对齐的抓取脚本。掌握这些技巧对于任何需要从非结构化网页数据中提取结构化信息的任务都至关重要。

相关专题

更多
python开发工具
python开发工具

php中文网为大家提供各种python开发工具,好的开发工具,可帮助开发者攻克编程学习中的基础障碍,理解每一行源代码在程序执行时在计算机中的过程。php中文网还为大家带来python相关课程以及相关文章等内容,供大家免费下载使用。

769

2023.06.15

python打包成可执行文件
python打包成可执行文件

本专题为大家带来python打包成可执行文件相关的文章,大家可以免费的下载体验。

661

2023.07.20

python能做什么
python能做什么

python能做的有:可用于开发基于控制台的应用程序、多媒体部分开发、用于开发基于Web的应用程序、使用python处理数据、系统编程等等。本专题为大家提供python相关的各种文章、以及下载和课程。

764

2023.07.25

format在python中的用法
format在python中的用法

Python中的format是一种字符串格式化方法,用于将变量或值插入到字符串中的占位符位置。通过format方法,我们可以动态地构建字符串,使其包含不同值。php中文网给大家带来了相关的教程以及文章,欢迎大家前来阅读学习。

659

2023.07.31

python教程
python教程

Python已成为一门网红语言,即使是在非编程开发者当中,也掀起了一股学习的热潮。本专题为大家带来python教程的相关文章,大家可以免费体验学习。

1325

2023.08.03

python环境变量的配置
python环境变量的配置

Python是一种流行的编程语言,被广泛用于软件开发、数据分析和科学计算等领域。在安装Python之后,我们需要配置环境变量,以便在任何位置都能够访问Python的可执行文件。php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

549

2023.08.04

python eval
python eval

eval函数是Python中一个非常强大的函数,它可以将字符串作为Python代码进行执行,实现动态编程的效果。然而,由于其潜在的安全风险和性能问题,需要谨慎使用。php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

579

2023.08.04

scratch和python区别
scratch和python区别

scratch和python的区别:1、scratch是一种专为初学者设计的图形化编程语言,python是一种文本编程语言;2、scratch使用的是基于积木的编程语法,python采用更加传统的文本编程语法等等。本专题为大家提供scratch和python相关的文章、下载、课程内容,供大家免费下载体验。

709

2023.08.11

Java编译相关教程合集
Java编译相关教程合集

本专题整合了Java编译相关教程,阅读专题下面的文章了解更多详细内容。

9

2026.01.21

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
Sass 教程
Sass 教程

共14课时 | 0.8万人学习

Bootstrap 5教程
Bootstrap 5教程

共46课时 | 2.9万人学习

CSS教程
CSS教程

共754课时 | 21.8万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号