0

0

Python与Pandas:网页内容逐行解析与结构化导出教程

DDD

DDD

发布时间:2025-11-18 12:31:02

|

449人浏览过

|

来源于php中文网

原创

Python与Pandas:网页内容逐行解析与结构化导出教程

本教程详细介绍了如何使用python的`requests`、`beautifulsoup`和`pandas`库,从网页中抓取结构化数据,并将其按行解析成清晰的字段(如章节标题、节号和节内容)。文章将指导读者如何利用css选择器精准定位目标元素,并通过迭代和数据重构,最终将抓取到的数据高效地导出为结构化的pandas dataframe,以便进一步分析或保存为csv文件。

在进行网络数据抓取(Web Scraping)时,一个常见的挑战是将从网页上获取的原始文本内容,按照其内在的逻辑结构进行拆分和整理,最终以结构化的形式(例如,按行、按字段)存储起来。本教程将以抓取在线圣经章节为例,演示如何利用Python的requests库获取网页内容,BeautifulSoup库解析HTML,以及pandas库进行数据结构化和导出。

1. 环境准备与库导入

首先,确保您已安装所需的Python库:requests用于发送HTTP请求,BeautifulSoup用于解析HTML,pandas用于数据处理。

import requests
from bs4 import BeautifulSoup
import pandas as pd
import time # 用于添加请求延迟,避免对网站造成过大压力

2. 配置请求头与获取网页内容

为了模拟浏览器访问,我们需要设置User-Agent请求头。然后定义一个函数来获取指定URL的HTML内容。

# 配置请求头,模拟浏览器访问
headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/107.0.0.0 Safari/537.36'
}

# 定义获取网页内容的函数
def get_html_content(url):
    try:
        r = requests.get(url, headers=headers)
        r.raise_for_status()  # 检查HTTP请求是否成功
        return r.text
    except requests.exceptions.RequestException as e:
        print(f"请求失败: {e}")
        return None

# 目标URL
target_url = "https://www.bibliaonline.com.br/ara/mt/1"
html_content = get_html_content(target_url)

if html_content:
    # 使用BeautifulSoup解析HTML内容
    soup = BeautifulSoup(html_content, 'html.parser')
else:
    print("未能获取网页内容,程序退出。")
    exit()

3. 精准定位与提取数据

这是本教程的核心部分。原始代码尝试获取整个div.verseByVerse,然后在其内部寻找span.bv、span.v和span.t。这种方法的问题在于,find或find_all在循环外部调用时,会获取页面上的第一个匹配项,而不是当前迭代元素内部的匹配项。此外,对整个div.verseByVerse进行get_text()会将其所有子元素的文本拼接在一起,无法实现逐行导出。

立即学习Python免费学习笔记(深入)”;

正确的做法是,首先定位到每个独立的经文文本(span.t),然后利用其相对位置查找对应的经文编号(span.v)和章节标题(div.bv)。

通过分析目标网页的HTML结构,我们可以观察到:

绘蛙-多图成片
绘蛙-多图成片

绘蛙新推出的AI图生视频工具

下载
  • 每段经文文本位于标签内。
  • 每段经文编号位于其紧邻的标签内。
  • 章节标题(如“A genealogia de Jesus Cristo”)位于
    标签内,且在相关经文的

    标签之前。

    我们可以使用CSS选择器div.verseByVerse p span.t来精确选择所有经文文本元素。然后,在遍历这些元素时,使用find_previous()方法来查找其前一个兄弟元素或祖先元素,以获取经文编号和章节标题。

    # 使用CSS选择器定位所有经文文本(span.t)
    # 这些span.t通常位于p标签内,p标签又位于div.verseByVerse内
    verse_text_elements = soup.select('div.verseByVerse p span.t')
    
    # 用于存储提取到的数据
    data = []
    current_chapter_title = ""
    
    for verse_element in verse_text_elements:
        # 查找最近的、前一个的div元素作为章节标题
        # 注意:这里需要考虑标题可能只出现一次,然后适用于其后的多节经文
        # 因此,我们应该找到最近的div.bv,并更新current_chapter_title
        previous_div = verse_element.find_previous('div', class_="bv")
        if previous_div:
            current_chapter_title = previous_div.get_text(strip=True)
    
        # 查找最近的、前一个的span元素作为经文编号
        verse_number_element = verse_element.find_previous('span', class_="v")
    
        verse_number = verse_number_element.get_text(strip=True) if verse_number_element else ""
        verse_content = verse_element.get_text(strip=True)
    
        data.append({
            '章节标题': current_chapter_title,
            '经文编号': verse_number,
            '经文内容': verse_content
        })
    
    # 打印部分提取结果,以便检查
    # for item in data[:5]:
    #     print(item)

    关键点解释:

    • soup.select('div.verseByVerse p span.t'): 这是一个强大的CSS选择器,它会找到所有在class="verseByVerse"的div内部,且在p标签内部的class="t"的span标签。这确保我们只获取到实际的经文文本。
    • verse_element.find_previous('div', class_="bv"): 对于当前迭代的verse_element (即span.t),此方法会向上(DOM树方向)查找其所有祖先和前一个兄弟节点,直到找到第一个匹配div标签且class为bv的元素。这样可以动态地获取每个经文所属的章节标题。由于章节标题通常在多个经文前只出现一次,我们使用current_chapter_title变量来存储并复用,直到遇到下一个标题。
    • verse_element.find_previous('span', class_="v"): 同样地,这会找到当前经文文本span.t之前最近的span标签,且class为v,即经文编号。

    4. 数据结构化与导出

    将提取到的数据列表转换为Pandas DataFrame,然后可以方便地导出为CSV文件。

    # 将数据转换为Pandas DataFrame
    df = pd.DataFrame(data)
    
    # 打印DataFrame的前几行
    print("DataFrame预览:")
    print(df.head())
    
    # 添加延迟,避免短时间内大量请求
    time.sleep(1)
    
    # 将数据导出到CSV文件
    # index=False表示不将DataFrame的索引写入CSV文件
    output_filename = 'biblia_mateus_cap1.csv'
    df.to_csv(output_filename, index=False, encoding='utf-8-sig') # 使用'utf-8-sig'处理中文编码问题
    
    print(f"\n数据已成功导出到 {output_filename}")

    5. 完整代码示例

    import requests
    from bs4 import BeautifulSoup
    import pandas as pd
    import time
    
    # 配置请求头,模拟浏览器访问
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/107.0.0.0 Safari/537.36'
    }
    
    # 定义获取网页内容的函数
    def get_html_content(url):
        try:
            r = requests.get(url, headers=headers)
            r.raise_for_status()  # 检查HTTP请求是否成功
            return r.text
        except requests.exceptions.RequestException as e:
            print(f"请求失败: {e}")
            return None
    
    # 目标URL
    target_url = "https://www.bibliaonline.com.br/ara/mt/1"
    print(f"正在获取网页内容: {target_url}")
    html_content = get_html_content(target_url)
    
    if html_content:
        # 使用BeautifulSoup解析HTML内容
        soup = BeautifulSoup(html_content, 'html.parser')
    
        # 使用CSS选择器定位所有经文文本(span.t)
        verse_text_elements = soup.select('div.verseByVerse p span.t')
    
        # 用于存储提取到的数据
        data = []
        current_chapter_title = "" # 用于存储当前章节标题,因为标题可能只出现一次
    
        print("开始解析经文数据...")
        for verse_element in verse_text_elements:
            # 查找最近的、前一个的div元素作为章节标题
            # 如果找到新的章节标题,则更新current_chapter_title
            previous_div = verse_element.find_previous('div', class_="bv")
            if previous_div:
                current_chapter_title = previous_div.get_text(strip=True)
    
            # 查找最近的、前一个的span元素作为经文编号
            verse_number_element = verse_element.find_previous('span', class_="v")
    
            verse_number = verse_number_element.get_text(strip=True) if verse_number_element else ""
            verse_content = verse_element.get_text(strip=True)
    
            data.append({
                '章节标题': current_chapter_title,
                '经文编号': verse_number,
                '经文内容': verse_content
            })
    
        # 将数据转换为Pandas DataFrame
        df = pd.DataFrame(data)
    
        # 打印DataFrame的前几行
        print("\nDataFrame预览:")
        print(df.head())
    
        # 添加延迟,避免短时间内大量请求
        time.sleep(1)
    
        # 将数据导出到CSV文件
        output_filename = 'biblia_mateus_cap1.csv'
        df.to_csv(output_filename, index=False, encoding='utf-8-sig') # 使用'utf-8-sig'处理中文编码问题
    
        print(f"\n数据已成功导出到 {output_filename}")
    
    else:
        print("未能获取网页内容,程序退出。")

    6. 注意事项与总结

    • 网站结构变化: 网页的HTML结构可能会随时间变化。如果您的代码突然失效,请检查目标网站的HTML结构是否已更新,并相应调整您的CSS选择器或find方法。
    • 反爬机制: 某些网站有严格的反爬机制,可能会检测并阻止频繁的请求。除了User-Agent,可能还需要考虑使用代理IP、设置更长的请求间隔、处理验证码等。
    • robots.txt: 在抓取任何网站之前,请务必查看其robots.txt文件(例如:https://www.bibliaonline.com.br/robots.txt),了解网站的抓取政策。遵守这些规定是网络爬虫的基本道德和法律要求。
    • 数据清洗: 抓取到的原始数据可能需要进一步的清洗和格式化,例如去除多余的空格、特殊字符等。
    • 错误处理: 在实际项目中,应增加更完善的错误处理机制,例如try-except块来捕获网络请求失败、HTML解析错误等异常。

    通过本教程,您应该已经掌握了如何利用Python和相关库,高效地从复杂网页中提取结构化数据,并将其整理成易于分析和存储的格式。这种方法不仅适用于圣经章节,也可以推广到其他需要逐行解析和结构化处理的网页抓取任务中。

相关专题

更多
python开发工具
python开发工具

php中文网为大家提供各种python开发工具,好的开发工具,可帮助开发者攻克编程学习中的基础障碍,理解每一行源代码在程序执行时在计算机中的过程。php中文网还为大家带来python相关课程以及相关文章等内容,供大家免费下载使用。

749

2023.06.15

python打包成可执行文件
python打包成可执行文件

本专题为大家带来python打包成可执行文件相关的文章,大家可以免费的下载体验。

635

2023.07.20

python能做什么
python能做什么

python能做的有:可用于开发基于控制台的应用程序、多媒体部分开发、用于开发基于Web的应用程序、使用python处理数据、系统编程等等。本专题为大家提供python相关的各种文章、以及下载和课程。

758

2023.07.25

format在python中的用法
format在python中的用法

Python中的format是一种字符串格式化方法,用于将变量或值插入到字符串中的占位符位置。通过format方法,我们可以动态地构建字符串,使其包含不同值。php中文网给大家带来了相关的教程以及文章,欢迎大家前来阅读学习。

618

2023.07.31

python教程
python教程

Python已成为一门网红语言,即使是在非编程开发者当中,也掀起了一股学习的热潮。本专题为大家带来python教程的相关文章,大家可以免费体验学习。

1262

2023.08.03

python环境变量的配置
python环境变量的配置

Python是一种流行的编程语言,被广泛用于软件开发、数据分析和科学计算等领域。在安装Python之后,我们需要配置环境变量,以便在任何位置都能够访问Python的可执行文件。php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

547

2023.08.04

python eval
python eval

eval函数是Python中一个非常强大的函数,它可以将字符串作为Python代码进行执行,实现动态编程的效果。然而,由于其潜在的安全风险和性能问题,需要谨慎使用。php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

577

2023.08.04

scratch和python区别
scratch和python区别

scratch和python的区别:1、scratch是一种专为初学者设计的图形化编程语言,python是一种文本编程语言;2、scratch使用的是基于积木的编程语法,python采用更加传统的文本编程语法等等。本专题为大家提供scratch和python相关的文章、下载、课程内容,供大家免费下载体验。

706

2023.08.11

PHP 表单处理与文件上传安全实战
PHP 表单处理与文件上传安全实战

本专题聚焦 PHP 在表单处理与文件上传场景中的实战与安全问题,系统讲解表单数据获取与校验、XSS 与 CSRF 防护、文件类型与大小限制、上传目录安全配置、恶意文件识别以及常见安全漏洞的防范策略。通过贴近真实业务的案例,帮助学习者掌握 安全、规范地处理用户输入与文件上传的完整开发流程。

3

2026.01.13

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
Sass 教程
Sass 教程

共14课时 | 0.8万人学习

Bootstrap 5教程
Bootstrap 5教程

共46课时 | 2.9万人学习

CSS教程
CSS教程

共754课时 | 18.6万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号