0

0

应对动态网页抓取挑战:通过内部API获取稳定HTML数据

心靈之曲

心靈之曲

发布时间:2025-09-12 12:57:00

|

816人浏览过

|

来源于php中文网

原创

应对动态网页抓取挑战:通过内部API获取稳定HTML数据

本教程深入探讨了网络爬虫在抓取动态网页时,因HTML结构不一致而导致失败的常见问题。针对IBM文档网站的案例,我们揭示了直接请求可能返回不完整或错误页面的原因,并提供了一种通过识别并调用网站内部API来稳定获取目标数据(特别是表格数据)的专业解决方案,确保爬取过程的可靠性和效率。

引言:动态网页抓取中的HTML结构不一致问题

在进行网页抓取(web scraping)时,开发者经常会遇到一个棘手的问题:同一个url在不同时间或不同请求方式下,返回的html结构可能大相径庭。这通常发生在目标网站采用现代前端技术,如单页应用(spa)或大量依赖javascript进行内容渲染时。当爬虫直接使用http请求库(如python的requests)访问这类页面时,它可能只会获取到初始的、未经过javascript渲染的html骨架,或者是一个指示加载失败、错误信息的页面,而非用户在浏览器中看到的完整内容。

例如,在抓取IBM文档网站的特定页面时,我们观察到两种截然不同的HTML响应:一种是包含所需表格数据的预期结构,另一种则是一个充斥着JavaScript翻译字符串(如"error.sorryText")的错误或加载中页面,其中不包含任何目标数据。这种不一致性严重阻碍了爬虫的稳定运行,并导致数据提取失败。

问题分析:隐藏在表象之下的真实数据源

直接使用requests.get()获取到的不完整或错误HTML,通常是以下几种情况的体现:

  1. 客户端渲染(Client-Side Rendering, CSR): 页面内容主要由浏览器执行JavaScript后动态生成。requests库无法执行JavaScript,因此只能获取到原始的HTML骨架。
  2. API驱动的内容: 网站通过内部API获取数据,然后JavaScript将这些数据填充到HTML模板中。直接访问初始URL可能只会返回一个加载器或空白模板。
  3. 重定向或错误处理: 初始请求可能触发内部重定向,或者在某些条件下(如缺少必要的参数、User-Agent不匹配等)返回错误页面。

在本例中,出现大量"error.sorryText"等JavaScript翻译字符串的HTML,强烈暗示了页面内容是通过JavaScript动态加载的,并且在某些情况下,前端渲染过程未能成功完成,导致返回了错误提示信息。这意味着我们所需的数据并非直接嵌入在初始HTML中,而是通过某种后端API接口提供。

解决方案核心:发现并利用内部API

解决这类问题的关键在于绕过复杂的前端渲染逻辑,直接与网站的后端API进行交互。许多现代网站,尤其是内容管理系统,都会通过内部API提供结构化的数据。通过模拟浏览器行为,识别并直接请求这些API,我们可以获取到稳定、纯净的数据,而无需处理前端渲染的复杂性。

立即学习前端免费学习笔记(深入)”;

如何发现这些内部API?最常用的方法是使用浏览器的开发者工具(通常通过F12键打开),在“网络”(Network)选项卡中监控页面加载时发出的所有HTTP请求。通过分析这些请求的URL、请求方法、参数和响应内容,通常可以找到承载目标数据的API接口。

对于IBM文档的案例,即便没有直接通过开发者工具分析,我们也可以从“不预期”的HTML响应中找到线索。响应文本中包含的"oldUrl":"(.*?)"模式,暗示了一个内部URL路径,这很可能是实际内容API的入口。

实战:稳定抓取IBM文档表格数据

我们将使用httpx进行异步HTTP请求,re进行正则表达式匹配,以及pandas进行高效的HTML表格解析。

Thiings
Thiings

免费的拟物化图标库

下载

环境准备与工具选择

  • httpx: 一个现代化的、支持异步请求的HTTP客户端。相比于requests,它在处理并发请求时更具优势,并且API设计更贴近现代Python实践。
  • trio: 一个友好的、并发和I/O库,用于运行异步代码。
  • re: Python内置的正则表达式模块,用于从文本中提取特定模式。
  • pandas: 强大的数据分析库,其read_html函数能够直接从HTML字符串或文件解析表格数据,极大简化了表格抓取过程。

首先,确保安装了所有必要的库:

pip install httpx trio pandas

步骤一:首次请求与API路径提取

我们首先向原始URL发送一个HTTP GET请求。关键在于,即使这个请求返回的是“不预期”的HTML,我们也要仔细检查其内容,寻找指向实际数据API的线索。在本例中,我们发现了一个"oldUrl":"(.*?)"的模式,它包含了指向实际内容API的相对路径。

import httpx
import trio
import re
import pandas as pd

# 模拟浏览器User-Agent,有助于避免被网站识别为爬虫
headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:109.0) Gecko/20100101 Firefox/113.0'
}

async def fetch_table_data(identifier: str):
    """
    异步获取指定标识符的表格数据。
    """
    async with httpx.AsyncClient(headers=headers, base_url='https://www.ibm.com/docs') as client:
        # 1. 首次请求原始URL,获取包含API路径的初始HTML
        initial_url_path = f'en/imdm/12.0'
        params_initial = {'topic': f'tables-{identifier}'} # 使用动态标识符构建参数

        try:
            r_initial = await client.get(initial_url_path, params=params_initial)
            r_initial.raise_for_status() # 检查HTTP状态码

            # 2. 从初始响应中提取实际内容API的路径
            # 注意:这里假设"oldUrl"模式是稳定的。实际应用中可能需要更复杂的解析
            match = re.search(r'"oldUrl":"(.*?)"', r_initial.text)
            if not match:
                print(f"警告: 未在 {identifier} 的初始响应中找到 'oldUrl'。跳过。")
                return pd.DataFrame() # 返回空DataFrame

            relative_api_path = match.group(1)

            # 3. 构建完整的API URL
            # 例如:api/v1/content/en/imdm/12.0?topic=t-accessdateval
            api_endpoint_path = "api/v1/content/" + relative_api_path

            # 4. 请求内部API获取真实内容
            params_api = {
                'parsebody': 'true', # 可能指示API返回完整HTML体
                'lang': 'en'         # 指定语言
            }
            r_api = await client.get(api_endpoint_path, params=params_api)
            r_api.raise_for_status() # 检查HTTP状态码

            # 5. 使用pandas直接解析API响应中的HTML表格
            # 寻找class为'defaultstyle'的表格
            df_list = pd.read_html(r_api.content, attrs={'class': 'defaultstyle'})
            if not df_list:
                print(f"警告: 未在 {identifier} 的API响应中找到指定表格。")
                return pd.DataFrame()

            df = df_list[0]

            # 假设我们需要从原始页面的结构中获取 Table 名称和 Description
            # 这部分可能需要重新评估,因为API响应可能直接包含这些信息或需要从其他地方获取
            # 对于本示例,我们简化为只获取表格数据

            # 如果需要 Table 名称和 Description,可能需要从 API 响应的其他部分解析
            # 或者在原始请求的BeautifulSoup解析中获取,但前提是原始请求返回的是预期HTML
            # 鉴于本教程主要解决HTML不一致问题,我们聚焦于稳定获取表格

            # 示例中原始代码有:
            # Table = soup.find("h1", class_="topictitle1").get_text(strip=True).strip()
            # description = soup.find('p', class_='shortdesc').get_text(strip=True)
            # 我们可以尝试从r_api.text中用BeautifulSoup解析这些信息
            soup_api = BeautifulSoup(r_api.text, "html.parser")
            table_name_element = soup_api.find("h1", class_="topictitle1")
            description_element = soup_api.find('p', class_='shortdesc')

            table_name = table_name_element.get_text(strip=True) if table_name_element else ""
            description = description_element.get_text(strip=True) if description_element else ""

            # 将这些信息添加到DataFrame中
            df.insert(0, "Table", table_name)
            df["Description"] = description

            # 原始代码中的 feature_list 处理,这里简化,如果需要可以进一步从soup_api中提取
            # div_element = soup_api.find('div', class_='p')
            # if div_element:
            #     a_elements = div_element.find_all('a')
            #     feature_list = [a.get_text(strip=True) for a in a_elements]
            #     for i, feature in enumerate(feature_list):
            #         df[f"Feature_{i+1}"] = feature

            return df

        except httpx.HTTPStatusError as e:
            print(f"HTTP错误获取 {identifier}: {e}")
            return pd.DataFrame()
        except httpx.RequestError as e:
            print(f"请求错误获取 {identifier}: {e}")
            return pd.DataFrame()
        except Exception as e:
            print(f"处理 {identifier} 时发生未知错误: {e}")
            return pd.DataFrame()

async def main():
    # 假设 'identifiers.csv' 包含一个名为 'Identifier' 的列
    # 例如:identifiers.csv 内容
    # Identifier
    # t-accessdateval
    # another_table_id
    df_identifiers = pd.read_csv('identifiers.csv')

    tasks = []
    for index, row in df_identifiers.iterrows():
        identifier = row['Identifier']
        tasks.append(fetch_table_data(identifier))

    results = await trio.gather(*tasks)

    # 合并所有结果
    df_combined = pd.concat(results, ignore_index=True)

    print(df_combined)
    # 保存到CSV
    df_combined.to_csv('combined_table_data_api.csv', index=False)

if __name__ == "__main__":
    trio.run(main)

步骤二:请求内部API获取真实内容

在提取到oldUrl后,我们将其与网站的基础API路径(/api/v1/content/)结合,构造出完整的API请求URL。同时,我们添加了parsebody=true和lang=en等参数,这些参数通常用于指示API返回完整的HTML内容或指定语言。

步骤三:高效解析表格数据

从API获取到的响应通常包含更稳定、更纯净的HTML。此时,pandas库的read_html函数便能大显身手。它能够直接从HTML内容中识别并解析表格,并将其转换为DataFrame对象,省去了手动使用BeautifulSoup遍历

、、
元素的繁琐过程。我们通过attrs={'class': 'defaultstyle'}指定了要查找的表格的CSS类,以确保精确匹配目标表格。

此外,为了完善数据,我们可以在获取到API响应后,使用BeautifulSoup从其中提取h1标题和p描述等非表格信息,并将它们整合到最终的DataFrame中。

完整代码示例

上述代码片段已整合为一个完整的异步爬虫脚本。它首先从identifiers.csv读取标识符,然后为每个标识符异步地执行API请求和数据提取,最后将所有结果合并并保存到combined_table_data_api.csv。

注意事项与最佳实践

  1. 模拟浏览器行为: 始终在请求头中设置User-Agent,以模拟真实浏览器访问,这有助于避免被网站识别为爬虫并阻止访问。
  2. 异步编程: 对于需要抓取大量页面的场景,使用httpx和trio等异步库可以显著提高效率和并发性能。
  3. 动态内容检测: 在抓取任何网站之前,务必使用浏览器开发者工具(Network tab)检查其内容加载方式。观察是否有XHR/Fetch请求,这通常是内部API的指示。
  4. API稳定性: 内部API的结构可能随时变化,网站所有者可能会在不通知的情况下修改它们。因此,基于内部API的爬虫需要定期维护和测试。
  5. 错误处理: 在实际应用中,应增加健壮的错误处理机制(如try-except块),以应对网络问题、API响应格式变化或解析失败等情况。
  6. 遵守Robots协议和网站使用条款: 在进行任何抓取活动之前,请务必查阅目标网站的robots.txt文件和使用条款,确保您的行为合法合规。

总结

当面对动态加载内容或HTML结构不一致的网页抓取挑战时,仅仅依赖直接的HTTP请求和简单的HTML解析往往不足以应对。本教程通过一个具体的案例,展示了一种更高级、更稳定的解决方案:通过分析初始HTML响应,识别并直接调用网站的内部API来获取原始数据。结合httpx的异步能力、re的模式匹配以及pandas.read_html的高效表格解析,我们能够构建出更加健壮和高效的网络爬虫,从而稳定地获取所需数据。理解网站背后的数据加载机制,是解决复杂抓取问题的关键。

相关专题

更多
python开发工具
python开发工具

php中文网为大家提供各种python开发工具,好的开发工具,可帮助开发者攻克编程学习中的基础障碍,理解每一行源代码在程序执行时在计算机中的过程。php中文网还为大家带来python相关课程以及相关文章等内容,供大家免费下载使用。

771

2023.06.15

python打包成可执行文件
python打包成可执行文件

本专题为大家带来python打包成可执行文件相关的文章,大家可以免费的下载体验。

661

2023.07.20

python能做什么
python能做什么

python能做的有:可用于开发基于控制台的应用程序、多媒体部分开发、用于开发基于Web的应用程序、使用python处理数据、系统编程等等。本专题为大家提供python相关的各种文章、以及下载和课程。

764

2023.07.25

format在python中的用法
format在python中的用法

Python中的format是一种字符串格式化方法,用于将变量或值插入到字符串中的占位符位置。通过format方法,我们可以动态地构建字符串,使其包含不同值。php中文网给大家带来了相关的教程以及文章,欢迎大家前来阅读学习。

659

2023.07.31

python教程
python教程

Python已成为一门网红语言,即使是在非编程开发者当中,也掀起了一股学习的热潮。本专题为大家带来python教程的相关文章,大家可以免费体验学习。

1345

2023.08.03

python环境变量的配置
python环境变量的配置

Python是一种流行的编程语言,被广泛用于软件开发、数据分析和科学计算等领域。在安装Python之后,我们需要配置环境变量,以便在任何位置都能够访问Python的可执行文件。php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

549

2023.08.04

python eval
python eval

eval函数是Python中一个非常强大的函数,它可以将字符串作为Python代码进行执行,实现动态编程的效果。然而,由于其潜在的安全风险和性能问题,需要谨慎使用。php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

579

2023.08.04

scratch和python区别
scratch和python区别

scratch和python的区别:1、scratch是一种专为初学者设计的图形化编程语言,python是一种文本编程语言;2、scratch使用的是基于积木的编程语法,python采用更加传统的文本编程语法等等。本专题为大家提供scratch和python相关的文章、下载、课程内容,供大家免费下载体验。

730

2023.08.11

Golang 性能分析与pprof调优实战
Golang 性能分析与pprof调优实战

本专题系统讲解 Golang 应用的性能分析与调优方法,重点覆盖 pprof 的使用方式,包括 CPU、内存、阻塞与 goroutine 分析,火焰图解读,常见性能瓶颈定位思路,以及在真实项目中进行针对性优化的实践技巧。通过案例讲解,帮助开发者掌握 用数据驱动的方式持续提升 Go 程序性能与稳定性。

8

2026.01.22

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
Sass 教程
Sass 教程

共14课时 | 0.8万人学习

Bootstrap 5教程
Bootstrap 5教程

共46课时 | 3万人学习

CSS教程
CSS教程

共754课时 | 22.2万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号