
本教程旨在解决从复杂html结构中按序提取并聚合段落(p标签)内容,同时将表格(table标签)作为独立项分离存储的问题。文章将深入分析常见错误,特别是内容缓冲区管理不当导致的p标签聚合失败,并提供一个基于beautifulsoup和html2text的健壮解决方案,确保p标签内容正确拼接,表格独立存储,并输出清晰的json格式数据。
在处理HTML文档时,我们经常需要从包含多种类型元素的复杂结构中提取特定内容,例如将所有连续的段落文本合并为一个逻辑单元,同时将表格等结构化数据作为独立的项进行处理。这种需求在内容抓取、文档转换或数据分析中非常普遍。然而,不正确的迭代和状态管理(如缓冲区)常常导致数据丢失或聚合错误。
许多开发者在尝试聚合P标签时,会遇到一个典型问题:只有最后一个P标签的内容被捕获,或者P标签内容未能正确连接。这通常是由于在迭代过程中,用于累积P标签内容的变量或字典被不当地重置。
考虑以下初始尝试代码:
from bs4 import BeautifulSoup, NavigableString
import html2text
import json
data3 = """
<p>Paragraph 1 content.</p>
<p>Paragraph 2 content.</p>
<table><tr><td>Table 1 Cell</td></tr></table>
<p>Paragraph 3 content.</p>
<p>Paragraph 4 content.</p>
<table><tr><td>Table 2 Cell</td></tr></table>
<p>Paragraph 5 content.</p>
"""
converter = html2text.HTML2Text()
soup = BeautifulSoup(data3, 'html.parser')
content_items = []
for tag in soup.descendants:
# 错误:content_dict 在每次迭代中都被重新初始化
content_dict = {'Title': "35.23.060 - DR Zone Standards", 'Content': ''}
if tag.name == "p":
content_dict['Content'] += converter.handle(str(tag))
elif tag.name == "table":
if content_dict['Content']:
content_items.append(content_dict)
content_dict['Content'] = converter.handle(str(tag))
content_items.append(content_dict)
print(json.dumps(content_items, indent=4, ensure_ascii=False))上述代码的问题在于,content_dict 在 for tag in soup.descendants: 循环的每次迭代中都被重新初始化。这意味着当遇到一个P标签时,它会将内容添加到当前(新创建的)content_dict 中。但在下一次迭代处理下一个P标签时,又会创建一个新的 content_dict,导致前一个P标签的内容丢失,无法实现连续P标签的聚合。当遇到table标签时,content_dict['Content']中只可能包含紧邻table前的那个P标签内容(如果存在),而不是之前所有连续的P标签内容。
立即学习“前端免费学习笔记(深入)”;
为了正确地聚合P标签内容并在遇到表格时将其作为独立项处理,我们需要引入一个“缓冲区”来累积P标签的内容,直到遇到非P标签(如表格)或文档结束。
核心思路如下:
以下是实现这一逻辑的优化代码:
from bs4 import BeautifulSoup
import html2text
import json
# 示例HTML数据
data3 = """
<div>
<p>这是第一段内容。</p>
<p>这是第二段内容,它们应该被合并。</p>
<div>
<table>
<tr>
<td>表格1</td>
<td>数据</td>
</tr>
<tr>
<td>更多</td>
<td>内容</td>
</tr>
</table>
</div>
<p>这是第三段内容,位于表格之后。</p>
</div>
<p>这是第四段内容,在外部。</p>
<table>
<tr>
<td>表格2</td>
<td>独立</td>
</tr>
</table>
<p>这是第五段内容,作为文档的最后部分。</p>
"""
converter = html2text.HTML2Text()
soup = BeautifulSoup(data3, 'html.parser')
content_items = []
current_p_buffer = [] # 用于累积P标签内容的缓冲区
# 使用 find_all 获取所有 p 和 table 标签,确保按文档顺序处理
# 这种方法比直接遍历 descendants 更适合这种按序聚合的需求
all_relevant_tags = soup.find_all(['p', 'table'])
for tag in all_relevant_tags:
if tag.name == "p":
# 将P标签内容添加到缓冲区,并去除html2text可能引入的额外空白
current_p_buffer.append(converter.handle(str(tag)).strip())
elif tag.name == "table":
# 如果缓冲区有P标签内容,先将其作为一项添加到结果列表
if current_p_buffer:
content_items.append({
'Title': "35.23.060 - DR Zone Standards", # 示例标题,可根据实际需求动态设置
'Content': "\n\n".join(current_p_buffer) # 使用双换行符连接段落
})
current_p_buffer = [] # 清空缓冲区
# 然后将Table标签内容作为单独一项添加到结果列表
content_items.append({
'Title': "35.23.060 - DR Zone Standards", # 示例标题
'Content': converter.handle(str(tag)).strip()
})
# 循环结束后,检查缓冲区是否还有剩余的P标签内容
if current_p_buffer:
content_items.append({
'Title': "35.23.060 - DR Zone Standards", # 示例标题
'Content': "\n\n".join(current_p_buffer)
})
# 打印最终提取的数据
print(json.dumps(content_items, indent=4, ensure_ascii=False))[
{
"Title": "35.23.060 - DR Zone Standards",
"Content": "这是第一段内容。\n\n这是第二段内容,它们应该被合并。"
},
{
"Title": "35.23.060 - DR Zone Standards",
"Content": "| 表格1 | 数据 |\n|---|---|\n| 更多 | 内容 |"
},
{
"Title": "35.23.060 - DR Zone Standards",
"Content": "这是第三段内容,位于表格之后。\n\n这是第四段内容,在外部。"
},
{
"Title": "35.23.060 - DR Zone Standards",
"Content": "| 表格2 | 独立 |\n|---|---|"
},
{
"Title": "35.23.060 - DR Zone Standards",
"Content": "这是第五段内容,作为文档的最后部分。"
}
]通过采用内容缓冲区和find_all方法,我们可以有效地从复杂的HTML文档中按序提取并聚合P标签内容,同时将Table标签作为独立的结构化数据项进行处理。这种模式不仅解决了P标签聚合的常见问题,也为处理其他类型的混合HTML内容提供了通用的解决方案,极大地提高了数据提取的准确性和灵活性。
以上就是从HTML中提取并分离合并P标签与Table标签的教程的详细内容,更多请关注php中文网其它相关文章!
HTML怎么学习?HTML怎么入门?HTML在哪学?HTML怎么学才快?不用担心,这里为大家提供了HTML速学教程(入门课程),有需要的小伙伴保存下载就能学习啦!
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号