Python爬虫:巧妙解决超链接文本提取难题
在使用Python爬虫提取网页数据时,经常会遇到因超链接导致文本字段提取不完整的问题。本文以一个实际案例,详细说明如何修改代码,有效解决此类问题。
案例分析: 假设使用XPath路径//div[@class="f14 l24 news_content mt25zoom"]/p/text()提取网页文本,但目标文本“绿色发展”嵌套在标签内,导致提取结果缺失。原始文本为:“一带一路”不仅是经济繁荣之路,也是绿色发展之路,而爬虫仅提取到:“一带一路”不仅是经济繁荣之路,也是之路。
问题根源在于text()方法仅提取文本节点,忽略标签等元素节点。因此,需要调整XPath路径和文本处理逻辑。
立即学习“Python免费学习笔记(深入)”;
解决方案:
首先,修改XPath路径,使其获取
标签下的所有节点,包括文本节点和标签等。正确的路径应为//div[@class="f14 l24 news_content mt25 zoom"]/p//node()。//node() 选择所有子孙节点。
其次,修改文本处理逻辑,区分文本节点和标签节点,分别提取文本内容。可以使用isinstance()函数判断节点类型,如果是文本节点,直接提取文本;如果是标签节点,则提取其text属性值。
改进后的代码:
import requests from lxml import etree # 目标URL base_url = "https://www.solidwaste.com.cn/news/342864.html" resp = requests.get(url=base_url) html = etree.HTML(resp.text) # 获取网页编码 encod = html.xpath('//meta[1]/@content') if encod: encod = encod[0].split("=")[-1] resp.encoding = encod html = etree.HTML(resp.text) # 获取网页正文内容 content = html.xpath('//div[@class="f14 l24 news_content mt25 zoom"]/p//node()') content_deal = "" for node in content: if isinstance(node, etree._ElementUnicodeResult): content_deal += node.strip() + "\n" elif isinstance(node, etree._Element) and node.tag == 'a': content_deal += node.text.strip() + "\n" print(content_deal)
通过以上改进,可以完整提取包含在标签内的“绿色发展”文本。关键在于使用//node()获取所有子节点,并根据节点类型进行差异化文本提取。
以上就是Python爬虫提取超链接文本失败怎么办?的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号