使用 rvest 和 xml2 从网页中提取所有嵌套 URL

心靈之曲
发布: 2025-08-27 19:53:00
原创
470人浏览过

使用 rvest 和 xml2 从网页中提取所有嵌套 url

本文介绍了如何使用 R 语言中的 rvest 和 xml2 包从网页中提取嵌套的 URL。由于某些网页的内容是通过 JavaScript 动态加载的,直接使用 read_html 可能无法获取完整的 HTML 结构。本文提供了一种通过分析网络请求,直接获取包含 URL 的 JSON 数据的方法,并使用 httr 包和 dplyr 包进行解析和提取。

理解动态加载的网页

现代网页经常使用 JavaScript 来动态加载内容。这意味着,当你使用 read_html 函数读取网页时,你可能只能获取到初始的 HTML 结构,而缺少通过 JavaScript 加载的部分。这些动态加载的内容可能包含你想要提取的 URL。

分析网络请求

要解决这个问题,你需要分析网页的网络请求,找到加载数据的 API 接口。你可以使用浏览器的开发者工具(通常通过 F12 键打开)来查看网络请求。在 "Network" 选项卡中,你可以找到网页加载的所有资源,包括 HTML、CSS、JavaScript、图片和 JSON 数据等。

获取 JSON 数据

在找到包含 URL 的 JSON 数据后,你可以使用 httr 包来发送 HTTP 请求,获取数据。以下是一个示例:

有道翻译AI助手
有道翻译AI助手

有道翻译提供即时免费的中文、英语、日语、韩语、法语、德语、俄语、西班牙语、葡萄牙语、越南语、印尼语、意大利语、荷兰语、泰语全文翻译、网页翻译、文档翻译、PDF翻

有道翻译AI助手 63
查看详情 有道翻译AI助手
library(httr)
library(dplyr)

url <- paste0("https://thrivemarket.com/api/v1/products",
              "?page_size=60&multifilter=1&cur_page=1")

content(GET(url))$products %>%
  lapply(function(x) data.frame(product = x$title, url = x$url)) %>%
  bind_rows() %>%
  as_tibble()
登录后复制

代码解释:

  1. library(httr) 和 library(dplyr): 加载 httr 用于发送 HTTP 请求,dplyr 用于数据处理。
  2. url <- paste0(...): 构建 API 的 URL。你需要根据你分析的网络请求结果修改这个 URL。
  3. content(GET(url))$products: 使用 GET 函数发送 HTTP GET 请求,content 函数将响应内容解析为 R 对象。 $products 用于提取 JSON 数据中包含产品信息的列表。
  4. lapply(function(x) data.frame(product = x$title, url = x$url)): 使用 lapply 函数遍历产品列表,并提取每个产品的标题和 URL,并将它们存储在一个数据框中。
  5. bind_rows(): 将所有数据框合并成一个大的数据框。
  6. as_tibble(): 将数据框转换为 tibble 对象,这是一种更现代的数据框格式。

注意事项

  • API 的 URL 可能会改变: 网页的 API 接口可能会随着时间的推移而改变。你需要定期检查你的代码,确保它仍然能够正常工作。
  • 需要遵守网站的robots.txt: 在抓取网页数据时,务必遵守网站的 robots.txt 协议,尊重网站的爬取规则。
  • 设置请求头 (User-Agent): 有些网站会根据请求头来判断是否为爬虫,可以在 GET 请求中设置 User-Agent 字段,模拟浏览器行为。
library(httr)
library(dplyr)

url <- paste0("https://thrivemarket.com/api/v1/products",
              "?page_size=60&multifilter=1&cur_page=1")

headers = c('User-Agent' = 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3')

content(GET(url, add_headers(headers)))$products %>%
  lapply(function(x) data.frame(product = x$title, url = x$url)) %>%
  bind_rows() %>%
  as_tibble()
登录后复制

总结

当使用 rvest 和 xml2 无法直接提取动态加载的网页内容时,分析网络请求,直接获取 JSON 数据是一种有效的替代方案。使用 httr 包发送 HTTP 请求,并使用 dplyr 包进行数据处理,可以轻松地提取你需要的 URL。记住,你需要定期检查你的代码,确保它仍然能够正常工作,并遵守网站的爬取规则。

以上就是使用 rvest 和 xml2 从网页中提取所有嵌套 URL的详细内容,更多请关注php中文网其它相关文章!

最佳 Windows 性能的顶级免费优化软件
最佳 Windows 性能的顶级免费优化软件

每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。

下载
来源:php中文网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
热门推荐
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新 English
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号