
本文介绍了如何使用 R 语言中的 rvest 和 xml2 包从网页中提取嵌套的 URL。由于某些网页的内容是通过 JavaScript 动态加载的,直接使用 read_html 可能无法获取完整的 HTML 结构。本文提供了一种通过分析网络请求,直接获取包含 URL 的 JSON 数据的方法,并使用 httr 包和 dplyr 包进行解析和提取。
现代网页经常使用 JavaScript 来动态加载内容。这意味着,当你使用 read_html 函数读取网页时,你可能只能获取到初始的 HTML 结构,而缺少通过 JavaScript 加载的部分。这些动态加载的内容可能包含你想要提取的 URL。
要解决这个问题,你需要分析网页的网络请求,找到加载数据的 API 接口。你可以使用浏览器的开发者工具(通常通过 F12 键打开)来查看网络请求。在 "Network" 选项卡中,你可以找到网页加载的所有资源,包括 HTML、CSS、JavaScript、图片和 JSON 数据等。
在找到包含 URL 的 JSON 数据后,你可以使用 httr 包来发送 HTTP 请求,获取数据。以下是一个示例:
library(httr)
library(dplyr)
url <- paste0("https://thrivemarket.com/api/v1/products",
"?page_size=60&multifilter=1&cur_page=1")
content(GET(url))$products %>%
lapply(function(x) data.frame(product = x$title, url = x$url)) %>%
bind_rows() %>%
as_tibble()代码解释:
library(httr)
library(dplyr)
url <- paste0("https://thrivemarket.com/api/v1/products",
"?page_size=60&multifilter=1&cur_page=1")
headers = c('User-Agent' = 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3')
content(GET(url, add_headers(headers)))$products %>%
lapply(function(x) data.frame(product = x$title, url = x$url)) %>%
bind_rows() %>%
as_tibble()当使用 rvest 和 xml2 无法直接提取动态加载的网页内容时,分析网络请求,直接获取 JSON 数据是一种有效的替代方案。使用 httr 包发送 HTTP 请求,并使用 dplyr 包进行数据处理,可以轻松地提取你需要的 URL。记住,你需要定期检查你的代码,确保它仍然能够正常工作,并遵守网站的爬取规则。
以上就是使用 rvest 和 xml2 从网页中提取所有嵌套 URL的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号