
本教程旨在解决使用r语言从网页文章中提取文本时遇到的“噪音”问题。我们将介绍如何利用`htm2txt`包进行初步文本抓取,并结合`quanteda`和`qdapdictionaries`包,通过字典过滤的方法,有效去除无关字符和非标准词汇,从而获得更纯净、有意义的文章内容。文章将详细阐述从网页抓取到文本清洗的完整流程,并提供r代码示例及注意事项。
在进行网络数据抓取时,尤其是在处理新闻文章或维基百科页面等富文本内容时,直接提取的文本往往包含大量非文章核心内容的“噪音”,例如导航链接、版权声明、广告词、页面标识符等。尽管htm2txt包的gettxt()函数能够高效地将HTML页面转换为纯文本,但它通常无法区分这些有用与无用的信息。为了获得更精确、更具分析价值的文本数据,我们需要进一步的清洗和过滤。
首先,我们使用htm2txt包来从指定URL提取文本。这个包能够将HTML内容转换为可读的纯文本格式。
# 安装并加载必要的包
# install.packages("htm2txt")
library(htm2txt)
# 示例URL
url_example <- 'https://en.wikipedia.org/wiki/Alan_Turing'
# 提取文本
raw_text <- gettxt(url_example)
# 打印部分结果以观察噪音
# cat(substr(raw_text, 1, 1000))通过gettxt()函数,我们可以快速获取网页的文本内容。然而,正如问题描述中指出的,这些文本中会混杂着如p. 40/03B\n• ^ a或identifiers\n• Articles with GND identifiers\n•这类与文章主题无关的字符或短语。
为了解决上述问题,一种有效的方法是采用基于字典的过滤。其核心思想是:只保留那些在标准英语字典中存在的词汇,从而过滤掉大部分非语言性的噪音、乱码或非标准词汇。这需要结合文本处理和自然语言处理(NLP)相关的R包。
我们将使用以下包:
首先,确保所有必要的库都已安装并加载。同时,加载qdapDictionaries包中的DICTIONARY数据集,它包含了标准的英语词汇列表。
# 安装并加载必要的包
# install.packages(c("tidyverse", "quanteda", "qdapDictionaries"))
library(tidyverse)
library(htm2txt)
library(quanteda)
library(qdapDictionaries)
# 加载字典数据
data(DICTIONARY)接下来,我们将从网页提取的原始文本转换为quanteda的语料库(corpus)对象,然后进行分词(tokenization)。分词是将文本拆分成单个词语或符号的过程。在分词时,我们可以选择移除标点符号和数字,以进一步简化文本。
# 将原始文本转换为quanteda语料库 text_corpus <- corpus(raw_text) # 分词,移除标点和数字 tokens_raw <- tokens(text_corpus, remove_punct = TRUE, remove_numbers = TRUE)
这是文本清洗的关键步骤。我们使用tokens_select()函数,结合qdapDictionaries::DICTIONARY$word作为白名单,只保留那些出现在字典中的词汇。
# 使用字典过滤词汇 # DICTIONARY$word 包含了标准的英语词汇列表 tokens_filtered <- tokens_select(tokens_raw, DICTIONARY$word)
经过这一步,大部分非英文词汇、乱码以及一些非标准文本(如页面标识符中的字母组合)将被移除。
为了更好地理解清洗后的文本内容,我们可以将过滤后的词汇转换为数据框,并统计每个词的出现频率。这有助于我们了解文章的核心主题和关键词。
# 将过滤后的tokens转换为数据框,并计算词频 word_frequencies <- data.frame(text = sapply(tokens_filtered, as.character), stringsAsFactors = FALSE) %>% unnest(text) %>% # 将列表中的tokens展开为行 rename(word = text) %>% mutate(word = tolower(word)) %>% # 转换为小写 group_by(word) %>% summarise(frequency = n()) %>% # 计算词频 arrange(desc(frequency)) # 按频率降序排列
完整代码示例:
将上述步骤整合到一起,形成一个完整的文本提取与清洗流程:
# 确保所有必要的包已安装并加载
# install.packages(c("tidyverse", "htm2txt", "quanteda", "qdapDictionaries"))
library(tidyverse)
library(htm2txt)
library(quanteda)
library(qdapDictionaries)
# 加载字典数据
data(DICTIONARY)
# 目标网页URL
target_url <- 'https://en.wikipedia.org/wiki/Alan_Turing' # 示例URL
# 1. 从网页提取原始文本
raw_text_content <- gettxt(target_url)
# 2. 将原始文本转换为quanteda语料库
text_corpus <- corpus(raw_text_content)
# 3. 分词,并移除标点符号和数字
tokens_processed <- tokens(text_corpus, remove_punct = TRUE, remove_numbers = TRUE)
# 4. 使用字典过滤词汇,只保留标准英语词汇
# DICTIONARY$word 是qdapDictionaries包提供的标准英语词汇列表
tokens_cleaned <- tokens_select(tokens_processed, DICTIONARY$word)
# 5. 将清洗后的tokens转换为数据框,并计算词频
# 注意:quanteda的tokens对象在转换为数据框时需要一些处理
# 这里的处理方式是先转换为字符向量,再通过unnest展开
cleaned_word_frequencies <- data.frame(
doc_id = names(tokens_cleaned),
text = sapply(tokens_cleaned, paste, collapse = " ") # 将tokens重新组合成字符串
) %>%
unnest_tokens(word, text) %>% # 再次分词,将每个词作为一行
mutate(word = tolower(word)) %>% # 转换为小写
group_by(word) %>%
summarise(frequency = n()) %>% # 计算词频
arrange(desc(frequency)) # 按频率降序排列
# 打印清洗后的词频前几行
head(cleaned_word_frequencies)
# 也可以直接查看清洗后的tokens
# print(tokens_cleaned)通过结合htm2txt进行初步文本提取,并利用quanteda和qdapDictionaries进行字典过滤,我们能够有效地从网页文章中提取出相对纯净、有意义的文本内容。这种方法提供了一个实用且易于实现的文本清洗流程,对于需要进行文本分析、主题建模或信息提取的用户来说,是一个非常有价值的工具。尽管存在一定的局限性,但它为后续的文本数据处理奠定了坚实的基础。
以上就是使用R语言从网页文章中提取并清洗文本教程的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号