
在数据分析和处理过程中,我们经常会遇到dataframe中包含长文本字段(例如产品描述、文章内容、用户评论等)的情况。这些文本有时可能超过几千个字符。出于数据存储、导入限制、机器学习模型输入或可视化展示等多种原因,我们可能需要将这些长文本拆分成多个较短的块。
然而,简单的按字符数截断或按特定分隔符(如逗号)拆分,往往会破坏文本的语义完整性。理想的分块方式是既能控制每个块的长度不超过某个上限,又能确保每个块都以一个完整的句子结尾,避免句子被截断。这正是本教程要解决的核心问题。
为了实现这一目标,我们将结合使用以下技术:
我们将创建一个名为 split_sentences 的函数,它接收原始文本、最大长度限制以及新生成列的前缀作为参数。
在使用NLTK进行句子分词之前,需要确保已下载其 punkt 分词器模型。如果尚未下载,可以通过以下代码完成:
import nltk
try:
nltk.data.find('tokenizers/punkt')
except nltk.downloader.DownloadError:
nltk.download('punkt')split_sentences 函数的核心逻辑在于遍历由NLTK分词器生成的句子列表,并根据设定的 max_len 限制将这些句子组合起来。
import pandas as pd
import nltk
def split_sentences(text, max_len=300, prefix='text'):
"""
将长文本按句子和最大长度限制进行分块。
Args:
text (str): 待处理的原始长文本。
max_len (int): 每个分块的最大字符长度。
prefix (str): 新生成列的名称前缀。
Returns:
pd.Series: 包含分块文本的新Series,列名格式为 prefix_1, prefix_2, ...
"""
if not isinstance(text, str):
# 处理非字符串输入,例如NaN值
return pd.Series([None]).rename(lambda x: f'{prefix}_{x+1}')
out = [] # 存储最终的分块文本
current_chunk_sentences = [] # 存储当前正在构建的文本块中的句子
current_chunk_length = 0 # 存储当前文本块的长度
# 使用NLTK进行句子分词
sentences = nltk.sent_tokenize(text)
for sentence in sentences:
# 估算加上当前句子后,新块的长度。+1 是为了考虑句子之间的空格。
# 注意:这里假设句子之间会用一个空格连接。
potential_new_length = current_chunk_length + len(sentence) + (1 if current_chunk_sentences else 0)
# 如果加上当前句子会超出最大长度限制,则将当前已有的句子组合成一个块
if potential_new_length > max_len and current_chunk_sentences:
out.append(' '.join(current_chunk_sentences))
current_chunk_sentences = []
current_chunk_length = 0
# 将当前句子添加到当前块中
current_chunk_sentences.append(sentence)
current_chunk_length = len(' '.join(current_chunk_sentences))
# 处理循环结束后剩余的句子,将其作为最后一个块
if current_chunk_sentences:
out.append(' '.join(current_chunk_sentences))
# 将结果转换为Pandas Series,并设置列名
return pd.Series(out).rename(lambda x: f'{prefix}_{x+1}')
函数逻辑解释:
创建了 split_sentences 函数后,我们可以使用Pandas的 apply 方法将其应用于DataFrame中的目标文本列。
假设我们有一个名为 df 的DataFrame,其中包含一个名为 text 的长文本列。
# 示例数据(使用Lorem Ipsum文本模拟长文本)
lipsum = '''Lorem ipsum dolor sit amet, consectetur adipiscing elit. Sed non risus. Suspendisse lectus tortor, dignissim sit amet, adipiscing nec, ultricies sed, dolor. Cras elementum ultrices diam. Maecenas ligula massa, varius a, semper congue, euismod non, mi. Proin porttitor, orci nec nonummy molestie, enim est eleifend mi, non fermentum diam nisl sit amet erat. Duis semper. Duis arcu massa, scelerisque vitae, consequat in, pretium a, enim. Pellentesque congue. Ut in risus volutpat libero pharetra tempor. Cras vestibulum bibendum augue. Praesent egestas leo in pede. Praesent blandit odio eu enim. Pellentesque sed dui ut augue blandit sodales. Vestibulum ante ipsum primis in faucibus orci luctus et ultrices posuere cubilia Curae; Aliquam nibh. Mauris ac mauris sed pede pellentesque fermentum. Maecenas adipiscing ante non diam sodales hendrerit.'''
df = pd.DataFrame({'other_column': [1, 2], 'text': [lipsum, lipsum.upper()]})
# 应用自定义函数到 'text' 列
# 使用 .join() 将新生成的Series(包含分块列)合并回原始DataFrame
# 然后删除原始的 'text' 列
df_split = df.join(df['text'].apply(split_sentences, max_len=300, prefix='text')).drop(columns='text')
print(df_split)运行上述代码,我们将得到一个DataFrame,其中原始的 text 列已被删除,并替换为多个新的列(例如 text_1, text_2, text_3 等),每个新列都包含不超过300个字符且以完整句子结尾的文本块。
示例输出:
other_column text_1 \
0 1 Lorem ipsum dolor sit amet, consectetur adipis...
1 2 LOREM IPSUM DOLOR SIT AMET, CONSECTETUR ADIPIS...
text_2 \
0 Proin porttitor, orci nec nonummy molestie, en...
1 PROIN PORTTITOR, ORCI NEC NONUMMY MOLESTIE, EN...
text_3 \
0 Praesent egestas leo in pede. Praesent blandit...
1 PRAESENT EGESTAS LEO IN PEDE. PRAESENT BLANDIT...
text_4
0 Maecenas adipiscing ante non diam sodales hend...
1 MAECENAS ADIPISCING ANTE NON DIAM SODALES HEND... 从输出中可以看到,原始的长文本被成功拆分成了多个新列,并且每个列中的内容都是由完整的句子组成的,同时长度也得到了有效控制。
本教程提供了一种在Pandas DataFrame中智能拆分长文本列的有效方法。通过结合NLTK的句子分词能力和自定义的长度控制逻辑,我们能够将长文本分割成多个符合长度限制且保持句子完整性的新列。这种方法在数据预处理、特征工程以及满足特定数据导入规范时具有重要的实用价值,极大地提高了长文本数据的可管理性和可用性。
以上就是Pandas DataFrame长文本列智能拆分:兼顾长度与句子完整性的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号