0

0

如何使用Python计算数据相似度?余弦定理实现

爱谁谁

爱谁谁

发布时间:2025-07-08 08:15:02

|

542人浏览过

|

来源于php中文网

原创

余弦相似度适合高维稀疏文本数据。1. 通过tf-idf或countvectorizer将文本转化为数值向量;2. 使用numpy或scipy计算向量间的余弦相似度;3. 该方法不依赖文档长度,适用于推荐系统、图像处理、基因分析等场景;4. 注意数据预处理、零向量处理及特征工程对结果的影响。

如何使用Python计算数据相似度?余弦定理实现

计算数据相似度,尤其在处理文本这类高维、稀疏数据时,Python结合余弦定理是个非常实用的方法。它本质上衡量的是两个向量在方向上的接近程度,而不是它们绝对数值的大小,这让它在很多场景下都显得特别有用。通过将数据转化为向量,然后计算这些向量之间的夹角余弦值,我们就能得到一个介于-1到1(或0到1,取决于数据是否非负)的数值,来量化它们的相似性。

如何使用Python计算数据相似度?余弦定理实现

解决方案

要使用Python计算数据的余弦相似度,核心步骤是将你的数据转换成数值向量,然后应用余弦相似度的数学公式。对我来说,这通常意味着从文本内容开始,比如句子或文档,然后通过一些技术将其“量化”。

一个常见的流程是:

立即学习Python免费学习笔记(深入)”;

如何使用Python计算数据相似度?余弦定理实现
  1. 文本预处理与向量化: 这是基础。你需要把文本转换成计算机能理解的数字形式。最常见的办法是使用TF-IDF(Term Frequency-Inverse Document Frequency)或CountVectorizer。它们能把每个文档或句子表示成一个高维向量,向量的每个维度代表一个词,值则表示这个词在文档中的重要性或出现频率。 比如说,我们有两句话:

    • "我喜欢吃苹果"
    • "他喜欢吃香蕉"

    经过简单的分词和词频统计,它们可能被映射成这样的向量(假设词汇表是 [我, 喜欢, 吃, 苹果, 他, 香蕉]):

    如何使用Python计算数据相似度?余弦定理实现
    • 句子1: [1, 1, 1, 1, 0, 0]
    • 句子2: [0, 1, 1, 0, 1, 1]
  2. 计算余弦相似度: 有了向量,计算就简单了。余弦相似度的公式是:cos(theta) = (A · B) / (||A|| * ||B||)。 其中,A · B 是向量A和B的点积,||A||||B|| 分别是向量A和B的欧几里得范数(或称L2范数,即向量的长度)。

在Python里,我们可以用numpy库手动实现,或者用scipy库里的现成函数,后者通常更高效、更稳定。

import numpy as np
from sklearn.feature_extraction.text import TfidfVectorizer
from scipy.spatial.distance import cosine

# 示例数据:两段文本
doc1 = "我喜欢吃苹果,苹果很好吃。"
doc2 = "他喜欢吃香蕉,香蕉也很好吃。"
doc3 = "我喜欢编程,编程很有趣。"

# 1. 文本向量化
# 使用TfidfVectorizer将文本转换为TF-IDF向量
vectorizer = TfidfVectorizer()
tfidf_matrix = vectorizer.fit_transform([doc1, doc2, doc3])

# 获取每个文档的TF-IDF向量
vec1 = tfidf_matrix[0].toarray()
vec2 = tfidf_matrix[1].toarray()
vec3 = tfidf_matrix[2].toarray()

# 2. 计算余弦相似度

# 方法一:手动计算(使用numpy)
def manual_cosine_similarity(vec_a, vec_b):
    dot_product = np.dot(vec_a, vec_b.T) # 注意这里vec_b.T是因为vec_a和vec_b都是行向量
    norm_a = np.linalg.norm(vec_a)
    norm_b = np.linalg.norm(vec_b)
    if norm_a == 0 or norm_b == 0: # 避免除以零
        return 0.0
    return dot_product / (norm_a * norm_b)

print(f"手动计算 - Doc1 和 Doc2 的相似度: {manual_cosine_similarity(vec1, vec2)[0][0]:.4f}")
print(f"手动计算 - Doc1 和 Doc3 的相似度: {manual_cosine_similarity(vec1, vec3)[0][0]:.4f}")

# 方法二:使用scipy库(推荐)
# 注意:scipy.spatial.distance.cosine 返回的是余弦距离,即 1 - 相似度
print(f"Scipy计算 - Doc1 和 Doc2 的相似度: {1 - cosine(vec1, vec2):.4f}")
print(f"Scipy计算 - Doc1 和 Doc3 的相似度: {1 - cosine(vec1, vec3):.4f}")

从结果看,Doc1和Doc2因为都提到了“吃”和“喜欢”,所以相似度会高一些,而Doc1和Doc3则因为话题差异大,相似度会低很多,这很符合直觉。

余弦相似度在文本分析中为何如此常用?

在我看来,余弦相似度之所以在文本分析领域如此“吃香”,主要有几个特别契合文本数据特性的优点。

首先,它非常擅长处理高维稀疏数据。文本数据就是典型的例子,一个文档集合可能包含成千上万个独特的词汇,每个文档在由这些词汇构成的巨大向量空间中,大部分维度上的值都是零(因为文档通常只包含词汇表中的一小部分词)。欧氏距离在这种情况下可能表现不佳,因为它会过度关注那些共同为零的维度,而余弦相似度则更侧重于非零维度上的相对关系。

其次,它不怎么受文档长度的影响。这是个关键点。想象一下,一篇很长的文章和一篇很短的文章,如果它们讨论的是同一个话题,那么它们的词汇分布模式应该是相似的。如果用欧氏距离,长文档的词频会更高,导致距离很大。但余弦相似度衡量的是向量间的夹角,长短文档的向量方向可能非常接近,因此相似度会很高。它关注的是“内容方向”的一致性,而不是“内容量”的多少,这对于理解文本主题至关重要。

再者,它能很好地捕捉语义上的相似性,而不仅仅是字面上的匹配。虽然它本身是基于词频的,但通过TF-IDF等加权方法,它能让那些在少数文档中出现但对特定文档很重要的词(比如专业术语)获得更高的权重,从而更准确地反映文档的主题。

乾坤圈新媒体矩阵管家
乾坤圈新媒体矩阵管家

新媒体账号、门店矩阵智能管理系统

下载

除了文本数据,余弦相似度还能用在哪些场景?

余弦相似度的应用场景远不止文本分析,这其实是我觉得它特别有意思的地方。只要你能把数据抽象成向量,并且你更关心这些数据“方向”或“模式”上的相似性,而不是它们绝对数值上的差异,余弦相似度就可能派上用场。

一个非常典型的应用就是推荐系统。无论是基于用户的协同过滤还是基于物品的协同过滤,余弦相似度都是计算用户兴趣相似度或物品特征相似度的常用工具。比如,我们可以把用户对不同电影的评分(或者观看历史、购买记录)看作一个向量,然后计算用户之间的相似度,从而推荐“和你兴趣相似的人也喜欢的电影”。或者,把电影的各种标签、演员、导演等特征编码成向量,计算电影之间的相似度,推荐“和你喜欢的电影相似的其他电影”。

图像处理领域,如果我们将图像的特征(比如颜色直方图、纹理特征、深度学习模型提取的嵌入向量等)表示为向量,那么余弦相似度可以用来查找相似的图片。比如,你给出一张照片,系统可以找出数据库里风格或内容相似的其他照片。

基因表达数据分析也是一个例子。科学家可能会将不同实验条件下基因的表达水平看作一个向量,通过计算基因之间的余弦相似度来发现功能相似或协同作用的基因。

甚至在市场营销和客户行为分析中,你也可以将客户的购买历史、浏览行为等数据向量化,然后用余弦相似度来识别具有相似消费习惯的客户群,从而进行更精准的营销策略制定。

计算余弦相似度时有哪些常见的坑或需要注意的地方?

虽然余弦相似度非常强大,但在实际应用中,我确实遇到过一些需要特别留意的地方,否则结果可能会让你感到困惑。

首先是数据预处理的质量。这是基石。如果你的原始数据(尤其是文本)没有经过适当的清洗、分词、去除停用词、词形还原等步骤,或者向量化方法选择不当,那么无论余弦相似度算法本身多么精确,最终的相似度结果都会大打折扣,甚至完全偏离预期。比如,如果你的文本里充满了HTML标签或者乱码,这些“噪音”会极大地干扰词频统计和向量构建。

其次,要小心零向量的情况。如果一个向量的所有维度都是零(例如,一个空文档,或者一个文档在经过特征选择后没有任何有效词汇),那么它的范数就是零。在余弦相似度的公式中,这会导致除以零的错误。在实际编程时,你通常需要添加一个检查,如果发现有零向量,可以返回一个预设的相似度值(比如0,表示完全不相似;或者1,如果认为它们是“相同”的空集,但这不常见)。scipy.spatial.distance.cosine函数通常会处理这种情况,但了解其背后原理很重要。

再有,就是对相似度值的解释。余弦相似度通常在0到1之间(对于非负向量,如词频向量),值越接近1表示越相似,越接近0表示越不相似。但这个“相似”到底意味着什么,很多时候需要结合具体业务场景来判断。0.7的相似度在某些领域可能已经很高,但在另一些领域可能还不够。此外,如果你的向量包含负值(比如某些深度学习模型的嵌入向量),余弦相似度可以在-1到1之间,-1表示完全相反,0表示正交(不相关)。

最后,特征工程的质量直接决定了余弦相似度的有效性。你把什么信息编码到向量里,这些信息的重要性如何,都直接影响着最终的相似度计算。选择合适的特征、进行恰当的加权(比如TF-IDF就是一种加权策略),是提升余弦相似度准确性的关键。有时候,简单的词频可能不足以捕捉语义,你可能需要考虑更复杂的词嵌入(如Word2Vec、BERT embeddings),这些能提供更丰富的语义信息,从而让余弦相似度在更深层次上发挥作用。

相关专题

更多
python开发工具
python开发工具

php中文网为大家提供各种python开发工具,好的开发工具,可帮助开发者攻克编程学习中的基础障碍,理解每一行源代码在程序执行时在计算机中的过程。php中文网还为大家带来python相关课程以及相关文章等内容,供大家免费下载使用。

746

2023.06.15

python打包成可执行文件
python打包成可执行文件

本专题为大家带来python打包成可执行文件相关的文章,大家可以免费的下载体验。

634

2023.07.20

python能做什么
python能做什么

python能做的有:可用于开发基于控制台的应用程序、多媒体部分开发、用于开发基于Web的应用程序、使用python处理数据、系统编程等等。本专题为大家提供python相关的各种文章、以及下载和课程。

758

2023.07.25

format在python中的用法
format在python中的用法

Python中的format是一种字符串格式化方法,用于将变量或值插入到字符串中的占位符位置。通过format方法,我们可以动态地构建字符串,使其包含不同值。php中文网给大家带来了相关的教程以及文章,欢迎大家前来阅读学习。

617

2023.07.31

python教程
python教程

Python已成为一门网红语言,即使是在非编程开发者当中,也掀起了一股学习的热潮。本专题为大家带来python教程的相关文章,大家可以免费体验学习。

1260

2023.08.03

python环境变量的配置
python环境变量的配置

Python是一种流行的编程语言,被广泛用于软件开发、数据分析和科学计算等领域。在安装Python之后,我们需要配置环境变量,以便在任何位置都能够访问Python的可执行文件。php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

547

2023.08.04

python eval
python eval

eval函数是Python中一个非常强大的函数,它可以将字符串作为Python代码进行执行,实现动态编程的效果。然而,由于其潜在的安全风险和性能问题,需要谨慎使用。php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

577

2023.08.04

scratch和python区别
scratch和python区别

scratch和python的区别:1、scratch是一种专为初学者设计的图形化编程语言,python是一种文本编程语言;2、scratch使用的是基于积木的编程语法,python采用更加传统的文本编程语法等等。本专题为大家提供scratch和python相关的文章、下载、课程内容,供大家免费下载体验。

705

2023.08.11

c++主流开发框架汇总
c++主流开发框架汇总

本专题整合了c++开发框架推荐,阅读专题下面的文章了解更多详细内容。

97

2026.01.09

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 0.6万人学习

Django 教程
Django 教程

共28课时 | 3万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.1万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号