构建AI智能体:RAG超越语义搜索:如何用Rerank模型实现检索精度的大幅提升

絕刀狂花
发布: 2025-11-26 16:20:15
原创
207人浏览过

​一、发轫之始

在工作和生活中,我们可能经常会遇到一些场景,我们在搜索引擎中输入问题寻求解决方案,返回的却是大量重复的、基础性的、甚至是商业推广的内容。无奈的反复修正我们的检索内容,就是找不到答案,这确实是一大困扰,由于算法的局限性和商业干扰,导致搜索引擎算法倾向于流行度而非质量,商业利益常常凌驾于信息价值之上。我们得到的往往是最多人点击的,而不是最正确的。 如今随着ai的大爆发,我们也在设计ai产品,我们如何突破这种信息茧房,让我们设计的系统反馈的答案更加的精准化,首先我们已经了解到rag的概念和优势,现在我们继续为rag插上翅膀,集成结果的重排序rerank模型,提升产品用户体验和系统信任度,增强搜索问题和结果之间的深层语义关系,从海量信息中精准筛选出最适合的内容,并以易于理解的方式呈现给用户。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

构建AI智能体:RAG超越语义搜索:如何用Rerank模型实现检索精度的大幅提升

二、 什么是Rerank模型

重排序(Rerank) 是在检索增强生成(RAG)系统中,对初步检索到的文档结果进行精细化重新排序的关键技术环节。它位于初始检索和最终生成之间,充当"质检员"和"精算师"的角色,对初步检索到的大量候选文档(例如100-1000个)进行重新评分和排序,将最相关、最准确的少量文档(例如5-10个)排在顶部,然后将其提供给LLM生成最终答案。确保传递给大语言模型(LLM)的上下文材料是最高质量的。主要用于优化初步检索结果的排序,提高最终输出的相关性或准确性。

可以通俗的将Rerank理解为一位专业的“质检员”或“决赛裁判”:

初始检索(如FAISS):像“海选”,快速从数百万选手中选出100位可能符合条件的。Rerank模型:像“专家评审”,仔细面试这100位选手,从中挑出最顶尖的5位。LLM:像“终极BOSS”,基于最顶尖的5位选手的信息,做出最终决策(生成答案)。

三、为什么需要Rerank

初始的向量检索器,如基于Embedding的FAISS,虽然速度快,但存在固有局限性:

语义相似度 ≠ 查询-文档相关性:Embedding模型学习的是广泛的语义相似性,但“相关”是一个更具体、更任务导向的概念。一个文档可能与查询在语义上很接近,但可能并未直接回答查询的问题。“词汇不匹配”问题:尽管比关键词搜索好,但Embedding模型有时仍然难以完美解决表述差异的问题。精度与召回率的权衡:为了提高召回率(Recall),我们通常会初始检索大量文档(K值较大),但这其中必然包含许多不精确或冗余的文档,直接交给LLM会引入噪声,增加成本并可能导致错误回答。

Rerank模型通过执行更深入的“查询-文档”对交叉分析,专门针对“相关性”进行优化,完美解决了上述问题。

1. Rerank模型和Embedding模型比较

特性

嵌入(Embedding)模型

重排序(Rerank)模型

输入

单段文本

(Query, Document) 对

输出

一个高维向量

一个相关性分数(标量)

计算方式

对称或不对称语义搜索

交叉编码(Cross-Encoder),深度交互

速度

非常快,适合大规模初步检索

相对慢,适合对少量候选精排

精度

良好,但不够精确

非常高,是相关性判断的专家

典型用途

从海量数据中快速召回Top K个候选

对Top K个候选进行精细重排序

2. 核心工作原理:交叉编码

与生成嵌入向度的双编码器(Bi-Encoder) 不同,Rerank模型通常是交叉编码器(Cross-Encoder)。

Bi-Encoder(双塔模型):查询和文档分别通过编码器(通常是同一个)独立地转换为向量,然后计算向量间的相似度(如余弦相似度)。优势是快,因为文档可以预先编码存储。Cross-Encoder(交叉编码):将查询和文档拼接在一起,作为一个完整的序列输入到模型中。模型(如BERT)的注意力机制(Attention)能够同时在查询和文档的所有词元之间进行深度的、精细的交互,从而直接输出一个相关性的分数。优势是精度极高,因为它能真正“理解”Query和Document之间的细微关系。

3. Rerank的优势

显著提升答案质量:提供给LLM的上下文质量更高,直接减少幻觉、提高答案准确性。降低Token消耗:只需传递更少、更精炼的文档给LLM,节省了输入Token的成本。增强系统鲁棒性:即使初始检索不够准确,Rerank也能在一定程度上纠正错误。

四、Rerank的流程节点和模型选择

1. Rerank在RAG流程中的位置

一个集成Rerank的完整RAG流程如下:

输入:用户查询(Query)。初步检索(Recall):使用向量搜索引擎(如FAISS)从知识库中快速召回Top K个相关文档(K较大,例如100)。重排序(Rerank):将用户查询和初步召回的每一个文档依次组成(Query, Document)对,输入到Rerank模型中获取相关性分数。筛选与排序:根据Rerank分数对所有候选文档进行降序排序,并选取Top N个分数最高的文档(N较小,例如5)。生成(Generation):将用户查询和精排后的Top N个文档一起构成提示(Prompt),输入给LLM生成最终答案。输出:LLM生成的、基于最相关上下文的答案。

2. Rerank模型选择

BGE-Rerank和Cohere Rerank是两种广泛使用的重排序模型,它们在检索增强生成(RAG)系统、搜索引擎优化和问答系统中表现优异。

2.1 BGE-Rerank模型

bge-reranker-base / bge-reranker-large:北京智源AI研究院开源的优秀中英双语Rerank模型,非常流行,后者在精度上更优。基于Transformer的Cross-Encoder结构,直接计算查询(Query)与文档(Document)的交互相关性得分,可本地部署。BAAI/bge-reranker-v2-m3:智源最新的多语言、多功能重排序模型。

2.2 Cohere Rerank模型

由Cohere公司提供的商业API服务。基于专有的深度学习模型,支持多语言(如rerank-multilingual-v3.0)。训练数据:优化了语义匹配,特别适用于混合检索(如结合BM25和向量检索)后的结果优化。使用方式:通过API调用,集成到LangChain、LlamaIndex等框架中。简单易用,适合快速集成到现有系统,在英文和多语言任务中表现优异。

更大的模型(Large)通常精度更高,但推理速度更慢。需要在精度和速度之间做出权衡。

INFINITE ALBUM
INFINITE ALBUM

面向游戏玩家的生成式AI音乐

INFINITE ALBUM 144
查看详情 INFINITE ALBUM

五、集成Rerank完整流程图

1. 完整流程图

构建AI智能体:RAG超越语义搜索:如何用Rerank模型实现检索精度的大幅提升

流程介绍

1. 初始检索阶段

用户输入查询:接收用户的自然语言问题查询预处理:对查询进行清洗、标准化和分词处理向量化查询:使用嵌入模型将查询转换为向量表示向量相似度搜索:在向量数据库中进行近似最近邻搜索获取Top K候选文档:返回相似度最高的K个文档(K值较大,确保召回率)

2. 重排序阶段 - 核心环节

构建查询-文档对:将查询与每个候选文档组合成(Query, Document)对重排序模型推理:使用交叉编码器模型对每个对进行深度相关性分析按分数重新排序:根据模型输出的相关性分数对文档降序排列筛选Top N文档:选择分数最高的N个文档(N值较小,确保精确率)

3. 生成阶段

构建提示模板:将精排后的文档与查询组合成LLM可理解的提示LLM推理生成:大语言模型基于提供的上下文生成答案后处理与格式化:对生成的答案进行精炼、格式化和验证

4. 知识库预处理流程

文档预处理:清洗和标准化原始文档文档分块:将长文档分割成适当大小的块生成文档嵌入:为每个文档块生成向量表示向量数据库存储:将文档向量存入向量数据库以备检索

2. Rerank流程图

构建AI智能体:RAG超越语义搜索:如何用Rerank模型实现检索精度的大幅提升

各阶段输入输出示例

1. 初始检索阶段

输入: "如何学习钢琴?"输出: 1. 钢琴保养指南 (相似度: 0.82) 2. 音乐理论基础 (相似度: 0.79) 3. 钢琴购买指南 (相似度: 0.77) 4. 钢琴入门指法教程 (相似度: 0.75) 5. 十大钢琴家介绍 (相似度: 0.72) ... (共100个文档)

2. 重排序阶段

输入: 初始检索的100个文档 + 查询"如何学习钢琴?"处理: 使用BGE-Reranker计算每个文档与查询的相关性分数输出: 1. 钢琴入门指法教程 (相关性: 0.95) 2. 钢琴练习曲目推荐 (相关性: 0.92) 3. 音乐理论基础 (相关性: 0.88) 4. 钢琴学习计划制定 (相关性: 0.85) 5. 钢琴师资选择指南 (相关性: 0.82)

3. 生成阶段

输入: 精排后的5个文档 + 查询"如何学习钢琴?"输出: 学习钢琴应该从基础开始,首先掌握正确的坐姿和手型,然后学习基本的指法。 推荐从《拜厄钢琴基本教程》开始,每天坚持练习30-60分钟。 同时建议学习基础乐理知识,如音符、节奏和和弦等。 最好找一位有经验的老师指导,可以帮助纠正错误姿势和提供个性化建议

六、Rerank的使用场景

推荐使用场景:

高精度要求:医疗、法律、金融等专业领域复杂查询:多概念、抽象或模糊的查询关键任务:答案准确性至关重要的应用文档质量不均:知识库中包含大量相似或冗余文档

可忽略场景:

简单事实查询:"中国的首都"、"浙江的省会"实时性要求极高:需要毫秒级响应的场景计算资源有限:无法承担额外推理成本

七、演示示例

示例1:苹果公司创始人推测

1. 基础代码

使用 bge-reranker模型在基于FAISS的RAG流程中集成Rerank模型。

<code class="javascript">from langchain_community.vectorstores import FAISSfrom langchain.embeddings import HuggingFaceEmbeddingsfrom langchain.schema import Documentfrom transformers import AutoModelForSequenceClassification, AutoTokenizerimport torchimport numpy as np # 1. 准备示例知识库和初始检索# 初始化一个嵌入模型用于初始检索embedding_model = HuggingFaceEmbeddings(    model_name="sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2") # 假设的文档库documents = [    "苹果公司于1976年由史蒂夫·乔布斯、史蒂夫·沃兹尼亚克和罗纳德·韦恩创立,最初主要生产和销售个人电脑。",    "苹果公司最著名的产品是iPhone智能手机,它彻底改变了移动通信行业。",    "水果苹果是一种蔷薇科苹果属的落叶乔木果实,营养价值高,富含维生素和纤维。",    "苹果公司在2023年发布了其首款混合现实头显设备Apple Vision Pro。",    "吃苹果有助于促进消化和增强免疫力,是一种健康零食。",    "蒂姆·库克是苹果公司的现任首席执行官,于2011年接替史蒂夫·乔布斯。"]# 转换为LangChain Document对象docs = [Document(page_content=text) for text in documents] # 构建FAISS向量库vectorstore = FAISS.from_documents(docs, embedding_model) # 用户查询query = "苹果公司的创始人是谁?" # 初始检索:使用向量库召回Top K个文档(这里K=4)initial_retrieved_docs = vectorstore.similarity_search(query, k=4)print("=== 初始检索结果(基于语义相似度)===")for i, doc in enumerate(initial_retrieved_docs):    print(f"{i+1}. [相似度得分: N/A] {doc.page_content}") # 2. 初始化Rerank模型# 我们使用 `BAAI/bge-reranker-base`,这是一个强大的中英双语Rerankermodel_name = "BAAI/bge-reranker-base"tokenizer = AutoTokenizer.from_pretrained(model_name)model = AutoModelForSequenceClassification.from_pretrained(model_name)model.eval() # 设置为评估模式 # 3. 重排序函数def rerank_docs(query, retrieved_docs, model, tokenizer, top_n=3):    """    对检索到的文档进行重排序    Args:        query: 用户查询        retrieved_docs: 检索到的文档列表        model: 重排序模型        tokenizer: 重排序模型的tokenizer        top_n: 返回顶部多少个文档    Returns:        sorted_docs: 按相关性分数降序排列的文档列表        scores: 对应的分数列表    """    # 构建(query, doc)对    pairs = [(query, doc.page_content) for doc in retrieved_docs]        #  Tokenize所有文本对    with torch.no_grad(): # 禁用梯度计算,加快推理速度        inputs = tokenizer(            pairs,             padding=True,             truncation=True,             return_tensors='pt',             max_length=512        )                # 模型前向传播,计算分数        scores = model(**inputs).logits.squeeze(dim=-1).float().numpy()     # 将分数和文档打包在一起    doc_score_list = list(zip(retrieved_docs, scores))        # 按分数降序排序    doc_score_list.sort(key=lambda x: x[1], reverse=True)        # 解包,返回Top N个文档和它们的分数    sorted_docs = [doc for doc, score in doc_score_list[:top_n]]    sorted_scores = [score for doc, score in doc_score_list[:top_n]]        return sorted_docs, sorted_scores # 4. 执行重排序reranked_docs, reranked_scores = rerank_docs(query, initial_retrieved_docs, model, tokenizer, top_n=3) # 5. 打印结果print("=== 重排序后结果(基于交叉编码相关性)===")for i, (doc, score) in enumerate(zip(reranked_docs, reranked_scores)):    print(f"{i+1}. [相关性分数: {score:.4f}] {doc.page_content}") # 6. 将精排后的上下文传递给LLM(这里用打印模拟)context_for_llm = "".join([doc.page_content for doc in reranked_docs])prompt = f"""基于以下上下文,请回答问题。上下文:{context_for_llm}=== 最终输出最优的匹配结果 ===问题:{query}答案:{reranked_docs[0].page_content}"""print(f"=== 最终提供给LLM的Prompt ===")print(prompt)</code>
登录后复制

2. 执行结果

<code class="javascript">=== 初始检索结果(基于语义相似度)===1. [相似度得分: N/A] 苹果公司于1976年由史蒂夫·乔布斯、史蒂夫·沃兹尼亚克和罗纳德·韦恩创立,最初主要生产和销售个人电脑 。2. [相似度得分: N/A] 蒂姆·库克是苹果公司的现任首席执行官,于2011年接替史蒂夫·乔布斯。3. [相似度得分: N/A] 苹果公司在2023年发布了其首款混合现实头显设备Apple Vision Pro。4. [相似度得分: N/A] 水果苹果是一种蔷薇科苹果属的落叶乔木果实,营养价值高,富含维生素和纤维。 === 重排序后结果(基于交叉编码相关性)===1. [相关性分数: 9.3700] 苹果公司于1976年由史蒂夫·乔布斯、史蒂夫·沃兹尼亚克和罗纳德·韦恩创立,最初主要生产和销售个人电脑。2. [相关性分数: 4.5305] 蒂姆·库克是苹果公司的现任首席执行官,于2011年接替史蒂夫·乔布斯。3. [相关性分数: -6.0679] 苹果公司在2023年发布了其首款混合现实头显设备Apple Vision Pro。 === 最终提供给LLM的Prompt === 基于以下上下文,请回答问题。上下文:苹果公司于1976年由史蒂夫·乔布斯、史蒂夫·沃兹尼亚克和罗纳德·韦恩创立,最初主要生产和销售个人电脑。蒂姆·库克是苹果公司的现任首席执行官,于2011年接替史蒂夫·乔布斯。苹果公司在2023年发布了其首款混合现实头显设备Apple Vision Pro。 === 最终输出最优的匹配结果 === 问题:苹果公司的创始人是谁?答案:苹果公司于1976年由史蒂夫·乔布斯、史蒂夫·沃兹尼亚克和罗纳德·韦恩创立,最初主要生产和销售个人电脑。</code>
登录后复制

3. 代码详解

1. 初始设置:

使用sentence-transformers的嵌入模型和FAISS构建一个简单的向量检索库。定义了一个有歧义的查询“苹果公司的创始人是谁?”。注意,知识库中既包含科技公司“苹果”,也包含水果“苹果”。

2. 初始检索:

vectorstore.similarity_search(query, k=4) 召回了4个最“语义相似”的文档。由于Embedding模型的理解是广义语义的,水果“苹果”的文档也可能被召回(例如,文档3和5)。

3. 初始化Rerank模型:

使用transformers库加载预训练的BAAI/bge-reranker-base模型和其对应的分词器。model.eval()将模型设置为评估模式,这会关闭Dropout等训练层,保证输出的一致性。

4. 重排序函数 rerank_docs:

构建对:将查询和每一个检索到的文档内容组成(Query, Document)对。Tokenize:使用tokenizer将所有这些文本对处理成模型可接受的输入格式(input_ids, attention_mask等)。padding=True和truncation=True确保了不同长度的文本对可以被批量处理。模型推理:将处理好的输入传递给模型。with torch.no_grad()块确保不计算梯度,大幅减少内存消耗并加快推理速度。模型的输出是一个分数,分数越高代表相关性越强。排序与筛选:根据模型计算出的相关性分数对文档进行降序排序,并返回Top N个文档。

5. 结果分析:

初始检索结果:可能包含水果苹果的文档,因为它们也包含“苹果”这个词,语义上有相似性。重排序后结果:Rerank模型作为“相关性专家”,能够精确理解“苹果公司”这个特定实体的查询意图。它会给科技公司苹果的文档打出非常高的分数,而给水果苹果的文档打出很低的分数。最终,Top结果中只会留下最相关的科技公司苹果的文档。

4. 模型引用

示例中使用了两个模型sentence-transformers/paraphrase-multilingual-MiniLM-L12-v2和BAAI/bge-reranker-base,都可以本地化部署,前者是一个嵌入模型用于初始检索,它将句子和段落映射到384维的密集向量空间中,可用于聚类或语义搜索等任务;后者前文介绍过,是专门做Rerank的模型,它直接计算查询(Query)与文档(Document)的交互相关性得分,也可本地部署。

在代码运行时,模型检测到本地没有,会自动从线上下载:

构建AI智能体:RAG超越语义搜索:如何用Rerank模型实现检索精度的大幅提升

下载完成的模型目录:

构建AI智能体:RAG超越语义搜索:如何用Rerank模型实现检索精度的大幅提升

模型下载完成后,再次运行时会直接从本地读取!

从示例输出可以清晰看到,重排序后,直接包含答案“创始人”的文档排到了第一,并且所有排名靠前的文档都是关于科技公司的,水果相关的文档被有效地过滤掉了。这样提供给LLM的上下文质量极高,能保证生成答案的准确性。 通过这个流程,Rerank模型极大地提升了RAG系统的最终表现,是其从可用到好用的关键升级。

示例2:如何学习钢琴

1. 基础代码

<code class="javascript">import torchfrom transformers import AutoModelForSequenceClassification, AutoTokenizer class BGEReranker:    def __init__(self, model_name="BAAI/bge-reranker-base"):        self.tokenizer = AutoTokenizer.from_pretrained(model_name)        self.model = AutoModelForSequenceClassification.from_pretrained(model_name)        self.model.eval()  # 设置为评估模式        def rerank(self, query: str, documents: list, top_k: int = 5):        """        对文档进行重排序                :param query: 用户查询        :param documents: 候选文档列表        :param top_k: 返回前K个文档        :return: 排序后的文档和分数        """        # 构建查询-文档对        pairs = [(query, doc) for doc in documents]                # 特征编码        with torch.no_grad():            inputs = self.tokenizer(                pairs,                 padding=True,                 truncation=True,                 return_tensors='pt',                 max_length=512            )                        # 计算相关性分数            scores = self.model(**inputs).logits.squeeze(dim=-1).float().numpy()                # 组合文档和分数        scored_docs = list(zip(documents, scores))                # 按分数降序排序        scored_docs.sort(key=lambda x: x[1], reverse=True)                return scored_docs[:top_k] # 使用示例if __name__ == "__main__":    # 初始化重排序模型    reranker = BGEReranker()        # 用户查询    query = "如何学习钢琴?"        # 初始检索结果(假设从FAISS获取)    initial_docs = [        "钢琴保养和清洁方法",        "音乐理论基础入门",        "钢琴购买指南:如何选择第一台钢琴",        "钢琴入门指法教程:从零开始学习",        "十大著名钢琴家及其作品",        "钢琴练习曲目推荐:适合初学者"    ]        print("初始检索结果:")    for i, doc in enumerate(initial_docs):        print(f"{i+1}. {doc}")        # 应用重排序    reranked_docs = reranker.rerank(query, initial_docs, top_k=3)        print("重排序后结果:")    for i, (doc, score) in enumerate(reranked_docs):        print(f"{i+1}. [分数: {score:.4f}] {doc}")     print("最优的匹配结果:")    print(reranked_docs[0][0])</code>
登录后复制

2. 执行结果

<code class="javascript">初始检索结果:1. 钢琴保养和清洁方法2. 音乐理论基础入门3. 钢琴购买指南:如何选择第一台钢琴4. 钢琴入门指法教程:从零开始学习5. 十大著名钢琴家及其作品6. 钢琴练习曲目推荐:适合初学者 重排序后结果:1. [分数: 1.7239] 钢琴入门指法教程:从零开始学习2. [分数: 0.7639] 音乐理论基础入门3. [分数: -1.1614] 钢琴练习曲目推荐:适合初学者 最优的匹配结果:钢琴入门指法教程:从零开始学习</code>
登录后复制

八、总结

重排序(Rerank)是RAG系统中提升精度的关键技术,它能够深度理解查询和文档间的语义关系、精细排序初步检索结果筛选最相关文档、显著提升最终生成答案的质量和准确性。

虽然引入了一定的计算开销,但在大多数重视准确性的应用场景中,重排序带来的性能提升远远超过了其成本,是现代RAG系统不可或缺的组件。

对于精度要求极高的场景(如医疗、法律),强烈推荐使用Rerank。对于延迟敏感或资源有限的场景,可以酌情省略或减少重排序的文档数量(K)。选择合适的重排序策略和模型,能够让RAG系统从能用升级到好用,真正发挥检索增强生成的全部潜力。

以上就是构建AI智能体:RAG超越语义搜索:如何用Rerank模型实现检索精度的大幅提升的详细内容,更多请关注php中文网其它相关文章!

最佳 Windows 性能的顶级免费优化软件
最佳 Windows 性能的顶级免费优化软件

每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。

下载
来源:php中文网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新 English
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号