
本文旨在解决基于langchain和chromadb构建的检索增强生成(rag)系统中,因文档分块策略不当导致响应内容不完整的问题。通过深入探讨文本分块大小、重叠度以及检索器配置的关键参数,提供实用的代码示例和最佳实践,帮助开发者优化rag管道,确保从pdf等源文档中获取全面且准确的回答。
在构建基于大型语言模型(LLM)的检索增强生成(RAG)系统时,利用向量数据库(如ChromaDB)存储和检索相关文档片段是提升LLM回答准确性和时效性的关键。然而,开发者常会遇到LLM返回的响应内容不完整,未能充分利用源文档信息的情况。这通常源于文本分块策略和检索器配置不当。本教程将详细介绍如何通过调整这些核心参数,优化LangChain与ChromaDB的RAG管道,以获得更全面、更准确的响应。
一个典型的LangChain RAG管道包含以下几个关键步骤:
其中,文本分块和检索是影响响应完整性的两个关键环节。
文本分块是RAG系统性能的基础。不当的分块可能导致关键信息被截断,或上下文丢失。
chunk_size定义了每个文本块的最大字符数。
建议:根据文档类型和LLM的上下文窗口大小进行调整。对于PDF文档,1000-2000字符是一个常见的起始点。
chunk_overlap定义了相邻文本块之间共享的字符数。这是解决因chunk_size截断导致上下文丢失的关键参数。
建议:通常设置为chunk_size的5%-15%。例如,如果chunk_size为1000,chunk_overlap可以设置为50-150。在处理需要连续上下文的文档(如叙事性文本、代码)时,增加重叠度尤为重要。
示例代码:文档加载与文本分块
from langchain.document_loaders import DirectoryLoader, PyPDFLoader
from langchain.text_splitter import RecursiveCharacterTextSplitter
def load_and_split_documents(directory_path: str, chunk_size: int = 1000, chunk_overlap: int = 100):
"""
加载指定目录下的PDF文档,并进行递归字符分块。
Args:
directory_path (str): 包含PDF文档的目录路径。
chunk_size (int): 每个文本块的最大字符数。
chunk_overlap (int): 相邻文本块之间的重叠字符数。
Returns:
list: 分割后的文档文本块列表。
"""
# 使用PyPDFLoader加载PDF文档
loader = DirectoryLoader(directory_path, glob="./*.pdf", loader_cls=PyPDFLoader)
documents = loader.load()
# 初始化递归字符文本分块器
# RecursiveCharacterTextSplitter会尝试根据不同分隔符(如换行符、空格)智能地分割文本
text_splitter = RecursiveCharacterTextTextSplitter(
chunk_size=chunk_size,
chunk_overlap=chunk_overlap
)
texts = text_splitter.split_documents(documents)
print(f"原始文档数量: {len(documents)}, 分割后文本块数量: {len(texts)}")
return texts
# 示例使用
# documents_to_process = load_and_split_documents('./static/upload/', chunk_size=1000, chunk_overlap=100)即使文本分块策略得当,如果检索器未能返回足够的上下文,LLM仍然可能生成不完整的答案。
当通过vectordb.as_retriever()创建检索器时,可以指定k参数,它决定了从向量数据库中检索最相似的文档块数量。
注意事项:
在RetrievalQA.from_chain_type()中,chain_type参数决定了如何处理检索到的多个文档块。
对于需要完整响应的场景,如果检索到的文档块数量不多且总长度在LLM上下文窗口内,stuff是高效的选择。如果文档块数量较多,可能需要考虑map_reduce或refine。
示例代码:创建ChromaDB并查询
import os
from langchain.embeddings import OpenAIEmbeddings, HuggingFaceEmbeddings
from langchain.vectorstores import Chroma
from langchain.chains import RetrievalQA
from langchain.llms import OpenAI
from langchain.prompts import PromptTemplate
# 假设已经通过 load_and_split_documents 函数获取了 texts
# documents_to_process = load_and_split_documents('./static/upload/', chunk_size=1000, chunk_overlap=100)
def create_and_query_vectordb(texts: list, persist_directory: str = './ChromaDb', k_retrieved_docs: int = 6):
"""
创建ChromaDB向量数据库,并使用RetrievalQA链进行查询。
Args:
texts (list): 经过分块处理的文档文本块列表。
persist_directory (str): ChromaDB持久化存储的目录。
k_retrieved_docs (int): 检索器返回的最相关文档块数量。
Returns:
RetrievalQA: 配置好的检索问答链。
"""
# 确保OpenAI API Key已设置
# os.environ["OPENAI_API_KEY"] = "YOUR_OPENAI_API_KEY"
# 选择嵌入模型
# 可以使用OpenAIEmbeddings,或者本地的HuggingFaceEmbeddings
# embeddings = OpenAIEmbeddings()
embeddings = HuggingFaceEmbeddings(model_name="sentence-transformers/all-MiniLM-L6-v2") # 示例使用本地模型
# 从文档创建ChromaDB,并持久化
vectordb = Chroma.from_documents(documents=texts, embedding=embeddings, persist_directory=persist_directory)
vectordb.persist()
print(f"ChromaDB已创建并持久化到: {persist_directory}")
# 定义LLM
llm = OpenAI(temperature=0, model_name="text-davinci-003") # 或者 gpt-3.5-turbo 等
# 自定义提示模板,以更好地引导LLM利用检索到的上下文
# template = """使用以下上下文来回答最后的问题。如果你不知道答案,就说你不知道,不要试图编造答案。
#
# {context}
#
# 问题: {question}
# 有用的回答:"""
# QA_CHAIN_PROMPT = PromptTemplate(input_variables=["context", "question"], template=template)
# 配置RetrievalQA链
# 关键参数:
# retriever=vectordb.as_retriever(search_kwargs={"k": k_retrieved_docs}):设置检索器,指定检索k个文档
# chain_type="stuff":将所有检索到的文档块合并成一个大字符串作为LLM的输入
# return_source_documents=True:返回检索到的源文档,便于调试和验证
qa_chain = RetrievalQA.from_chain_type(
llm=llm,
retriever=vectordb.as_retriever(search_kwargs={"k": k_retrieved_docs}),
chain_type="stuff",
# chain_type_kwargs={"prompt": QA_CHAIN_PROMPT}, # 如果使用自定义提示模板
return_source_documents=True
)
return qa_chain
# 完整流程示例
if __name__ == "__main__":
# 1. 加载并分块文档
# 确保 './static/upload/' 目录下有PDF文件
# 调整 chunk_size 和 chunk_overlap 以优化上下文保留
print("加载并分块文档...")
documents_to_process = load_and_split_documents('./static/upload/', chunk_size=1500, chunk_overlap=150)
# 2. 创建ChromaDB并配置检索链
# 调整 k_retrieved_docs 以确保检索到足够的信息
print("创建ChromaDB并配置检索链...")
qa_retrieval_chain = create_and_query_vectordb(documents_to_process, k_retrieved_docs=8) # 增加k值
# 3. 执行查询
print("执行查询...")
query = "请总结这本书的主要内容。" # 假设PDF是一本书
response = qa_retrieval_chain({"query": query})
print("\n--- LLM 响应 ---")
print(response["result"])
print("\n--- 检索到的源文档 ---")
for i, doc in enumerate(response["source_documents"]):
print(f"文档 {i+1}:")
print(f" 内容: {doc.page_content[:200]}...") # 打印前200字符
print(f" 来源: {doc.metadata}")
print("-" * 20)要提升LangChain与ChromaDB RAG管道的响应完整性,请关注以下几个方面:
通过以上策略的综合运用,开发者可以显著提升LangChain与ChromaDB RAG系统生成响应的完整性和准确性,从而为用户提供更优质的服务。
以上就是优化LangChain与ChromaDB:提升RAG响应完整性与准确性的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号