
本文旨在解决在使用 Langchain 和 ChromaDB 构建向量存储时,检索结果出现大量重复文档的问题。通过分析代码和问题原因,本文提供两种解决方案:一是避免重复插入文档到数据库,二是使用 EmbeddingsRedundantFilter 过滤掉冗余的文档,从而确保检索结果的多样性和准确性。
在使用 Langchain 和 ChromaDB 构建向量数据库时,可能会遇到一个常见的问题:检索结果返回大量重复的文档。这通常是由于每次运行代码时,都将相同的文档重复插入到 ChromaDB 数据库中造成的。为了解决这个问题,可以采取以下两种方法。
最直接的解决方案是避免每次运行代码时都重新创建向量数据库。ChromaDB 会将文档存储在磁盘上,因此每次执行 Chroma.from_documents 都会创建一个新的数据库,并将相同的文档再次插入。
以下是一些避免重复插入文档的方法:
只在首次运行时创建数据库: 可以添加一个条件判断,例如检查数据库文件是否存在,如果不存在则创建数据库并插入文档,否则直接加载已存在的数据库。
import os
from langchain.vectorstores import Chroma
from langchain.embeddings import OpenAIEmbeddings
persist_directory = 'db' # 指定数据库存储目录
if not os.path.exists(persist_directory):
# 加载文档、分割文本等步骤...
# ...
vectorstore = Chroma.from_documents(documents=all_splits, embedding=OpenAIEmbeddings(), persist_directory=persist_directory)
vectorstore.persist() # 持久化存储
else:
vectorstore = Chroma(persist_directory=persist_directory, embedding_function=OpenAIEmbeddings())上述代码首先检查 db 目录是否存在。如果不存在,则执行文档加载、分割和向量化,并将结果存储在 db 目录中。如果 db 目录已经存在,则直接从该目录加载已存在的向量数据库。
注释掉插入数据库的代码: 如果你确定只需要插入一次数据,可以将 Chroma.from_documents 这行代码注释掉,只在首次运行时执行。
# vectorstore = Chroma.from_documents(documents=all_splits, embedding=OpenAIEmbeddings()) # 注释掉这行代码
这种方法简单直接,但需要手动控制数据库的创建和更新。
如果无法避免重复插入文档,或者需要处理数据库中已经存在的重复文档,可以使用 Langchain 提供的 EmbeddingsRedundantFilter 来过滤掉冗余的文档。
EmbeddingsRedundantFilter 通过比较文档的嵌入向量来判断文档是否冗余。它需要先计算所有文档的嵌入向量,然后根据相似度阈值来过滤掉相似度过高的文档。
以下是使用 EmbeddingsRedundantFilter 的示例代码:
from langchain.document_transformers import EmbeddingsRedundantFilter
from langchain.embeddings import OpenAIEmbeddings
from langchain.chains import RetrievalQA
from langchain.llms import OpenAI
from langchain.vectorstores import Chroma
# 加载向量数据库
persist_directory = 'db'
vectorstore = Chroma(persist_directory=persist_directory, embedding_function=OpenAIEmbeddings())
# 创建 EmbeddingsRedundantFilter
embeddings = OpenAIEmbeddings()
redundant_filter = EmbeddingsRedundantFilter(embeddings=embeddings)
# 创建检索器
retriever = vectorstore.as_retriever(search_type="similarity", search_kwargs={"k": 6})
# 使用 EmbeddingsRedundantFilter 过滤文档
docs = retriever.get_relevant_documents("What is X?")
filtered_docs = redundant_filter.transform_documents(docs)
# 使用过滤后的文档进行问答
qa_chain = RetrievalQA.from_chain_type(
llm=OpenAI(),
chain_type="stuff",
retriever=vectorstore.as_retriever(),
return_source_documents=True
)
result = qa_chain({"query": "What is X?"})
print(result["result"])
print(result["source_documents"])注意事项:
总结:
通过避免重复插入文档或使用 EmbeddingsRedundantFilter 过滤冗余文档,可以有效解决 Langchain/ChromaDB 返回重复文档的问题,从而提高检索结果的质量和效率。选择哪种方法取决于具体的应用场景和需求。如果可以控制数据库的创建和更新,建议避免重复插入文档。如果无法避免重复插入,或者需要处理已经存在的重复文档,可以使用 EmbeddingsRedundantFilter。
以上就是解决 Langchain/ChromaDB 返回重复文档的问题的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号