在人工智能和自然语言处理领域,将非结构化文本数据转化为数值向量(即嵌入,embeddings)并进行高效存储与检索已成为核心需求。向量数据库应运而生,它能够存储高维向量,并支持基于相似度的快速检索。redis,作为一款高性能的内存数据库,结合其redisearch模块,可以作为强大的向量数据库使用。langchain作为一个大型语言模型(llm)应用开发框架,则提供了便捷的工具链,简化了文本处理、嵌入生成以及与各类向量数据库的交互过程。本教程将聚焦于如何利用langchain,将自定义文本文件处理后存储到redis向量数据库中,并进行后续的相似度搜索。
在开始之前,请确保您已安装必要的Python库,并运行着一个Redis服务器实例。
pip install langchain redis openai tiktoken
在将文本转化为嵌入之前,通常需要从文件加载文本,并将其分割成适合处理的较小块。这有助于提高嵌入的质量,并更好地管理上下文。
Langchain的TextLoader可以方便地从本地文件加载文本内容。
from langchain.document_loaders import TextLoader # 假设您有一个名为 'union.txt' 的文本文件 # 请根据您的实际文件路径和编码进行调整 loader = TextLoader("union.txt", encoding="utf-8") documents = loader.load() print(f"已加载 {len(documents)} 个文档(文件)。") # 每个文档对象通常包含 page_content(文本内容)和 metadata(元数据) # print(documents[0].page_content[:200]) # 打印前200个字符预览
对于大型文档,直接生成嵌入可能会导致信息丢失或超出模型输入限制。CharacterTextSplitter等文本分割器可以将长文本分割成更小的、有意义的块。
from langchain.text_splitter import CharacterTextSplitter # 初始化文本分割器 # chunk_size: 每个文本块的最大字符数 # chunk_overlap: 相邻文本块之间的重叠字符数,有助于保留上下文 text_splitter = CharacterTextSplitter(chunk_size=1000, chunk_overlap=0) # 分割加载的文档 docs = text_splitter.split_documents(documents) print(f"原始文档分割后生成了 {len(docs)} 个文本块。") # print(docs[0].page_content[:200]) # 打印分割后第一个文本块的预览
注意事项:
将文本分割成块后,下一步是使用嵌入模型将这些文本块转换为高维向量。
from langchain.embeddings import OpenAIEmbeddings # from langchain.embeddings.sentence_transformer import SentenceTransformerEmbeddings # 也可以选择本地模型 # 初始化嵌入模型 # 如果使用OpenAIEmbeddings,请确保您的OPENAI_API_KEY环境变量已配置 # 或者通过 os.environ["OPENAI_API_KEY"] = "your_api_key" 设置 embeddings = OpenAIEmbeddings() # 如果您希望使用本地模型,可以尝试 SentenceTransformerEmbeddings # embeddings = SentenceTransformerEmbeddings(model_name="all-MiniLM-L6-v2")
选择嵌入模型:
一旦文本块和嵌入模型准备就绪,就可以将它们存储到Redis向量数据库中。Langchain的Redis向量存储类提供了便捷的接口。
from langchain.vectorstores import Redis # 将文档和嵌入存储到Redis # docs: 经过分割的文档列表 # embeddings: 初始化的嵌入模型实例 # redis_url: Redis服务器的连接地址,格式为 "redis://<host>:<port>" # index_name: 在Redis中创建的向量索引名称,用于区分不同的数据集 vectorstore = Redis.from_documents( docs, embeddings, redis_url="redis://localhost:6379", index_name="my_custom_text_index", # 建议使用有意义的索引名称 ) print(f"文档和嵌入已成功存储到Redis索引 '{vectorstore.index_name}' 中。")
关键参数:
数据存储完成后,您可以根据查询文本执行语义相似度搜索,检索出最相关的文档块。
# 初始化一个Redis向量存储实例以进行查询(如果之前未保留实例) # vectorstore = Redis( # embedding_function=embeddings.embed_query, # 查询时也需要嵌入函数 # redis_url="redis://localhost:6379", # index_name="my_custom_text_index" # ) # 定义查询文本 query = "乌克兰人民怎么样了?" # 示例查询,与union.txt内容相关 # 1. 执行相似度搜索 (只返回文档内容) results = vectorstore.similarity_search(query) print("\n--- 相似度搜索结果 (仅内容) ---") for i, doc in enumerate(results): print(f"结果 {i+1}:\n{doc.page_content}\n---") # 2. 执行带分数的相似度搜索 (返回文档内容和相似度分数) # 分数通常表示距离,值越小表示越相似(例如,余弦距离) results_with_score = vectorstore.similarity_search_with_score(query) print("\n--- 相似度搜索结果 (带分数) ---") for i, (doc, score) in enumerate(results_with_score): print(f"结果 {i+1}:") print(f"内容: {doc.page_content}") print(f"分数: {score}\n---")
搜索方法:
本教程详细介绍了如何利用Langchain框架,结合Redis向量数据库,构建一个端到端的文本嵌入存储与检索系统。从加载本地文本文件,到进行有效的文本分割,再到生成高质量的文本嵌入,并最终将这些数据高效地存储到Redis中并执行相似度搜索,整个流程清晰明了。掌握这些技能,将使您能够为各种智能应用(如语义搜索、问答系统、内容推荐等)构建强大的向量检索能力。记住,根据您的具体需求,可以灵活调整文本分割策略、嵌入模型选择以及Redis的部署方式。
以上就是使用Langchain与Redis构建高效文本嵌入向量数据库教程的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号