
本文详细介绍了如何利用langchain、faiss和huggingface embeddings构建一个基于检索增强生成(rag)的问答机器人,使其能够根据csv文件中的特定数据生成答案。教程涵盖了从数据加载、向量数据库创建到检索器集成和llm交互的完整流程,并提供了具体的代码示例和实现细节,帮助开发者高效地将外部数据融入大型语言模型应用中。
在构建基于大型语言模型(LLM)的问答系统时,一个常见的挑战是LLM可能缺乏特定领域或最新信息。检索增强生成(Retrieval Augmented Generation, RAG)是一种有效的解决方案,它允许LLM在生成答案之前,先从外部知识库中检索相关信息。本教程将指导您如何使用LangChain框架,结合FAISS向量数据库和HuggingFace Embeddings,从CSV文件中提取信息并构建一个RAG驱动的问答机器人。
首先,我们需要将CSV文件中的结构化数据转换为LLM可以理解和检索的格式。这涉及到数据加载、文本分割和嵌入生成。
使用LangChain的CSVLoader可以方便地加载CSV文件。为了确保每个数据点(例如CSV中的一行)都能被独立检索,我们通常会以行作为分割单位。
from langchain.vectorstores import FAISS
from langchain.embeddings import HuggingFaceEmbeddings
from langchain.text_splitter import CharacterTextSplitter
from langchain.document_loaders.csv_loader import CSVLoader
import os
# 定义FAISS向量数据库的存储路径
DB_FAISS_PATH = "vectorstore/db_faiss"
# 确保目录存在
os.makedirs(DB_FAISS_PATH, exist_ok=True)
# 加载CSV文件,指定编码和分隔符
loader = CSVLoader(file_path="./data/cleanTripLisbon.csv", encoding="utf-8", csv_args={'delimiter': ','})
data = loader.load()
# 文本分割器,这里我们假设每行数据已经足够独立,或者根据实际需求进行更细致的分割
# 如果CSV每行代表一个完整的文档,可以简化分割策略
text_splitter = CharacterTextSplitter(separator='\n', chunk_size=1000, chunk_overlap=0)
text_chunks = text_splitter.split_documents(data)
print(f"Loaded {len(data)} documents from CSV, split into {len(text_chunks)} chunks.")接下来,我们需要将文本块转换为数值向量(嵌入),以便进行语义相似性搜索。HuggingFace的sentence-transformers/all-MiniLM-L6-v2是一个高效且性能良好的嵌入模型。FAISS是一个用于高效相似性搜索的库,LangChain提供了与FAISS集成的接口。
# 初始化HuggingFace嵌入模型
embeddings = HuggingFaceEmbeddings(model_name='sentence-transformers/all-MiniLM-L6-v2')
# 从文本块和嵌入模型创建FAISS向量数据库
docsearch = FAISS.from_documents(text_chunks, embeddings)
# 将FAISS索引保存到本地,以便后续加载和使用
docsearch.save_local(DB_FAISS_PATH)
print(f"FAISS vector store saved to {DB_FAISS_PATH}")注意事项:
在集成检索功能之前,我们先构建一个与OpenAI API交互的基础聊天机器人模块。
GPT_Helper类负责与OpenAI的聊天完成API进行交互,管理对话历史。
from openai import OpenAI
import os # 假设local_settings.py或环境变量中存储API密钥
# 为了教程的独立性,这里模拟local_settings.py
class LocalSettings:
def __init__(self):
self.OPENAI_API_KEY = os.getenv("OPENAI_API_KEY") # 从环境变量获取
if not self.OPENAI_API_KEY:
raise ValueError("OPENAI_API_KEY environment variable not set.")
local_settings = LocalSettings()
class GPT_Helper:
def __init__(self, OPENAI_API_KEY: str, system_behavior: str = "", model="gpt-3.5-turbo"):
self.client = OpenAI(api_key=OPENAI_API_KEY)
self.messages = []
self.model = model
if system_behavior:
self.messages.append({
"role": "system",
"content": system_behavior
})
def get_completion(self, prompt, temperature=0):
# 将用户提示添加到消息历史
self.messages.append({"role": "user", "content": prompt})
# 调用OpenAI API获取完成
completion = self.client.chat.completions.create(
model=self.model,
messages=self.messages,
temperature=temperature,
)
# 将助手的回复添加到消息历史
assistant_response = completion.choices[0].message.content
self.messages.append(
{
"role": "assistant",
"content": assistant_response
}
)
return assistant_responseAttractionBot类封装了聊天机器人的核心逻辑,包括用户管理和响应生成。
class AttractionBot:
def __init__(self, system_behavior: str):
self._system_behavior = system_behavior
self._username = None
self.engine = GPT_Helper(
OPENAI_API_KEY=local_settings.OPENAI_API_KEY,
system_behavior=system_behavior
)
def set_username(self, username):
self._username = username
def generate_response(self, message: str):
user_message = f"{self._username}: {message}" if self._username else message
response = self.engine.get_completion(user_message)
return response
def reset(self):
# 实现重置逻辑,例如清空对话历史
self.engine.messages = []
if self._system_behavior:
self.engine.messages.append({"role": "system", "content": self._system_behavior})
@property
def memory(self):
return self.engine.messages
@property
def system_behavior(self):
return self._system_behavior
@system_behavior.setter
def system_behavior(self, system_config: str):
self._system_behavior = system_config
# 更新GPT_Helper的系统行为,并重置对话
self.engine.messages = [{"role": "system", "content": system_config}]现在,我们将FAISS向量数据库的检索能力集成到AttractionBot中,使其能够根据用户查询从CSV数据中检索相关信息,并将其作为上下文传递给LLM。
LangChain的docsearch对象提供了一个as_retriever()方法,可以将其转换为一个检索器(Retriever)。这个检索器能够根据给定的查询,从向量数据库中查找并返回最相关的文档块。
为了将检索器集成到AttractionBot中,我们需要在机器人初始化时传入docsearch对象,并将其转换为doc_retriever。
# 修改AttractionBot类的__init__方法
class AttractionBot:
def __init__(self, system_behavior: str, docsearch): # 接受docsearch对象
self._system_behavior = system_behavior
self._username = None
self.engine = GPT_Helper(
OPENAI_API_KEY=local_settings.OPENAI_API_KEY,
system_behavior=system_behavior
)
# 将docsearch转换为检索器
self.doc_retriever = docsearch.as_retriever() # 新增行在generate_response方法中,我们首先使用self.doc_retriever根据用户消息检索相关信息。然后,我们将这些检索到的信息与用户原始查询结合起来,构建一个新的、更丰富的提示(prompt),再将其发送给LLM。
# 修改AttractionBot类的generate_response方法
class AttractionBot:
# ... (init方法如上所示) ...
def generate_response(self, message: str):
user_message = f"{self._username}: {message}" if self._username else message
# 使用检索器获取相关信息
# retrieve方法返回的是Document对象列表
relevant_docs = self.doc_retriever.invoke(user_message)
# 将检索到的文档内容提取出来,并格式化为LLM可理解的上下文
context = "\n".join([doc.page_content for doc in relevant_docs])
# 构建增强后的提示,将上下文和用户问题结合
# 这是一个关键步骤,确保LLM能够利用检索到的信息
augmented_prompt = f"""根据以下上下文信息,回答用户的问题。
如果上下文没有足够的信息,请说明你无法回答。
上下文:
{context}
用户问题:
{user_message}
"""
# 使用增强后的提示生成响应
response = self.engine.get_completion(augmented_prompt)
return response
# ... (其他方法) ...关键改进点:
现在,我们已经完成了所有模块的构建和集成。最后一步是实例化AttractionBot并开始与它交互。
# 确保在运行此代码之前,已经执行了“数据准备与向量数据库构建”部分的代码
# 并且DB_FAISS_PATH路径下有保存的FAISS索引
# 从本地加载FAISS向量数据库
# 需要重新初始化embeddings,因为docsearch.load_local需要它
embeddings = HuggingFaceEmbeddings(model_name='sentence-transformers/all-MiniLM-L6-v2')
loaded_docsearch = FAISS.load_local(DB_FAISS_PATH, embeddings, allow_dangerous_deserialization=True) # 注意:如果FAISS版本较新,可能需要allow_dangerous_deserialization=True
# 定义系统行为
system_behavior_config = "你是一个关于葡萄牙里斯本景点的智能助手,请根据提供的信息回答问题。"
# 实例化AttractionBot,传入系统行为和加载的docsearch对象
attraction_bot = AttractionBot(system_behavior=system_behavior_config, docsearch=loaded_docsearch)
# 设置用户名(可选)
attraction_bot.set_username("用户A")
# 模拟用户交互
print("Bot: 你好!我是里斯本景点助手,有什么可以帮你的吗?")
while True:
user_query = input("你: ")
if user_query.lower() == '退出':
print("Bot: 再见!")
break
response = attraction_bot.generate_response(user_query)
print(f"Bot: {response}")
# 可以查看当前的对话历史
# print("\n--- 对话历史 ---")
# for msg in attraction_bot.memory:
# print(f"{msg['role']}: {msg['content']}")
# print("-----------------\n")重要提示:
通过以上步骤,我们成功构建了一个基于LangChain、FAISS和CSV数据的RAG问答机器人。这个机器人能够从结构化数据中检索信息,并利用LLM生成高质量、信息丰富的答案。
进一步的优化方向:
通过不断迭代和优化,您可以构建出更加智能和强大的问答系统。
以上就是基于LangChain和FAISS构建RAG问答机器人:CSV数据集成指南的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号