LangChain基础搭建需五步:一、创建虚拟环境并安装langchain、LLM SDK(如openai)及向量库(如chromadb);二、配置API密钥与LLM参数;三、用PromptTemplate和LLM构建链式调用;四、通过langchain_ollama接入本地Ollama模型;五、用DocumentLoader、TextSplitter和Chroma实现RAG。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如果您希望快速开始使用LangChain构建大模型应用,但尚未配置基础开发环境或理解核心组件关系,则可能是由于缺少对初始化流程和关键依赖的系统性认知。以下是完成LangChain基础搭建的步骤:
LangChain本身不包含大语言模型运行时,需配合LLM提供商SDK(如OpenAI、Ollama)与向量数据库(如Chroma)协同工作。安装时需确保Python环境满足最低版本要求,并分离生产与开发依赖。
1、创建独立虚拟环境并激活:
python -m venv langchain_env && source langchain_env/bin/activate(Linux/macOS)或 langchain_env\Scripts\activate(Windows)。
2、安装LangChain核心包:
pip install langchain
3、按选用模型后端安装对应SDK:
pip install openai 或 pip install ollama 或 pip install huggingface-hub
4、安装常用工具链与向量存储支持:
pip install langchain-community chromadb tiktoken
LangChain通过统一接口调用不同LLM,但需提前注入认证信息与服务地址。凭证未正确加载将导致初始化失败或返回空响应,且部分参数(如temperature、max_tokens)需在构造LLM实例时显式声明。
1、设置环境变量(推荐):
export OPENAI_API_KEY="sk-..."(Linux/macOS)或 set OPENAI_API_KEY=sk-...(Windows)。
2、在代码中加载API密钥:
import os
os.environ["OPENAI_API_KEY"] = "您的实际OpenAI密钥"
3、初始化LLM对象并验证连接:
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(model="gpt-3.5-turbo", temperature=0.2)
llm.invoke("你好")
Chain是LangChain的核心抽象,用于串联提示模板、模型调用与输出解析。最简链由PromptTemplate与LLM组合而成,无需额外工具或记忆模块即可完成基础问答流程。
1、定义结构化提示模板:
from langchain_core.prompts import PromptTemplate
template = "你是一个助手,请用中文回答以下问题:{question}"
prompt = PromptTemplate.from_template(template)
2、组合提示与模型形成链:
from langchain import LLMChain
chain = LLMChain(llm=llm, prompt=prompt)
3、执行链式调用并获取结果:
result = chain.invoke({"question": "LangChain是什么"})
print(result["text"])
若不依赖云端API,可使用Ollama在本地运行Llama 3、Qwen等开源模型。LangChain通过langchain_ollama模块提供原生支持,但需提前启动Ollama服务并拉取指定模型。
1、下载并运行Ollama服务:
访问https://ollama.com/download,安装后执行 ollama serve(后台常驻)。
2、拉取轻量级模型:
ollama pull llama3:8b 或 ollama pull qwen2:7b
3、在LangChain中调用本地模型:
from langchain_ollama import ChatOllama
ollama_llm = ChatOllama(model="llama3:8b", temperature=0.3)
实现RAG(检索增强生成)需将外部文档转为嵌入向量并存入向量数据库。Chroma作为默认嵌入存储方案,配合DocumentLoader可自动完成PDF、TXT等格式解析与切分。
1、加载本地文本文件:
from langchain_community.document_loaders import TextLoader
loader = TextLoader("./data/intro.txt")
docs = loader.load()
2、分割文档为语义块:
from langchain_text_splitters import RecursiveCharacterTextSplitter
splitter = RecursiveCharacterTextSplitter(chunk_size=500, chunk_overlap=50)
chunks = splitter.split_documents(docs)
3、生成嵌入并持久化到Chroma:
from langchain_community.embeddings import OllamaEmbeddings
from langchain_community.vectorstores import Chroma
embeddings = OllamaEmbeddings(model="nomic-embed-text")
vectorstore = Chroma.from_documents(chunks, embeddings, persist_directory="./chroma_db")
以上就是LangChain怎么入门 LangChain开发大模型应用基础搭建流程【教程】的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号