LangChain怎么入门 LangChain开发大模型应用基础搭建流程【教程】

月夜之吻
发布: 2025-12-16 23:59:03
原创
518人浏览过
LangChain基础搭建需五步:一、创建虚拟环境并安装langchain、LLM SDK(如openai)及向量库(如chromadb);二、配置API密钥与LLM参数;三、用PromptTemplate和LLM构建链式调用;四、通过langchain_ollama接入本地Ollama模型;五、用DocumentLoader、TextSplitter和Chroma实现RAG。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

langchain怎么入门 langchain开发大模型应用基础搭建流程【教程】

如果您希望快速开始使用LangChain构建大模型应用,但尚未配置基础开发环境或理解核心组件关系,则可能是由于缺少对初始化流程和关键依赖的系统性认知。以下是完成LangChain基础搭建的步骤:

一、安装LangChain及必要依赖

LangChain本身不包含大语言模型运行时,需配合LLM提供商SDK(如OpenAI、Ollama)与向量数据库(如Chroma)协同工作。安装时需确保Python环境满足最低版本要求,并分离生产与开发依赖。

1、创建独立虚拟环境并激活:
python -m venv langchain_env && source langchain_env/bin/activate(Linux/macOS)或 langchain_env\Scripts\activate(Windows)。

2、安装LangChain核心包:
pip install langchain

3、按选用模型后端安装对应SDK:
pip install openai 或 pip install ollama 或 pip install huggingface-hub

4、安装常用工具链与向量存储支持:
pip install langchain-community chromadb tiktoken

二、配置模型访问凭证与连接参数

LangChain通过统一接口调用不同LLM,但需提前注入认证信息与服务地址。凭证未正确加载将导致初始化失败或返回空响应,且部分参数(如temperature、max_tokens)需在构造LLM实例时显式声明。

1、设置环境变量(推荐):
export OPENAI_API_KEY="sk-..."(Linux/macOS)或 set OPENAI_API_KEY=sk-...(Windows)。

2、在代码中加载API密钥:
import os
os.environ["OPENAI_API_KEY"] = "您的实际OpenAI密钥"

3、初始化LLM对象并验证连接:
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(model="gpt-3.5-turbo", temperature=0.2)
llm.invoke("你好")

三、构建首个链式调用(Chain)

Chain是LangChain的核心抽象,用于串联提示模板、模型调用与输出解析。最简链由PromptTemplate与LLM组合而成,无需额外工具或记忆模块即可完成基础问答流程。

1、定义结构化提示模板:
from langchain_core.prompts import PromptTemplate
template = "你是一个助手,请用中文回答以下问题:{question}"
prompt = PromptTemplate.from_template(template)

美图云修
美图云修

商业级AI影像处理工具

美图云修 52
查看详情 美图云修

2、组合提示与模型形成链:
from langchain import LLMChain
chain = LLMChain(llm=llm, prompt=prompt)

3、执行链式调用并获取结果:
result = chain.invoke({"question": "LangChain是什么"})
print(result["text"])

四、接入本地大模型(Ollama)

若不依赖云端API,可使用Ollama在本地运行Llama 3、Qwen等开源模型。LangChain通过langchain_ollama模块提供原生支持,但需提前启动Ollama服务并拉取指定模型。

1、下载并运行Ollama服务:
访问https://ollama.com/download,安装后执行 ollama serve(后台常驻)。

2、拉取轻量级模型:
ollama pull llama3:8b 或 ollama pull qwen2:7b

3、在LangChain中调用本地模型:
from langchain_ollama import ChatOllama
ollama_llm = ChatOllama(model="llama3:8b", temperature=0.3)

五、初始化向量存储与文档加载器

实现RAG(检索增强生成)需将外部文档转为嵌入向量并存入向量数据库。Chroma作为默认嵌入存储方案,配合DocumentLoader可自动完成PDF、TXT等格式解析与切分。

1、加载本地文本文件:
from langchain_community.document_loaders import TextLoader
loader = TextLoader("./data/intro.txt")
docs = loader.load()

2、分割文档为语义块:
from langchain_text_splitters import RecursiveCharacterTextSplitter
splitter = RecursiveCharacterTextSplitter(chunk_size=500, chunk_overlap=50)
chunks = splitter.split_documents(docs)

3、生成嵌入并持久化到Chroma:
from langchain_community.embeddings import OllamaEmbeddings
from langchain_community.vectorstores import Chroma
embeddings = OllamaEmbeddings(model="nomic-embed-text")
vectorstore = Chroma.from_documents(chunks, embeddings, persist_directory="./chroma_db")

以上就是LangChain怎么入门 LangChain开发大模型应用基础搭建流程【教程】的详细内容,更多请关注php中文网其它相关文章!

最佳 Windows 性能的顶级免费优化软件
最佳 Windows 性能的顶级免费优化软件

每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。

下载
来源:php中文网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号