0

0

[大模型]DeepSeek-MoE-16b-chat FastApi 部署调用

看不見的法師

看不見的法師

发布时间:2025-11-19 10:24:45

|

938人浏览过

|

来源于php中文网

原创

DeepSeek-MoE-16b-chat FastApi 部署调用

DeepSeek-MoE-16b-chat 模型简介

deepseek moe 已发布版本的总参数规模为160亿,实际激活参数约为28亿。与同门的7b全连接模型相比,在19个基准测试数据集上表现互有优劣,整体性能接近。相较llama 2-7b这类密集模型,deepseek moe 在数学推理和代码生成任务中展现出更优能力。值得注意的是,llama 2-7b 和 deepseek 7b 的每4k token计算量均超过180tflops,而 deepseek moe 仅需74.4tflops,能耗仅为前者的40%左右,显著提升了推理效率。

环境搭建

在 autodl 平台上选择配备双卡3090(单卡24G,共48G显存)的服务器实例,操作系统镜像选择 PyTorch–>2.1.0–>3.10(ubuntu22.04)–>12.1。启动实例后,进入 JupyterLab 界面,并打开终端进行环境配置、模型下载与服务部署。

[大模型]DeepSeek-MoE-16b-chat FastApi 部署调用

执行以下命令更换 pip 源并安装必要依赖:

# 开启学术加速以提升GitHub访问速度
source /etc/network_turbo

升级pip

python -m pip install --upgrade pip

更换为清华源加速包安装

pip config set global.index-url https://www.php.cn/link/a6455ffc4e47fd737db213366771ec0e

安装核心库

pip install modelscope transformers sentencepiece accelerate fastapi uvicorn requests streamlit transformers_stream_generator

安装Flash Attention加速组件(可选)

pip install https://www.php.cn/link/0e7adb08b43a589df528d2bdd69b6b03

模型获取

使用 modelscope 提供的 snapshot_download 方法下载 DeepSeek-MoE-16b-chat 模型。参数说明:第一个参数为 HuggingFace 或 ModelScope 上的模型标识名,cache_dir 指定本地保存路径。

/root/autodl-tmp 目录下创建 download.py 文件,内容如下图所示,请确保保存后再运行:

import torch
from modelscope import snapshot_download, AutoModel, AutoTokenizer
import os

model_dir = snapshot_download('deepseek-ai/deepseek-moe-16b-chat', cache_dir='/root/autodl-tmp', revision='master')

运行命令开始下载:

python /root/autodl-tmp/download.py

模型文件约30GB,预计耗时10~20分钟完成下载。

API 服务代码编写

/root/autodl-tmp 下新建 api.py 文件,填入以下完整代码(含详细注释),请务必保存。

Petalica Paint
Petalica Paint

用AI为你的画自动上色!

下载
from fastapi import FastAPI, Request
from transformers import AutoTokenizer, AutoModelForCausalLM, GenerationConfig
import uvicorn
import json
import datetime
import torch

设备配置

DEVICE = "cuda" DEVICE_ID = "0" CUDA_DEVICE = f"{DEVICE}:{DEVICE_ID}" if DEVICE_ID else DEVICE

GPU内存清理函数

def torch_gc(): if torch.cuda.is_available(): with torch.cuda.device(CUDA_DEVICE): torch.cuda.empty_cache() torch.cuda.ipc_collect()

初始化FastAPI应用

app = FastAPI()

@app.post("/") async def create_item(request: Request): global model, tokenizer json_post_raw = await request.json() json_post = json.dumps(json_post_raw) json_post_list = json.loads(json_post)

prompt = json_post_list.get('prompt')
max_length = json_post_list.get('max_length')

# 构建对话历史
messages = [
    {"role": "user", "content": prompt}
]

# 编码输入
input_tensor = tokenizer.apply_chat_template(messages, add_generation_prompt=True, return_tensors="pt")

# 生成输出
outputs = model.generate(input_tensor.to(model.device), max_new_tokens=max_length)
result = tokenizer.decode(outputs[0][input_tensor.shape[1]:], skip_special_tokens=True)

now = datetime.datetime.now()
time = now.strftime("%Y-%m-%d %H:%M:%S")

# 返回响应结构
answer = {
    "response": result,
    "status": 200,
    "time": time
}

# 打印日志
log = "[" + time + "] " + '", prompt:"' + prompt + '", response:"' + repr(result) + '"'
print(log)

torch_gc()
return answer

if name == 'main': model_path = '/root/autodl-tmp/deepseek-ai/deepseek-moe-16b-chat'

# 加载分词器
tokenizer = AutoTokenizer.from_pretrained(model_path, trust_remote_code=True)

# 加载模型,启用bfloat16降低显存占用,自动分配GPU资源
model = AutoModelForCausalLM.from_pretrained(
    model_path,
    trust_remote_code=True,
    torch_dtype=torch.bfloat16,
    device_map="auto"
)

# 加载生成配置
model.generation_config = GenerationConfig.from_pretrained(model_path)
model.generation_config.pad_token_id = model.generation_config.eos_token_id

model.eval()  # 启用评估模式

# 启动API服务
uvicorn.run(app, host='0.0.0.0', port=6006, workers=1)

启动 API 服务

在终端执行以下命令运行服务脚本:

cd /root/autodl-tmp

python api.py

当看到类似如下日志输出时,表示模型加载成功,服务已就绪:

[大模型]DeepSeek-MoE-16b-chat FastApi 部署调用

服务默认监听 6006 端口,支持通过 POST 请求调用。推荐设置 max_length=100,过高易导致显存溢出,过低则可能截断回答。

示例 curl 调用方式:

curl -X POST "https://www.php.cn/link/6190df6b9dfadcb413f0d0e3b768888a" \
-H 'Content-Type: application/json' \
-d '{"prompt": "你好,你是谁?","max_length":100}'

也可使用 Python 的 requests 库进行调用:

import requests
import json

def get_completion(prompt, max_length): headers = {'Content-Type': 'application/json'} data = {"prompt": prompt, "max_length": max_length} response = requests.post(url='https://www.php.cn/link/6190df6b9dfadcb413f0d0e3b768888a', headers=headers, data=json.dumps(data)) return response.json()['response']

if name == 'main': print(get_completion("你好,你是谁?", 100))

成功调用后将返回模型应答结果,示例如下:

[大模型]DeepSeek-MoE-16b-chat FastApi 部署调用

相关专题

更多
python开发工具
python开发工具

php中文网为大家提供各种python开发工具,好的开发工具,可帮助开发者攻克编程学习中的基础障碍,理解每一行源代码在程序执行时在计算机中的过程。php中文网还为大家带来python相关课程以及相关文章等内容,供大家免费下载使用。

750

2023.06.15

python打包成可执行文件
python打包成可执行文件

本专题为大家带来python打包成可执行文件相关的文章,大家可以免费的下载体验。

635

2023.07.20

python能做什么
python能做什么

python能做的有:可用于开发基于控制台的应用程序、多媒体部分开发、用于开发基于Web的应用程序、使用python处理数据、系统编程等等。本专题为大家提供python相关的各种文章、以及下载和课程。

758

2023.07.25

format在python中的用法
format在python中的用法

Python中的format是一种字符串格式化方法,用于将变量或值插入到字符串中的占位符位置。通过format方法,我们可以动态地构建字符串,使其包含不同值。php中文网给大家带来了相关的教程以及文章,欢迎大家前来阅读学习。

618

2023.07.31

python教程
python教程

Python已成为一门网红语言,即使是在非编程开发者当中,也掀起了一股学习的热潮。本专题为大家带来python教程的相关文章,大家可以免费体验学习。

1262

2023.08.03

python环境变量的配置
python环境变量的配置

Python是一种流行的编程语言,被广泛用于软件开发、数据分析和科学计算等领域。在安装Python之后,我们需要配置环境变量,以便在任何位置都能够访问Python的可执行文件。php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

547

2023.08.04

python eval
python eval

eval函数是Python中一个非常强大的函数,它可以将字符串作为Python代码进行执行,实现动态编程的效果。然而,由于其潜在的安全风险和性能问题,需要谨慎使用。php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

577

2023.08.04

scratch和python区别
scratch和python区别

scratch和python的区别:1、scratch是一种专为初学者设计的图形化编程语言,python是一种文本编程语言;2、scratch使用的是基于积木的编程语法,python采用更加传统的文本编程语法等等。本专题为大家提供scratch和python相关的文章、下载、课程内容,供大家免费下载体验。

706

2023.08.11

php与html混编教程大全
php与html混编教程大全

本专题整合了php和html混编相关教程,阅读专题下面的文章了解更多详细内容。

3

2026.01.13

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
PostgreSQL 教程
PostgreSQL 教程

共48课时 | 7.1万人学习

Git 教程
Git 教程

共21课时 | 2.6万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号