PHP无法直接调用寒武纪底层库,必须通过proc_open启动Python子进程进行推理,PHP仅负责传参和取结果,所有MLU操作严格限定在Python进程中。

寒武纪思元 SDK 不支持 PHP 直接调用
寒武纪官方提供的 cnrt、cnnl、magicmind 等底层库,以及配套的 Python SDK(如 cnml、magicmind_python),均未发布 PHP 绑定或扩展。PHP 无法像 Python 那样直接加载 .so 模块、调用 CNRT API 或构建 MagicMind 模型会话。
必须走进程间通信:用 Python 子进程跑推理,PHP 负责传参和取结果
这是目前最可行、上线风险最低的方式。PHP 通过 proc_open 启动一个隔离的 Python 进程,把张量数据以文件或标准输入方式传入,Python 脚本完成 MagicMind 模型加载、cnrt.exec 推理、结果序列化后输出,PHP 再解析返回值。
关键点:
- 张量数据需提前序列化为 NumPy 格式(
.npy)或 JSON(仅限小尺寸、低精度数据);PHP 用file_put_contents写入临时文件,Python 用np.load()读取 - 避免在 PHP 中尝试用
exec("python -c 'import cnrt'")—— 极大概率报ImportError: libcnrt.so: cannot open shared object file,因为环境变量(如LD_LIBRARY_PATH)未透传 - Python 子进程必须显式设置环境:
putenv("LD_LIBRARY_PATH=/opt/cambricon/mlu-cnnl/lib64:/opt/cambricon/magicmind/lib64:$LD_LIBRARY_PATH"); - 模型文件(
.mm)、权重、预处理脚本必须由 Python 进程独占访问,不要让多个 PHP 请求并发抢同一个模型会话
Python 侧推理脚本要屏蔽交互逻辑,只做“输入→推理→输出”单次流
不能写成交互式 REPL 或带 while 循环的服务模式;PHP 每次请求都新建进程,脚本必须秒级退出。否则会积压僵尸进程、耗尽 MLU 显存。
立即学习“PHP免费学习笔记(深入)”;
示例最小可行脚本 run_infer.py:
#!/usr/bin/env python3 import sys import numpy as np import magicmind.python.runtime as mmdef main(): if len(sys.argv) != 3: print("Usage: python run_infer.py model.mm input.npy") sys.exit(1) model_path, input_path = sys.argv[1], sys.argv[2]
# 加载模型(注意:不复用,每次新建) device = mm.Device() device.id = 0 engine = mm.Runtime.create_by_model(model_path) engine.set_device(device) # 加载输入张量 input_data = np.load(input_path).astype(np.float32) # 执行推理 output = engine.execute([input_data]) # 输出为 JSON 行(方便 PHP json_decode) import json print(json.dumps({"output": output[0].tolist()}))if name == "main": main()
PHP 调用时确保路径可读、权限正确,并加超时控制:
$descriptorspec = [STDIN, STDOUT, STDERR]; $process = proc_open('python3 /path/to/run_infer.py /model/model.mm /tmp/input_'.uniqid().'.npy', $descriptorspec, $pipes); if (is_resource($process)) { stream_set_timeout($pipes[1], 30); // 防卡死 $result = stream_get_contents($pipes[1]); fclose($pipes[1]); proc_close($process); $data = json_decode($result, true); }别碰“PHP 扩展开发”或“FFI 调用 CNRT”的念头
有人查到 PHP 8.0+ 支持
FFI,试图FFI::cdef(..., "libcnrt.so")—— 实际会失败,因为 CNRT 是 C++ ABI,含 name mangling、异常对象、std::vector 等 PHP FFI 完全不兼容的结构;且 MagicMind 的 runtime 初始化依赖全局静态对象,PHP 多线程/多进程模型下极易 crash。真正省事的边界就一条:PHP 只管调度、准备数据、收结果;所有 MLU 相关操作锁死在 Python 进程内。模型热更新、batch 推理、显存复用这些优化,全放在 Python 层做,PHP 层保持无状态。











