首页 > 新闻 > IT新闻 > 正文

Solon AI 开发学习 - 2chat - Hello World

聖光之護
发布: 2025-11-19 19:27:02
原创
245人浏览过

1、本地大语言模型(LLM)部署

使用 ollama 来运行 llama3.2 模型(体积较小,约 1gb)

ollama run llama3.2 <em># 也可替换为 deepseek-r1:7b </em>

详细步骤可查阅:如何通过 ollama 搭建本地 AI 环境

2、创建新项目(结合 solon-ai 调用 LLM)

可通过 Solon Initializr 快速生成基础工程。项目建立后,引入以下依赖:

<dependency><groupid>org.noear</groupid><artifactid>solon-ai</artifactid></dependency>

3、配置应用参数

app.yml 配置文件中添加如下信息:

solon.ai.chat: demo: apiUrl: "http://127.0.0.1:11434/api/chat" <em># 使用完整 API 地址(非 api_base)</em> provider: "ollama" <em># 若使用 ollama 服务,需明确指定 provider</em> model: "llama3.2" <em># 或选择 deepseek-r1:7b 模型 </em>

绘蛙AI修图
绘蛙AI修图

绘蛙平台AI修图工具,支持手脚修复、商品重绘、AI扩图、AI换色

绘蛙AI修图 264
查看详情 绘蛙AI修图

4、编写配置类与测试逻辑

新建一个名为 DemoConfig 的类,用于构建 ChatModel 并进行初步测试。

import org.noear.solon.ai.chat.ChatConfig;import org.noear.solon.ai.chat.ChatModel;import org.noear.solon.ai.chat.ChatResponse;import org.noear.solon.annotation.Bean;import org.noear.solon.annotation.Configuration;import org.noear.solon.annotation.Inject;import java.io.IOException;@Configurationpublic class DemoConfig { @Bean public ChatModel build(@Inject("${solon.ai.chat.demo}") ChatConfig config) { return ChatModel.of(config).build(); } @Bean public void test(ChatModel chatModel) throws IOException { <em>// 发起请求并获取结果</em> ChatResponse resp = chatModel.prompt("hello").call(); <em>// 输出返回内容</em> System.out.println(resp.getMessage()); }}

5、启动项目查看效果

Solon AI 开发学习 - 2chat - Hello World

示例源码下载地址:点击获取

以上就是Solon AI 开发学习 - 2chat - Hello World的详细内容,更多请关注php中文网其它相关文章!

最佳 Windows 性能的顶级免费优化软件
最佳 Windows 性能的顶级免费优化软件

每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。

下载
来源:php中文网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新 English
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号