本文主要探讨如何利用langchain4j来整合ollama和deepseek的使用方法。
步骤如下:
首先,在pom.xml文件中添加必要的依赖项:
<dependency> <groupId>dev.langchain4j</groupId> <artifactId>langchain4j-spring-boot-starter</artifactId> <version>${langchain4j-spring.version}</version> </dependency> <dependency> <groupId>dev.langchain4j</groupId> <artifactId>langchain4j-ollama-spring-boot-starter</artifactId> <version>${langchain4j-spring.version}</version> </dependency> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter</artifactId> </dependency> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-web</artifactId> </dependency>
接着,在application.yaml文件中配置ollama的聊天模型:
langchain4j: ollama: chat-model: base-url: http://localhost:11434 model-name: deepseek-r1:8b
然后,创建一个控制器来处理聊天请求:
@RequestMapping("/ollama") @RestController public class ChatController { @Autowired ChatLanguageModel chatLanguageModel; <pre class="brush:php;toolbar:false">/** * curl -i localhost:8080/ollama/chat?prompt=今天日期是多少 * @param prompt * @return */ @GetMapping("/chat") public String chat(@RequestParam("prompt") String prompt) { return chatLanguageModel.generate(prompt); }
}
最后,验证配置是否正确,可以通过访问http://localhost:8080/ollama/chat?prompt=%E4%BD%A0%E6%98%AF%E8%B0%81来测试,结果应为您好!我是由中国的深度求索(DeepSeek)公司开发的智能助手DeepSeek-R1。如您有任何任何问题,我会尽我所能为您提供帮助。
总结来说,langchain4j提供了一个名为langchain4j-ollama-spring-boot-starter的工具,可以方便地通过ollama访问deepseek。
DeepSeek (深度求索)杭州深度求索(DeepSeek)官方推出的AI助手,免费体验与全球领先AI模型的互动交流。它通过学习海量的数据和知识,能够像人类一样理解和处理信息。多项性能指标对齐海外顶尖模型,用更快的速度、更加全面强大的功能答疑解惑,助力高效美好的生活。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号