在 Android 上运行 Llama:使用 Ollama 的分步指南

霞舞
发布: 2024-10-12 11:48:02
转载
1614人浏览过

在 android 上运行 llama:使用 ollama 的分步指南

llama 3.2 最近在 meta 开发者大会上推出,展示了令人印象深刻的多模式功能以及针对使用高通和联发科技硬件的移动设备进行优化的版本。这一突破使开发人员能够在移动设备上运行 llama 3.2 等强大的 ai 模型,为更高效、私密和响应迅速的 ai 应用程序铺平道路。

meta 发布了 llama 3.2 的四个变体:

  • 多模态模型具有 110 亿 (11b) 和 900 亿 (90b) 参数。
  • 纯文本模型具有 10 亿 (1b) 和 30 亿 (3b) 参数。

较大的模型,尤其是 11b 和 90b 变体,在图像理解和图表推理等任务中表现出色,通常优于 claude 3 haiku 等其他模型,甚至在某些情况下与 gpt-4o-mini 竞争。另一方面,轻量级 1b 和 3b 模型专为文本生成和多语言功能而设计,使其成为注重隐私和效率的设备上应用程序的理想选择。

在本指南中,我们将向您展示如何使用 termux 和 ollama 在 android 设备上运行 llama 3.2。 termux 在 android 上提供 linux 环境,ollama 帮助在本地管理和运行大型模型。

为什么在本地运行 llama 3.2?

在本地运行人工智能模型有两大好处:

  1. 即时处理,因为一切都在设备上处理。
  2. 增强隐私,因为无需将数据发送到云端进行处理。

尽管目前支持移动设备流畅运行llama 3.2这样的模型的产品还不多,但我们仍然可以在android上使用linux环境来探索它。


在 android 上运行 llama 3.2 的步骤

1.在android上安装termux

termux 是一个终端模拟器,允许 android 设备无需 root 访问即可运行 linux 环境。它是免费的,可以从 termux github 页面下载。

对于本指南,请下载 termux-app_v0.119.0-beta.1+apt-android-7-github-debug_arm64-v8a.apk 并将其安装在您的 android 设备上。

2. 设置 termux

启动 termux 后,请按照以下步骤设置环境:

  1. 授予存储访问权限:
   termux-setup-storage
登录后复制

此命令可让 termux 访问 android 设备的存储空间,从而更轻松地进行文件管理。

  1. 更新包:
   pkg upgrade
登录后复制

当提示更新 termux 和所有已安装的软件包时,输入 y

  1. 安装基本工具:
   pkg install git cmake golang
登录后复制

这些软件包包括用于版本控制的 git、用于构建软件的 cmake 以及编写 ollama 的编程语言 go。

天蓝色渐变APP的开发模板
天蓝色渐变APP的开发模板

PP:主要指安装在智能手机上的软件,完善原始系统的不足与个性化。 是手机完善其功能,为用户提供更丰富的使用体验的主要手段。早期的手机主流系统有以下:Symbian、BlackBerry OS、Windows Mobile.但是在2007年,苹果推出了运行自己软件的iPhone;Google宣布推出Android手机操作系统平台。苹果跟安卓两款系统凭着强大的优势,迅速

天蓝色渐变APP的开发模板 51
查看详情 天蓝色渐变APP的开发模板

3.安装并编译ollama

ollama 是一个在本地运行大型模型的平台。安装和设置方法如下:

  1. 克隆 ollama 的 github 存储库:
   git clone --depth 1 https://github.com/ollama/ollama.git
登录后复制
  1. 导航到 ollama 目录:
   cd ollama
登录后复制
  1. 生成go代码:
   go generate ./...
登录后复制
  1. 构建奥拉玛:
   go build .
登录后复制
  1. 启动 ollama 服务器:
   ./ollama serve &
登录后复制

现在 ollama 服务器将在后台运行,允许您与模型交互。

4. 运行 llama 3.2 模型

要在 android 设备上运行 llama 3.2 模型,请按照以下步骤操作:

  1. 选择型号:

    • llama3.2:3b(30亿个参数)这样的模型可供测试。为了提高效率,这些模型被量化。您可以在 ollama 的网站上找到可用型号的列表。
  2. 下载并运行 llama 3.2 模型:

   ./ollama run llama3.2:3b --verbose
登录后复制

--verbose 标志是可选的,并提供详细的日志。下载完成后,您可以开始与模型交互。

5. 绩效管理

在 samsung s21 ultra 等设备上测试 llama 3.2 时,1b 型号的性能平稳,3b 型号的性能易于管理,尽管您可能会注意到旧硬件上的延迟。如果性能太慢,切换到较小的 1b 模型可以显着提高响应能力。


可选的清理

使用 ollama 后,您可能需要清理系统:

  1. 删除不需要的文件:
   chmod -r 700 ~/go
   rm -r ~/go
登录后复制
  1. 将 ollama 二进制文件移至全局路径:
   cp ollama/ollama /data/data/com.termux/files/usr/bin/
登录后复制

现在,您可以直接从终端运行 ollama


结论

llama 3.2 代表了人工智能技术的重大飞跃,为移动设备带来了强大的多模式模型。通过使用 termux 和 ollama 在本地运行这些模型,开发人员可以探索不依赖云基础设施的隐私优先、设备上 ai 应用程序的潜力。有了 llama 3.2 这样的模型,移动 ai 的未来看起来很光明,可以为各个行业提供更快、更安全的 ai 解决方案。

以上就是在 Android 上运行 Llama:使用 Ollama 的分步指南的详细内容,更多请关注php中文网其它相关文章!

最佳 Windows 性能的顶级免费优化软件
最佳 Windows 性能的顶级免费优化软件

每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。

下载
来源:dev.to网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新 English
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号