yanchang
yanchang
发布于 2025-04-05 / 18 阅读
0
0

小手机服务器部署大语言模型(小模型)

termux环境下部署大语言模型测试了一下基本属于可用状态

在termux环境下

安装ollama服务

apt install ollama

开启ollama服务

ollama serve

开启新的窗口拉模型,由于是小手机直接拉1.5b模型cpu硬算

ollama pull deepseek-r1:1.5b

然后启动就可以了

ollama run deepseek-r1:1.5b


评论