ollama本地部署大语言模型
type
status
date
slug
summary
tags
category
icon
password
使用ollama在archlinux本地部署大语言模型
最终效果:
1.AUR源下载ollama
2.curl下载ollama官网安装包
在第三步遇到报错,可以通过下载官网包解决
3.部署LLM
这里选择llama2
等待进度条走到100
这时就完成了本地模型的部署。
4.运行LLM
截图看一下效果,简单尝试发现智商还是有些低,不过占用并不大。(我错了,简单的问题占用确实不大,问题稍微复杂一些,风扇嘎嘎转。)
5.编写shell脚本实现快速运行
6.最终效果呈现:
智商没有我想象中那么低,用英文交流效果比较好。
速度不是很快,尤其是需要长输出时。
中文不好,中文相关的内容不全。
Loading...