这一份材料面向第一次在自己电脑上运行预训练大模型的同学,目标很简单:
Ollama 的优点是:
如果你后面想做:
那 Ollama 是一个很合适的起点。
最简单的方式是直接从官网下载安装包并安装。
安装完成后,终端里应该能直接运行:
ollama如果命令能正常出现菜单或帮助信息,说明安装基本成功。
Linux 同学建议直接按官网安装说明操作。
装好后,也先用下面这条命令检查:
ollama第一次最推荐的命令是:
ollama run qwen3.5:0.8b或者:
ollama run gemma3这条命令会做两件事:
如果你只想先下载、不想立刻聊天,可以用:
ollama pull qwen3.5:0.8bollama listollama run qwen3.5:0.8bollama pull qwen3.5:0.8bollama rm qwen3.5:0.8bollama --help最常见的现象有:
这通常不是你命令写错了,而是模型太大。
对初学者,建议先用:
不要一上来就选特别大的模型。
Ollama 默认会在本机启动一个服务,常见地址是:
http://localhost:11434
最小测试可以这样写:
curl http://localhost:11434/api/chat -d '{
"model": "qwen3.5:0.8b",
"messages": [
{ "role": "user", "content": "请用一句话解释什么是预训练。" }
]
}'这一步很重要,因为它意味着:
如果你只是第一次上手,推荐顺序是:
ollama run qwen3.5:0.8bcurl API这是最常见的问题之一。
原因通常不是 Ollama 命令错了,而是:
先确认:
常见原因是:
最简单的做法通常是:
ollama这通常说明:
优先思路不是“继续折腾命令”,而是:
有。
如果你的目标只是:
那 LM Studio 往往比 Ollama 更简单。
它更像一个图形界面应用:
对完全零基础的同学,LM Studio 的上手门槛通常更低。
因为课程后面不只想让大家“聊起来”,还想让大家:
在这些方面,Ollama 的路径更直接。
所以可以这样判断:
如果你是完全新手,我建议:
这样最稳,也最不容易卡在第一步。