Ollama 安装与使用手册

这份手册解决什么问题

这一份材料面向第一次在自己电脑上运行预训练大模型的同学,目标很简单:

  1. 先把 Ollama 装好
  2. 再把一个模型真正跑起来
  3. 再学会最基本的命令行和 API 调用
  4. 最后分清楚:什么时候用 Ollama,什么时候改用更简单的图形界面工具

为什么课程里先讲 Ollama

Ollama 的优点是:

如果你后面想做:

那 Ollama 是一个很合适的起点。

第一步:安装 Ollama

macOS / Windows

最简单的方式是直接从官网下载安装包并安装。

安装完成后,终端里应该能直接运行:

ollama

如果命令能正常出现菜单或帮助信息,说明安装基本成功。

Linux

Linux 同学建议直接按官网安装说明操作。
装好后,也先用下面这条命令检查:

ollama

第二步:先跑一个模型

第一次最推荐的命令是:

ollama run qwen3.5:0.8b

或者:

ollama run gemma3

这条命令会做两件事:

  1. 如果本地还没有模型,就先下载
  2. 下载完成后直接进入对话

如果你只想先下载、不想立刻聊天,可以用:

ollama pull qwen3.5:0.8b

第三步:最常用的 5 条命令

1. 看本地有哪些模型

ollama list

2. 运行一个模型

ollama run qwen3.5:0.8b

3. 只下载模型,不运行

ollama pull qwen3.5:0.8b

4. 删除一个模型

ollama rm qwen3.5:0.8b

5. 查看命令帮助

ollama --help

第四步:怎么判断自己的电脑带不动

最常见的现象有:

这通常不是你命令写错了,而是模型太大。

对初学者,建议先用:

不要一上来就选特别大的模型。

第五步:最小 API 调用

Ollama 默认会在本机启动一个服务,常见地址是:

http://localhost:11434

最小测试可以这样写:

curl http://localhost:11434/api/chat -d '{
  "model": "qwen3.5:0.8b",
  "messages": [
    { "role": "user", "content": "请用一句话解释什么是预训练。" }
  ]
}'

这一步很重要,因为它意味着:

第六步:课程里最推荐的使用方式

如果你只是第一次上手,推荐顺序是:

  1. 先安装 Ollama
  2. ollama run qwen3.5:0.8b
  3. 先用 3 到 5 轮对话确认模型真的能回答
  4. 再试一次 curl API
  5. 最后再考虑把它接到 Python 或自己的项目里

常见问题

1. 下载很慢

这是最常见的问题之一。
原因通常不是 Ollama 命令错了,而是:

先确认:

2. 装好了但命令找不到

常见原因是:

最简单的做法通常是:

3. 模型跑得动,但很慢

这通常说明:

优先思路不是“继续折腾命令”,而是:

有没有比 Ollama 更简单的方法

有。
如果你的目标只是:

LM Studio 往往比 Ollama 更简单。

它更像一个图形界面应用:

对完全零基础的同学,LM Studio 的上手门槛通常更低。

那为什么课程仍然优先推荐 Ollama

因为课程后面不只想让大家“聊起来”,还想让大家:

在这些方面,Ollama 的路径更直接。

所以可以这样判断:

一个务实建议

如果你是完全新手,我建议:

  1. 先装 Ollama,确认命令行和 API 能跑
  2. 如果觉得命令行压力大,再装 LM Studio 做图形界面体验
  3. 后续做课程项目时,再回到 Ollama

这样最稳,也最不容易卡在第一步。