🚀
快速部署
一键下载安装,支持 macOS、Windows 和 Linux 系统,几分钟内即可运行大语言模型
Ollama 是运行大语言模型最简单的方式。它将模型权重、配置和数据打包成一个单一的包,定义了一个用于创建和共享 AI 模型的标准。
| 模型 | 参数量 | 大小 | 特长领域 | 运行命令 |
|---|---|---|---|---|
| Gemma 3 | 1B-27B | 815MB-17GB | 通用对话、代码生成 | ollama run gemma3 |
| DeepSeek-R1 | 7B-671B | 4.7GB-404GB | 数学推理、逻辑思考 | ollama run deepseek-r1 |
| Llama 4 | 109B-400B | 67GB-245GB | 最新一代通用模型 | ollama run llama4:scout |
| QwQ | 32B | 20GB | 数学推理专家 | ollama run qwq |
| Phi 4 | 14B | 9.1GB | 微软最新小型模型 | ollama run phi4 |
| Llama 3.2 Vision | 11B-90B | 7.9GB-55GB | 多模态视觉理解 | ollama run llama3.2-vision |
| Qwen3 Coder | - | - | 代码生成专家 | ollama run qwen3-coder |
# macOS
下载: [点击下载](./download.md)
# Windows
下载: [点击下载](./download.md)
# Linux
curl -fsSL https://ollama.com/install.sh | sh
# Docker
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama# 运行 Gemma 3 (推荐新手)
ollama run gemma3
# 运行 DeepSeek-R1 (推理专家)
ollama run deepseek-r1
# 运行 Llama 4 (最新模型)
ollama run llama4:scout
# 多模态视觉模型
ollama run llama3.2-vision "这张图片里有什么? /path/to/image.jpg">>> 你好,请介绍一下自己
>>> 请解释一下量子计算的基本原理
>>> 帮我写一个 Python 排序算法# 从 GGUF 文件导入模型
echo 'FROM ./my-model.gguf' > Modelfile
ollama create my-custom-model -f Modelfile
# 自定义提示词
echo 'FROM llama3.2
SYSTEM "你是一个专业的 Python 编程助手"' > Modelfile
ollama create python-helper -f Modelfile# 图像理解
ollama run llava "描述这张图片: /path/to/image.png"
# 视觉问答
ollama run llama3.2-vision "这张图片中有多少个人? /path/to/photo.jpg"# Python 示例
import ollama
response = ollama.chat(model='gemma3', messages=[
{'role': 'user', 'content': '解释机器学习'}
])
print(response['message']['content'])// JavaScript 示例
import ollama from 'ollama'
const response = await ollama.chat({
model: 'gemma3',
messages: [{ role: 'user', content: '什么是深度学习?' }],
})
console.log(response.message.content)# 列出已安装的模型
ollama list
# 查看模型信息
ollama show gemma3
# 复制模型
ollama cp gemma3 my-gemma3
# 删除模型
ollama rm old-model🤖 Ollama - 让 AI 触手可及版本: 最新稳定版 | 平台: Windows, macOS, Linux, Docker 支持 50+ 模型