Appearance
快速开始
欢迎使用 Ollama!本指南将帮助您在几分钟内运行您的第一个大语言模型。
安装 Ollama
macOS
bash
# 使用 Homebrew 安装
brew install ollama
# 或者直接下载安装包:https://ollama.com/download/Ollama.dmgWindows
- 直接下载安装程序:OllamaSetup.exe
- 运行安装程序并按照提示完成安装
Linux
bash
# 一键安装脚本
curl -fsSL https://ollama.com/install.sh | sh
# 或者手动安装
# Ubuntu/Debian
sudo apt update && sudo apt install ollama
# CentOS/RHEL/Fedora
sudo yum install ollama运行您的第一个模型
安装完成后,您可以立即开始使用 Ollama:
1. 运行 Gemma 3
bash
ollama run gemma3首次运行时,Ollama 会自动下载模型文件。下载完成后,您就可以开始对话了:
>>> 你好!请介绍一下自己
你好!我是 Gemma,一个由 Google 开发的大语言模型。我可以帮助您回答问题、进行对话、协助写作、编程等多种任务。有什么我可以帮助您的吗?
>>> 请用 Python 写一个计算斐波那契数列的函数
def fibonacci(n):
if n <= 1:
return n
else:
return fibonacci(n-1) + fibonacci(n-2)
# 更高效的版本
def fibonacci_iterative(n):
if n <= 1:
return n
a, b = 0, 1
for _ in range(2, n + 1):
a, b = b, a + b
return b
# 使用示例
print(fibonacci_iterative(10)) # 输出: 552. 尝试其他模型
Ollama 支持多种模型,您可以根据需要选择:
bash
# 运行 DeepSeek-R1(专注推理)
ollama run deepseek-r1
# 运行 Qwen3(阿里巴巴开发,中文友好)
ollama run qwen3
# 运行 gpt-oss(开源 GPT 模型)
ollama run gpt-oss基本命令
查看已安装的模型
bash
ollama list下载模型(不运行)
bash
ollama pull llama3.2删除模型
bash
ollama rm llama3.2查看模型信息
bash
ollama show llama3.2使用 API
Ollama 提供了 REST API,您可以在应用程序中集成:
基本 API 调用
bash
curl http://localhost:11434/api/generate -d '{
"model": "gemma3",
"prompt": "为什么天空是蓝色的?",
"stream": false
}'Python 示例
python
import requests
import json
def chat_with_ollama(prompt, model="gemma3"):
url = "http://localhost:11434/api/generate"
data = {
"model": model,
"prompt": prompt,
"stream": False
}
response = requests.post(url, json=data)
if response.status_code == 200:
return response.json()["response"]
else:
return f"错误: {response.status_code}"
# 使用示例
result = chat_with_ollama("解释一下机器学习的基本概念")
print(result)JavaScript 示例
javascript
async function chatWithOllama(prompt, model = "gemma3") {
const response = await fetch("http://localhost:11434/api/generate", {
method: "POST",
headers: {
"Content-Type": "application/json",
},
body: JSON.stringify({
model: model,
prompt: prompt,
stream: false
})
});
if (response.ok) {
const data = await response.json();
return data.response;
} else {
throw new Error(`HTTP error! status: ${response.status}`);
}
}
// 使用示例
chatWithOllama("什么是人工智能?")
.then(result => console.log(result))
.catch(error => console.error("错误:", error));常见问题
Q: 模型下载很慢怎么办?
A: 您可以:
- 使用国内镜像源
- 选择较小的模型(如 gemma2:2b)
- 在网络较好的时间段下载
Q: 运行时内存不足怎么办?
A: 您可以:
- 选择较小的模型
- 关闭其他占用内存的程序
- 使用量化版本的模型
Q: 如何在后台运行 Ollama?
A:
bash
# Linux/macOS
ollama serve &
# Windows
# Ollama 会自动作为服务运行下一步
现在您已经成功运行了第一个模型!接下来您可以: