Skip to content

快速开始

欢迎使用 Ollama!本指南将帮助您在几分钟内运行您的第一个大语言模型。

安装 Ollama

macOS

bash
# 使用 Homebrew 安装
brew install ollama

# 或者直接下载安装包:https://ollama.com/download/Ollama.dmg

Windows

  1. 直接下载安装程序:OllamaSetup.exe
  2. 运行安装程序并按照提示完成安装

Linux

bash
# 一键安装脚本
curl -fsSL https://ollama.com/install.sh | sh

# 或者手动安装
# Ubuntu/Debian
sudo apt update && sudo apt install ollama

# CentOS/RHEL/Fedora
sudo yum install ollama

运行您的第一个模型

安装完成后,您可以立即开始使用 Ollama:

1. 运行 Gemma 3

bash
ollama run gemma3

首次运行时,Ollama 会自动下载模型文件。下载完成后,您就可以开始对话了:

>>> 你好!请介绍一下自己
你好!我是 Gemma,一个由 Google 开发的大语言模型。我可以帮助您回答问题、进行对话、协助写作、编程等多种任务。有什么我可以帮助您的吗?

>>> 请用 Python 写一个计算斐波那契数列的函数
def fibonacci(n):
    if n <= 1:
        return n
    else:
        return fibonacci(n-1) + fibonacci(n-2)

# 更高效的版本
def fibonacci_iterative(n):
    if n <= 1:
        return n
    
    a, b = 0, 1
    for _ in range(2, n + 1):
        a, b = b, a + b
    return b

# 使用示例
print(fibonacci_iterative(10))  # 输出: 55

2. 尝试其他模型

Ollama 支持多种模型,您可以根据需要选择:

bash
# 运行 DeepSeek-R1(专注推理)
ollama run deepseek-r1

# 运行 Qwen3(阿里巴巴开发,中文友好)
ollama run qwen3

# 运行 gpt-oss(开源 GPT 模型)
ollama run gpt-oss

基本命令

查看已安装的模型

bash
ollama list

下载模型(不运行)

bash
ollama pull llama3.2

删除模型

bash
ollama rm llama3.2

查看模型信息

bash
ollama show llama3.2

使用 API

Ollama 提供了 REST API,您可以在应用程序中集成:

基本 API 调用

bash
curl http://localhost:11434/api/generate -d '{
  "model": "gemma3",
  "prompt": "为什么天空是蓝色的?",
  "stream": false
}'

Python 示例

python
import requests
import json

def chat_with_ollama(prompt, model="gemma3"):
    url = "http://localhost:11434/api/generate"
    data = {
        "model": model,
        "prompt": prompt,
        "stream": False
    }
    
    response = requests.post(url, json=data)
    if response.status_code == 200:
        return response.json()["response"]
    else:
        return f"错误: {response.status_code}"

# 使用示例
result = chat_with_ollama("解释一下机器学习的基本概念")
print(result)

JavaScript 示例

javascript
async function chatWithOllama(prompt, model = "gemma3") {
    const response = await fetch("http://localhost:11434/api/generate", {
        method: "POST",
        headers: {
            "Content-Type": "application/json",
        },
        body: JSON.stringify({
            model: model,
            prompt: prompt,
            stream: false
        })
    });
    
    if (response.ok) {
        const data = await response.json();
        return data.response;
    } else {
        throw new Error(`HTTP error! status: ${response.status}`);
    }
}

// 使用示例
chatWithOllama("什么是人工智能?")
    .then(result => console.log(result))
    .catch(error => console.error("错误:", error));

常见问题

Q: 模型下载很慢怎么办?

A: 您可以:

  • 使用国内镜像源
  • 选择较小的模型(如 gemma2:2b)
  • 在网络较好的时间段下载

Q: 运行时内存不足怎么办?

A: 您可以:

  • 选择较小的模型
  • 关闭其他占用内存的程序
  • 使用量化版本的模型

Q: 如何在后台运行 Ollama?

A:

bash
# Linux/macOS
ollama serve &

# Windows
# Ollama 会自动作为服务运行

下一步

现在您已经成功运行了第一个模型!接下来您可以:

让大语言模型触手可及 - Get up and running with large language models