Skip to content

下载安装 Ollama

Ollama 是一个强大的本地大语言模型运行工具,支持多种操作系统。本页面提供各平台的下载和安装指南。

🖥️ 系统要求

Windows

  • 最低要求: Windows 10 或更高版本
  • 推荐配置: Windows 11
  • 内存: 至少 8GB RAM(推荐 16GB 或更多)
  • 存储: 至少 10GB 可用空间
  • GPU: 可选,支持 NVIDIA 和 AMD GPU 加速

macOS

  • 最低要求: macOS 11 Big Sur 或更高版本
  • 架构: 支持 Intel 和 Apple Silicon (M1/M2/M3)
  • 内存: 至少 8GB RAM(推荐 16GB 或更多)
  • 存储: 至少 10GB 可用空间

Linux

  • 发行版: Ubuntu 18.04+, CentOS 7+, Debian 10+, Fedora 30+
  • 架构: x86_64, ARM64
  • 内存: 至少 8GB RAM(推荐 16GB 或更多)
  • 存储: 至少 10GB 可用空间
  • GPU: 可选,支持 NVIDIA 和 AMD GPU 加速

📥 下载安装

Windows 安装

方法一:官方安装程序(推荐)

  1. 直接下载安装程序:OllamaSetup.exe
  2. 下载完成后,双击 .exe 文件运行安装程序
  3. 按照安装向导完成安装
  4. 安装完成后,Ollama 将自动启动并在系统托盘中显示

方法二:命令行安装

powershell
# 使用 Chocolatey 安装
choco install ollama
# 使用 Scoop 安装
scoop install ollama

验证安装

powershell
# 检查版本
ollama --version
# 运行第一个模型
ollama run llama3.2

macOS 安装

方法一:官方安装程序(推荐)

  1. 直接下载安装包:Ollama.dmg
  2. 下载 .dmg 文件
  3. 双击打开 .dmg 文件
  4. 将 Ollama 拖拽到 Applications 文件夹
  5. 从 Applications 文件夹启动 Ollama

方法二:Homebrew 安装

bash
# 安装 Ollama
brew install ollama
# 启动服务
brew services start ollama

验证安装

bash
# 检查版本
ollama --version
# 运行第一个模型
ollama run llama3.2

Linux 安装

方法一:一键安装脚本(推荐)

bash
# 下载并运行安装脚本
curl -fsSL https://ollama.com/install.sh | sh

方法二:手动安装

bash
# 下载二进制文件
curl -L https://ollama.com/download/ollama-linux-amd64 -o ollama
chmod +x ollama
sudo mv ollama /usr/local/bin/
# 创建用户和服务
sudo useradd -r -s /bin/false -m -d /usr/share/ollama ollama
sudo mkdir -p /etc/systemd/system
# 创建服务文件
sudo tee /etc/systemd/system/ollama.service > /dev/null <<EOF
[Unit]
Description=Ollama Service
After=network-online.target
[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin"
Environment="OLLAMA_HOST=0.0.0.0"
[Install]
WantedBy=default.target
EOF
# 启动服务
sudo systemctl daemon-reload
sudo systemctl enable ollama
sudo systemctl start ollama

验证安装

bash
# 检查版本
ollama --version
# 检查服务状态
sudo systemctl status ollama
# 运行第一个模型
ollama run llama3.2

🔧 安装后配置

环境变量配置

Windows

powershell
# 设置模型存储路径
[Environment]::SetEnvironmentVariable("OLLAMA_MODELS", "D:\ollama\models", "User")
# 设置服务地址
[Environment]::SetEnvironmentVariable("OLLAMA_HOST", "0.0.0.0:11434", "User")

macOS/Linux

bash
# 添加到 ~/.bashrc 或 ~/.zshrc
export OLLAMA_MODELS="/path/to/models"
export OLLAMA_HOST="0.0.0.0:11434"
# 重新加载配置
source ~/.bashrc  # 或 source ~/.zshrc

防火墙配置

Windows

powershell
# 允许 Ollama 通过防火墙
New-NetFirewallRule -DisplayName "Ollama" -Direction Inbound -Port 11434 -Protocol TCP -Action Allow

Linux

bash
# Ubuntu/Debian
sudo ufw allow 11434
# CentOS/RHEL
sudo firewall-cmd --permanent --add-port=11434/tcp
sudo firewall-cmd --reload

🚀 快速开始

下载并运行模型

bash
# 下载并运行 Llama 3.2 模型
ollama run llama3.2
# 下载并运行 Gemma 2 模型
ollama run gemma2
# 下载并运行 Qwen 2.5 模型
ollama run qwen2.5

列出已安装的模型

bash
ollama list

删除模型

bash
ollama rm llama3.2

🔄 更新 Ollama

Windows

  1. 下载最新版本的安装程序
  2. 运行安装程序,它会自动覆盖旧版本

macOS

bash
# 使用 Homebrew 更新
brew upgrade ollama
# 或下载最新的 .dmg 文件重新安装

Linux

bash
# 重新运行安装脚本
curl -fsSL https://ollama.com/install.sh | sh
# 重启服务
sudo systemctl restart ollama

🗑️ 卸载 Ollama

Windows

  1. 通过控制面板的"程序和功能"卸载
  2. 或使用命令行:
powershell
# 使用 Chocolatey
choco uninstall ollama
# 使用 Scoop
scoop uninstall ollama

macOS

  1. 从 Applications 文件夹删除 Ollama
  2. 清理相关文件:
bash
rm -rf ~/.ollama
rm -rf /usr/local/bin/ollama

Linux

bash
# 停止并禁用服务
sudo systemctl stop ollama
sudo systemctl disable ollama
# 删除文件
sudo rm /etc/systemd/system/ollama.service
sudo rm /usr/local/bin/ollama
sudo userdel ollama
sudo rm -rf /usr/share/ollama

🆘 常见问题

安装失败

  • Windows: 确保以管理员身份运行安装程序
  • macOS: 检查是否允许来自未知开发者的应用
  • Linux: 确保有足够的权限和网络连接

服务无法启动

bash
# 检查端口是否被占用
netstat -tulpn | grep 11434
# 检查日志
journalctl -u ollama -f

模型下载缓慢

  • 使用代理或镜像源
  • 检查网络连接
  • 尝试手动下载模型文件

📚 下一步

安装完成后,您可以:

  1. 阅读 快速开始指南 了解基本使用
  2. 查看 API 文档 学习 API 调用
  3. 探索 模型库 发现更多模型
  4. 学习 GPU 配置 提升性能

让大语言模型触手可及 - Get up and running with large language models