Appearance
下载安装 Ollama
Ollama 是一个强大的本地大语言模型运行工具,支持多种操作系统。本页面提供各平台的下载和安装指南。
🖥️ 系统要求
Windows
- 最低要求: Windows 10 或更高版本
- 推荐配置: Windows 11
- 内存: 至少 8GB RAM(推荐 16GB 或更多)
- 存储: 至少 10GB 可用空间
- GPU: 可选,支持 NVIDIA 和 AMD GPU 加速
macOS
- 最低要求: macOS 11 Big Sur 或更高版本
- 架构: 支持 Intel 和 Apple Silicon (M1/M2/M3)
- 内存: 至少 8GB RAM(推荐 16GB 或更多)
- 存储: 至少 10GB 可用空间
Linux
- 发行版: Ubuntu 18.04+, CentOS 7+, Debian 10+, Fedora 30+
- 架构: x86_64, ARM64
- 内存: 至少 8GB RAM(推荐 16GB 或更多)
- 存储: 至少 10GB 可用空间
- GPU: 可选,支持 NVIDIA 和 AMD GPU 加速
📥 下载安装
Windows 安装
方法一:官方安装程序(推荐)
- 直接下载安装程序:OllamaSetup.exe
- 下载完成后,双击
.exe文件运行安装程序 - 按照安装向导完成安装
- 安装完成后,Ollama 将自动启动并在系统托盘中显示
方法二:命令行安装
powershell
# 使用 Chocolatey 安装
choco install ollama
# 使用 Scoop 安装
scoop install ollama验证安装
powershell
# 检查版本
ollama --version
# 运行第一个模型
ollama run llama3.2macOS 安装
方法一:官方安装程序(推荐)
- 直接下载安装包:Ollama.dmg
- 下载
.dmg文件 - 双击打开
.dmg文件 - 将 Ollama 拖拽到 Applications 文件夹
- 从 Applications 文件夹启动 Ollama
方法二:Homebrew 安装
bash
# 安装 Ollama
brew install ollama
# 启动服务
brew services start ollama验证安装
bash
# 检查版本
ollama --version
# 运行第一个模型
ollama run llama3.2Linux 安装
方法一:一键安装脚本(推荐)
bash
# 下载并运行安装脚本
curl -fsSL https://ollama.com/install.sh | sh方法二:手动安装
bash
# 下载二进制文件
curl -L https://ollama.com/download/ollama-linux-amd64 -o ollama
chmod +x ollama
sudo mv ollama /usr/local/bin/
# 创建用户和服务
sudo useradd -r -s /bin/false -m -d /usr/share/ollama ollama
sudo mkdir -p /etc/systemd/system
# 创建服务文件
sudo tee /etc/systemd/system/ollama.service > /dev/null <<EOF
[Unit]
Description=Ollama Service
After=network-online.target
[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin"
Environment="OLLAMA_HOST=0.0.0.0"
[Install]
WantedBy=default.target
EOF
# 启动服务
sudo systemctl daemon-reload
sudo systemctl enable ollama
sudo systemctl start ollama验证安装
bash
# 检查版本
ollama --version
# 检查服务状态
sudo systemctl status ollama
# 运行第一个模型
ollama run llama3.2🔧 安装后配置
环境变量配置
Windows
powershell
# 设置模型存储路径
[Environment]::SetEnvironmentVariable("OLLAMA_MODELS", "D:\ollama\models", "User")
# 设置服务地址
[Environment]::SetEnvironmentVariable("OLLAMA_HOST", "0.0.0.0:11434", "User")macOS/Linux
bash
# 添加到 ~/.bashrc 或 ~/.zshrc
export OLLAMA_MODELS="/path/to/models"
export OLLAMA_HOST="0.0.0.0:11434"
# 重新加载配置
source ~/.bashrc # 或 source ~/.zshrc防火墙配置
Windows
powershell
# 允许 Ollama 通过防火墙
New-NetFirewallRule -DisplayName "Ollama" -Direction Inbound -Port 11434 -Protocol TCP -Action AllowLinux
bash
# Ubuntu/Debian
sudo ufw allow 11434
# CentOS/RHEL
sudo firewall-cmd --permanent --add-port=11434/tcp
sudo firewall-cmd --reload🚀 快速开始
下载并运行模型
bash
# 下载并运行 Llama 3.2 模型
ollama run llama3.2
# 下载并运行 Gemma 2 模型
ollama run gemma2
# 下载并运行 Qwen 2.5 模型
ollama run qwen2.5列出已安装的模型
bash
ollama list删除模型
bash
ollama rm llama3.2🔄 更新 Ollama
Windows
- 下载最新版本的安装程序
- 运行安装程序,它会自动覆盖旧版本
macOS
bash
# 使用 Homebrew 更新
brew upgrade ollama
# 或下载最新的 .dmg 文件重新安装Linux
bash
# 重新运行安装脚本
curl -fsSL https://ollama.com/install.sh | sh
# 重启服务
sudo systemctl restart ollama🗑️ 卸载 Ollama
Windows
- 通过控制面板的"程序和功能"卸载
- 或使用命令行:
powershell
# 使用 Chocolatey
choco uninstall ollama
# 使用 Scoop
scoop uninstall ollamamacOS
- 从 Applications 文件夹删除 Ollama
- 清理相关文件:
bash
rm -rf ~/.ollama
rm -rf /usr/local/bin/ollamaLinux
bash
# 停止并禁用服务
sudo systemctl stop ollama
sudo systemctl disable ollama
# 删除文件
sudo rm /etc/systemd/system/ollama.service
sudo rm /usr/local/bin/ollama
sudo userdel ollama
sudo rm -rf /usr/share/ollama🆘 常见问题
安装失败
- Windows: 确保以管理员身份运行安装程序
- macOS: 检查是否允许来自未知开发者的应用
- Linux: 确保有足够的权限和网络连接
服务无法启动
bash
# 检查端口是否被占用
netstat -tulpn | grep 11434
# 检查日志
journalctl -u ollama -f模型下载缓慢
- 使用代理或镜像源
- 检查网络连接
- 尝试手动下载模型文件
📚 下一步
安装完成后,您可以: