Appearance
模型库
Ollama 支持多种开源大语言模型,每个模型都有其独特的特点和适用场景。本页面将帮助您了解和选择合适的模型。
热门模型
Llama 3.2
Meta 开发的最新一代大语言模型,具有出色的通用能力。
bash
ollama run llama3.2特点:
- 🎯 多模态支持:支持文本和图像理解
- 🚀 高性能:在各种基准测试中表现优异
- 🌍 多语言:支持多种语言,包括中文
- 💻 代码友好:优秀的代码生成和理解能力
规格:
- 参数量:8B、70B
- 上下文长度:128K tokens
- 文件大小:4.7GB (8B), 40GB (70B)
Gemma 2
Google 开发的轻量级高性能模型。
bash
ollama run gemma2特点:
- ⚡ 高效推理:优化的架构,推理速度快
- 📱 移动友好:适合资源受限的环境
- 🔒 安全设计:内置安全过滤机制
- 🎓 教育友好:适合学习和研究
规格:
- 参数量:2B、9B、27B
- 上下文长度:8K tokens
- 文件大小:1.6GB (2B), 5.4GB (9B), 16GB (27B)
DeepSeek-R1
专注于推理和数学能力的模型。
bash
ollama run deepseek-r1特点:
- 🧮 数学专长:在数学和逻辑推理方面表现突出
- 🔬 科学计算:适合科学研究和工程计算
- 📊 数据分析:擅长数据处理和统计分析
- 🎯 精确推理:逻辑清晰,推理过程可追踪
规格:
- 参数量:7B、32B
- 上下文长度:32K tokens
- 文件大小:4.1GB (7B), 18GB (32B)
Qwen 2.5
阿里巴巴开发的多语言模型,中文能力突出。
bash
ollama run qwen2.5特点:
- 🇨🇳 中文优化:专门针对中文进行优化
- 🌏 多语言:支持多种亚洲语言
- 📚 知识丰富:包含大量中文知识和文化内容
- 💼 商业友好:适合中文商业应用
规格:
- 参数量:0.5B、1.5B、3B、7B、14B、32B、72B
- 上下文长度:32K tokens
- 文件大小:0.4GB (0.5B) - 41GB (72B)
专业模型
Code Llama
专门为代码生成和理解优化的模型。
bash
ollama run codellama适用场景:
- 代码生成和补全
- 代码解释和注释
- 代码重构和优化
- 编程教学
Mistral
法国 Mistral AI 开发的高效模型。
bash
ollama run mistral特点:
- 高质量输出
- 多语言支持
- 商业友好许可
- 优秀的指令遵循能力
Phi-3
微软开发的小型高效模型。
bash
ollama run phi3特点:
- 小巧轻量(3.8B参数)
- 推理速度快
- 适合边缘设备
- 优秀的性价比
模型选择指南
按用途选择
| 用途 | 推荐模型 | 理由 |
|---|---|---|
| 通用对话 | Llama 3.2, Qwen 2.5 | 平衡的能力,多语言支持 |
| 代码编程 | Code Llama, DeepSeek Coder | 专门优化的代码能力 |
| 数学推理 | DeepSeek-R1, Llama 3.2 | 强大的逻辑推理能力 |
| 中文应用 | Qwen 2.5, ChatGLM | 中文理解和生成优秀 |
| 快速推理 | Gemma 2, Phi-3 | 轻量级,推理速度快 |
| 创意写作 | Llama 3.2, Mistral | 创造力强,文本质量高 |
按硬件选择
| 内存/显存 | 推荐模型 | 说明 |
|---|---|---|
| 4GB | Gemma 2:2B, Phi-3 | 轻量级模型 |
| 8GB | Llama 3.2:8B, Qwen 2.5:7B | 中等规模模型 |
| 16GB | DeepSeek-R1:32B, Mistral:7B | 大型模型 |
| 32GB+ | Llama 3.2:70B, Qwen 2.5:72B | 超大型模型 |
模型管理
查看已安装模型
bash
ollama list下载模型
bash
# 下载默认版本
ollama pull llama3.2
# 下载特定版本
ollama pull llama3.2:8b
ollama pull llama3.2:70b删除模型
bash
ollama rm llama3.2查看模型信息
bash
ollama show llama3.2复制模型
bash
ollama cp llama3.2 my-llama模型标签系统
Ollama 使用标签系统来管理不同版本的模型:
bash
# 完整格式
ollama run <model_name>:<tag>
# 示例
ollama run llama3.2:8b # 8B 参数版本
ollama run llama3.2:70b # 70B 参数版本
ollama run llama3.2:latest # 最新版本(默认)常见标签
| 标签 | 说明 |
|---|---|
latest | 最新版本(默认) |
8b, 7b | 参数量标识 |
instruct | 指令调优版本 |
code | 代码专用版本 |
chat | 对话优化版本 |
性能优化
量化版本
大多数模型提供不同的量化版本以平衡性能和质量:
bash
# Q4_0 量化(默认,平衡性能和质量)
ollama run llama3.2
# Q8_0 量化(更高质量,更大文件)
ollama run llama3.2:8b-q8_0
# Q2_K 量化(更小文件,质量略低)
ollama run llama3.2:8b-q2_k并发运行
bash
# 同时运行多个模型
ollama run llama3.2 &
ollama run gemma2 &自定义模型
您可以基于现有模型创建自定义版本:
创建 Modelfile
dockerfile
FROM llama3.2
# 设置系统提示
SYSTEM """
你是一个专业的编程助手,专门帮助用户解决编程问题。
请用简洁明了的方式回答问题,并提供可运行的代码示例。
"""
# 设置参数
PARAMETER temperature 0.7
PARAMETER top_p 0.9
PARAMETER top_k 40构建自定义模型
bash
ollama create my-coding-assistant -f ./Modelfile使用自定义模型
bash
ollama run my-coding-assistant模型更新
检查更新
bash
ollama list更新模型
bash
ollama pull llama3.2 # 拉取最新版本故障排除
常见问题
Q: 模型下载失败
bash
# 重试下载
ollama pull llama3.2
# 检查网络连接
curl -I https://ollama.comQ: 内存不足
bash
# 选择更小的模型
ollama run gemma2:2b
# 或者使用量化版本
ollama run llama3.2:8b-q4_0Q: 模型运行缓慢
bash
# 检查系统资源
ollama ps
# 关闭其他模型
ollama stop llama3.2下一步
现在您已经了解了如何管理和使用模型,可以开始探索 Ollama 的其他功能。