Skip to content

模型库

Ollama 支持多种开源大语言模型,每个模型都有其独特的特点和适用场景。本页面将帮助您了解和选择合适的模型。

热门模型

Llama 3.2

Meta 开发的最新一代大语言模型,具有出色的通用能力。

bash
ollama run llama3.2

特点

  • 🎯 多模态支持:支持文本和图像理解
  • 🚀 高性能:在各种基准测试中表现优异
  • 🌍 多语言:支持多种语言,包括中文
  • 💻 代码友好:优秀的代码生成和理解能力

规格

  • 参数量:8B、70B
  • 上下文长度:128K tokens
  • 文件大小:4.7GB (8B), 40GB (70B)

Gemma 2

Google 开发的轻量级高性能模型。

bash
ollama run gemma2

特点

  • 高效推理:优化的架构,推理速度快
  • 📱 移动友好:适合资源受限的环境
  • 🔒 安全设计:内置安全过滤机制
  • 🎓 教育友好:适合学习和研究

规格

  • 参数量:2B、9B、27B
  • 上下文长度:8K tokens
  • 文件大小:1.6GB (2B), 5.4GB (9B), 16GB (27B)

DeepSeek-R1

专注于推理和数学能力的模型。

bash
ollama run deepseek-r1

特点

  • 🧮 数学专长:在数学和逻辑推理方面表现突出
  • 🔬 科学计算:适合科学研究和工程计算
  • 📊 数据分析:擅长数据处理和统计分析
  • 🎯 精确推理:逻辑清晰,推理过程可追踪

规格

  • 参数量:7B、32B
  • 上下文长度:32K tokens
  • 文件大小:4.1GB (7B), 18GB (32B)

Qwen 2.5

阿里巴巴开发的多语言模型,中文能力突出。

bash
ollama run qwen2.5

特点

  • 🇨🇳 中文优化:专门针对中文进行优化
  • 🌏 多语言:支持多种亚洲语言
  • 📚 知识丰富:包含大量中文知识和文化内容
  • 💼 商业友好:适合中文商业应用

规格

  • 参数量:0.5B、1.5B、3B、7B、14B、32B、72B
  • 上下文长度:32K tokens
  • 文件大小:0.4GB (0.5B) - 41GB (72B)

专业模型

Code Llama

专门为代码生成和理解优化的模型。

bash
ollama run codellama

适用场景

  • 代码生成和补全
  • 代码解释和注释
  • 代码重构和优化
  • 编程教学

Mistral

法国 Mistral AI 开发的高效模型。

bash
ollama run mistral

特点

  • 高质量输出
  • 多语言支持
  • 商业友好许可
  • 优秀的指令遵循能力

Phi-3

微软开发的小型高效模型。

bash
ollama run phi3

特点

  • 小巧轻量(3.8B参数)
  • 推理速度快
  • 适合边缘设备
  • 优秀的性价比

模型选择指南

按用途选择

用途推荐模型理由
通用对话Llama 3.2, Qwen 2.5平衡的能力,多语言支持
代码编程Code Llama, DeepSeek Coder专门优化的代码能力
数学推理DeepSeek-R1, Llama 3.2强大的逻辑推理能力
中文应用Qwen 2.5, ChatGLM中文理解和生成优秀
快速推理Gemma 2, Phi-3轻量级,推理速度快
创意写作Llama 3.2, Mistral创造力强,文本质量高

按硬件选择

内存/显存推荐模型说明
4GBGemma 2:2B, Phi-3轻量级模型
8GBLlama 3.2:8B, Qwen 2.5:7B中等规模模型
16GBDeepSeek-R1:32B, Mistral:7B大型模型
32GB+Llama 3.2:70B, Qwen 2.5:72B超大型模型

模型管理

查看已安装模型

bash
ollama list

下载模型

bash
# 下载默认版本
ollama pull llama3.2

# 下载特定版本
ollama pull llama3.2:8b
ollama pull llama3.2:70b

删除模型

bash
ollama rm llama3.2

查看模型信息

bash
ollama show llama3.2

复制模型

bash
ollama cp llama3.2 my-llama

模型标签系统

Ollama 使用标签系统来管理不同版本的模型:

bash
# 完整格式
ollama run <model_name>:<tag>

# 示例
ollama run llama3.2:8b      # 8B 参数版本
ollama run llama3.2:70b     # 70B 参数版本
ollama run llama3.2:latest  # 最新版本(默认)

常见标签

标签说明
latest最新版本(默认)
8b, 7b参数量标识
instruct指令调优版本
code代码专用版本
chat对话优化版本

性能优化

量化版本

大多数模型提供不同的量化版本以平衡性能和质量:

bash
# Q4_0 量化(默认,平衡性能和质量)
ollama run llama3.2

# Q8_0 量化(更高质量,更大文件)
ollama run llama3.2:8b-q8_0

# Q2_K 量化(更小文件,质量略低)
ollama run llama3.2:8b-q2_k

并发运行

bash
# 同时运行多个模型
ollama run llama3.2 &
ollama run gemma2 &

自定义模型

您可以基于现有模型创建自定义版本:

创建 Modelfile

dockerfile
FROM llama3.2

# 设置系统提示
SYSTEM """
你是一个专业的编程助手,专门帮助用户解决编程问题。
请用简洁明了的方式回答问题,并提供可运行的代码示例。
"""

# 设置参数
PARAMETER temperature 0.7
PARAMETER top_p 0.9
PARAMETER top_k 40

构建自定义模型

bash
ollama create my-coding-assistant -f ./Modelfile

使用自定义模型

bash
ollama run my-coding-assistant

模型更新

检查更新

bash
ollama list

更新模型

bash
ollama pull llama3.2  # 拉取最新版本

故障排除

常见问题

Q: 模型下载失败

bash
# 重试下载
ollama pull llama3.2

# 检查网络连接
curl -I https://ollama.com

Q: 内存不足

bash
# 选择更小的模型
ollama run gemma2:2b

# 或者使用量化版本
ollama run llama3.2:8b-q4_0

Q: 模型运行缓慢

bash
# 检查系统资源
ollama ps

# 关闭其他模型
ollama stop llama3.2

下一步

现在您已经了解了如何管理和使用模型,可以开始探索 Ollama 的其他功能。

让大语言模型触手可及 - Get up and running with large language models