简体中文 | English
2025.11.06,本项目被 Ollama 官方仓库收录,且是目前唯一的 Tutorial:https://github.com/ollama/ollama#tutorial
动手学 Ollama 教程,轻松上手实现大模型本地化部署,快速在本地管理以及运行大模型,让 CPU 也可以玩转大模型推理部署!
本教程涵盖从基础入门到进阶使用的全方位内容,并通过实际应用案例深入理解和掌握大模型部署以及应用技术。我们的教程提供清晰的步骤和实用的技巧,无论是刚刚接触大模型部署的小白,还是有一定经验的开发者,都可以从零开始学习 Ollama ,实现本地部署大模型以及相关应用。
本项目主要内容:
- Ollama 介绍、安装和配置,包括在 macOS、Windows、Linux 和 Docker 下的安装与配置;
- Ollama 自定义导入模型,包括从 GGUF 导入、从 Pytorch 或 Safetensors 导入、由模型直接导入、自定义 Prompt;
- Ollama REST API,包括 Ollama API 使用指南、在 Python、Java、JavaScript 和 C++ 等语言中使用 Ollama API;
- Ollama 在 LangChain 中的使用,包括在 Python 和 JavaScript 中的集成;
- Ollama 可视化界面部署和应用案例,包括使用 FastAPI 和 WebUI 部署可视化对话界面,以及本地 RAG 应用、Agent 应用等。
热忱欢迎感兴趣的同学或者开发者们 提出 issue 或者 提交 pull request,让我们一起完善这个项目!
我们坚信:每一位对大模型充满热情的学习者,都应该有机会探索和实践。无论你的编程语言背景如何,无论你的计算资源如何,我们都希望能帮助你使用个人 PC 实现大模型部署。 让我们携手打破技术壁垒,共同开启 LLM 探索之旅!
目录结构说明:
docs ---------------------- Markdown 文档文件
notebook ------------------ Notebook 源代码文件以及部分 Python、Java 和 JavaScript 源文件
images -------------------- 图片
📖 在线阅读:https://datawhalechina.github.io/handy-ollama/
随着大模型的飞速发展,市面上出现了越来越多的开源大模型,但是许多模型的部署需要利用 GPU 资源,如何让大模型时代的红利普惠到每一个人,让每一个人都可以部署属于自己的大模型。Ollama 是一个开源的大语言部署服务工具,只需 CPU 即可部署大模型。我们希望通过动手学 Ollama 这一开源教程,帮助学习者快速上手 Ollama ,让每一位大模型爱好者、学习者以及开发者都能在本地部署自己的大模型,进而开发一些大模型应用,让大模型赋能千行百业!
- 希望不受 GPU 资源限制,在本地运行大模型;
- 希望在消费级硬件上进行大模型有效的推理;
- 希望在本地部署大模型,开发大模型应用;
- 希望在本地管理大模型,让本地模型安全可靠。
本项目旨在使用 CPU 部署本地大模型,虽然目前已经有很多 LLM 相关的教程,但是这些教程中模型基本上都需要 GPU 资源,这对于很多资源受限的学习者不是很友好。因此,本项目通过动手学 Ollama ,帮助学习者快速上手本地 CPU 部署大模型。
| 章节 | 关键内容 | 状态 |
|---|---|---|
| 第一章 Ollama 介绍 | ||
| 1.1 Ollama 介绍 | 基础概念、核心特性 | ✅ |
| 第二章 Ollama 安装与配置 | ✅ | |
| 2.1 macOS 安装与配置 | macOS 安装、配置 | ✅ |
| 2.2 Windows 安装与配置 | Windows 安装、配置 | ✅ |
| 2.3 Linux 安装与配置 | Linux 安装、配置 | ✅ |
| 2.4 Docker 安装与配置 | Docker 安装、配置 | ✅ |
| 第三章 自定义使用 Ollama | 个性化使用 | ✅ |
| 3.1 自定义导入模型 | 外部模型导入 | ✅ |
| 3.2 自定义模型存储位置 | 存储路径更改 | ✅ |
| 3.3 自定义在 GPU 中运行 | GPU 加速配置 | ✅ |
| 第四章 Ollama REST API | ||
| 4.1 Ollama API 使用指南 | 调用规则、参数说明 | ✅ |
| 4.2 Python 中使用 Ollama API | Python 调用 | ✅ |
| 4.3 Java 中使用 Ollama API | Java 调用 | ✅ |
| 4.4 JavaScript 中使用 Ollama API | JavaScript 调用 | ✅ |
| 4.5 C++ 中使用 Ollama API | C++ 调用 | ✅ |
| 4.6 Golang 中使用 Ollama API | Golang 调用 | ✅ |
| C# 中使用 Ollama API | C# 调用(待更) | 🚧 |
| Rust 中使用 Ollama API | Rust 调用(待更) | 🚧 |
| Ruby 中使用 Ollama API | Ruby 调用(待更) | 🚧 |
| R 中使用 Ollama API | R 调用(待更) | 🚧 |
| 第五章 Ollama 在 LangChain 中的使用 | ||
| 5.1 Python 中的集成 | Python + LangChain 集成 | ✅ |
| 5.2 JavaScript 中的集成 | JavaScript + LangChain 集成 | ✅ |
| 第六章 Ollama 可视化界面部署 | ||
| 6.1 FastAPI 部署可视化界面 | FastAPI 部署 | ✅ |
| 6.2 WebUI 部署可视化界面 | WebUI 部署 | ✅ |
| 第七章 应用案例 | ||
| 7.1 搭建本地 AI Copilot 编程助手 | 本地编程助手 | ✅ |
| 7.2 Dify 接入本地模型 | Dify 集成本地模型 | ✅ |
| 7.3 LangChain 搭建本地 RAG 应用 | LangChain + 本地 RAG | ✅ |
| 7.4 LlamaIndex 搭建本地 RAG 应用 | LlamaIndex + 本地 RAG | ✅ |
| 7.5 LangChain 实现本地 Agent | LangChain + 本地 Agent | ✅ |
| 7.6 LlamaIndex 实现本地 Agent | LlamaIndex + 本地 Agent | ✅ |
| 7.7 DeepSeek R1 + Ollama 本地 RAG | DeepSeek R1 + 本地 RAG | ✅ |
| ... | ... | ... |
注:所有标记(待更新)的内容,以及其他相关的内容,热忱欢迎感兴趣的开发者们 提出 issue 或者 提交 pull request,让我们一起完善这个项目!
想要深度参与的同学可以联系我们,我们会将你加入到项目的维护者中。
Ollama 官方仓库:https://github.com/ollama/ollama
特别感谢以下为教程做出贡献的同学!
本作品采用知识共享署名-非商业性使用-相同方式共享 4.0 国际许可协议进行许可。