Ollama+Docker:零基础打造你的 AI 伙伴
想象一下,你有一个随时随地为你服务的智能助手,它能帮你写邮件、写代码、甚至帮你创作小说。这不再是科幻,借助 Ollama,你就可以轻松实现!Ollama 是一款开源的 LLM(大型语言模型),功能强大且易于部署。本文将手把手教你如何使用 Docker 快速搭建 Ollama,开启你的 AI 之旅。
一、什么是 Ollama?
Ollama 是一款开源的 LLM,它能让你在本地部署一个强大的 AI 模型,实现各种有趣的应用,比如智能对话、文本生成、代码补全等等。Ollama 的优势在于:
- 开源免费: 你可以完全自由地使用和定制。
- 功能强大: 支持多种模型,能完成复杂的任务。
- 灵活部署: 可以部署在各种设备上,包括树莓派。
- 社区活跃: 有一个庞大的社区提供支持和资源。
通过 Ollama,你将能够实现从日常办公到创意写作等多个场景的 AI 助力,全面提升工作效率和创作力。
二、为什么选择 Docker 部署?
Docker 是一个开源的容器化平台,它可以将应用程序及其依赖打包成一个独立的容器。使用 Docker 部署 Ollama 有以下优点:
- 环境隔离:可以在不同的容器中运行不同版本的 Ollama,互不干扰。
- 快速部署:只需一条命令,就能快速启动 Ollama 容器,免去复杂的环境配置。
- 高度可移植:Docker 容器可以在 Windows、Linux 和 macOS 上运行,跨平台操作无忧。
- 易于管理:Docker 提供丰富的命令和工具,方便容器的创建、管理、停止和删除。
三、部署前准备
在开始之前,请确保你的系统已经安装了 Docker。如果还没有安装 Docker,请按照以下步骤进行安装:
- 安装 Docker(适用于 Linux 系统)
curl -fsSL https://get.docker.com | sh
- 启动 Docker 服务
systemctl start docker
- 如果是 CentOS 系统,Docker 安装后不会默认开机自启,需要手动设置:
systemctl enable docker
- 验证 Docker 是否安装成功
docker --version
如果返回 Docker 的版本号,则说明 Docker 安装成功。
四、部署 Ollama
使用以下命令来拉取并启动 Ollama 容器:
docker run -d --name ollama -v /home/docker/ollama:/root/.ollama -p 11434:11434 ollama/ollama
说明:
-d
:以后台模式运行容器。--name ollama
:为容器指定一个名字,这里我们命名为 “ollama”。-v /home/docker/ollama:/root/.ollama
:挂载本地目录到容器中,以便保存模型数据。-p 11434:11434
: 将容器内部的 11434 端口映射到宿主机的 11434 端口,方便你通过浏览器访问。ollama/ollama
:指定要运行的镜像。
完成启动后,打开浏览器访问 http://localhost:11434
,如果看到 "Ollama is running" 的提示,则说明你的 Ollama 部署成功。
你可以通过命令行与 Ollama 进行互动,以下是一些常用命令:
- 查看已下载的模型
ollama list
- 拉取指定模型(例如:gemma:2b)
ollama pull gemma:2b
- 运行指定模型
ollama run gemma:2b
- 删除指定模型
ollama rm gemma:2b
- 停止 Ollama 服务
docker stop ollama
- 重新启动 Ollama 容器
docker start ollama
- 删除容器(若不再需要 Ollama 服务时)
docker rm ollama
五、部署 Open-webui(可选)
如果你希望通过更加友好的 Web 界面来与 Ollama 进行交互,推荐使用 Open-webui。你可以使用以下命令来部署 Open-webui 容器:
- 与 Ollama 在同一台服务器上部署:
docker run -d -p 8080:8080 --add-host=host.docker.internal:host-gateway -v /home/docker/open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
- 与 Ollama 不在同一台服务器上部署:
docker run -d -p 8080:8080 -e OLLAMA_BASE_URL=http://你服务器的ip地址:11434 -v /home/docker/open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
说明:
docker run
:这是 Docker 的基本命令,用于启动一个新的容器。-d
:表示在后台运行容器,即启动后容器不会立即退出。-p 8080:8080
:将容器内部的 8080 端口映射到宿主机的 8080 端口。这样,你就可以通过http://localhost:8080
来访问 Open-webui。-e OLLAMA_BASE_URL=http://你服务器的ip地址:11434
:设置环境变量OLLAMA_BASE_URL
,告诉 Open-webui Ollama 服务的地址。这里的http://你服务器的ip地址:11434
需要替换成你实际的 Ollama 服务地址。-v /home/docker/open-webui:/app/backend/data
:将本地目录/home/docker/open-webui
挂载到容器内的/app/backend/data
目录。这个目录通常用于存放 Open-webui 的数据和配置文件。--name open-webui
:给容器起一个名字,方便管理。--restart always
:设置容器在退出后自动重启。ghcr.io/open-webui/open-webui:main
:指定要运行的镜像。ghcr.io/open-webui/open-webui
是镜像仓库地址,main
是镜像标签。
完成后,打开浏览器访问 http://localhost:8080
,你将可以通过 Open-webui 界面与 Ollama 进行交互,体验更加直观的操作。
恭喜你!现在你已经成功搭建了自己的 AI 助手 Ollama 了。你可以像和朋友聊天一样,随时随地向 Ollama 提问、要求它写东西,或者做其他你想做的事。Ollama 可以帮你写邮件、写代码,甚至帮你创作故事。如果你想让 Ollama 变得更聪明,可以试试给它更多的“学习资料”。祝你在 AI 世界玩得开心!
共有 0 条评论