Ollama+Docker:零基础打造你的 AI 伙伴

想象一下,你有一个随时随地为你服务的智能助手,它能帮你写邮件、写代码、甚至帮你创作小说。这不再是科幻,借助 Ollama,你就可以轻松实现!Ollama 是一款开源的 LLM(大型语言模型),功能强大且易于部署。本文将手把手教你如何使用 Docker 快速搭建 Ollama,开启你的 AI 之旅。

一、什么是 Ollama?

Ollama 是一款开源的 LLM,它能让你在本地部署一个强大的 AI 模型,实现各种有趣的应用,比如智能对话、文本生成、代码补全等等。Ollama 的优势在于:

  • 开源免费: 你可以完全自由地使用和定制。
  • 功能强大: 支持多种模型,能完成复杂的任务。
  • 灵活部署: 可以部署在各种设备上,包括树莓派。
  • 社区活跃: 有一个庞大的社区提供支持和资源。

通过 Ollama,你将能够实现从日常办公到创意写作等多个场景的 AI 助力,全面提升工作效率和创作力。

二、为什么选择 Docker 部署?

Docker 是一个开源的容器化平台,它可以将应用程序及其依赖打包成一个独立的容器。使用 Docker 部署 Ollama 有以下优点:

  • 环境隔离:可以在不同的容器中运行不同版本的 Ollama,互不干扰。
  • 快速部署:只需一条命令,就能快速启动 Ollama 容器,免去复杂的环境配置。
  • 高度可移植:Docker 容器可以在 Windows、Linux 和 macOS 上运行,跨平台操作无忧。
  • 易于管理:Docker 提供丰富的命令和工具,方便容器的创建、管理、停止和删除。

三、部署前准备

在开始之前,请确保你的系统已经安装了 Docker。如果还没有安装 Docker,请按照以下步骤进行安装:

  • 安装 Docker(适用于 Linux 系统)
curl -fsSL https://get.docker.com | sh

  • 启动 Docker 服务
systemctl start docker

  • 如果是 CentOS 系统,Docker 安装后不会默认开机自启,需要手动设置:
systemctl enable docker

  • 验证 Docker 是否安装成功
docker --version

如果返回 Docker 的版本号,则说明 Docker 安装成功。

四、部署 Ollama

使用以下命令来拉取并启动 Ollama 容器:

docker run -d --name ollama -v /home/docker/ollama:/root/.ollama -p 11434:11434 ollama/ollama

说明:

  • -d:以后台模式运行容器。
  • --name ollama:为容器指定一个名字,这里我们命名为 “ollama”。
  • -v /home/docker/ollama:/root/.ollama:挂载本地目录到容器中,以便保存模型数据。
  • -p 11434:11434: 将容器内部的 11434 端口映射到宿主机的 11434 端口,方便你通过浏览器访问。
  • ollama/ollama:指定要运行的镜像。

完成启动后,打开浏览器访问 http://localhost:11434,如果看到 "Ollama is running" 的提示,则说明你的 Ollama 部署成功。

Ollama 码手Lion

你可以通过命令行与 Ollama 进行互动,以下是一些常用命令:

  • 查看已下载的模型
ollama list

  • 拉取指定模型(例如:gemma:2b)
ollama pull gemma:2b

  • 运行指定模型
ollama run gemma:2b

  • 删除指定模型
ollama rm gemma:2b

  • 停止 Ollama 服务
docker stop ollama

  • 重新启动 Ollama 容器
docker start ollama

  • 删除容器(若不再需要 Ollama 服务时)
docker rm ollama

五、部署 Open-webui(可选)

如果你希望通过更加友好的 Web 界面来与 Ollama 进行交互,推荐使用 Open-webui。你可以使用以下命令来部署 Open-webui 容器:

  • 与 Ollama 在同一台服务器上部署:
docker run -d -p 8080:8080 --add-host=host.docker.internal:host-gateway -v /home/docker/open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

  • 与 Ollama 不在同一台服务器上部署:
docker run -d -p 8080:8080 -e OLLAMA_BASE_URL=http://你服务器的ip地址:11434 -v /home/docker/open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

说明:

  • docker run:这是 Docker 的基本命令,用于启动一个新的容器。
  • -d:表示在后台运行容器,即启动后容器不会立即退出。
  • -p 8080:8080:将容器内部的 8080 端口映射到宿主机的 8080 端口。这样,你就可以通过 http://localhost:8080 来访问 Open-webui。
  • -e OLLAMA_BASE_URL=http://你服务器的ip地址:11434:设置环境变量 OLLAMA_BASE_URL,告诉 Open-webui Ollama 服务的地址。这里的 http://你服务器的ip地址:11434 需要替换成你实际的 Ollama 服务地址。
  • -v /home/docker/open-webui:/app/backend/data:将本地目录 /home/docker/open-webui 挂载到容器内的 /app/backend/data 目录。这个目录通常用于存放 Open-webui 的数据和配置文件。
  • --name open-webui:给容器起一个名字,方便管理。
  • --restart always:设置容器在退出后自动重启。
  • ghcr.io/open-webui/open-webui:main:指定要运行的镜像。ghcr.io/open-webui/open-webui 是镜像仓库地址,main 是镜像标签。

完成后,打开浏览器访问 http://localhost:8080,你将可以通过 Open-webui 界面与 Ollama 进行交互,体验更加直观的操作。

Open WebUI 码手Lion

恭喜你!现在你已经成功搭建了自己的 AI 助手 Ollama 了。你可以像和朋友聊天一样,随时随地向 Ollama 提问、要求它写东西,或者做其他你想做的事。Ollama 可以帮你写邮件、写代码,甚至帮你创作故事。如果你想让 Ollama 变得更聪明,可以试试给它更多的“学习资料”。祝你在 AI 世界玩得开心!

版权声明:
作者:码手Lion
链接:https://www.mslion.net/96/
来源:码手Lion的博客
文章版权归作者所有,未经允许请勿转载。

THE END
分享
二维码
< <上一篇
下一篇>>