一、什么是 Ollama?
Ollama 是一款开源的 LLM,它能让你在本地部署一个强大的 AI 模型,实现各种有趣的应用,比如智能对话、文本生成、代码补全等等。Ollama 的优势在于:
开源免费: 你可以完全自由地使用和定制。
功能强大: 支持多种模型,能完成复杂的任务。
灵活部署: 可以部署在各种设备上,包括树莓派。
社区活跃: 有一个庞大的社区提供支持和资源。
通过 Ollama,你将能够实现从日常办公到创意写作等多个场景的 AI 助力,全面提升工作效率和创作力。
二、为什么选择 Docker 部署?
Docker 是一个开源的容器化平台,它可以将应用程序及其依赖打包成一个独立的容器。使用 Docker 部署 Ollama 有以下优点:
环境隔离:可以在不同的容器中运行不同版本的 Ollama,互不干扰。
快速部署:只需一条命令,就能快速启动 Ollama 容器,免去复杂的环境配置。
高度可移植:Docker 容器可以在 Windows、Linux 和 macOS 上运行,跨平台操作无忧。
易于管理:Docker 提供丰富的命令和工具,方便容器的创建、管理、停止和删除。
三、部署前准备
在开始之前,请确保你的系统已经安装了 Docker。如果还没有安装 Docker,请按照以下步骤进行安装:
安装 Docker(适用于 Linux 系统)
curl -fsSL https://get.docker.com | sh
启动 Docker 服务
systemctl start docker
如果是 CentOS 系统,Docker 安装后不会默认开机自启,需要手动设置:
systemctl enable docker
验证 Docker 是否安装成功
docker --version
如果返回 Docker 的版本号,则说明 Docker 安装成功。
四、部署 Ollama
使用以下命令来拉取并启动 Ollama 容器:
docker run -d --name ollama -v /home/docker/ollama:/root/.ollama -p 11434:11434 ollama/ollama
说明:
-d:以后台模式运行容器。
--name ollama:为容器指定一个名字,这里我们命名为 “ollama”。
-v /home/docker/ollama:/root/.ollama:挂载本地目录到容器中,以便保存模型数据。
-p 11434:11434: 将容器内部的 11434 端口映射到宿主机的 11434 端口,方便你通过浏览器访问。
ollama/ollama:指定要运行的镜像。
完成启动后,打开浏览器访问 http://localhost:11434,如果看到 “Ollama is running” 的提示,则说明你的 Ollama 部署成功。
你可以通过命令行与 Ollama 进行互动,以下是一些常用命令:
查看已下载的模型
ollama list
拉取指定模型(例如:gemma:2b)
ollama pull gemma:2b
运行指定模型
ollama run gemma:2b
删除指定模型
ollama rm gemma:2b
停止 Ollama 服务
docker stop ollama
重新启动 Ollama 容器
docker start ollama
删除容器(若不再需要 Ollama 服务时)
docker rm ollama
五、部署 Open-webui(可选)
如果你希望通过更加友好的 Web 界面来与 Ollama 进行交互,推荐使用 Open-webui。你可以使用以下命令来部署 Open-webui 容器:
与 Ollama 在同一台服务器上部署:
docker run -d -p 8080:8080 --add-host=host.docker.internal:host-gateway -v /home/docker/open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
与 Ollama 不在同一台服务器上部署:
docker run -d -p 8080:8080 -e OLLAMA_BASE_URL=http://你服务器的ip地址:11434 -v /home/docker/open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
本文系作者在时代Java发表,未经许可,不得转载。
如有侵权,请联系nowjava@qq.com删除。