Mac 安装 Ollama 和 Open WebUI

2025-06-27 · 364 chars · 2 min read

这几天一直想整一个本地知识库,研究了下本地部署小模型相关的东西,顺便记录一下,不然博客就长草了......

因为我的想法是,在家里的小服务器上跑 Open WebUI 和 Dify 等服务,同时存一些文章、笔记,24 小时开着;台式机性能好,用来跑模型,随用随开。所以晚上下班前,在公司的 Mac 上试了下,Podman 里部署 Open WebUI,本地部署 Ollama。

Ollama 安装#

没有性能好的服务器,只能本地安装 Ollama,比较简单,在官网下载直接装就行。

安装完成后启动,按照提示装 cli 工具,下载模型,这里他默认推荐的 llama3.2 太弱,可以装一下 DeepSeek-R1-0528-Qwen3-8B:

ollama run deepseek-r1

这样就能对话了,接下来在 Podman 里安装 Open WebUI。

Open WebUI 安装#

前面说了,Open WebUI 我要安装在 Podman 里,先下载镜像:

podman pull ghcr.io/open-webui/open-webui:main

# 或者用 docker
docker pull ghcr.io/open-webui/open-webui:main

我本地用的一些服务,都放在了 podman compose 里,所以 Open WebUI 也加进去。修改 compose.yaml 文件

services:
  # 其他服务省略...

  open-webui:
    image: ghcr.io/open-webui/open-webui:main
    container_name: open-webui
    volumes:
      - ./open-webui:/app/backend/data
    ports:
      - 3000:8080
    environment:
      - OLLAMA_BASE_URL=http://host.docker.internal:11434
    restart: unless-stopped

这里的关键是 OLLAMA_BASE_URL=http://host.docker.internal:11434,要让 Podman/Docker 里的 Open WebUI 访问宿主机的 Ollama 服务。

启动后,浏览器访问 http://127.0.0.1:3000 即可:

赞赏

微信