Harbor:一键跑通本地AI全家桶,Ollama+Open WebUI+50个服务全配好
想在家里跑大模型,你是不是也被折腾过?装Ollama、配Open WebUI、接搜索引擎、搞语音对话、弄图片生成……光是让这些服务互相认识就能让人崩溃。每次配置一堆环境变量、端口映射,搞完一个忘了另一个,到最后AI工具没怎么用,光配环境就累了。 Harbor 就是为了解决这个问题而生的——一
想在家里跑大模型,你是不是也被折腾过?装Ollama、配Open WebUI、接搜索引擎、搞语音对话、弄图片生成……光是让这些服务互相认识就能让人崩溃。每次配置一堆环境变量、端口映射,搞完一个忘了另一个,到最后AI工具没怎么用,光配环境就累了。
Harbor就是为了解决这个问题而生的——一条命令,帮你把本地AI全家桶全部拉起来,所有服务自动连好,开箱即用。
Harbor是什么?
Harbor是一个开源的本地AI服务编排工具(GitHub 2900+星)。它帮你在Docker里一键启动50多个AI相关的服务——推理后端、对话界面、搜索引擎、语音合成、图片生成、工作流引擎——所有服务之间自动接好线,你只需要告诉它"我要什么",不用管"怎么连"。
简单说:之前你可能花一整天配置本地AI环境,现在一条harbor up就搞定。
项目地址:https://github.com/av/harbor
核心功能
1. 一键启动本地大模型
harbor up这条命令会自动启动Ollama(推理后端)+ Open WebUI(对话界面),两者之间自动连通,打开浏览器就能跟本地大模型聊天。
2. 支持10+推理引擎
Harbor支持目前几乎所有主流的本地推理后端:
| 推理引擎 | 特点 |
|---|---|
| Ollama | 最简单易用,自动检测硬件 |
| llama.cpp | C/C++推理,纯CPU也能跑 |
| vLLM | 高吞吐量推理,适合有GPU的机器 |
| TGI | HuggingFace官方推理引擎 |
| LiteLLM | 多模型代理网关 |
| Aphrodite | 大规模推理引擎 |
| SGLang | 快速推理框架 |
| TabbyAPI | EXL2格式专用 |
| Mistral.rs | Rust写的高性能推理 |
| KTransformers | KVCache优化推理 |
所有后端都自动对接Open WebUI,切换后端就像换灯泡一样简单。
3. 搜索+语音+图片一站全搞定
不只是文字聊天,Harbor把常见的AI辅助服务也一键集成:
# 加上网页搜索(SearXNG),自动启用Open WebUI的联网搜索
harbor up searxng
# 加上语音对话(Speaches),支持语音输入和TTS语音输出
harbor up speaches
# 加上AI图片生成(ComfyUI + FLUX)
harbor up comfyui
# 全都要!
harbor up searxng speaches comfyui每个服务加进去后,Open WebUI会自动识别并启用对应功能——搜索结果、语音对话、图片生成,全部直接在聊天界面里用。
4. MCP工具生态
Harbor内置了MetaMCP,让你管理MCP(Model Context Protocol)服务器变得可视化:
# 启动MCP管理界面
harbor up metamcp
# 把MCP对接到Open WebUI
harbor up metamcp mcpoMCP是什么?简单说就是AI的"USB接口"——让大模型能调用外部工具(搜索、数据库、API等)。Harbor帮你把这块也配好了。
5. 深度搜索/研究
# Perplexica - 开源AI搜索引擎
harbor up searxng perplexica
# Local Deep Research - 本地深度研究工具
harbor up searxng ldr
# Morphic - AI搜索界面
harbor up searxng morphic配上SearXNG后,所有搜索工具自动共享搜索能力。你本地就有一个完整的AI搜索引擎了。
6. 工作流自动化
# Dify - AI工作流平台
harbor up dify
# n8n - 工作流自动化
harbor up n8n
# Flowise - 可视化AI工作流
harbor up flowise7. Boost优化代理
Harbor内置了一个Boost代理,可以免费提升模型输出质量:
harbor up boostBoost通过优化提示词和推理参数,让同一模型的输出效果更好,类似于给你的大模型"加特效"。
8. 手机访问+远程隧道
# 生成二维码,手机扫码访问
harbor qr
# 暴露到互联网(谨慎使用!)
harbor tunnel你可以在手机上访问本地运行的AI服务,甚至通过隧道让别人也能用。
安装步骤
前置条件
你需要先安装Docker。Harbor运行在Docker容器里,这是它能同时管理50+服务的核心。
各平台Docker安装:
Mac:
- 下载 Docker Desktop for Mac
- Apple Silicon选ARM64版本,Intel选x86版本
- 打开.dmg文件,拖到Applications
- 启动Docker Desktop
- 终端验证:
docker --version
docker compose version
docker run hello-worldWindows:
- 先装WSL2:PowerShell管理员模式运行
wsl --install,然后重启 - 下载 Docker Desktop for Windows
- 安装时勾选"Use WSL 2 instead of Hyper-V"
- 重启后启动Docker Desktop
- 在Docker设置里→Resources→WSL Integration→启用你的WSL发行版
- WSL终端验证:
docker --version
docker compose versionLinux:
# Ubuntu/Debian
sudo apt update
sudo apt install docker.io docker-compose-plugin
sudo usermod -aG docker $USER
# 重新登录后生效
# 验证
docker --version
docker compose version安装Harbor
方法一:快速安装脚本(推荐)
curl https://raw.githubusercontent.com/av/harbor/refs/heads/main/install.sh | bash方法二:从源码安装
git clone https://github.com/av/harbor.git
cd harbor
./harbor.sh link验证安装
harbor --version
harbor doctorharbor doctor会检查你的系统兼容性,告诉你哪里有问题。
使用方法
用法一:最简单——直接开聊
# 启动默认服务(Ollama + Open WebUI)
harbor up
# 打开浏览器
harbor open第一次启动时,Open WebUI会要求你创建管理员账号。创建完后就能直接聊天了。
但这时还没有模型,需要拉一个:
# 拉取模型
harbor pull llama3.2
harbor pull gemma3:8b
# 也可以从HuggingFace拉取
harbor pull hf.co/bartowski/gemma-2-2b-it-GGUF:Q4_K_M拉取完成后,回到Open WebUI刷新一下,模型就出现了。
用法二:打造全能AI工作站
# 文字聊天 + 联网搜索 + 语音对话 + 图片生成
harbor up searxng speaches comfyui这一条命令启动4个服务,全部自动连通。你在Open WebUI里就能:
- 联网搜索最新消息
- 用语音跟AI说话
- 让AI画图
用法三:多引擎切换
# 同时启动多个推理后端
harbor up vllm llamacpp
# 设定vLLM使用的模型
harbor vllm model Qwen/Qwen3.5-4B
# 设定llama.cpp使用的模型
harbor llamacpp model https://huggingface.co/lm-kit/gemma-2-2b-gguf/blob/main/gemma-2-2B-Q8_0.ggufOpen WebUI会自动识别所有后端的模型,你在对话时可以随意切换。
配置管理
# 查看所有配置项
harbor config ls
# 修改配置
harbor config set webui.host.port 8080
harbor config set webui.name "我的AI助手"
# 查看某个配置
harbor config get vllm.version配置文件导出
如果你想把Harbor配置迁移到别的机器,或者脱离Harbor用原生Docker Compose:
harbor eject searxng llamacpp > docker-compose.harbor.yml这会导出一个独立的docker-compose文件,你可以直接docker compose up来运行。
实际场景举例
| 场景 | 怎么用 |
|---|---|
| 在家搭建私人ChatGPT | harbor up → 拉模型 → 开聊 |
| 需要AI联网搜索实时信息 | harbor up searxng → Open WebUI自动启用联网搜索 |
| 想跟AI语音对话 | harbor up speaches → 支持语音输入和TTS输出 |
| 做AI图片生成 | harbor up comfyui → FLUX模型直接在Open WebUI里用 |
| 搭建完整的AI研究平台 | harbor up searxng perplexica ldr → 本地深度搜索 |
| 做AI工作流编排 | harbor up dify → 可视化搭建AI工作流 |
| 想在手机上用 | harbor qr → 扫码打开手机界面 |
| 多个推理后端对比测试 | harbor up vllm llamacpp tgi → 同一界面切换后端 |
| 用MCP工具扩展AI能力 | harbor up metamcp mcpo → 可视化管理MCP服务器 |
| 远程访问本地AI | harbor tunnel → 生成公网访问地址 |
跟同类方案对比
| 对比项 | Harbor | 手动Docker Compose | Ollama单独用 | LM Studio |
|---|---|---|---|---|
| 安装难度 | 一条命令 | 需要自己写配置文件 | 一条命令 | 桌面安装 |
| 服务数量 | 50+一键管理 | 你自己搞定 | 只有推理 | 推理+简单界面 |
| 服务互联 | 自动配好 | 手动配环境变量 | 无 | 有 |
| 搜索集成 | harbor up searxng | 自己装+自己配 | 不支持 | 不支持 |
| 语音对话 | harbor up speaches | 自己装+自己配 | 不支持 | 不支持 |
| 图片生成 | harbor up comfyui | 自己装+自己配 | 不支持 | 不支持 |
| MCP支持 | 内置MetaMCP | 不支持 | 不支持 | 不支持 |
| 多后端切换 | harbor up任意后端 | 各自独立配置 | 仅Ollama | 仅自己的推理 |
| GUI管理 | Harbor App可视化 | 命令行 | 命令行 | 桌面GUI |
| 适合人群 | 想要AI全家桶 | 懂Docker的极客 | 只要聊天的 | 桌面端用户 |
Harbor App(图形界面)
除了命令行,Harbor还提供了一个桌面App,让你用图形界面管理所有服务:
- 一键启动/停止服务
- 可视化查看服务状态
- 直接在App里打开服务页面
- 管理配置项
App和CLI共用同一套配置,你用哪个都行,随心切换。
GPU加速设置
如果你有NVIDIA显卡,可以开启GPU加速,让模型跑得更快:
# Harbor会自动检测NVIDIA GPU
# 启用GPU只需要在启动后端时指定参数
harbor llamacpp args -ngl 32 # 使用GPU运行llama.cppAMD GPU和Apple Silicon也支持,但部分服务可能没有对应的Docker镜像。
中国用户注意事项
- Docker镜像加速:国内拉Docker镜像可能比较慢,建议配置国内镜像源(如阿里云、DaoCloud等)
- 模型下载:Ollama的模型库在国内直连速度还行;HuggingFace的模型可以从镜像站
hf-mirror.com下载 - 中文模型推荐:先拉Qwen3(通义千问)系列,中文效果好;或者DeepSeek系列
- 磁盘空间:建议至少50GB空闲空间,模型文件动辄好几GB
- 内存要求:跑7B模型至少8GB内存,13B需要16GB+,33B需要32GB+
小结
Harbor是目前最方便的本地AI全家桶方案——一条命令搞定50+AI服务的安装、配置和互联。无论你是想在家搭个私人ChatGPT,还是搞个完整的AI工作站(搜索+语音+图片+工作流),Harbor都能帮你省下大量折腾环境的时间。对国内用户来说,配合Ollama拉Qwen系列模型,中文体验非常好。
项目地址:https://github.com/av/harbor
读者评论
0 条暂无评论,来分享你的看法吧
相关推荐
结合当前内容、你的浏览习惯和搜索偏好推荐。
Pixelle-Video:万星AI短视频引擎,输入主题自动出片,小白手把手教程
你是不是也有这样的烦恼? 刷短视频的时候,你一定见过这类内容——画面精美、配音专业、节奏流畅的知识科普或情感故事视频。你想:"要是我也做一个该多好。" 然后你打开剪映,发现: - 🤯 写脚本就卡住了 ——不知道怎么组织内容,一句话憋半天 - 🤯 找素材找到头秃 ——免费图
VibeVoice:微软46K星开源语音AI,60分钟长音频一次性转文字,小白也能跑
你是不是也遇到过这些头疼事? 开会一小时的录音,转文字软件只能5分钟5分钟地切,切完还不知道谁说的哪句话。做播客的想合成多人对话,结果AI语音工具不是不支持长音频,就是只能单人说。想给AI Agent加个实时语音能力,发现开源方案要么延迟高到离谱,要么根本不支持流式输入。 现在,微软开源了

