
【纯新手版本】从0开始在Mac本地部署Hermes+越狱版Gemma4
以下视频是本篇文章的完整操作演示 👇👇👇
🚀 越狱版优势
✅ 解除合规限制:(它是去限制版本。很多云端模型会因为敏感词库或合规性的原因拒绝回答一些敏感禁忌的问题,或者回答有所保留,而在越狱版中,任何问题它都会回答你,没有任何保留,甚至会教你一些灰色地带的内容。
)
✅ 零成本调用:(我们不需要像商业模型那样订阅会员或支付昂贵的 API 流量费,一旦部署,终身免费。)
✅ 绝对的隐私:(数据不出本地。你的所有提问和对话都只在你的内存里流动,不会上传到任何云端服务器,隐私性拉满。)
❌ 越狱版缺点
说完优点,我们也需要了解它的短板:
因为它是本地部署的,所以没有联网功能,它没办法获取最新的资讯,
像我的16G内存的mac也只能安装相对轻量化的e4b版本,
所以从算力上肯定是没办法跟chat gpt、claude这种云端大模型相媲美的。
因此,个人认为可以把云端和本地结合起来用。不同场景用不同的模型。
一、安装 Ollama
Ollama 是目前最轻量、高效的本地 AI 部署方案。
- 打开终端 (Terminal)。
- 输入命令:复制并粘贴以下命令:
1
curl -fsSL https://ollama.com/install.sh | sh
- 完成安装:安装好后,在屏幕上方可以看到可爱的小羊驼图标。在对话框中可以管理或下载官方模型。
二、部署越狱版 Gemma 4
16G 内存推荐(e4b 模型)::
1
ollama run fredrezones55/Gemma-4-Uncensored-HauhauCS-Aggressive:e4b
16G以下 可选(e2b 模型)::
1
ollama run fredrezones55/Gemma-4-Uncensored-HauhauCS-Aggressive:e2b
更高配置可选( 31b 或 26b模型)::
可以在 ollama.com 搜索 Gemma 4 Uncensored 找到对应的模型版本,复制命令行部署即可。
我自己没试过,所以就不在此放链接了,大家可以自己去找。
部署完成后,你可以直接在终端对话,或者在 Ollama App 中选择刚部署好的 gemma4-uncensored 进行提问。
三、一键部署 Hermes Agent
退出当前对话:在终端输入 Command + D:
输入安装命令:
1
curl -fsSL https://hermes-agent.nousresearch.com/install.sh | bash
配置流程:
前两个选项:输入 Y 并回车。
选择模型:一直按下键,选择 custom endpoint。
URL 地址:复制粘贴 http://127.0.0.1:11434/v1。
API key:直接回车跳过。
Use this model:输入 Y。
Context length:输入 64000。
Display name:输入备注名或直接回车跳过。
Messaging platform:选 skip 跳过(若需接入 Telegram 可查阅我 2026.4.12 的教程)。
Launch hermes chat now?:输入 Y。
提示:后续想再次使用,只需在终端输入 hermes chat 即可打开对话框。
这期应该是最简单的一站式教程了,如果大家还是遇到了问题,记得把你的设备配置、下载的版本、具体报错复制到视频评论区,而不是单纯的说:为什么我跑不通? 只有具体的报错,才能解决具体的问题。




