LocalClaw
创建于 2026年3月22日
更新于 2026年3月22日
本地优先的 AI 助手,针对开源模型优化。注重隐私,支持离线运行。完全在您自己的硬件上运行 AI。
本地优先隐私保护的 AI 助手
LocalClaw 专为注重隐私的用户设计,希望在本地使用开源 AI 模型而无需云依赖。一切都在您自己的硬件上运行----您的数据永远不会离开您的设备。
理念:"您的数据,您的硬件,您的控制权"----完全隐私和离线能力。
为什么选择 LocalClaw?
完全隐私
在数据隐私日益令人担忧的时代,LocalClaw 采取了不同的方法:
云端 AI 助手:
您的数据 → 互联网 → 云端服务器 → AI 处理 → 响应
⚠️ 数据离开您的控制
LocalClaw:
您的数据 → 本地 AI → 响应
✅ 数据永不离开您的设备这意味着:
- ✅ 无数据发送给云提供商
- ✅ 第三方无法访问您的对话
- ✅ 无需担心数据保留政策
- ✅ 完全符合隐私法规
离线能力
LocalClaw 无需互联网即可工作:
┌─────────────────────────────────────┐
│ LocalClaw 离线模式 │
├─────────────────────────────────────┤
│ │
│ ✅ 无需互联网 │
│ ✅ 可在物理隔离系统上工作 │
│ ✅ 无云服务依赖 │
│ ✅ 非常适合偏远地区 │
│ │
└─────────────────────────────────────┘使用场景:
- 远程工作地点
- 安全设施
- 旅行时互联网不可靠
- 节省数据流量费用
无 API 成本
运行免费开源模型:
| 模型 | 质量 | 显存需求 |
|---|---|---|
| Llama 3 8B | 良好 | 6GB |
| Llama 3 70B | 优秀 | 40GB |
| Mistral 7B | 良好 | 6GB |
| Qwen 14B | 很好 | 12GB |
| Phi-3 Mini | 一般 | 4GB |
成本对比:
| 方案 | 月成本(重度使用) |
|---|---|
| 云端 AI(GPT-4) | $100-500+ |
| 云端 AI(Claude) | $50-200+ |
| LocalClaw | $0(仅电费) |
核心特性
1. 本地优先设计
一切在本地运行:
- AI 模型推理
- 数据存储
- 配置
- 日志和记录
优势:
隐私: 数据留在您的设备上
速度: 无网络延迟
成本: 无 API 费用
控制: 完全控制一切
可靠性: 无需互联网即可工作2. 开源模型支持
支持的模型格式:
- GGUF(GGML 统一格式)
- GGML(旧格式)
- ONNX(开放神经网络交换)
从哪里获取模型:
- Hugging Face(https://huggingface.co)
- The Bloke 的量化模型
- 官方模型仓库
热门模型:
| 模型 | 大小 | 质量 | 最适合 |
|---|---|---|---|
| Llama 3 8B | 4.7GB | 良好 | 一般用途 |
| Mistral 7B | 4.1GB | 良好 | 快速响应 |
| Qwen 14B | 9GB | 很好 | 多语言 |
| Phi-3 Mini | 2.3GB | 一般 | 低端硬件 |
3. 离线能力
离线时可工作:
- ✅ 所有 AI 推理
- ✅ 对话历史
- ✅ 文件操作
- ✅ 本地自动化
需要互联网:
- ⚠️ 模型下载(一次性)
- ⚠️ 模型更新
- ⚠️ 网页搜索功能(如果启用)
4. 隐私特性
隐私设计:
┌─────────────────────────────────────┐
│ LocalClaw 隐私栈 │
├─────────────────────────────────────┤
│ │
│ 🔒 本地处理 │
│ 🔒 加密存储(可选) │
│ 🔒 无遥测 │
│ 🔒 无分析 │
│ 🔒 无数据收集 │
│ │
└─────────────────────────────────────┘安装教程
前置条件
| 要求 | 详情 |
|---|---|
| 内存 | 最少 8GB,推荐 16GB |
| 存储 | 20GB 用于模型 + 数据 |
| GPU | 可选(加速推理) |
| 操作系统 | Windows 10+、macOS 12+、Linux |
方式一:快速开始(推荐)
步骤 1:安装
git clone https://github.com/sunkencity999/localclaw
cd localclaw
npm install步骤 2:下载模型
# 下载 Llama 3 8B GGUF 模型
# (约 5GB,一次性下载)
npm run download-model llama-3-8b步骤 3:配置
# config.yaml
model:
type: local
path: ./models/llama-3-8b.gguf
context_length: 4096
gpu_layers: 35 # 设为 0 仅用 CPU步骤 4:运行
npm start方式二:Docker 部署
docker run -d --name localclaw \
-p 8080:8080 \
-v ./models:/app/models \
-v ./data:/app/data \
--gpus all \
localclaw/latest方式三:Ollama 集成
如果您已经使用 Ollama:
# LocalClaw 可使用现有 Ollama 模型
# 只需配置:
model:
type: ollama
ollama_url: http://localhost:11434
model: llama3配置说明
基本配置
# config.yaml
# 模型设置
model:
type: local
path: ./models/llama-3-8b.gguf
# 模型参数
context_length: 4096
temperature: 0.7
max_tokens: 2048
# GPU 加速
gpu_layers: 35 # GPU 层数,-1 为全部上 GPU
# 存储设置
storage:
data_path: ./data
encryption: false # 启用加密存储
# 性能设置
performance:
threads: 8 # 推理 CPU 线程数
batch_size: 512GPU 加速
NVIDIA GPU:
gpu:
enabled: true
layers: 35 # GPU 上层数
memory: 8GB # 显存分配Apple Silicon(M1/M2/M3):
gpu:
enabled: true
metal: true # 使用 Metal API仅 CPU(无 GPU):
gpu:
enabled: false
threads: 8 # 使用更多 CPU 线程使用场景
隐私关键应用
场景:处理敏感数据(法律、医疗、金融)
为什么选 LocalClaw:
敏感数据 → LocalClaw → 处理 → 响应
│
└── 永不离开您的设备
✅ HIPAA 合规
✅ GDPR 合规
✅ 律师 - 客户特权保持示例:
- 法律文件分析
- 病历总结
- 金融数据处理
- 机密业务分析
离线环境
场景:在没有可靠互联网的情况下工作
设置:
1. 在线时下载模型
2. 复制到离线设备
3. 完全离线运行 LocalClaw使用场景:
- 远程研究站
- 船舶
- 偏远地区
- 安全设施
物理隔离系统
场景:最高安全隔离
实现:
┌─────────────────────────────────────┐
│ 物理隔离系统 │
│ │
│ ┌─────────────┐ │
│ │ LocalClaw │ │
│ │ + 本地 AI │ 无网络连接 │
│ │ 模型 │ │
│ └─────────────┘ │
│ │
│ 数据仅通过 USB 进入 │
└─────────────────────────────────────┘系统要求
| 组件 | 最低要求 | 推荐配置 |
|---|---|---|
| CPU | 4 核 | 8 核+ |
| 内存 | 8GB RAM | 16-32GB RAM |
| 存储 | 20GB SSD | 100GB+ SSD |
| GPU | 可选 | 8GB+ 显存(NVIDIA/AMD) |
| 操作系统 | Windows 10、macOS 12、Linux | 最新版 |
性能预期
| 硬件 | 令牌/秒 |
|---|---|
| M3 Max | 30-50 tok/s |
| RTX 4090 | 40-60 tok/s |
| RTX 3060 | 20-30 tok/s |
| 仅 CPU(8 核) | 5-10 tok/s |
| 仅 CPU(4 核) | 2-5 tok/s |
与替代方案对比
| 特性 | LocalClaw | OpenClaw | 云端 AI |
|---|---|---|---|
| 隐私 | ⭐⭐⭐⭐⭐ 完全 | ⭐⭐⭐ 良好 | ⭐ 数据离开 |
| 离线 | ✅ 完全 | ⚠️ 有限 | ❌ 无 |
| 成本 | $0 API | $ API | $$ API |
| 速度 | 中等 | 快 | 最快 |
| 模型质量 | 良好 | 最佳 | 最佳 |
| 硬件 | 8GB+ RAM | 2GB RAM | 任意 |
优缺点分析
优点
| 优势 | 说明 |
|---|---|
| 完全隐私 | 数据永不离开您的设备 |
| 离线能力 | 无需互联网即可工作 |
| 无 API 成本 | 免费开源模型 |
| 完全控制 | 您控制一切 |
| 合规 | HIPAA、GDPR 友好 |
| 无限使用 | 无使用限制 |
局限性
| 局限性 | 说明 |
|---|---|
| 硬件要求 | 需要 8GB+ 内存 |
| 比云端慢 | 本地推理较慢 |
| 模型质量 | 开源模型能力较弱 |
| 模型管理 | 您需管理模型下载 |
| 存储 | 模型占用较大空间 |
定价
LocalClaw 软件:完全免费(MIT 许可)
成本:
- 软件:免费
- 模型:免费(开源)
- 电费:约
$5-20/月(取决于使用) - 硬件:您现有的电脑或一次性购买
相比云端 AI 节省:
云端 AI(重度使用):`$100-500`/月
LocalClaw:`$0`/月(硬件后)
回本时间:1-6 个月社区和支持
- GitHub:https://github.com/sunkencity999/localclaw
- 问题反馈:https://github.com/sunkencity999/localclaw/issues
- 讨论区:https://github.com/sunkencity999/localclaw/discussions
许可证
MIT 许可证 - 个人和商业使用免费。
总结
LocalClaw 是一款本地优先隐私保护的 AI 助手,提供:
- 完全隐私 -- 数据永不离开您的设备
- 离线能力 -- 无需互联网即可工作
- 无 API 成本 -- 免费开源模型
- 完全控制 -- 您控制一切
- 合规 -- HIPAA、GDPR 友好
适合人群:
- 注重隐私的用户
- 离线环境
- 敏感数据处理
- 成本意识强的重度用户
- 物理隔离系统
不推荐:
- 低端硬件用户(小于8GB 内存)
- 想要最快响应的用户
- 需要最佳模型质量的用户
- 不熟悉模型管理的用户