LocalClaw

创建于 2026年3月22日
更新于 2026年3月22日

本地优先的 AI 助手,针对开源模型优化。注重隐私,支持离线运行。完全在您自己的硬件上运行 AI。

本地优先隐私保护的 AI 助手

LocalClaw 专为注重隐私的用户设计,希望在本地使用开源 AI 模型而无需云依赖。一切都在您自己的硬件上运行----您的数据永远不会离开您的设备。

理念:"您的数据,您的硬件,您的控制权"----完全隐私和离线能力。


为什么选择 LocalClaw?

完全隐私

在数据隐私日益令人担忧的时代,LocalClaw 采取了不同的方法:

云端 AI 助手:
您的数据 → 互联网 → 云端服务器 → AI 处理 → 响应
              ⚠️ 数据离开您的控制

LocalClaw:
您的数据 → 本地 AI → 响应
  ✅ 数据永不离开您的设备

这意味着

  • ✅ 无数据发送给云提供商
  • ✅ 第三方无法访问您的对话
  • ✅ 无需担心数据保留政策
  • ✅ 完全符合隐私法规

离线能力

LocalClaw 无需互联网即可工作:

┌─────────────────────────────────────┐
│      LocalClaw 离线模式             │
├─────────────────────────────────────┤
│                                     │
│  ✅ 无需互联网                       │
│  ✅ 可在物理隔离系统上工作           │
│  ✅ 无云服务依赖                     │
│  ✅ 非常适合偏远地区                 │
│                                     │
└─────────────────────────────────────┘

使用场景

  • 远程工作地点
  • 安全设施
  • 旅行时互联网不可靠
  • 节省数据流量费用

无 API 成本

运行免费开源模型:

模型质量显存需求
Llama 3 8B良好6GB
Llama 3 70B优秀40GB
Mistral 7B良好6GB
Qwen 14B很好12GB
Phi-3 Mini一般4GB

成本对比

方案月成本(重度使用)
云端 AI(GPT-4)$100-500+
云端 AI(Claude)$50-200+
LocalClaw$0(仅电费)

核心特性

1. 本地优先设计

一切在本地运行

  • AI 模型推理
  • 数据存储
  • 配置
  • 日志和记录

优势

隐私:     数据留在您的设备上
速度:     无网络延迟
成本:     无 API 费用
控制:     完全控制一切
可靠性:   无需互联网即可工作

2. 开源模型支持

支持的模型格式

  • GGUF(GGML 统一格式)
  • GGML(旧格式)
  • ONNX(开放神经网络交换)

从哪里获取模型

热门模型

模型大小质量最适合
Llama 3 8B4.7GB良好一般用途
Mistral 7B4.1GB良好快速响应
Qwen 14B9GB很好多语言
Phi-3 Mini2.3GB一般低端硬件

3. 离线能力

离线时可工作

  • ✅ 所有 AI 推理
  • ✅ 对话历史
  • ✅ 文件操作
  • ✅ 本地自动化

需要互联网

  • ⚠️ 模型下载(一次性)
  • ⚠️ 模型更新
  • ⚠️ 网页搜索功能(如果启用)

4. 隐私特性

隐私设计

┌─────────────────────────────────────┐
│      LocalClaw 隐私栈               │
├─────────────────────────────────────┤
│                                     │
│  🔒 本地处理                        │
│  🔒 加密存储(可选)                │
│  🔒 无遥测                          │
│  🔒 无分析                          │
│  🔒 无数据收集                      │
│                                     │
└─────────────────────────────────────┘

安装教程

前置条件

要求详情
内存最少 8GB,推荐 16GB
存储20GB 用于模型 + 数据
GPU可选(加速推理)
操作系统Windows 10+、macOS 12+、Linux

方式一:快速开始(推荐)

步骤 1:安装

git clone https://github.com/sunkencity999/localclaw
cd localclaw
npm install

步骤 2:下载模型

# 下载 Llama 3 8B GGUF 模型
# (约 5GB,一次性下载)
npm run download-model llama-3-8b

步骤 3:配置

# config.yaml
model:
  type: local
  path: ./models/llama-3-8b.gguf
  context_length: 4096
  gpu_layers: 35  # 设为 0 仅用 CPU

步骤 4:运行

npm start

方式二:Docker 部署

docker run -d --name localclaw \
  -p 8080:8080 \
  -v ./models:/app/models \
  -v ./data:/app/data \
  --gpus all \
  localclaw/latest

方式三:Ollama 集成

如果您已经使用 Ollama:

# LocalClaw 可使用现有 Ollama 模型
# 只需配置:

model:
  type: ollama
  ollama_url: http://localhost:11434
  model: llama3

配置说明

基本配置

# config.yaml

# 模型设置
model:
  type: local
  path: ./models/llama-3-8b.gguf
  
  # 模型参数
  context_length: 4096
  temperature: 0.7
  max_tokens: 2048
  
  # GPU 加速
  gpu_layers: 35  # GPU 层数,-1 为全部上 GPU

# 存储设置
storage:
  data_path: ./data
  encryption: false  # 启用加密存储

# 性能设置
performance:
  threads: 8  # 推理 CPU 线程数
  batch_size: 512

GPU 加速

NVIDIA GPU

gpu:
  enabled: true
  layers: 35  # GPU 上层数
  memory: 8GB  # 显存分配

Apple Silicon(M1/M2/M3)

gpu:
  enabled: true
  metal: true  # 使用 Metal API

仅 CPU(无 GPU):

gpu:
  enabled: false
  threads: 8  # 使用更多 CPU 线程

使用场景

隐私关键应用

场景:处理敏感数据(法律、医疗、金融)

为什么选 LocalClaw

敏感数据 → LocalClaw → 处理 → 响应

     └── 永不离开您的设备
          ✅ HIPAA 合规
          ✅ GDPR 合规
          ✅ 律师 - 客户特权保持

示例

  • 法律文件分析
  • 病历总结
  • 金融数据处理
  • 机密业务分析

离线环境

场景:在没有可靠互联网的情况下工作

设置

1. 在线时下载模型
2. 复制到离线设备
3. 完全离线运行 LocalClaw

使用场景

  • 远程研究站
  • 船舶
  • 偏远地区
  • 安全设施

物理隔离系统

场景:最高安全隔离

实现

┌─────────────────────────────────────┐
│      物理隔离系统                   │
│                                     │
│  ┌─────────────┐                   │
│  │ LocalClaw   │                   │
│  │ + 本地 AI   │  无网络连接        │
│  │   模型      │                   │
│  └─────────────┘                   │
│                                     │
│  数据仅通过 USB 进入                │
└─────────────────────────────────────┘

系统要求

组件最低要求推荐配置
CPU4 核8 核+
内存8GB RAM16-32GB RAM
存储20GB SSD100GB+ SSD
GPU可选8GB+ 显存(NVIDIA/AMD)
操作系统Windows 10、macOS 12、Linux最新版

性能预期

硬件令牌/秒
M3 Max30-50 tok/s
RTX 409040-60 tok/s
RTX 306020-30 tok/s
仅 CPU(8 核)5-10 tok/s
仅 CPU(4 核)2-5 tok/s

与替代方案对比

特性LocalClawOpenClaw云端 AI
隐私⭐⭐⭐⭐⭐ 完全⭐⭐⭐ 良好⭐ 数据离开
离线✅ 完全⚠️ 有限❌ 无
成本$0 API$ API$$ API
速度中等最快
模型质量良好最佳最佳
硬件8GB+ RAM2GB RAM任意

优缺点分析

优点

优势说明
完全隐私数据永不离开您的设备
离线能力无需互联网即可工作
无 API 成本免费开源模型
完全控制您控制一切
合规HIPAA、GDPR 友好
无限使用无使用限制

局限性

局限性说明
硬件要求需要 8GB+ 内存
比云端慢本地推理较慢
模型质量开源模型能力较弱
模型管理您需管理模型下载
存储模型占用较大空间

定价

LocalClaw 软件:完全免费(MIT 许可)

成本

  • 软件:免费
  • 模型:免费(开源)
  • 电费:约$5-20/月(取决于使用)
  • 硬件:您现有的电脑或一次性购买

相比云端 AI 节省

云端 AI(重度使用):`$100-500`/月
LocalClaw:`$0`/月(硬件后)

回本时间:1-6 个月

社区和支持


许可证

MIT 许可证 - 个人和商业使用免费。


总结

LocalClaw 是一款本地优先隐私保护的 AI 助手,提供:

  1. 完全隐私 -- 数据永不离开您的设备
  2. 离线能力 -- 无需互联网即可工作
  3. 无 API 成本 -- 免费开源模型
  4. 完全控制 -- 您控制一切
  5. 合规 -- HIPAA、GDPR 友好

适合人群

  • 注重隐私的用户
  • 离线环境
  • 敏感数据处理
  • 成本意识强的重度用户
  • 物理隔离系统

不推荐

  • 低端硬件用户(小于8GB 内存)
  • 想要最快响应的用户
  • 需要最佳模型质量的用户
  • 不熟悉模型管理的用户