LocalClaw
Local-first AI agent optimized for open-source models. Privacy-focused with offline capability. Run AI completely on your own hardware.
本地优先隐私保护?AI 助手
LocalClaw 专为注重隐私的用户设计,希望在本地使用开?AI 模型而无需云依赖。一切都在您自己的硬件上运行----您的数据永远不会离开您的设备?
理念?您的数据,您的硬件,您的控制?----完全隐私和离线能力?
为什么选择 LocalClaw?
完全隐私
在数据隐私日益令人担忧的时代,LocalClaw 采取了不同的方法?
云端 AI 助手?
您的数据 ?互联??云端服务??AI 处理 ?响应
⚠️ 数据离开您的控制
LocalClaw?
您的数据 ?本地 AI ?响应
?数据永不离开您的设备这意味着?
- ?无数据发送给云提供商
- ?第三方无法访问您的对?
- ?无需担心数据保留政策
- ?完全符合隐私法规
离线能力
LocalClaw 无需互联网即可工作:
┌─────────────────────────────────────?
? LocalClaw 离线模式 ?
├─────────────────────────────────────?
? ?
? ?无需互联? ?
? ?可在物理隔离系统上工? ?
? ?无云服务依赖 ?
? ?非常适合偏远地区 ?
? ?
└─────────────────────────────────────?使用场景?
- 远程工作地点
- 安全设施
- 旅行时互联网不可?
- 节省数据流量费用
?API 成本
运行免费开源模型:
| 模型 | 质量 | 显存需? |
|---|---|---|
| Llama 3 8B | 良好 | 6GB |
| Llama 3 70B | 优秀 | 40GB |
| Mistral 7B | 良好 | 6GB |
| Qwen 14B | 很好 | 12GB |
| Phi-3 Mini | 一? | 4GB |
成本对比?
| 方案 | 月成本(重度使用? |
|---|---|
| 云端 AI(GPT-4? | $100-500+ |
| 云端 AI(Claude? | $50-200+ |
| LocalClaw | $0(仅电费? |
核心特?
$#1.
本地优先设计
一切在本地运行?
- AI 模型推理
- 数据存储
- 配置
- 日志和记?
优势?
隐私? 数据留在您的设备?
速度? 无网络延?
成本? ?API 费用
控制? 完全控制一?
可靠性: 无需互联网即可工?$#2.
开源模型支?
**支持的模型格?*?
- GGUF(GGML 统一格式?
- GGML(旧格式?
- ONNX(开放神经网络交换)
**从哪里获取模?*?
- Hugging Face(https://huggingface.co?
- The Bloke 的量化模?
- 官方模型仓库
热门模型?
| 模型 | 大小 | 质量 | 最适合 |
|---|---|---|---|
| Llama 3 8B | 4.7GB | 良好 | 一般用? |
| Mistral 7B | 4.1GB | 良好 | 快速响? |
| Qwen 14B | 9GB | 很好 | 多语言 |
| Phi-3 Mini | 2.3GB | 一? | 低端硬件 |
$#3.
离线能力
离线时可工作?
- ?所?AI 推理
- ?对话历史
- ?文件操作
- ?本地自动?
需要互联网?
- ⚠️ 模型下载(一次性)
- ⚠️ 模型更新
- ⚠️ 网页搜索功能(如果启用)
$#4.
隐私特?
隐私设计?
┌─────────────────────────────────────?
? LocalClaw 隐私? ?
├─────────────────────────────────────?
? ?
? 🔒 本地处理 ?
? 🔒 加密存储(可选) ?
? 🔒 无遥? ?
? 🔒 无分? ?
? 🔒 无数据收? ?
? ?
└─────────────────────────────────────?安装教程
前置条件
| 要求 | 详情 |
|---|---|
| 内存 | 最?8GB,推?16GB |
| 存储 | 20GB 用于模型 + 数据 |
| GPU | 可选(加速推理) |
| 操作系统 | Windows 10+、macOS 12+、Linux |
方式一:快速开始(推荐?
*步骤 1:安?
git clone https://github.com/sunkencity999/localclaw
cd localclaw
npm install*步骤 2:下载模?
# 下载 Llama 3 8B GGUF 模型
# (约 5GB,一次性下载)
npm run download-model llama-3-8b*步骤 3:配?
# config.yaml
model:
type: local
path: ./models/llama-3-8b.gguf
context_length: 4096
gpu_layers: 35 # 设为 0 仅用 CPU*步骤 4:运?
npm start方式二:Docker 部署
docker run -d --name localclaw \
-p 8080:8080 \
-v ./models:/app/models \
-v ./data:/app/data \
--gpus all \
localclaw/latest方式三:Ollama 集成
如果您已经使?Ollama?
# LocalClaw 可使用现?Ollama 模型
# 只需配置?
model:
type: ollama
ollama_url: http://localhost:11434
model: llama3配置说明
基本配置
# config.yaml
# 模型设置
model:
type: local
path: ./models/llama-3-8b.gguf
# 模型参数
context_length: 4096
temperature: 0.7
max_tokens: 2048
# GPU 加?
gpu_layers: 35 # GPU 层数?1 为全部上 GPU
# 存储设置
storage:
data_path: ./data
encryption: false # 启用加密存储
# 性能设置
performance:
threads: 8 # 推理 CPU 线程?
batch_size: 512GPU 加?
NVIDIA GPU?
gpu:
enabled: true
layers: 35 # GPU 上层?
memory: 8GB # 显存分配**Apple Silicon(M1/M2/M3?*?
gpu:
enabled: true
metal: true # 使用 Metal API?CPU(无 GPU):
gpu:
enabled: false
threads: 8 # 使用更多 CPU 线程使用场景
隐私关键应用
场景:处理敏感数据(法律、医疗、金融)
为什么?LocalClaw?
敏感数据 ?LocalClaw ?处理 ?响应
?
└── 永不离开您的设备
?HIPAA 合规
?GDPR 合规
?律师 - 客户特权保持示例?
- 法律文件分析
- 病历总结
- 金融数据处理
- 机密业务分析
离线环境
场景:在没有可靠互联网的情况下工?
设置?
1. 在线时下载模?
2. 复制到离线设?
3. 完全离线运行 LocalClaw使用场景?
- 远程研究?
- 船舶
- 偏远地区
- 安全设施
物理隔离系统
场景:最高安全隔?
实现?
┌─────────────────────────────────────?
? 物理隔离系统 ?
? ?
? ┌─────────────? ?
? ?LocalClaw ? ?
? ?+ 本地 AI ? 无网络连? ?
? ? 模型 ? ?
? └─────────────? ?
? ?
? 数据仅通过 USB 进入 ?
└─────────────────────────────────────?系统要求
| 组件 | 最低要? | 推荐配置 |
|---|---|---|
| CPU | 4 ? | 8 ? |
| 内存 | 8GB RAM | 16-32GB RAM |
| 存储 | 20GB SSD | 100GB+ SSD |
| GPU | 可? | 8GB+ 显存(NVIDIA/AMD? |
| 操作系统 | Windows 10、macOS 12、Linux | 最新版 |
性能预期
| 硬件 | 令牌/? |
|---|---|
| M3 Max | 30-50 tok/s |
| RTX 4090 | 40-60 tok/s |
| RTX 3060 | 20-30 tok/s |
| ?CPU? 核) | 5-10 tok/s |
| ?CPU? 核) | 2-5 tok/s |
与替代方案对?
| 特? | LocalClaw | OpenClaw | 云端 AI |
|---|---|---|---|
| 隐私 | ⭐⭐⭐⭐?完全 | ⭐⭐?良好 | ?数据离开 |
| 离线 | ?完全 | ⚠️ 有限 | ?? |
| 成本 | $0 API | $ API | $$ API |
| 速度 | 中等 | ? | 最? |
| 模型质量 | 良好 | 最? | 最? |
| 硬件 | 8GB+ RAM | 2GB RAM | 任意 |
优缺点分?
优点
| 优势 | 说明 |
|---|---|
| 完全隐私 | 数据永不离开您的设备 |
| 离线能力 | 无需互联网即可工? |
| ?API 成本 | 免费开源模? |
| 完全控制 | 您控制一? |
| 合规 | HIPAA、GDPR 友好 |
| 无限使用 | 无使用限? |
局限?
| 局限? | 说明 |
|---|---|
| 硬件要求 | 需?8GB+ 内存 |
| 比云端慢 | 本地推理较慢 |
| 模型质量 | 开源模型能力较? |
| 模型管理 | 您需管理模型下载 |
| 存储 | 模型占用较大空间 |
定价
LocalClaw 软件:完全免费(MIT 许可?
成本?
- 软件:免?
- 模型:免费(开源)
- 电费:约
$5-20/月(取决于使用) - 硬件:您现有的电脑或一次性购?
相比云端 AI 节省?
云端 AI(重度使用):`$100-500`/?
LocalClaw:`$0`/月(硬件后)
回本时间?-6 个月社区和支?
- GitHub:https://github.com/sunkencity999/localclaw
- 问题反馈:https://github.com/sunkencity999/localclaw/issues
- **讨论?*:https://github.com/sunkencity999/localclaw/discussions
许可?
*MIT 许可? - 个人和商业使用免费?
总结
LocalClaw 是一款本地优先隐私保护的 AI 助手,提供:
- 完全隐私 -- 数据永不离开您的设备
- 离线能力 -- 无需互联网即可工?
- ?API 成本 -- 免费开源模?
- 完全控制 -- 您控制一?
- 合规 -- HIPAA、GDPR 友好
适合人群?
- 注重隐私的用?
- 离线环境
- 敏感数据处理
- 成本意识强的重度用户
- 物理隔离系统
**不推?*?
- 低端硬件用户(小?GB 内存?
- 想要最快响应的用户
- 需要最佳模型质量的用户
- 不熟悉模型管理的用户
FAQ
Is LocalClaw free to use?
Yes, LocalClaw is free and open source (MIT license). You only pay for AI model API costs if using external models.
What are the system requirements for LocalClaw?
LocalClaw requires 8GB RAM of RAM minimum, Runtime: Node.js. It runs on Windows, macOS, and Linux.
Can I self-host LocalClaw?
Yes. LocalClaw is open source (MIT) and can be self-hosted on your own hardware. Clone the repository from GitHub and follow the installation guide.
What platforms does LocalClaw support?
LocalClaw supports popular chat platforms. Check the official documentation for the most up-to-date list of supported platforms.
Is LocalClaw suitable for beginners?
LocalClaw requires some technical knowledge to set up. If you are a beginner, consider starting with simpler alternatives first.
快速入门指南
几分钟内启动 LocalClaw。
选项 A: NPM 安装
# Install via NPM步骤 3: 配置
按照官方文档配置您的系统。
步骤 4: 开始使用
连接您的平台并开始交互。
首次使用时间: ~5-15分钟,具体取决于安装方式。
完整文档: https://github.com/sunkencity999/localclaw#readme 源代码: https://github.com/sunkencity999/localclaw
常见问题
LocalClaw 免费吗?
是的,LocalClaw 是免费的开源软件(MIT 许可证)。您只需支付 AI 模型 API 的费用。
LocalClaw 的系统要求是什么?
LocalClaw 需要 8GB RAM, Node.js。它可在 Windows、macOS 和 Linux 上运行。
我可以自托管 LocalClaw 吗?
可以。LocalClaw 是开源软件(MIT),可以在您自己的硬件上自托管。
LocalClaw 支持哪些平台?
LocalClaw 支持流行的聊天平台。请查看官方文档获取最新支持的平台列表。
LocalClaw 适合初学者吗?
LocalClaw 需要一定的技术知识来设置。初学者应该从更简单的替代方案开始。