LocalClaw

创建于 N/A

Local-first AI agent optimized for open-source models. Privacy-focused with offline capability. Run AI completely on your own hardware.

本地优先隐私保护?AI 助手

LocalClaw 专为注重隐私的用户设计,希望在本地使用开?AI 模型而无需云依赖。一切都在您自己的硬件上运行----您的数据永远不会离开您的设备?

理念?您的数据,您的硬件,您的控制?----完全隐私和离线能力?


为什么选择 LocalClaw?

完全隐私

在数据隐私日益令人担忧的时代,LocalClaw 采取了不同的方法?

云端 AI 助手?
您的数据 ?互联??云端服务??AI 处理 ?响应
              ⚠️ 数据离开您的控制

LocalClaw?
您的数据 ?本地 AI ?响应
  ?数据永不离开您的设备

这意味着?

  • ?无数据发送给云提供商
  • ?第三方无法访问您的对?
  • ?无需担心数据保留政策
  • ?完全符合隐私法规

离线能力

LocalClaw 无需互联网即可工作:

┌─────────────────────────────────────?
?     LocalClaw 离线模式             ?
├─────────────────────────────────────?
?                                    ?
? ?无需互联?                      ?
? ?可在物理隔离系统上工?          ?
? ?无云服务依赖                     ?
? ?非常适合偏远地区                 ?
?                                    ?
└─────────────────────────────────────?

使用场景?

  • 远程工作地点
  • 安全设施
  • 旅行时互联网不可?
  • 节省数据流量费用

?API 成本

运行免费开源模型:

模型质量显存需?
Llama 3 8B良好6GB
Llama 3 70B优秀40GB
Mistral 7B良好6GB
Qwen 14B很好12GB
Phi-3 Mini一?4GB

成本对比?

方案月成本(重度使用?
云端 AI(GPT-4?$100-500+
云端 AI(Claude?$50-200+
LocalClaw$0(仅电费?

核心特?

$#1.
本地优先设计

一切在本地运行?

  • AI 模型推理
  • 数据存储
  • 配置
  • 日志和记?

优势?

隐私?    数据留在您的设备?
速度?    无网络延?
成本?    ?API 费用
控制?    完全控制一?
可靠性:   无需互联网即可工?

$#2.
开源模型支?

**支持的模型格?*?

  • GGUF(GGML 统一格式?
  • GGML(旧格式?
  • ONNX(开放神经网络交换)

**从哪里获取模?*?

热门模型?

模型大小质量最适合
Llama 3 8B4.7GB良好一般用?
Mistral 7B4.1GB良好快速响?
Qwen 14B9GB很好多语言
Phi-3 Mini2.3GB一?低端硬件

$#3.
离线能力

离线时可工作?

  • ?所?AI 推理
  • ?对话历史
  • ?文件操作
  • ?本地自动?

需要互联网?

  • ⚠️ 模型下载(一次性)
  • ⚠️ 模型更新
  • ⚠️ 网页搜索功能(如果启用)

$#4.
隐私特?

隐私设计?

┌─────────────────────────────────────?
?     LocalClaw 隐私?              ?
├─────────────────────────────────────?
?                                    ?
? 🔒 本地处理                        ?
? 🔒 加密存储(可选)                ?
? 🔒 无遥?                         ?
? 🔒 无分?                         ?
? 🔒 无数据收?                     ?
?                                    ?
└─────────────────────────────────────?

安装教程

前置条件

要求详情
内存最?8GB,推?16GB
存储20GB 用于模型 + 数据
GPU可选(加速推理)
操作系统Windows 10+、macOS 12+、Linux

方式一:快速开始(推荐?

*步骤 1:安?

git clone https://github.com/sunkencity999/localclaw
cd localclaw
npm install

*步骤 2:下载模?

# 下载 Llama 3 8B GGUF 模型
# (约 5GB,一次性下载)
npm run download-model llama-3-8b

*步骤 3:配?

# config.yaml
model:
  type: local
  path: ./models/llama-3-8b.gguf
  context_length: 4096
  gpu_layers: 35  # 设为 0 仅用 CPU

*步骤 4:运?

npm start

方式二:Docker 部署

docker run -d --name localclaw \
  -p 8080:8080 \
  -v ./models:/app/models \
  -v ./data:/app/data \
  --gpus all \
  localclaw/latest

方式三:Ollama 集成

如果您已经使?Ollama?

# LocalClaw 可使用现?Ollama 模型
# 只需配置?

model:
  type: ollama
  ollama_url: http://localhost:11434
  model: llama3

配置说明

基本配置

# config.yaml

# 模型设置
model:
  type: local
  path: ./models/llama-3-8b.gguf
  
  # 模型参数
  context_length: 4096
  temperature: 0.7
  max_tokens: 2048
  
  # GPU 加?
  gpu_layers: 35  # GPU 层数?1 为全部上 GPU

# 存储设置
storage:
  data_path: ./data
  encryption: false  # 启用加密存储

# 性能设置
performance:
  threads: 8  # 推理 CPU 线程?
  batch_size: 512

GPU 加?

NVIDIA GPU?

gpu:
  enabled: true
  layers: 35  # GPU 上层?
  memory: 8GB  # 显存分配

**Apple Silicon(M1/M2/M3?*?

gpu:
  enabled: true
  metal: true  # 使用 Metal API

?CPU(无 GPU):

gpu:
  enabled: false
  threads: 8  # 使用更多 CPU 线程

使用场景

隐私关键应用

场景:处理敏感数据(法律、医疗、金融)

为什么?LocalClaw?

敏感数据 ?LocalClaw ?处理 ?响应
     ?
     └── 永不离开您的设备
          ?HIPAA 合规
          ?GDPR 合规
          ?律师 - 客户特权保持

示例?

  • 法律文件分析
  • 病历总结
  • 金融数据处理
  • 机密业务分析

离线环境

场景:在没有可靠互联网的情况下工?

设置?

1. 在线时下载模?
2. 复制到离线设?
3. 完全离线运行 LocalClaw

使用场景?

  • 远程研究?
  • 船舶
  • 偏远地区
  • 安全设施

物理隔离系统

场景:最高安全隔?

实现?

┌─────────────────────────────────────?
?     物理隔离系统                   ?
?                                    ?
? ┌─────────────?                  ?
? ?LocalClaw   ?                  ?
? ?+ 本地 AI   ? 无网络连?       ?
? ?  模型      ?                  ?
? └─────────────?                  ?
?                                    ?
? 数据仅通过 USB 进入                ?
└─────────────────────────────────────?

系统要求

组件最低要?推荐配置
CPU4 ?8 ?
内存8GB RAM16-32GB RAM
存储20GB SSD100GB+ SSD
GPU可?8GB+ 显存(NVIDIA/AMD?
操作系统Windows 10、macOS 12、Linux最新版

性能预期

硬件令牌/?
M3 Max30-50 tok/s
RTX 409040-60 tok/s
RTX 306020-30 tok/s
?CPU? 核)5-10 tok/s
?CPU? 核)2-5 tok/s

与替代方案对?

特?LocalClawOpenClaw云端 AI
隐私⭐⭐⭐⭐?完全⭐⭐?良好?数据离开
离线?完全⚠️ 有限??
成本$0 API$ API$$ API
速度中等?最?
模型质量良好最?最?
硬件8GB+ RAM2GB RAM任意

优缺点分?

优点

优势说明
完全隐私数据永不离开您的设备
离线能力无需互联网即可工?
?API 成本免费开源模?
完全控制您控制一?
合规HIPAA、GDPR 友好
无限使用无使用限?

局限?

局限?说明
硬件要求需?8GB+ 内存
比云端慢本地推理较慢
模型质量开源模型能力较?
模型管理您需管理模型下载
存储模型占用较大空间

定价

LocalClaw 软件:完全免费(MIT 许可?

成本?

  • 软件:免?
  • 模型:免费(开源)
  • 电费:约$5-20/月(取决于使用)
  • 硬件:您现有的电脑或一次性购?

相比云端 AI 节省?

云端 AI(重度使用):`$100-500`/?
LocalClaw:`$0`/月(硬件后)

回本时间?-6 个月

社区和支?


许可?

*MIT 许可? - 个人和商业使用免费?


总结

LocalClaw 是一款本地优先隐私保护的 AI 助手,提供:

  1. 完全隐私 -- 数据永不离开您的设备
  2. 离线能力 -- 无需互联网即可工?
  3. ?API 成本 -- 免费开源模?
  4. 完全控制 -- 您控制一?
  5. 合规 -- HIPAA、GDPR 友好

适合人群?

  • 注重隐私的用?
  • 离线环境
  • 敏感数据处理
  • 成本意识强的重度用户
  • 物理隔离系统

**不推?*?

  • 低端硬件用户(小?GB 内存?
  • 想要最快响应的用户
  • 需要最佳模型质量的用户
  • 不熟悉模型管理的用户


FAQ

Is LocalClaw free to use?

Yes, LocalClaw is free and open source (MIT license). You only pay for AI model API costs if using external models.

What are the system requirements for LocalClaw?

LocalClaw requires 8GB RAM of RAM minimum, Runtime: Node.js. It runs on Windows, macOS, and Linux.

Can I self-host LocalClaw?

Yes. LocalClaw is open source (MIT) and can be self-hosted on your own hardware. Clone the repository from GitHub and follow the installation guide.

What platforms does LocalClaw support?

LocalClaw supports popular chat platforms. Check the official documentation for the most up-to-date list of supported platforms.

Is LocalClaw suitable for beginners?

LocalClaw requires some technical knowledge to set up. If you are a beginner, consider starting with simpler alternatives first.

快速入门指南

几分钟内启动 LocalClaw。

选项 A: NPM 安装

# Install via NPM

步骤 3: 配置

按照官方文档配置您的系统。

步骤 4: 开始使用

连接您的平台并开始交互。

首次使用时间: ~5-15分钟,具体取决于安装方式。

完整文档: https://github.com/sunkencity999/localclaw#readme 源代码: https://github.com/sunkencity999/localclaw


常见问题

LocalClaw 免费吗?

是的,LocalClaw 是免费的开源软件(MIT 许可证)。您只需支付 AI 模型 API 的费用。

LocalClaw 的系统要求是什么?

LocalClaw 需要 8GB RAM, Node.js。它可在 Windows、macOS 和 Linux 上运行。

我可以自托管 LocalClaw 吗?

可以。LocalClaw 是开源软件(MIT),可以在您自己的硬件上自托管。

LocalClaw 支持哪些平台?

LocalClaw 支持流行的聊天平台。请查看官方文档获取最新支持的平台列表。

LocalClaw 适合初学者吗?

LocalClaw 需要一定的技术知识来设置。初学者应该从更简单的替代方案开始。