一个奥地利开发者的"偷懒"实验,如何在3个月内斩获25万+ Star?

🚀 现象级爆发:数据不会说谎
2026年初,开源圈被一个项目彻底点燃。
OpenClaw(原名Clawdbot,曾短暂更名为Moltbot)于2025年11月由奥地利开发者Peter Steinberger创建,最初只是一个"花了一小时"搭建的WhatsApp-to-Claude原型。但谁也没想到,这个周末项目会在接下来的几个月里创造GitHub历史上的增长奇迹:
| | |
|---|
| | |
| | |
| | |
| | |
| | |
| | 超越React,成为GitHub上星标最多的非聚合类软件项目 |
这是什么概念? React花了超过十年才达到24.3万星,而OpenClaw只用了不到四个月。Linux内核目前约21.7万星,OpenClaw在几周内就完成了超越。

🦞 它到底是什么?
OpenClaw是一个开源的个人AI助手框架,核心理念很简单:
AI不应该只是浏览器里的聊天窗口,而应该成为真正的"数字同事"——24/7运行在你的服务器上,拥有自己的记忆,主动帮你完成任务。
与ChatGPT、Claude等云端AI不同,OpenClaw的关键差异在于本地化运行:
系统级权限:能直接操作你的电脑——读写文件、执行终端命令、控制浏览器、管理邮件日历
聊天平台集成:通过WhatsApp、Telegram、Discord、Slack、iMessage等常用聊天工具与你交互
持久记忆:所有交互历史存储在本地文件系统,跨会话保持上下文,记住你的工作习惯和偏好
模块化技能:社区已开发超过1700个Skills插件,覆盖自动化部署、数据分析等场景
创始人Peter Steinberger(此前创立的PSPDFKit reportedly以1亿欧元退出)这样描述诞生时刻:"其实我只是想去厨房冲杯咖啡,顺便指望着电脑能把活儿自个儿干完。"
📈 为什么能火?三大核心原因
1. 解决"最后一公里"问题
2025年大模型能力突飞猛进,但大多数AI应用停留在"对话层面"。OpenClaw的突破在于从"建议"到"执行":
2. 极致的本地化与隐私
数据完全由用户掌控,运行在自己的设备上,不用上传云端。这对企业用户和隐私敏感者极具吸引力。
3. 病毒式传播与社区生态
项目经历了两次更名风波(Clawdbot→Moltbot→OpenClaw),反而引发更多关注。社区贡献了数千个技能插件,甚至出现了让两个AI机器人自主对话的"Maltbook"社交网络。
⚠️ 争议与风险:爆火背后的阴影
与热度同步而来的,是严重的安全质疑。
Cisco、IBM、Palo Alto Networks等安全机构在72小时内将其称为"安全噩梦":
CVE-2026-25253:CVSS评分8.8的一键远程代码执行漏洞
恶意技能泛滥:官方注册表中发现数百个窃取凭证和API密钥的恶意技能
暴露实例泄露:1月31日发现21,639个公开暴露的实例,部分泄露明文密钥、OAuth令牌
1.5M个API密钥疑似泄露
项目维护者在README中明确警告:
"OpenClaw是一个业余项目,仍处于测试阶段。如果启用工具,这个机器人可以读取文件并执行操作。错误的提示可能诱使它执行不安全的操作。如果你对基本安全和访问控制感到不适,请不要运行OpenClaw。"
🔮 创始人加入OpenAI,项目移交社区
2026年2月14日,Peter Steinberger宣布加入OpenAI,从事下一代个人智能体研发。OpenClaw项目则过渡给独立的开放源代码基金会管理。
他在采访中预言:"未来80%的App将消失",因为AI智能体将取代传统应用。
💡 给普通用户的建议
如果你也想尝试:
✅ 适合:有技术背景、能理解安全风险、可在隔离环境(如Docker沙箱)中运行的开发者
❌ 不适合:非技术用户直接用于生产环境,或连接重要账户(邮箱、银行、工作系统)
安全实践:
在沙箱环境中运行,限制文件系统访问权限
不暴露到公网,使用本地或VPN访问
定期检查并审计安装的Skills插件
启用工具执行前的确认机制
结语
OpenClaw的爆火证明了一件事:市场对真正能动手的AI助手有着巨大需求。但它也警示我们——当AI获得系统级权限时,安全基础设施必须同步跟上。
正如一位开发者所言:"OpenClaw证明了需求的存在,但信任的基建——安全审计、权限模型、验证过的插件生态——还没有跟上。"
项目地址:github.com/openclaw/openclaw
官方文档:openclaw.ai
本文数据截至2026年3月,基于公开报道整理。投资/技术决策请结合最新信息谨慎判断。