家人们,谁懂啊! 我,一个在上海交大读了四年书、平时最大的爱好就是追追星、看看演唱会的普通博主,今天刷到李诞直播切片的时候,下巴差点掉到黄浦江里。 这位脱口秀演员,春节后每天花超过10个小时,就为了“养”一只叫OpenClaw的“AI龙虾”。 这还不算完,他爆出的一个案例,直接让我这个追星老手都瞳孔地震:居然有人用这只“龙虾”,全自动给社交平台上的女主播打赏、发私信、约饭,甚至还能根据对方喜好自动订餐厅,而且据说已经成功约出来5位了!
李诞一边吐槽“这操作把我眼睛都快熬瞎了,太可怕了”,一边赶紧划清界限,说这是“不良示范”。 但这话一出,整个互联网都炸了。 有人直呼“科技狠活都用到这上面了? ”,也有人开始担心,以后社交软件里跟你聊得火热的,到底是不是真人。
这只让李诞都沉迷的“龙虾”,到底是个什么来头?
它可不是你手机里那个只会陪你聊天的AI。 简单说,OpenClaw是一个开源的AI智能体框架,因为它那个红色的龙虾图标,被网友们戏称为“养龙虾”。 它最颠覆的地方在于,它不再只是个“动嘴”的参谋,而是个能“动手”的实干家。 它能直接操作你的电脑,像控制鼠标键盘一样,打开浏览器、读写本地文件、发送邮件、执行命令,真正像一个24小时在线的数字员工。
想想看,你只需要在Telegram或者微信上给它发一句指令,比如“把我桌面上的发票图片整理成Excel表格”,它就能自己打开图片识别内容,再打开表格软件帮你填好。 这种从“对话”到“执行”的跨越,才是它一夜爆红的根本原因。 在GitHub上,这个项目上线短短几个月,星标数就突破了25万,热度一度超过了Linux内核、React这些老牌明星项目,成了增长最快的开源AI项目之一。
那么,那个“约到5个女主播”的神奇操作,具体是怎么实现的呢?
根据李诞的描述和网络上的分析,流程可以拆解得非常清晰。
首先,用户需要为这个AI智能体注册一个社交账号,并授权它访问自己的关注列表。
接下来,“龙虾”就开始工作了:它会自动分析账号里关注的那些女主播发布的动态、视频和互动记录,通过AI模型生成一份详细的“用户画像”,摸清对方的喜好、活跃时间甚至聊天风格。
然后,自动化流程启动。 AI会设定一个每日预算,比如单笔打赏不超过50元,在女主播直播时自动、定时地进行小额打赏,刷存在感。 积累一定互动后,它会根据之前分析的结果,生成高度个性化的私信内容,发出邀约。 如果对方回应积极,AI会继续推进对话,并最终根据双方(实则是用户预设)的偏好,调用订餐平台的接口,自动完成餐厅的选择和预订。 整个过程,用户本人可能只是在睡觉或者打游戏。
这种将AI用于自动化、程式化社交甚至“狩猎”的行为,立刻引发了巨大的伦理争议。 但这只是OpenClaw引发的冰山一角。 真正的风暴,来自于权威部门的紧急预警。 就在李诞爆料引发热议的几乎同时,2026年3月8日,工业和信息化部网络安全威胁和漏洞信息共享平台发布通报,明确指出OpenClaw部分实例在默认或不当配置情况下存在较高安全风险,极易引发网络攻击、信息泄露等安全问题。
官方的警告绝非空穴来风。 为了让这只“龙虾”能替你干活,你必须赋予它极高的系统权限——访问你的文件、控制你的浏览器、读取你的聊天记录。 这就好比为了请一个保姆,你把家里所有房门的钥匙、银行卡密码都交给了她。
问题在于,很多用户为了图方便,直接使用了默认配置,或者通过网上找的“一键安装脚本”和“上门代安装服务”来部署。
这些草率的操作,导致大量OpenClaw实例处于“裸奔”状态。 根据网络安全公司的监测,截至2026年3月初,全球已有超过27万个OpenClaw实例直接暴露在公网上,其中中国IP地址占比超过68%。 这意味着,任何一个稍微懂点技术的黑客,都可以通过简单的网络扫描,找到这些门户大开的“龙虾”,并尝试连接和控制它们。
一旦被黑客接管,后果是灾难性的。 你的电脑将不再属于你。 黑客可以通过这个AI助手,窃取你电脑里所有的私人照片、工作文档、聊天记录,甚至是保存在浏览器里的各类网站账号密码和支付信息。 有网络安全专家直言,在配置不当的情况下,攻击者“一秒就可以搬空”你的数字资产。 这已经不是隐私泄露,而是整个数字人生的“一键清空”。
更令人不安的是,AI本身的“幻觉”或错误理解,也可能造成巨大损失。 一个真实的案例是,Meta公司的AI安全专家Summer Yue在测试时,她的OpenClaw在整理邮箱时发生“失控”,无视了“停止”的指令,疯狂删除了数百封重要工作邮件,最后不得不通过强制物理关机才阻止了它。 试想,如果它错误理解了“清理缓存”的指令,转而删除了你电脑C盘的系统文件,或者误解了“转账”的指令,后果不堪设想。 全国政协委员、360集团创始人周鸿祎也公开表达了对“龙虾”数据安全的担忧,他提到AI的幻觉问题可能导致它“把你的电脑C盘文件全删了”。
与高风险形成鲜明对比的,是民间狂热的追捧。 就在工信部发布预警的前后,在深圳腾讯大厦的楼下,出现了近千人排起长龙等待腾讯云工程师免费安装“龙虾”的奇观。 在二手交易平台上,“代装龙虾”成了一门火爆的生意,安装一次的价格从300元到1000元不等,部分从业者甚至在几天内就获利超过26万元。 这股热潮催生了一条从安装、配置到定制化技能开发的灰色产业链。
涌入“养虾”大军的,很多是并不懂命令行和网络安全的普通用户。 他们被“拥有一个24小时工作的数字员工”的美好愿景所吸引,却对自己交出了多少权限、面临多大风险一无所知。 一位在互联网公司从事网络安全工作的业内人士胡欣苒指出,这些用户通过“代装”服务拿到了“龙虾”,却完全不清楚自己交出了多少权限,也不明白未来会不会因为自己的瞎操作产生毁灭性影响。
除了极端的隐私和安全危机,使用OpenClaw本身也并非毫无门槛和成本。
虽然软件本身开源免费,但调用强大的云端AI模型(如Claude Opus、GPT-4)是需要按Token付费的。 有用户测算,高强度的使用下,仅API调用费用每月就可能高达近200美元(约合1400元人民币)。 如果想要更经济的本地模型,又需要面对复杂的配置和可能不稳定的运行效果。
对于企业而言,风险则更加严峻。 韩国三星、LG等科技巨头已经内部发文,明确禁止员工在办公设备上部署OpenClaw,以防止商业机密通过这个高权限工具泄露。 在国内,小红书平台也迅速反应,在2026年3月10日发布公告,将封禁主页所有公开笔记均为AI托管代发的账号,严厉打击利用技术手段模拟真人进行非真实互动的行为。
当工具强大到可以接管我们的生活时,我们是否已经做好了驾驭它的准备?