
深瞳工作室出品
科技日报记者 崔爽 策划 刘恕 李坤
你“养虾”了吗?
近期,一款开源智能体项目OpenClaw迅速走红。因图标为红色龙虾,它在国内被戏称为“龙虾”。与传统对话式AI应用不同,它的定位是“真正干活、持续运行的个人助手”。
从技术社区到企业内部,从开发人员到普通用户,越来越多人开始“养虾”:它可以写代码、整理资料、定时汇报,甚至在你不在线时自动完成任务,俨然一位24小时待命的“数字助手”。
社交平台上,有人分享“让智能体替自己上班”的经验,也有人展示如何通过简单配置,让系统自动生成报告、发送邮件。
“龙虾”热潮的背后,以OpenClaw 为代表的智能体,正推动人工智能从“对话工具”向“执行主体”转变。“我们正处于智能体技术从‘演示可行’到‘大规模部署’的关键转折期。”中国人民大学高瓴人工智能学院准聘副教授林衍凯给出判断。
但与此同时,问题也浮出水面。国家知识产权局4月1日发布风险提示称,使用智能体撰写专利申请文件可能诱发多重风险。伴随一系列安全预警,人们不再只关心它“会不会出错”,而开始追问它“有没有失控”“是否值得信任”。
技术的兴奋与安全的焦虑,在同一时间被放大。OpenClaw到底是什么?它为什么在此刻爆发?我们是否已经准备好应对随之而来的风险?

AI从“回答者”变身“行动者”
“上周末去崇礼滑雪,在缆车上我发现还有一些工作没完成,随即在手机上通过飞书给‘龙虾’派任务。经过几轮对话,它用我本人的口吻风格,自动生成文件发给同事,给我的反馈基本达到要求。”字节跳动飞书研发工程师杨溢哲聊起“养虾”经历。
OpenClaw爆火的密码,就藏在这个简单的场景里——它能“自动”处理工作。
过去几年,大模型的发展更多停留在这样一个阶段:通过海量数据训练,使AI具备接近人类的通识理解能力,从而回答问题、生成内容。
而OpenClaw让AI跨过这条边界。它不只是调用模型生成答案,而是将这些能力嵌入一个可以持续运行的系统中,使AI能够理解任务、拆解步骤并自主执行。在清华大学计算机系教授、面壁智能联合创始人兼首席科学家刘知远看来,它更接近一种新的基础设施——一个围绕智能体运行的“操作系统”。
这也意味着,AI第一次以“行动者”身份进入现实环境。从这个层面上说,OpenClaw具有非常重要的技术示范意义。
从结构上看,它由三层构成:底层是模型能力的抽象封装,中间是负责规划与决策的Agent(智能体),上层是具体执行操作的Skill(功能插件)。
不过,值得注意的是,受访专家普遍认为,OpenClaw的爆发并非源自底层算法的突破。林衍凯表示,无论是语言理解还是代码生成,其核心仍然依赖于现有大模型体系。真正的变化发生在工程层面,即如何把原本分散的能力整合为一个可用、可扩展、可持续运行的系统。
这种变化不易察觉,却极具“杀伤力”,因为它直接降低了使用门槛。过去需要团队开发的复杂系统,如今个人开发者也可以快速搭建。
OpenClaw之所以火爆,正是技术成熟和需求叠加的结果。
一方面,大模型在工具调用与任务执行方面已经跨过“可用”门槛,不再停留在演示阶段;另一方面,围绕AI的工具链逐步成熟,使复杂能力可以像搭积木一样被组合调用。
与此同时,用户认知也在发生变化。人们不再满足于尝鲜对话,而是开始把AI视为工作“搭子”。
更重要的是智能体有了“记忆能力”,给用户带来类似养成的体验——通过对短期信息与长期知识的管理,智能体能够在多轮任务中保持连续性,并逐步形成“经验”,互动时间越长,它的表现越“贴心”。
这些因素叠加在一起,使OpenClaw呈现出一种不同于传统AI产品的形态。这种因技术进步解放双手的体验,已经渗入很多人工作生活的日常。

高权限带来高风险
虽然是“外来物种”,但OpenClaw进入中国后迅速走红,引发关注。
国内厂商争相把部署服务做成“一键安装”,部分互联网公司上线“傻瓜式”配置方案。他们还将OpenClaw接入了即时通信软件。
这背后,不可忽视的是,在国内“养虾”的成本远低于海外。
研究报告指出,国产模型的API(应用程序编程接口)调用价格,大约是海外同类产品的1/6。这种优势源于国内算力背后更便宜的电力、更灵活的硬件配置以及模型厂商间的激烈竞争。
低门槛上手加爆发式传播,让“龙虾”一跃成为AI顶流。
然而,当AI开始“动手”,风险也成倍放大。
奇安信发布的《OpenClaw生态威胁分析报告》显示,截至3月13日,全球OpenClaw部署实例就已超过23万个,其中超过2万个可能存在安全漏洞。被操控的智能体可在数分钟内完成数据窃取、权限提升甚至业务篡改。
“OpenClaw带来的不只是更多安全漏洞,它还让风险边界整体外扩。”长亭科技安全研究员姜晨炜认为,“过去,AI的风险更多停留在对话层,如说错话或生成不当内容;而现在,智能体可以直接操作文件、调用接口、访问网络,潜在风险不可估量。”
换句话说,过去企业防范的是“系统被攻击”,而现在必须面对的是“系统在执行攻击”。
“‘龙虾’这样的智能体是一个不知疲倦、会自动化执行的超级用户。”腾讯iOA产品运营负责人刘登峰说,如果安装在终端的“龙虾”被攻破,就相当于攻击者完全获得了该终端的电脑权限,进而可能开展横向渗透,扩散到企业的全部网络终端或服务器,带来极大的安全风险。
另一重核心风险是Skill供应链的投毒与滥用。刘登峰解释,攻击者可以把恶意文件伪装成正常Skill,比如文件格式转换、天气查询。对于普通用户,甚至企业级员工而言,很难自行分辨。
此前,全球范围内已出现多起相关安全事件,如Meta公司安全专家在让OpenClaw处理真实邮件时,因上下文压缩导致“执行前确认”的关键约束丢失,最终出现邮件被智能体误删的失控行为。
在国内,工业和信息化部网络安全威胁和漏洞信息共享平台也发布风险警示,明确OpenClaw存在信任边界模糊、越权操作等系统性风险,建议关闭不必要的公网访问、完善身份认证与安全审计机制、严格管理插件来源、持续关注补丁和安全更新。
国家知识产权局发布最新风险提示,OpenClaw等智能体存在权限过高、安全漏洞、插件投毒等隐患,使用其撰写申请文件,易造成技术交底书等核心信息外泄。一旦泄露,专利申请技术方案可能因丧失新颖性无法授权,甚至被他人抢先申请专利。为此,提醒申请人需提高风险防范意识。

“技防+人防”筑起安全屏障
“龙虾”爆红,风险焦虑如影随形。在这一背景下,围绕智能体的安全防护,必须从传统模式转向系统性治理。
在中国工程院院士吴世忠看来,自主性智能体带来的最大风险,正是其过高的“系统代理权”。作为已尝鲜的“养虾人”,他提醒用户应时刻绷紧安全这根弦,建议用户将“龙虾”养在一个独立的智能终端上,做好物理隔绝,并坚持最小授权原则,特别是对涉及删改的操作,必须设置二次确认。
腾讯电脑管家高级产品经理董京特意提到,不要将银行密码、云服务密钥等敏感信息暴露给AI,不要给它权限去访问一些不该访问的内网服务;在让AI执行高风险操作前,务必做好重要数据的备份。
平台同样需要筑牢防线。董京打了个比方:“给AI造一个隐形牢房,把它关进去”。
这一“牢房”,就是安全沙箱机制。董京介绍,腾讯电脑管家团队近期上线了“龙虾管家”AI安全沙箱功能。它主要管理三类问题:AI权限过大时,通过沙箱策略捆住AI的“手脚”;实时监测AI调用的脚本是否包含恶意指令等风险,防止出现清理垃圾却误删所有文件等不测;针对OpenClaw自身迭代中出现的安全漏洞,及时进行修复。
“‘龙虾管家’也会提供AI运行的实时日志,AI访问什么、调用什么,所有操作用户都可以一目了然。”董京说。
在更底层的安全设计上,姜晨炜指出,智能体需部署在受控环境中,并结合网络隔离策略,限制其与内网的直接通信。在执行层面也要建立明确的安全边界,对于文件操作、外部下载、权限修改等高风险行为,应设定不可突破的限制,并引入人工审批机制,在效率与安全之间求得必要平衡。针对功能插件体系,则需要建立审核机制,如代码扫描、来源校验等,防止恶意插件危害系统。
技防之上,真正的安全离不开制度约束。
“在政策层面,加快建立健全开源智能体安全治理体系。”赛迪研究院信息化与软件产业研究所副主任黄文鸿建议,尽快研究出台开源智能体安全部署指南和行业标准,重点针对智能体的系统权限授予、执行行为审计、敏感操作确认等关键环节明确安全基线要求,对政务、金融、医疗等涉密涉敏领域,要实行更严格的部署准入和使用管控。
与此同时,应尽快建立开源智能体技能市场的安全审核与准入机制,并加快研究开源智能体自主行为的责任归属规则,厘清开源框架开发者、部署运营者、大模型提供方、技能发布者等需要承担的法律责任,填补当前“AI出错无人担责”的制度空白。
“当前OpenClaw暴露出的种种问题,与其说是缺陷,不如说是一场提前到来的‘压力测试’。”黄文鸿认为,它让行业在智能体大规模落地之前,就看到了未来可能面对的风险形态。
这场“养虾热”的意义或许并不在于事件本身,而在于它所指示的方向。业内专家预测,未来的智能终端中,很可能会出现类似操作系统级别的智能体平台,而OpenClaw所扮演的角色,正是这一形态的早期原型。
人工智能已经开始“动手”,安全治理是摆在人类面前的必答题——只有在释放生产力的同时树立清晰边界,才能让人工智能真正从“可用”走向“可信”。
延伸阅读丨“龙虾”挥钳,算力吃紧
科技日报记者 崔爽
“龙虾”挥舞的双钳下,是一个深不见底的算力黑洞。
有机构算了一笔账:相比传统聊天机器人,智能体的Token(词元)消耗动辄放大数十倍,一个稍微复杂一点的任务,背后吃掉的算力,甚至可能是普通对话的百倍、千倍。有科技博主实测,如果真把“龙虾”当成生产工具放开用,一周下来,费用接近万元。
数据是最直观的注脚。“养虾”火起来之后,模型调用量极速攀升。全球API聚合平台OpenRouter的数据显示:3月16日至22日,全球大模型调用量已经达到20.4万亿Token,一周涨了两成多。其中,中国大模型的周调用量涨幅更是超过五成,并且已经连续第三周超过美国。当周全球调用量排名前四的模型,也全部是“中国造”。
国家数据局公布的数据显示,今年3月,中国日均Token调用量已突破140万亿,两年增长了上千倍。
在不少业内人士看来,这样的增长既令人兴奋,也暗含隐忧。
3月27日中关村论坛年会的一场AI主题论坛上,算力缺口几乎成了绕不开的话题。“OpenClaw带来算力需求的暴增。”无问芯穹CEO夏立雪观察到,“上次见到这样的增速,还是当年3G手机刚普及,手机流量不够用的时候。以后我们的手机里可能会有两张卡,一张是SIM卡,一张就是‘Token卡’。”
问题在于,需求的曲线已经陡峭起来,供给却还没完全跟上。“让更聪明的模型执行更复杂的任务,资源消耗极大。如果算力不够,一个问题丢进去半天没有响应,一切体验都是空谈。”智谱华章CEO张鹏说得直白。在他看来,推理需求正以百倍级别爆发,算力很可能成为制约行业发展的核心瓶颈。
夏立雪认为,当前阶段,与其单纯扩张算力规模,不如把已有资源用到极致。围绕这个目标,他提出,应加快构建更高效、标准化的“Token工厂”,提供持续稳定、规模化的Token服务,使顶尖模型能力高效赋能海量下游场景,尽可能提升每一个Token的转化效率,让算力“花得值”。
再往远一点看,未来的基础设施本身也会走向智能化,可以自我调度、自主优化,甚至内置Agent来充当“管理者”,让算法与算力系统形成更紧密的深度协同。
面对“算力焦虑”,也有人重申架构创新的价值。
小米MiMo大模型负责人罗福莉回忆,两年前,在算力受限的情况下,中国团队依然通过模型架构创新,“逼出”更高效率,比如DeepSeek的探索,“这给了我们勇气和信心”。
如今,虽然硬件条件已经改善,国产芯片不再受限,但这种对更低推理成本、更高算力效率的探索,依然会在智能体时代成为未来竞争的关键。
(图片由AI生成)

网友评论