“龙虾”还没养熟,信用卡先被刷爆了
“龙虾”还没养熟,信用卡先被刷爆了。
近日,一名开发者在社交平台分享称,他的朋友在使用AI代理工具OpenClaw编写程序时将浏览器通过VNC远程桌面开放至公网,几天后信用卡被连续盗刷,额度几乎被刷空。相关帖子获得超过十万次浏览,也引发技术社区对AI代理安全性的讨论。
就在几天前,AI代理工具OpenClaw在开发者社区迅速走红。由于其项目标识是一只龙虾,用户将部署和使用该系统形象地称为“养龙虾”。与传统聊天式AI助手不同,这类工具在获得授权后可以读取文件、调用浏览器、运行程序并自动执行任务,被不少用户视为能够“替人干活”的数字助手。
随着热度升温,监管部门也开始发出风险提示。日前,工业和信息化部发布公告称,在默认或不当配置情况下,OpenClaw可能存在网络攻击和信息泄露风险,并建议相关单位和个人在部署使用时加强安全防护。在金融行业,多位银行人士向记者表示,目前银行内部网络对OpenClaw等AI代理工具的接入仍然严格受限;不过有券商团队已在试水。
投资者尝试理财“养龙虾”
随着“养龙虾”热度上升,不少开发者尝试将其应用于投资理财和日常事务自动化。投资者李娜(化名)分享称,她用OpenClaw每天自动执行信息收集、股票监控和投资策略回测等任务。
比如,每日凌晨抓取最新投资方法和市场信息;早上生成包含天气、日程和投资建议的早报;收盘后自动生成股票Watchlist简报;每周进行系统备份及安全自查;通过Telegram或WhatsApp随时下达任务并接收结果。
另一位用户张伟(化名)则将OpenClaw打造成“数字巴菲特”或24小时在线的助手,实现信息收集和决策辅助自动化。他发现,初期系统完成度约50%,存在Bug和信息格式不完美等问题,但整体体验令人兴奋:“就像有一个永不休息的学生在帮你处理所有重复工作。”
不过,随着越来越多用户涌入和关注,OpenClaw的风险问题也逐渐浮现。一名开发者在社交媒体上分享称,他的朋友在使用AI代理工具OpenClaw编写程序时,将浏览器通过VNC远程桌面开放至公网,而Chrome中又保存了信用卡支付信息。几天后,他发现信用卡已被连续盗刷,额度几乎被刷空。相关帖子获得超过十万次浏览,也引发技术社区对AI代理安全性的讨论。
上述开发者解释称,盗刷问题很可能出在OpenClaw的部署方式上。在一些默认或不当配置情况下,相关服务会监听0.0.0.0地址,意味着允许来自公网的访问。如果用户没有额外限制访问权限,任何人都可能连接到该设备。
“很多人可能遇到类似问题,但没有意识到原因。”该开发者在帖子中表示,自己在部署服务时通常只开放本地地址,再通过加密隧道连接,以降低风险。
银行观望,券商试水
与个人用户的热情尝鲜相比,金融机构整体对OpenClaw等AI代理工具仍保持谨慎态度。多位银行业内人士向记者表示,目前多数银行的内部网络并未开放此类工具的接入权限。
华东地区一家上市银行的科技部门人士透露,出于信息安全与系统稳定性的考虑,行内暂未允许在内网环境中部署OpenClaw等AI代理工具。另一位股份制银行相关部门人士也表示,银行去年主要围绕大模型能力进行探索,而近期兴起的“养龙虾”热潮尚未进入银行的核心业务场景,并不会那么快部署。
尤其是在工业和信息化部发布安全提示之后,多家银行的态度进一步趋于保守。一位上市银行信息安全部门人士对记者表示,监管层已提示相关潜在风险,在安全评估和管理机制尚未明确之前,大规模在银行内网部署类似工具的可能性较低。
多位受访人士指出,银行系统承载着大量客户信息和交易数据,对安全性要求极高。一旦AI代理获得过高权限或配置不当,可能带来数据泄露或系统风险。“银行的数据体量和敏感程度远高于普通用户环境,一旦出现漏洞,影响面也会更大。”一位股份制银行技术人士说。
工商银行3月10日发布OpenClaw相关风险提示称,警惕代装陷阱、谨慎授权风险、防范投资诈骗。一方面,不随意开放通讯录、相册、文件夹等敏感权限,更不要在不明软件中输入身份证号、银行卡号、支付密码等信息;另一方面,对“AI代炒股”“稳赚不赔”“高收益低风险”等话术保持警惕,凡涉及转账、充值、投资,务必多核实、不轻信。
不过,与银行体系整体观望的态度不同,部分券商投研团队已经开始尝试在研究场景中测试AI代理工具。业内人士透露,一些量化及金融工程团队正在探索利用OpenClaw进行数据整理、报告生成以及策略研究等自动化任务,以提升投研效率。
例如,东吴证券金融工程团队负责人于明明带领团队在内部环境中对OpenClaw进行了初步测试,尝试将其应用于数据库查询自动化、研究资料整理以及量化策略回测等场景。相关实践显示,在权限和安全配置得当的前提下,AI代理在部分重复性投研工作中能够发挥辅助作用,但整体仍处于探索和试验阶段。
AI代理给金融业带来的新挑战
在银行科技人员看来,OpenClaw可以被理解为一种“进化版的大模型应用”。
但这种进化也意味着新的问题。例如,银行和支付机构近年来建立了大量反欺诈模型,通过分析用户行为特征识别异常交易,包括操作速度、设备环境以及交易频率等。
然而,高度自动化的AI助手在执行任务时,往往能够快速调用程序并完成复杂操作,这些行为在系统看来可能与异常操作类似。“类似情况此前已经出现过。某些AI手机发布后,一度遭到部分银行和支付机构限制,原因正是其自动化能力可能影响现有风控体系。”上述份制银行技术人士说。
如果未来AI代理能够代替用户完成转账或投资操作,还可能引发新的法律问题。“假设AI帮用户买了理财产品,结果亏损了,这算谁的责任?”一位金融科技人士提出这样的疑问。
在工业和信息化部信息通信经济专家委员会委员刘兴亮看来,OpenClaw等AI代理工具本质上是拥有较高系统权限的“数字员工”,其风险主要集中在三方面:隐私风险、安全风险以及成本风险。
首先是隐私风险。刘兴亮指出,为了帮助用户完成任务,AI代理往往需要读取用户的邮件、日历、网盘甚至本地文件等信息。“如果权限管理不到位,或者访问范围设置过宽,就可能造成隐私数据外泄。”
其次是安全风险。由于AI代理可以执行脚本、调用系统程序甚至操作文件,一旦安装了恶意插件或配置不当,攻击者可能借此获取系统控制权限。“极端情况下,不仅数据可能被窃取,电脑本身也可能被远程控制,甚至文件被篡改或删除。”他说。
第三类风险则是成本风险。刘兴亮将OpenClaw比喻为“数字员工”。“你相当于养了一个员工,需要给它配电脑,还要给它算力。”目前这类系统通常依赖大模型进行推理,每执行一步任务都需要调用模型接口,如果配置不当,算力和调用费用都可能迅速增加。
