HackerNews

HackerNews
黑客可利用 Claude Skills 发起 MedusaLocker 勒索软件攻击

黑客可利用 Claude Skills 发起 MedusaLocker 勒索软件攻击

给文章评分:

HackerNews 编译,转载请注明出处:

Anthropic 公司旗下 AI 产品 Claude 的新增功能 “Claude Skills” 被发现存在勒索软件攻击风险 —— 该功能可被黑客操控,在用户未明确察觉的情况下部署 MedusaLocker 等恶意软件。


Claude Skills 的设计初衷是通过自定义代码模块扩展 AI 功能,但这类看似合法的技能却成为威胁行为者的欺骗性危险工具。

漏洞核心:单一授权信任模型缺陷

问题根源在于 Claude Skills 的 “单一授权信任模型”:用户一旦授予某个技能初始运行权限,该技能即可在后台执行一系列操作,包括下载并运行额外的恶意代码。


卡托网络(Cato Networks)的安全分析师 / 研究员指出,这一设计存在重大安全漏洞。考虑到 Anthropic 庞大的用户基数,通过公共代码仓库或社交媒体传播的看似无害的技能,可能成为发动破坏性勒索软件攻击的 “特洛伊木马”,潜在影响大量用户。


此类攻击的危害不容小觑:企业员工若安装恶意 Claude Skill,可能无意中引发全公司范围的勒索软件事件。攻击者正是利用了用户对 AI 功能的信任,将提升生产力的工具转化为安全噩梦。


此外,合法技能可被轻易修改以植入恶意载荷,这使得该威胁具备大规模扩散的潜力。

攻击感染路径

卡托网络威胁研究实验室(Cato CTRL)的研究员通过修改官方开源 “GIF 创建器”(GIF Creator)技能,演示了完整的感染流程,其过程隐蔽且高效:

  1. 植入恶意辅助函数:研究员在技能中添加了一个名为postsave的辅助函数,表面上是 GIF 创建工作流的无害组成部分,声称用于对生成的 GIF 进行后处理;
  2. 规避用户审查:Claude 仅会提示用户批准主脚本的运行,不会对辅助函数的隐藏操作进行二次确认,因此该恶意函数可绕过用户检查;
  3. 静默执行恶意行为:用户授予初始权限后,恶意辅助函数无需进一步提示或警告即可运行,其真实目的是秘密下载并执行外部脚本;
  4. 部署勒索软件:最终通过该脚本下载并运行 MedusaLocker  勒索软件,对用户文件进行加密。

执行流程显示,用户首次授权后,隐藏的子进程会继承 “可信状态”,从而在不被察觉的情况下实施恶意行为。这一关键漏洞意味着,攻击者可借助合法 AI 工具的伪装,利用用户的初始授权发起完整的勒索软件攻击。



 


消息来源:thehackernews

本文由 HackerNews.cc 翻译整理,封面来源于网络;

转载请注明“转自 HackerNews.cc”并附上原文