最新文章
Top NewsLLM 模型被大规模劫持并进行非法牟利
HackerNews 编译,转载请注明出处:
一项大语言模型劫持攻击行动正大规模针对暴露的大语言模型及 MCP 开展攻击,以实现商业化牟利。
据Pillar Security报告,在此次大规模大语言模型劫持行动中,网络犯罪分子正批量搜寻、劫持暴露的大语言模型及 MCP 端点,并将其商业化牟利。该攻击行动被命名为 “Operation Bizarre Bazaar”,针对暴露或未受保护的人工智能端点发起攻击,实现劫持系统资源、转售应用程序接口访问权限、窃取数据及横向渗透至内部系统等目的。
攻击主要针对自托管的AI基础设施,包括:暴露了默认端口的服务、未设置身份验证的API接口、面向公网的开发或测试环境,以及缺乏访问控制的MCP服务器。
Pillar公司解释称:“被入侵的大语言模型端点会产生高额成本(推理计算成本高昂)、泄露企业敏感数据,还会为攻击者提供横向渗透的机会。”
“Operation Bizarre Bazaar”涉及三个环环相扣的组成部分:一个扫描器(即自动扫描互联网寻找暴露系统的僵尸网络基础设施)、一个验证器(与名为silver.inc的实体关联,负责验证发现的端点是否可利用),以及一个市场(名为“统一LLM API网关”,同样由silver.inc控制)。
扫描发现目标后,silver.inc 会在 2 至 8 小时内通过系统化应用程序接口测试,对目标端点进行验证。监测显示,威胁行为者会枚举目标模型功能并评估其响应质量。
Pillar指出,这个黑市提供对超过30种大型语言模型的访问权限。该交易市场部署在荷兰的抗攻击基础设施上,在 Discord 及 Telegram 平台进行推广,交易支持加密货币或 PayPal 支付。
Pillar已监测到超过35,000次与该行动相关的攻击会话,平均每天高达972次。“持续的高频攻击活动表明,攻击者是系统性针对暴露的人工智能基础设施发起攻击,而非随机性扫描。”报告强调。
已被确认遭利用的系统类型包括:11434端口上未设认证的Ollama实例、8000端口上暴露的OpenAI兼容API、无访问控制的MCP服务器、分配了公网IP的开发环境,以及缺乏认证或速率限制的生产环境聊天机器人。
Pillar指出,该行动由一个代号为“Hecker”(亦化名Sakuya、LiveGamer101)的威胁行为者运营,其基础设施与nexeonai.com服务存在重叠,暗示可能存在关联。
“攻击者会选择阻力最小的路径,即无防护门槛的端点。即便是面向公网的人工智能服务,也可通过速率限制、使用额度管控及行为监测抵御随机性滥用;对于内部服务,防护逻辑更简单:非必要不暴露,需定期扫描外部攻击面,确认无违规暴露情况。”Pillar建议道。
此外,该公司还发现了另一个很可能由不同攻击者发起、目标迥异的侦察活动,专门针对MCP服务器。“到一月底,总攻击流量的60%都来自这类针对MCP的侦察行动,”报告补充道。
...
研究人员发现严重 AI 漏洞,Meta、英伟达和微软推理框架受影响
HackerNews 编译,转载请注明出处:
网络安全研究人员近日披露一系列影响人工智能推理引擎的关键漏洞,波及Meta、英伟达、微软及vLLM、SGLang等开源项目。这些被统称为"ShadowMQ"的安全隐患,均源于ZeroMQ与Python pickle反序列化的不安全使用模式。
漏洞根源可追溯至Meta Llama大型语言模型框架中的一个缺陷(CVE-2024-50050)。该框架通过ZeroMQ套接字在网络暴露,并利用recv_pyobj()方法对传入数据执行pickle反序列化,使得攻击者可通过发送恶意数据实现任意代码执行。
研究机构Oligo发现,相同的不安全模式已在多个推理框架中重现:英伟达TensorRT-LLM(CVE-2025-23254,已修复)、微软Sarathi-Serve(未修复)、Modular Max Server(已修复)、vLLM(CVE-2025-30165,默认引擎切换)及SGLang(不完全修复)。调查显示,这些漏洞多源于直接复制粘贴代码行为——例如SGLang承认适配vLLM代码,而Modular Max Server则同时借鉴了这两个项目的逻辑。
作为AI基础设施的核心组件,推理引擎一旦被攻陷,攻击者可在集群中执行任意代码、提升权限、窃取模型,甚至部署加密货币挖矿程序等恶意负载。研究人员指出:"项目开发速度惊人,借鉴架构组件已成常态,但当代码复用包含不安全模式时,后果将快速扩散。"
同期另一报告显示,AI代码编辑器Cursor的内置浏览器同样存在风险,可通过JavaScript注入技术窃取凭证,恶意扩展程序更可能使开发者工作站完全失控。
...
人工智能时代的深度伪造防御
HackerNews 编译,转载请注明出处:
网络安全格局因生成式AI的出现发生根本性转变。攻击者现在利用大语言模型(LLM)大规模伪造可信身份并自动化实施社会工程攻击。
...