Claude Opus 4.6 在主流开源库中发现 500 余个高危安全漏洞
HackerNews 编译,转载请注明出处: 人工智能公司 Anthropic 公布,其最新大语言模型 Claude Opus 4.6 在 Ghostscript、OpenSC、CGIF 等开源库中发现了 500 余个此前未知的高危安全漏洞。 于周四发布的 Claude Opus 4.6 升级了代码能力,涵盖代码审查与调试功能,同时在金融分析、研究、文档生成等任务上也有所优化。 Anthropic 表示,该模型在无需专用工具、自定义框架或特定提示词的情况下,发现高危漏洞的能力“显著提升”,目前已将其用于开源软件漏洞的发现与修复辅助工作。 该公司补充道:“Opus 4.6 能像人类研究员一样阅读和推理代码——通过查看过往修复记录寻找未解决的同类漏洞,识别易引发问题的代码模式,或充分理解程序逻辑,精准判断何种输入会导致程序异常。” 正式发布前,Anthropic 的前沿红队在虚拟化环境中对该模型进行了测试,并为其配备调试器、模糊测试器等必要工具,用于发现开源项目中的漏洞。公司称,测试目的是评估模型的开箱即用能力,全程不提供工具使用指导,也不提供任何有助于漏洞识别的额外信息。 该公司还表示,已对所有发现的漏洞进行验证,确保其并非模型虚构(即幻觉生成),并利用该大模型对已识别的最严重内存破坏漏洞进行优先级排序。 以下为 Claude Opus 4.6 识别出的部分安全漏洞,相关维护方已完成修复: · 通过解析 Git 提交记录,发现 Ghostscript 中一处因缺失边界检查可导致程序崩溃的漏洞 · 通过检索 `strrchr()`、`strcat()` 等函数调用,发现 OpenSC 中的缓冲区溢出漏洞 · CGIF 中的堆缓冲区溢出漏洞(已在 0.5.1 版本修复) 谈及 CGIF 漏洞时,Anthropic 表示:“该漏洞尤为特殊,触发它需要理解 LZW 算法及其与 GIF 文件格式的关联逻辑。传统模糊测试器(甚至覆盖引导式模糊测试器)很难触发此类漏洞,因为其需要特定的分支执行路径。” “事实上,即便 CGIF 实现 100% 行覆盖与分支覆盖,该漏洞仍可能无法被发现——其需要极为特定的操作序列才能触发。” 该公司将 Claude 等 AI 模型定位为网络防御方“实现力量平衡”的关键工具。但同时强调,会根据潜在威胁的发现调整并更新安全防护机制,增设额外约束以防范模型滥用。 此次披露发布的数周前,Anthropic 曾表示,其现有 Claude 模型仅通过标准开源工具,就能发现并利用已知安全漏洞,对包含数十台主机的网络实施多阶段攻击。 该公司称:“这表明 AI 在自主化网络安全工作流程中的应用门槛正快速降低,也凸显出及时修复已知漏洞等安全基础工作的重要性。” 消息来源:thehackernews.com: 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文
Moltbook AI 漏洞暴露邮箱地址、登录令牌与 API 密钥
HackerNews 编译,转载请注明出处: Moltbook 是 Octane AI 的 Matt Schlicht 于 2026 年 1 月末推出的新兴 AI 智能体社交网络,当前该平台因号称拥有 150 万 “用户” 引发热议,但其存在一项高危漏洞,导致注册主体的电子邮箱、登录令牌及 API 密钥遭泄露。 研究人员披露,该平台因数据库配置不当导致暴露,未授权人员可访问智能体档案,进而实现批量数据窃取。 该漏洞同时伴随账户创建无速率限制的问题,据悉单个 OpenClaw 智能体(@openclaw)就注册了 50 万个虚假 AI 用户,直接戳破了媒体所称的自然增长论调。 平台运行机制 Moltbook 支持基于 OpenClaw 构建的 AI 智能体发布内容、评论,还可创建如 m/emergence 这类 “子社群”,催生了围绕 AI 涌现、报复性信息泄露、Solana 代币刷信誉等话题的智能体论战 平台已涌现超 2.8 万条帖子及 23.3 万条评论,并有 100 万沉默验证者对内容进行查看。但智能体数量存在造假:因无注册限制,大量机器人批量注册,营造出平台爆火的假象。 关联不安全开源数据库的暴露端点,无需身份验证,仅通过 GET /api/agents/{id} 这类简单查询指令,即可泄露智能体数据。 攻击者可以通过枚举 ID 快速获取成千上万条记录。 安全风险与专家警告 此次不安全的直接对象引用(IDOR)及数据库暴露漏洞,构成了 “致命三重威胁”:智能体可访问私密数据、平台存在不可信输入风险(提示注入)、支持外部通信,可能引发凭证窃取、文件删除等破坏性操作。 Andrej Karpathy 称该平台是 “充斥垃圾信息的规模里程碑”,但更是 “计算机安全噩梦”,Bill Ackman 则评价其 “令人恐慌”。子社群中的提示注入攻击可操控机器人泄露宿主数据,且 OpenClaw 无沙箱隔离的执行机制会加剧这一风险。 目前尚无修复补丁确认;Moltbook (@moltbook) 对漏洞披露无回应。安全专家强烈建议用户及智能体所有者:立即撤销所有相关API密钥、将智能体置于沙箱环境中运行,并全面审计数据暴露情况。对于企业而言,不受管控的此类机器人活动更带来了严峻的“影子IT”风险。 消息来源:cybersecuritynews: 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文
LLM 模型被大规模劫持并进行非法牟利
HackerNews 编译,转载请注明出处: 一项大语言模型劫持攻击行动正大规模针对暴露的大语言模型及 MCP 开展攻击,以实现商业化牟利。 据Pillar Security报告,在此次大规模大语言模型劫持行动中,网络犯罪分子正批量搜寻、劫持暴露的大语言模型及 MCP 端点,并将其商业化牟利。该攻击行动被命名为 “Operation Bizarre Bazaar”,针对暴露或未受保护的人工智能端点发起攻击,实现劫持系统资源、转售应用程序接口访问权限、窃取数据及横向渗透至内部系统等目的。 攻击主要针对自托管的AI基础设施,包括:暴露了默认端口的服务、未设置身份验证的API接口、面向公网的开发或测试环境,以及缺乏访问控制的MCP服务器。 Pillar公司解释称:“被入侵的大语言模型端点会产生高额成本(推理计算成本高昂)、泄露企业敏感数据,还会为攻击者提供横向渗透的机会。” “Operation Bizarre Bazaar”涉及三个环环相扣的组成部分:一个扫描器(即自动扫描互联网寻找暴露系统的僵尸网络基础设施)、一个验证器(与名为silver.inc的实体关联,负责验证发现的端点是否可利用),以及一个市场(名为“统一LLM API网关”,同样由silver.inc控制)。 扫描发现目标后,silver.inc 会在 2 至 8 小时内通过系统化应用程序接口测试,对目标端点进行验证。监测显示,威胁行为者会枚举目标模型功能并评估其响应质量。 Pillar指出,这个黑市提供对超过30种大型语言模型的访问权限。该交易市场部署在荷兰的抗攻击基础设施上,在 Discord 及 Telegram 平台进行推广,交易支持加密货币或 PayPal 支付。 Pillar已监测到超过35,000次与该行动相关的攻击会话,平均每天高达972次。“持续的高频攻击活动表明,攻击者是系统性针对暴露的人工智能基础设施发起攻击,而非随机性扫描。”报告强调。 已被确认遭利用的系统类型包括:11434端口上未设认证的Ollama实例、8000端口上暴露的OpenAI兼容API、无访问控制的MCP服务器、分配了公网IP的开发环境,以及缺乏认证或速率限制的生产环境聊天机器人。 Pillar指出,该行动由一个代号为“Hecker”(亦化名Sakuya、LiveGamer101)的威胁行为者运营,其基础设施与nexeonai.com服务存在重叠,暗示可能存在关联。 “攻击者会选择阻力最小的路径,即无防护门槛的端点。即便是面向公网的人工智能服务,也可通过速率限制、使用额度管控及行为监测抵御随机性滥用;对于内部服务,防护逻辑更简单:非必要不暴露,需定期扫描外部攻击面,确认无违规暴露情况。”Pillar建议道。 此外,该公司还发现了另一个很可能由不同攻击者发起、目标迥异的侦察活动,专门针对MCP服务器。“到一月底,总攻击流量的60%都来自这类针对MCP的侦察行动,”报告补充道。 消息来源:securityweek; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文
伪造的 Moltbot AI 编程助手传播恶意软件
HackerNews 编译,转载请注明出处: 网络安全研究人员已对官方扩展应用市场中一款新的恶意Microsoft Visual Studio Code(VS Code)扩展发出警示,该扩展针对Moltbot(原名Clawdbot),自称是免费的人工智能编码助手,却会在受感染主机上暗中植入恶意载荷。 该扩展名为“ClawdBot Agent – AI Coding Assistant”(标识符为“clawdbot.clawdbot-agent”),现已被微软下架。它由用户“clawdbot”于2026年1月27日发布。 Moltbot近期大受欢迎,截至本文撰写时,其在GitHub平台的标星量已超过8.5万。这一开源项目由奥地利开发者Peter Steinberger创建,支持用户在自有设备本地运行基于大语言模型(LLM)驱动的个人人工智能助手,并可通过WhatsApp、Telegram、Slack、Discord、Google Chat、Signal、iMessage、Microsoft Teams和WebChat等主流通信平台与其交互。 关键点在于,Moltbot本身并未提供官方的VS Code扩展,这意味着此次活动的幕后黑手利用该工具日益增长的热度,诱骗毫无戒心的开发者安装恶意扩展。 该恶意扩展被设计为在每次启动集成开发环境(IDE)时自动执行,它会暗中从外部服务器(“clawdbot.getintwopc[.]site”)获取名为“config.json”的文件,进而执行一个名为“Code.exe”的二进制程序,该程序会部署ConnectWise ScreenConnect 等合规远程桌面程序。 随后,该应用会连接至URL“meeting.bulletmailer[.]net:8041”,使攻击者获得对受感染主机的持续性远程访问权限。 “攻击者搭建了自己的ScreenConnect中继服务器,生成了预配置的客户端安装程序,并通过VS Code扩展进行分发,”Aikido研究员Charlie Eriksen表示。“受害者安装该扩展后,会获得一个功能完整的ScreenConnect客户端,并立即主动连接至攻击者的基础设施。” 此外,该扩展还包含一个后备机制:从“config.json”文件中列出的DLL获取数据,并通过侧载方式从Dropbox获取相同有效载荷。这个用Rust编写的DLL(“DWrite.dll”)确保即使命令与控制(C2)基础设施无法访问,ScreenConnect客户端仍能成功部署。 这并非该扩展内置的唯一恶意载荷投递备份机制。该伪造的Moltbot扩展还嵌入了硬编码URL,用于获取可执行文件及待侧加载的DLL。第二种替代方法则是通过批处理脚本从另一个域名(“darkgptprivate[.]com”)获取恶意载荷。 Moltbot的安全隐患 此次披露的背景是,安全研究员、Dvuln 公司创始人Jamieson O’Reilly发现网络上存在数百个未认证的 Moltbot 实例,导致配置数据、应用程序编程接口(API)密钥、开放授权(OAuth)凭证及私人聊天记录泄露给未授权主体。 “真正的问题在于Clawdbot代理拥有高度自主权,”O’Reilly解释道。“它们能以用户身份在Telegram、Slack、Discord、Signal和WhatsApp上发送消息,并能执行工具和运行命令。” 这进而可能导致攻击者冒充用户联系其通讯录好友、在持续对话中插入恶意消息、篡改代理回复内容,并在用户不知情下窃取敏感数据。更严重的是,攻击者可能通过MoltHub(原ClawdHub)分发植入后门的 Moltbot “技能组件”,从而发起供应链攻击并窃取敏感数据。 安全公司Intruder在同类分析中指出,已观察到大量配置不当案例,导致凭证泄露、提示注入漏洞以及跨多家云服务商的实例遭入侵。 “核心问题在于架构设计:Clawdbot将部署便捷性置于默认安全配置之上,”Intruder安全工程师Benjamin Marr在声明中表示。“非技术用户可快速部署实例并集成敏感服务,全程无需通过任何安全验证或障碍。系统未强制要求防火墙设置、未进行凭证验证,也未对不可信插件实施沙箱隔离。” 建议使用默认配置运行Clawdbot的用户尽快审计配置、撤销所有已集成的服务连接、检查已暴露的凭证、实施网络控制措施,并持续监控系统是否出现异常迹象。 消息来源: thehackernews: 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文
NIST 携手 MITRE 投资 2000 万美元共建人工智能中心,聚焦制造业与网络安全
HackerNews 编译,转载请注明出处: 为巩固美国在人工智能领域的领先地位,美国国家标准与技术研究院(NIST)宣布投入 2000 万美元启动一项大型 AI 安全计划,用于新建两大研发中心——“美国制造业生产力 AI 经济安全中心”和“保护美国关键基础设施免受网络威胁 AI 经济安全中心”。两家机构均由非营利组织 MITRE 运营。 NIST 在 12 月 22 日的公开声明中表示,这些中心将开发必要的技术评估与进步,“有效保护美国在 AI 创新中的主导地位,应对对手利用 AI 带来的威胁,并降低对不安全 AI 依赖的风险”。该院期望借此实现应用科学与先进技术的突破,为国家最紧迫的挑战提供颠覆性创新解决方案。 美国商务部副部长保罗·达巴尔称,这笔投资将“推动美国制造业复兴”,提升制造商竞争力并吸引国内外资本。兼任商务部标准与技术代理副部长、NIST 代理院长的克雷格·伯克哈特亦指出:“与 MITRE 的新协议将聚焦提升美国企业高效生产高价值产品的能力,满足国内外市场需求,并催化新技术、新设备的发现与商业化。” 该投资是 NIST《21 世纪美国技术领先战略》的一部分,旨在加速关键与新兴技术从研发到落地的进程,并与白宫 2025 年 7 月发布的《美国人工智能行动计划》中“加速 AI 创新”和“建设美国 AI 基础设施”两大支柱相契合。 两大中心将承接 NIST 主导的一系列 AI 与安全项目,包括前身为“美国 AI 安全研究所”的“AI 标准与创新中心”(CAISI)。此外,NIST 即将公布 Manufacturing USA 项目下的“韧性制造 AI 研究院”,拟投入 7000 万美元联邦资金并撬动私人投资,强化 AI 驱动的供应链与制造韧性。 消息来源:infosecurity-magazine.com; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文