分类: 人工智能

五个恶意 Rust 包与 AI 机器人利用 CI/CD 流水线窃取开发者密钥

HackerNews 编译,转载请注明出处: 网络安全研究人员发现五个恶意 Rust 包,它们伪装成时间相关工具,将 .env 文件数据传输给威胁行为者。 这些发布在 crates.io 上的 Rust 包如下: ·     chrono_anchor ·     dnp3times ·     time_calibrator ·     time_calibrators ·     time-sync 据 Socket 公司称,这些包仿冒 timeapi.io 相关功能,于 2026 年 2 月末至 3 月初发布。基于相同的数据窃取方法,以及用于存储被盗数据的相似域名(timeapis [.] io),研究人员判定这些攻击出自同一威胁行为者之手。 “尽管这些包伪装成本地时间工具,但其核心行为是窃取凭据和密钥。” 安全研究员基里尔・博伊琴科(Kirill Boychenko)表示,“它们试图从开发者环境中收集敏感数据(尤其是 .env 文件),并将数据外传到威胁行为者控制的基础设施。” 上述四个包仅具备直接窃取 .env 文件的基础能力,而 “chrono_anchor” 更进一步:通过实现混淆和操作层面的修改来规避检测。这些包对外宣传的功能是 “无需依赖网络时间协议(NTP)校准本地时间”。 “chrono_anchor” 将数据窃取逻辑嵌入名为 “guard.rs” 的文件中,通过一个 “可选同步” 辅助函数调用,以此避免引起开发者怀疑。与其他恶意软件不同,该包的代码并未试图通过服务或计划任务在主机上建立持久化,而是每当持续集成(CI)工作流的开发者调用恶意代码时,就反复尝试窃取 .env 中的密钥。 针对 .env 文件的攻击并非偶然 —— 该文件通常用于存储 API 密钥、令牌等敏感信息,攻击者可借此攻陷下游用户,获得对其环境(包括云服务、数据库、GitHub 及注册表令牌)的深度访问权限。 尽管这些包已从 crates.io 下架,但研究人员建议:不慎下载过的用户需假定数据已被窃取,立即轮换密钥和令牌,审计使用发布 / 部署凭据运行的 CI/CD 任务,并尽可能限制出站网络访问。 Socket 表示:“此次攻击表明,即便低复杂度的供应链恶意软件,只要在开发者工作区和 CI 任务中运行,仍能造成高影响。应优先部署控制措施,在恶意依赖执行前阻止其运行。” 人工智能驱动的机器人利用 GitHub Actions 发起攻击 此前,研究人员还发现一场自动化攻击活动:一款名为 hackerbot-claw 的 AI 驱动机器人扫描公共代码仓库,利用存在漏洞的 GitHub Actions 工作流窃取开发者密钥,攻击目标涵盖主流开源仓库的 CI/CD 流水线。 2026 年 2 月 21 日至 28 日期间,这个自称 “自主安全研究代理” 的 GitHub 账号,攻击了至少七个归属微软、Datadog、Aqua Security 等机构的代码仓库。 攻击流程如下: ·     扫描公共仓库,寻找配置错误的 CI/CD 流水线 ·     复刻(Fork)目标仓库,准备恶意载荷 ·     提交包含微小修改(如拼写错误修复)的拉取请求(PR),同时将核心恶意载荷隐藏在分支名、文件名或 CI 脚本中 ·     利用 “每次 PR 自动触发工作流” 的机制启动 CI 流水线,使恶意代码在构建服务器上执行 ·     窃取密钥和访问令牌 此次攻击中最受关注的目标之一是 Aqua Security 旗下的 “aquasecurity/trivy” 仓库 ——Trivy 是一款主流安全扫描工具,用于检测已知漏洞、配置错误和密钥。 供应链安全公司 StepSecurity 表示:“hackerbot-claw 利用 pull_request_target 工作流窃取了个人访问令牌(PAT),随后用该凭据接管了整个仓库。” Aqua Security 的伊泰・沙库里(Itay Shakury)在上周声明中透露,攻击者借助 GitHub Actions 工作流,将恶意版本的 Trivy Visual Studio Code(VS Code)扩展推送到 Open VSX 注册表,利用本地 AI 编码代理收集并窃取敏感信息。 同样参与该扩展攻击调查的 Socket 公司称,1.8.12 和 1.8.13 版本中注入的恶意逻辑,会以高权限模式运行本地 AI 编码助手(包括 Claude、Codex、Gemini、GitHub Copilot CLI、Kiro CLI),指令这些工具执行全面的系统检查、生成信息报告,并通过受害者已认证的 GitHub CLI 会话,将结果保存到名为 “posture-report-trivy” 的 GitHub 仓库。 Aqua 已从应用市场移除相关恶意制品,并吊销了用于发布的令牌。研究人员建议安装过该扩展的用户立即卸载,检查是否存在异常仓库,并轮换环境密钥;目前恶意制品已下架,未发现其他受影响制品,该事件被分配 CVE 编号 CVE-2026-28353。 需注意的是,系统受该漏洞影响需满足以下前提条件: ·     从 Open VSX 安装了 1.8.12 或 1.8.13 版本扩展 ·     本地安装了至少一款目标 AI 编码 CLI 工具 ·     该 CLI 接受恶意逻辑提供的高权限执行参数 ·     AI 代理能够访问磁盘上的敏感数据 ·     安装并认证了 GitHub CLI(针对 1.8.13 版本) Socket 表示:“从 1.8.12 到 1.8.13 的版本迭代可见攻击者的优化:第一个版本的指令将数据分散到随机渠道,攻击者无法可靠收集输出;第二个版本则利用受害者自身的 GitHub 账号作为稳定的数据窃取渠道,但模糊的指令可能导致 AI 代理将密钥推送到攻击者无法访问的私有仓库。” Pillar Security 评估认为,hackerbot-claw 是人类操作者借助大语言模型(LLM)作为执行层发起的攻击,并将该活动命名为 “Chaos Agent”。 安全研究员埃 ilon・科恩(Eilon Cohen)表示,此次攻击体现了 “AI 增强型攻击者快速利用 CI/CD 配置错误发起攻击”,而 Trivy VS Code 扩展的供应链攻击,标志着 AI 编码代理被滥用于数据窃取。“hackerbot-claw 攻击利用了大多数企业都未察觉的漏洞:对开发者机器上运行的 AI 编码代理完全无可见性,且这些代理被武器化时缺乏运行时控制。” 消息来源:thehackernews.com; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文

微软:黑客在网络攻击的每一个阶段都在滥用人工智能

HackerNews 编译,转载请注明出处: 微软表示,威胁行为者正越来越多地在其行动中使用人工智能,以加速攻击、扩大恶意活动规模,并降低网络攻击各个环节的技术门槛。 根据微软威胁情报发布的一份最新报告,攻击者正将生成式人工智能工具用于广泛任务,包括侦察、钓鱼、基础设施搭建、恶意软件开发以及入侵后活动。 在多数情况下,人工智能被用于撰写钓鱼邮件、翻译内容、总结窃取的数据、调试恶意软件,以及辅助脚本编写或基础设施配置。 “微软威胁情报已观察到,当前绝大多数人工智能的恶意使用都集中于利用大语言模型生成文本、代码或媒体内容。威胁行为者利用生成式人工智能撰写钓鱼诱饵、翻译内容、总结窃取的数据、生成或调试恶意软件,以及搭建脚本或基础设施框架。” 微软警告称。 “对于这些用途而言,人工智能发挥了力量倍增器的作用,降低了技术阻力并加快了执行速度,而人类操作者仍保留对攻击目标、攻击对象和部署决策的控制权。” 威胁行为者在网络攻击生命周期中对人工智能的使用(来源:微软) 被用于支撑网络攻击的人工智能 微软已观察到多个威胁组织将人工智能融入网络攻击,包括代号为 Jasper Sleet(Storm-0287)和 Coral Sleet(Storm-1877)的朝鲜籍行为者,他们将该技术用于远程 IT 人员渗透计划。 在这些行动中,人工智能工具帮助生成逼真的身份信息、简历和通信内容,以在西方企业获得雇佣资格,并在入职后维持访问权限。 “Jasper Sleet 利用生成式人工智能平台简化伪造数字身份的制作流程。例如,Jasper Sleet 行为者会提示人工智能平台生成符合特定文化背景的姓名列表和邮箱地址格式,以匹配特定身份档案。例如,威胁行为者可能在此场景中使用以下类型的提示词来利用人工智能: 示例提示词 1:“创建 100 个希腊姓名的列表。” 示例提示词 2:“使用姓名 Jane Doe 创建一组邮箱地址格式。” Jasper Sleet 还利用生成式人工智能审阅专业平台上软件开发及 IT 相关岗位的招聘信息,提示工具提取并总结所需技能。这些输出结果随后被用于为特定职位量身定制伪造身份。 ❖ 微软威胁情报” 报告还描述了人工智能如何被用于辅助恶意软件开发与基础设施搭建,威胁行为者利用人工智能编码工具生成和优化恶意代码、排查错误,或将恶意软件组件移植到不同编程语言。 并非只有微软观察到威胁行为者越来越多地使用人工智能支撑攻击并降低入门门槛。 谷歌近期报告称,威胁行为者在网络攻击的所有阶段都在滥用 Gemini 人工智能,这与亚马逊在相关攻击活动中观察到的情况一致。 亚马逊以及 Cyber and Ramen 安全博客近期也报告了一起攻击活动,其中威胁行为者使用多个生成式人工智能服务,成功攻破了超过 600 个 FortiGate 防火墙。   消息来源:bleepingcomputer.com; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文

Chrome 安全漏洞致 Gemini Live 助手遭劫持,可被用于间谍活动

HackerNews 编译,转载请注明出处: Palo Alto Networks研究人员发现谷歌Chrome浏览器漏洞(CVE-2026-0628),恶意扩展程序可利用该漏洞控制Gemini Live AI助手,实施用户监控并窃取敏感文件。 报告指出:”我们在Chrome新版Gemini功能实现中发现高危安全漏洞,攻击者可借此侵入浏览器环境并访问本地操作系统文件。具体而言,该漏洞允许拥有基础权限的恶意扩展劫持Chrome浏览器面板中的Gemini Live。” Chrome侧边栏AI助手Gemini Live用于实时内容摘要、执行任务及理解网页上下文。作为”AI浏览器”核心组件,其深度集成带来便利的同时也产生风险。 该漏洞于Chrome 143版本修复。拥有declarativeNetRequests权限的恶意扩展可向Gemini面板注入JavaScript代码,而非仅限于标准Gemini标签页。由于面板是可信浏览器组件,劫持后可获得超越普通扩展的提权能力,包括访问本地文件、截图、摄像头和麦克风,无需用户额外授权即可实施钓鱼或监控。 研究人员向谷歌演示了普通扩展劫持Gemini面板后可执行的操作:实施钓鱼攻击、未经同意启动摄像头和麦克风、访问底层操作系统本地文件和目录、对HTTPS网站标签页截图。 基于扩展的攻击常被低估,但AI浏览器功能提升了风险等级。该漏洞于2025年10月23日负责任披露给谷歌,2026年1月初修复。报告结论称:”尽管AI浏览器功能可改善用户体验,持续监控潜在安全漏洞至关重要。” 消息来源:securityaffairs.com; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文

五角大楼因 AI 军事应用争议将 Anthropic 列为供应链风险

HackerNews 编译,转载请注明出处: 美国国防部长皮特・赫格塞思指示五角大楼将 AI 初创公司 Anthropic 列为 “供应链风险” 后,Anthropic 于周五作出强硬回应。 该公司表示:“此次行动源于数月谈判陷入僵局,我们要求对旗下 AI 模型 Claude 的合法使用增设两项例外:禁止用于美国民众大规模国内监控与完全自主武器”。 “无论战争部施加何种恐吓或惩罚,都不会改变我们在大规模国内监控与完全自主武器问题上的立场。” 美国总统唐纳德・特朗普在 Truth Social 发文称,已下令所有联邦机构在未来六个月内逐步停用 Anthropic 技术。 赫格塞思随后在 X 平台发文,要求所有与美军有业务往来的承包商、供应商及合作伙伴立即停止与 Anthropic 的一切商业活动。 赫格塞思写道:“结合总统关于联邦政府停用 Anthropic 技术的指令,我指示战争部将 Anthropic 列为国家安全供应链风险”。 该认定是五角大楼与 Anthropic 就美军使用其 AI 模型进行数周谈判后的结果。 该公司本周发文称,其合同不应支持大规模国内监控或自主武器研发,理由是该技术尚不具备安全可靠支撑此类应用的能力。 Anthropic 表示:“我们支持将 AI 用于合法的对外情报与反情报任务。但将这些系统用于大规模国内监控与民主价值观相悖,AI 驱动的大规模监控对我们的基本自由构成严重且新型的风险。” 该公司还批评美国战争部(DoW)的立场:战争部仅愿与允许 “一切合法使用” 技术、且移除所有安全防护的 AI 公司合作,以此打造 “AI 优先” 作战部队、强化国家安全。 五角大楼上月发布的备忘录称:“战争部不应存在多元化、公平性、包容性及社会意识形态,因此不得采用融入意识形态‘调校’、影响其对用户提示给出客观真实回应能力的 AI 模型。” “战争部还必须采用无使用政策限制、不会阻碍合法军事应用的模型。” 针对该认定,Anthropic 称其 “缺乏法律依据”,并表示这将为所有与政府谈判的美国公司开创危险先例。 该公司还指出,依据《美国法典》第 10 编第 3252 条,供应链风险认定仅适用于战争部合同中 Claude 的使用,不影响其为其他客户提供服务。 五角大楼首席发言人肖恩・帕内尔周四在 X 平台发文称,战争部无意开展大规模国内监控或部署无人参与的自主武器,并称相关说法为 “虚假信息”。 帕内尔称:“我们的要求很简单:允许五角大楼将 Anthropic 模型用于一切合法用途。” “这是简单且符合常理的要求,可避免 Anthropic 危及关键军事行动、让作战人员陷入风险。我们绝不允许任何公司左右我们的作战决策条款。” 这场持续僵局也导致科技行业出现两极分化。 谷歌与 OpenAI 数百名员工签署公开信,呼吁各自公司支持 Anthropic,与五角大楼就 Claude 等 AI 工具军事应用展开对抗。 xAI 首席执行官埃隆・马斯克周五站在特朗普政府一方,称 “Anthropic 仇视西方文明”。 Anthropic 与美国政府对峙之际,OpenAI 首席执行官萨姆・奥尔特曼称,OpenAI 已与美国国防部(DoD)达成协议,在其涉密网络部署模型。 OpenAI 还请求国防部将相关条款推广至所有 AI 公司。 奥尔特曼在 X 平台发文称:“AI 安全与普惠是我们使命的核心,两项最重要的安全原则是禁止国内大规模监控、武力使用需人类负责,包括自主武器系统。” “战争部认同这些原则,并将其纳入法律与政策,我们也将其写入协议。” 最新进展 Anthropic 与美国政府的公开争执使其 Claude 聊天机器人登顶苹果美国免费应用榜,即便 OpenAI 首席执行官萨姆・奥尔特曼称,该公司被列为供应链风险开创了 “极其可怕的先例”。 OpenAI 还披露了与五角大楼在涉密环境部署先进 AI 系统的协议细节,补充称 “我们认为该协议的安全防护比此前所有涉密 AI 部署协议都更严格,包括 Anthropic 的协议”。 该公司称,与战争部的合作遵循三条红线。 包括禁止将 OpenAI 技术用于大规模国内监控、指挥自主武器系统,以及社会信用体系等高风险自动化决策。 该公司声明称:“在协议中,我们通过更全面、多层级的方式守护这些红线。” “我们对安全技术栈拥有完全自主权,通过云端部署,经审查的 OpenAI 人员全程参与,且有严格的合同保护。” 奥尔特曼还表示,公司未来将考虑承诺公开红线的所有变更,附公开说明,并在生效前设置强制公示期。 OpenAI 国家安全合作主管卡特里娜・马利根在领英发文称,协议将部署限制在云端 API,公司对部署的模型与安全技术栈拥有控制权,AI 专家全程参与,若模型未拒绝应拒绝的查询或出现超出预期的操作风险,可随时调整。 马利根称:“自主系统需要边缘端推理。” “通过将部署限制在云端 API,我们可确保模型无法直接集成到武器系统、传感器或其他作战硬件中。” OpenAI 协议达成之际,《华尔街日报》报道称,尽管存在使用分歧,美国仍借助 Anthropic 的 AI 工具对伊朗发动大规模空袭。   消息来源:thehackernews.com; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文

伪造的 Moltbot AI 编程助手传播恶意软件

HackerNews 编译,转载请注明出处: 网络安全研究人员已对官方扩展应用市场中一款新的恶意Microsoft Visual Studio Code(VS Code)扩展发出警示,该扩展针对Moltbot(原名Clawdbot),自称是免费的人工智能编码助手,却会在受感染主机上暗中植入恶意载荷。 该扩展名为“ClawdBot Agent – AI Coding Assistant”(标识符为“clawdbot.clawdbot-agent”),现已被微软下架。它由用户“clawdbot”于2026年1月27日发布。 Moltbot近期大受欢迎,截至本文撰写时,其在GitHub平台的标星量已超过8.5万。这一开源项目由奥地利开发者Peter Steinberger创建,支持用户在自有设备本地运行基于大语言模型(LLM)驱动的个人人工智能助手,并可通过WhatsApp、Telegram、Slack、Discord、Google Chat、Signal、iMessage、Microsoft Teams和WebChat等主流通信平台与其交互。 关键点在于,Moltbot本身并未提供官方的VS Code扩展,这意味着此次活动的幕后黑手利用该工具日益增长的热度,诱骗毫无戒心的开发者安装恶意扩展。 该恶意扩展被设计为在每次启动集成开发环境(IDE)时自动执行,它会暗中从外部服务器(“clawdbot.getintwopc[.]site”)获取名为“config.json”的文件,进而执行一个名为“Code.exe”的二进制程序,该程序会部署ConnectWise ScreenConnect 等合规远程桌面程序。 随后,该应用会连接至URL“meeting.bulletmailer[.]net:8041”,使攻击者获得对受感染主机的持续性远程访问权限。 “攻击者搭建了自己的ScreenConnect中继服务器,生成了预配置的客户端安装程序,并通过VS Code扩展进行分发,”Aikido研究员Charlie Eriksen表示。“受害者安装该扩展后,会获得一个功能完整的ScreenConnect客户端,并立即主动连接至攻击者的基础设施。” 此外,该扩展还包含一个后备机制:从“config.json”文件中列出的DLL获取数据,并通过侧载方式从Dropbox获取相同有效载荷。这个用Rust编写的DLL(“DWrite.dll”)确保即使命令与控制(C2)基础设施无法访问,ScreenConnect客户端仍能成功部署。 这并非该扩展内置的唯一恶意载荷投递备份机制。该伪造的Moltbot扩展还嵌入了硬编码URL,用于获取可执行文件及待侧加载的DLL。第二种替代方法则是通过批处理脚本从另一个域名(“darkgptprivate[.]com”)获取恶意载荷。   Moltbot的安全隐患 此次披露的背景是,安全研究员、Dvuln 公司创始人Jamieson O’Reilly发现网络上存在数百个未认证的 Moltbot 实例,导致配置数据、应用程序编程接口(API)密钥、开放授权(OAuth)凭证及私人聊天记录泄露给未授权主体。 “真正的问题在于Clawdbot代理拥有高度自主权,”O’Reilly解释道。“它们能以用户身份在Telegram、Slack、Discord、Signal和WhatsApp上发送消息,并能执行工具和运行命令。” 这进而可能导致攻击者冒充用户联系其通讯录好友、在持续对话中插入恶意消息、篡改代理回复内容,并在用户不知情下窃取敏感数据。更严重的是,攻击者可能通过MoltHub(原ClawdHub)分发植入后门的 Moltbot “技能组件”,从而发起供应链攻击并窃取敏感数据。 安全公司Intruder在同类分析中指出,已观察到大量配置不当案例,导致凭证泄露、提示注入漏洞以及跨多家云服务商的实例遭入侵。 “核心问题在于架构设计:Clawdbot将部署便捷性置于默认安全配置之上,”Intruder安全工程师Benjamin Marr在声明中表示。“非技术用户可快速部署实例并集成敏感服务,全程无需通过任何安全验证或障碍。系统未强制要求防火墙设置、未进行凭证验证,也未对不可信插件实施沙箱隔离。” 建议使用默认配置运行Clawdbot的用户尽快审计配置、撤销所有已集成的服务连接、检查已暴露的凭证、实施网络控制措施,并持续监控系统是否出现异常迹象。       消息来源: thehackernews: 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文

两款 Chrome 扩展程序被发现窃取 90 万用户的 ChatGPT 与 DeepSeek 聊天记录

HackerNews 编译,转载请注明出处: 网络安全研究人员发现,Chrome 网上应用店中存在两款新的恶意扩展程序,专门用于窃取用户与 OpenAI ChatGPT 及 DeepSeek 的聊天记录,并将浏览数据一并上传至攻击者控制的服务器。 这两款扩展程序的名称及其用户数量如下: Chat GPT for Chrome with GPT-5, Claude Sonnet & DeepSeek AI(ID:fnmihdojmnkclgjpcoonokmkhjpjechg,用户量约 60 万) AI Sidebar with Deepseek, ChatGPT, Claude, and more.(ID:inhcgfpbfdjbjogdfjbclgolkmhnooop,用户量约 30 万) 此次发现紧随另一起事件:拥有数百万安装量的 Urban VPN Proxy 扩展程序也被曝出暗中监控用户与 AI 聊天机器人的对话。Secure Annex 将这种通过浏览器扩展窃取 AI 对话的行为命名为 “Prompt Poaching”(提示词掠夺)。 OX Security 的研究员 Moshe Siman Tov Bustan 表示,这两款新发现的扩展程序“每 30 分钟将用户的聊天记录及所有 Chrome 标签页 URL 上传至远程 C2 服务器”。他指出:“这些恶意软件通过请求用户授权‘匿名、不可识别的分析数据’,实则窃取了 ChatGPT 与 DeepSeek 的完整对话内容。” 这两款恶意扩展程序伪装成合法扩展 “Chat with all AI models (Gemini, Claude, DeepSeek…) & AI Agents”(由 AITOPIA 开发,用户量约 100 万)。截至发稿时,这两款扩展仍可在 Chrome 网上应用店下载,不过前者已被取消了“精选”标识。 安装后,这些扩展会诱导用户授权其收集“匿名浏览行为数据”,声称用于优化侧边栏体验。一旦用户同意,嵌入的恶意代码便开始收集浏览器标签页信息及 AI 聊天内容。 具体做法是:扩展程序会查找网页中的特定 DOM 元素,提取聊天消息并本地存储,随后上传至远程服务器(如 chatsaigpt[.]com 或 deepaichats[.]com)。 更令人担忧的是,攻击者还利用 AI 驱动的网页开发平台 Lovable 托管其隐私政策及其他基础设施(如 chataigpt[.]pro 或 chatgptsidebar[.]pro),以掩盖其恶意行为。 安装此类扩展的后果可能非常严重,因为它们不仅能窃取用户与 ChatGPT、DeepSeek 的对话内容,还能获取浏览记录、搜索关键词甚至企业内部 URL。 OX Security 警告称:“这些数据可能被用于企业间谍活动、身份盗用、定向钓鱼攻击,或在地下论坛出售。若企业员工安装了这些扩展,可能在不知情的情况下泄露了知识产权、客户数据及商业机密。” 合法扩展也加入“Prompt Poaching”行列 Secure Annex 还指出,一些看似合法的浏览器扩展也在进行“Prompt Poaching”,包括: Similarweb(用户量约 100 万) Sensor Tower 的 Stayfocusd(用户量约 60 万) Similarweb 据称于 2025 年 5 月引入了监控 AI 对话的功能,并在 2026 年 1 月 1 日的更新中弹出了完整的服务条款,明确告知用户其输入至 AI 工具的数据将被收集,用于“深入分析流量与参与度指标”。其 2025 年 12 月 30 日的隐私政策更新也明确指出: 此类信息包括您输入或提交至某些人工智能工具的提示词、查询、内容、上传或附加的文件(如图片、视频、文本、CSV 文件)及其他输入内容,以及您从这些 AI 工具中获得的输出结果(包括任何附加文件)——统称为“AI 输入与输出”。 鉴于 AI 工具中常见的 AI 输入与输出及元数据的性质,可能会无意中收集或处理某些敏感数据。然而,我们的处理目的并非为了识别您的身份。尽管我们无法保证所有个人数据都被移除,但我们会尽可能采取措施过滤或移除您输入至这些 AI 工具中的识别信息。 进一步分析发现,Similarweb 使用 DOM 抓取或劫持浏览器原生 API(如 fetch() 和 XMLHttpRequest())——与 Urban VPN Proxy 类似——通过加载远程配置文件,实现对 ChatGPT、Claude、Gemini 和 Perplexity 的对话数据抓取。 Secure Annex 的 John Tuckner 告诉 The Hacker News,这种行为在 Chrome 和 Edge 版本的 Similarweb 扩展中均存在。其 Firefox 版本最后一次更新是在 2019 年。 Tuckner 表示:“显然,‘Prompt Poaching’已经到来,正在窃取你最敏感的对话内容,而浏览器扩展就是其利用的载体。目前尚不清楚这是否违反了谷歌‘扩展应单一用途、不得动态加载代码’的政策。” “这仅仅是开始。越来越多的公司将意识到这些数据的价值。扩展开发者为了变现,也会将这类由营销公司提供的复杂库集成到自己的应用中。” 建议 若您已安装上述扩展程序并担心隐私泄露,建议立即卸载,并避免安装来源不明的扩展,即使它们带有“精选”标签。   消息来源:thehackernews; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文

LunaLock 勒索软件将窃取的数据喂给大模型 以威胁受害者

HackerNews 编译,转载请注明出处: 一个名为LunaLock的新兴勒索软件团伙出现在威胁环境中,采用了一种独特的网络勒索技术,威胁将窃取的艺术作品转化为人工智能训练数据。 最近,LunaLock团伙针对艺术家与客户(Artists&Clients)网站发起攻击,窃取了数字艺术作品。该团伙向受害者索要5万美元,威胁要泄露数据,并将窃取的数据用于训练大型语言模型(LLMs)。 “我们入侵了艺术家与客户网站,窃取并加密了其全部数据。如果你是该网站的用户,我们敦促你联系网站所有者,并要求他们支付赎金。如果赎金未支付,我们将在该Tor网站上公开发布所有数据,包括源代码和用户个人信息。此外,我们将把所有艺术作品提交给人工智能公司,加入其训练数据集。”勒索软件团伙在其Tor数据泄露网站上发布的公告中写道。 LunaLock黑客在技术上相当熟练,且似乎是以英语为母语的人。 这种新型勒索手段旨在通过将被盗数据纳入用于训练LLMs的数据集中,来侵犯受害者的知识产权。未来,其他勒索软件团伙可能会将被盗数据上传至公开可访问的数据库,使其能被人工智能训练管道轻松抓取。一旦数据被纳入人工智能模型,它就变得事实上永久存在,与可能随时间逐渐消失的暗网泄露不同。LunaLock的做法开创了一个危险的先例。 专家指出,LunaLock对艺术家与客户网站的攻击不同寻常,因为勒索软件通常会针对那些有可能支付赎金的行业。双重或三重勒索对自由职业者可能无效。艺术家们已经在保护他们的作品,使其免受黑客攻击和人工智能数据抓取的侵害。 像OpenAI、谷歌和Anthropic这样的人工智能公司会抓取在线艺术作品来训练模型。Anthropic最近同意支付至少15亿美元来解决由作者提起的版权诉讼,这是美国首例人工智能版权案件。 为应对这一问题,芝加哥大学计算机科学教授赵本(Ben Zhao)创建了Glaze和Nightshade这两种工具,它们可以微妙地改变图像,使其对人类看起来正常,但却会误导人工智能训练。 赵本的工具Glaze和Nightshade于2022年推出,至今已有超过300万次下载,被艺术家广泛用于保护他们的作品免受人工智能抓取和像LunaLock这样的勒索软件威胁。     消息来源:securityaffairs; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文

GPT-5 存在漏洞:路由系统或自动导向旧版不安全模型

HackerNews 编译,转载请注明出处: 研究人员发现GPT-5存在安全漏洞:用户获得的回答可能并非来自GPT-5本身。这一漏洞源于其内部路由机制存在类似SSRF(服务器端请求伪造)的缺陷。 当用户向GPT-5提问时,答案未必由GPT-5生成。该模型内置初始路由解析器,会根据问题内容决定调用哪个子模型处理请求——可能是用户预期的GPT-5 Pro,但也可能被路由至GPT-3.5、GPT-4o、GPT-5-mini或GPT-5-nano等旧版或精简版模型。 这种动态路由机制的设计初衷可能是平衡效率与成本:通过将简单查询导向更轻量、快速的模型,避免始终调用推理能力强大但运行成本高昂的GPT-5核心模型。据Adversa AI公司估算,该机制每年可为OpenAI节省约18.6亿美元开支,但运作过程完全不透明。 更严重的是,Adversa研究人员发现用户可通过特定“触发短语”操纵路由决策,强制将查询导向指定模型。该漏洞被命名为PROMISQROUTE(全称为“提示诱导路由操纵漏洞”)。“这本质上是针对路由器的规避攻击,”Adversa AI联合创始人兼CEO亚历克斯·波利亚科夫解释,“我们操纵了原本简单的路由决策流程,决定哪个模型应处理请求。” 虽然路由机制并非OpenAI独有(其他服务商通常允许用户手动选择模型),但此类自动化路由正越来越多地出现在智能体架构中——即由某个模型决定如何将请求传递至其他模型。 该漏洞是Adversa在测试GPT-5拒绝机制时偶然发现的。某些提问会引发无法解释的回复矛盾,使研究人员怀疑响应来自不同模型。他们观察到部分旧版越狱手段突然复活,且当提问中刻意提及旧模型时,即使GPT-5本身能阻止的越狱行为也会成功。 被动风险与主动威胁 单纯的路由错误已可能引发严重后果:例如不同模型具有差异化倾向与缺陷,若查询被导向能力较弱或安全校准不足的模型,可能增加幻觉输出或不安全内容的概率。 但真正的危险在于:攻击者可利用路由漏洞将恶意查询导向安全性较低的旧模型,从而绕过GPT-5 Pro的防护机制。“假设攻击者试图用越狱指令攻击GPT-5失败后,只需在提问前添加简单指令诱骗路由器将请求发送至存在漏洞的旧模型,”波利亚科夫指出,“先前失败的越狱就可能成功执行。” 这意味着尽管GPT-5 Pro自身安全性优于前代,但路由漏洞使其实际防护能力等同于最弱的前代模型。 安全与成本的矛盾 解决方案看似简单——禁用向弱安全模型的路由即可,但这将损害商业利益:完全依赖GPT-5 Pro会显著降低响应速度(影响用户体验),且每项查询都调用高成本模型将压缩OpenAI利润空间。 波利亚科夫建议:“OpenAI需提升安全性,例如在路由器前增设防护层、增强路由机制本身的安全性,或确保所有子模型(而非仅核心模型)均达到安全标准——最理想的是同时实施这三项措施。”       消息来源: securityweek; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文

IBM 最新报告称,美国数据泄露成本升至 1022 万美元

HackerNews 编译,转载请注明出处: IBM《数据泄露成本报告》显示:全球泄露成本下降,但美国成本上升。最显著的变化在于新兴影响因素的出现——AI在攻击与防御中的双重作用。 全球平均数据泄露成本降至444万美元(五年来首次下降),但美国平均成本升至创纪录的1022万美元。数据泄露生命周期(驻留时间与修复时间之和)缩短至241天——创历史新低,较上年减少17天。 美国数据泄露成本较高与区域安全水平或AI影响关联有限。IBM X-Force情报部门副合伙人Kevin Albano解释:“尽管美国企业采用AI防御的比率略高,但其泄露成本仍连年居首。差异源于多重因素,包括检测与处置成本同比激增14%(部分由劳动力成本上升驱动),以及更高的监管罚款。” AI的双刃剑效应 本年报告核心结论是:无论善恶,AI时代已至——犯罪分子的重视程度甚至超过防御方。AI正成为高价值目标: 13%的泄露事件涉及AI模型或应用,其中97%的案件无访问控制 相关泄露导致60%的数据失窃与31%业务中断 安全治理在AI部署过程中被严重忽视 访问控制的缺失暴露了安全理念的崩塌,Albano指出根源在于:“企业急于利用AI实现自动化降本,但AI系统的复杂性与新颖性使安全实践仍在演进中。” 攻击技术的迭代 供应链攻击占AI相关泄露的30%,涉及应用、API及插件漏洞。直接操纵AI的三大技术占比更高: 提示词注入(Prompt Injection):17% 模型规避(Model Evasion):21% 模型反演(Model Inversion):24% 随着防护机制强化,攻击者转向上下文操纵技术。Albano阐释差异:“模型反演旨在重构训练数据,模型规避通过操纵输入诱发错误输出,提示词注入则通过篡改指令影响AI行为。” 防御价值的实证 采用AI驱动的企业显著降低泄露成本: 使用AI加速攻击检测的企业,泄露生命周期缩短108天 全面部署AI安全方案的企业,平均节省153万美元成本 攻击效率的质变 生成式AI使网络攻击效率飞跃: 钓鱼攻击占比16%(首次超越凭证窃取成为主要攻击媒介) 单次钓鱼攻击成本达480万美元 AI伪造钓鱼邮件耗时从16小时压缩至5分钟 Albano强调:“犯罪分子利用信息窃取器(Infostealers)掠夺密码、浏览记录、键盘输入等数据,这些工具已成为网络犯罪支柱。” 报告采用统一核算模型: 成本涵盖检测响应、通知、事后处置及业务损失四环节 分析样本排除极大规模/极小规模泄露事件(记录数介于2960至113620条) 基于作业成本法(Activity-Based Costing)进行实际消耗分摊 尽管未披露全部泄露的企业数据可能影响绝对值准确性,但历年方法论一致性确保了趋势可比性。       消息来源:securityweek; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文

LameHug:首款 AI 驱动型恶意软件,与俄罗斯 APT28 组织存在关联

HackerNews 编译,转载请注明出处: 乌克兰计算机应急响应小组(CERT-UA)近期发出警报,发现一种名为LameHug的新型恶意软件。该软件利用大语言模型(LLM) 在受感染的Windows系统上生成并执行攻击指令。乌克兰专家将其归因于与俄罗斯有关的黑客组织APT28(又名UAC-0001、Fancy Bear、Pawn Storm、Sofacy Group、Sednit、BlueDelta和STRONTIUM)。 CERT-UA在警报中指出:“LAMEHUG的显著特征是使用了LLM(大语言模型),根据其文本描述生成可执行命令。我们有中等把握认为该活动与UAC-0001(APT28)组织有关。” 2025年7月10日,CERT-UA发现一起针对政府部门的钓鱼攻击活动,攻击者通过伪装成政府文件的ZIP压缩包进行传播。该压缩包内含伪装成.pif文件的LAMEHUG恶意软件,该软件使用Python编写并通过PyInstaller打包。研究人员发现存在两种不同数据窃取方式的变体。攻击者使用了被入侵的电子邮箱账户,并将基础设施托管在合法但已被攻陷的平台上。 LAMEHUG通过huggingface[.]co服务API调用Qwen 2.5-Coder-32B-Instruct模型,基于静态输入的文本描述生成攻击指令。Qwen 2.5-Coder-32B-Instruct是由阿里巴巴Qwen团队开发的开源大语言模型,专门针对编程任务进行了优化。 该恶意软件会收集系统信息,并在常见文件夹中搜索Office、PDF和TXT文档。收集的数据先存储在本地,然后通过SFTP或HTTP POST方式外传。警报中详细说明:“该软件会收集计算机基本信息(硬件配置、进程、服务、网络连接)并存储在‘%PROGRAMDATA%\info\info.txt’文件中,同时递归搜索‘文档’、‘下载’和‘桌面’目录中的Microsoft Office文档(包括TXT和PDF文件),将其复制到‘%PROGRAMDATA%\info’文件夹。不同版本的程序会使用SFTP或HTTP POST请求外传获取的信息和文件。” LameHug是已知首款利用LLM生成攻击指令的恶意软件,使威胁行为者能够根据实际需求动态调整攻击链。该报告还包含了相关网络威胁指标。       消息来源: securityaffairs; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文