标签: AI

Vercel 的 AI 工具 v0 正被网络犯罪分子武器化

HackerNews 编译,转载请注明出处: 未知威胁行为者被发现正在武器化v0——Vercel的一款生成式人工智能(AI)工具——来设计仿冒合法网站的虚假登录页面。 “这一观察标志着威胁行为者在生成式AI武器化方面的新进化,他们已展示出仅凭简单文本提示就能生成功能完整的钓鱼网站的能力,”Okta威胁情报研究人员Houssem Eddine Bordjiba和Paula De la Hoz表示。 v0是Vercel推出的AI驱动产品,允许用户使用自然语言提示创建基础落地页和全栈应用。 这家身份服务提供商表示,他们观察到诈骗者利用该技术开发了多个品牌登录页面的高仿版本,包括Okta自己的一位未具名客户。在负责任披露后,Vercel已屏蔽了这些钓鱼网站的访问。 该活动背后的威胁行为者还被发现利用Vercel基础设施托管其他资源,如仿冒的公司标志,可能是为了滥用开发者平台的信任关系并规避检测。 与传统需要一定设置工作的钓鱼工具包不同,像v0及其GitHub上的开源克隆工具这样的工具,允许攻击者只需输入提示就能快速生成虚假页面。这种方式更快、更简单,且不需要编码技能。这使得即使技术不熟练的威胁行为者也能大规模构建令人信服的钓鱼网站。 “观察到的活动证实,当今的威胁行为者正在积极试验并武器化领先的生成式AI工具,以简化和增强他们的钓鱼能力,”研究人员表示。 “使用Vercel的v0.dev等平台,新兴威胁行为者可以快速制作高质量、欺骗性的钓鱼页面,提高其行动的速度和规模。” 这一发展正值恶意行为者继续利用大语言模型(LLMs)协助其犯罪活动之际,他们正在构建这些模型的无审查版本,这些版本明确设计用于非法目的。其中一个在犯罪领域获得欢迎的LLM是WhiteRabbitNeo,它自称“专为(开发)安全运营团队设计的无审查AI模型”。 “网络犯罪分子正越来越倾向于无审查LLM、专为犯罪分子设计的LLM,以及越狱合法LLM,”Cisco Talos研究员Jaeson Schultz表示。 “无审查LLM是未对齐的模型,运行时不受护栏约束。这些系统乐于根据用户提示生成敏感、有争议或潜在有害的内容。因此,无审查LLM非常适合网络犯罪使用。” 这符合我们正在看到的更大趋势:钓鱼活动正在以前所未有的方式被AI赋能。伪造邮件、克隆语音,甚至深度伪造视频都出现在社会工程学攻击中。这些工具帮助攻击者快速扩大规模,将小骗局变成大规模自动化活动。这不再仅仅是欺骗用户——而是构建整个欺骗系统。     消息来源: thehackernews; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文

Facebook 新 AI 工具要求用户上传照片生成故事灵感,引发隐私担忧

HackerNews 编译,转载请注明出处: Meta旗下社交网络平台Facebook正要求用户上传手机相册照片,通过人工智能(AI)技术生成拼贴画、内容回顾及其他创意建议,包括用户从未直接上传至服务的照片。据TechCrunch首发报道,用户尝试在Facebook创建新故事(Story)时,会收到弹出消息请求授权“允许云端处理”。 弹窗声明称:“为提供创意建议,我们将根据时间、地点或主题等信息,持续从您的相册选择媒体内容上传至云端。仅您本人可见建议内容,您的媒体文件不会用于广告定位。我们将基于安全性与完整性原则进行审核。”若用户同意照片云端处理,即视为接受Meta的AI条款——该条款允许公司分析用户媒体文件及面部特征。 Meta在帮助页面说明“该功能尚未全面开放”,目前仅限美加用户使用,并向TechCrunch强调该AI功能为选择性加入,用户可随时关闭。这再次印证科技公司在产品中竞相整合AI功能时,常以用户隐私为代价。 Meta称新AI功能不会用于定向广告,但专家仍存疑虑:用户即使同意上传私人照片视频,其数据存储时限与访问权限仍不明确。云端处理过程存在风险,尤其涉及面部识别及时间地点等隐藏信息。此类数据即便不用于广告,仍可能进入训练数据集或用于构建用户画像——如同将相册交给算法,使其持续学习用户习惯、偏好与行为模式。 上月,Meta在获得爱尔兰数据保护委员会(DPC)批准后,开始使用欧盟境内成年用户公开数据训练AI模型。2024年7月,该公司因巴西政府隐私担忧暂停生成式AI工具运营。该社交巨头还在WhatsApp新增AI功能,最新推出的是通过“隐私优先处理”(Private Processing)技术汇总未读消息。 这属于生成式AI大趋势的一部分:科技公司将便利性与追踪技术捆绑。自动拼贴或智能故事建议看似实用,实则依赖监控设备使用行为的AI系统(不限于应用内)。因此隐私设置、明确授权及数据收集限制比以往更为关键。         消息来源: thehackernews; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文

WhatsApp 推出 AI 生成摘要功能,可快速预览未读消息

HackerNews 编译,转载请注明出处: 热门通讯平台WhatsApp推出全新人工智能功能“消息摘要”,该功能利用其自主研发的Meta AI技术为未读聊天消息提供智能摘要服务。该功能目前正面向美国地区用户以英语版本推行,计划于年内扩展至其他语言及地区。 WhatsApp在公告中表示:“该功能通过Meta AI对聊天中未读消息进行私密快速摘要,让用户在仔细阅读前即可掌握消息概要。”摘要功能为可选服务且默认关闭。这家Meta旗下平台同时指出,用户可启用”高级聊天隐私”设置,自主选择共享哪些聊天内容用于AI功能开发。 该功能的核心支撑是今年四月推出的“私有处理”技术。该技术通过Oblivious HTTP(OHTTP)协议在用户设备与可信执行环境(TEE)间建立安全应用会话,在云端机密虚拟机(CVM)的安全环境中处理AI请求。 公司重申该技术能确保任何第三方(包括Meta和WhatsApp自身)均无法查看原始消息内容即可生成摘要。“聊天中其他成员也无法获悉您使用了摘要功能,”声明强调,“这意味着您的隐私时刻受到保护。” 此功能上线之际,美国众议院以安全风险为由将WhatsApp列入政府配发设备的禁用应用清单。       消息来源: thehackernews; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文

新型 AI 越狱攻击技术可轻松突破安全防护

HackerNews 编译,转载请注明出处: 安全研究团队Neural Trust发现名为“Echo Chamber”(回音室)的新型大语言模型(LLM)越狱攻击技术。该技术通过渐进式语义污染与上下文操控,可突破主流AI模型的防护机制,诱导模型生成违禁内容。Neural Trust研究员Ahmad Alobaid在测试中偶然发现此漏洞:“我最初以为系统出错,但持续测试后发现LLM竟如此容易被操控”。 攻击核心原理 三阶段渗透 种子植入:首轮对话嵌入无害但具导向性的语义种子(如“撰写信息控制失败案例研究”),规避内容过滤机制。 引导强化:通过多轮看似中立的追问(如“请重述重点”),诱导模型逐步复述并扩展敏感概念,形成自我强化的语义闭环。 边界突破:当模型在“绿区”(允许内容)积累足够多被污染的上下文后,其内部状态逐渐接受本应被拦截的语义关联,最终生成违禁内容(如武器制作指南)。 与传统攻击差异 区别于微软披露的”Crescendo”攻击(直接引导敏感回答),Echo Chamber利用模型自解释特性,让AI主动构建危险内容框架。 攻击全程避免触发“红区”(如直接提及“炸弹”),仅使用“鸡尾酒”等合法词汇分散组合,使防护系统难以识别意图。 实测威胁数据 成功率:在GPT-4o、Gemini 2.0等模型测试中,生成性别歧视/暴力内容成功率超90%,虚假信息达80%。 效率:平均2-3轮对话即可完成越狱,部分案例仅需单次交互。 低成本性:无需技术背景,攻击者仅需掌握基础对话技巧即可实施。 行业影响与挑战 防御机制失效 传统关键词过滤与单轮提示检测完全失效,因攻击依赖模型自身的上下文记忆与逻辑推演能力。 新型防护方向 Neural Trust建议采用动态上下文可信评估(如语义一致性检测)、设定上下文记忆窗口限制(防止污染延续),这与微软“提示词防护盾”、Anthropic“宪法分类器”的防御思路形成呼应。 研究员警告 Neural Trust安全主管Rodrigo Fernández强调:“该技术可能被大规模用于生成虚假信息、仇恨言论及犯罪指导,全球AI服务商需立即升级防护体系”。       消息来源: securityweek; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文

最新研究发现:超半数垃圾邮件出自 AI 之手​

HackerNews 编译,转载请注明出处: 根据Barracuda与哥伦比亚大学、芝加哥大学研究人员合作进行的一项研究,目前有超过半数(51%)的恶意和垃圾邮件是使用AI工具生成的。 该研究团队分析了Barracuda在2022年2月至2025年4月期间检测到的垃圾邮件数据集。他们使用训练有素的检测器,自动识别恶意或未经请求的电子邮件是否由AI生成。 该过程发现,从2022年11月到2024年初,由AI生成的垃圾邮件比例呈稳步上升趋势。2022年11月,全球首个公开可用的大型语言模型(LLM)ChatGPT正式发布。 2024年3月,AI生成的诈骗邮件比例出现大幅激增。此后该比例出现波动,最终在2025年4月达到峰值51%。 哥伦比亚大学电气工程与计算机科学副教授阿萨夫·西顿(Asaf Cidon)在接受采访时表示,目前尚无法确定这一突然激增的明确原因。他解释道:“很难确切知道原因,但这可能由多种因素导致:例如,攻击者使用了新发布的AI模型,或者攻击者发送的垃圾邮件类型发生了变化,从而提高了AI生成邮件的比例。” 研究人员还观察到,在商业邮件诈骗(BEC)中,AI生成内容的使用比例增长要缓慢得多,在2025年4月仅占所有尝试的14%。这很可能是因为此类攻击(即冒充组织中特定高管要求电汇或金融交易)的精准性要求较高,而AI目前在这方面的效果可能还不够理想。 然而,西顿预计,随着AI技术的进步,它在BEC诈骗尝试中的使用比例将会上升。“特别是考虑到近期非常有效且廉价的语音克隆模型兴起,我们认为攻击者会将深度伪造语音融入BEC攻击中,以便更好地冒充特定人物,例如CEO。”他说道。 研究人员发现,攻击者使用AI主要有两个原因:规避邮件检测系统,以及让恶意信息对收件人显得更可信。 分析显示,与人工撰写的邮件相比,AI生成的邮件通常行文更正式、语法错误更少、语言复杂度更高。这使得它们更有可能绕过检测,并且在收件人看来显得更专业。研究人员在6月18日发布的报告中指出:“当攻击者的母语与其目标不同时,这点尤其有帮助。在Barracuda的数据集中,大多数收件人位于广泛使用英语的国家。” 研究人员还观察到攻击者使用AI测试不同的措辞变体,以找出哪些能更有效地绕过防御。他们表示,这个过程类似于传统营销中的A/B测试。 研究发现,在传达紧迫感方面,LLM生成的邮件与人工生成的邮件并无显著差异。紧迫感是网络钓鱼攻击中的常见策略,旨在迫使收件人快速做出情绪化反应。这表明,AI主要用于提高邮件的渗透率和可信度,而非促成策略的改变。       消息来源: infosecurity-magazine; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文

​​GitLab Duo 曝安全漏洞,攻击者借隐蔽提示操控 AI 响应

HackerNews 编译,转载请注明出处: 网络安全研究人员近期发现GitLab的AI编程助手Duo存在间接提示注入漏洞,攻击者可借此窃取私有源代码并在AI响应中注入恶意HTML代码,进而诱导用户访问钓鱼网站。该漏洞由软件供应链安全公司Legit Security披露,主要影响基于Anthropic公司Claude模型构建的代码编写与审查工具GitLab Duo Chat。 技术细节显示,攻击者只需在合并请求描述、提交信息、问题讨论或源代码注释中植入隐藏指令,即可操控AI助手的行为。通过Base16编码、Unicode字符走私,以及利用KaTeX数学公式引擎将白色文字提示嵌入文档等技术,攻击者能绕过常规检测。漏洞根源在于GitLab未对这些输入内容实施有效清洗,导致AI系统在处理时会全盘解析页面上下文信息。 研究人员成功演示了多种攻击场景:在代码变更建议中注入恶意JavaScript包;伪造安全链接诱导用户提交凭证;利用Markdown流式渲染机制执行窃取私有代码的HTML标签。更严重的是,攻击者可通过特定提示使AI助手自动外泄包含零日漏洞细节的敏感源代码至远程服务器。Legit Security研究员Omer Mayraz指出:“当AI助手深度整合至开发流程时,它们不仅继承了上下文环境,更继承了潜在风险。” GitLab已于2025年2月12日修复了涉及HTML注入的关键问题,但其他不涉及代码执行的提示注入场景尚未修补。公司认为后者不会直接导致未授权访问,因此未被列为安全隐患。此次漏洞披露恰逢多项AI安全研究发布:微软SharePoint Copilot被曝可突破“限制视图”权限获取敏感文件;去中心化AI框架ElizaOS存在指令注入风险,可能引发连锁性资产转移事故。 研究还揭示了当前大语言模型的共性缺陷:除提示注入外,强制模型精简回答会加剧事实性错误。AI测试公司Giskard发现,当要求模型缩短响应时,其倾向于编造不准确信息而非承认知识盲区。趋势科技最新报告警示,提示泄露(PLeak)攻击可能暴露企业内部的过滤规则、权限配置等机密数据,为后续针对性攻击铺路。这些发现共同指向AI系统深度集成业务场景时面临的新型攻防挑战。       消息来源:thehackernews; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文

iPhone AI 应用泄露用户成人内容

HackerNews 编译,转载请注明出处: 对于注重隐私的人而言,在线生成成人内容通常不是明智之举。例如,苹果应用商店的”Novel AI: Book Creator”因Firebase数据库配置错误导致数据泄露,显示用户生成的内容远不止普通鬼故事那么简单。 “Novel AI: Book Creator”用户生成故事及其他个人数据遭泄露,部分泄露故事涉及少儿不宜内容,攻击者可利用泄露信息进行性勒索和敲诈,Cybernews已联系应用开发者但未获回复。我们用户往往对应用开发者及其隐私保护能力过度信任。以iOS应用”Novel AI: Book Creator”为例,Cybernews研究团队发现该应用因安全规则配置错误导致用户数据泄露。 这款在美国应用商店拥有近2000条评分的应用,允许用户通过人工智能(AI)生成故事。然而安全配置错误使这些故事处于公开可访问状态。此外,用户与客服的互动记录及邮箱地址也遭曝光。 唯一值得庆幸的是,AI提示词本身已匿名化处理,这意味着攻击者只能识别同一用户生成的多篇故事,但无法获取相关个人信息。换句话说,攻击者需要付出更多努力才能确定故事来源。 令人担忧的是,尽管多次尝试联系开发者,该数据库已持续公开访问超过一个月。我们已联系”Novel AI: Book Creator”开发团队寻求置评,收到回复后将更新报道。 “泄露数据包括用户与客服的沟通记录、邮箱等个人身份信息,以及用户生成的各类故事。部分用户生成内容涉及成人题材。”Cybernews信息安全研究员Aras Nazarovas指出。 iOS应用具体泄露哪些数据?数据通过Firebase数据库泄露,该数据库作为临时存储区,在数据量达到阈值后会同步至永久存储系统。研究团队发现泄露的数据库包含:用户与客服的互动记录,用户邮箱地址以及用户借助AI生成的故事。 如前所述,用户故事仅关联用户ID而非真实姓名,但攻击者仍可进行关联匹配。研究人员表示,若用户曾在应用中提交反馈或客服咨询,攻击者即可确定特定故事的创建者。 研究团队特别指出,鉴于部分故事包含大量性内容,有些用户可能非常不愿让人知晓其使用过某些特定AI提示词。 Nazarovas解释:”此类内容的泄露风险极高,可能暴露令人尴尬或社会难以接受的个人偏好,攻击者可利用这些信息进行勒索或性胁迫。” 研究团队认为,攻击者可利用该漏洞设置数据抓取程序,持续从暴露的Firebase数据库中下载敏感信息。此外,网络犯罪分子还能实时获取新的AI提示词提交记录、客服咨询记录(含邮箱地址)等数据。 调查期间,该Firebase数据库已泄露约400封含邮箱地址的客服邮件,以及55,000篇用户生成故事。但考虑到Firebase作为临时数据库的特性,实际存储数据量可能远高于此。 泄露的Firebase数据库不仅暴露用户隐私数据,还公开了应用客户端的多项机密信息,包括:API密钥、客户端ID、数据库URL、Google应用ID、项目ID、反向客户端ID、存储桶、Facebook应用ID、Facebook客户端令牌。API密钥和数据库URL的公开会显著提升安全风险。攻击者可反编译应用,利用泄露凭证访问后端服务,绕过应用安全控制,导致非授权数据访问、账户劫持乃至完整数据库泄露等问题。 此外,API密钥通常具有广泛权限,攻击者可借此篡改或窃取用户敏感数据。而Facebook应用ID等社交媒体凭证则可能被用于实施仿冒攻击。 研究人员建议分别针对Firebase实例和硬编码密钥采取修复措施。针对Firebase相关问题,建议:制定适当的Firebase安全规则,确保只有经授权的认证用户和服务能访问存储数据。研究人员表示。”该应用使用的Firebase实例处于公开可访问状态,攻击者可实时连接数据库并抓取数据,获取包括用户客服沟通记录和AI提示词在内的所有操作信息。” 为防止应用密钥落入不法分子之手,建议:将敏感密钥从应用客户端移除,转存至服务器端,通过自有基础设施代理应用与第三方服务的通信。Nazarovas解释称。”硬编码密钥使攻击者可枚举应用使用的基础设施。若存在认证密钥,攻击者还可能滥用相关服务窃取用户数据,或将服务用于非授权用途。” “Novel AI: Book Creator”远非首个存在密钥泄露问题的iOS应用。研究团队近期发现多款应用存在严重安全隐患。例如,多个BDSM、LGBTQ+和sugar dating应用被曝泄露用户私密照片,部分甚至泄露私聊信息中的图片。 其他案例中,用于追踪家人行踪或秘密存储敏感数据的应用也被发现存在大规模数据泄露。 最新泄露事件是在大规模调查中发现的——Cybernews研究人员下载了156,000个iOS应用(约占苹果商店应用的8%),发现开发者普遍在应用代码中明文存储密钥凭证。 调查结果显示,71%的被分析应用至少泄露一个密钥,平均每个应用代码暴露5.2个密钥。     消息来源:cybernews;  本文由 HackerNews.cc 翻译整理,封面来源于网络;  转载请注明“转自 HackerNews.cc”并附上原文

微软利用 AI 发现 GRUB2、U-Boot 和 Barebox 引导程序中的漏洞

HackerNews 编译,转载请注明出处: 微软利用其AI驱动的安全副驾工具,在开源引导程序GRUB2、U-Boot和Barebox中发现了20个此前未知的漏洞。 GRUB2(GRand Unified Bootloader)是大多数Linux发行版的默认引导程序,包括Ubuntu,而U-Boot和Barebox则广泛用于嵌入式和物联网设备。 微软在GRUB2中发现了11个漏洞,包括文件系统解析器中的整数和缓冲区溢出、命令缺陷以及密码比较中的侧信道攻击。 此外,在U-Boot和Barebox中还发现了9个缓冲区溢出漏洞,这些漏洞涉及解析SquashFS、EXT4、CramFS、JFFS2和符号链接,需要物理访问才能利用。 这些新发现的漏洞影响依赖UEFI安全启动的设备,如果条件合适,攻击者可以绕过安全保护来在设备上执行任意代码。 虽然利用这些漏洞可能需要对设备进行本地访问,但此前的引导程序攻击(如BlackLotus)是通过恶意软件感染实现的。 微软解释称:“虽然威胁行为者可能需要物理访问设备才能利用U-Boot或Barebox漏洞,但在GRUB2的情况下,漏洞可能被进一步利用来绕过安全启动并安装隐蔽的引导程序,或者可能绕过其他安全机制,如BitLocker。” “安装此类引导程序的后果是严重的,因为这可以授予威胁行为者对设备的完全控制,允许他们控制启动过程和操作系统,危及网络上的其他设备,并进行其他恶意活动。” “此外,这可能导致在操作系统重新安装或硬盘更换后仍然存在的持久性恶意软件。” 以下是微软在GRUB2中发现的漏洞摘要: CVE-2024-56737 – HFS文件系统挂载中的缓冲区溢出,由于对非空终止字符串的不安全strcpy操作 CVE-2024-56738 – 密码比较函数中的侧信道攻击(grub_crypto_memcmp不是恒定时间) CVE-2025-0677 – UFS符号链接处理中的整数溢出导致缓冲区溢出 CVE-2025-0678 – Squash4文件读取中的整数溢出导致缓冲区溢出 CVE-2025-0684 – ReiserFS符号链接处理中的整数溢出导致缓冲区溢出 CVE-2025-0685 – JFS符号链接处理中的整数溢出导致缓冲区溢出 CVE-2025-0686 – RomFS符号链接处理中的整数溢出导致缓冲区溢出 CVE-2025-0689 – UDF块处理中的越界读取 CVE-2025-0690 – 读取命令(键盘输入处理程序)中的有符号整数溢出和越界写入 CVE-2025-1118 – dump命令允许任意内存读取(应在生产环境中禁用) CVE-2025-1125 – HFS压缩文件打开中的整数溢出导致缓冲区溢出 除CVE-2025-0678被评为“高”(CVSS v3.1评分:7.8)外,所有上述漏洞均被评为中等严重性。 微软表示,安全副驾显著加速了在大型和复杂的代码库(如GRUB2)中的漏洞发现过程,节省了大约一周的时间,这些时间本将用于手动分析。 副驾识别漏洞并建议修复措施(来源:微软) AI工具不仅识别了此前未知的漏洞,还提供了针对性的缓解建议,这可以为开源项目(由志愿者和小型核心团队支持)提供指导,并加速安全补丁的发布。 利用分析中的发现,微软表示安全副驾在使用共享代码的项目中也发现了类似的漏洞,如U-Boot和Barebox。 GRUB2、U-Boot和Barebox在2025年2月发布了针对这些漏洞的安全更新,因此升级到最新版本应能缓解这些漏洞。   消息来源:Bleeping Computer; 本文由 HackerNews.cc 翻译整理,封面来源于网络;   转载请注明“转自 HackerNews.cc”并附上原文

微软为 Edge for Business 添加内联数据保护功能,防止生成式 AI 数据泄露

HackerNews 编译,转载请注明出处: 微软周一为其面向企业的 Edge for Business 网络浏览器宣布了一项新功能,称为内联数据保护。该功能旨在防止员工将敏感的公司数据分享到消费级生成式人工智能(GenAI)应用中,如 OpenAI ChatGPT、Google Gemini 和 DeepSeek。随着时间的推移,这一列表将扩展到包括其他生成式 AI、电子邮件、协作和社交媒体应用。 “借助 Edge for Business 的新内联保护功能,您可以在用户通过网络应用或生成式 AI 提示直接输入文本等与敏感数据交互的多种方式中防止数据泄露,”这家科技巨头表示。 微软的 Purview 浏览器数据丢失防护(DLP)控制功能的推出,正值该公司宣布 Microsoft Teams 协作安全功能全面可用,以应对针对企业通信应用用户的网络钓鱼攻击。 近几个月来,如 Storm-1674 和 Storm-1811 等威胁行为者利用 Microsoft Teams 作为渠道,诱使毫无戒心的用户下载恶意软件或授予他们远程访问权限,以便后续部署勒索软件。 最新推出的功能提供了新的控制措施,使组织的安全团队能够规定哪些租户、域和用户可以与员工通信,更好地防范实时恶意链接或附件,并改进向管理员报告可疑消息的方式。 “可疑文件和 URL 会在安全、隔离的环境中自动执行——即沙箱——以确定它们是否表现出任何恶意行为,”微软表示。“这一过程被称为实时引爆,确保在最终用户能够访问之前识别并中和有害内容。” 随着这些公告的发布,微软表示正在扩展 Security Copilot,增加 11 个新的安全解决方案,其中 5 个来自外部合作伙伴,用于分析数据泄露、确定关键警报、进行根本原因分析和改进合规性。 微软开发的安全 Copilot 代理程序将于下个月提供预览,将对网络钓鱼警报进行分类、数据丢失防护和内部风险通知、监控漏洞和修复情况,并根据组织的威胁暴露情况整理威胁情报。 “网络攻击的频率和复杂性已经超过了人类的能力,建立人工智能代理是现代安全的必要条件,”微软安全事业部公司副总裁瓦苏·贾卡尔(Vasu Jakkal)表示。 “这些攻击的数量使依赖手动流程和碎片化防御的安全团队不堪重负,使他们难以及时处理恶意消息并利用数据驱动的见解进行更广泛的安全风险管理。” “今天推出的 Security Copilot 中的网络钓鱼分类代理可以处理常规的网络钓鱼警报和攻击,使人类防御者能够专注于更复杂的威胁和主动安全措施。”   消息来源:The Hacker News;  本文由 HackerNews.cc 翻译整理,封面来源于网络;   转载请注明“转自 HackerNews.cc”并附上原文

新型“规则文件后门”攻击:黑客可通过 AI 代码编辑器注入恶意代码

HackerNews 编译,转载请注明出处: 网络安全研究人员披露了一种新的供应链攻击方式,名为“规则文件后门”,它影响了像GitHub Copilot和Cursor这样的AI代码编辑器,使其能够注入恶意代码。 “这种技术使黑客能够通过将隐藏的恶意指令注入到Cursor和GitHub Copilot使用的看似无害的配置文件中,从而在不被察觉的情况下破坏AI生成的代码。”Pillar安全公司的联合创始人兼首席技术官齐夫・卡尔尼尔在与《黑客新闻》分享的技术报告中表示。 “通过利用模型指令负载中的隐藏Unicode字符和复杂的规避技术,威胁行为者可以操纵AI插入恶意代码,从而绕过常规的代码审查。” 这种攻击方式的显著之处在于,它允许恶意代码在项目中悄然传播,构成供应链风险。 攻击的核心在于AI代理用于指导其行为的规则文件,这些文件帮助用户定义最佳编码实践和项目架构。 具体来说,它涉及在看似无害的规则文件中嵌入精心设计的提示,导致AI工具生成包含安全漏洞或后门的代码。换句话说,被污染的规则会促使AI生成不良代码。 这可以通过使用零宽连接符、双向文本标记和其他不可见字符来隐藏恶意指令,并利用AI解释自然语言以生成易受攻击的代码的能力,通过语义模式欺骗模型,使其忽略道德和安全约束。 在2024年2月底和3月的负责任披露之后,Cursor和GitHub都表示用户有责任审查和接受工具生成的建议。 “‘规则文件后门’代表了一种重大风险,它将AI本身作为攻击向量,实际上将开发人员最信任的助手变成了无意的帮凶,可能通过被破坏的软件影响数百万最终用户。”卡尔尼尔说。 “一旦被污染的规则文件被纳入项目存储库,它将影响团队成员未来所有的代码生成会话。此外,恶意指令通常会在项目分叉后仍然存在,从而为供应链攻击创造了途径,可能影响下游依赖关系和最终用户。”   消息来源:The Hacker News; 本文由 HackerNews.cc 翻译整理,封面来源于网络;   转载请注明“转自 HackerNews.cc”并附上原文