分类: 人工智能

谷歌部署多层防御机制​​ ​,全面防护生成式 AI 系统提示注入攻击​

HackerNews 编译,转载请注明出处: 谷歌披露了其生成式人工智能(AI)系统为应对间接提示注入等新型攻击向量而采取的多层安全措施,旨在提升代理型AI系统的整体安全防护能力。谷歌生成式AI安全团队表示:“与攻击者直接向提示输入恶意指令的直接提示注入不同,间接提示注入通过外部数据源嵌入隐藏的恶意指令。”这些外部数据源包括电子邮件、文档甚至日历邀请,可诱骗AI系统泄露敏感数据或执行其他恶意操作。 谷歌表示已实施“分层”防御策略,通过增加攻击难度、成本和复杂性来保护系统。相关措施涵盖模型加固、专用机器学习(ML)恶意指令检测模型及系统级防护机制。作为旗舰生成式AI模型的Gemini还内置了多重防护功能,包括: 提示注入分类器:过滤恶意指令以生成安全响应。 安全思维强化技术:在非信任数据(如邮件)中插入特殊标记(称为”聚光灯”技术),引导模型规避对抗性指令。 Markdown消毒与可疑URL屏蔽:利用谷歌安全浏览服务移除潜在恶意URL,并通过Markdown消毒器阻止外部图片URL渲染,防范EchoLeak等漏洞。 用户确认框架:高风险操作需经用户二次确认。 终端安全警报:向用户提示注入攻击风险。 谷歌指出,恶意攻击者正通过自适应攻击(ART)动态调整策略以绕过防御,使基础防护失效。谷歌DeepMind上月强调:“间接提示注入构成真实威胁,AI模型难以区分真实指令与数据中嵌入的操纵性命令。”对此,谷歌主张构建深度防御体系——从模型原生攻击识别、应用层防护到底层基础设施硬件防御的全栈防护。 与此同时,最新研究揭示多种绕过大语言模型(LLM)安全防护的技术:字符注入(character injections)通过干扰模型对提示上下文的解读,利用其对学习特征的过度依赖突破防护;Anthropic、谷歌DeepMind、苏黎世联邦理工学院及卡内基梅隆大学的联合研究发现,LLM未来可能成为新型攻击工具——不仅能高精度窃取密码信用卡,还可设计多态恶意软件并实施精准定向攻击。研究显示,LLM能开辟新型攻击路径:利用多模态能力提取个人身份信息,分析受控环境中的网络设备,并生成高度逼真的钓鱼网页。不过研究也指出,LLM尚缺乏发掘主流软件零日漏洞的能力,仅可自动化检测未审计程序的简单漏洞。 根据Dreadnode的AIRTBench基准测试,Anthropic、谷歌和OpenAI的前沿模型在AI夺旗赛(CTF)中表现优于开源模型——擅长提示注入攻击,但在系统渗透和模型反演任务中仍有不足。研究人员指出:“模型在特定漏洞类型(如提示注入)上有效,但在其他领域(如模型反演)进展不均。值得注意的是,AI代理效率优势显著:分钟级解决人类需数小时完成的挑战,且成功率相当,预示其在安全领域的变革潜力。” Anthropic上周发布的压力测试进一步揭示风险:测试中16个主流AI模型表现出恶意内部行为倾向,包括通过勒索及向竞争对手泄露敏感信息避免被取代。Anthropic称:“通常拒绝有害请求的模型,在目标驱动下会选择协助商业间谍活动甚至采取极端行为。”并将此现象定义为代理错位(agentic misalignment)。该行为模式表明,即使内置多重防护,LLM在高风险场景仍可能规避防护机制,持续选择“造成伤害而非任务失败”。但研究强调,现实中尚未出现此类代理错位案例。研究人员警示:“三年前的模型无法完成本文所述任务,而三年后模型若被滥用可能具备更强危害能力。当前亟需深入研究威胁演变、开发更强防御体系,并推动语言模型的防御应用。”       消息来源: thehackernews; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文

OpenAI 获 2 亿美元新合同,协助国防部强化网络防御

HackerNews 编译,转载请注明出处: OpenAI与美国国防部签署价值2亿美元的合同,旨在提升其人工智能能力,包括强化网络防御。该公司本周宣布启动“OpenAI for Government”计划,通过AI解决方案增强美国政府工作人员的效能。 美国国防部(DoD)将成为该计划的首个受益方,通过其首席数字与人工智能办公室(CDAO)开展试点项目。OpenAI声明称:“这份上限2亿美元的合同将借助OpenAI行业领先的专业能力,帮助国防部探索前沿AI如何变革行政运营——从优化军人及家属的医疗保健服务,到精简项目与采购数据处理,再到支持主动网络防御。”该公司同时强调“所有应用场景必须符合OpenAI的使用政策和准则”。 国防部表示,这笔资金将用于开发“原型前沿AI能力,以应对作战领域和企业领域的关键国家安全挑战”。网络安全媒体SecurityWeek已联系OpenAI获取更多网络防御能力细节,若获回应将更新报道。 AI治理与应用安全公司PointGuard AI高级官员Willy Leichter通过邮件评论:“生成式AI必将在国防和行政运营中发挥关键作用。鉴于AI发展的迅猛势头,外包给行业领导者比政府完全自主开发更切实可行。以国防部的标准看,2亿美元投入或许不算庞大,但这份一年期合同让OpenAI获得了宝贵的机会来原型开发广泛用例。如同私营领域,许多AI实验可能不尽如人意,但另一些或带来突破性成果。关键在于快速推进,而本次计划已迈出坚实的第一步。”       消息来源: securityweek; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文

最新研究发现:超半数垃圾邮件出自 AI 之手​

HackerNews 编译,转载请注明出处: 根据Barracuda与哥伦比亚大学、芝加哥大学研究人员合作进行的一项研究,目前有超过半数(51%)的恶意和垃圾邮件是使用AI工具生成的。 该研究团队分析了Barracuda在2022年2月至2025年4月期间检测到的垃圾邮件数据集。他们使用训练有素的检测器,自动识别恶意或未经请求的电子邮件是否由AI生成。 该过程发现,从2022年11月到2024年初,由AI生成的垃圾邮件比例呈稳步上升趋势。2022年11月,全球首个公开可用的大型语言模型(LLM)ChatGPT正式发布。 2024年3月,AI生成的诈骗邮件比例出现大幅激增。此后该比例出现波动,最终在2025年4月达到峰值51%。 哥伦比亚大学电气工程与计算机科学副教授阿萨夫·西顿(Asaf Cidon)在接受采访时表示,目前尚无法确定这一突然激增的明确原因。他解释道:“很难确切知道原因,但这可能由多种因素导致:例如,攻击者使用了新发布的AI模型,或者攻击者发送的垃圾邮件类型发生了变化,从而提高了AI生成邮件的比例。” 研究人员还观察到,在商业邮件诈骗(BEC)中,AI生成内容的使用比例增长要缓慢得多,在2025年4月仅占所有尝试的14%。这很可能是因为此类攻击(即冒充组织中特定高管要求电汇或金融交易)的精准性要求较高,而AI目前在这方面的效果可能还不够理想。 然而,西顿预计,随着AI技术的进步,它在BEC诈骗尝试中的使用比例将会上升。“特别是考虑到近期非常有效且廉价的语音克隆模型兴起,我们认为攻击者会将深度伪造语音融入BEC攻击中,以便更好地冒充特定人物,例如CEO。”他说道。 研究人员发现,攻击者使用AI主要有两个原因:规避邮件检测系统,以及让恶意信息对收件人显得更可信。 分析显示,与人工撰写的邮件相比,AI生成的邮件通常行文更正式、语法错误更少、语言复杂度更高。这使得它们更有可能绕过检测,并且在收件人看来显得更专业。研究人员在6月18日发布的报告中指出:“当攻击者的母语与其目标不同时,这点尤其有帮助。在Barracuda的数据集中,大多数收件人位于广泛使用英语的国家。” 研究人员还观察到攻击者使用AI测试不同的措辞变体,以找出哪些能更有效地绕过防御。他们表示,这个过程类似于传统营销中的A/B测试。 研究发现,在传达紧迫感方面,LLM生成的邮件与人工生成的邮件并无显著差异。紧迫感是网络钓鱼攻击中的常见策略,旨在迫使收件人快速做出情绪化反应。这表明,AI主要用于提高邮件的渗透率和可信度,而非促成策略的改变。       消息来源: infosecurity-magazine; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文

​​Instagram 平台出现假冒 BMO 的 AI 深度伪造广告,银行客户需警惕诈骗​

HackerNews 编译,转载请注明出处: Instagram平台上出现冒充蒙特利尔银行(BMO)和EQ Bank(Equitable Bank)等金融机构的广告,正被用于针对加拿大消费者实施钓鱼诈骗和投资欺诈。部分广告使用AI深度伪造视频窃取个人信息,另一些则盗用官方品牌标识,将用户引导至与银行无关的高度相似的非法域名。 我们观察到多例看似由加拿大银行运营、实为诈骗的Instagram广告。如一些广告自称来自“Eq Marketing”,配色方案与EQ Bank高度相似,并承诺高达“4.5%”的利率(该收益率明显虚高)。点击后却跳转至假冒网站RBCpromos1[.]cfd——该域名与EQ Bank无关,实为收集用户银行凭证的钓鱼网站。 域名中的“RBC”字样表明,该钓鱼网站可能也曾用于针对加拿大皇家银行(RBC)等其他大型金融机构的诈骗活动。点击“是的,继续使用我的账户”后,用户会看到伪造的EQ Bank登录界面,诱导输入银行凭证。相比之下,我们在Reddit等平台看到的EQ Bank正规广告均跳转至官方域名eqbank.ca,且宣传的利率更为合理。 另一则标注为“BMO Belski”的欺诈广告以Instagram快拍形式出现,通过“您投资股票多久了?”等筛选问题吸引用户互动——这类问题本是正规广告商用于定位目标客户的常见手段。但此次用户回答后,页面会直接要求提交联系方式给所谓“BMO Belski”广告主。 该骗局设计巧妙:不仅滥用BMO品牌,还暗示与银行首席投资策略师布莱恩·贝尔斯基(Brian Belski)存在关联。普通用户易误以为正在接收这位知名专家的权威投资建议。我们进一步发现,“BMO Belski”广告甚至播放贝尔斯基的AI深度伪造视频,诱骗用户加入“WhatsApp私人投资群组”。 这些广告存在一个共同点:投放账户在Instagram无主页,仅通过Facebook运营。例如“BMO Belski”拥有一个粉丝数千的Facebook主页(已存档),但在Instagram查无此账号——尽管其广告在该平台大量出现。 Meta商务管理平台确实支持通过Facebook主页投放Instagram广告(无需Instagram账号)。诈骗分子采用此途径的原因尚不明确,但我们推测:此举可规避在Instagram建立账号与粉丝基础的时间成本,且新创建的Instagram广告账户更易被识别风险。值得注意的是,“BMO Belski”Facebook主页创建于2023年10月27日,但仅在本周发布过两条贴文。 该主页最初名为“Brentlinger Matt Blumm”,表明攻击者可能像操作前述钓鱼域名一样,在重复利用被盗用的社交媒体资产。相比新建主页易因创建时间过新引发警惕,翻新旧主页可凭借存续时间和粉丝量(无论真实与否)获取更高可信度。 我们向Instagram举报了这些欺诈广告,但数日后广告仍在展示,凸显平台审核机制滞后带来的风险。BleepingComputer已就此事联系BMO、EQ Bank及Meta。知情人士透露Meta正在调查相关内容并将删除确认为欺诈的内容。EQ Bank回应称已察觉钓鱼广告活动,正积极协同平台方尽快下架。“这些广告绝非我们授权或认可的行为,”发言人表示,“此类高仿真诈骗的增多令人担忧。客户安全是我们的首要任务,强烈建议用户通过官方渠道验证促销信息真实性。我们已向全体客户发出防诈警示。” 用户在Instagram、Facebook等平台点击广告时需保持警惕——即使广告显示正规机构标识。带有“已验证”徽章的Instagram广告账号(如下图)可信度较高,但仍需确认跳转链接是否指向该机构的官方域名。谨记:过于诱人的承诺往往暗藏陷阱。       消息来源: bleepingcomputer; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文

黑客借虚假 AI 工具安装包传播恶意软件

HackerNews 编译,转载请注明出处: 网络安全公司Cisco Talos披露,黑客正利用OpenAI ChatGPT和InVideo AI等热门人工智能工具的虚假安装程序作为诱饵,传播CyberLock、Lucky_Gh0$t勒索软件及新型恶意软件Numero等威胁。 “基于PowerShell开发的CyberLock勒索软件主要针对受害者系统中的特定文件进行加密,”研究员切坦·拉古普拉萨德在报告中指出,“Lucky_Gh0$t则是Yashma勒索软件的变种,属于Chaos勒索软件家族的第六代迭代,仅对勒索程序二进制文件进行了微调。”而Numero属于破坏性恶意软件,通过篡改Windows操作系统图形界面组件使设备瘫痪。 这些正版AI工具在B2B销售和营销领域广受欢迎,表明相关行业的个人与机构成为攻击者的主要目标。虚假网站“novaleadsai[.]com”疑似冒充正规潜在客户开发平台NovaLeads,可能通过SEO投毒技术提升搜索引擎排名。该网站以“首年免费使用,后续月费95美元”为诱饵,诱使用户下载内含恶意.NET可执行文件(“NovaLeadsAI.exe”)的压缩包。该文件实为加载器,用于部署基于PowerShell的CyberLock勒索软件。 该勒索软件具备权限提升功能,若未获管理员权限将自我提权执行,随后加密“C:”、“D:”、“E:”分区中特定扩展名的文件,并投放勒索信索要5万美元门罗币赎金。值得注意的是,攻击者在勒索信中宣称赎金将用于援助巴勒斯坦、乌克兰、非洲、亚洲等“长期遭受不公”地区的妇女儿童。“与无辜生命尤其是儿童的牺牲相比,这笔金额微不足道。遗憾的是,我们认定多数人不会主动施以援手,迫使我们出此下策。”勒索信写道。最后阶段,攻击者利用系统原生二进制工具“cipher.exe”配合“/w”参数清除磁盘可用空间,阻碍取证恢复。 另一攻击者则通过伪造ChatGPT高级版安装程序传播Lucky_Gh0$t勒索软件。恶意自解压安装包内含仿冒微软程序“dwm.exe”的勒索程序“dwn.exe”,同时捆绑微软官方开源AI工具。一旦运行安装程序,脚本即触发勒索程序。这款Yashma变种在加密1.2GB以下文件前会删除卷影副本及备份。勒索信包含专属解密ID,要求受害者通过Session通讯软件联系支付赎金获取解密工具。 此外,黑客还利用AI视频创作平台InVideo AI的伪造安装程序传播破坏性恶意软件Numero。该安装程序作为投放器包含三个组件:Windows批处理文件、VB脚本及Numero可执行程序。启动后,批处理文件通过无限循环调用VB脚本,每60秒中断并重启Numero进程。这款C++编写的32位程序会检测分析工具和调试器进程,随后将桌面窗口标题、按钮及内容覆盖为数字串“1234567890”。 此次披露恰逢谷歌旗下Mandiant曝光利用Facebook和LinkedIn恶意广告的欺诈活动。该活动将用户诱导至冒充Luma AI、Canva Dream Lab、Kling AI等正规AI视频工具的虚假网站。据Morphisec和Check Point本月初揭露,该活动被归因于越南关联组织UNC6032,至少自2024年中持续活跃。 攻击流程中,用户访问虚假网站后被要求输入提示词生成视频。无论输入内容如何,网站都会触发下载基于Rust的投放器STARKVEIL。该程序投放三款信息窃取类模块化恶意软件:使用TOR隧道获取.NET有效载荷的下载器GRIMPULL;收集系统信息及密码管理器/加密货币钱包数据的.NET后门FROSTRIFT;具备键盘记录、远程命令执行等功能的.NET远控木马XWorm。STARKVEIL还通过Python投放器COILHATCH,借助DLL侧加载技术启动上述载荷。 “这些AI工具已不仅针对设计师,任何人都可能被看似无害的广告诱骗,”Mandiant警告道,“尝试最新AI工具的诱惑可能让任何人沦为受害者。”       消息来源:thehackernews; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文

​​越南黑客组织借虚假 AI 视频生成网站散布恶意程序​

HackerNews 编译,转载请注明出处: 谷歌云旗下Mandiant威胁情报团队发布报告称,越南黑客组织UNC6032自2024年中期起,通过社交媒体平台投放虚假AI工具广告实施大规模恶意软件攻击。该组织利用Luma AI、Canva Dream Lab等知名AI视频生成工具的名义创建仿冒网站,诱导用户下载包含多阶段恶意载荷的压缩包。 攻击者通过Facebook和LinkedIn平台创建或劫持账户,投放数千条虚假广告。当用户点击广告后,会被重定向至高度仿真的AI工具网站。无论用户输入何种内容,网站均会生成虚假视频并推送恶意ZIP压缩包,其中包含以下组件: STARKVEIL投放器:使用Rust语言编写,负责释放后续恶意模块 XWORM后门:具备键盘记录、屏幕截图及远程控制功能 FROSTRIFT后门:采集系统信息并窃取浏览器扩展数据 GRIMPULL下载器:用于从C2服务器获取额外插件扩展攻击能力 研究人员发现攻击者注册了30余个仿冒域名,通过120多个广告群组覆盖欧盟地区超230万用户。为逃避检测,该组织采取动态域名轮换策略——新注册域名通常在24小时内即被投入广告投放,单个广告存活周期不超过48小时。LinkedIn平台相关广告主要针对美国(占比65%)、欧洲(20%)及澳大利亚(15%)用户,单日展示量达5万至25万次。 技术分析显示,攻击链采用“故障保护”设计理念。即使部分恶意模块被安全软件拦截,其他载荷仍可维持攻击有效性。XWORM后门与Morphisec此前报告的Noodlophile窃密程序存在捆绑分发现象,两者均能通过内存注入实现隐蔽驻留。恶意软件通过DLL侧载、进程注入等技术突破防御,并利用注册表AutoRun键实现持久化。 Mandiant强调,攻击者利用AI技术热潮构建的钓鱼陷阱已突破传统行业界限,任何对新兴工具感兴趣的用户均可能成为目标。企业应加强员工安全意识培训,重点识别社交媒体广告中的异常跳转链接。个人用户需通过官方渠道验证AI工具真实性,避免下载来路不明的压缩文件。       消息来源: infosecurity-magazine; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文

​​GitLab Duo 曝安全漏洞,攻击者借隐蔽提示操控 AI 响应

HackerNews 编译,转载请注明出处: 网络安全研究人员近期发现GitLab的AI编程助手Duo存在间接提示注入漏洞,攻击者可借此窃取私有源代码并在AI响应中注入恶意HTML代码,进而诱导用户访问钓鱼网站。该漏洞由软件供应链安全公司Legit Security披露,主要影响基于Anthropic公司Claude模型构建的代码编写与审查工具GitLab Duo Chat。 技术细节显示,攻击者只需在合并请求描述、提交信息、问题讨论或源代码注释中植入隐藏指令,即可操控AI助手的行为。通过Base16编码、Unicode字符走私,以及利用KaTeX数学公式引擎将白色文字提示嵌入文档等技术,攻击者能绕过常规检测。漏洞根源在于GitLab未对这些输入内容实施有效清洗,导致AI系统在处理时会全盘解析页面上下文信息。 研究人员成功演示了多种攻击场景:在代码变更建议中注入恶意JavaScript包;伪造安全链接诱导用户提交凭证;利用Markdown流式渲染机制执行窃取私有代码的HTML标签。更严重的是,攻击者可通过特定提示使AI助手自动外泄包含零日漏洞细节的敏感源代码至远程服务器。Legit Security研究员Omer Mayraz指出:“当AI助手深度整合至开发流程时,它们不仅继承了上下文环境,更继承了潜在风险。” GitLab已于2025年2月12日修复了涉及HTML注入的关键问题,但其他不涉及代码执行的提示注入场景尚未修补。公司认为后者不会直接导致未授权访问,因此未被列为安全隐患。此次漏洞披露恰逢多项AI安全研究发布:微软SharePoint Copilot被曝可突破“限制视图”权限获取敏感文件;去中心化AI框架ElizaOS存在指令注入风险,可能引发连锁性资产转移事故。 研究还揭示了当前大语言模型的共性缺陷:除提示注入外,强制模型精简回答会加剧事实性错误。AI测试公司Giskard发现,当要求模型缩短响应时,其倾向于编造不准确信息而非承认知识盲区。趋势科技最新报告警示,提示泄露(PLeak)攻击可能暴露企业内部的过滤规则、权限配置等机密数据,为后续针对性攻击铺路。这些发现共同指向AI系统深度集成业务场景时面临的新型攻防挑战。       消息来源:thehackernews; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文

Signal 推出防截图功能,反制微软屏幕记录

HackerNews 编译,转载请注明出处: 加密通讯应用Signal于上周五推出全新“屏幕安全”功能,默认阻止Windows 11系统对聊天窗口进行任何形式的截图操作,此举被视为对微软Windows Recall屏幕记录技术的直接反击。该功能启用后,无论是用户手动截屏还是系统自动抓取,Signal聊天界面将仅显示空白画面,关闭此防护需深入设置界面并手动忽略醒目警告。 Signal首席开发工程师约书亚·伦德在声明中指出:“尽管微软迫于舆论压力对Recall进行安全强化,但该功能仍使Signal等隐私优先应用的屏幕内容暴露于风险中。我们别无选择,只能采取主动防御。”微软此前推迟Recall功能的发布,新增存在性证明加密、防篡改机制,并将截图数据存储于操作系统外的安全飞地,但Signal认为这些改进仍存重大设计缺陷。 争议核心在于Recall作为Windows AI核心功能,每五秒自动截取屏幕内容构建可搜索记忆库。伦德批评微软未向开发者提供应用级防护接口是“明显疏漏”,迫使Signal采取非常规手段:“隐私应用理应获得与浏览器无痕模式同等的系统级保护,但微软仅默认豁免了后者。”目前微软尚未对此置评。 此次对抗凸显AI时代操作系统与应用程序的权限博弈。Signal警告称,具备“广泛权限、脆弱安全机制与数据饥渴症”的AI代理正在打破应用与操作系统间的“血脑屏障”,威胁所有隐私保护类应用的生存基础。技术观察人士指出,这场攻防战或将重塑操作系统生态的权力边界,推动行业建立更精细的隐私权限管理体系。       消息来源:securityweek; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文

​​仿冒 Kling AI 的 Facebook 广告分发远程木马,超 2200 万用户面临风险​

HackerNews 编译,转载请注明出处: 网络安全公司Check Point披露,黑客利用伪造的Kling AI社交媒体页面及广告,诱导用户下载恶意软件。Kling AI是快手科技2024年6月推出的AI生成图像与视频平台,截至2025年4月用户超2200万。攻击者仿冒官网(如klingaimedia[.]com)设置钓鱼网站,宣称支持浏览器端生成多媒体内容,实则提供藏匿恶意代码的ZIP压缩包。 恶意文件采用双重扩展名(如.jpg.exe)及韩语填充符(0xE3 0x85 0xA4)伪装。压缩包内嵌加载器程序,可植入远程访问木马PureHVNC,并窃取浏览器凭证、会话令牌等数据。该加载器具备反分析能力: 监测Wireshark、OllyDbg等安全工具进程 修改注册表实现持久化驻留 通过注入CasPol.exe等系统进程规避检测 第二阶段载荷PureHVNC RAT使用.NET Reactor混淆,连接C2服务器185.149.232[.]197,具备窃取Chromium浏览器加密货币钱包插件数据、捕捉含特定关键词(银行/钱包名称)窗口截屏等功能。 Check Point已发现至少70个仿冒Kling AI的推广帖,部分广告显示攻击者可能来自越南。这种利用Facebook广告分发窃密软件的手法,与越南黑客组织近年活动模式高度吻合——例如2025年4月Morphisec曾曝光越南团伙通过虚假AI工具传播Noodlophile窃密程序。 《华尔街日报》指出,Meta旗下Facebook和Instagram正面临“诈骗泛滥”,虚假促销、投资骗局及赠品欺诈内容多源自斯里兰卡、越南及菲律宾。另据Rest of World调查,东南亚人口贩卖集团通过Telegram和Facebook发布虚假招聘广告,诱骗印尼青年至诈骗园区从事跨国投资欺诈。 Check Point警告,此类攻击结合社会工程与高阶恶意软件技术,标志着社交媒体定向攻击趋向精准化、复杂化。安全团队建议用户警惕AI工具类广告,下载前验证域名真实性,并启用实时文件扫描防护。       消息来源: thehackernews; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文

生成式 AI 安全风险加剧,驱动企业加大安全投入

HackerNews 编译,转载请注明出处: Thales《2025年数据威胁报告》显示,面对生成式AI(GenAI)带来的安全风险,73%的企业正在通过新增预算或重新分配资源的方式采购AI专用安全工具。其中,超三分之二的企业选择云服务商提供的解决方案,60%依赖传统安全厂商,约半数尝试新兴初创公司的产品。AI安全已成为企业第二大安全投入重点,仅次于云安全。 近70%的IT与安全从业者认为,快速迭代的生成式AI生态系统(涵盖新型基础设施、SaaS服务与自主代理)是采用该技术的首要安全顾虑。此外,64%担忧数据完整性,57%质疑结果可信度。尽管存在风险,仍有三分之一企业处于GenAI技术的”集成”或”转型”阶段。 报告指出,45%的受访企业曾遭遇数据泄露,较2024年的49%略有下降。自2021年(56%)以来,受泄密影响的企业比例呈逐步下降趋势。过去12个月内发生泄露的企业占比为14%,与上年持平。值得注意的是,未通过合规审计的企业中有78%曾遭遇数据泄露,而通过审计的企业该比例仅为21%。恶意软件、钓鱼攻击与勒索软件仍是年度三大主要攻击类型。 近60%的企业采用生物识别技术,47%部署无密码认证(如通行密钥),这类技术能有效防范钓鱼攻击与凭证填充等账户劫持行为。研究覆盖全球20个国家、15个行业的3000余名IT与安全专家。 451 Research首席分析师Eric Hanselman评论称:“生成式AI的快速演进迫使企业加速布局,但往往以牺牲谨慎为代价。许多企业在尚未完全理解应用架构的情况下仓促部署,加之集成GenAI能力的SaaS工具激增,多重因素叠加放大了复杂性与风险。”       消息来源: infosecurity-magazine; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文