黑客借 AI 深度伪造技术冒充美国官员
HackerNews 编译,转载请注明出处: 恶意攻击者利用AI技术伪造美国高级官员身份,通过短信和语音钓鱼(分别称为smishing和vishing)实施诈骗。根据美国联邦调查局(FBI)5月15日发布的警报,自2025年4月以来,这些深度伪造骗局持续针对美国现任或前任联邦/州政府高级官员及其联系人。 攻击者通过发送文本短信和AI生成的语音信息,诱使受害者点击恶意链接(通常伪装成要求切换至其他通讯平台),试图非法访问官员的个人或工作账户。成功入侵后,攻击者会利用获取的可信联系人信息,继续针对其他政府官员及其关联人士实施攻击,同时可能冒充可信联系人套取敏感信息或财务资源。 FBI防范AI钓鱼攻击指南 为帮助公众应对AI驱动的社交工程攻击,FBI建议采取以下防护措施: 通过反向查询号码并通过独立渠道验证身份,确认联系人的真实性 仔细检查通信中使用的邮箱地址、电话号码、URL链接和拼写细节(注意细微差异) 警惕图像/视频中的瑕疵,识别AI生成内容特征 切勿向网络或电话结识者透露敏感信息或联系方式 避免向未经验证身份者转账或转移资产 在确认发送者身份前,不要点击邮件/短信中的链接 谨慎下载附件或应用程序 启用双因素认证(2FA),绝不向他人分享验证码 与家人约定暗语或密语用于身份验证 FBI特别指出,攻击者通过精准模仿官员常用通讯方式(如Signal、Telegram等加密平台),利用“紧急事务”、“政策调整”等话术提升欺骗性。近期案例显示,部分钓鱼链接会诱导受害者输入双因素验证码,直接绕过账户保护机制。安全专家建议政府工作人员定期更新隐私设置,限制社交媒体公开信息,并启用高级账号监控服务。 消息来源: infosecurity-magazine; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文
研究机构警示:人工智能重塑网络犯罪模式
HackerNews 编译,转载请注明出处: 网络安全专家担忧人工智能(AI)代理将很快实施大规模复杂且难以检测的网络攻击。2022年ChatGPT的发布已通过自动化钓鱼、深度伪造和恶意软件开发改变了网络犯罪格局。网络安全公司Malwarebytes最新《ThreatDown报告》警告称,自主AI攻击者的崛起迫在眉睫,网络犯罪即将迎来根本性变革。 “网络犯罪正在经历转型。”Malwarebytes创始人兼CEO马尔钦·克列钦斯基表示,“我们不仅看到攻击数量的上升,还看到了几年前根本无法想象的全新欺骗形式和自动化手段。”报告指出,AI使网络犯罪分子能轻松研究漏洞、编写钓鱼邮件、生成代码,并通过声音克隆和形象伪造开发新型社会工程攻击。 典型案例与数据 2024年1月:某全球工程公司财务人员被完全由AI生成的深度伪造高管视频会议欺骗,向犯罪分子转账2500万美元 2023年:ChatGPT发布后,SlashNext研究人员观察到恶意钓鱼信息量激增1265% 2024年:The Transparency Company统计至少230万条产品评论由AI部分或全部生成 预计至2027年:Deloitte金融服务中心预测AI邮件欺诈损失将达115亿美元 虚假信息渗透:2024年“Pravda”虚假信息网络发布360万篇文章,成功将克里姆林宫宣传内容植入主流生成式AI工具 美国财政部FinCEN警示:金融机构遭遇AI生成虚假身份证明文件攻击激增 报告警告称,随着网络犯罪分子更熟练运用AI代理,最严峻的威胁尚未到来。“AI代理必然被用于扩展需要大量人力的攻击规模与速度——包括最具破坏性的‘大型猎物’勒索软件攻击。”自主AI将使黑客部署“恶意代理集群实现攻击规模指数级扩张”,并保持全天候运作。研究人员已成功演示AI代理如何用于攻击性网络安全:2023年开发的完全自主网络安全代理ReaperAI可在最少人工监督下执行攻击行动;另一款模拟勒索软件组织的AutoAttacker证明偶发攻击可转化为高速常规操作。谷歌的Big Sleep则成为首个自主发现真实世界零日漏洞的AI系统。 Malwarebytes研究人员认为,应对AI网络犯罪需采取三大措施:缩减攻击面、持续监控系统、即时响应警报。报告特别强调:“防御者必须建立超越AI攻击速度的实时威胁检测与响应机制,将自动化防御深度整合至安全运营中心(SOC)工作流。” 消息来源: cybernews; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文
noyb 指控 Meta 擅自使用欧盟用户数据训练 AI
HackerNews 编译,转载请注明出处: 奥地利隐私非营利组织noyb(none of your business,意为“不关你的事”)已向Meta爱尔兰总部发出停止侵权函,警告若该公司坚持在未获得用户明确选择加入(opt-in)授权的情况下,继续使用用户数据训练其人工智能模型,将面临集体诉讼。 此举发生在该社交媒体巨头宣布新计划数周后。Meta曾于2024年6月在爱尔兰数据监管机构关切下暂停相关计划,现宣布将于2025年5月27日起重新启动,计划使用欧盟成年用户在Facebook和Instagram平台公开分享的数据训练其AI模型。 “Meta未寻求用户主动授权,而是妄称拥有‘合法利益’来攫取所有用户数据。”noyb在声明中指出,“由于采用‘选择退出’而非‘选择加入’机制进行AI训练,Meta可能面临重大法律风险。” 该维权组织强调,Meta的AI训练计划违反欧盟《通用数据保护条例》(GDPR)。除不当主张“合法利益”外,Meta还刻意限制用户在训练开始前行使拒绝权。 noyb特别指出,即便仅有10%的Meta用户明确同意数据使用,其数据量也足以覆盖欧盟各语言的学习需求。值得关注的是,Meta此前声称收集这些数据是为准确反映欧洲地区多元化的语言、地理和文化特征。 “Meta大费周章只为推行选择退出机制而非选择加入。”noyb创始人马克斯·施雷姆斯表示,“他们试图通过虚构的‘合法利益’来合理化数据掠夺行为,这既不合法也非必要。其他AI供应商无需社交网络数据就能开发出更优秀的模型,Meta所谓‘盗取数据是AI训练必需’的论调荒谬可笑。” 该隐私组织同时批评Meta将合规责任转嫁给用户,并指出欧盟各国数据监管机构对“未经同意的AI训练”合法性普遍保持沉默。“Meta显然在监管缺位下强行推进计划,这无异于在欧盟境内再次进行高风险法律赌博,严重践踏用户权利。”声明补充道。 针对路透社的质询,Meta否认所有指控,称noyb的指控在事实和法律层面均属错误,强调已为欧盟用户提供“清晰”的反对数据用于AI训练的选项。 这并非Meta首次因依赖GDPR“合法利益”条款规避用户明示授权而遭质疑。2023年8月,该公司曾迫于压力,同意将欧洲用户定向广告的数据处理法律依据从“合法利益”改为“用户授权”。 此次争议爆发之际,比利时上诉法院最新裁定由谷歌、微软、亚马逊等科技巨头采用的“透明与同意框架”(TCF)违反GDPR多项原则,宣布该个性化广告数据处理机制在欧洲全境非法。这项裁决或对Meta当前主张的合法性构成进一步挑战。 消息来源: thehackernews; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文
人工智能时代的深度伪造防御
HackerNews 编译,转载请注明出处: 网络安全格局因生成式AI的出现发生根本性转变。攻击者现在利用大语言模型(LLM)大规模伪造可信身份并自动化实施社会工程攻击。 最新威胁情报报告强调AI驱动攻击的复杂化趋势: 语音钓鱼激增:根据CrowdStrike《2025全球威胁报告》,2024年下半年语音钓鱼(vishing)攻击量较上半年激增442%,主因是AI生成的钓鱼语音和身份伪造技术。 社会工程主导攻击:Verizon《2025数据泄露调查报告》指出,钓鱼攻击和虚假借口仍是数据泄露的主要成因。 朝鲜深度伪造行动:朝鲜黑客组织被曝光使用深度伪造技术创建合成身份参与远程职位面试,试图渗透目标组织。 三大趋势推动AI冒充成为新型威胁载体: AI降低欺骗成本:借助开源音视频工具,攻击者仅需数分钟素材即可伪造任意身份。 虚拟协作暴露信任漏洞:Zoom、Teams和Slack等工具默认屏幕后用户的身份真实性,攻击者正利用这一假设。 概率式防御体系失效:现有深度伪造检测工具依赖面部标记分析进行概率判断,无法应对高精度伪造攻击。端点防护工具和用户培训虽有一定作用,但无法实时解答关键问题:正在对话的对象是否可信? 传统检测技术存在根本缺陷:当前防御体系聚焦于事后检测,例如训练用户识别可疑行为或用AI分析人员真伪。但随着深度伪造技术快速进化,基于概率的工具已无法对抗AI生成的欺骗。 构建可验证的信任体系实现主动防御: 身份验证:仅允许持有加密凭证的授权用户加入敏感会议或聊天,取代传统密码/验证码机制。 设备完整性检查:若用户设备被感染、越狱或不合规,即使身份已验证也应阻止其接入会议,直至风险修复。 可视化信任标识:所有会议参与者需看到他人身份与设备安全的可验证证明,从而消除终端用户的判断负担。 Beyond Identity的RealityCheck方案专为填补协作工具信任缺口设计,通过以下功能实现实时防护: 身份核验:为每位参与者生成基于加密设备认证的可视化身份徽章。 动态风险检测:实时验证设备合规性,包括非托管设备。 跨平台支持:目前兼容Zoom和Microsoft Teams(视频与聊天功能)。 该方案通过构建无法被伪造的信任条件,在董事会会议、金融交易等高危场景中彻底阻断AI深度伪造攻击的渗透路径。 消息来源:thehackernews; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文
虚假 AI 视频生成器暗藏新型 Noodlophile 窃密木马
HackerNews 编译,转载请注明出处: 网络安全研究人员发现,新型信息窃取软件“Noodlophile窃密者”正通过伪造的AI视频生成工具传播。攻击者在Facebook高流量群组投放名为“造梦机器”(Dream Machine)的广告,宣称可通过上传文件生成AI视频,实则诱导用户下载恶意压缩包。 感染链分析显示,受害者下载的ZIP文件内藏名为“Video Dream MachineAI.mp4.exe”的可执行程序(实为CapCut视频编辑软件v445.0版本的重打包程序),利用Winauth工具伪造数字签名。当用户双击该文件时,系统会执行多阶段攻击流程: 启动批处理脚本:通过install.bat调用Windows系统工具certutil.exe,解码Base64加密的带密码RAR压缩包(伪装为PDF文档) 建立持久化:在注册表添加自启动项 载荷注入:根据目标环境选择注入方式——若检测到Avast杀毒软件,则通过PE空心化技术将恶意代码注入RegAsm.exe进程;否则直接使用Shellcode内存加载 窃密执行:运行从硬编码服务器获取的混淆Python脚本,最终在内存中激活Noodlophile窃密者 该恶意软件具备三重数据窃取能力: 浏览器凭证:盗取Chrome、Edge等浏览器的账号密码、会话Cookie及身份令牌 数字资产:扫描加密货币钱包文件(如metamask.txt、ledger.txt等)与私钥 远程控制:部分样本捆绑XWorm远控木马,实现主动渗透 窃取数据通过Telegram机器人实时回传至攻击者,形成隐蔽的C2通道。安全公司Morphisec指出,此恶意软件即服务(MaaS)由越南语系犯罪团伙运营,暗网论坛提供“Cookie+密码提取”订阅服务。防御建议包括:禁用Windows文件扩展名隐藏功能,下载文件前验证数字签名,并使用更新至最新病毒库的安全软件扫描。 消息来源: bleepingcomputer; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文
谷歌推出设备端AI反诈功能,覆盖Chrome与安卓系统
HackerNews 编译,转载请注明出处: 谷歌上周四宣布,将在Chrome浏览器、搜索引擎和安卓系统中推出全新人工智能反欺诈功能。该公司表示,其设备端大型语言模型Gemini Nano将首次被整合至桌面版Chrome 137的安全浏览系统,通过实时分析网站内容识别诈骗风险,即使面对从未出现过的诈骗手段也能提供保护。 “设备端处理方式可即时识别危险网站,其独特优势在于能解析网站复杂多变的特征,帮助我们更快适应新型诈骗手法,”谷歌在声明中指出。目前该技术已用于打击远程技术支持诈骗,这类诈骗常以虚假的电脑故障为借口骗取用户财务信息。 谷歌Chrome安全团队工程师解释称,系统通过大语言模型扫描网页中可能存在的诈骗信号,例如滥用键盘锁定API等可疑行为。检测到风险信号后,安全浏览系统会综合判断页面是否为欺诈网站。为平衡性能与安全,谷歌采用异步处理机制限制GPU使用量,并设置令牌配额防止资源过度消耗。 除当前针对技术支持诈骗的防护外,谷歌计划将检测范围扩展至包裹追踪和未缴通行费类诈骗。安卓版Chrome预计将在今年晚些时候获得该功能。同时,升级后的AI反诈系统日均拦截的欺诈性搜索结果数量已提升20倍,2024年成功将仿冒航空公司客服的诈骗页面减少80%,虚假签证/政府服务网站减少70%。 针对安卓用户,Chrome将新增设备端机器学习通知预警功能。当检测到恶意网站推送的诱导性通知(如要求下载可疑软件或泄露敏感信息),浏览器会显示网站名称、欺诈风险提示,并提供退订选项。该功能与谷歌今年3月在短信应用中推出的AI诈骗检测形成互补,延续了其设备端优先的安全策略。 值得关注的是,谷歌正为安卓16系统开发“高级防护”功能,默认关闭JavaScript和2G连接,并启用防盗锁、离线设备锁等安全设置。此前有报道称,该公司还在测试通话中检测银行APP诱导开启的新型反诈技术,进一步构建多层级防护体系。 消息来源: thehackernews; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文
Lattica 推出基于全同态加密的 AI 平台
HackerNews 编译,转载请注明出处: Lattica本周摆脱了隐形模式,推出了一个利用全同态加密(FHE)的平台,使AI模型能够处理加密数据。 全同态加密允许直接处理加密数据而无需先解密,这对于需要在不暴露敏感数据的情况下进行处理的应用场景至关重要。 Lattica平台可供AI供应商用于托管模型、管理访问和分配资源,终端用户则可通过该平台运行加密查询,因此数据永远不会暴露给AI供应商。 该解决方案采用“全同态加密抽象层(HEAL)”——一种基于云服务,旨在提升FHE性能并标准化其加速流程。 该组件充当FHE软件与硬件之间的桥梁,兼容CPU、GPU、TPU以及ASIC和FPGA芯片。 该公司表示,其平台特别适合金融、医疗和政府等对数据隐私和安全要求严格的领域,这些领域的数据顾虑可能限制AI技术的采用。 Lattica已获得由Konstantin Lomashuk旗下Cyber Fund领投的325万美元预种子轮融资。 Lattica创始人兼CEO Rotem Tsabary表示:“通过将硬件加速进展与软件优化相结合,我们不仅将FHE效率提升到商业可行水平,还解决了阻碍AI在敏感行业应用的关键数据困境。我们正在通过开发专为神经网络定制的解决方案,实现实用的全同态加密。” 消息来源: securityweek; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文
Meta 将使用欧盟公开用户数据训练 AI 模型
HackerNews 编译,转载请注明出处: Meta宣布将使用公开的欧盟用户数据来训练AI模型,恢复了去年因爱尔兰数据保护问题而暂停的计划。 Meta将开始使用欧盟成年人的公共数据来训练其AI模型,此前该计划因爱尔兰监管机构提出的数据保护问题于去年暂停。 2024年6月,这家社交媒体巨头宣布,应爱尔兰数据保护委员会(DPC)的要求,将推迟使用成年人在Facebook和Instagram上共享的公共内容对其大型语言模型(LLM)进行训练。 Meta对DPC的要求表示失望,公司指出这是“欧洲创新、AI开发竞争的倒退,将进一步延迟AI技术为欧洲民众带来的好处”。 “我们对爱尔兰数据保护委员会(DPC)作为欧洲数据保护机构(DPAs)牵头监管方提出的延迟训练要求感到失望,特别是我们已采纳监管反馈,且自3月起就持续向欧洲DPAs通报进展。”Meta在声明中表示,“这对欧洲创新、AI开发竞争是倒退之举,也将延后AI技术为欧洲民众带来的好处。” 该公司解释说,其人工智能,包括Llama LLM,已经在世界其他地区上市。Meta解释说,为了向其欧洲地区提供更好的服务,它需要就反映欧洲人民不同语言、地理和文化背景的相关信息对模型进行训练。出于这个原因,该公司最初计划使用其在欧盟的欧洲用户在其产品和服务上公开声明的内容来训练其大型语言模型。 Meta现在证实,它将恢复使用欧盟个人的公共数据训练其AI模型。 该公司发表的一篇帖子写道:“在欧盟,我们很快将开始训练我们的人工智能模型,了解人们在Meta上与人工智能的互动,以及成年人在Meta Products上共享的公共内容。”。“通过教授我们的生成式AI模型,更好地理解和反映他们的文化、语言和历史,这次培训将更好地支持欧洲数百万人和企业。” 该公司指出,欧盟用户可以选择反对将其公共数据用于AI训练的目的。从本周开始,欧盟用户将收到关于他们的数据被用于训练AI的通知,并可以随时选择反对。 Meta表示,他们不会使用人们与朋友和家人的私人信息来训练他们的生成AI模型。它还补充说,欧盟18岁以下人员账户中的公共数据不会用于训练目的。 “我们认为,我们有责任打造的 AI 不仅要让欧洲人能够使用,更要真正为他们而建。这就是为什么我们的生成式 AI 模型需要基于各种各样的数据进行训练,以便能够理解构成欧洲社区的那些令人惊叹的、丰富多样的细微差别和复杂性。”帖子总结道。“值得注意的是,我们正在进行的人工智能培训并不是Meta独有的,也不会是欧洲独有的。这就是我们自推出以来为其他地区训练生成式人工智能模型的方式。我们正在效仿包括谷歌和OpenAI在内的其他公司的榜样,这两家公司都已经使用欧洲用户的数据来训练他们的人工智能模型。我们很自豪我们的方法比许多行业同行更透明。” 消息来源:securityweek; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文
黑客利用 AI 生成音频假冒税务准备人员,欺骗国税局
HackerNews 编译,转载请注明出处: 今年的报税季,人工智能(AI)为一系列税务诈骗活动提供了强大助力,诈骗者利用深度伪造音频和其他技术手段拦截资金,并诱骗纳税人向他们发送财务文件。 网络犯罪分子一直以来都会利用报税季的前四个月进行诈骗,但多位网络安全专家最近指出,这些诈骗手段中出现了一个令人担忧的新变化:利用人工智能(AI)进行语音网络钓鱼攻击。 黑客利用AI生成的音频伪装成纳税人的税务准备人员、会计师或国税局工作人员,利用之前窃取的个人信息来增加诈骗的可信度。 Bugcrowd创始人Casey Ellis表示,生成式人工智能和深度伪造技术是“诈骗者的改变游戏规则的技术”。他说:“这些技术使攻击者能够扩大其运营规模,同时增加诈骗的可信度。例如,一个‘税务顾问’的深度伪造视频可以被用来诱骗受害者分享敏感信息,或者AI生成的电子邮件可以以惊人的准确性模仿国税局的官方沟通风格。” 他还表示,他们已经看到AI驱动的攻击急剧增加,这些攻击帮助网络犯罪分子制造“极具说服力的网络钓鱼电子邮件、语音电话甚至视频信息”。 Deepwatch首席信息安全官Chad Cragle和其他一些人也分别证实,今年报税季AI驱动的攻击有所增加,尤其是那些具有说服力的网络钓鱼电子邮件和深度伪造音频,这些音频被设计用来假冒值得信赖的税务官员。 Cragle补充说,攻击者正在复制声音以通过电话欺骗受害者,并主动提出帮助受害者创建国税局在线账户,诱使他们交出敏感的财务信息。 Keeper Security副总裁Patrick Tiquet指出,网络犯罪分子现在可以创建国税局工作人员、税务专业人士甚至家庭成员的逼真视频和音频模仿,诱骗个人透露像社保号码或税务凭证这样的信息。 Tiquet和Ellis表示,人们应该留意不一致之处,因为AI通常在细节方面存在困难。人们还应在交出信息之前验证身份,并拒绝任何听起来紧急的要求,无论是通过电话还是电子邮件。Ellis还补充说,一些反向图像和视频搜索工具也可以通知你内容是否是人工生成或被篡改过的。 短信诈骗、域名抢注和特朗普退税 除了AI语音诈骗外,防御者还继续看到一些经过改良的经典报税季网络盗窃手段。 Zimperium的Kern Smith表示,他看到移动优先攻击有所增加,攻击者伪装成国税局或税务服务机构发送短信,敦促收件人点击恶意链接或下载虚假应用程序。 Smith表示,这些诈骗活动旨在窃取登录凭证、社保号码和其他敏感财务信息。 专家们还强调了各种钓鱼网站和假冒平台,这些平台利用人们搜索“特朗普退税”等术语,或者寻找像H&R Block这样的知名税务公司。 Cragle表示,假冒网站利用搜索引擎优化(SEO)中毒技术,篡改搜索引擎排名,使其看起来合法并吸引受害者,而Ellis补充说,网络犯罪分子还在利用税务软件或第三方集成中的未修补漏洞。 微软上周发布了一篇长篇博客,强调了最近通过电子邮件传播恶意软件的钓鱼活动,这些电子邮件的主题行写着“通知:国税局发现您的纳税申报存在问题”或“重要行动要求:国税局审计”。 许多电子邮件都带有国税局相关文件名的PDF附件,目标是客户以及注册会计师和会计师。 微软表示:“2025年2月12日至28日,以税务为主题的钓鱼电子邮件被发送到超过2300个组织,这些组织大多位于美国的工程、信息技术和咨询行业,这些电子邮件虽然正文为空,但带有链接到恶意软件的PDF附件,附件中包含二维码。” 消息来源:therecord.media; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文
AkiraBot 利用 OpenAI 生成的垃圾信息攻击 42 万个网站,绕过 CAPTCHA 验证
HackerNews 编译,转载请注明出处: 网络安全研究人员披露了一个名为 AkiraBot 的人工智能(AI)驱动平台的细节,该平台用于向网站聊天框、评论区和联系表单发送垃圾信息,以推广可疑的搜索引擎优化(SEO)服务,如 Akira 和 ServicewrapGO。 “自 2024 年 9 月以来,AkiraBot 已针对超过 40 万个网站,并成功向至少 8 万个网站发送了垃圾信息,”SentinelOne 研究人员 Alex Delamotte 和 Jim Walter 在一份与《黑客新闻》分享的报告中表示。“该机器人利用 OpenAI 生成基于网站用途的定制化推广信息。” 该活动的目标包括中小型企业的联系表单和聊天小部件,其框架使用 OpenAI 的大型语言模型(LLMs)生成垃圾内容。这个基于 Python 的“广泛”工具的独特之处在于,它能够生成内容以绕过垃圾信息过滤器。 据信,这个批量消息工具自 2024 年 9 月起开始使用,最初名为“Shopbot”,似乎是指使用 Shopify 的网站。 随着时间的推移,AkiraBot 扩大了其目标范围,包括使用 GoDaddy、Wix 和 Squarespace 开发的网站,以及那些使用 Reamaze 构建的通用联系表单和实时聊天小部件的网站。 该操作的核心——生成垃圾内容——是通过利用 OpenAI API 实现的。该工具还提供了一个图形用户界面(GUI),用于选择要攻击的网站列表,并定制可以同时攻击的网站数量。 “通过处理包含机器人应发送消息类型的一般大纲的模板,AkiraBot 为目标网站创建定制的垃圾信息,”研究人员表示。“该模板通过发送到 OpenAI 聊天 API 的提示进行处理,以根据网站内容生成定制化的推广信息。” OpenAI 生成的垃圾信息 对源代码的分析显示,OpenAI 客户端使用了 gpt-4o-mini 模型,并被赋予了“生成营销信息的助手”角色。 该服务的另一个显著特点是,它能够绕过 CAPTCHA 障碍,大规模垃圾攻击网站,并通过依赖通常提供给广告商的代理服务来规避基于网络的检测。目标 CAPTCHA 服务包括 hCAPTCHA、reCAPTCHA 和 Cloudflare Turnstile。 为了实现这一点,该机器人的网络流量被设计为模仿合法最终用户,并利用 SmartProxy 提供的不同代理主机来掩盖流量来源。 AkiraBot 还被配置为将其活动记录在一个名为“submissions.csv”的文件中,该文件记录了成功和失败的垃圾信息尝试。对这些文件的检查显示,到目前为止,已有超过 42 万个独特域名被攻击。此外,与 CAPTCHA 绕过和代理轮换相关的成功指标被收集并通过 API 发送到 Telegram 频道。 针对这些发现,OpenAI 已禁用了威胁行为者使用的 API 密钥和其他相关资产。 “作者或作者们为此机器人绕过常用 CAPTCHA 技术的能力投入了大量努力,这表明运营商有动机违反服务提供商的保护措施,”研究人员表示。“AkiraBot 使用大型语言模型生成垃圾信息内容,展示了人工智能对防御网站垃圾攻击的新兴挑战。” 这一发展与一个名为 Xanthorox AI 的网络犯罪工具的出现相吻合,该工具被宣传为一个一站式聊天机器人,用于处理代码生成、恶意软件开发、漏洞利用和数据分析。该平台还支持通过实时语音通话和异步语音消息进行语音交互。 “Xanthorox AI 由五个不同的模型提供支持,每个模型都针对不同的操作任务进行了优化,”SlashNext 表示。“这些模型完全运行在卖家控制的本地服务器上,而不是部署在公共云基础设施上或通过暴露的 API。这种以本地为主的模式大幅降低了被发现、关闭或追踪的可能性。” 消息来源:The Hacker News; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文