标签: OpenAI

黑客借虚假 AI 工具安装包传播恶意软件

HackerNews 编译,转载请注明出处: 网络安全公司Cisco Talos披露,黑客正利用OpenAI ChatGPT和InVideo AI等热门人工智能工具的虚假安装程序作为诱饵,传播CyberLock、Lucky_Gh0$t勒索软件及新型恶意软件Numero等威胁。 “基于PowerShell开发的CyberLock勒索软件主要针对受害者系统中的特定文件进行加密,”研究员切坦·拉古普拉萨德在报告中指出,“Lucky_Gh0$t则是Yashma勒索软件的变种,属于Chaos勒索软件家族的第六代迭代,仅对勒索程序二进制文件进行了微调。”而Numero属于破坏性恶意软件,通过篡改Windows操作系统图形界面组件使设备瘫痪。 这些正版AI工具在B2B销售和营销领域广受欢迎,表明相关行业的个人与机构成为攻击者的主要目标。虚假网站“novaleadsai[.]com”疑似冒充正规潜在客户开发平台NovaLeads,可能通过SEO投毒技术提升搜索引擎排名。该网站以“首年免费使用,后续月费95美元”为诱饵,诱使用户下载内含恶意.NET可执行文件(“NovaLeadsAI.exe”)的压缩包。该文件实为加载器,用于部署基于PowerShell的CyberLock勒索软件。 该勒索软件具备权限提升功能,若未获管理员权限将自我提权执行,随后加密“C:”、“D:”、“E:”分区中特定扩展名的文件,并投放勒索信索要5万美元门罗币赎金。值得注意的是,攻击者在勒索信中宣称赎金将用于援助巴勒斯坦、乌克兰、非洲、亚洲等“长期遭受不公”地区的妇女儿童。“与无辜生命尤其是儿童的牺牲相比,这笔金额微不足道。遗憾的是,我们认定多数人不会主动施以援手,迫使我们出此下策。”勒索信写道。最后阶段,攻击者利用系统原生二进制工具“cipher.exe”配合“/w”参数清除磁盘可用空间,阻碍取证恢复。 另一攻击者则通过伪造ChatGPT高级版安装程序传播Lucky_Gh0$t勒索软件。恶意自解压安装包内含仿冒微软程序“dwm.exe”的勒索程序“dwn.exe”,同时捆绑微软官方开源AI工具。一旦运行安装程序,脚本即触发勒索程序。这款Yashma变种在加密1.2GB以下文件前会删除卷影副本及备份。勒索信包含专属解密ID,要求受害者通过Session通讯软件联系支付赎金获取解密工具。 此外,黑客还利用AI视频创作平台InVideo AI的伪造安装程序传播破坏性恶意软件Numero。该安装程序作为投放器包含三个组件:Windows批处理文件、VB脚本及Numero可执行程序。启动后,批处理文件通过无限循环调用VB脚本,每60秒中断并重启Numero进程。这款C++编写的32位程序会检测分析工具和调试器进程,随后将桌面窗口标题、按钮及内容覆盖为数字串“1234567890”。 此次披露恰逢谷歌旗下Mandiant曝光利用Facebook和LinkedIn恶意广告的欺诈活动。该活动将用户诱导至冒充Luma AI、Canva Dream Lab、Kling AI等正规AI视频工具的虚假网站。据Morphisec和Check Point本月初揭露,该活动被归因于越南关联组织UNC6032,至少自2024年中持续活跃。 攻击流程中,用户访问虚假网站后被要求输入提示词生成视频。无论输入内容如何,网站都会触发下载基于Rust的投放器STARKVEIL。该程序投放三款信息窃取类模块化恶意软件:使用TOR隧道获取.NET有效载荷的下载器GRIMPULL;收集系统信息及密码管理器/加密货币钱包数据的.NET后门FROSTRIFT;具备键盘记录、远程命令执行等功能的.NET远控木马XWorm。STARKVEIL还通过Python投放器COILHATCH,借助DLL侧加载技术启动上述载荷。 “这些AI工具已不仅针对设计师,任何人都可能被看似无害的广告诱骗,”Mandiant警告道,“尝试最新AI工具的诱惑可能让任何人沦为受害者。”       消息来源:thehackernews; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文

AkiraBot 利用 OpenAI 生成的垃圾信息攻击 42 万个网站,绕过 CAPTCHA 验证

HackerNews 编译,转载请注明出处: 网络安全研究人员披露了一个名为 AkiraBot 的人工智能(AI)驱动平台的细节,该平台用于向网站聊天框、评论区和联系表单发送垃圾信息,以推广可疑的搜索引擎优化(SEO)服务,如 Akira 和 ServicewrapGO。 “自 2024 年 9 月以来,AkiraBot 已针对超过 40 万个网站,并成功向至少 8 万个网站发送了垃圾信息,”SentinelOne 研究人员 Alex Delamotte 和 Jim Walter 在一份与《黑客新闻》分享的报告中表示。“该机器人利用 OpenAI 生成基于网站用途的定制化推广信息。” 该活动的目标包括中小型企业的联系表单和聊天小部件,其框架使用 OpenAI 的大型语言模型(LLMs)生成垃圾内容。这个基于 Python 的“广泛”工具的独特之处在于,它能够生成内容以绕过垃圾信息过滤器。 据信,这个批量消息工具自 2024 年 9 月起开始使用,最初名为“Shopbot”,似乎是指使用 Shopify 的网站。 随着时间的推移,AkiraBot 扩大了其目标范围,包括使用 GoDaddy、Wix 和 Squarespace 开发的网站,以及那些使用 Reamaze 构建的通用联系表单和实时聊天小部件的网站。 该操作的核心——生成垃圾内容——是通过利用 OpenAI API 实现的。该工具还提供了一个图形用户界面(GUI),用于选择要攻击的网站列表,并定制可以同时攻击的网站数量。 “通过处理包含机器人应发送消息类型的一般大纲的模板,AkiraBot 为目标网站创建定制的垃圾信息,”研究人员表示。“该模板通过发送到 OpenAI 聊天 API 的提示进行处理,以根据网站内容生成定制化的推广信息。” OpenAI 生成的垃圾信息 对源代码的分析显示,OpenAI 客户端使用了 gpt-4o-mini 模型,并被赋予了“生成营销信息的助手”角色。 该服务的另一个显著特点是,它能够绕过 CAPTCHA 障碍,大规模垃圾攻击网站,并通过依赖通常提供给广告商的代理服务来规避基于网络的检测。目标 CAPTCHA 服务包括 hCAPTCHA、reCAPTCHA 和 Cloudflare Turnstile。 为了实现这一点,该机器人的网络流量被设计为模仿合法最终用户,并利用 SmartProxy 提供的不同代理主机来掩盖流量来源。 AkiraBot 还被配置为将其活动记录在一个名为“submissions.csv”的文件中,该文件记录了成功和失败的垃圾信息尝试。对这些文件的检查显示,到目前为止,已有超过 42 万个独特域名被攻击。此外,与 CAPTCHA 绕过和代理轮换相关的成功指标被收集并通过 API 发送到 Telegram 频道。 针对这些发现,OpenAI 已禁用了威胁行为者使用的 API 密钥和其他相关资产。 “作者或作者们为此机器人绕过常用 CAPTCHA 技术的能力投入了大量努力,这表明运营商有动机违反服务提供商的保护措施,”研究人员表示。“AkiraBot 使用大型语言模型生成垃圾信息内容,展示了人工智能对防御网站垃圾攻击的新兴挑战。” 这一发展与一个名为 Xanthorox AI 的网络犯罪工具的出现相吻合,该工具被宣传为一个一站式聊天机器人,用于处理代码生成、恶意软件开发、漏洞利用和数据分析。该平台还支持通过实时语音通话和异步语音消息进行语音交互。 “Xanthorox AI 由五个不同的模型提供支持,每个模型都针对不同的操作任务进行了优化,”SlashNext 表示。“这些模型完全运行在卖家控制的本地服务器上,而不是部署在公共云基础设施上或通过暴露的 API。这种以本地为主的模式大幅降低了被发现、关闭或追踪的可能性。”   消息来源:The Hacker News;  本文由 HackerNews.cc 翻译整理,封面来源于网络;   转载请注明“转自 HackerNews.cc”并附上原文

OpenAI 将关键漏洞赏金奖励提高至 10 万美元

HackerNews 编译,转载请注明出处: 人工智能公司OpenAI宣布,将“卓越且独特”的关键安全漏洞的最高漏洞赏金奖励从2万美元提高到10万美元。OpenAI表示,其服务和平台每周被全球4亿用户使用,涵盖企业、机构和政府部门。 OpenAI在声明中表示:“我们将卓越且独特关键漏洞的最高赏金提高到10万美元(此前为2万美元),这一调整体现了我们对有意义、高影响力安全研究的奖励承诺,这些研究有助于我们保护用户并维护系统信任。” 作为扩展赏金计划和奖励高影响力安全研究的一部分,OpenAI还将在“限时促销”期间为特定类别的合格报告提供额外的赏金奖励。例如,截至4月30日,OpenAI将为报告其基础设施和产品中不安全直接对象引用(IDOR)漏洞的安全研究人员提供双倍奖励,最高可达1.3万美元。 OpenAI于2023年4月启动了漏洞赏金计划,通过Bugcrowd众包安全平台为报告产品线漏洞、缺陷或安全问题的研究人员提供最高2万美元的奖励。该公司表示,模型安全问题不在该计划范围内,ChatGPT用户利用的越狱和安全绕过漏洞也不包括在内。 OpenAI在披露ChatGPT支付数据泄露事件一个月后推出了漏洞赏金计划,该事件是由于其平台的Redis客户端开源库中的一个漏洞导致的。   消息来源:Bleeping Computer 本文由 HackerNews.cc 翻译整理,封面来源于网络;   转载请注明“转自 HackerNews.cc”并附上原文

ChatGPT 和 Sora 下线:OpenAI 在全球中断中争先恐后地恢复服务

在一场突如其来的意外事件中,风靡全球的 OpenAI 人工智能聊天机器人 ChatGPT 正在经历一场全球性的重大故障。这次中断始于北京时间 2024 年 12 月 11 日下午 3:17 左右,同时也影响了 OpenAI 的其他服务,包括新推出的文本到视频 AI 模型 Sora 和公司的 API。 用户在尝试访问 ChatGPT 时收到了一条消息:“ChatGPT 目前不可用”,随后确认 OpenAI 意识到了这个问题,并正在积极修复。这次故障给无数将 ChatGPT 整合到日常工作中的个人和企业的工作流程带来了影响。 故障原因尚不清楚。虽然 OpenAI 没有发布任何有关根本原因的官方声明,但各种猜测层出不穷。鉴于 ChatGPT 庞大的用户群(每周活跃用户超过 2 亿),它是网络攻击的首要目标。今年早些时候,一个名为 “匿名苏丹”(Anonymous Sudan)的组织声称对一次 DDoS 攻击负责,这次攻击与之前的 ChatGPT 故障同时发生。目前的中断是恶意活动还是技术故障造成的,还有待观察。 OpenAI 向用户保证,他们正在努力恢复服务。与此同时,全球数百万人仍在等待,这凸显了我们对这些强大人工智能工具日益增长的依赖性。我们将继续关注事态发展,并随时提供最新消息。     转自安全客,原文链接:https://www.anquanke.com/post/id/302661 封面来源于网络,如有侵权请联系删除

OpenAI 阻止了 20 个使用人工智能进行网络犯罪和虚假信息传播的全球恶意活动

本周三,OpenAI方表示,自今年年初以来,它已经成功干扰了全球20多个,试图将其平台用于恶意运营和欺诈的网络活动。 它们主要采取了:调试恶意软件,为网站撰写文章,为社交媒体帐户生成传记,以及为X上的假帐户创建人工智能生成的个人资料图片的举措。 这家人工智能(AI)公司表示:“威胁者不断进化并持续使用我们的模型,但我们并未发觉其创建实质性新恶意软件或建立病毒受众的能力有真正意义上的突破。” 除此之外,OpenAI方还表示,它扰乱了在美国、卢旺达的选举以及较小程度上与印度和欧盟相关的社媒活动。这些网络都没有吸引到病毒式的参与或持续的受众。 这包括一家名为STOIC(也称为Zero Zeno)的以色列商业公司所做的努力,正如Meta和OpenAI今年5月初披露的那样,该公司在社交媒体上发表了关于印度选举的评论。 OpenAI强调的一些网络操作如下: SweetSpecter,疑似是以中国为基地的对手,利用OpenAI的服务进行LLM知情的侦察、漏洞研究、脚本支持、异常检测规避和开发。还观察到,它对OpenAI员工进行了失败的鱼叉式网络钓鱼的企图,以提供SugarGh0st RAT。 Cyber Av3ngers是隶属于伊朗伊斯兰革命卫队(IRGC)的团体,使用其模型对可编程逻辑控制器进行研究。 Storm-0817,来自伊朗的威胁者,使用其模型进行调试,能够收集包含敏感信息的Android恶意软件,通过Selenium抓取Instagram个人资料,并将LinkedIn个人资料翻译成波斯语。 该公司表示,在其他领域,它也采取了各种措施来阻止多个集群,包括代号为A2Z和Stop News的操作。这些帐户生成了英语和法语内容,以便日后在各类网站和社交媒体帐户上发布。 研究人员Ben Nimmo和Michael Flossman说:“[Stop News]在图像使用方面异常丰富。其许多网络文章和推文都附有DALL·E生成的图像。这些图像通常是卡通风格,以明亮的调色板或戏剧性的色调来吸引注意力。” 经OpenAI Bet Bot和Corrupt Comment识别发现,其网络使用API在X上与用户生成对话,并向他们发送赌博网站的链接,以及在X上制造评论。 近两个月前,OpenAI禁止了一组与伊朗Storm-2035秘密行动有关的账户,该行动利用ChatGPT生成内容,这些内容主要关注即将到来的美国总统大选。 Nimmo和Flossman写道:“威胁者对我们模型的使用主要在活动中期——即在他们获得了互联网接入、电子邮件地址和社交媒体帐户等基本工具之后,以及在他们通过一系列分销渠道在互联网上部署社交媒体帖子或恶意软件等‘成品’之前。” 在网络安全公司Sophos上周发布的一份报告中显示: 生成性人工智能可能会被滥用,通过微目标电子邮件传播量身定制的错误信息。 这意味着滥用人工智能模型来编造政治竞选网站、生成政治人物角色,以及根据竞选要点针对性发布电子邮件,从而实现了新的自动化水平,使大规模传播错误信息成为可能。 研究人员Ben Gelman和Adarsh Kyadige表示:“这意味着用户可以通过简易的配置生成任何内容,从良性的竞选材料到错误信息和恶意威胁不等。” 错误信息的影响会使受众与本不支持的候选人结盟,或与他们自认喜欢的候选人意见相左。     消息来源:The Hacker News,译者:XX;   本文由 HackerNews.cc 翻译整理,封面来源于网络;   转载请注明“转自 HackerNews.cc”并附上原文

微软和 OpenAI 将检查 AI 聊天记录,以寻找恶意账户

据国外媒体报道,大型科技公司及其附属的网络安全、人工智能产品很可能会推出类似的安全研究,尽管这会引起用户极度地隐私担忧。大型语言模型被要求提供情报机构信息,并用于帮助修复脚本错误和开发代码以侵入系统,这将很可能会成为常态。 由于科技巨头能够将其与伊朗、朝鲜和俄罗斯等其他主要国家支持的黑客团体联系起来。OpenAI和与其主要投资者微软之间将开展联合研究,结合微软庞大的威胁情报,对恶意账户进行检查与分析,并最终进行封禁。 某网络安全和隐私专家指出,这证明了,尽管大型科技和AI公司广泛推动将隐私标准内化到他们的产品中,但拥有AI产品的公司倾向于筛查聊天记录和用户互动中的滥用行为,最主要的理由是考虑网络和国家安全。 CyberSheath的首席执行官埃里克·努南说:“尽管微软和OpenAI的报告中未提及隐私方面的问题,但这很明显是客观情况,想要观察到恶意用户的活动就意味着有一定程度的监视或监控。” 微软威胁情报策略总监Sherrod DeGrippo则指出,微软和OpenAI采取行动对抗已知的恶意行为者——这些行为者是微软威胁情报持续跟踪的300多个威胁行为者中的一部分,包括160个国家支持的行为者,50个勒索软件团体,以及许多其他行为者。我们的重点是识别和阻止这些我们在威胁空间中活跃的已知恶意身份、特征和基础设施。 研究人员和官员在过去一年中警告说,像OpenAI的ChatGPT或微软的Copilot这样的面向消费者的AI聊天工具的出现,可能会帮助建立起来的国家支持的黑客增强他们的能力,或者使经验不足的网络犯罪分子能够自动化部署程序,从而关闭网站或从网络中窃取敏感信息。 安全专家经常强调,网络战中新兴的AI元素是双刃剑,它帮助防御者和攻击者一样多。但是这两家公司采取的传统方法最终只是浏览消息历史并关闭相关账户,类似于社交媒体巨头分析帖子中的仇恨内容并终止用户。 这种动态在未来的网络和AI研究中可能会继续,这意味着用户可能会期望科技公司有时会深入聊天历史,并将其与网络犯罪分子或国家相关的黑客集团联系起来。鉴于我们已经看到的AI用例示例,AI隐私担忧是完全有根据的,其中用于学习模型的数据泄露或不恰当地被发现,没有适当的防护措施来保护数据。 美国公民自由联盟的隐私和技术高级政策顾问科迪·文兹克表示,任何提供在线服务的大型公司经常会引发隐私担忧,尽管许多隐私法律承认公司在减轻欺诈或解决安全漏洞时的作用。问题在于科技公司关于如何使用收集的数据的透明度通常不清楚。例如检查AI聊天记录是否阻止了攻击者并为网络安全威胁创造了缓解措施,或者这类信息是否被用在其他地方? 大型科技公司及其附属的AI或网络安全产品可能会在未来发布类似的报告,这些报告涉及扫描聊天记录以检测黑客。尽管这可能不会导致全面监控,但像Mandiant这样的网络安全巨头——其母公司谷歌最近将其Bard AI聊天机器人重新品牌化——将有动力使用他们手头的每一个工具来保障网络安全。   转自Freebuf,原文链接:https://www.freebuf.com/news/391967.html 封面来源于网络,如有侵权请联系删除

OpenAI 曝新漏洞,允许新用户“无限试用”

通过该漏洞,用户可以免费获得无限的信用额度来测试不同的OpenAI项目,包括ChatGPT。 不久前,OpenAI 为了让用户尝试其他开放的人工智能项目,特意为新用户提供了免费的信用积分额度(约7美元)。随后网络安全公司Checkmarx表示,目前发现了一个漏洞,允许用户滥用试用,并在新账户上获得无限的信用积分额度。 研究人员表示:通过拦截和修改OpenAI的API请求,我们发现了这一漏洞。该漏洞能够使用同一个电话号码注册任意数量的账户,获得无限的免费积分额度。 为了注册试用,用户必须输入他们的电子邮件地址,点击发送到收件箱的激活链接,输入一个电话号码,然后输入短信验证码。电子邮件和电话号码都必须是唯一的,用户才能获得免费的积分额度。 然而,不法分子为了让同一账户获得更多的信用积分额度。他们对电话号码进行细微的改动,例如在国家/地区代码前面添加前缀。最终,他们通过使用同一电话号码的不同前缀的变化绕过了要求。 研究人员解释说:这一漏洞允许一个恶意的用户拥有多个账户,并获得更多的信用积分额度,而且用的是同一个电话号码。 但这对他们来说似乎还不够,因为他们想将信用积分值提高到一个更恐怖的数额。 然后,研究人员将开源工具REcollapse投入使用。这允许用户模糊输入和绕过验证等。 经过一些初步测试,观察到OpenAI API对一些模式进行了清理。在某些非ASCII(美国信息交换标准代码)字节上使用Unicode编码使我们能够绕过它并注册更多帐户。 目前该公司在收到通知后修复了该漏洞。     转自 Freebuf,原文链接:https://www.freebuf.com/news/365537.html 封面来源于网络,如有侵权请联系删除