五角大楼因 AI 军事应用争议将 Anthropic 列为供应链风险
HackerNews 编译,转载请注明出处: 美国国防部长皮特・赫格塞思指示五角大楼将 AI 初创公司 Anthropic 列为 “供应链风险” 后,Anthropic 于周五作出强硬回应。 该公司表示:“此次行动源于数月谈判陷入僵局,我们要求对旗下 AI 模型 Claude 的合法使用增设两项例外:禁止用于美国民众大规模国内监控与完全自主武器”。 “无论战争部施加何种恐吓或惩罚,都不会改变我们在大规模国内监控与完全自主武器问题上的立场。” 美国总统唐纳德・特朗普在 Truth Social 发文称,已下令所有联邦机构在未来六个月内逐步停用 Anthropic 技术。 赫格塞思随后在 X 平台发文,要求所有与美军有业务往来的承包商、供应商及合作伙伴立即停止与 Anthropic 的一切商业活动。 赫格塞思写道:“结合总统关于联邦政府停用 Anthropic 技术的指令,我指示战争部将 Anthropic 列为国家安全供应链风险”。 该认定是五角大楼与 Anthropic 就美军使用其 AI 模型进行数周谈判后的结果。 该公司本周发文称,其合同不应支持大规模国内监控或自主武器研发,理由是该技术尚不具备安全可靠支撑此类应用的能力。 Anthropic 表示:“我们支持将 AI 用于合法的对外情报与反情报任务。但将这些系统用于大规模国内监控与民主价值观相悖,AI 驱动的大规模监控对我们的基本自由构成严重且新型的风险。” 该公司还批评美国战争部(DoW)的立场:战争部仅愿与允许 “一切合法使用” 技术、且移除所有安全防护的 AI 公司合作,以此打造 “AI 优先” 作战部队、强化国家安全。 五角大楼上月发布的备忘录称:“战争部不应存在多元化、公平性、包容性及社会意识形态,因此不得采用融入意识形态‘调校’、影响其对用户提示给出客观真实回应能力的 AI 模型。” “战争部还必须采用无使用政策限制、不会阻碍合法军事应用的模型。” 针对该认定,Anthropic 称其 “缺乏法律依据”,并表示这将为所有与政府谈判的美国公司开创危险先例。 该公司还指出,依据《美国法典》第 10 编第 3252 条,供应链风险认定仅适用于战争部合同中 Claude 的使用,不影响其为其他客户提供服务。 五角大楼首席发言人肖恩・帕内尔周四在 X 平台发文称,战争部无意开展大规模国内监控或部署无人参与的自主武器,并称相关说法为 “虚假信息”。 帕内尔称:“我们的要求很简单:允许五角大楼将 Anthropic 模型用于一切合法用途。” “这是简单且符合常理的要求,可避免 Anthropic 危及关键军事行动、让作战人员陷入风险。我们绝不允许任何公司左右我们的作战决策条款。” 这场持续僵局也导致科技行业出现两极分化。 谷歌与 OpenAI 数百名员工签署公开信,呼吁各自公司支持 Anthropic,与五角大楼就 Claude 等 AI 工具军事应用展开对抗。 xAI 首席执行官埃隆・马斯克周五站在特朗普政府一方,称 “Anthropic 仇视西方文明”。 Anthropic 与美国政府对峙之际,OpenAI 首席执行官萨姆・奥尔特曼称,OpenAI 已与美国国防部(DoD)达成协议,在其涉密网络部署模型。 OpenAI 还请求国防部将相关条款推广至所有 AI 公司。 奥尔特曼在 X 平台发文称:“AI 安全与普惠是我们使命的核心,两项最重要的安全原则是禁止国内大规模监控、武力使用需人类负责,包括自主武器系统。” “战争部认同这些原则,并将其纳入法律与政策,我们也将其写入协议。” 最新进展 Anthropic 与美国政府的公开争执使其 Claude 聊天机器人登顶苹果美国免费应用榜,即便 OpenAI 首席执行官萨姆・奥尔特曼称,该公司被列为供应链风险开创了 “极其可怕的先例”。 OpenAI 还披露了与五角大楼在涉密环境部署先进 AI 系统的协议细节,补充称 “我们认为该协议的安全防护比此前所有涉密 AI 部署协议都更严格,包括 Anthropic 的协议”。 该公司称,与战争部的合作遵循三条红线。 包括禁止将 OpenAI 技术用于大规模国内监控、指挥自主武器系统,以及社会信用体系等高风险自动化决策。 该公司声明称:“在协议中,我们通过更全面、多层级的方式守护这些红线。” “我们对安全技术栈拥有完全自主权,通过云端部署,经审查的 OpenAI 人员全程参与,且有严格的合同保护。” 奥尔特曼还表示,公司未来将考虑承诺公开红线的所有变更,附公开说明,并在生效前设置强制公示期。 OpenAI 国家安全合作主管卡特里娜・马利根在领英发文称,协议将部署限制在云端 API,公司对部署的模型与安全技术栈拥有控制权,AI 专家全程参与,若模型未拒绝应拒绝的查询或出现超出预期的操作风险,可随时调整。 马利根称:“自主系统需要边缘端推理。” “通过将部署限制在云端 API,我们可确保模型无法直接集成到武器系统、传感器或其他作战硬件中。” OpenAI 协议达成之际,《华尔街日报》报道称,尽管存在使用分歧,美国仍借助 Anthropic 的 AI 工具对伊朗发动大规模空袭。 消息来源:thehackernews.com; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文
乌克兰男子运营 AI 伪造证件网站认罪
HackerNews 编译,转载请注明出处: 一名乌克兰男子对运营 OnlyFake 网站认罪,该 AI 驱动网站为全球用户生成并出售超过 10000 份伪造身份证件照片。 27 岁的 Yurii Nazarenko(化名 John Wick、Tor Ford、Uriel Septimberus)承认,其订阅制平台 OnlyFake 使用人工智能生成高度逼真的伪造护照、驾照和社会保障卡。 美国检察官 Jay Clayton 周四表示:“我们依靠政府签发的身份证件打击恐怖主义、劫持、欺诈、洗钱及其他多种犯罪。OnlyFake 制作伪造身份证件及其他文件的行为使所有人面临风险,必须予以制止。” 起诉书显示,Nazarenko 的 OnlyFake 平台可让用户生成美国全部 50 个州的伪造数字驾照、美国护照及护照卡,以及约 56 个其他国家的身份证件数字版本。 用户还可使用个人信息定制伪造数字证件,选择随机信息,并选择最终成品为扫描件或桌面拍摄件样式。 图片 OnlyFake 网站(美国司法部) 纽约联邦检察官表示,这些伪造数字证件主要用于绕过银行和加密货币交易所的客户身份验证(KYC)要求,该要求是《爱国者法案》规定的反洗钱保障措施。 2024 年 5 月至 6 月,FBI 卧底特工从 OnlyFake 网站多次购买,获取了纽约州伪造驾照、美国护照及社会保障卡。 OnlyFake 仅接受加密货币支付,并提供最多 1000 份伪造证件的折扣批量套餐。2024 年 2 月 404 Media 报道该网站后,Nazarenko 通过多钱包中转加密货币支付并删除邮件,试图掩盖行踪。 FBI 助理局长 James C. Barnacle, Jr. 补充称:“Yurii Nazarenko 搭建网站制作超过 10000 份伪造身份证件,通过非法获利赚取数十万美元。该平台为客户提供了大量犯罪机会,包括绕过传统监管进行洗钱。” Nazarenko 于 2025 年 9 月从罗马尼亚被引渡回国,并同意没收 120 万美元。他目前面临最高 15 年监禁,定于 2026 年 6 月 26 日宣判。 消息来源:bleepingcomputer.com; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文
Cursor AI 编辑器允许仓库在设备上“自动运行”恶意代码
HackerNews 编译,转载请注明出处: Cursor 代码编辑器的一个漏洞使开发人员面临风险,一旦打开恶意仓库,就会自动执行其中的任务。 威胁行为者可以利用该漏洞,在无需开发人员执行任何命令的情况下,投放恶意软件、劫持开发环境或窃取凭证和 API 令牌。 Cursor 是一款基于 Visual Studio Code(VS Code)构建的人工智能驱动的集成开发环境(IDE),它深度集成了 GPT-4 和 Claude 等主流人工智能助手,用于软件开发任务。 它是最受欢迎的 AI 编程工具之一,目前有 100 万用户使用它每天生成超过 10 亿行代码。 提供非人类身份(NHI)管理和安全解决方案的 Oasis Security 公司的研究人员发现,该问题源于 Cursor 禁用了 VS Code 的工作区信任功能,该功能会阻止在未经开发人员明确同意的情况下自动执行任务。 在默认配置中,Cursor 在打开项目文件夹后会立即执行任务。威胁行为者可以利用这一点,在公开共享的仓库中添加一个恶意的 `.vscode/tasks.json` 文件。 Oasis Security 的研究人员表示:“当用户使用 Cursor 打开这样的仓库时,即使是简单地浏览,也可以在其环境中运行任意代码。” “这可能会泄露敏感凭证、修改文件,或者成为更广泛系统入侵的途径。” 然而,VS Code 并未受到影响,因为其默认配置不会自动运行该文件。 为了证明他们的发现,Oasis Security 发布了一个概念验证,该 `tasks.json` 文件在使用 Cursor 打开项目文件夹时执行一个 shell 命令,发送当前用户的名称。 根据 Oasis Security 的说法,利用该漏洞的威胁行为者可以在当前用户上下文中执行代码、窃取敏感数据(令牌、API 密钥、配置文件)、建立与命令与控制(C2)基础设施的连接,或者为供应链攻击创建感染向量。 Cursor 不会修复 在 Oasis Security 向 Cursor 团队告知默认禁用工作区信任功能的风险后,IDE 开发商表示,他们打算在代码编辑器中保留自动运行行为。 Cursor 解释说:“工作区信任会禁用用户希望在产品中使用的 AI 和其他功能。” 他们建议用户要么从 VS Code 中启用安全功能,要么在处理可能恶意的仓库时使用基本文本编辑器。 Cursor 团队还表示,他们将很快更新他们的安全指南,以解释他们对工作区信任的立场,并添加如何启用它的说明。 Oasis Security 建议用户使用不同的编辑器打开未知项目,在打开它们之前验证仓库,并避免在 shell 配置文件中全局导出敏感凭证。 研究人员还提供了在 Cursor 中启用工作区信任的设置。 消息来源:bleepingcomputer; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文
PromptLock:全球首款 AI 驱动的勒索软件
HackerNews 编译,转载请注明出处: 全球首款AI驱动勒索软件PromptLock已被发现。该恶意软件由ESET安全团队识别,目前仅处于概念验证阶段,但已具备传统勒索软件的全部功能框架。 PromptLock采用Golang编写,基于OpenAI的开放权重模型GPT-OSS:20b构建,可在无专有限制的环境下运行。ESET通过社交媒体公告解释:该威胁通过硬编码提示词动态生成Lua脚本,利用这些脚本执行文件系统扫描、文件检测、数据窃取及加密操作。 已观察到Windows和Linux双平台变种,其生成的Lua脚本具备跨平台兼容性。该勒索软件采用SPECK 128位算法实施文件加密。ESET特别指出:“恶意软件可能根据检测到的用户文件实施数据窃取、加密或潜在销毁。虽然文件销毁功能目前尚未激活。” 尽管AI驱动勒索软件的概念令人担忧,但PromptLock攻击需满足多项非常规条件:首先,它通过Ollama API在本地调用GPT-OSS:20b模型,要求受害者系统预先运行Ollama——这对普通计算机的资源配置而言极不现实。 ESET监测到PromptLock在局域网内发送请求,推测其可能连接本地Ollama服务,或通过内部代理转向外部服务器。安全研究人员强调,此类攻击成功的前提是受害者存在网络隔离缺陷、未部署提示词防护机制,且允许LLM相关端口协议的外联流量。 ESET明确表示该恶意软件目前仅为概念验证版本,尚未具备完整功能且未在野检测到实际攻击案例。“我们坚信有必要提升网络安全界对此类新兴风险的认知……AI驱动恶意软件标志着网络安全的新战场。公开这些发现旨在推动行业讨论、防御准备与深度研究。” 消息来源: securityweek; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文
AI 网站搭建平台 Lovable 遭黑客滥用,恶意活动激增
HackerNews 编译,转载请注明出处: 网络安全研究人员发现,黑客正日益滥用AI驱动的建站托管平台Lovable批量生成钓鱼页面、恶意软件分发门户及各类欺诈网站。这些通过该平台创建的恶意网站通过仿冒知名品牌,并设置验证码(CAPTCHA)等流量过滤系统阻挡机器人检测。 尽管Lovable已采取措施防范平台滥用,但随着AI建站工具激增,网络犯罪的技术门槛持续降低。 Lovable平台攻击活动分析 网络安全公司Proofpoint表示,自2025年2月以来“已观测到数万个Lovable生成的恶意链接”通过电子邮件传播。研究人员在最新报告中披露了四类滥用该平台的攻击活动: 1、Tycoon钓鱼即服务攻击 攻击邮件包含托管于Lovable的链接,用户通过验证码后会被重定向至伪造的Microsoft登录页面(仿冒Azure AD或Okta界面)。这些网站通过中间人攻击技术窃取用户凭证、多因素认证令牌及会话Cookie。攻击者曾向5,000家机构发送数十万封钓鱼邮件。 2、支付与数据窃取欺诈 冒充UPS物流的钓鱼邮件发送近3,500封,内嵌链接将受害者导向Lovable构建的钓鱼网站。这些页面要求输入个人信息、信用卡号及短信验证码,数据通过Telegram渠道外泄至攻击者。 3、加密货币窃取活动 近万名用户收到仿冒DeFi平台Aave的钓鱼邮件(经SendGrid发送)。受害者被诱导至Lovable生成的跳转链接和钓鱼页面,在连接加密钱包后遭遇资产窃取。 4、恶意软件分发行动 攻击邮件内含链接,将用户导向伪装成发票门户的Lovable应用页面。该页面分发托管于Dropbox的RAR压缩包,内含合法签名程序与恶意DLL文件,最终通过DLL侧加载技术释放远程访问木马zgRAT。 平台响应措施 Lovable于2025年7月推出新防护机制:实时检测系统可在用户输入指令时阻止恶意网站创建,同时每日自动扫描已发布项目并删除欺诈内容。该公司声明将在秋季推出账户级滥用检测功能,主动封禁违规账户。 第三方测试显示,目前仍可利用Lovable生成仿冒大型零售商的欺诈网站且未被拦截。针对现有反滥用措施有效性的质询,Lovable暂未回应。 消息来源: bleepingcomputer; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文
深度伪造 AI 交易骗局瞄准全球投资者
HackerNews 编译,转载请注明出处: 欺诈性“AI驱动”交易平台激增,利用深度伪造技术和虚假网络内容欺骗投资者。 根据Group-IB的最新调查,诈骗分子正在部署逼真的虚假视频、伪造评论和定向在线广告,诱骗受害者参与欺诈性投资计划。 这些活动的核心是AI生成的深度伪造视频,视频中出现了荷兰政客海尔特·维尔德斯(Geert Wilders)等公众人物,为虚构的交易平台背书。 这些视频模仿真实的新闻广播,结合合成语音克隆和刻意营造的紧迫感,制造出一种排他性氛围。受害者被引导至包含虚假专家访谈、篡改图表和溢美之词的伪造新闻文章,所有设计都是为了促使用户注册。 用户注册后,会被引导至要求小额初始保证金(通常为100-250美元)的平台,以避免引起怀疑。这些网站常以账户验证为名,索取敏感个人信息,包括身份证扫描件、住址证明甚至信用卡照片。 多频道分发 研究人员发现了一个由YouTube频道、社交媒体账户以及Medium和Blogspot等平台上的博客文章组成的网络,用于推广这些骗局。这些操作使用本地化内容脚本,以匹配用户的国家和语言,从而增加可信度。 活动专门针对包括印度、英国、德国、法国、西班牙、比利时、墨西哥、加拿大、澳大利亚、捷克共和国、阿根廷、日本和土耳其在内的国家用户。 已识别的关键策略包括: AI生成的冒充公众人物的视频 托管在免费博客平台上的虚假评论网站 通过随意、相关的帖子推广欺诈平台的社交媒体页面 通过IP和语言检测实现诈骗网站的本地化 据报道,这些平台无法从美国和以色列的IP地址访问,表明其重点在其他地区。 协同基础设施 利用网络图谱分析,Group-IB将少数注册者与数十个诈骗域名联系起来,其中许多域名共享相同的注册商和技术细节。部分域名与其他欺诈性交易网站有关联,包括AccuTraderOnline和10kAPPA。 报告警告称,这些骗局结合了专业设计、心理压力和社会认同机制,以削弱受害者的怀疑态度。 “该骗局利用了社会认同效应、心理压力和专业设计,非常有效。”研究人员总结道。 调查结果强调需要保持警惕,尤其是在遇到与AI、深度伪造背书或未经核实的在线评论相关的投资邀约时。 消息来源: infosecurity-magazine; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文
IBM 最新报告称,美国数据泄露成本升至 1022 万美元
HackerNews 编译,转载请注明出处: IBM《数据泄露成本报告》显示:全球泄露成本下降,但美国成本上升。最显著的变化在于新兴影响因素的出现——AI在攻击与防御中的双重作用。 全球平均数据泄露成本降至444万美元(五年来首次下降),但美国平均成本升至创纪录的1022万美元。数据泄露生命周期(驻留时间与修复时间之和)缩短至241天——创历史新低,较上年减少17天。 美国数据泄露成本较高与区域安全水平或AI影响关联有限。IBM X-Force情报部门副合伙人Kevin Albano解释:“尽管美国企业采用AI防御的比率略高,但其泄露成本仍连年居首。差异源于多重因素,包括检测与处置成本同比激增14%(部分由劳动力成本上升驱动),以及更高的监管罚款。” AI的双刃剑效应 本年报告核心结论是:无论善恶,AI时代已至——犯罪分子的重视程度甚至超过防御方。AI正成为高价值目标: 13%的泄露事件涉及AI模型或应用,其中97%的案件无访问控制 相关泄露导致60%的数据失窃与31%业务中断 安全治理在AI部署过程中被严重忽视 访问控制的缺失暴露了安全理念的崩塌,Albano指出根源在于:“企业急于利用AI实现自动化降本,但AI系统的复杂性与新颖性使安全实践仍在演进中。” 攻击技术的迭代 供应链攻击占AI相关泄露的30%,涉及应用、API及插件漏洞。直接操纵AI的三大技术占比更高: 提示词注入(Prompt Injection):17% 模型规避(Model Evasion):21% 模型反演(Model Inversion):24% 随着防护机制强化,攻击者转向上下文操纵技术。Albano阐释差异:“模型反演旨在重构训练数据,模型规避通过操纵输入诱发错误输出,提示词注入则通过篡改指令影响AI行为。” 防御价值的实证 采用AI驱动的企业显著降低泄露成本: 使用AI加速攻击检测的企业,泄露生命周期缩短108天 全面部署AI安全方案的企业,平均节省153万美元成本 攻击效率的质变 生成式AI使网络攻击效率飞跃: 钓鱼攻击占比16%(首次超越凭证窃取成为主要攻击媒介) 单次钓鱼攻击成本达480万美元 AI伪造钓鱼邮件耗时从16小时压缩至5分钟 Albano强调:“犯罪分子利用信息窃取器(Infostealers)掠夺密码、浏览记录、键盘输入等数据,这些工具已成为网络犯罪支柱。” 报告采用统一核算模型: 成本涵盖检测响应、通知、事后处置及业务损失四环节 分析样本排除极大规模/极小规模泄露事件(记录数介于2960至113620条) 基于作业成本法(Activity-Based Costing)进行实际消耗分摊 尽管未披露全部泄露的企业数据可能影响绝对值准确性,但历年方法论一致性确保了趋势可比性。 消息来源:securityweek; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文
AI 重塑网安人力格局:效率提升背后的初级岗位危机
HackerNews 编译,转载请注明出处: 全球最大的非营利性认证网络安全专业人士协会ISC2的最新调查显示,网络安全团队对AI安全工具的兴趣虽谨慎但正在增长。 企业正在拥抱AI工具来提升安全水平,但在此过程中,他们可能切断了未来网络人才的输送管道。 AI已至,并将持续存在 在接受调查的436名安全专业人士中,近三分之一表示他们的团队已将生成式模型、自动化响应代理或AI增强监控系统等AI工具集成到日常运营中。另有42%的团队正在测试或评估这些工具。 最大的采用者是拥有10,000名以上员工的大型企业以及IT服务和工业等数据密集型行业的企业。与此同时,公共部门组织行动迟缓,只有16%采取了行动。 在采用、测试或评估AI安全工具方面处于领先地位的行业包括:工业企业(38%)、IT服务(36%)、商业/消费领域(36%)和专业服务(34%)。而金融服务和公共部门的采用率最低,分别仅为21%和16%。 速度和效率正在推动更快的采用。约70%在安全工作中使用AI的人表示,它已经让团队更有效率,尤其是在入侵检测、网络监控和漏洞管理等繁重领域。 AI正被用于自动化以下安全工作领域: 网络监控与入侵检测:60% 端点保护与响应:56% 漏洞管理:50% 威胁建模:45% 安全测试:43% AI工具可能威胁初级岗位 超过半数(52%)的受访者认为AI工具将减少对入门级员工的需求。21%的受访者表示,AI已经改变了其组织招聘和为网络安全岗位做计划的方式。 然而,这种趋势可能对网络安全专业人员的技能组合产生长期影响。 一位受访者告诉ISC2:“你得先学会走,才能成为真正高效的跑步者。”而当下,初级员工甚至还没系好鞋带(打好基础),AI就已经跑在了前面。 安全团队正面临一个矛盾:他们需要AI是因为它让工作更轻松,但这种轻松可能以牺牲长期人才输送管道为代价。减少初级岗位招聘意味着未来专家会更少,导师指导机会减少,进入这个本就精英化严重的领域的多元化新人也会更少。 一位受访者警告:“减少入门级网络安全岗位可能导致显著的技能缺口,限制人才增长和创新。长期影响包括高级专业人员压力增大、威胁响应速度变慢,以及因争夺经验丰富人才而导致成本上升。” 新型AI增强的工作岗位 不过,并非所有人都在敲警钟。近半数(44%)表示他们公司的网络安全招聘尚未受到AI安全工具使用的影响。 31%的受访者抱有希望地认为,AI实际上可能创造新的入门级岗位,这些岗位融合传统网络知识与新兴AI技能。 根据ISC2的信息,为入门级网络安全专业人士宣传和讨论的新型及AI增强的岗位包括: AI辅助SOC分析师:与AI增强的安全信息与事件管理(SIEM)或安全编排、自动化与响应(SOAR)工具协作。 安全数据分析师/初级威胁情报分析师:专注于通过管理庞大的威胁指标数据集来帮助训练和验证AI模型。 自动化与安全编排助理:支持开发和维护安全自动化脚本和工作流(AI平台利用这些脚本和流程来采取行动)。 AI治理或合规专员:提供入门级支持,确保安全领域使用的AI系统符合道德和合规要求,以及更普遍的正常运行。 安全测试助理:测试AI驱动的安全工具的稳健性,包括评估其对对抗性输入的反应。 云安全支持分析师:与AI增强的云安全监控工具协作,确保关键云服务和数据存储库的安全、可用性和防御能力。 消息来源: cybernews; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文
AI 隐匿工具催生“隐身型”网络攻击,侦测难度急增
HackerNews 编译,转载请注明出处: 网络犯罪分子已被发现采用AI驱动的伪装工具,以绕过传统安全措施,并隐藏其钓鱼网站和恶意软件站点,使其难以被检测。 SlashNext的最新研究显示,诸如Hoax Tech和JS Click Cloaker等平台正在提供“伪装即服务”(CaaS),使威胁行为者能够将恶意内容隐藏在看似无害的网站背后。 这些工具利用先进的指纹识别、机器学习和行为定向技术,选择性地仅向真实用户展示诈骗页面,同时向自动化扫描程序提供安全内容。 “我认为这是技术和工具被恶意使用的明显例子,”Apollo Information Systems的首席信息安全官(CISO)安迪·贝内特(Andy Bennett)表示。“就像威胁行为者使用加密一样,他们采用这种原本旨在帮助机会主义营销人员的技术,并将其用于针对特定受害者或逃避检测,这并不令人惊讶。” 这种被称为“伪装”的技术并非新事物,但其对AI的应用代表了一次重大演进。Hoax Tech利用基于指纹的分析和自学习AI引擎,实时分析数百个访问者数据点。可疑流量会被重定向到无害页面,而真实用户则会看到预设的诈骗内容。 复杂的伪装服务商业化 JS Click Cloaker提供类似功能,通过评估每次点击的900多项特征来判断访问的合法性。尽管自称是基于JavaScript的工具,但据报道它避免依赖JavaScript,以应对Google等搜索引擎的检测。 两项服务都宣传提供诸如A/B测试、地理过滤和实时重定向等功能。 “这项研究揭示了网络威胁格局的关键性演进,”Qualys的安全研究经理马尤雷什·丹尼(Mayuresh Dani)先生表示。“像Hoax Tech和JS Click Cloaker这样的平台暴露了威胁行为者能力的显著升级。” 为了应对这些系统,丹尼建议: 实施行为和运行时分析工具 使用多视角和差异扫描 投资于自适应的、AI驱动的防御技术 在网络中全面采用零信任框架 制定针对基于AI威胁的事件响应计划 贝内特警告说,其风险远不止于逃避检测。“利用AI来区分一个检查电子邮件链接是否恶意的工具,和一个因为未检测到恶意活动而通过邮件过滤器、点击了链接的真实用户,这无疑是更高级别的操作,”贝内特说。他补充道,攻击者可能会越来越多地实时为每位访问者个性化定制内容,这进一步增加了检测难度。 安全专家敦促采取更广泛的防御措施 Bugcrowd的CISO特雷·福特(Trey Ford)指出了一些历史相似之处。“这是一个由来已久的问题。二十年前,攻击者使用FastFlux DNS来分析目标的风险并进行漏洞测绘——如今AI驱动的伪装服务就是该能力的现代化版本,”福特解释说。“检测与响应的军备竞赛不能只依赖单一的工具或层面。端点补丁管理、系统加固和浏览器保护仍然是关键的控制和监测点。” 随着伪装技术的演进,安全团队面临着日益增长的压力去适应。没有多层、行为感知的防御措施,恶意网站可能会继续逃避检测,毫无阻碍地触达用户。 消息来源: infosecurity-magazine; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文
朝鲜 IT 员工借 AI 伪造身份渗透,微软封停 3000 个邮件账户
HackerNews 编译,转载请注明出处: 微软表示已暂停了3,000个Outlook和Hotmail电子邮件账户,该公司认为这些账户是由朝鲜IT工作者创建的,这是其为帮助企业应对这一高成本计划所做努力的一部分。 微软称,多年来其一直监控朝鲜让其公民受雇于美国公司IT职位的活动,并最近观察到该活动的运作方式发生了变化。朝鲜IT工作者现在大量使用人工智能(AI)技术来“替换窃取的就业和身份证明文件中的图像,并增强朝鲜IT工作者的照片,使其看起来更专业”。 “我们还观察到他们一直在使用变声软件,”微软在一篇博客文章中解释道,该文章发布的同时,美国司法部公布了两份起诉书,指控数名朝鲜人和至少两名美国公民参与了此项IT工作者计划。 去年10月,微软的威胁情报部门发现了一个公共存储库,其中包含疑似朝鲜IT工作者的真实照片和经过AI增强处理的照片。该存储库还包含这些人员的简历、使用的电子邮件账户、关于如何使用VPN账户开展工作的指南、实施身份盗用的操作手册、关于如何在自由职业网站上获取工作的指导手册,以及向协助者付款的信息。 “根据我们对该存储库的审查,朝鲜IT工作者似乎会先进行身份盗用,然后使用像Faceswap这样的人工智能工具将他们的照片移植到窃取的就业和身份证明文件上,”微软研究人员表示。“攻击者还使用这些AI工具拍摄工作者的照片,并将其移植到看起来更专业的背景环境中。然后,这些工作者在申请工作时,将使用这些AI生成的照片制作一份或多份简历或资料。” 该活动的幕后人员正在大量试验变声软件和其他AI技术——这印证了其他几家监控此类计划的网络安全公司所做的评估。微软警告说,虽然尚未发现这些IT工作者使用AI语音和视频产品,但这种手段“可能允许朝鲜IT工作者直接进行面试,不再依赖协助者代替他们面试或向他们出售账户访问权限”。 美国司法部于本周早些时候公布的起诉书进一步揭露了朝鲜计划的巨大规模。联邦调查局(FBI)在16个州执行了搜查行动,目标是29个“笔记本电脑农场”——即由美国居民接收公司笔记本电脑并安装软件,从而让朝鲜人能够远程访问这些设备的地点。 法庭文件中已确认有多名美国公民共谋者参与其中,包括一名持有安全许可的现役美军士兵。 为了说明朝鲜通过该计划所获经济利益的规模,知名加密货币调查员Zachary Wolk(又名ZachXBT)表示,近期一项调查发现,自1月1日以来,向已知朝鲜IT工作者控制的账户发送的加密货币付款已超过1,650万美元,平均每月近300万美元(约合人民币2,190万元)。“为便于理解,每月付款范围在3,000至8,000美元之间,这意味着他们已渗透进入了至少345个(按最高薪酬计算)至多920个(按最低薪酬计算)工作岗位。”他在社交媒体帖子中写道。 消息来源: therecord; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文