标签: 窃密程序

员工凭证成黑客主攻目标,身份驱动型网络攻击量激增​

HackerNews 编译,转载请注明出处: 网络安全研究人员监测到针对员工登录凭证的身份驱动型网络攻击激增。eSentire威胁响应部门(TRU)最新报告显示:2024年至2025年一季度期间,该机构处理的1.9万起身份相关安全事件同比激增156%,此类威胁在其服务的2000余家企业中占比高达59%。 钓鱼即服务(PhaaS)推动凭证窃取 Tycoon 2FA平台成为主要推手:该钓鱼即服务平台通过提供中间人攻击(AitM)能力绕过双因素认证(2FA),已超越EvilProxy等竞品成为2025年1-5月最活跃攻击工具。攻击者以月租200-300美元(约合人民币1450-2170元)获取以下服务: 伪装成可信来源的邮件模板 突破MFA防护的中间人攻击模块 反调试与规避检测工具 内置凭证窃取功能 客户支持及定期更新 攻击者利用该平台实施商业邮件欺诈(BEC):主要针对应收账款部门员工,窃取其凭证后篡改支付路径,将企业资金转入攻击者控制账户。 信息窃取器提供低成本替代方案 攻击者通过Lumma窃密程序等工具批量获取凭证:地下市场中单份窃密日志仅售10美元(约合人民币72元),每份日志可能包含数十项高价值数据: 邮箱/银行服务登录凭据 密码管理器数据库 加密钱包及浏览器扩展数据 VPN/FTP客户端及本地文件 该窃密程序自2022年活跃至今,其内置自动化过滤机制可快速识别高价值数据,大幅缩短凭证利用周期,并通过”Russian Market”等黑市加速销赃。 凭证窃取呈现高回报特性 据FBI统计:2013年至今全球累计发生超30万起商业邮件欺诈案件,造成550亿美元(约合人民币3980亿元)损失。2025年第一季度,信息窃取器占eSentire阻断恶意软件的35%,身份攻击的经济回报率已超越传统漏洞利用。 防御建议 eSentire TRU预测此类威胁将持续蔓延,呼吁企业采取三项核心措施:部署钓鱼攻击免疫的身份验证技术、实施零信任架构、建立实时访问监控机制。       消息来源: infosecurity-magazine; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文

PyPI 发现恶意机器学习模型攻击

HackerNews 编译,转载请注明出处:   网络安全研究人员发现新型利用Python软件包索引(PyPI)传播机器学习模型恶意载荷的攻击活动。ReversingLabs披露,攻击者通过Pickle文件格式将恶意软件植入伪装成AI工具的开源组件,相关软件包声称提供阿里云AI服务的Python SDK,实际却部署窃密程序。 恶意软件包aliyun-ai-labs-snippets-sdk、ai-labs-snippets-sdk及aliyun-ai-labs-sdk表面为AI开发工具,实则不包含任何功能性代码。攻击者将信息窃取程序嵌入PyTorch模型文件(本质为压缩的Pickle文件),利用初始化脚本触发恶意载荷。该程序具备以下窃密能力: 窃取用户身份信息及网络配置数据 探测设备所属组织架构 提取.gitconfig版本控制配置文件 研究人员发现,恶意代码专门检测是否存在阿里会议(AliMeeting)开发者特征,显示攻击目标可能聚焦特定区域。 PyTorch模型加载机制与Pickle反序列化漏洞的结合形成攻击突破口。Pickle允许序列化对象执行任意代码的特性,使其成为绕过传统安全检测的理想载体。三个恶意软件包中有两个通过此方式投放全功能恶意程序。ReversingLabs逆向工程师Karlo Zanki指出:“当前安全工具对恶意机器学习模型的检测能力仍处于原始阶段,现有防护体系缺乏针对此类攻击的必要功能。” 尽管PyPI官方已下架相关软件包,但其在存活期间累计被下载约1600次。攻击者可能通过社会工程或钓鱼手段诱导开发者安装,具体诱导方式尚未明确。该事件凸显AI/ML工具成为软件开发核心组件后,亟需建立更严格的文件验证机制与零信任原则来应对ML制品的安全风险。       消息来源: infosecurity-magazine; 本文由 HackerNews.cc 翻译整理,封面来源于网络; 转载请注明“转自 HackerNews.cc”并附上原文