最新文章
Top News谷歌推出“隐私 A I计算”,在设备级隐私保护下实现安全 AI 处理
HackerNews 编译,转载请注明出处:
谷歌周二发布了一项名为“隐私AI计算”的全新隐私增强技术,旨在云端安全平台中处理人工智能查询。
公司表示,打造隐私AI计算是为了“在确保您的个人数据仅本人可见的同时,充分释放Gemini云端模型在AI体验中的全部速度与效能”。这项技术被描述为一个“安全加固空间”,以类似设备端处理的方式处理敏感用户数据,同时扩展了AI能力。其核心动力来自Trillium张量处理单元与泰坦智能安全飞地,使得公司能在不牺牲安全隐私的前提下使用前沿模型。
换言之,该隐私基础设施既利用了云端的计算速度与性能,又保留了设备端处理的安全隐私保障。
谷歌的CPU与TPU工作负载(即可信节点)基于AMD硬件可信执行环境,可对内存进行加密并与主机隔离。谷歌强调,只有经过认证的工作负载才能在可信节点运行,且管理员权限已被切断。此外,节点还具备物理防数据窃取攻击的能力。
该架构还支持可信节点间的点对点认证与加密,确保用户数据仅限在安全环境内解密处理,并隔绝于谷歌其他基础设施。“每个工作负载都会请求并加密验证对方的工作负载凭证,从而在受保护的执行环境中建立双向信任,”谷歌解释称,“工作负载凭证仅在节点认证通过内部参考值验证后才会发放。验证失败将阻止连接建立,从而保护用户数据免受不可信组件侵害。”
整体流程如下:用户客户端通过Noise协议与前端服务器建立加密连接,完成双向认证。客户端还通过Oak端到端加密认证会话验证服务器身份,确认其真实未经篡改。随后,服务器通过应用层传输安全协议与可扩展推理流水线中的其他服务建立加密通道,最终与运行在强化TPU平台上的模型服务器通信。整个系统采用“临时性设计”,即使用户会话结束后输入数据、模型推理及计算结果立即清除,即使攻击者获得系统特权也无法获取历史数据。
...