HackerNews

HackerNews
Cloudflare R2 服务故障由密码轮换错误引发

Cloudflare R2 服务故障由密码轮换错误引发

给文章评分:

HackerNews 编译,转载请注明出处:

Cloudflare宣布,其R2对象存储及相关服务出现了一次持续1小时7分钟的故障,导致全球100%的写入请求和35%的读取请求失败。

Cloudflare R2是一种可扩展的、与S3兼容的对象存储服务,具有免费的数据检索、多区域复制以及与Cloudflare的紧密集成等特点。

此次故障发生在UTC时间21:38至22:45之间,据称是由一次凭证轮换操作导致R2网关(API前端)失去对后端存储的认证访问权限所引发的。

具体而言,新凭证被错误地部署到了开发环境而非生产环境,而当旧凭证被删除后,生产服务便失去了有效的凭证。

问题的根源在于遗漏了一个命令行标志'--env production',这导致新凭证被部署到了生产R2网关工作程序而非生产工作程序。

截屏2025-03-26 10.48.47

R2网关工作程序认证示意图(图片来源:Cloudflare)


由于问题的性质以及Cloudflare服务的工作方式,这一错误配置并未立即显现,导致修复工作进一步延迟。

“R2可用性指标的下降是逐渐的,并非立即显而易见,因为之前凭证删除到存储基础设施的传播存在延迟,”Cloudflare在其事件报告中解释道。

“这导致我们最初发现问题存在延迟。在更新旧凭证集后,我们不应依赖可用性指标,而应明确验证R2网关服务用于认证R2存储基础设施的令牌。”

尽管此次事件未导致客户数据丢失或损坏,但仍造成了部分或全部服务降级,影响了以下服务:

  • R2:100%写入请求失败,35%读取请求失败(缓存对象仍可访问)
  • 缓存储备:由于读取请求失败,源流量增加
  • 图片和流媒体:所有上传请求失败,图片传输量降至25%,流媒体降至94%
  • 电子邮件安全、向量化、日志交付、计费、密钥透明度审计员:不同程度的服务降级

为防止类似事件在未来再次发生,Cloudflare改进了凭证日志记录和验证,并强制使用自动化部署工具,以避免人为错误。

公司还正在更新标准操作程序(SOP),要求对凭证轮换等高影响操作进行双重验证,并计划增强健康检查,以便更快地发现根本原因。

Cloudflare的R2服务在2月也曾因人为错误导致1小时的故障。

当时,一名操作员在处理有关服务中钓鱼URL的滥用报告时,关闭了整个R2网关服务,而不是仅阻止特定端点。

由于缺乏对高影响操作的安全保障和验证检查,导致了此次故障,促使Cloudflare计划并实施额外措施,以改进账户配置、更严格的访问控制以及对高风险操作的两方批准流程。

 


消息来源:Bleeping Computer 

本文由 HackerNews.cc 翻译整理,封面来源于网络;  

转载请注明“转自 HackerNews.cc”并附上原文