根据 CloudFlare 说明,新人没有经验丰富的蓝点操作或电气专家。毕竟灾备站点现在能应对大部分服务的中断周运行 。部分设施开始恢复供电 ,超过仅剩的时机上班这个市电设施也可能会被切断 ,
由于 Flexential 无法告知恢复时间 ,房夜必须物理访问并手动重启各个设施;
第二 ,班竟由于高压线接地故障导致电路跳闸,有名这样整个系统基本都不会出现大问题。新人
万幸的是还有一组 UPS 电池 ,
对运维有兴趣的用户建议阅读 CloudFlare 原文看看总结出来的教训 :https://blog.cloudflare.com/post-mortem-on-cloudflare-control-plane-and-analytics-outage/
这就是 UPS 电源工作 4 分钟后出现故障的时间 ,不知道这会儿 Flexential 有没有打电话让正在睡觉的电气工程师进入了现场。但数据中心都有备用发电机 ,故障时间是从 2023 年 11 月 2 日 11:44 到 11 月 4 日 04:25,前置变压器的电源是 12kV 的高压电,于是这个数据中心的市电和备用发电机供电全部停掉。
出现了高压电接地后电气系统为了确保电气设施的安全立即自动启动停机保护 ,剩余的这个市电设施的前置变压器出现了接地故障,
但这个市电设施就这么巧出现了问题,
活动推荐:阿里云双11活动上线 2核2G3M服务器99元/年 原价续费不限新老用户
“总不能让我这个上班才 1 周的新人来背锅吧?”
CloudFlare 作为全球最为知名的网络服务提供商之一,系统会变得越来越复杂 ,
庞大的系统能够快速通过冗余站点恢复那是不可能的 ,
所以接下来就是 CloudFlare 自己的问题了。但 Flexential 仍然没有通知他们的任何客户表示数据中心已经挂了 。因此冗余也不一定能生效。他们还需要去采购 ,由于失败的 API 调用太多,
三件事阻碍发电机重新工作 :
第一,现在发现发电机重新上线后没法恢复供电才发现断路器坏了 。前提是你已经经过完完全全的测试,
CloudFlare 在 11:44 收到了第一个报警通知,不巧的是这种停机保护也把所有发电机都给停了,首先是物理启动网络设备 ,所以部分服务仍然不可用 。不过最严重的是 CloudFlare 控制台和分析服务 ,
本次中断事故影响了 CloudFlare 的很多产品,
到 11 月 2 日 22:48 Flexential 那边终于换好了断路器并开始使用市电进行供电,不过在通用电气进行计划外的市电维护后,偶尔出现中断是很常见的事情,而 Flexential 既没有通知客户也不知道为什么还要使用剩余的一个市电设施 。
直接原因 :机房供电故障 、
然而这组 UPS 电池工作 4 分钟后就出现了故障,直到 17:57 后灾备站点基本恢复运行。UPS 电源在 12:01 彻底歇菜,
12:48 Flexential 终于重启了发电机,因此出于离线模式,然后启动数千台服务器并恢复服务,
在故障转移过程中失败的 API 调用直接起飞了,
当出现供电问题后 Flexential 启动了备用发电机进行供电,
尽管 Flexential 的数据中心已经通过 Tier III 认证,直到 11 月 4 日 04:25 整个服务才被恢复 。与中国时间有 + 08:00 时差,工程师正在积极努力解决问题。但这个点去采购断路器估计有点难度 。这应该是 CloudFlare 中断时间最长的一次事故,但是更巧合的是 CloudFlare 所属的电源线路的断路器又损坏了,因此 CloudFlare 是不知道核心数据中心出现了电力问题。不知道这是由于接地故障还是浪涌导致的,一般来说 CloudFlare 有多种不同的冗余策略,
由于发电机迟迟没有恢复,Flexential 数据中心夜班只有保安和一名工作仅一周的技术人员 ,但还有间接原因,这导致数据中心的市电供应中断 ,但随着时间的推移 ,而重建管理配置服务器就花了 3 个小时 。最直接的原因是 CloudFlare 租用的 Flexential 数据中心出现了一起计划外的供电维护 ,
CloudFlare 自己的问题:
直接原因是数据中心问题 ,使用太平洋时间) 是夜里四点前后 。
尽管 CloudFlare 已经考虑到核心数据中心可能会挂掉因此做了冗余,
Flexential 于是又开始尝试更换新的断路器,每台服务器重建时间在 10 分钟~2 小时之间,所以必须按照顺序进行操作。即便备用发电机没用那还有 UPS 不间断电源呢。必须上游服务恢复了才能使用 ,这时候 CloudFlare 意识到问题了 ,所以现在恢复后 CloudFlare 火速发布博客分析此事件的前因后果。分析服务则是提供日志和分析报告之类的。有些服务之间存在依赖 ,
但是前两天 CloudFlare 出现的技术故障竟然持续了 40 个小时 ,因为在市电供应问题出现后,到 11:40,也就是 CloudFlare 故障几分钟前 (这时候还没故障,那么 UPS 会停机 ,时间均为 UTC 时间,
配置服务器能用后工程师开始操作其他服务器 ,
与最佳实践不同的是 ,CloudFlare 不得不开始限制请求速率,此时忙得晕头转向的 CloudFlare 团队决定歇会儿 ,下面提到的所有时间都是 UTC 时间。大约可以供电 10 分钟,
到 11 月 3 日开始 CloudFlare 着手恢复 Flexential 数据中心,让服务先恢复。高压线接地故障
时间说明:11:44 UTC 换成太平洋时间 (下面提到的这个数据中心位于美国俄勒冈州,这个数据中心还是出现了一大堆问题。那就是为了快速迭代 CloudFlare 允许团队快速创新 ,高压电出现了接地是很严重的问题。Flexential 的门禁系统也没有备用电池供电 ,压根进不去(那最后估计是暴力方式进去的);
第三,包括 CloudFlare ,Flexential 同时运行仅剩的一个市电设施以及内部的发电机进行供电,此时 Flexential 还没修好发电机 ,CloudFlare 决定在 13:40 启用位于欧洲的灾备站点,表示数据中心遇到了故障 ,否则真正进行切换时肯定会遇到问题 。
但还有些产品 – 一些较新的产品并没有完全进行灾备测试 ,于是数据中心彻底断电了。如果在 10 分钟内市电或者发电机能恢复工作,
到 12:28 Flexential 终于向客户发出了第一条通知 (此时当地时间是凌晨 5 点前后),但这些服务器也需要重新配置 ,但并没有通知他们的客户,但由于损坏的断路器太多,因为备用发电机还在干活中) ,其中控制台就是客户登录 CloudFlare 后用来操作的地方 ,