|      1pigeon2049      2023-11-29 09:49:17 +08:00 多服务器组集群 ,上分布式存储 ceph 多副本策略 单台机器挂了换就行了 完全不影响数据读写 组 raid 的风险在于重建失败和重建过程过长,真上生产还得是分布式文件系统 | 
|      2hefish      2023-11-29 09:54:43 +08:00 楼上的大佬,您觉着 OP 大大能搞得定 ceph 不?哈哈。。。 还是自己做备份吧。 | 
|      30bing      2023-11-29 11:11:01 +08:00 服务器就算炸了,只要 raid 存储着,冗余盘够就还能重建呀,只是重建时间。。。。 目前在用 zfs ,也不用 raid 了,定期冷备,爱咋地咋地。 | 
|  |      4winfura02      2023-11-29 11:22:23 +08:00 还是 PostgreSQL 配合 Citus 分布式存储分片数据香: SET citus.shard_replication_factor = 2; Node1: 分片 1, 分片 2 的副本 Node2: 分片 2, 分片 3 的副本 Node3: 分片 3, 分片 4 的副本 Node4: 分片 4, 分片 5 的副本 Node5: 分片 5, 分片 1 的副本 可以增加副本数量:SET citus.shard_replication_factor = 3; Node1: 分片 1, 分片 2 的副本, 分片 3 的副本 Node2: 分片 2, 分片 3 的副本, 分片 4 的副本 Node3: 分片 3, 分片 4 的副本, 分片 5 的副本 Node4: 分片 4, 分片 5 的副本, 分片 1 的副本 Node5: 分片 5, 分片 1 的副本, 分片 2 的副本 不知道 TiDB 有没有类似的设置 | 
|      5dode      2023-11-29 12:04:00 +08:00 把硬盘取出来,修服务器 | 
|  |      6blackbookbj277      2023-11-30 08:42:11 +08:00 听说菊厂存储,raid 如果有坏盘不及时更换就会接二连三的坏更多块,还说是原厂特性。 | 
|      7dabai091220      2023-12-26 17:04:14 +08:00 @blackbookbj277 #6 RAID 本身是有这种特性的,有坏盘就会降级,降级情况下坏盘概率更高 |