Star

用Docker swarm快速部署Nebula Graph集群

3个节点(副本数为3),假设为3个分区p1,p2,p3
节点1存储 p1 p2 p3
节点2存储 p1 p2 p3
节点3存储 p1 p2 p3
如果是这种情况,“3副本的话,每个节点还是2T”,节点1存储1/3的图数据即6t/3等于2t,就没有空间存储另外的4t数据了啊

有6t数据,每个节点如果只分配2t内存,正好三个节点把6t数据分完,哪有其他空间存储另外的两份备份的数据了呀

说错了,每个节点还是6T

6T的图数据 这个量好大

还有个问题想请教您一下

业务背景:现在业务文本数据是每天大概有5T的数据,这5T数据有边数大概200条,节点数大概25亿条。
问题:配置nebula集群,比如申请三个节点配置nebula集群,需要每个节点申请多少存储,及每个节点申请的cpu核数,及申请每个节点的内存大小

给个参考,我这边是2亿节点,20条边

目前机器5台
3台storage单节点配置为16C 32G 500G SSD,一半容量都没用到

现在边数和节点数大概是你的10倍关系,

我现在打算申请的
配置申请机器节点数:3

cpu核数:16

内存:64G

存储大小:5T
这个配置低吗

有点低

入库之后是有存储放大的。因为是边是两份*3raft

浙ICP备20010487号