最近正在进行知识图谱项目数据库的选型
请问一下。如果每天增量插入大约1~5亿节点,总节点和关系量可能达到千亿级,大部分关系接近树状。支撑这样的数量级大概需要多少服务器资源?对比Hbase如何?关键的关键,在这样的体量下,Nebula节点的插入和关联速度可否保持在毫秒级(保持在毫秒级需要多少资源),支撑多高的插入和关联QPS?
欢迎 @Maverick 哈!
感谢您的提问~~~
关键的关键,在这样的体量下,Nebula节点的插入和关联速度可否保持在毫秒级
能否保持在毫秒级可以参考快手的分享,他们的数量(日增量百亿)下是可以保持的。
https://nebula-graph.com.cn/posts/kuaishou-security-intelligence-platform-with-nebula-graph/
支撑这样的数量级大概需要多少服务器资源?
具体的业务类型查询的 pattern 和数据的特征(关系,属性量)在同一“量级”数据下会有不一样的资源使用特征(内存/CPU比例),这里 360 数科有提到他们的量级下从 JanusGraph HBase 迁移到 Nebula 的前后 Server 数量变化(20[只是HBase部分] → 6[全部 nebula 集群]),Nebula 的设计使得资源在千亿点万亿边下是线性扩展的性能增长的:)而且计算、存储的资源是可以按需随意分配的,具体的更准确的估算还是得按照您的数据和 query 去实际测试帮助评估一下。
1 个赞
此话题已在最后回复的 7 天后被自动关闭。不再允许新回复。