求助,2亿关系的节点生产大概需要什么配置,目前有3台4C 16G不知道能否满足

如题

节点估计1个亿左右

需要知道你们业务场景。

@dingding 你好

业务场景为企业关联关系,类似于这种

Vertex 大概1亿, edge 大概有多少?应用中的写数据和读数据大概是什么情况?

每天都会做数据更新吗?是的话,数据量多大?
最多查询几度?
假如只是企业关系查询,应该是够的。

@dingding @bright-starry-sky 你好, 存量数据 Vertex大概5000w,edge预估1.5~2亿,增量数据每天Vertex预估几十万,edge100~150w ,最多查询4度,但会有些业务场景全路径判断。读的量不是特别高

感谢

看起来初始数据量不是很大,硬件环境是可以跑起来的。因为每天有增量数据加入,后期的话硬件环境可能会很吃力。建议在创建space的时候 partition多一些,以后增加机器便于balance.

@bright-starry-sky 感谢,导入效率这块是否有相关测试报告 (或者存量数据2亿关系,五千万节点导入大概耗费时间,每日增量数据导入预估时间)

之前调研dgraph在数据导入这块,硬件配置总是瓶颈

有测试报告,单节点,内存 8G, cpu 4 core, ssd
没有索引 :大约每秒50万
有索引: 大约每秒5万

@bright-starry-sky 如果有相关文档或者链接就再好不过了,非常感谢

https://github.com/vesoft-inc/nebula/tree/master/src/storage/test

这里有一些基准测试的benchmark,可以参考.

谢谢,我在本地也测试一下

每天的增量也就200万条,如果是 batch insert,应该很快(分钟级别)就写完了。
存量用goimporter或者sparkwriter,应该在半小时级别吧。
你硬盘是SSD的话。

硬盘是机械

机械盘没测过。。。可以参考这个参数试试看
https://docs.nebula-graph.com.cn/manual-CN/3.build-develop-and-administration/3.configurations/0.system-requirement/#_7

ok,10个小时之内我这边都可以承受