如题
节点估计1个亿左右
如题
节点估计1个亿左右
需要知道你们业务场景。
Vertex 大概1亿, edge 大概有多少?应用中的写数据和读数据大概是什么情况?
每天都会做数据更新吗?是的话,数据量多大?
最多查询几度?
假如只是企业关系查询,应该是够的。
@dingding @bright-starry-sky 你好, 存量数据 Vertex大概5000w,edge预估1.5~2亿,增量数据每天Vertex预估几十万,edge100~150w ,最多查询4度,但会有些业务场景全路径判断。读的量不是特别高
感谢
看起来初始数据量不是很大,硬件环境是可以跑起来的。因为每天有增量数据加入,后期的话硬件环境可能会很吃力。建议在创建space的时候 partition多一些,以后增加机器便于balance.
@bright-starry-sky 感谢,导入效率这块是否有相关测试报告 (或者存量数据2亿关系,五千万节点导入大概耗费时间,每日增量数据导入预估时间)
之前调研dgraph在数据导入这块,硬件配置总是瓶颈
有测试报告,单节点,内存 8G, cpu 4 core, ssd
没有索引 :大约每秒50万
有索引: 大约每秒5万
谢谢,我在本地也测试一下
每天的增量也就200万条,如果是 batch insert,应该很快(分钟级别)就写完了。
存量用goimporter或者sparkwriter,应该在半小时级别吧。
你硬盘是SSD的话。
硬盘是机械
机械盘没测过。。。可以参考这个参数试试看
https://docs.nebula-graph.com.cn/manual-CN/3.build-develop-and-administration/3.configurations/0.system-requirement/#_7
ok,10个小时之内我这边都可以承受