机器规格:8C32G
机器数量:3
磁盘类型:SSD
NebulaGraph 版本号:3.0.1
分片数:15
文件目录数:2
查询:match (m:org{name
:‘邵氏兄弟’})–>(n:programme) return n.programme.id,n.programme.name
数据量:300W实体,1000W边
总耗时47ms,主要耗时都集中在AppendVertices感觉这个数据量不应这么慢,麻烦帮忙看看是否正常,能提供排查手段也很感谢
机器规格:8C32G
机器数量:3
磁盘类型:SSD
NebulaGraph 版本号:3.0.1
分片数:15
文件目录数:2
查询:match (m:org{name
:‘邵氏兄弟’})–>(n:programme) return n.programme.id,n.programme.name
数据量:300W实体,1000W边
总耗时47ms,主要耗时都集中在AppendVertices感觉这个数据量不应这么慢,麻烦帮忙看看是否正常,能提供排查手段也很感谢
已经补充信息了
把生成计划贴全吧
不太方便全部贴出来,耗时大头在这个步骤,同样的查询不同条件如果数据量几十耗时只有几毫秒。或者你需要其他什么信息我再提供
和起点的出边数有关, 比如你选了个一个大点拓展出很多边那就会 scan 那个边的终点很多次, 贴下完整计划吧
上面都是我们研发人员, 你要不试试把。ip 之类的敏感信息给打码或者删掉再贴过来?
match (m:org{name:‘邵氏兄弟’})–>(n:programme) return size(tags(n)) as s order by s desc
看看最大的几个点,有多少 tag
这个是不是哪里不对,返回的结果全是 1
此话题已在最后回复的 30 天后被自动关闭。不再允许新回复。