部署3.0.2的版本 用nebula-flink-connector 消费kafka数据 运行几秒钟storage服务就挂了

中间某些数据处理有问题,会导致sotrage挂掉吗,我有些数据v超标了

srcId.size()是39。怀疑是不是部分数据有问题。你这先check下数据的问题,我排查下对超长的vid是怎么处理的。storage遇到超长的vid肯定会crash,但是按道理graph应该会做检查并拦截才对。

我的确有些数据超长了,我把space 重建 vid长度增加了,现在跑起来数据都写入正常,可能就是这个原因
这些都是刚写进去的

并没有在graph相关代码中发现检查vid长度相关逻辑。建议您先在自己的逻辑里加个检查。。。。我去提issue

1 个赞

好的,多谢了。另外再问个问题,你从上面的截图 可以看出来我的数据边非常多,2个点之间有很多重复的线,线的rank我现在用的是uuid,像这种情况 nebula 有什么自带方法 帮我们聚合吗,比如A-B之间的边,当那几个边属性相同时,就聚合,在原来的边上增加一个属性表示次数,目前让我们客户端计算挺麻烦的

你这个和业务逻辑关联性太强了,nebula做不到

好的

1 个赞

是不是ingest过sst

1 个赞

此话题已在最后回复的 7 天后被自动关闭。不再允许新回复。