spark-connecotr 写edge 时 insert 模式 时候会覆盖原有的相同起始节点和结束节点的数据
这不是 spark connector 的问题,而是内核设计如此,insert 相同的边的话,会覆盖之前的数据。你如果要重复插入同一类型的边,可以使用 rank,参考下文档:INSERT EDGE - NebulaGraph Database 手册
在 macOS 下用 command+f 或者 Windows 下用 ctrl+f,搜索关键词:rank,就能看到用法了。
请问数据被覆盖后,好像不能马上同步查询到,请问这是什么原因? 而且show stats 显示的数据量和 spark读取的数据量不一致
show stats 需要在 submit ststs job 完成之后再执行(具体看文档),如果你没有提交 job 的话,数据统计是会有出入的。
数据不能立马被查询到,可能是数据同步的问题,参考这篇文章 图数据库 Nebula Graph 集群通信:从心跳说起
好的 感谢
此话题已在最后回复的 30 天后被自动关闭。不再允许新回复。