请问一下:创建全文索引后,使用flink-connector,将doris中的数据写入nebula中,最后ES中的数据为什么会比nebula中的数据量要大?
NebulaGraph 的 Listener 在将数据同步到 Elasticsearch 时,可能由于网络问题、Elasticsearch 的写入限制或配置问题等,部分数据写入 Elasticsearch 失败后又重试成功,导致重复写,数据量增大。你上一个帖子说了你重启后就成功了,可能是这种情况?
1 个赞
嗯嗯,有可能,就是一直定位不到具体的问题在哪里