max_allowed_query_size配置未生效

同步数据采用的这个代码
https://github.com/vesoft-inc/nebula-spark-connector/blob/master/example/src/main/scala/com/vesoft/nebula/examples/connector/Nebula2Nebula.scala
spark-connector采用的这个

嗯,请问我需要采用哪个版本呢,现在是3.0.0

你是一条数据size太大了,batch数设的也大,导致 同步写入nebula时 一条insert语句的size 超过了 max_allowed_query_size
解决方法: 调小点batch

1 个赞

是的,
方案1 ,增大max_allowed_query_size配置是否可以,这里我应该增加写入集群的配置对吧
方案2,减小batch的话,client问题我没有解决,升级connector解决吗,升级到哪个版本

  1. 理论上配置生效是可以的
  2. Release NebulaGraph Spark Connector v3.4.0 · vesoft-inc/nebula-spark-connector · GitHub

好的,多谢两位

此话题已在最后回复的 30 天后被自动关闭。不再允许新回复。