nebula-spark-connector spark3.0 分支下打包出来的连接器,对接报错

我是用 spark3.0 分支下打包出来的连接器,整合到我自己的pyspark 代码里;

        df.write.format("com.vesoft.nebula.connector.NebulaDataSource")\
                .options(**prop)\
                .option('type','vertex')\
                .option('label','router')\
                .option('vidPolicy','')\
                .option('vertexField','_vertexId')\
                .option('batch',1)\
                .option('writeMode','update')\
                .save()

报错:

pyspark.sql.utils.AnalysisException: TableProvider implementation com.vesoft.nebula.connector.NebulaDataSource cannot be written with ErrorIfExists mode, please use Append or Overwrite modes instead.

看报错可能是少了 option,默认然后默认的值是 ErrorIfExists 了

此话题已在最后回复的 30 天后被自动关闭。不再允许新回复。