nebula-connector导入数据中文字符乱码

提问参考模版:

  • nebula 版本:2.5.0
  • 部署方式:单机
  • 安装方式: RPM
  • 是否为线上版本:Y

如图所示,使用spark yarn模式导入数据后,中文字符都变成了??,指定spark提交的编码为utf-8后还是没能解决,spark-submit --master yarn --class com.opensource.bigdata.spark.connector.nebulaAlgorithm --conf “spark.driver.extraJavaOptions=-Dfile.encoding=utf-8” ./bigdata-1.0-SNAPSHOT.jar 100有遇到这种问题的小伙伴吗

急求教~·,csv文件类型是UNIX, utf-8格式

找到问题了
–conf spark.driver.extraJavaOptions="-Dfile.encoding=utf-8" --conf spark.executor.extraJavaOptions="-Dfile.encoding=UTF-8"

1 个赞

我们文档中有相关问题的FAQ: Exchange 常见问题 - Nebula Graph Database 手册

你真的是太幸运了,我从系统,集群,代码都进行了设置,sparkExecutor运行的结果还是ANSI码,最后通过修改源码解决了。

此话题已在最后回复的 30 天后被自动关闭。不再允许新回复。