spark-connect 导入orc文件的数据对于dateTime类型的识别

  • nebula 版本:3.4.0
  • 部署方式:分布式
  • 安装方式:Docker
  • 是否上生产环境:Y
  • spark-exchange导入orc文件时对于时间戳会识别成字符串,转成dateTime有错误,生成的语句如下:

    spark-connector版本:nebula-exchange_spark_2.4-3.0.0.jar
    orc文件用pyspark读取时类型是bigint

    -conf文件

貌似不支持,timestamp作为输入,改成日期字符的输入就行了,已解决

1 个赞

可以勾选自己的回复为解决方案哈,我们的确不支持将数值类型直接转成 datetime。

此话题已在最后回复的 30 天后被自动关闭。不再允许新回复。