spark connector读取数据类型转换报错

  • nebula 版本:2.6.2
  • 部署方式:分布式
  • 安装方式:tar
  • 是否上生产环境:Y
  • 硬件信息
    • 磁盘 HDD 12 * 8T
    • CPU 40core
    • 内存信息 192G
  • 问题的具体描述
    最近在使用spark connector读取nebula数据,发现在读取过程中存在类型转换的错误。
    但是在建表的时候没有使用datetime类型。


    查看源码,工具类是需要把timestamp转为long来处理,但是datetime类型是怎么回事?

要么是 bug,要么是配置文件写错了。把配置文件贴上来瞅瞅?


根据代码报错是这里88行,87行,timestamp类型匹配到了,就是转换的时候报错了。是不是有脏数据导致的。

我把nebula-spark-connector源码改了下,打印了点日志,发现确实存在脏数据。我这边处理下应该问题就不大了。

1 个赞