已确认问题原因:
- 在 spark 使用 split 函数的姿势与 Hive 不同,要以
split(str, '[.]')
的方式使用; - 关于 graphd 刷了很多
E7 E8 E9
相关的错误,其实是从 Hive 表提取 double, bigint 类型数据时,如果超出一定长度,会自动转换成科学记数法,导致字段类型与 nebula fields 不匹配;可以使用cast()
解决。
已确认问题原因:
split(str, '[.]')
的方式使用;E7 E8 E9
相关的错误,其实是从 Hive 表提取 double, bigint 类型数据时,如果超出一定长度,会自动转换成科学记数法,导致字段类型与 nebula fields 不匹配;可以使用 cast()
解决。