Exchange 导入 Hive 数据:graphd 刷查询相关的错误日志

已确认问题原因:

  1. 在 spark 使用 split 函数的姿势与 Hive 不同,要以 split(str, '[.]') 的方式使用;
  2. 关于 graphd 刷了很多 E7 E8 E9 相关的错误,其实是从 Hive 表提取 double, bigint 类型数据时,如果超出一定长度,会自动转换成科学记数法,导致字段类型与 nebula fields 不匹配;可以使用 cast() 解决。
1 个赞