spark writer配置文件中的hive语句如果存在双引号应该如何转义?

  • nebula 版本:
    1.0.1

  • 部署方式(分布式 / 单机 / Docker / DBaaS):分布式

  • 问题的具体描述

在spark writer的导入时,选择hive为导入源,并且在配置文件配置的点”job“定义如下,其中hive语句中包含双引号,会导致spark writer读配置的时候失败,并且常规转义方式如 " 行不通。
请问在配置文件中应该如何对双引号进行转义?

job: {
      type: hive
      exec: "select regexp_replace(sql,'\"','\
\\\"') as sql from  test"
      fields: {
          sql:sql
      }
      vertex: vid
      batch: 160
    }

建议用exchange (从spark writer 迁移过来的)

1 个赞

最新的exchange中可以在hive的exec中可以通过\转义的

exec: "select regexp_replace(sql,'\"','\\\"') as sql from  test"  第二个转义多加了一个\
1 个赞