-
nebula 版本:
1.0.1 -
部署方式(分布式 / 单机 / Docker / DBaaS):分布式
-
问题的具体描述
在spark writer的导入时,选择hive为导入源,并且在配置文件配置的点”job“定义如下,其中hive语句中包含双引号,会导致spark writer读配置的时候失败,并且常规转义方式如 " 行不通。
请问在配置文件中应该如何对双引号进行转义?
job: {
type: hive
exec: "select regexp_replace(sql,'\"','\
\\\"') as sql from test"
fields: {
sql:sql
}
vertex: vid
batch: 160
}