在编写application.conf配置文件时,因为space空间名是中文,就会一直报这个错,其他英文空间名就不会报错,可以执行
参考论坛使用指南, 麻烦补齐下相关背景信息:
- Nebula 内核版本号:
- Exchange 的版本号:
- 配置文件:
需要版本号主要是用来排斥是否是版本不对齐导致的问题;
nebula版本号:3.5.0
exchange版本号:nebula-exchange_spark_2.4-3.5.0
英文空间名都可以执行成功,需要导入到中文空间名的时候就会报这个错误
我已确保有这个空间,是从maxcomputer上把数据导入到nebula
中文的 schema 都是需要用反引号阔起来的,你试试 `你的图空间名`,看看有没有用
反引号他就会报错,加了反引号就会报but got wrong token:‘`’
报这个错:
Caused by: com.typesafe.config.ConfigException$Parse: ./application.conf: 17: Ex
pecting a value but got wrong token: ‘' (Reserved character '
’ is not allowed
outside quotes) (if you intended ‘' (Reserved character '
’ is not allowed outs
ide quotes) to be part of a key or string value, try enclosing the key or value
in double quotes)
"`你的图空间名`" 这个格式可以么?报错好像是提醒要把字符串包裹起来。
哈哈,大佬,我刚刚试过这种方法,加上双引号之后就会报最开始空间不存在的错误了
“空间名
” 就是这样的格式
为什么我打不出来反引号,空间名
因为 反引号 是一个 md 的高亮语法关键词,你打的话,会被直接解析成 高亮
,你要用的话需要加个斜杠 \ 反解析(不被解析)
/空间名/
可以吗
还是会这样,能举个例子编写一下吗大佬
用\的话他就会报同样的错,只不过把`换成了\
涉及到中文的先在导入命令中加这个参数,以防是编码问题导致中文space乱码,从而在请求space时无法识别space
–conf spark.driver.extraJavaOptions=-Dfile.encoding=utf-8
–conf spark.executor.extraJavaOptions=-Dfile.encoding=utf-8
不行,还是报space不存在,使用英文space就可以
在这里使用的是maxcomputer导入的数据,我将space名称改成英文,点名称还是中文,再导入的时候报label ?? does not exist.错误
使用maxcomputer导入的,和它有关系吗
应该没有,上面是我们的研发大佬。等等看她咋回复吧(我没用过 exchange
使用这个方法可以了,感谢