配置图
下图报错是我把默认的nebula.path.local和nebula.path.remote写上报的错
下图报错是,我未写nebula.path.local和nebula.path.remote报的错
配置图
下图报错是我把默认的nebula.path.local和nebula.path.remote写上报的错
下图报错是,我未写nebula.path.local和nebula.path.remote报的错
Nebula Graph 版本号补充下
2.6.0的,但是后续可能会升级到3.0
我猜可能是配置文件写错了,也许是某个位置少了一个分号?请检查一下,谢谢
config.scala 382,看看源文件这一行是干啥的
把 你的配置文件文本贴一下,别截图了,这样我们要修改的话也好修改
{
spark: {
app: {
name: Nebula Exchange 2.6.0
}
driver: {
cores: 1
maxResultSize: 1G
}
cores {
max: 16
}
}
nebula: {
address:{
graph:["ip1:9669","ip2:9669","ip3:9669"]
meta:["ip1:9559","ip2:9559","ip3:9559"]
}
user: root
pswd: nebula
space: basketballplayer
path:{
local:"/tmp"
remote:"/sst"
hdfs.namenode: "hdfs://*.*.*.*:9870"
}
connection {
timeout: 3000
retry: 3
}
execution {
retry: 3
}
error: {
max: 32
output: /tmp/errors
}
rate: {
limit: 1024
timeout: 1000
}
}
tags: [
{
name: player
type: {
source: hive
sink: client
}
exec: "select playerid, age, name from basketball.player"
fields: [age,name]
nebula.fields: [age,name]
vertex:{
field:playerid
}
batch: 256
partition: 32
}
]
}
这个就是模版了,仅供参考哈,后面再加一个,修改下 name 和指定的 vertex 之类的参数就好了,报错的话,你按照上面 sworduo 的回复,看看这行是有啥问题,也许是方括号或者是花括号没闭合。
好的 我再看看,刚刚对了好几遍格式没啥问题,现在只是测试一下,好方便以后使用
嗯嗯,你去看看符号。有问题可以再来更新下帖子
我是拿的官网的hive的导入例子,所以都是这个格式,刚刚又对了两遍格式没啥问题,就是我用官网的那个hive的导入配置文件,使用client方式就不报错,改成了sst,然后加入path的的配置就会报这个错的,不管是多个tag或者单个都是报这个错误
这一行是使用dataSinkConfig方法获取nebula的配置和sst方式的hdfs的配置
看了好几遍并没有
看看附近的代码,配置解析出问题了应该很好找才对
主要是我相信官网提供的代码
你确认下,这个 path 的 ip 地址填了对吧。
ip写的是对的,主备namenode都试过,错误一样
所以。。是 ip 地址不对吗
是在解析配置文件 source 部分
原来如此。那你可以勾选自己这条回复为【解决方案】啊,就是问题的原因是什么。