nebula-exchange-2.6.0-jar导入hive数据,多个tag配置文件怎么写?单个tag也报错是怎么回事?

配置图

下图报错是我把默认的nebula.path.local和nebula.path.remote写上报的错


下图报错是,我未写nebula.path.local和nebula.path.remote报的错

Nebula Graph 版本号补充下

2.6.0的,但是后续可能会升级到3.0

我猜可能是配置文件写错了,也许是某个位置少了一个分号?请检查一下,谢谢

config.scala 382,看看源文件这一行是干啥的 :thinking:

把 你的配置文件文本贴一下,别截图了,这样我们要修改的话也好修改

{
  spark: {
    app: {
      name: Nebula Exchange 2.6.0
    }
    driver: {
      cores: 1
      maxResultSize: 1G
    }
    cores {
      max: 16
    }
  }


  nebula: {
    address:{
     
      graph:["ip1:9669","ip2:9669","ip3:9669"]
      meta:["ip1:9559","ip2:9559","ip3:9559"]
    }
    user: root
    pswd: nebula
    space: basketballplayer
	 path:{
        local:"/tmp"
        remote:"/sst"
        hdfs.namenode: "hdfs://*.*.*.*:9870"
    }
    connection {
      timeout: 3000
      retry: 3
    }
    execution {
      retry: 3
    }
    error: {
      max: 32
      output: /tmp/errors
    }
    rate: {
      limit: 1024
      timeout: 1000
    }
  }
  tags: [
    {
      name: player
      type: {
        source: hive
        sink: client
      }
      exec: "select playerid, age, name from basketball.player"
      fields: [age,name]
      nebula.fields: [age,name]
      vertex:{
        field:playerid
      }
      batch: 256
      partition: 32
    }
  ]
}

这个就是模版了,仅供参考哈,后面再加一个,修改下 name 和指定的 vertex 之类的参数就好了,报错的话,你按照上面 sworduo 的回复,看看这行是有啥问题,也许是方括号或者是花括号没闭合。

好的 我再看看,刚刚对了好几遍格式没啥问题,现在只是测试一下,好方便以后使用

嗯嗯,你去看看符号。有问题可以再来更新下帖子

我是拿的官网的hive的导入例子,所以都是这个格式,刚刚又对了两遍格式没啥问题,就是我用官网的那个hive的导入配置文件,使用client方式就不报错,改成了sst,然后加入path的的配置就会报这个错的,不管是多个tag或者单个都是报这个错误

这一行是使用dataSinkConfig方法获取nebula的配置和sst方式的hdfs的配置

看了好几遍并没有 :sob:

看看附近的代码,配置解析出问题了应该很好找才对 :rofl:

主要是我相信官网提供的代码 :dog:

:thinking: 你确认下,这个 path 的 ip 地址填了对吧。

ip写的是对的,主备namenode都试过,错误一样

所以。。是 ip 地址不对吗

是在解析配置文件 source 部分

原来如此。那你可以勾选自己这条回复为【解决方案】啊,就是问题的原因是什么。