Nebula-exchange导入失败

download hdfs:




手动上传目录并且执行ingest



没有任何日志信息

用的哪个版本?

我在描述一下我的现象
1.配置好了hadoop_home以及java_home
2.download hdfs failed,转而尝试手动上传到data目录的download下面
3.手动ingest

nebula-graphd version 3.3.0, Git: c9f84b1, Build Time: Oct 25 2022 17:37:50
This source code is licensed under Apache 2.0 License.

  1. 要保证 storaged 的进程启动时候有这些变量,downlowd hdfs client call 是从 storaged 进程发起的

  2. @nicole 这边 sst 导入之后数据查不出来(内核 3.3.0),可能和配置有关么?比如 repartitionWithNebula: False ?

在启动脚本指定了export HADOOP_HOME以及JAVA_HOME,大佬可以看一下我的第一张图

另外还有一个想象就是没有任何日志信息,只有一些端口被占用的waring,但是实际上进程正在running

{
  # Spark config
  spark: {
    app: {
      name: NebulaGraph_Exchange
    }
  }

  # Nebula Graph config
  nebula: {
    address:{
      graph:["xx:9669"]
      meta:["xx:9559"]
    }
    user: root
    pswd: nebula
    space: test

    path:{
        # any path that owns read and write access is ok
        local:"/tmp"
        remote:"/tmp/xx"
        hdfs.namenode: "hdfs://ha-nn-uri"
    }

    # nebula client connection parameters
    connection {
      timeout: 30000
    }

    error: {
      max: 32
      output: /tmp/errors
    }

    rate: {
      limit: 1024
      timeout: 3000
    }
  }

  # Processing tags
  tags: [
    {
      name: TestNode
      type: {
        source: hive
        sink: sst
      }
      exec: "select src_vid vid  from xx where src_vid='xx' union select dst_vid vid  from xx where src_vid='xx'"
      fields: []
      nebula.fields: []
      vertex: vid
      batch: 2000
      partition: 60
    }
  ]

  # process edges
  edges: [
    {
      name: TestEdge
      type: {
        source: hive
        sink: sst
      }
      exec: "select src_vid,dst_vid,edge_type,unix_timestamp(timestamp) ts,status from xx"
      fields: [status]
      nebula.fields: [status]
      source: src_vid
      target: dst_vid
      ranking: ts
      batch: 2000
      partition: 60
    }
  ]
}

可以先用 nebula sink,不用 sst ,验证/保证一下 hive source 这些都是ok的么?

确认了是ok的,因为看不到日志,不知道storaged发生了啥

@nicole

sink 非 sst 已经 ok 了,只是 sst 有问题,可能是什么原因呢?

无关

@心之所向 download失败原因可能有几点:

  1. 你的download hdfs目录只需要指定到/tmp/risk, 因为metad会根据该目录下的 目录(目录是nebula space part名)来确定哪些storaged下载哪些part
  2. NebulaGraph graphd配置文件中有配置metad 的http port, metad配置文件中有配置storaged的http port。

ingest后没有数据,你的exchange版本是多少?你的源数据中src_vid 和dst_vid是几个字符?
ps:

  1. 三副本space,每个storaged都要有下载的sst文件
  2. 你生成sst是基于当前的test space来生成的
1 个赞

此话题已在最后回复的 30 天后被自动关闭。不再允许新回复。