import导入数据时files.schema.vertex.tags.props.type省略会导入失败

  • nebula 版本:(2.5.0)

  • 部署方式(分布式):

  • 是否为线上版本:Y

  • 硬件信息

    • 磁盘( 推荐使用 SSD)
  • 相关的 meta / storage / graph info 日志信息(尽量使用文本形式方便检索)

yaml文件内容如下:

# 连接的Nebula Graph版本,连接2.x时设置为v2。
version: v2

description: import_uid_tid_rel_0628

# 是否删除临时生成的日志和错误数据文件。
removeTempFiles: false

clientSettings:

  # nGQL语句执行失败的重试次数。
  retry: 1

  # Nebula Graph客户端并发数。设置为 CPU 核数
  concurrency: 24

  # 每个Nebula Graph客户端的缓存队列大小。
  channelBufferSize: 2560

  # 指定数据要导入的Nebula Graph图空间。
  space: uid_sim_0628

  # 连接信息。
  connection:
    user: root
    password: nebula
    address: 10.185.10.113:9669

  postStart:
    # 配置连接Nebula Graph服务器之后,在插入数据之前执行的一些操作。
    commands: |
      DROP SPACE IF EXISTS uid_sim_0628;
      CREATE SPACE IF NOT EXISTS uid_sim_0628(partition_num=15, replica_factor=1, vid_type=FIXED_STRING(32)) ";
      USE uid_sim_0628;
      CREATE TAG uid();
      CREATE TAG mcn();
      CREATE TAG blk_uid(flag int);
      CREATE TAG wt_uid(flag int);
      CREATE TAG grey_uid(flag int);
      CREATE EDGE sim(tidList string,sim_cos_dacay1 float,sim_jac_dacay1 float,sim_jac float,uid_tid_node_cnt int,uid_tid_cnt_start int,uid_tid_cnt_end int);

    # 执行上述命令后到执行插入数据命令之间的间隔。
    afterPeriod: 15s

  preStop:
    # 配置断开Nebula Graph服务器连接之前执行的一些操作。
    commands: |

# 错误等日志信息输出的文件路径。    
logPath: ./err/test3output.log

# 1.CSV文件相关设置。
files:

    # 数据文件的存放路径,如果使用相对路径,则会将路径和当前配置文件的目录拼接。本示例第一个数据文件为点的数据。
  - path: ./data/data_uid_mcn0_blk0_wt0.csv

    # 插入失败的数据文件存放路径,以便后面补写数据。
    failDataPath: ./err/data_uid_mcn0_blk0_wt0_err.csv

    # 单批次插入数据的语句数量。
    batchSize: 1000

    # 读取数据的行数限制。
    #limit: 1000

    # 是否按顺序在文件中插入数据行。如果为false,可以避免数据倾斜导致的导入速率降低。
    inOrder: false

    # 文件类型,当前仅支持csv。
    type: csv

    csv:
      # 是否有表头。
      withHeader: true

      # 是否有LABEL。
      withLabel: false

      # 指定csv文件的分隔符。只支持一个字符的字符串分隔符。
      delimiter: ","

    schema:
      type: vertex
      vertex:
        tags:
          - name: uid

        

# 2.CSV文件相关设置。

    # 数据文件的存放路径,如果使用相对路径,则会将路径和当前配置文件的目录拼接。本示例第一个数据文件为点的数据。
  - path: ./data/data_uid_mcn0_blk0_wt1.csv

    # 插入失败的数据文件存放路径,以便后面补写数据。
    failDataPath: ./err/data_uid_mcn0_blk0_wt1_err.csv

    # 单批次插入数据的语句数量。
    batchSize: 1000

    # 读取数据的行数限制。
    #limit: 1000

    # 是否按顺序在文件中插入数据行。如果为false,可以避免数据倾斜导致的导入速率降低。
    inOrder: false

    # 文件类型,当前仅支持csv。
    type: csv

    csv:
      # 是否有表头。
      withHeader: true

      # 是否有LABEL。
      withLabel: false

      # 指定csv文件的分隔符。只支持一个字符的字符串分隔符。
      delimiter: ","

    schema:
      type: vertex
      vertex:
        tags:
          - name: uid
          - name: wt_uid
            props:
              - name: flag
                type: int    

上面代码中,如果不加最后一行

type: int

import时日志为:

2021/09/15 16:35:37 — START OF NEBULA IMPORTER —
2021/09/15 16:35:37 [INFO] config.go:380: find file: /data1/idata/uid_tid_rel/data/data_uid_mcn0_blk0_wt0.csv
2021/09/15 16:35:37 [INFO] config.go:380: find file: /data1/idata/uid_tid_rel/data/data_uid_mcn0_blk0_wt1.csv
2021/09/15 16:35:38 — END OF NEBULA IMPORTER —

如果加了最后一行,就能正常导入。

可是,files.schema.vertex.tags.props.type这个参数不是不必须的吗?


你说的是这个 type 吗?

是的

- -。这个需要的啊,模版里的东西都是最小所需信息啊,你如果一个属性不指定类型的话,你一个 int 类型传入了 string,然后又用这个 int 来做数值比较不就出问题了吗 :crazy_face: 你仔细看看模版里的东西,试着去理解、接受下它,你大概就明白它的为啥是现在这样了。

第一,之所以说files.schema.vertex.tags.props.type这个字段不必须,是看了nebula官方文档Nebula Importer

第二,在CREATE TAG时已经写了flag这个字段的类型,正常情况下,它会自动转换为创建时候此字段的类型。

在导入边的时候,就没有指明srcVID.Type,它会自动转换

2 个赞

优秀,我让研发来看看

你好, 文档写的不太准确.
实际上是

  • vid(点的vid, 以及边的srcVid, dstVid)的type可以不用指定, 有默认值string, 因为nebula 2.0大部分人都会把vid类型设置为string, 所以指定默认值有点意义
  • 属性的type必须指定, 没有默认值, 因为属性的类型太多了, 预设一个默认的类型没意义的.
    你说的在create tag里已经写了类型, 理论上importer可以给graphd服务发个请求, 查下该字段的类型, 但现在简单起见, 没有这种做.
2 个赞

@foesa

收到,已经在修改文档了

1 个赞

浙ICP备20010487号