Nebula3.0.2版本对应flink connector pom 依赖下载不到

提问参考模版:

  • nebula 版本:3.0.2
  • 部署方式:单机
  • 安装方式:RPM
  • 是否为线上版本:N
  • 硬件信息
    • 磁盘( SSD)
    • CPU: 4核、内存: 8G
  • 问题的具体描述
    我需求是想调研实时如图,比如这样的场景,Flink 实时从kafka 处理成Nebula需要的点边格式,然后使用Flink connector 入图,我按照官网关于flink connector 提供的pom 在我的maven项目中引入不到该依赖
    参考链接:
    https://github.com/vesoft-inc/nebula-flink-connector

反过来去maven 中央仓库 找到对应的flink 3.0.0 版本,然后引入到pom 中,没有报错,这个跟上面链接最下面说明一致,但其中GAV 已改变!

本地pom 引入,没有报错,如下:

把pom 定义中pom 去掉也不行,我想知道目前如何解决包引入不到问题?
是否一定需要自己拉源码编译然后本地引入?
看了maven 中关于 pom 相关介绍,主要是为了解决pom 文件过大问题,没明白我们这里为什么要定义成pom类型,以及目前我如何能引用到相关对象?

  1. 如果用 snapshot,在项目的 pom 里,定义一下 snapshot 的仓库,参考
    nebula-flink-connector/pom.xml at master · vesoft-inc/nebula-flink-connector · GitHub
    <repositories>
        <repository>
            <id>snapshots</id>
            <url>https://oss.sonatype.org/content/repositories/snapshots/</url>
        </repository>
    </repositories>
  1. 如果用正式的 3.0.0,使用 https://mvnrepository.com/artifact/com.vesoft/nebula-flink-connector/3.0.0
<!-- https://mvnrepository.com/artifact/com.vesoft/nebula-flink-connector -->
<dependency>
    <groupId>com.vesoft</groupId>
    <artifactId>nebula-flink-connector</artifactId>
    <version>3.0.0</version>
</dependency>
2 个赞

收到,另外已咨询一下,实时入图这块,flink 实时处理计算数据,生成点边数据通过flink 入图,这个流程中在flink计算 主要把点边更新,新增,删除这些数据给得到之后再入图么,还是说只需要把点边文件生成,直接入图Nebula会自己判断数据是新增,更新,删除,这个其实也是增量和全量的问题,是希望第一次全量,之后都是增量去入图,但是增量的这部分是在计算层做好还是直接入图给Nebula自己判断,像有些交易类的,可能会用到过去1-2年甚至更长时间的数据,如果在ETL层计算会很长时间才能得到哪些是新增,哪些是删除,哪些是更新的,这块Nebula 怎么考虑的,看官方介绍没有相关增量全量介绍,求指教!

此话题已在最后回复的 30 天后被自动关闭。不再允许新回复。