loadEdgesToDF 如何一次取到 整个库中所有的边

val config =
NebulaConnectionConfig
.builder()
.withMetaAddress(“127.0.0.1:9559”)
.withTimeout(6000)
.withConenctionRetry(2)
.build()
val nebulaReadEdgeConfig: ReadNebulaConfig = ReadNebulaConfig
.builder()
.withSpace(“test”)
.withLabel(“knows”)
.withNoColumn(true)
.withLimit(2000)
.withPartitionNum(100)
.build()
val df: DataFrame = spark.read.nebula(config, nebulaReadEdgeConfig).loadEdgesToDF()

请问:withLabel(“knows”) 是边的名称, 数据库中有很多边的名称,怎么才能一次性取出所有的边数据?

一次只能指定一个edge type,想获取多个可以分别进行读取之后进行列裁剪处理成同构数据,进行union。

1 个赞

知道了。但是,如果边特别多的话,效率会很低的,dataframe的合并 也挺耗时的。

此话题已在最后回复的 7 天后被自动关闭。不再允许新回复。