nebula-spark-connector 如何支持并发读取数据

nebula数据量很大的情况下,
1、nebula-spark-connector如何 配置多task同时读取数据,避免数据在一个task上被加载,导致内存溢出的问题。
2、是否可以设置分区规则,及如何设置numPartitions 更合理?

可以并发读。Nebula 有多少 part 数 就设置多少个 partitionNum 最合理。本身一个 part 的读取就是多线程并发读取的

此话题已在最后回复的 30 天后被自动关闭。不再允许新回复。