nebula-spark-connector 相关问题

使用过程中遇到如下问题,不知道各位大佬是怎么看待以下这几个问题
1、每次查询nebula 点和边都要重新创建连接。多次查询连接不能共享?
2、目前spark-connector不支持ngql,所以每次要加载全部数据在过滤。导致很多资源浪费?

稍等一会哈,这个问题我们的布道师在看,他需要点时间~

抱歉在忙别的。

2. spark connector 的数据读取定位在分析、计算的场景,所以是从 storageD 去扫描全图子图数据的,如果有 nGQL 接口的读场景,可以考虑从 Spark 里调用 nebula-java ?

1. nebula spark c 定义在长链接或者 batch 的场景,而不是那种线上并发的模式,如果您在意不断创建、释放连接的开销,我感觉 spark connector 可能不是最好的选择吧?也许可以直接用 nebula-java,在里边维护连接 session 的 queue,按需取用而不释放,所有语言(python,go,cpp,…)的 nebula client 都是为这样线上应用设计的类似的模式。

1 个赞

收到,理解您的意思。谢谢回复。

1 个赞

如果你觉得 wey 的回复解决了你的问题,可以勾选他的回复为解决方案哈~ 谢谢 ppqq121827

此话题已在最后回复的 7 天后被自动关闭。不再允许新回复。