nebula-spark-connector 中的reader 中ngql 不起作用


如图所示,相同的ngql在console中得到了正确的结果,但是在spark中运行,看起来,ngql并没有被执行,spark只是遍历了loan_account_id这个点,返回相应的字段而已。请问各位大神要怎么在spark中使用ngql去获取数据?

你哪里参考的示例?

是不是只是格式不一样而已呢?

我不太确定 connector 里可以写 ngql。。所以想问下你从哪里看到的示例

spark connector run ngql 如何传多个label - 问答 / 问题 - NebulaGraph 技术社区 (nebula-graph.com.cn)

之前只能返回edge,看了相关的pr 改动不多,所以你这样是无法得到结果的

2 个赞

此话题已在最后回复的 30 天后被自动关闭。不再允许新回复。

抱歉 @chunnankang 我错过了你的 DM

如 Reid00 老师说的,我在 feat: support path in nGQL, optimized nGQL edge reader by wey-gu · Pull Request #133 · vesoft-inc/nebula-spark-connector · GitHub 只是扩展了 ngql query 的 return 格式的支持,本质上是 edge reader,没有 node feature 获取的部分。

因为大多数算法的读取都是面向 edge 的。目前来说你想要得到 node feature 的话,可以用我的另一个项目 nebulagraph-networkx (ngnx)

2 个赞