python调用nebula接口读取数据怎么转换成dataframe格式

我在使用ng_ai进行本地测试(未进行docker安装)时,将nebula-spark-connector-3.3.0.jar放入配置文件后(pyspark3.1.1),运行出现了“ com.vesoft.nebula.client.meta.exception.ExecuteFailedException: Execute failed: no parts succeed, error message: Unable to activate object“,


代码如下:
image

请问这是什么原因呢?

这个不太清楚,没碰到过…

好的好的,谢谢 ,我在发个帖子问下

ng_ai 我还没有从 spark3.x 上验证过,现有的依赖好像是 pyspark 2.4 的

1 个赞

需要再重新compile dependency?

抱歉我记错了,看了下是 pyspark>=3.2.3 看了 3.2.3 支持 spark 3.2。
不过我还没验证过 spark 3.x 还

此话题已在最后回复的 7 天后被自动关闭。不再允许新回复。