在使用spark-connector读取nebula的数据时,spark提交的任务卡死,我的版本如下
nebula v3.5.0
spark 3.4.3
spark通过docker-compose启动
nebula-spark-connector版本为3.4.0
Java中代码如下
观测spark的webui界面一直在执行,但是就是卡住,半个小时也读不出来数据,数据量很小,只有几十条
在使用spark-connector读取nebula的数据时,spark提交的任务卡死,我的版本如下
nebula v3.5.0
spark通过docker-compose启动
nebula-spark-connector版本为3.4.0
Java中代码如下
数据读取自哪? 数据 show一下。 connector日志贴上来一下
此话题已在最后回复的 7 天后被自动关闭。不再允许新回复。