spark-connect是2.6.0
nebula是2.6.1
很奇怪,我自己写代码通过spark connect read去读数据就报这两个错误,第一张图是每次第一次执行的时候报的错误,第二张是后面再执行的时候报的错误,但是我如果写代码打成jar的形式提交到集群上可以写数据,依赖都是加到spark-connect依赖
spark-connect是2.6.0
nebula是2.6.1
很奇怪,我自己写代码通过spark connect read去读数据就报这两个错误,第一张图是每次第一次执行的时候报的错误,第二张是后面再执行的时候报的错误,但是我如果写代码打成jar的形式提交到集群上可以写数据,依赖都是加到spark-connect依赖
依赖冲突
那怎么改
解决你本地的spark版本问题, spark版本不匹配。
我的spark是3.0的 你是说我要把spark版本降低吗?
文档明确说明了 要求的spark版本信息。 spark3 不兼容
?? 我看到的只是exchange说了, spark-connect没看到spark3.0不兼容