pyspark链接图数据库报错

我重新拉取的时候老是自动停止报错 ,是基本环境已经安装好了吗?

什么都不用改,执行 ~/.nebula-up/nebula-pyspark.sh 就是进入 pyspark shell

我一台服务器上面部署的单机为什么会有三个

思为老师 我在console中查询host meta 显示这个我应该怎么去链接呢

您说的这种情况包括docker部署吗?

此话题已在最后回复的 30 天后被自动关闭。不再允许新回复。