用 docker- compose 部署的 nebula,能否用 spark- connector

本帖问题来源于微信群:NebulaGraph 交流群·Pluto,进群请点击 这里

shel fee:如果我使用 docker-compose 部署的 nebula,是不是不能用 spark-connector,因为会出现 UnkonwHostException,这些域名外部没法识别 。

wey:如果使用服务器端,可以试试 nebula-up 里边自带 Spark 环境,进去跑 PySpark 就行。生产推荐用二进制部署,meta/storaged 的 ip 配置成外部(Spark 集群)可达的地址就行。 如果用桌面上 NebulaGraph 的 Docker Extension 的话,我在 nebulagraph-ai 环境里也集成了 spark 环境。

这两个文章有介绍,把 spark 跑 同一个容器网络里就行。