嗯,那应该不行,你如果 exchange/spark 也在同一个容器网络里,直接用 graphd metad1 这样的容器名字就行。如果不在容器网络里的话有点麻烦。
另外,现在 nebula-up 已经有一个新的全家桶模式
你清理掉之前的环境,重新执行
curl -fsSL nebula-up.siwei.io/all-in-one.sh | bash -s -- v3 spark
就能拉起来 nebulagraph + spark-hadoop + exchange(还有算法和 spark connector) 环境,这里我有介绍 一文了解 Nebula Graph 上的 Spark 项目 - siwei.io
不过我还没提供 sst 的进去,你可以结合这个文章在这个之后跑起来,现在不用把 meta 改成一个,直接应该可以支持的