docker-compose 没启动
嗯,那应该不行,你如果 exchange/spark 也在同一个容器网络里,直接用 graphd metad1 这样的容器名字就行。如果不在容器网络里的话有点麻烦。
另外,现在 nebula-up 已经有一个新的全家桶模式
你清理掉之前的环境,重新执行
curl -fsSL nebula-up.siwei.io/all-in-one.sh | bash -s -- v3 spark
就能拉起来 nebulagraph + spark-hadoop + exchange(还有算法和 spark connector) 环境,这里我有介绍 一文了解 Nebula Graph 上的 Spark 项目 - siwei.io
不过我还没提供 sst 的进去,你可以结合这个文章在这个之后跑起来,现在不用把 meta 改成一个,直接应该可以支持的
全家桶安装报错了,麻烦帮忙看下
Boostraping Nebula Graph Studio with Docker Compose…
WARNING: The MAPPING_DOCKER_DIR variable is not set. Defaulting to a blank string.
Pulling web … error
ERROR: for web Impossible to perform platform-targeted builds for API version < 1.35
ERROR: Impossible to perform platform-targeted builds for API version < 1.35
WARNING: The MAPPING_DOCKER_DIR variable is not set. Defaulting to a blank string.
Pulling web (vesoft/nebula-graph-studio:v3.2.3)…
ERROR: Impossible to perform platform-targeted builds for API version < 1.35
Failed in Step: install nebula graph studio
Exiting, Stack Trace: install_nebula_graph_studio
升级一下 docker-compose ,版本太低了
docker部署nebula是不是不支持导入sst?
全家桶安装完成后
SUBMIT JOB DOWNLOAD HDFS "hdfs://*.*.*.*:9000/sst";
看日志显示sh: hdfs: command not found
我进入容器安装后,storage0,storage1,storage2都安装了hdfs后
nebula就访问不了
容器卸载重装又可以了
这里我给的例子就是手动做 download 的,这里目前假设 storaged 所在环境里有 hdfs client
我在storaged容器都安装了hdfs,装完后,发现graph访问不了,安装的有问题?
安装了jdk8、hadoop-2.10
注意环境变量哈,让启动程序的 env 里有需要的东西
此话题已在最后回复的 7 天后被自动关闭。不再允许新回复。