无法创建图空间 RPC failure in MetaClient: N6apache6thrift9transport19TTransportExceptionE: AsyncSocketException: connect failed, type = Socket not open, errno = 111 (Connection refused): Connection refused

  • nebula 版本:(v2.0.0)
  • 部署方式(Docker):
  • 是否为线上版本:N
  • 硬件信息
    • 磁盘: 480G SSD
    • CPU: 24G
  • 操作系统: Windows 10 专业版 20H2

我的步骤是这样的:

请问如何解决

你通过docker-compose看下容器服务的状态,看下是否是health的。假如到现在还是unhealth的话,你可以把meta的info日志贴出来吗?
还有你是不是刚启动不久就用console连接,你可能需要等一会之后再重试下,一开始meta和storage都在做leader选举,开放服务端口时间可能比较久。

按照教程重新走了一遍, 问题已解决, 感谢!

出现这个问题之后, 我把所有镜像都删了之后再重新按照教程走了一遍, 结果是开可以的. 但是今天我重启我的电脑后开启docker就又出现这个问题了.

运行docker run --rm -ti --network nebula-docker-compose-v200_nebula-net --entrypoint=/bin/sh vesoft/nebula-console:v2-nightly结果如下

此时运行docker-compose ps, 有些服务是healthy有些是unhealthy

我去吃完饭之后再次尝试docker-compose ps, 结果依然是一样, 最后四项(metad2以及storaged0, 1, 2)还是unhealthy


开放服务端口时间应该不需要这么久吧? 我上次好像没等多久就运行了nebula-console -u user -p password --address=graphd --port=9669 , 结果是可以的, 但是这次就不行了, 很迷惑.

还有你说的meta的info日志是在哪里呢?

补充: 刚刚部署好启动的时候是没问题的; 但是我创建图空间后关掉再启动, 三个storaged服务都是unhealthy, 不知道是不是我创建了图空间的原因. 创建图空间我用的是官网文档中的 CREATE SPACE basketballplayer(partition_num=15, replica_factor=1, vid_type=fixed_string(30)); 第一次创建之后是可以正常运行的, 创建tags和edge都没问题. 我的机器是win10(20H2版本), 24G内存, 480G固态

在 nebula-docker-compose 目录下面 logs里面有三个metad服务的日志目录,还有三个storage的日志目录

日志信息挺长的, 我把文件放在下面
nebula-metad.a6b5f9c112d9.root.log.INFO.20210613-112637.1 (561.1 KB)
nebula-metad.a6b5f9c112d9.root.log.WARNING.20210613-112801.1 (2.9 KB)

看日志是metad2发送给metad0和metad1的消息没有响应,把你docker-compose的配置贴出来还有把三个metad的info日志都贴下吧

有劳了! 信息在下面的文件里, 配置没有改过.
info.zip (7.2 MB)

你可以修改docker-compose.yaml 里面的所有metad的配置 --v=0,修改为 --v=3,然后再重新启动服务,再把metad info的日志发下吗?

已经按照您的建议修改了, 还是有些服务unhealthy, 不同的是修改前只有metad2和三个storaged是unhealthy, 修改之后三个metad和三个storaged都是unhealthy. 日志信息在下面:
info-1.zip (7.4 MB)

你是不是修改错了,你修改的不是metad 的v,而是其他服务的,我看了metad的日志里面日志级别不是3
Screen Shot 2021-06-15 at 16.14.30

不是这样子吗?

是的,抱歉,我看错日志了,你那个metad2网络延迟太高了,导致超时了,所以通信异常。你修改下给metad2的配置增加 - --raft_rpc_timeout_ms=2000

你的环境好奇怪,为啥就meta2的网络延迟那么高,你可以换下端口号,看下还会延迟这么高吗

加上- --raft_rpc_timeout_ms=2000还是unhealthy哎, 感觉应该不是环境的问题, 因为我重新拉了nebula-docker-compose后启动这个repo就是正常的.
我现在有三个repo(第一个正常, 第二三个unhealthy, 三个repo都是默认的配置)
image
其中两个启动的时候有些metad和storaged会unhealthy


另一个就是正常的.

还有您上面说的 换下端口号 具体是在哪里换呀, 因为我看yaml文件里面端口号挺多个的

你咋可以在一台机器上面启动三个集群,端口号都应该会冲突

每次只开一个, 开其他的时候另外的关掉

你这三个目录的配置发下

正常启动的nebula-docker-compose: docker-compose.yaml (6.8 KB)
unhealthy的nebula-docker-compose-old: docker-compose.yaml (6.8 KB)
unhealthy的nebula-docker-compose-v2.0.0docker-compose.yaml (6.8 KB)

你这三份配置都是一样的,唯一区别可能就是你的data目录,你那两个异常的目录的data目录,你先备份下,然后删掉data目录,重新启动看下,是不是就正常了

1 个赞