- nebula 版本: 1.1.0
- 部署方式(分布式 / 单机 / Docker / DBaaS):分布式
- 硬件信息
- 磁盘( 必须为 SSD ,不支持 HDD): SSD
- CPU、内存信息:
- 出问题的 Space 的创建方式:执行
INSERT VERTEX ad_slot() VALUES hash("V4"):();
- 问题的具体描述 :
修改了集群配置,重启后,插入点,报以下错误
Insert vertex not complete, completeness: 0
INSERT VERTEX ad_slot() VALUES hash("V4"):();
Insert vertex not complete, completeness: 0
请贴一下对应的storage log
这是一个已知的bug,storage的问题
在studio 中查询后,在storage 对应的log 日志
请问后续,你们是怎么解决的?
nebula-metad日志:
E1209 18:58:09.181972 32399 HeaderServerChannel.cpp:114] Received invalid request from client: N6apache6thrift9transport19TTransportExceptionE:
Header transport frame is too large: 4294246397 (hex 0xfff4fffd) (transport N6apache6thrift5async12TAsyncSocketE, address ::ffff:172.20.19.143, port 64317)
nebula-storaged日志:
E1209 18:29:37.301854 18084 RaftPart.cpp:635] [Port: 44501, Space: 39, Part: 20] Cannot append logs, clean the buffer
E1209 18:29:38.019066 18084 RaftPart.cpp:365] [Port: 44501, Space: 39, Part: 15] The partition is not a leader
E1209 18:29:38.019146 18084 RaftPart.cpp:635] [Port: 44501, Space: 39, Part: 20] Cannot append logs, clean the buffer
E1209 18:29:38.655387 18084 RaftPart.cpp:365] [Port: 44501, Space: 39, Part: 20] The partition is not a leader
E1209 18:29:38.655450 18084 RaftPart.cpp:635] [Port: 44501, Space: 39, Part: 15] Cannot append logs, clean the buffer
E1209 18:29:39.220288 18085 RaftPart.cpp:365] [Port: 44501, Space: 39, Part: 30] The partition is not a leader
E1209 18:29:39.234928 18085 RaftPart.cpp:635] [Port: 44501, Space: 39, Part: 20] Cannot append logs, clean the buffer
E1209 18:29:40.020717 18085 RaftPart.cpp:365] [Port: 44501, Space: 39, Part: 20] The partition is not a leader
nebula-storaged日志:
I1209 18:47:03.821368 17047 InMemoryLogBuffer.h:27] [Port: 44501, Space: 39, Part: 21] InMemoryLogBuffer dtor, firstLogId 2542183
I1209 18:47:03.823328 17047 InMemoryLogBuffer.h:23] [Port: 44501, Space: 39, Part: 21] InMemoryLogBuffer ctor, firstLogId 2570776
I1209 18:47:05.030561 17044 InMemoryLogBuffer.h:27] [Port: 44501, Space: 39, Part: 1] InMemoryLogBuffer dtor, firstLogId 2542182
I1209 18:47:05.032760 17044 InMemoryLogBuffer.h:23] [Port: 44501, Space: 39, Part: 1] InMemoryLogBuffer ctor, firstLogId 2570782
I1209 18:47:05.690618 17055 InMemoryLogBuffer.h:27] [Port: 44501, Space: 39, Part: 16] InMemoryLogBuffer dtor, firstLogId 2542184
I1209 18:47:05.692570 17055 InMemoryLogBuffer.h:23] [Port: 44501, Space: 39, Part: 16] InMemoryLogBuffer ctor, firstLogId 2570843
I1209 18:47:08.225211 17045 InMemoryLogBuffer.h:27] [Port: 44501, Space: 39, Part: 11] InMemoryLogBuffer dtor, firstLogId 2542182
多试几次,应该是client还没找到leader
麻烦想问一下~ 类似这种重启啊或者什么别的原因导致的leaer切换啥的
读请求和写请求的时候,graph层能不能内部自己有一个重试啥的~
上层应用使用的时候是拿nebula当一个整体去使用的,感觉没必要关心底下是不是leader切换了啥的吧。。
2.0做了这个重试
哇~ 攒~
想请问下 , 这里说的client指的是Garphd节点吗?
graph会使用storage client,值这个
满意答复,谢谢