批量删除点报错

提问参考模版:

  • nebula 版本:v2.0-ga
  • 部署方式(分布式 / 单机 / Docker / DBaaS):RPM
  • 硬件信息
    • 磁盘( 推荐使用 SSD)
    • CPU、内存信息
  • 问题的具体描述
  • 相关的 meta / storage / graph info 日志信息
    使用语句lookup on bigdata_treat_zy | delete vertex $-.VertexID直接弹出去了,不能再次连接。
    测试删除1000条可以,删除1W条lookup on bigdata_treat_zy | limit 10000 | delete vertex $-.VertexID也是这错误,使用rc2版本没有遇到这问题。

    再次连接:

graphd 日志贴下。然后dmesg贴下,是不是内存不够。
进程应该没了

进程没了一个


error日志:

info日志:

warning日志:

dmesg看下

dmesg怎么看?

image

直接输入的命令dmesg吗?太多了都没展示完,RPM只修改过目录,没有修改过配置文件


内存使用情况

dmesg |grep nebula 截图,或者看下安装目录下面有没有core 文件。

dmesg |grep nebula命令没有输出信息,
安装目录文件:

把stderr.log内容贴出来

graphd-stderr.log日志:


其他两个空的

好的,谢谢你提供的日志,我们尽快排查问题原因。

你可以执行下

UPDATE CONFIGS graph:v=1;

然后再执行删除,然后把nebula-graphd.INFO的日志贴出来吗?

执行后nebula-graphd.INFO日志:


还是报一样的错

服务crash了,但是没有打印 Resp size:?
你不是有多个graphd吗?你要执行删除之后,服务crash了,才去看日志哦。

crash是重启nebula?我在虚拟机试了下,UPDATE CONFIGS graph:v=1;之后执行删除好像没问题,服务器上执行出错

crash就是产生core文件了,console 连接也会断开。

nebula-graphd.INFO日志:


重新安装了nebula删除成功了,
之前删除失败一次会产生一个core文件。
UPDATE CONFIGS graph:v=1;这句是每次删除都要先执行一次还是可以在哪里配置?

UPDATE CONFIGS graph:v=1;这句是每次删除都要先执行一次还是可以在哪里配置?

这个只是修改日志级别,把一些debug日志打出。

重新安装了nebula删除成功了

你重装之后就不出现了?
你可以看下这之间的区别吗,你之前的是不是直接用rc版本的数据升级到ga版本,做的删除操作,然后现在重装是,是把数据删除了重装?