nebula-importer导入csv文件,报错:ErrMsg: Storage Error: part: 1, error: E_RPC_FAILURE(-3)., ErrCode: -1005

都差不多 没啥特别的 :joy:

就从这个图看, 能得到个结论是 storaged 到 metad 的网络不稳, 但是没断
(因为这个东东, 是个保活的模块, 会不停地发心跳, 如果网络没断就不会重新去 resolve)

在有问题的那个storage机器检查下和meta的链接,netstat -antp或者ss -nt 之类的

并发数设小一点,是可以成功导入的,导入速度大概在1.2w/s,一旦并发数设大一点,导入速度大于2w/s,就会报这个错,能不能调整一下什么参数,优化一下性能啊

嗯… 其实我们一般推荐是在 SSD 上跑 rocksdb, HDD 就是验证下功能, 速度差很多的.

后续我们会申请SSD,目前的话,没有参数能优化一下嘛,内存基本都没怎么用上啊,CPU利用率到是挺高的

rocksdb compaction 这东西耗 CPU, 然后您是 HDD, 写盘又慢…

我关了compaction感觉也没啥用

后端存储支持Hbase嘛

现在不支持

这个 graphd CPU 也好高, 是在查询吗?

在导数据 :joy:

看这个 CPU 跟内存的比率是比较尴尬 :joy:. 先赖 HDD…

目前在导6kw的节点和16亿条边,在使用HDD的情况下,有没有比较好的方案呢 :joy:

我也遇到了同样的问题,集群中一台服务器的storage到metad的网络有问题,connection failed导致插入数据部分失败。我这边是ssd,且其他的storaged都没问题。请问由什么好办法吗?


监控了一下io的数据,发现磁盘利用率也不高,觉得很迷惑,到底是啥原因导致报错 :joy:

导数据的时候吗?

对的

docker容器在同一台宿主机上面,把容器网络连接全部改为host呢,能不能解决这个问题呢

show hosts 看一下 leader 是不是不平衡, 如果是的话 balance leader 一下