nebula-importer导入csv文件,报错:ErrMsg: Storage Error: part: 1, error: E_RPC_FAILURE(-3)., ErrCode: -1005

我第一次给您截的图就是nebula-storaged.INFO的 :joy:


啊? 这后面就没有啦?

后面都是这些

这台 storaged 感觉没干啥呢? 也没报什么错. 看您说现在有5 个 storaged, 别的 storaged log 有啥特别的吗?

都差不多 没啥特别的 :joy:

就从这个图看, 能得到个结论是 storaged 到 metad 的网络不稳, 但是没断
(因为这个东东, 是个保活的模块, 会不停地发心跳, 如果网络没断就不会重新去 resolve)

在有问题的那个storage机器检查下和meta的链接,netstat -antp或者ss -nt 之类的

并发数设小一点,是可以成功导入的,导入速度大概在1.2w/s,一旦并发数设大一点,导入速度大于2w/s,就会报这个错,能不能调整一下什么参数,优化一下性能啊

嗯… 其实我们一般推荐是在 SSD 上跑 rocksdb, HDD 就是验证下功能, 速度差很多的.

后续我们会申请SSD,目前的话,没有参数能优化一下嘛,内存基本都没怎么用上啊,CPU利用率到是挺高的

rocksdb compaction 这东西耗 CPU, 然后您是 HDD, 写盘又慢…

我关了compaction感觉也没啥用

后端存储支持Hbase嘛

现在不支持

这个 graphd CPU 也好高, 是在查询吗?

在导数据 :joy:

看这个 CPU 跟内存的比率是比较尴尬 :joy:. 先赖 HDD…

目前在导6kw的节点和16亿条边,在使用HDD的情况下,有没有比较好的方案呢 :joy:

我也遇到了同样的问题,集群中一台服务器的storage到metad的网络有问题,connection failed导致插入数据部分失败。我这边是ssd,且其他的storaged都没问题。请问由什么好办法吗?


监控了一下io的数据,发现磁盘利用率也不高,觉得很迷惑,到底是啥原因导致报错 :joy: