nebula使用spark入库出现read timeout

以恢复,还是之前的问题


日志跟之前一样

先等等,看看meta会不会传输完数据后会不会自动恢复


这个参数改为600

这个参数放开


方法,开放了两个参数还是不行,上面是grphd的日志

在meta启动的时候会有这个日志

参数配置好后先等等,我感觉是session太多导致的,等10分钟让它释放一下,再看看结果。还有就是连接图库的应用都先停一下。

确实是连接session太多,nebula有指令能查看连接的session详情吗?或者相关数据

登录进去后,show sessions
可以参看这段说明 SHOW SESSIONS - Nebula Graph Database 手册

这个上面展示的是所有的session,还是没有正常退出的session?这些异常的session是否有会影响集群正常的运行,是否可以全部清空掉?上面只有显示session的指令

所有session,如果session够用则不会对集群产生太大的影响,但是再导入数据时如果并发太高就会出现因为session被打满从而导致服务挂掉的问题,session_idle_timeout_secs这个参数就是设置空闲session的超时时间,超过这个阈值session会被释放掉

此话题已在最后回复的 7 天后被自动关闭。不再允许新回复。