spark connector read time out

提问参考模版:

  • nebula 版本:nebula-3.3.0
  • 部署方式:分布式 /
  • 安装方式:tar
  • 是否上生产环境: N
  • 硬件信息
    • 磁盘 HDD 用了一块 1*12T
    • CPU、内存信息 40core 128G
  • 问题的具体描述
    使用spark connector 加载HDFS上数据(单个edge数据46G)到nebula-3.3.0是出现com.vesoft.nebula.client.graph.exception.IOErrorException: java.net.SocketTimeoutException: Read timed out,导致数据导入不全。

目前batch使用的50.

nebula服务正常。请教下如何调整下conf参数调高性能?

connection配置中把requestTimeout调大些

1 个赞

非常感谢,我试下

此话题已在最后回复的 30 天后被自动关闭。不再允许新回复。