submit job stats一直都是同一个jobID

  • nebula 版本:3.0.0
  • Exchange版本:nebula-exchange_spark_2.4-3.0.0.jar
  • studio版本:v3.2.1
  • spark版本:2.3.0
  • 部署方式:分布式
  • 安装方式: RPM
  • 是否上生产环境:Y
  • 硬件信息
    • 磁盘 hdd
  • 问题的具体描述 在studio中执行submit job stats一直都是同一个JOBID:157

但是show jobs只能看到jobID目前只到155

show stats也不显示最新的统计结果,一直都是157的结果
执行submit job stats一直都只是157
show job 157会报错:Key not existed!

你的一直是多久?有可能数据量比较大,还在执行

确实我描述的不太好,我的意思是:
我执行了多次submit job stats,但是每次返回的都是同一个jobID:157,这个ID不会再继续增加
但是执行其他任务,例如rebuild index操作,都会继续累加新的jobID.
我执行show stats,永远都返回相同的统计结果

数据量没有很大,之前执行都是几分钟就统计完了,但是这次,我隔天来使用submit job stats,仍然返回的是同一个jobID:157

最终我单独重启了metad服务,重启以后就正常了.我猜应该是这几个metad服务之间数据没有同步.

感谢方老师的回答,由于是生产集群实在是不太想用重启这个方式
我猜测应该是这几个metad服务之间数据没有完全同步,导致了这个问题.所以我单独重启了metad服务,现在问题已经解决了,jobID也可以继续累加了

看了下版本,估计是 3.0.0 版本的问题。job 这块后来做了些优化

此话题已在最后回复的 7 天后被自动关闭。不再允许新回复。