白玉汤儿
1
- nebula 版本:3.0.0
- Exchange版本:nebula-exchange_spark_2.4-3.0.0.jar
- studio版本:v3.2.1
- spark版本:2.3.0
- 部署方式:分布式
- 安装方式: RPM
- 是否上生产环境:Y
- 硬件信息
- 问题的具体描述 在studio中执行submit job stats一直都是同一个JOBID:157
但是show jobs只能看到jobID目前只到155
show stats也不显示最新的统计结果,一直都是157的结果
执行submit job stats一直都只是157
show job 157会报错:Key not existed!
白玉汤儿
3
确实我描述的不太好,我的意思是:
我执行了多次submit job stats,但是每次返回的都是同一个jobID:157,这个ID不会再继续增加
但是执行其他任务,例如rebuild index操作,都会继续累加新的jobID.
我执行show stats,永远都返回相同的统计结果
白玉汤儿
4
数据量没有很大,之前执行都是几分钟就统计完了,但是这次,我隔天来使用submit job stats,仍然返回的是同一个jobID:157
白玉汤儿
5
最终我单独重启了metad服务,重启以后就正常了.我猜应该是这几个metad服务之间数据没有同步.
白玉汤儿
6
感谢方老师的回答,由于是生产集群实在是不太想用重启这个方式
我猜测应该是这几个metad服务之间数据没有完全同步,导致了这个问题.所以我单独重启了metad服务,现在问题已经解决了,jobID也可以继续累加了
看了下版本,估计是 3.0.0 版本的问题。job 这块后来做了些优化
system
关闭
8
此话题已在最后回复的 7 天后被自动关闭。不再允许新回复。