- nebula 版本:2.0.1
- 部署方式(分布式 / 单机 / Docker / DBaaS):docker swarm
- 是否为线上版本:Y / N
- 硬件信息
- 磁盘( 推荐使用 SSD)ssd
- CPU、内存信息
- 问题的具体描述
我一台机器上有4块盘,使用data_path配置了4块盘,我手动SUBMIT JOB COMPACT得时候,发现compact的盘只有3个,等这三个执行完之后才执行第4个,有没有参数控制这个同时compact盘的个数,让他们compact一起做完
我一台机器上有4块盘,使用data_path配置了4块盘,我手动SUBMIT JOB COMPACT得时候,发现compact的盘只有3个,等这三个执行完之后才执行第4个,有没有参数控制这个同时compact盘的个数,让他们compact一起做完
up一下
哪个版本?
有可能是 rocksdb 限制了你的磁盘发挥 试试改下
max_background_jobs 这个设大点, 比如说 8 ?
base_background_compactions 这个也设大点(不过 rocksdb 官网说次选项已废弃)
已添加版本信息,2.0.1
好的,我试下,但是我理解这些参数是针对单个rocksdb实例的吧,我一台机器有4个盘,这个参数是针对单台机器的吗
你是对于多个 space 发了 submit job compact 吗? 还是就一个 space?
一个space,3台机器,每个机器有4个磁盘
curl ‘http://192.168.8.5:19559/admin?space=test&op=compact’
可以手动执行下这句, 改成你自己的 ip 跟 space 那么, 看看是否还是只跑了 3 个.
端口应该是 ws_http_port 这个参数.
(确保防火墙允许 curl 过去)
这个我看了,磁盘和运行的任务只有3个
用 curl 发命令还是只有三个在跑?
没用curl,我实际看是只有3个在运行的,我要解决的问题是怎么让他实际运行4个
你可以用 curl 试一下, 用 curl 跟直接在 console 发 submit job compact 会走不同的逻辑.
(用 console 端发的那个是有并发控制的, curl 没有)
(我感觉那个并发控制并不会阻挡你的 4 个一起跑, 不过可以用 curl 先验证一下)
好的,那我先试下curl,到时候再来告诉你
curl肯定能行,submit job应该是被限制了
此话题已在最后回复的 30 天后被自动关闭。不再允许新回复。