linmm
1
- nebula 版本:3.6.0
- 部署方式:分布式
- 安装方式:RPM
- 是否上生产环境:N
请问,如果想提高并发能力,优先增加graph节点数呢?还是增加单节点cpu和内存配置?
目前集群分配如下:
机器 |
meta |
graphd |
storaged |
机器1 |
meta1 |
graph1 |
storage1 |
机器2 |
meta2 |
graph2 |
storage2 |
机器3 |
meta3 |
graph3 |
storage3 |
机器4 |
|
graph4 |
storage4 |
机器5 |
|
graph5 |
storage5 |
机器6 |
|
graph6 |
storage6 |
单节点 256g 64c |
|
|
|
graph 内存限制 memory_tracker_limit_ratio=0.45 |
|
|
|
storage 内存限制 memory_tracker_limit_ratio=0.5 |
|
|
|
理论上都可以,不过建议优先先提高单节点 cpu 和内存吧。这样还可以提高 query 能使用的内存
linmm
4
目前单机器配了两块盘,每块盘一个data数据目录,每个data的数据大概300g+,这个提高到多少合适呢
然后现在查询是3度以上qps太低了,希望提高这部分性能
简单的说提高性能太缥缈了。性能问题是个综合性问题。得看下你当前的环境是怎样的,其次看下你当前哪里是瓶颈,这样才能分析。。不然这个骨头无处下手啃啊
我们都支持。
主要是对 SSD、带宽有要求,不过要求多高其实得看你业务场景的要求
system
关闭
8
此话题已在最后回复的 30 天后被自动关闭。不再允许新回复。