neubla的数据存储目录结构疑问

你好, 我不是很理解这个目录的分区存储结构, 希望解惑下, 问题件第二张照片

  1. show hosts 结果

    2 .3台机器, 其中一台的数据存储目录结构

    谢谢!

data/storaged1/nebula 下面的是space的目录,有7个目录表示你有7个space。

1 个赞

你好, 你说的space是这个吗? 我建立的就4个, 还有系统隐藏的吗??
image

是不是23号创建的那三个space被删除了?

好像, 我有重复导入过篮球实例的脚本, 应该是drop了2次, 但还drop space 不应该自动删除对应的目录吗?
还有这个space的编号是随便的数字吗?

我有重复导入过篮球实例的脚本, 应该是drop了2次, 但还 drop space 不应该自动删除对应的目录吗?

现在 drop space 是有个开关控制的 auto_remove_invalid_space,默认是不删除 space 的目录的,假如开关开启的话,也是重启之后才删除。

还有这个space的编号是随便的数字吗?

space 的 id 是全局唯一的,会在集群内自增。

找到了, 谢谢, :handshake:
image

对了顺便咨询下你, 关于 “快照” 和 “backup&restore” 有什么时间性能上的测试结果吗? 该怎么选呢? 比如上T级别的数据选用哪种性能更好呢??

现在的快照是针对本地备份,而 backup&restore 支持本地备份也支持异地备份。对于你的使用场景,你假如考虑的是机器硬盘异常导致的数据丢失,那么这种情况,只能选择 backup&restore。假如你只是怕你们数据写错想要恢复上一时刻的数据,那么你可以直接打快照就可以。

我们之前使用的neo4j的备份场景都是本地加异地, 那不考虑场景, 新能方面呢??? 那个更快?

快照和全量备份都是通过打快照,所以是一样的。

这2种方式是一样的吗? 我看官网说,他俩还是有区别的

这个就是作用域的问题,但是实现是一样的。

好的好的, 感谢 :handshake:

结合 这篇一起看 (底层存储rocksdb) 会有收获 关于存储引擎的问题

你好:
咨询下你, 关于扩容存储, 我在论坛上找的方法, 是不是先docker service rm all服务, 在修改yaml文件添加新的storage4, 再重启创建服务, 可行吗? 不会丢数据吧?
image
谢谢

1 个赞

你是在一个机器上面有 docker-compose 管理多个 storage 容器吗?假如是这样,这个扩容的意义在哪?你不应该是用swarm机器,用不同机器吗?同个机器起多个容器做集群只是给用户快速使用集群而已,正常生产,这样用的意思是什么?

你好, 不好意思, 我没说明白的配置

  1. 配置, 我是用swarm真正的分布式搭建的
  2. 我们目前还在内部测试2.0-ga阶段, 跟不用说生产
  3. 我现在的目的就是想测测这个动态扩容存储, 动态扩容一台storage节点在新机器上, 新的机器我已经加入了swarm了, 因为我们之前用的neo4j的痛点就是不能分布式存储, 单点太大,

    谢谢!

你只要确保你新加的storage配置文件里的 meta_server_addrs 和你其他storage配置的一样就可以,然后你的storage加进去后,你只需要按照文档操作就可以

https://docs.nebula-graph.com.cn/2.0.1/8.service-tuning/load-balance/

嗯嗯, 官网这里的问题我看了, 我就是没找到如何加新storage到集群的操作, 所有才来咨询你的

你新加的 storage只要加进你的 swarm 中,通信没有问题,会自动连上metad的,你执行show hosts 应该能看到新加的机器的信息的

1 个赞