Star

dump数据时的问题

我现在使用的版本是nebula-2020.03.26-nightly.el7-5.x86_64.rpm,准备把整个数据库更新到最新版,所以需要把整个数据先dump下来备份,但是dump的时候报错了。
命令是 ./db_dump --db_path=/data/nebula/data/storage/nebula/ --space=xxxx --limit=0,
运行结果如下图:


还有另外一个space的数据最后dump成功了。

我刚下载了log看了下,storage log里没有记录,然后使用dump的时候,我把storaged的服务关了。
那我在git上再提个issue

老版本的 db_dump 上述地方 schema 的校验是会 core dump,你可能遇到了有些数据的 schema 被删除了的情况。

我们马上提供一个 hotfix 版本的工具,可以忽略到上述错误,你再用新工具 dump。

你使用的这版 nebula 跟 v1.0 有些数据上的不兼容,如果数据不多的情况下,更建议你重新导入数据。

好的,感谢,麻烦啦

我看看导出的数据能不能处理吧,原始数据导入太慢了,更新太多,要跑好几天。。。

这边是原始数据太大吗?现在是使用的什么导入工具进行的导入,nebula-importer 还是 Spark Writer ?

目前版本1.0.1 版本 的 dump tool 还是编译安装吗

目前是的,一切以文档为准:https://docs.nebula-graph.com.cn/manual-CN/3.build-develop-and-administration/5.storage-service-administration/data-export/dump-tool/#dump_tool

另外,如果你编译nebula的话,这个命令会跟着编译出来的。

浙ICP备20010487号