nebula v3.0.0测试用的数据集的相关问题

nebula 版本:v3.0.0
部署方式:单机
安装方式: RPM
硬件信息
磁盘 :SSD
CPU、内存信息
image
在运用nebula-bench对nebula进行k6的测试中,按照https://github.com/vesoft-inc/nebula-bench/blob/master/README_cn.md中的步骤进行执行,在数据集生成过程中也就是Python3 run.py data语句后会出现这样的问题


请问应该怎么解决呢,并且想知道这里生成的数据集是什么数据集,是不是3.0.0测试报告中提到的ldbc snb sf100的那个数据集,如果不是,如果想生成这个sf100的数据集应该怎么去操作,并且如果想把sf100的数据集导入nebula并运用k6去进行一个单机的测试,虚拟机的存储空间最少需要多少的硬盘空间?
望解答,谢谢

  1. 脚本里是自动下载了 hadoop-3.2.1,然后解压。看错误是解压报错。
cd target/data/
tar zxvf hadoop-3.2.1.tar.gz

看看什么错,或者自己搞一个 hadoop 放进去就行。

  1. 默认是 sf1 就是 1G 的数据,如果生成 sf100
python3 run.py data -s 100

源数据 100G,如果 3 副本还有 wal,最少要 150G 到 200G。

执行tar zxvf hadoop-3.2.1.tar.gz以后的报错

不确定是不是下的包有问题,或者你手动下一个 hadoop-3.2.1 放里面就行了

此话题已在最后回复的 30 天后被自动关闭。不再允许新回复。