有关CSV文件数据导入之后的大小疑问

大家好, 希望能解惑下
我准备了2份数据, 都是单副本导入之后, 却发现大小很奇怪, 26G的推特数据导入之后是15g/15g/15g分布, 另一个514G的数据导入之后却是85G/85G/85G 分布, 这2个数据的区别就是属性多少, 为啥导入之后大小是一个变大, 一个变小呢???


image

你的大小数据怎么计算的

第一份数据导入的时候只有1个space

第二份数据导入之后space的id是4

nebula目录下下面应该还有wal的数据,这个是过期删除的,可能会导致误差

15G的这个, 是我导入之后过了12小时的, 85G这个导入之后过了4个小时的基本上wal的影响很小了, 最关键是这个85G的, 就算有是有残余的wal文件, 不也应该是变大吗?? 怎么就变小了呢? 最关键, 最终的数据量是没有问题的,

对了, 顺便再请教你下, 这个错到底是啥意思??/ 查询超时, 还是报错?

这个是链接storage失败了,检查一下storage的网络连通情况

不是,看下FAQ

这个是在查询的数据量特别大的情况下才会出现, 机器网络不会出现问题的, 都是配置很高的机器

wu老师, 你的意思是?/?

看一眼文档FAQ。常见的坑,大概率超时了

FAQ - Nebula Graph Database 手册

看下这块的内容呢,按照这个 Tips 调下参数优化下语句