大家好, 希望能解惑下
我准备了2份数据, 都是单副本导入之后, 却发现大小很奇怪, 26G的推特数据导入之后是15g/15g/15g分布, 另一个514G的数据导入之后却是85G/85G/85G 分布, 这2个数据的区别就是属性多少, 为啥导入之后大小是一个变大, 一个变小呢???
你的大小数据怎么计算的
nebula目录下下面应该还有wal的数据,这个是过期删除的,可能会导致误差
15G的这个, 是我导入之后过了12小时的, 85G这个导入之后过了4个小时的基本上wal的影响很小了, 最关键是这个85G的, 就算有是有残余的wal文件, 不也应该是变大吗?? 怎么就变小了呢? 最关键, 最终的数据量是没有问题的,
这个是链接storage失败了,检查一下storage的网络连通情况
不是,看下FAQ
这个是在查询的数据量特别大的情况下才会出现, 机器网络不会出现问题的, 都是配置很高的机器
wu老师, 你的意思是?/?
看一眼文档FAQ。常见的坑,大概率超时了