Star

数据放置问题

你好,我在你们官方文档上看到你们的partition放置方式:

这里我有些疑问,针对vertex Id做hash如何解决分片过大的问题呢

在create space的时候,可以将partition_num设置的大点

partition_num设置的大点再大也会有问题吧。单一依赖vertex id,虽然你们分开了出边与入边,但是如果单是出边就达到了一个超大值, 存储容量超出了你的partion时的最大容量时怎么办呢。

目前我们还没有碰到.
应该是跟你磁盘满的现象一样。

partition类似与HBase的region,一个partition大到单机放不下的情况不多。
算一下每个边的属性数量*某个稠密点的出度就是这个稠密点和对应出边的最小硬盘容量要求了。
另外,通常不建议构图的时候,构建超大的稠密点,这对于图遍历时候的性能(特别是2跳3跳时候)影响太大了。

1赞

浙ICP备20010487号