如何利用python读取图数据,并利用社区发现算法进行分割呢?

理论上可以的,不过要注意,如果你用 insert,需要把 player 上其他的属性写全,否则可以用 UPDATE 语句哈(只写增加的属性),另外,你这么 bulk 的单个语句写多个是对的,但是要注意,单行语句长度有上限,好像是2048还是多少来的,你可以分成多条哈(比如每条 512 个点之类的)

https://github.com/vesoft-inc/nebula-importer/ 就是一个 go 写的工具,从 csv 里读取插入的数据需要的字段,每行是一个,比如你的csv 可以是这种的 player.csv:

player101,38,Tim Duncan,cluster_0
player102,32,Lao Zhang,cluster_0

Importer 的 yaml 配置文件里告诉他 player.csv 里第0列是 tag player 的 vid,第1列是 player.age 第2列是 player.name 第3列是 player.cluster_id 哈。

数据量大了还有另一个工具叫 nebula exchange,你可以去文档里了解哈。

Importer 不支持 update 只支持 insert,感觉其实不太适合,感觉你直接用 python graphclient 去攒 update 语句比较好。

1 个赞