关于KnowledgeGraphRAGQueryEngine的使用

关于这个函数的使用,还需要构建kgindex索引吗,还是直接用NEBULA已经创建好的索引,另外,这个函数使用NebulaGraphStore时,为什么还需要关系,和顶点信息,而不是使用图谱库里的所有标签和关系等信息,edge_types=edge_types,
rel_prop_names=rel_prop_names,
tags=tags 我在传这三个参数时,如何定义全部图谱里建立的全部内容,例如,我有10个关系,那么rel_prop_names这个参数怎么给出?需要和edge_types对应起来吗?网上给出的都是一个关系,一类顶点标签的例子。另外,这个llama-index-graph-stores-nebula的github地址在哪,能麻烦贴出来不

llama index 重构了一波,很多东西都变了,我最近重新写了一个基础的:

https://www.siwei.io/tutors/GraphRAG/101.html

他们重构之后把这些实现都挪到了 core 之外,打包在 integrations 里,路径在 lagacy 里。

未来我们会在新的实现上去贡献更好的实现。现在我们在企业版私有的代码里做更高级的实现。

是不是KnowledgeGraphRAGQueryEngine 只能用于查询使用RAG构建的知识图谱?也就是用llama_index的kgindex从空图谱库开始构建的图谱?我们垂直领域大多不是这样构建的,它需要很多业务规则来构建。

用这个引擎加载本地部署的chatglm2模型时,为什么还需要APIKEY,llama_index加载本地大模型需要进行封装,技术手册里写: * “embedding”(not yet implemented),那我该如何做呢?

Graph RAG Retriever 没有绑定 KGindex,只需要声明 Graph Store 就可以用哈

只需要自己手动传 embedding model 就可以里,文档里有 embedding model 的例子,可以用 huggingface embedding,不过这样就是从 llamaindex runtime 上加载 embedding model 了,当然 llamaindex也支持各种远程的 embedding API。

你如果只给了 LLM,就假设了用 LLM endpoint 里的 embedding。