[讨论] 如何让 LLM 读懂图

有没有同学在做 LLM+nebula 相关的应用,想讨论下如何让 LLM 和图结构数据进行交互

举例一个场景:

  1. 根据需求通过 nebula 检索出来一个子图
  2. 子图通过拆分成路径?+加上 prompt+ 用户提问来实现 LLM 理解子图,然后回答用户问题

想问问子图以什么样的数据形式喂给 LLM 能让 LLM 读懂这个子图?

谢谢,因为我们的 schema比较大,不适合直接传给 LLM, 业务上也不适合直接和 nebula 交互,所以是采用对类似的图进行解释

我看您给的帖子里面这类功能也是直接把路径+prompt+query给 LLM 的,我去看看源码,应该就可以解决我的需求

如果我的 graph rag 符合需求(无 schema 需求),可以直接做。

text2cypher 的时候 schema 是强需求,针对大 schema 场景,我打算实现一个 schema 的 mapreduce,增加一步判断 schema 子集的操作。

其实我们的场景极致就是,一是图探索的时候,节点和边太复杂,直接问 LLM,二是根据 query,LLM 去扩展图

第一种就需要直接对图进行解释回答 query,第二种就是现有图不能满足的时候,根据现有的图节点+query,LLM 去自动扩展生成新的图来回答