spark connector 能支持批量删除tag 么

nebula graph3.2.1 使用 spark-connector 发现delete 模式不支持批量删除tag

delete模式是删数据的,不是删schema的

我的意思是 delete 模式看起来都是删除 整个vertex的,我如果想 按照 tag去批量删除,spark connector 可以搞么

现在不支持delete tag 的语句,你的业务中是一个点给设置了多个tag?

是的 我们给同一个点打了不同标签,每天T+1 实现标签的更新;
原本 在property 里面有设置一个 flag 来设置标签生效和失效的, 但是 lookup 统计flag==true的 执行计划不是很好,lookup 利用索引进行统计导致 graphd 内存打爆 - #7,来自 Sophie 没有下推到 storage,会拉取到graph 一个节点,有内存瓶颈;所以还是考虑 delete tag + show stats 实现;
希望spark connector 能不能实现下 批量删除tag 的 writer,我觉得还是有必要的;

可以请产品同学帮忙评估下, @cl-2048 也欢迎你贡献相关pr呀

此话题已在最后回复的 30 天后被自动关闭。不再允许新回复。