flink-connector 有update 模式么?

为什么 spark-connect 有 insert/update 两种模式, flink-connector 却只有 insert 模式?

flink connector目前还没有update模式, 你有需求的话可以描述下你的场景,我们评审一下是否要增加这个功能

读取mysql的binlog日志,通过flink connector 写入到 nebula

写入用insert啊, 你什么场景下用update? Nebula的update模式 要求Nebula中必须有对应的vertex id, 否则update会失败。

mysql修改,flink 也直接修改啊,不用再插入了

那你能确保一个application中全部都是update的数据么,如果mysql中间穿插着insert、delete这类操作,你的update会失败的。

执行过程中 我们肯定是保证有序的啊,比如 mysql先插入 再修改,flink-connector 也是先insert,再update

那这样可以的, 我们会加入待办中评估下这个需求

如果你们评估可以话,flink-connector 的 insert/update/deleted 三种模式最好都能实现

一起来写一个吧?

1 个赞

此话题已在最后回复的 30 天后被自动关闭。不再允许新回复。