为什么 spark-connect 有 insert/update 两种模式, flink-connector 却只有 insert 模式?
flink connector目前还没有update模式, 你有需求的话可以描述下你的场景,我们评审一下是否要增加这个功能
读取mysql的binlog日志,通过flink connector 写入到 nebula
写入用insert啊, 你什么场景下用update? Nebula的update模式 要求Nebula中必须有对应的vertex id, 否则update会失败。
mysql修改,flink 也直接修改啊,不用再插入了
那你能确保一个application中全部都是update的数据么,如果mysql中间穿插着insert、delete这类操作,你的update会失败的。
执行过程中 我们肯定是保证有序的啊,比如 mysql先插入 再修改,flink-connector 也是先insert,再update
那这样可以的, 我们会加入待办中评估下这个需求
如果你们评估可以话,flink-connector 的 insert/update/deleted 三种模式最好都能实现
一起来写一个吧?
1 个赞
此话题已在最后回复的 30 天后被自动关闭。不再允许新回复。