这篇文章将为大家详细讲解有关如何解决Debezium的坑,文章内容质量较高,因此小编分享给大家做个参考,希望大家阅读完这篇文章后对相关知识有一定的了解。
Snapshot Reader 有点问题。我们在测试环境测试Snapshot 是OK的。
但是当数据量变大,以及,数据量变多,Snapshot Reader反而 没有达到预期的效果。
因此,我们将同步方案改为三步:
1. 开启schema_only 同步
2. 5分钟后,将数据库Dump到一个临时库上面
3. 开启java多线程进行数据消费,使用mysql jdbc streaming 方式,把临时库上面的数据,写入kudu。
4. 开启Kafka-Connect 的kudu Sink,让新的kafka 增删改数据覆盖原本的数据。
目前使用稳定,继续观察。
关于如何解决Debezium的坑就分享到这里了,希望以上内容可以对大家有一定的帮助,可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到。
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。