暂无个人介绍
2024年05月
2024年04月
你需要打依赖包。参考链接:
https://help.aliyun.com/zh/flink/user-guide/develop-a-jar-draft?spm=a2c4g.11186623.0.0.6cec4b9a7GZwcR
。此回答来自钉群Flink CDC 社区 。
用增量快照, 加并行度。历史数据可以考虑走个snaphot同步,然后起来一个cdc只做增量。定位问题,定制化优化索引。你sql server开一下审计,看看那个表都做了啥,ssms里面可以开,然后根据审计去优化那张表,里面监控一下你那些表相关的sql语句。此回答来自钉群Flink CDC 社区 。
不支持。此回答来自钉群Flink CDC 社区 。
yaml才能捕获吧,sql作业source ddl都把读取的结构固定了。参考链接:官方文档,
https://nightlies.apache.org/flink/flink-cdc-docs-master/docs/connectors/pipeline-connectors/mysql/
。此回答来自钉群Flink CDC 社区 。
参考链接:
https://tapdata.blog.csdn.net/article/details/120138074?spm=1001.2014.3001.5502
。此回答来自钉群Flink CDC 社区 。
pdu太大了。此回答来自钉群Flink CDC 社区 。
mysql支持到doris/starrocks。此回答来自钉群Flink CDC 社区 。
不支持的呀,现在只支持mysql-doris,mysql-starrocks 。是包冲突的,把mysql那个jdbc移除就好了。多放一个这个此回答来自钉群Flink CDC 社区 。
资源不够,slot没了,看你自己怎么配置一个任务jm,tm。此回答来自钉群Flink CDC 社区 。
不会oracle,从字面意思看是默认值无法转换。此回答来自钉群Flink CDC 社区 。
支持自动建表,目前不支持自动建库,还是需要在doris端手动建下db。此回答来自钉群Flink CDC 社区 。
common包是不需要单独加上的。此回答来自钉群Flink CDC 社区 。
paimon可以做到 业务库原表增加或者删除 字段 paimon表会自动增加或删除字段。此回答来自钉群Flink CDC 社区 。
配置下 route 就行了,可以看社区文档,等等3.1 支持简写。有个pr 改下代码重新编一下就行,
https://github.com/apache/flink-cdc/pull/2908
。此回答来自钉群Flink CDC 社区 。
减少点并行度可以,scan.snapshot.fetch.size 读取表快照时每次读取数据的最大条数。scan.snapshot.fetch.size 你调小点。目前确实没有限速的功能,需要 Flink 来支持,Flink 社区目前也没有限速功能。此回答来自钉群Flink CDC 社区 。
云上的推荐直接买厂商的服务。此回答来自钉群Flink CDC 社区 。
mysql协议包最大16mb,你这条数据太大了吧。此回答来自钉群Flink CDC 社区 。
sql cdc写 cdc table的问题,建议把大图片拆出去。是sql server的问题,sql server就开启cdc,对应的cdc左右会在system table下有一张对应的cdc table,记录数据的变化,出问题的是在那个地方路路。放oss或者别的文件存储,然后这里存地址,Tp库这种稀缺资源拿来当文件服务器用本身就是不合理的。此回答来自钉群Flink CDC 社区 。
重写序列化方法,然后里面对数据做轻加工,我们涉及到跨大量的异构数据源的数据同步,很多特殊的数据类型都不支持。最简单的办法就是字符串接,然后该咋cast咋cast。此回答来自钉群Flink CDC 社区 。
flink-cdc架在flink上,flink支持的啊,增量快照连接器全阶段支持断点续传。此回答来自钉群Flink CDC 社区 。