📊 Data+AI 全球日报

2026-03-31 · 严格只包含过去24小时信息

🔥 今日最重要的3个变化

  1. CDC 生态正在从单一数据库捕获走向全链路多源多目标编排
  2. 开放表格式的连接器矩阵加速扩展,湖仓互通的最后一公里在缩短
  3. 半结构化数据处理能力正式进入 CDC 管道层,不再是查询引擎专属
总判断:Flink CDC 3.6.0 是本窗口内唯一重大发布,但信号密度高——Oracle 源、Hudi 目标、Iceberg 多目录、VARIANT 类型一次性落地,表明 CDC 管道正在从"数据库复制工具"演变为湖仓架构的核心数据编排层。FabCon/GTC 后的信息消化期仍在持续。
A

Top Signals

1. Apache Flink CDC 3.6.0 发布:Oracle 源连接器、Hudi Sink 和 VARIANT 类型一次性落地

Apache Flink CDC 3.6.0 于 3 月 30 日正式发布,这是一个功能密集的大版本。核心变化包括:新增 Oracle Pipeline Source 连接器和 Apache Hudi Pipeline Sink;Apache Iceberg 连接器新增 AWS Glue Catalog 和 BigQuery Catalog 支持;Transform 框架引入 VARIANT 类型和 PARSE_JSON 函数用于半结构化数据处理;Flink 版本支持扩展至 1.20.x 和 2.2.x,基础 JDK 升级至 11;PostgreSQL 新增 Schema Evolution 支持;StarRocks 支持重命名列 DDL 和修改列类型 DDL;同时修复了大量 MySQL CDC、MongoDB CDC 的关键 Bug。

为什么对数据平台重要:这个版本标志着 Flink CDC 从"MySQL/PostgreSQL 复制工具"正式升级为覆盖 Oracle → Hudi/Iceberg/Paimon/Kafka/Doris/StarRocks 的全链路数据编排管道。Oracle Source 的加入填补了企业级传统数据库 CDC 的关键空白,Hudi Sink 补齐了对三大开放表格式(Iceberg/Paimon/Hudi)的完整支持。VARIANT 类型进入 CDC Transform 层,意味着半结构化数据不再需要先落仓再处理——CDC 管道本身就能完成 JSON 解析和路由,减少一次数据搬运。
B

Product & Tech

本期窗口内无其他符合 B 板块准入标准的产品发布。Flink CDC 3.6.0 已作为当天最重要事件收录于 A 板块。

C

Views & Research

本期窗口内无符合准入标准的机构研究或原始观点。

D

Capital & Corporate

本期窗口内无符合准入标准的投融资/财报/收购事件。

E

Watchlist

跟踪 1. Flink CDC 3.6.0 对湖仓连接器矩阵的补全效应

Flink CDC 3.6.0 一次性补齐了 Oracle Source + Hudi Sink + Iceberg 多目录 + Fluss 0.9 + VARIANT 类型,使其连接器矩阵在源端和目标端都达到了新的覆盖广度。但这些新连接器在企业级生产环境中的稳定性、性能和 Schema Evolution 完整性仍需验证,特别是 Oracle Source 在大规模 CDC 场景下的表现。

需要等待什么信号确认:社区反馈 Oracle Source 在大表全量快照+增量切换场景的稳定性;Hudi Sink 与 Hudi 主流版本的 Schema Evolution 兼容性;企业用户实际采用 Flink CDC 替代传统 ETL 工具(如 Informatica、DataStage)进行 Oracle 迁移的案例。