本期,我们更新和优化了实时开发相关功能,为您提供更高效的产品能力。以下为第14期袋鼠云产品功能更新报告,请继续阅读。
实时开发平台上线了国际英文版,适配全球国家的通用语言体系,消除语言差异带来的使用问题。
任务自定义参数现已支持项目级与全局参数:在任务参数设置-中映射值中将此任务发布至目标项目时会自动替换原值;同时提供变量参数,可在单个任务内使用,适用于 FlinkSQL IDE 编辑区、FlinkJar 命令行参数、实时采集脚本模式 JSON 及 PyFlink 向导模式入参,使用格式为 ${参数名};此外,项目配置中新增了项目参数管理页面,方便统一维护。
在实时 MySQL Binlog 采集中,我们新增了敏感字段过滤能力:在向导模式多表采集场景下,用户可通过高级参数 filterColumns 配置需要过滤的字段(支持表名、字段名正则匹配,格式 " filterColumns ":" tableName.columnName "),目前适用于 Flink 1.16 及以上版本的 MySQL Binlog 采集,助力用户满足安全合规需求。
实时采集支持 FlinkCDC Yaml 格式,适用于 Flink 1.16 及以上版本,并支持自定义参数使用,方便用户直接以原生脚本方式运行代码。
在 FlinkSQL 向导模式(支持 1.12 、1.16 版本),使用 Kafka 源表时现已支持在 With 中选择可用的 Kafka 元数据参数。针对 JSON、OGG-JSON、AVRO、CSV、RAW、Debezium-JSON ,用户可将可用的 Kafka Metadata 配置为运行 SQL 的字段,提升建表灵活性。
运维管理告警能力进一步优化:现在支持单个告警配置多个告警指标,对相似告警可统一处理,减少重复配置工作;同时支持在同一维度下设置多条触发规则,只要满足任意一条即可触发告警,帮助用户更高效地进行运维监控。
完成元数据管理 Catalog 对 HiveMetaStore 的 Hive 3.1 版本适配,支持 Flink 1.16,并在数据源中心新增 HiveMetaStore 3.x 类型。该版本可在 Hadoop 3.x 集群中运行,支持认证方式开启 Kerberos 和非开启 Kerberos 的情况,同时支持 Hive 3.x 下的 Paimon 湖格式,为用户带来更完善的湖仓一体化体验。
实时采集 FlinkCDC 现已支持 Transformer 转换规则,在 Flink 1.16 版本下可对表字段进行 projection、filter、primary-key、table-options 等级别的灵活转换。
FlinkSQL 支持对 FlinkCDC Oracle 数据源的可视化支持,适用于 Flink 1.16 版本,用户可在向导模式下直接配置 Oracle-CDC。
实时开发平台完成一系列内部优化:新增操作记录同步至安全审计平台,并在列表中支持展示操作结果、失败原因及操作对象筛选;同时整理并整合历史动作,优化操作对象匹配与搜索条件;此外,还修复了数据预览连接信息显示和页面字符超长展示等问题,整体执行与审计体验更完善。
FlinkSQL 向导模式在配置 Kafka 源表 offset 时,现已支持选择 group-offsets,适用于 Flink 1.12 与 1.16 版本;当未输入 group.id 时,系统会自动设置默认值,使用更便捷。
参数模板与数据预览功能优化:更新了参数模板提示语,并在 FlinkSQL 数据开发中扩展了数据预览能力,现已支持更多数据源,包括 PostgreSQL、KingbaseES、Impala、ClickHouse、TiDB、Kudu、MongoDB 以及 Kafka(结果表),让调试与验证更高效。
实时采集优化支持引擎适配的数据源插件,在 Flink 1.16 版本下支持 TiDB、OceanBase(MySQL、Oracle 模式)及 PostgreSQL 的间隔轮询采集,进一步完善数据源接入能力。