不知不觉间,2022年的脚步已经走到了倒数第二个月。临近年末,我们对产品本身以及客户反馈的一些问题进行了持续的更新和优化,例如基线告警、数据服务平台新增TDengine 数据源支持、行级权限根据用户属性实现动态赋权。
以下为袋鼠云产品功能更新报告第二期内容,更多探索,请继续阅读。
数栈DTinsight
离线开发平台
1.支持对接Trino引擎
新增功能说明
2.个人账号支持绑定Kerberos认证
新增功能说明
数栈支持对用户或用户组绑定Kerberos证书,并支持以用户级/用户组级Kerberos账号进行任务提交。
(新增功能示意图)
3.基线告警
新增功能说明
4.安全审计增加类目
体验优化说明
安全审计增加操作项目类目
(体验优化示意图)
5.NULL可以选择识别为NULL
体验优化说明
6.整库同步可以选择同步任务存放目录
体验优化说明
7.其他优化项
体验优化说明
· 在IDE中进行任务切换时,会记住上次代码浏览位置
· postgresql、db2、greenplum、kingbase、mysql、oceanbase、oracle、sqlserber、tidb等任务,存储函数使用select * from procedure() /select procedure()调用时,在调度不会执行的问题修复
· 表查询结果限制,所有SQL任务数据查询结果默认仅显示1000条
· 数据同步任务当HDFS分区不存在时,高级配置中可配置是否报错
具体说明:通过指定高级配置中failedIfPathNotExist的状态,来配置是否进行报错提示:
若failedIfPathNotExist=true,则报错;若failedIfPathNotExist=false,则不报错
8.技术改造
技术改造说明
· 统计数据流量统计优化
· SQL加密解密防止某些关键字被拦
· 支持spark UDF
· inceptor同步支持直接读写文件的方式去进行数据同步
实时开发平台
1.产品首页改造
新增功能说明
2.任务运行日志推送
新增功能说明
3.优化项目
体验优化说明
· PyFlink任务在创建时可以引用第三方python包
· Flink1.12兼容TiDB Connector
· Flink1.10/1.12兼容开启SASL认证的Kafka Connector
· 优化日志打印格式,避免出现/n/t等字符
· Source Connector新增支持了RocketMQ
数据服务平台
1.【生成API】新增TDengine 数据源支持
新增功能说明
2.【API市场】增加批量导出功能
新增功能说明
支持API市场API的批量导出,用户可先在测试环境中进行API调试,无误后在API市场批量导出API,再在正式环境中导入API,提高效率。
(新增功能示意图)
3.【API调用情况】新增下载日志功能
新增功能说明
4.【生成API】in、not in 操作符增加分隔符配置
体验优化说明
数雁EasyDigit
客户数据洞察平台
(原智能标签平台)
1.【授权】-标签/实体/群组/目录细粒度权限控制
新增功能说明
2.【行级权限】-根据用户属性实现动态赋权
新增功能说明
3.【多值标签】-标签值分隔去重
新增功能说明
4.【组织架构】-引入多层级部门
新增功能说明
5.【批量操作】-发布/更新交互升级
体验优化说明
6.【通用模板】-查询模板设置
体验优化说明
7.【导出描述】-导出数据时可填描述
体验优化说明
8.其他优化项
体验优化说明
· 标签圈群支持重置条件
(体验优化示意图)
· 字典数据最大支持2000条
(体验优化示意图
想了解或咨询更多有关袋鼠云大数据产品、行业解决方案、客户案例的朋友,浏览袋鼠云官网:https://www.dtstack.com/?src=bbs
同时,欢迎对大数据开源项目有兴趣的同学加入「袋鼠云开源框架钉钉技术群」,交流最新开源技术信息,群号码:30537511,项目地址:https://github.com/DTStack