问答 请问下Hive的写入机制是怎样的,Kafka到Hive一直不把临时数据转换为正式hive数据文件

请问下Hive的写入机制是怎样的,Kafka到Hive一直不把临时数据转换为正式hive数据文件

   匿名用户    发布于 2023-06-02 10:34 最新回复 2023-06-02 10:35  来自于   群内解答  161  1
是必须写满1G临时文件才会替换成正式Hive数据文件吗  /user/hive/warehouse/car_info_kafkaf/pt=20230522/.data
http://dtstack-static.oss-cn-hangzhou.aliyuncs.com/2021bbs/files_user166259/question/9aa375e19f32f22d2c417769b8736f63..png
  
1条回答
群内解答
回复于 2023-06-02 10:35

  checkpoint或者任务结束前会将.data里的文件移动到外面



想了解或咨询更多有关袋鼠云大数据产品、行业解决方案、客户案例的朋友,浏览袋鼠云官网:https://www.dtstack.com/?src=bbs


同时,欢迎对大数据开源项目有兴趣的同学加入「袋鼠云开源框架钉钉技术群」,交流最新开源技术信息,群号码:30537511,项目地址:

https://github.com/DTStack/chunjun    


  

0 0
社区公告
  • 大数据领域最专业的产品&技术交流社区,专注于探讨与分享大数据领域有趣又火热的信息,专业又专注的数据人园地

最新活动更多
微信扫码获取数字化转型资料
钉钉扫码加入技术交流群