您当前的位置: 首页 > 

Bulut0907

暂无认证

  • 5浏览

    0关注

    346博文

    0收益

  • 0浏览

    0点赞

    0打赏

    0留言

私信
关注
热门博文

【数据湖Hudi的概念】Timeline和File Layouts

Bulut0907 发布时间:2022-05-26 09:53:27 ,浏览量:5

目录
  • 1. Timeline
  • 2. File Layouts

1. Timeline

Hudi对一个table的各种action都会记录操作的instant time和status。对一系列的instant time按发生的先后顺序排列,形成一个timeline

action有以下几种:

  1. commits:对包含一条或多条数据的一次原子性write,进行commit
  2. cleans:后台进程对不需要的老版本files进行删除
  3. delta_commit:对于MergeOnRead类型的table,对包含一条或多条数据的一次原子性write,进行delta commit,数据写入delta log中
  4. compaction:后台进程将一种数据结构转换成另一种数据结构。例如将avro格式的log文件转换成parquet格式的base file。在Hudi内部,compaction是一种特殊的commit
  5. rollback:对于commit或delta commit,如果失败了,会进行rollback
  6. savepoint:标记某个file groups的状态为saved,这样cleaner就不会对这些file groups删除。后面可以在timeline中restore到该savepoint

status有以下几种:

  1. requested:action已经被调度,但是还未初始化
  2. inflight:action正在被执行
  3. completed:action在timeline上已经完成操作

timeline上图说明的是:几条数据的事件时间分别是07:00、08:00、09:00、10:00,存在不同程度的延迟,在10:00开始分别进行commit,timeline是以action的instant time为准,incrementally consume也是以timeline为准,数据的分区是以事件时间为准

2. File Layouts
  • 每个partition由多个file group组成,每个file group都有一个file ID
  • 每个file group由多个file slice组成
  • 每个file slice由一个parquet格式的base file + 一个或多个log file(*.log.*)组成
  • compaction将一个或多个file slice进行合并,生成新的file slice。cleans将老的不用的file slice删除

File Layouts说明:

  • 表总共有4个列式储存的字段
  • 在10:05的时候进行compaction后,field1、field2、field3的数据全部在base file中
  • 在10:06 ~ 10:09期间,field1、field2、field4分别有数据commit到log file中
  • 在10:10的时候,field2、field4分别由数据commit到log file中
  • Read Optimized Queries只能读取compaction后的base file中的数据
  • Snapshot Queries:读取base file + log file中的数据
关注
打赏
1664501120
查看更多评论
立即登录/注册

微信扫码登录

0.0747s