zl程序教程

您现在的位置是:首页 >  数据库

当前栏目

Hadoop支持的压缩格式,是否支持split,什么场景下使用,建议收藏

2023-02-25 18:27:17 时间

1

简介

Hive 建设离线数据仓库通常符合:一次写入,多次读取。所以需要我们在建表的时候选择恰当的存储格式和数据的压缩模式。

在数据增速和数据量飞快的阶段,需要提前规划好压缩方式,避免后期存储资源紧张。压缩的要解决数据存储问题,好处显而易见:减少磁盘存储空间、减少IO。

先看几个 Hive 常用的存储格式:

textfile:行存储

SequenceFile:二进制文件,行存储

ORCFile:数据按行分块、每块按列存储,是 RCFile 的改良版。

另外,为了节省集群磁盘的存储资源,数据一般都是需要压缩的,目前在 Hadoop 中用的比较多的有 lzo、gzip、snappy、bzip2 ,下面就这四种压缩格式做一下不同维度的对比,方便大家在实际应用中根据不同的场景选择相应的压缩方式。CDH 默认采用的压缩是 snappy

2

常用压缩格式

1、gzip 压缩

优点:压缩率比较高,而且压缩/解压速度也比较快;hadoop本身支持,在应用中处理gzip格式的文件就和直接处理文本一样;有hadoop native库;大部分linux系统都自带gzip命令,使用方便。

缺点:不支持split。(注:文章后面的红字解释)

应用场景:当每个文件压缩之后在130M以内的(1个块大小内),都可以考虑用gzip压缩格式。譬如说一天或者一个小时的日志压缩成一个gzip文件,运行mapreduce程序的时候通过多个gzip文件达到并发。hive程序,streaming程序,和java写的mapreduce程序完全和文本处理一样,压缩之后原来的程序不需要做任何修改。

2、lzo 压缩

优点:压缩/解压速度也比较快,合理的压缩率;支持split,是hadoop中最流行的压缩格式;支持hadoop native库;可以在linux系统下安装lzop命令,使用方便。

缺点:压缩率比gzip要低一些;hadoop本身不支持,需要安装;在应用中对lzo格式的文件需要做一些特殊处理(为了支持split需要建索引,还需要指定inputformat为lzo格式)。

应用场景:一个很大的文本文件,压缩之后还大于200M以上的可以考虑,而且单个文件越大,lzo优点越越明显。

3、snappy 压缩

优点:高速压缩速度和合理的压缩率;支持hadoop native库。

缺点:不支持split;压缩率比gzip要低;hadoop本身不支持,需要安装;linux系统下没有对应的命令。

应用场景:当mapreduce作业的map输出的数据比较大的时候,作为map到reduce的中间数据的压缩格式;或者作为一个mapreduce作业的输出和另外一个mapreduce作业的输入。

4、bzip2 压缩

优点:支持split;具有很高的压缩率,比gzip压缩率都高;hadoop本身支持,但不支持native;在linux系统下自带bzip2命令,使用方便。

缺点:压缩/解压速度慢;不支持native。

应用场景:适合对速度要求不高,但需要较高的压缩率的时候,可以作为mapreduce作业的输出格式;或者输出之后的数据比较大,处理之后的数据需要压缩存档减少磁盘空间并且以后数据用得比较少的情况;或者对单个很大的文本文件想压缩减少存储空间,同时又需要支持split,而且兼容之前的应用程序(即应用程序不需要修改)的情况。

最后一张图,总结下四种压缩方式(优缺点):

需要注意的是,以上几种压缩算法都是在压缩普通文本的前提下来说的是否支持 split,如果是 ORC、Sequence Files 等,本身就支持 split,经过压缩之后一样是支持split的。

3

推荐这样使用

使用 ORC + Gzip 的方式或者 ORC+Snappy 的方式,既能保证保证数据文件可以 split,又能保证不错的压缩/解压速度和压缩比。Gzip与Snappy不同的是,后者需要安装。

数仓的 ods 的数据基本都是普通文本文件,为了压缩之后支持 split, 我们采用了 bzip2 压缩方式,bzip2 可以调整压缩比,缺点就是解压比较慢。DW 层内部表采用的是 ORC+Snappy 的模式。

设置参数:

set hive.exec.compress.output=true
set mapred.output.compress=true
set mapred.output.compression.codec=org.apache.hadoop.io.compress.SnappyCodec

附:mapreduce 支持的压缩格式。

zlib :org.apache.hadoop.io.compress.DefaultCodec 
gzip : org.apache.hadoop.io.compress.GzipCodec 
gzip2: org.apache.hadoop.io.compress.Bzip2Codec 
lzo : org.apache.hadoop.io.compress.LzoCodec 
lz4 : org.apache.hadoop.io.compress.Lz4Codec 
snappy: org.apache.hadoop.io.compress.SnappyCodec

最后,压缩格式的选择都是建立在对 CPU 、存储、IO 的综合考虑之上的。适合的才是最好的。


大数据学习指南 专注于大数据技术分享与交流。