Hadoop 生态圈(三十)- Hadoop 数据压缩
前言
部分内容摘自尚硅谷、黑马等等培训资料
1. 概述
可以对map的输出进行压缩
(map 输出到 reduce 输入的过程,可以压缩 shuffle 过程中网络传输的数据量)
可以对reduce的输出结果进行压缩
(最终保存到 hdfs 上的数据,主要是减少占用 HDFS 存储)
- 压缩的好处和坏处
压缩的优点
:以减少磁盘 IO、减少磁盘存储空间;压缩的缺点
:增加 CPU 开销;
- 压缩原则
- 运算密集型的 Job,少用压缩;
- IO 密集型的 Job,多用压缩;
2. Hadoop支持的压缩算法
使用hadoop checknative
来查看 hadoop 支持的各种压缩算法,如果出现 openssl 为 false,那么就在线安装一下依赖包。
压缩算法对比介绍
:
压缩格式 | Hadoop自带? | 算法 | 文件扩展名 | 是否可切片 | 换成压缩格式后,原来的程序是否需要修改 |
---|---|---|---|---|---|
DEFLATE | 是,直接使用 | DEFLATE | .deflate | 否 | 和文本处理一样,不需要修改 |
Gzip | 是,直接使用 | DEFLATE | .gz | 否 | 和文本处理一样,不需要修改 |
bzip2 | 是,直接使用 | bzip2 | .bz2 | 是 | 和文本处理一样,不需要修改 |
LZO | 否,需要安装 | LZO | .lzo | 是 | 需要建索引,还需要指定输入格式 |
LZ4 | 是,直接使用 | LZ4 | .lz4 | 否 | - |
Snappy | 是,直接使用 | Snappy | .snappy | 否 | 和文本处理一样,不需要修改 |
各种压缩算法对应使用的java类
:
压缩格式 | 对应使用的java类 |
---|---|
DEFLATE | org.apache.hadoop.io.compress.DeFaultCodec |
gzip | org.apache.hadoop.io.compress.GZipCodec |
bzip2 | org.apache.hadoop.io.compress.BZip2Codec |
LZO | com.hadoop.compression.lzo.LzopCodec |
LZ4 | org.apache.hadoop.io.compress.Lz4Codec |
Snappy | org.apache.hadoop.io.compress.SnappyCodec |
3. 压缩方式选择
压缩方式选择时重点考虑:压缩/解压缩速度、压缩率(压缩后存储大小)、压缩后是否可以支持切片。
- Gzip压缩
- 优点:压缩率比较高;
- 缺点:不支持Split;压缩/解压速度一般;
- Bzip2压缩
- 优点:压缩率高;支持Split;
- 缺点:压缩/解压速度慢。
- Lzo压缩
- 优点:压缩/解压速度比较快;支持Split;
- 缺点:压缩率一般;想支持切片需要额外创建索引。
- Snappy压缩
- 优点:压缩和解压缩速度快;
- 缺点:不支持Split;压缩率一般;
4. 压缩位置选择
5. 压缩的设置方式
5.1 方式一:代码中设置
5.1.1 设置map输出数据压缩
1 | Configuration configuration = new Configuration(); |
5.1.2 设置reduce输出数据压缩
1 | configuration.set("mapreduce.output.fileoutputformat.compress","true"); |
5.2 方式二:配置文件全局设置
可以修改mapred-site.xml
配置文件,然后重启集群,以便对所有的 mapreduce 任务进行压缩。
5.2.1 设置map输出数据压缩
1 | <property> |
5.2.2 设置reduce输出数据压缩
1 | <property> |
所有节点都要修改mapred-site.xml,修改完成之后记得重启集群。
此文章版权归 程序园 所有,如有转载,请注明来自原作者。
评论
ValineDisqus