hadoop优化 1)mr程序的效率瓶颈
功能:分布式离线计算
->计算机性能 CPU、内存、磁盘、网络
->I/O操作优化
(1)数据倾斜(代码优化)
(2)map和reduce数设置不合理
(3)map运行时间太长,导致reduce等待过久
(4)小文件过多(combineTextInputFomrat小文件合并)
(5)不可分块的超大文件(不断的溢写)
(6)多个溢写小文件需要多次merge
2)mr优化方法六个方面考虑:数据输入、Map阶段、Reduce阶段、IO传输、 数据倾斜、参数调优
1>数据输入(1)合并小文件:在执行mr任务前就进行小文件合并
(2)采用CombineTextInputFormat来作为输入,解决输 入端大量小文件的场景 mr并不适合处理大量小文件
2>Map阶段(1)减少溢写次数(就是shuffle过程中的缓冲区,默认是100M 80%。现在增加内存200M 80%=160)
<property>
<name>mapreduce.task.io.sort.mb</name>
<value>100</value>
</property>
或者调高溢写比例
<property>
<name>mapreduce.map.sort.spill.percent</name>
<value> 0.80</value>
</property>
(2)减少合并次数(默认是10个文件就进行合并。我们可以调高合并文件个数。用来达到减少合并次数)
<property>
<name>mapreduce.task.io.sort.factor</name>
<value>10</value>
</property>
(3)在map之后,不影响业务逻辑情况下进行combiner
3>Reduce阶段(1)合理设置map与reduce个数
(2)设置map/reduce共存 设置运行一定程度的map运行后 启动reduce减少等待时间
(这里最好不要调成0.00,应为你调成0还是要等带Map阶段运行产生的数据,反而不好。个人介意不用调这个,只是做个了解就行了)
<property>
<name>mapreduce.job.reduce.slowstart.completedmaps</name>
<value>0.05</value>
</property>
(3)合理设置reduce端的buffer
<property>
<name>mapreduce.reduce.markreset.buffer.percent</name>
<value>0.0</value>
</property>
4>传输(1)进行数据压缩
(2)使用sequenceFile(还是处理小文件的方法,一般用于自定义输出)
5>数据倾斜(1)进行范围分区
(2)自定义分区(默认是hash分区,我们之前就写了一个用电话号码的前3位数进行了分区)
(3)Combine 就一行代码
(4)能用mapjoin坚决不用reduce join
6>参数调优设置核心数
map核心数设置:
<property>
<name>mapreduce.map.cpu.vcores</name>
<value>1</value>
</property>
reduce核心数设置:
<property>
<name>mapreduce.reduce.cpu.vcores</name>
<value>1</value>
</property>
设置内存
maptask内存设置:
<property>
<name>mapreduce.map.memory.mb</name>
<value>1024</value>
</property>
reducetask内存设置:
<property>
<name>mapreduce.reduce.memory.mb</name>
<value>1024</value>
</property>
reduce去map端拿数据并行度(就像java中的多线程)
<property>
<name>mapreduce.reduce.shuffle.parallelcopies</name>
<value>5</value>
</property>
=========================================================
Hadoop框架就学完了。明天开始学习Zookeeper