MapReduce(编程规范): 程序中有Map(简单处理)和Reducer(合并)
遵循MapReduce的编程规范编写的程序打包后,被称为一个Job(任务)
Job需要提交到YARN上,向YARN申请计算资源,运行Job中的Task(进程)
Job会先创建一个进行MRAppMaster(mapReduce应用管理者),由MRMaster向YARN申请资源!MRAppMaster负责监控Job中各个Task运行情况,进行容错管理!
YARN架构概述YARN负责集群中所有计算资源的管理和调度
常见进程
ResourceManager(1个): 负责整个集群所有资源的管理!
职责
负责接受客户端的提交Job的请求!
负责向NM分配任务!
负责接受NM上报的信息!
NodeManager(N个): 负责单台计算机所有资源的管理!
职责
负责和RM进行通信,上报本机中的可用资源!
负责领取RM分配的任务!
负责为Job中的每个Task分配计算资源!
Container(容器)
NodeManager为Job的某个Task分配了2个CPU和2G内存的计算资源!
为了防止当前Task在使用这些资源期间,被其他的task抢占资源!
将计算资源,封装到一个Container中,在Container中的资源,会被暂时隔离!无法被其他进程所抢占!
当前Task运行结束后,当前Container中的资源会被释放!允许其他task来使用!
大数据技术生态体系
图中涉及的技术名词解释如下:
Sqoop:Sqoop是一款开源的工具,主要用于在Hadoop、Hive与传统的数据库(MySql)间进行数据的传递,可以将一个关系型数据库(例如 :MySQL,Oracle 等)中的数据导进到Hadoop的HDFS中,也可以将HDFS的数据导进到关系型数据库中。
Flume:Flume是Cloudera提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统,Flume支持在日志系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方(可定制)的能力。
Kafka:Kafka是一种高吞吐量的分布式发布订阅消息系统,有如下特性:
通过O(1)的磁盘数据结构提供消息的持久化,这种结构对于即使数以TB的消息存储也能够保持长时间的稳定性能。
高吞吐量:即使是非常普通的硬件Kafka也可以支持每秒数百万的消息。
支持通过Kafka服务器和消费机集群来分区消息。
支持Hadoop并行数据加载。
Storm:Storm用于“连续计算”,对数据流做连续查询,在计算时就将结果以流的形式输出给用户。
Spark:Spark是当前最流行的开源大数据内存计算框架。可以基于Hadoop上存储的大数据进行计算。
Oozie:Oozie是一个管理Hdoop作业(job)的工作流程调度管理系统。
Hbase:HBase是一个分布式的、面向列的开源数据库。HBase不同于一般的关系数据库,它是一个适合于非结构化数据存储的数据库。
Hive:Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供简单的SQL查询功能,可以将SQL语句转换为MapReduce任务进行运行。 其优点是学习成本低,可以通过类SQL语句快速实现简单的MapReduce统计,不必开发专门的MapReduce应用,十分适合数据仓库的统计分析。
R语言:R是用于统计分析、绘图的语言和操作环境。R是属于GNU系统的一个自由、免费、源代码开放的软件,它是一个用于统计计算和统计制图的优秀工具。
Mahout:Apache Mahout是个可扩展的机器学习和数据挖掘库。
ZooKeeper:Zookeeper是Google的Chubby一个开源的实现。它是一个针对大型分布式系统的可靠协调系统,提供的功能包括:配置维护、名字服务、 分布式同步、组服务等。ZooKeeper的目标就是封装好复杂易出错的关键服务,将简单易用的接口和性能高效、功能稳定的系统提供给用户。
Hadoop运行环境搭建(开发重点) 虚拟机环境准备
克隆虚拟机
修改克隆虚拟机的静态IP
修改主机名
关闭防火墙
创建atguigu用户
useradd atguigu passwd atguigu
配置atguigu用户具有root权限(详见大数据技术之Linux)
vim /etc/sudoers找到root所在的位置,加入atguigu ALL=(ALL) NOPASSWD: ALL
root ALL=(ALL)
ALL
atguigu ALL=(ALL)
NOPASSWD: ALL
在/opt目录下创建文件
sudo mkdir module sudo mkdir soft将/opt目录下创建的soft目录和module目录的所属主修改为atguigu
sudo chown -R atguigu:atguigu /opt/soft /opt/module 安装JDK
安装过程(略)
配置JDK环境变量
vim /etc/profileShift+G到最后一行新增
JAVA_HOME=http://www.likecs.com/opt/module/jdk1.8.0_121 PATH=$PATH:$JAVA_HOME/bin export JAVA_HOME PATHwq保存退出后,让修改后的文件生效
source /etc/profile测试JDK是否安装成功
java -versionjava version "1.8.0_144"
安装Hadoop
安装过程(略)
将Hadoop添加到环境变量