java大数据最全课程学习笔记(1)--Hadoop简介和安装及伪分布式 (2)

java大数据最全课程学习笔记(1)--Hadoop简介和安装及伪分布式

MapReduce(编程规范): 程序中有Map(简单处理)和Reducer(合并)

遵循MapReduce的编程规范编写的程序打包后,被称为一个Job(任务)

Job需要提交到YARN上,向YARN申请计算资源,运行Job中的Task(进程)

Job会先创建一个进行MRAppMaster(mapReduce应用管理者),由MRMaster向YARN申请资源!MRAppMaster负责监控Job中各个Task运行情况,进行容错管理!

YARN架构概述

java大数据最全课程学习笔记(1)--Hadoop简介和安装及伪分布式

YARN负责集群中所有计算资源的管理和调度

常见进程

ResourceManager(1个): 负责整个集群所有资源的管理!

职责

负责接受客户端的提交Job的请求!
负责向NM分配任务!
负责接受NM上报的信息!

NodeManager(N个): 负责单台计算机所有资源的管理!

职责

负责和RM进行通信,上报本机中的可用资源!
负责领取RM分配的任务!
负责为Job中的每个Task分配计算资源!

Container(容器)

NodeManager为Job的某个Task分配了2个CPU和2G内存的计算资源!

为了防止当前Task在使用这些资源期间,被其他的task抢占资源!

将计算资源,封装到一个Container中,在Container中的资源,会被暂时隔离!无法被其他进程所抢占!

当前Task运行结束后,当前Container中的资源会被释放!允许其他task来使用!

大数据技术生态体系

java大数据最全课程学习笔记(1)--Hadoop简介和安装及伪分布式

图中涉及的技术名词解释如下:

Sqoop:Sqoop是一款开源的工具,主要用于在Hadoop、Hive与传统的数据库(MySql)间进行数据的传递,可以将一个关系型数据库(例如 :MySQL,Oracle 等)中的数据导进到Hadoop的HDFS中,也可以将HDFS的数据导进到关系型数据库中。

Flume:Flume是Cloudera提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的系统,Flume支持在日志系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方(可定制)的能力。

Kafka:Kafka是一种高吞吐量的分布式发布订阅消息系统,有如下特性:

通过O(1)的磁盘数据结构提供消息的持久化,这种结构对于即使数以TB的消息存储也能够保持长时间的稳定性能。

高吞吐量:即使是非常普通的硬件Kafka也可以支持每秒数百万的消息。

支持通过Kafka服务器和消费机集群来分区消息。

支持Hadoop并行数据加载。

Storm:Storm用于“连续计算”,对数据流做连续查询,在计算时就将结果以流的形式输出给用户。

Spark:Spark是当前最流行的开源大数据内存计算框架。可以基于Hadoop上存储的大数据进行计算。

Oozie:Oozie是一个管理Hdoop作业(job)的工作流程调度管理系统。

Hbase:HBase是一个分布式的、面向列的开源数据库。HBase不同于一般的关系数据库,它是一个适合于非结构化数据存储的数据库。

Hive:Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供简单的SQL查询功能,可以将SQL语句转换为MapReduce任务进行运行。 其优点是学习成本低,可以通过类SQL语句快速实现简单的MapReduce统计,不必开发专门的MapReduce应用,十分适合数据仓库的统计分析。

R语言:R是用于统计分析、绘图的语言和操作环境。R是属于GNU系统的一个自由、免费、源代码开放的软件,它是一个用于统计计算和统计制图的优秀工具。

Mahout:Apache Mahout是个可扩展的机器学习和数据挖掘库。

ZooKeeper:Zookeeper是Google的Chubby一个开源的实现。它是一个针对大型分布式系统的可靠协调系统,提供的功能包括:配置维护、名字服务、 分布式同步、组服务等。ZooKeeper的目标就是封装好复杂易出错的关键服务,将简单易用的接口和性能高效、功能稳定的系统提供给用户。

Hadoop运行环境搭建(开发重点) 虚拟机环境准备

克隆虚拟机

修改克隆虚拟机的静态IP

修改主机名

关闭防火墙

创建atguigu用户

useradd atguigu passwd atguigu

配置atguigu用户具有root权限(详见大数据技术之Linux)

vim /etc/sudoers

找到root所在的位置,加入atguigu ALL=(ALL) NOPASSWD: ALL

root ALL=(ALL) ALL
atguigu ALL=(ALL) NOPASSWD: ALL

在/opt目录下创建文件

sudo mkdir module sudo mkdir soft

将/opt目录下创建的soft目录和module目录的所属主修改为atguigu

sudo chown -R atguigu:atguigu /opt/soft /opt/module

安装JDK

安装过程(略)

配置JDK环境变量

vim /etc/profile

Shift+G到最后一行新增

JAVA_HOME=http://www.likecs.com/opt/module/jdk1.8.0_121 PATH=$PATH:$JAVA_HOME/bin export JAVA_HOME PATH

wq保存退出后,让修改后的文件生效

source /etc/profile

测试JDK是否安装成功

java -version

java version "1.8.0_144"

安装Hadoop

安装过程(略)

将Hadoop添加到环境变量

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/wpgjsy.html