分享我的Hadoop2.7.2完全分布式环境搭建过程。
服务器:
用户:hadoop
192.168.199.155 master-hadoop Ubuntu desktop 15
192.168.199.157 slave1-hadoop ubuntu desktop 15
192.168.199.158 slave2-hadoop ubuntu desktop 15
java:
版本:1.8.0_73
路径:/usr/local/jdk
hadoop:
版本:2.7.2
路径:/usr/local/hadoop
--------------------------------------------------------------------------------
开始部署
以下部署动作全部在master上执行,slave1和slave2通过虚拟机克隆的方式生成。
设置系统环境变量,编辑/etc/profile,末尾添加:
修改hosts,编辑/etc/hosts,末尾添加:
配置ssh免密登陆
[hadoop@master-hadoop ~]$ ssh-keygen -t rsa
[hadoop@slave1-hadoop ~]$ cd/home/hadoop/.ssh/
[hadoop@slave1-hadoop .ssh]$ cat id_rsa.pub >> authorized_keys
[hadoop@slave1-hadoop .ssh]$ chmod 600 authorized_keys
[hadoop@slave1-hadoop .ssh]$ chmod 700 ../.ssh/
修改hadoop配置文件(core-site.xml和hdfs-site.xml文件中根据hadoop路径修改节点内容)
hadoop-env.sh
slaves
core-site.xml
hdfs-site.xml
yarn-site.xml
mapred-site.xml
克隆虚拟机,生成slave节点(vmware克隆后网卡mac要重新生成,然后在ubuntu网络设置里重新设置mac地址)
1.修改机器名,编辑/etc/hostname,文件内容改为slave1|slave2后重启系统。
2.在master上ssh连接slave1和slave2,测试免密码登陆是否成功,执行
ssh slave1-hadoop
3.在master上启动hadoop,执行
start-all.sh
注意事项:
1.hadoop用户必须有/usr/local/hadoop文件夹读写权限
2.ssh登陆提示The authenticity of host can't be established,修改/etc/ssh/ssh_config文件的配置,最后面添加:
StrictHostKeyChecking no
UserKnownHostsFile /dev/null
下面关于Hadoop的文章您也可能喜欢,不妨看看:
Ubuntu14.04下Hadoop2.4.1单机/伪分布式安装配置教程
CentOS安装和配置Hadoop2.2.0