Hadoop分布式集群系统添加节点

 

 

首页服务器应用

背景:

阅读新闻

Hadoop分布式集群系统添加节点

[日期:2012-01-24]   来源:Linux社区  作者:marysee   [字体:]  

1、  安装jdk1.6.0_26(安装java环境)

Scp  /etc/profile  (注释)newnodeip:/etc

2、  安装Hadoop及hbase、zookeeper

Yum install hadoop-0.20

Yum install hadoop-0.20-tasktarek

Yum install hadoop-0.20-namenode

Yum install hadoop-0.20-datanode

Yum install hadoop-hbase

3|、从主节点拷贝配置文件到新加节点

Scp  –r  /etc/hadoop-0.20/conf   newnodeip:/etc/hadoop-0.20

Scp  –r  /etc/hbase/conf   newnodeip:/etc/hbase

Scp  –r  /etc/zookeeper/conf   newnodeip:/etc/zookeeper

3、  设置用户最大打开的文件数量:

Vim   /etc/security/limits.conf

hdfs            -       nofile  32768

hbase           -       nofile  32768

4、  在master主机上添加dns解析

Vim /var/named/hdfs.zone

$TTL    86400

@ IN SOA hdfs. root(

200101111

14400

3600

604800

86400)

master-hadoop IN A 192.168.5.249

slave1-hadoop IN A 192.168.5.201

hostname  IN A  newip(注释)

master-hbase IN A 192.168.5.249

slave1-hbase IN A 192.168.5.201

hostname  IN A  newip(注释)

@ IN NS ns.hdfs.

/etc/rc.d/init.d/named restart

6,在本机设置dns

vi /etc/resolv.conf

earch hdfs

domain hdfs

nameserver 192.168.5.249

nameserver 202.106.0.20

~

7、主节点master主机添加从节点配置:

Vim /etc/hadoop-0.20/slaves

slave1-hadoop.hdfs

slave2-hadoop.hdfs

slave4-hadoop.hdfs

slave3-hadoop.hdfs

hostname(注释)

vim /etc/hbase/regionserver

slave1-hadoop.hdfs

slave2-hadoop.hdfs

slave4-hadoop.hdfs

slave3-hadoop.hdfs

hostname(注释)

8、配置免密码验证

Scp /home/hdfs/.ssh/*  newip:/home/hdfs/.ssh

9、启动新加节点:

/usr/hahadoop-0.20/bin/daemon start datanode

/usr/hahadoop-0.20/bin/daemon start tasktracker 

Hive安装工作记录

Hadoop版本问题

相关资讯      

   

本文评论   查看全部评论 (0)


评论声明

尊重网上道德,遵守中华人民共和国的各项有关法律法规

承担一切因您的行为而直接或间接导致的民事或刑事法律责任

本站管理人员有权保留或删除其管辖留言中的任意内容

本站有权在网站内转载或引用您的评论

参与本评论即表明您已经阅读并接受上述条款

 

 

 

最新资讯

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:http://www.heiqu.com/pxdzg.html