Ubuntu 12.04 搭建 Hadoop 集群版环境(3)

八. 要将master机器上的文件一一复制到datanode机器上(son-1,son-2,son-3,son-4都要复制):(这里以son-1为例子)

1. 公钥的复制

scp ~/.ssh/id_rsa.pub Hadoop@son-1:~/.ssh/

2. hosts文件的复制

scp /etc/hosts hadoop@son-1:/etc/hosts

注:这里如果不能复制,就先将文件复制到/home/hadoop下面,即为:

/home/hadoophadoop@son-1: scp /etc/hosts

再在datanode机器上将其移到相同的路径下面/etc/hosts .

3. hadoop文件夹的复制,其中的配置也就一起复制过来了!

scp -r /usr/local/hadoop hadoop@son-1:/usr/local

如果不能移动的话和上面的方法一样!

并且要将所有节点的hadoop的目录的权限进行如下的修改:

sudo chown -R hadoop:hadoop hadoop

这些东西都复制完了之后,datanode机器还要将复制过来的公钥追加到收信任列表:

在每个子节点的自己种都要操作。

cat ~/.ssh/id_rsa.pub >>  ~/.ssh/authorized_keys

还有很重要的一点,子节点datanode机器要把复制过来的hadoop里面的data1,data2和logs删除掉!

还有要修改CentOS节点(son-3)和RedHat节点(son-4)的java的环境变量地址,

配置centos节点(son-3)和redhat节点(son-4)的/usr/local/hadoop/conf/hadoop-env.sh(找到#export JAVA_HOME=...,去掉#,然后加上本机jdk的路径);这个环境不一,自己配置一下。

这样环境已经基本搭建好了,现在开始测试一下。

linux

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:http://www.heiqu.com/1a15de40122c450e898c6687da3e2c16.html