八. 要将master机器上的文件一一复制到datanode机器上(son-1,son-2,son-3,son-4都要复制):(这里以son-1为例子)
1. 公钥的复制
scp ~/.ssh/id_rsa.pub Hadoop@son-1:~/.ssh/
2. hosts文件的复制
scp /etc/hosts hadoop@son-1:/etc/hosts
注:这里如果不能复制,就先将文件复制到/home/hadoop下面,即为:
/home/hadoophadoop@son-1: scp /etc/hosts
再在datanode机器上将其移到相同的路径下面/etc/hosts .
3. hadoop文件夹的复制,其中的配置也就一起复制过来了!
scp -r /usr/local/hadoop hadoop@son-1:/usr/local
如果不能移动的话和上面的方法一样!
并且要将所有节点的hadoop的目录的权限进行如下的修改:
sudo chown -R hadoop:hadoop hadoop
这些东西都复制完了之后,datanode机器还要将复制过来的公钥追加到收信任列表:
在每个子节点的自己种都要操作。
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
还有很重要的一点,子节点datanode机器要把复制过来的hadoop里面的data1,data2和logs删除掉!
还有要修改CentOS节点(son-3)和RedHat节点(son-4)的java的环境变量地址,
配置centos节点(son-3)和redhat节点(son-4)的/usr/local/hadoop/conf/hadoop-env.sh(找到#export JAVA_HOME=...,去掉#,然后加上本机jdk的路径);这个环境不一,自己配置一下。
这样环境已经基本搭建好了,现在开始测试一下。