Linux下Hadoop集群安装详细步骤(2)

c. 直接登录远程主机
                            [root@ ~]# ssh Datanode1

Last login: Sun Nov 16 17:22:33 2008 from 192.168.1.2

[注: SSH 不会询问密码.]

[root@Datanode1 ~]

[注: 你现在已经登录到了远程主机上]

d. 注意:在这里,执行都在Namenode上面,而且Namenode也需要对自己进行无密码操作即
      [root@ ~]# ssh-copy-id -i ~/.ssh/id_rsa.pub  root@操作,

其他的,按照a-c重复操作Datanode2和Datanode3就行了

一定要能无密码访问,否则不能集群Hadoop一定失败.

6. 安装Hadoop(这里,每一台服务器的JDK和Hadoop安装路径都相同)
        a. 创建安装目录 mkdir /usr/local/hadoop/
        b. 解压安装文件hadoop-0.21.0.tar放入到安装目录
tar -zxvf hadoop-0.21.0.tar

c. 设置环境变量
                            /etc/profile增加如下内容

#config hadoop

export HADOOP_HOME=/usr/local/hadoop/

export PATH=$HADOOP_HOME/bin:$PATH

#hadoop的日志文件路径的配置

export HADOOP_LOG_DIR=${HADOOP_HOME}/logs

让设置生效: source /etc/profile

d. 设置主从配置
                     Namenode中/etc/hosts的配置如下:

192.168.16.1        Namenode

192.168.16.2        Datanode1

192.168.16.3        Datanode2

192.168.16.4        Datanode3

Namenode中/usr/local/hadoop/conf/masters的配置如下:

Namenode

Namenode中/usr/local/hadoop/conf/slaves的配置如下:

Datanode1

Datanode2

Datanode3

Datanode1中/etc/hosts的配置如下:(/usr/local/hadoop/conf/中的masters和slaves的配置跟Namenode一样)

192.168.16.1        Namenode

192.168.16.2        Datanode1

Datanode2中/etc/hosts的配置如下:(/usr/local/hadoop/conf/中的masters和slaves的配置跟Namenode一样)

192.168.16.1        Namenode

192.168.16.3        Datanode2

Datanode3中/etc/hosts的配置如下:(/usr/local/hadoop/conf/中的masters和slaves的配置跟Namenode一样)

192.168.16.1        Namenode

192.168.16.4        Datanode3

e. 修改配置文件/usr/local/hadoop/conf/ hadoop-env.sh
      把JAVA_HOME该为安装jdk的路径

# The java implementation to use.  Required.

export JAVA_HOME=/usr/java/jdk1.6.0_26/

f. 修改配置文件 core-site.xml内容如下:
                            <configuration>

<property>

<name>fs.default.name</name>

<value>hdfs://Namenode:9000/</value>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>/usr/local/hadoop/tmp/</value>

</property>

</configuration>

g. 修改配置文件 hdfs-site.xml内容如下:
                            <configuration>

<property>

<name>dfs.replication</name>

#设置备份文件数

<value>1</value>

</property>

</configuration>

h. 修改配置文件 mapred-site.xml内容如下:
                            <configuration>

<property>

<name>mapred.job.tracker</name>

#一般jobtracker和namenode设置到同一台机器上,但是同样可以集群

<value>Namenode:9001</value>

</property>

</configuration>

i. 注意:上面讲的配置文件全部是在Namenode中配置的,只要把这三个配置文件拷贝复制到其他的Datanode上就行了
   j. 初始化Hadoop: cd /usr/local/hadoop/
               ./bin/hadoop namenode -format

出现类似如下的信息:但是不能出现ERORR字段.

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:http://127.0.0.1/wyyjfy.html