CentOS 6.5集群安装64位Hadoop2.2.0

ssh无密码登录,很简单,每台机器都生成公钥,密钥(事先建立一个统一的Hadoop用户) 

// 生成key, 都不输入密码
ssh-keygen -t rsa

// 于是在用户主目录下会有.ssh/文件夹生成, 文件有:
 id_rsa id_rsa.pub
将三台机器的id_rsa.pub的内容合并到一个authorized_keys文件,并复制到三台机器用户主目录/.ssh/下。

注意, CentOS默认没有启动ssh无密登录,去掉/etc/ssh/sshd_config其中3行的注释:

完成后就可以无密ssh了,如:

安装hadoop:

解压,并做配置$HADOOP_HOME/etc/hadoop下:

详细配置可见:

--------------------------------------分割线 --------------------------------------

Ubuntu 13.04上搭建Hadoop环境

Ubuntu 12.10 +Hadoop 1.2.1版本集群配置

Ubuntu上搭建Hadoop环境(单机模式+伪分布模式)

Ubuntu下Hadoop环境的配置

单机版搭建Hadoop环境图文教程详解

Hadoop LZO 安装教程

Hadoop集群上使用Lzo压缩

--------------------------------------分割线 --------------------------------------

//1. hadoop-env.sh中添加JAVA_HOME, 如:
# The java implementation to use.
export JAVA_HOME=/usr/java/jdk1.7.0_45

//2. core-site.xml(tmp目录需手动创建):
<configuration>
        <property>
                <name>hadoop.tmp.dir</name>
                <value>/home/hadoop/tmp/hadoop-${user.name}</value>
        </property>
        <property>
                <name>fs.default.name</name>
                <value>hdfs://hadoopmaster:9000</value>
        </property>
</configuration>

//3. mapred-site.xml
<configuration>
        <property>
                <name>mapred.job.tracker</name>
                <value>hadoopmaster:9001</value>
        </property>
</configuration>

//4. hdfs-site.xml
<configuration>
        <property>
                <name>dfs.replication</name>
                <value>2</value>
        </property>
</configuration>

//5. slaves
hadoopslave1
hadoopslave2

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/830658c0b310cf5c501233a57eb1638a.html