Ubuntu Linux下Hadoop 0.20.2配置

创建密钥,这里p后面是空密码,不推荐使用空密码

ssh-keygen -t rsa -P ''

cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

配置完后,执行一下 ssh localhost, 确认你的机器可以用 SSH 连接,并且连接时不需要手工输入密码

下载Hadoop

wget

tar -xvf hadoop-0.20.2.tar.gz

增加环境变量

在/etc/environment

HADOOP_HOME=目录路径

JAVA_HOME=jdk路径

在/etc/profile中增加

export HADOOP_HOME=目录路径

export JAVA_HOME=jdk路径

修改hadoop配置文件

修改$HADOOP_HOME/conf/hadoop-env.sh

#export JAVA_HOME=

改为export JAVA_HOME=jdk路径

设置HDFS目录

mkdir /$HOME/tmp

chmod -R 777 /$HOME/tmp

修改/conf/core-site.xml文件

增加

<property>
  <name>hadoop.tmp.dir</name>
  <value>/home/du/tmp</value>
  <description>A base for other temporary directories.</description>
</property>
<property>
  <name>fs.default.name</name>
  <value>hdfs://localhost:54310</value>
</property>


修改conf/mapred-site.xml

<property>
  <name>mapred.job.tracker</name>
  <value>localhost:54311</value>
  <description>The host and port that the MapReduce job tracker runs
  at.  If "local", then jobs are run in-process as a single map
  and reduce task.
  </description>
</property>


修改 conf/hdfs-site.xml

增加

<property>
  <name>dfs.replication</name>
  <value>1</value>
  <description>Default block replication.
  The actual number of replications can be specified when the file is created.
  The default is used if replication is not specified in create time.
  </description>
</property>


格式化文件系统

hadoop namenode -format

启动伪分布式

$HADOOP_HOME/bin/start-all.sh

检查是否启动成功

jps

18160 SecondaryNameNode
17777 NameNode
17970 DataNode
18477 Jps
18409 TaskTracker
18231 JobTracker

停止

$HADOOP_HOME/bin/stop-all.sh

hadoop web访问接口

:50030/ job tracker访问
:50060/  task tracker访问
:50070/ name node访问

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:http://www.heiqu.com/wyyyfw.html