5.下载,复制和解压Hadoop
1)下载hadoop 1.0.4并且放到你指定的文件夹里比如我的放在了D:\java。
2)打开Cygwin
3)执行以下命令
$ cd4)执行下面命令直接在windows上以窗口形式打开home目录
$ explorer .5) 把hadoop安装文件copy到你的Home目录下。
6. 解压Hadoop安装包解压安装包有以下步骤:
1) 打开一个新的Cygwin
2) 执行以下命令
$ tar –zvxf hadoop-1.0.4.tar.gz3) 解压完后,执行以下命令
$ ls -l这个命令列出home目录下的内容。你应该能看一个新生成的文件hadoop-1.0.4
4)下一步执行以下命令:
$ cd hadoop-1.0.4 $ ls -l如果你与下面相似的信息,就说明你解压成功了,可以进行下一步
7. 配置Hadoop1)开启一个Cygwin窗口并且执行以下命令:
$ cd hadoop-1.0.4 $ cd conf $ explorer .2) 最后一个命令打开了Explorer窗体进入到conf文件夹
3)配置hadoop-env.sh文件
export JAVA_HOME=/cygdrive/c/Progra~1/Java/jdk1.7.0_02知识补充: 注:因为我的Java安装目录Program Files有空格,所以用缩写成Progra~1
4)然后使用编辑软甲打开,我就用UE了,也可以使用eclipse来打开,主要是编辑core-site.xml、mapred-site.xml和hdfs-site.xml
5)在3个文件中<configuration>和</configuration>里插入以下内容
core-site.xml
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
mapred-site.xml
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
</configuration>
hdfs-site.xml
<property>
<name>dfs.http.address</name>
<value>localhost:50070</value>
</property>
<property>
<name>dfs.name.dir</name>
<value>/usr/local/hadoop/namenode</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/usr/local/hadoop/data</value>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
注:在目录/usr/local目录下创建一个hadoop文件夹,这个是根据你前面配置中制定的namenode和datanode而定。
还有就是localhost最好直接写成ip地址,我写的是电脑本机的ip:10.60.115.150