下载一份Hadoop-0.21.0.tar.gz
解压到你想要的目录,我这里放到usr下。
将其改名为:shadoop
修改如下配置文件:
conf/core-site.xml:
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://192.168.110.54:9000</value>
</property>
</configuration>
conf/hdfs-site.xml:
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
conf/mapred-site.xml:
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>192.168.110.54:9001</value>
</property>
</configuration>
ssh密钥:
$ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
配置conf下hadoop-env.sh:
export JAVA_HOME=/usr/java/jdk1.6.0_21 #配置java_home
格式化namenode:
bin/hadoop namenode -format
开启服务:
bin/start-all.sh
在home下建立images,这个文件下放入一堆图片。这个文件夹会作为源文件夹使用,一会会将这个文件夹放入分布式文件系统中去。
添加一个文件夹到分布式文件系统里:
bin/hadoop dfs -put /home/images hdfs://192.168.110.54:9000/usr/shadoop/images
查下刚刚放入分布式文件系统中的文件夹:
bin/hadoop dfs -ls hdfs://192.168.110.54:9000/usr/shadoop/images
获取一个文件:
bin/hadoop dfs -get hdfs://192.168.110.54:9000/usr/shadoop/images/1028030.jpg /home/
删除一个文件夹:
bin/hadoop dfs -rmr hdfs://192.168.110.54:9000/usr/shadoop/images
关闭服务:
bin/stop-all.sh
更多Hadoop相关信息:?Where=Nkey&Keyword=Hadoop