Hadoop HDFS 单机开发环境建立

下载一份Hadoop-0.21.0.tar.gz
解压到你想要的目录,我这里放到usr下。
将其改名为:shadoop
修改如下配置文件:
conf/core-site.xml:

<configuration>
     <property>
         <name>fs.default.name</name>
         <value>hdfs://192.168.110.54:9000</value>
     </property>
</configuration>


conf/hdfs-site.xml:

<configuration>
     <property>
         <name>dfs.replication</name>
         <value>1</value>
     </property>
</configuration>


conf/mapred-site.xml:

<configuration>
     <property>
         <name>mapred.job.tracker</name>
         <value>192.168.110.54:9001</value>
     </property>
</configuration>
ssh密钥:
$ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
配置conf下hadoop-env.sh:
export JAVA_HOME=/usr/java/jdk1.6.0_21 #配置java_home
格式化namenode:
bin/hadoop namenode -format
开启服务:
bin/start-all.sh

在home下建立images,这个文件下放入一堆图片。这个文件夹会作为源文件夹使用,一会会将这个文件夹放入分布式文件系统中去。
添加一个文件夹到分布式文件系统里:
bin/hadoop dfs -put /home/images hdfs://192.168.110.54:9000/usr/shadoop/images
查下刚刚放入分布式文件系统中的文件夹:
bin/hadoop dfs -ls hdfs://192.168.110.54:9000/usr/shadoop/images
获取一个文件:
bin/hadoop dfs -get hdfs://192.168.110.54:9000/usr/shadoop/images/1028030.jpg /home/
删除一个文件夹:
bin/hadoop dfs -rmr hdfs://192.168.110.54:9000/usr/shadoop/images

关闭服务:
bin/stop-all.sh

命令使用手册:

更多Hadoop相关信息:?Where=Nkey&Keyword=Hadoop

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:http://www.heiqu.com/4f03e2bfe10e85be391892001d753dd3.html