环境说明:VM上ubuntu 16.04版本

安装hadoop前的准备

(1)ssh 免密登录

(2)配置好Java环境

第一二步骤的安装见网上博客

安装Hadoop

下载hadoop

到上一篇博客给出的网下载hadoop-0.20.2.tar.gz,到随便一个目录解压,我这里是解压到了/zoux目录,并将hadoop-0.20.2重名为hadoop

编辑配置文件

进入hadoop/conf目录下,编辑core-site.xml文件
<property>
    <name>fs.default.name</name>
    <value>hdfs://localhost:9000</value>
</property>
编辑hdfs.site.xml文件

下面需要注意data目录是存放Hdfs文件的目录,需要自己提前建立,并使hadoop有权限操作它

(方法:sudo chmod 777 -R data,将data目录的权限设置为777)

<property>
        <name>dfs.data.dir</name>
        <value>/zoux/hadoop/data</value>
    </property>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
编辑mapred-site.xml
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>

接下来还有一个重要的配置文件 hadoop-env.sh, 这里只要配置java的环境变量即可:

export JAVA_HOME=/java/jdk1.8.0_171

这里/java/jdk1.8.0_171是我前面配置java的环境变量。

设置hadoop环境变量

打开/etc/profile文件, 末尾加入这俩句话即可。 /zoux/hadoop是解压完重命名的目录

export HADOOP_HOME=/zoux/hadoop
export PATH=${JAVA_HOME}/bin:$PATH:$HADOOP_HOME/bin

然后输入 source /etc/profile是配置文件生效。

这时命令行输入 hadoop -version,出现版本号信息就行。(我这里出现的事java的版本,但是后面的hadoop命名是生效的)

接下来我们需要格式化hdfs目录

输入 hadoop namenode -format

上一步成功后我们需要判断集群是否能正常启动

(1) 在/zoux/hadoop目录下 输入 bin/start-all.sh启动集群 image.png

这是正常的运行目录,这一步并不是成功,如果log的输出都是正常的话,就成功了。

如果遇到以下的问题 image2

这是logs目录的权限太大,hadoop命令写不进去。这时使用下面的命令将logs文件夹权限降下了就可以了。

 sudo chmod -R 777 logs 

(2)在 bin/start-all.sh没有报错后,输入jps查看所有的进程

3222 SecondaryNameNode
5707 Jps
3099 DataNode
3419 TaskTracker
2974 NameNode              
3295 JobTracker    

出现上面这些进程表示集群安装成功。恭喜你,进入下一步开发了。

(3)bin/stop-all.sh关闭集群