admin 发表于 2017-8-9 14:38:24

Hadoop安装及伪分布式配置(Linux系统)

第一步:下载安装包:

1. hadoop-2.7.4.tar.gz
2. jdk-8u73-linux-x64.gz

第二步:Linux系统创建hadoop帐号
# useradd -m hadoop -s /bin/bash
# passwd hadoop      (输入密码,如:123456)
(为 hadoop 用户增加管理员权限,方便部署,避免一些对新手来说比较棘手的权限问题)
# vi /etc/sudoers   (复制rootALL=(ALL)    ALL这行,将root改成hadoop即可)
# su hadoop

第三步:Host主机配置

Hadoop是分布式系统,会根据host配置来查询网络节点的ip地址,包括localhost。
首先查看:/etc/sysconfig/network文件中HOSTNAME字段的值。
然后看:/etc/hosts 文件中是否有ip地址对应到上面的HOSTNAME字段的值,如果获取不到就会报错UnknownHostException。
判断Host主机配置是否正确:
$ hostname
$ hostname -i   (能查看到ip地址)

第四步:安装Java环境

$ tar zxvf jdk-8u73-linux-x64.gz
$ mv jdk1.8.0_73 ~/local/
配置环境变量
$ vi ~/.bashrc
export JAVA_HOME=/home/hadoop/local/jdk1.8.0_73
export PATH=$JAVA_HOME/bin: $PATH
export CLASSPATH=$JAVA_HOME/lib: $JAVA_HOME/jre/lib
$ source ~/.bashrc
$ java -version   (查看Java版本)

第五步:安装Hadoop
$ tar zxvf hadoop-2.7.4.tar.gz
$ mv hadoop-2.7.4 ~/local/
配置环境变量
$ vi ~/.bashrc
export HADOOP_HOME=/home/hadoop/local/hadoop-2.7.4
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$HADOOP_HOME/bin: $PATH
$ source ~/.bashrc
$ hadoop version    (查看hadoop版本)

第六步:Hadoop伪分布式配置$ cd ~/local/hadoop-2.7.4
$ vi etc/hadoop/core-site.xml

<configuration>
      <property>
             <name>hadoop.tmp.dir</name>
             <value>file:/home/hadoop/tmp</value>
             <description>Abase for other temporary directories.</description>
      </property>
      <property>
             <name>fs.defaultFS</name>
             <value>hdfs://localhost:9000</value>
      </property>
</configuration>

$vi etc/hadoop/hdfs-site.xml
<configuration>
      <property>
             <name>dfs.replication</name>
             <value>1</value>
      </property>
      <property>
             <name>dfs.namenode.name.dir</name>
             <value>file:/home/hadoop/tmp/dfs/name</value>
      </property>
      <property>
             <name>dfs.datanode.data.dir</name>
             <value>file:/home/hadoop/tmp/dfs/data</value>
      </property>
</configuration>

配置完成后,执行 NameNode 的格式化:

$ hdfs namenode -format
(看到Storage directory /home/hadoop/tmp/dfs/name has been successfully formatted. 就表示成功了)


开启 NameNode 和 DataNode 守护进程
$ ./sbin/start-dfs.sh
$ jps      (用此命令查看是否成功了,如果 SecondaryNameNode 没有启动,请运行 sbin/stop-dfs.sh 关闭进程,然后再次尝试启动尝试;如果没有NameNode 或 DataNode ,那就是配置不成功,请仔细检查之前步骤,或通过查看启动日志排查原因)
2882 SecondaryNameNode
3027 Jps
2643 NameNode
2739 DataNode

关闭dfs
$ ./sbin/stop-dfs.sh


【启动成功后可以在浏览器中打开:http://127.0.0.1:50070/ 查看HDFS的NameNode 和 Datanode 信息,还可以在线查看 HDFS 中的文件。】


参考文献:
1. http://www.powerxing.com/install-hadoop/



页: [1]
查看完整版本: Hadoop安装及伪分布式配置(Linux系统)