CentOS7 安装伪分布式 Hadoop 2.6.5

本贴最后更新于 1680 天前,其中的信息可能已经时移世易

CentOS7 安装伪分布式 Hadoop 2.6.5

0.准备环境

单节点:

主机名 CPU 内存 IP
node0 1c 2G 10.4.96.3

配置安装环境

  • 更改主机名为 node0

  • 配置 ssh 秘钥验证,达到无需密码验证登录本节点 root 用户的效果(ssh root@10.4.96.3)

  • 配置/etc/hosts 文件,通过 node0 即可域名解析到对应 IP (10.4.96.3)

  • 配置正确的时区和时间同步服务

  • 关闭防火墙

    [root@node0 ~]# vim /etc/selinux/config
    ...
    SELINUX=disabled
    ...
    [root@node0 ~]# setenforce 0
    [root@node0 ~]# getenforce
    Permissive
    [root@node0 ~]# systemctl stop firewalld
    [root@node0 ~]# systemctl disable firewalld
    
    [root@node0 default]# pwd
    /usr/java/default
    [root@node0 default]# tail -n5 /etc/profile
    
    #Java Environment variables
    export JAVA_HOME=/usr/java/default
    export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib
    export PATH=$PATH:$JAVA_HOME/bin
    
    [root@node0 default]# source /etc/profile
    
    [root@node0 default]# which java
    /usr/bin/java
    [root@node0 default]# java -version
    java version "1.8.0_251"
    Java(TM) SE Runtime Environment (build 1.8.0_251-b08)
    Java HotSpot(TM) 64-Bit Server VM (build 25.251-b08, mixed mode)
    

1. Hadoop 应用部署

伪分布式安装需要单节点具备所有角色

host NN SNN DN
node0 * * *

安装应用

下载 Hadoop 安装包到 /usr/local/src 目录下

https://archive.apache.org/dist/hadoop/core/hadoop-2.6.5/hadoop-2.6.5.tar.gz

[root@node0 src]# ls
hadoop-2.6.5.tar.gz  jdk-8u251-linux-x64.rpm

创建安装目录

[root@node0 ~]# mkdir /opt/bigdata

分发到安装目录

[root@node0 ~]# cd /opt/bigdata/
[root@node0 bigdata]# tar zxf /usr/local/src/hadoop-2.6.5.tar.gz
[root@node0 bigdata]# ls
hadoop-2.6.5
[root@node0 bigdata]# chown -R root:root hadoop-2.6.5

配置环境变量

[root@node0 ~]# tail -n3 /etc/profile
#Hadoop Environment variables
export HADOOP_HOME=/opt/bigdata/hadoop-2.6.5
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
[root@node0 ~]# source /etc/profile

配置应用

配置 hadoop-env.sh 文件

[root@node0 hadoop]# pwd
/opt/bigdata/hadoop-2.6.5/etc/hadoop
[root@node0 hadoop]# vim hadoop-env.sh
...
export JAVA_HOME=/usr/java/default

配置 core-site.xml 文件

[root@node0 hadoop]# vim core-site.xml
...
<configuration>
    <!--指定namenode的地址-->
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://node0:9000</value>
    </property>
</configuration>

配置 hdfs-site.xml 文件

[root@node0 hadoop]# vim hdfs-site.xml
...
<configuration>
    <!--指定hdfs保存数据的副本数量-->
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <!--指定NN保存元数据的位置-->
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>/var/bigdata/hadoop/local/dfs/name</value>
    </property>
    <!--指定DN保存block的位置-->
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>/var/bigdata/hadoop/local/dfs/data</value>
    </property>
    <!--指定SNN的位置-->
    <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>node0:50090</value>
    </property>
    <!--指定SNN存储fsimage、editlog的位置-->
    <property>
        <name>dfs.namenode.checkpoint.dir</name>
        <value>/var/bigdata/hadoop/local/dfs/secondary</value>
    </property>
</configuration>

配置 DN 分布的节点,加入 slaves 文件

[root@node0 hadoop]# vim slaves
node0

2. 初始化和启动应用

对负责元数据的 NN 做格式化

[root@node0 ~]# hdfs namenode -format
[root@node0 ~]# ls /var/bigdata/hadoop/local/dfs/name/current/
fsimage_0000000000000000000  fsimage_0000000000000000000.md5  seen_txid  VERSION

启动 NN daemon 和 DN daemon:

[root@node0 ~]# start-dfs.sh
[root@node0 ~]# jps
6001 Jps
5628 NameNode
5742 DataNode
5886 SecondaryNameNode
[root@node0 ~]# ls /var/bigdata/hadoop/local/dfs/
data  name  secondary

访问 NN 的 web 页面

http://10.4.96.3:50070/

  • Hadoop

    Hadoop 是由 Apache 基金会所开发的一个分布式系统基础架构。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。

    86 引用 • 122 回帖 • 627 关注
  • 分布式
    80 引用 • 149 回帖 • 4 关注

相关帖子

欢迎来到这里!

我们正在构建一个小众社区,大家在这里相互信任,以平等 • 自由 • 奔放的价值观进行分享交流。最终,希望大家能够找到与自己志同道合的伙伴,共同成长。

注册 关于
请输入回帖内容 ...