CentOS7 安装伪分布式 Hadoop 2.6.5

本贴最后更新于 1817 天前,其中的信息可能已经时移世易

CentOS7 安装伪分布式 Hadoop 2.6.5

0.准备环境

单节点:

主机名 CPU 内存 IP
node0 1c 2G 10.4.96.3

配置安装环境

  • 更改主机名为 node0

  • 配置 ssh 秘钥验证,达到无需密码验证登录本节点 root 用户的效果(ssh root@10.4.96.3)

  • 配置/etc/hosts 文件,通过 node0 即可域名解析到对应 IP (10.4.96.3)

  • 配置正确的时区和时间同步服务

  • 关闭防火墙

    [root@node0 ~]# vim /etc/selinux/config ... SELINUX=disabled ... [root@node0 ~]# setenforce 0 [root@node0 ~]# getenforce Permissive [root@node0 ~]# systemctl stop firewalld [root@node0 ~]# systemctl disable firewalld
    [root@node0 default]# pwd /usr/java/default [root@node0 default]# tail -n5 /etc/profile #Java Environment variables export JAVA_HOME=/usr/java/default export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib export PATH=$PATH:$JAVA_HOME/bin [root@node0 default]# source /etc/profile
    [root@node0 default]# which java /usr/bin/java [root@node0 default]# java -version java version "1.8.0_251" Java(TM) SE Runtime Environment (build 1.8.0_251-b08) Java HotSpot(TM) 64-Bit Server VM (build 25.251-b08, mixed mode)

1. Hadoop 应用部署

伪分布式安装需要单节点具备所有角色

host NN SNN DN
node0 * * *

安装应用

下载 Hadoop 安装包到 /usr/local/src 目录下

https://archive.apache.org/dist/hadoop/core/hadoop-2.6.5/hadoop-2.6.5.tar.gz

[root@node0 src]# ls hadoop-2.6.5.tar.gz jdk-8u251-linux-x64.rpm

创建安装目录

[root@node0 ~]# mkdir /opt/bigdata

分发到安装目录

[root@node0 ~]# cd /opt/bigdata/ [root@node0 bigdata]# tar zxf /usr/local/src/hadoop-2.6.5.tar.gz [root@node0 bigdata]# ls hadoop-2.6.5 [root@node0 bigdata]# chown -R root:root hadoop-2.6.5

配置环境变量

[root@node0 ~]# tail -n3 /etc/profile #Hadoop Environment variables export HADOOP_HOME=/opt/bigdata/hadoop-2.6.5 export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin [root@node0 ~]# source /etc/profile

配置应用

配置 hadoop-env.sh 文件

[root@node0 hadoop]# pwd /opt/bigdata/hadoop-2.6.5/etc/hadoop [root@node0 hadoop]# vim hadoop-env.sh ... export JAVA_HOME=/usr/java/default

配置 core-site.xml 文件

[root@node0 hadoop]# vim core-site.xml ... <configuration> <!--指定namenode的地址--> <property> <name>fs.defaultFS</name> <value>hdfs://node0:9000</value> </property> </configuration>

配置 hdfs-site.xml 文件

[root@node0 hadoop]# vim hdfs-site.xml ... <configuration> <!--指定hdfs保存数据的副本数量--> <property> <name>dfs.replication</name> <value>1</value> </property> <!--指定NN保存元数据的位置--> <property> <name>dfs.namenode.name.dir</name> <value>/var/bigdata/hadoop/local/dfs/name</value> </property> <!--指定DN保存block的位置--> <property> <name>dfs.datanode.data.dir</name> <value>/var/bigdata/hadoop/local/dfs/data</value> </property> <!--指定SNN的位置--> <property> <name>dfs.namenode.secondary.http-address</name> <value>node0:50090</value> </property> <!--指定SNN存储fsimage、editlog的位置--> <property> <name>dfs.namenode.checkpoint.dir</name> <value>/var/bigdata/hadoop/local/dfs/secondary</value> </property> </configuration>

配置 DN 分布的节点,加入 slaves 文件

[root@node0 hadoop]# vim slaves node0

2. 初始化和启动应用

对负责元数据的 NN 做格式化

[root@node0 ~]# hdfs namenode -format
[root@node0 ~]# ls /var/bigdata/hadoop/local/dfs/name/current/ fsimage_0000000000000000000 fsimage_0000000000000000000.md5 seen_txid VERSION

启动 NN daemon 和 DN daemon:

[root@node0 ~]# start-dfs.sh
[root@node0 ~]# jps 6001 Jps 5628 NameNode 5742 DataNode 5886 SecondaryNameNode [root@node0 ~]# ls /var/bigdata/hadoop/local/dfs/ data name secondary

访问 NN 的 web 页面

http://10.4.96.3:50070/

  • Hadoop

    Hadoop 是由 Apache 基金会所开发的一个分布式系统基础架构。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。

    89 引用 • 122 回帖 • 618 关注
  • 分布式
    80 引用 • 149 回帖 • 4 关注

相关帖子

欢迎来到这里!

我们正在构建一个小众社区,大家在这里相互信任,以平等 • 自由 • 奔放的价值观进行分享交流。最终,希望大家能够找到与自己志同道合的伙伴,共同成长。

注册 关于
请输入回帖内容 ...