【bigdata】1.hadoop 集群搭建

本贴最后更新于 616 天前,其中的信息可能已经时移世改

安装虚拟机

  • 打开 VMware-》文件-》新建虚拟机:
  • 默认典型,下一步
    image
  • 选择镜像文件位置,下一步
    image
  • 设置用户名密码,下一步(注意,有些镜像是在安装过程中设置,我用的镜像是:CentOS-7-x86_64-DVD-1804.iso,18 年版本的都能先设置用户名密码,后面全程自动安装)
    image
  • 设置虚拟机名称和位置,下一步
    image
  • 设置磁盘大小,下一步
    image
  • 默认配置,点击完成,然后就等待系统安装完成(其它硬件配置可以后面再修改)
    image
  • 虚拟机配置修改,网络连接选择 NAT 模式,其他配置根据自己电脑情况修改
    image

配置 ip,hostname

  1. 打开 VMware-》编辑-》虚拟网络编辑器
    设置子网 ip:
    image
    点击 NAT 设置,设置网关地址(这里的网关地址就是虚拟机里面需要配置的网关地址):
    image
    点击 DHCP 设置,设置 IP 地址的范围:
    image
  2. 打开创建好的虚拟机,配置 IP 地址:
vim /etc/sysconfig/network-scripts/ifcfg-ens33
-- 修改以下配置
ONBOOT=yes
BOOTPROTO=static
IPADDR=192.168.1.101
GATEWAY=192.168.1.2
DNS1=192.168.1.2

3.配置 windows 网络适配器,注意几个地方的网关地址和 dns 地址得一致,否则无法使用外网
image

4.配置主机名
hostnamectl --static set-hostname master

5.配置主机名映射

vim /etc/hosts
-- 添加以下内容
192.168.1.101 master
192.168.1.102 slave1
192.168.1.103 slave2

5.1.关闭防火墙

-- 关闭防火墙
systemctl stop firewalld
-- 开机不启动
systemctl disable firewalld

5.2.配置普通用户拥有 root 权限

vim /etc/sudoers
-- 在%wheel下面添加普通用户(lihai)
lihai   ALL=(ALL)     NOPASSWD: ALL

5.3.重启虚拟机

6.克隆虚拟机,右键已经创建好的虚拟机名称-》管理-》克隆

下一步
image
下一步
image
创建完整克隆,下一步
image
设置虚拟机名称和位置,点击完成
image

7.修改克隆的虚拟机 ip 和主机名,见步骤 2,步骤 4

配置免密登录

  1. master 节点配置 root 用户免密登录到 master,slave1,slave2
  2. master 节点配置普通用户免密登录到 master,slave1,slave2
  3. slave1 节点配置普通用户免密登录到 master,slave1,slave2
ssh-keygen -t rsa --连敲三个回车
ssh-copy-id master --根据提示输入yes,master的密码
ssh-copy-id slave1 --根据提示输入yes,slave1的密码
ssh-copy-id slave2 --根据提示输入yes,slave2的密码
-- 每个步骤都需要执行上面的所有命令

配置分发脚本,普通用户登录

vim /home/lihai(这里是普通用户名)/bin/xsync

配置 Java 环境
  1. 新建两个目录:
    • /opt/module:软件安装目录
    • /opt/software:软件包存放目录
    • 修改目录权限为普通用户(lihai):chown lihai:lihai /opt/module /opt/software
  2. 上传 tar 包到 master
  3. 解压 tar -zxvf jdk-8u212-linux-x64.tar.gz -C /opt/module/<span> </span>
  4. 配置环境变量
    sudo vim /etc/profile.d/my_env.sh
#JAVA_HOME
export JAVA_HOME=/opt/module/jdk1.8.0_212
export PATH=$PATH:$JAVA_HOME/bin
  1. 使环境变量生效
    source /etc/profile.d/my_env.sh
  2. 验证是否成功
    java -version
  3. 分发 jdk
    xsync /opt/module/jdk1.8.0_212/
  4. 分发环境变量配置
    sudo /home/lihai/bin/xsync /etc/profile.d/my_env.sh
  5. 在 slave1,slave2 中使环境变量生效
    source /etc/profile.d/my_env.sh
  • 大数据

    大数据(big data)是指无法在一定时间范围内用常规软件工具进行捕捉、管理和处理的数据集合,是需要新处理模式才能具有更强的决策力、洞察发现力和流程优化能力的海量、高增长率和多样化的信息资产。

    93 引用 • 113 回帖
  • Hadoop

    Hadoop 是由 Apache 基金会所开发的一个分布式系统基础架构。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。

    86 引用 • 122 回帖 • 625 关注
  • 运维

    互联网运维工作,以服务为中心,以稳定、安全、高效为三个基本点,确保公司的互联网业务能够 7×24 小时为用户提供高质量的服务。

    149 引用 • 257 回帖

相关帖子

欢迎来到这里!

我们正在构建一个小众社区,大家在这里相互信任,以平等 • 自由 • 奔放的价值观进行分享交流。最终,希望大家能够找到与自己志同道合的伙伴,共同成长。

注册 关于
请输入回帖内容 ...