通过 JAVA API 远程操作 HDFS 文件系统工具类

本贴最后更新于 2021 天前,其中的信息可能已经水流花落

通过JAVA API远程操作HDFS文件系统工具类

 


package com.huatec.edu.cloud.hdata.core.ooziejob.utils;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.hdfs.HAUtil;
import org.apache.hadoop.io.IOUtils;
import org.springframework.http.ResponseEntity;

import java.io.*;
import java.net.InetAddress;
import java.net.InetSocketAddress;
import java.net.URI;
import java.net.URISyntaxException;
import java.text.SimpleDateFormat;
import java.util.ArrayList;
import java.util.Date;
import java.util.List;

/**

  • @ Auther: houwenjie

  • @ Date: 2018/9/8 10:57

  • @ Description:远程操纵 HDFS 工具类
    */
    public class HDFSIOUtil {

    private static Configuration conf =new Configuration();
    private static FileSystem fs =null;
    private static Date date2 = new Date();
    private static SimpleDateFormat simpleDateFormat = new SimpleDateFormat("yyyy/MM/dd HH:mm:ss");//24 小时制

    private HDFSIOUtil(){}
    /**

    • @ return:
    • @ auther: houwenjie
    • @ date: 2018/9/3 14:59
    • @ Description: 读取 hdfs 上面文件
      */
      public static String readFile(String filePath) throws IOException, InterruptedException {
      FSDataInputStream in = null;
      Path srcPath = new Path(filePath);
      try {
      fs = srcPath.getFileSystem(conf);
      in = fs.open(srcPath);
      InputStreamReader isr = new InputStreamReader(in, "utf-8");
      BufferedReader br = new BufferedReader(isr);
      String line;
      StringBuffer stringBuffer = new StringBuffer();
      while ((line = br.readLine()) != null) {
      stringBuffer.append(line);
      stringBuffer.append("\r\n");
      }
      return stringBuffer.toString();
      // IOUtils.copyBytes(in, System.out, 4096, false);
      } finally {
      IOUtils.closeStream(in);
      }
      }

    /**

    • @ auther: houwenjie

    • @ date: 2018/9/8 11:21

    • @ Description: 将文件上传到 hdfs 上传路径需要指定文件名
      */
      public static void copyFileToHDFS(File file, String HDFSPath) throws IOException, InterruptedException {

      Path path = new Path(HDFSPath);
      fs = path.getFileSystem(conf);

      InputStream in = new BufferedInputStream(new FileInputStream(file));
      OutputStream out = fs.create(new Path(HDFSPath));
      IOUtils.copyBytes(in, out, 4096, true);
      in.close();
      }

    /**

    • 获取 hdfs 路径下的文件列表
    • @param srcpath
    • @return
      */
      public static List getFileList(String srcpath) throws IOException {
      Path path = new Path(srcpath);
      fs = path.getFileSystem(conf);
      Date date2 = new Date();
      SimpleDateFormat simpleDateFormat = new SimpleDateFormat("yyyy/MM/dd HH:mm:ss");//24 小时制
      List files = new ArrayList();
      HDFSFileEntity hdfsFileEntity = null;
      if (fs.exists(path) && fs.isDirectory(path)) {
      for (FileStatus status : fs.listStatus(path)) {
      hdfsFileEntity= new HDFSFileEntity();
      // String s=(status.isDirectory() ? "d" : "-")+status.getPermission()+","+status.getLen()+","+simpleDateFormat.format(date2)+","+status.getPath();
      hdfsFileEntity.setPermission((status.isDirectory() ? "d" : "-")+status.getPermission());
      hdfsFileEntity.setSize(status.getLen());
      hdfsFileEntity.setModification_time(simpleDateFormat.format(date2));
      hdfsFileEntity.setPath(status.getPath().toString());
      hdfsFileEntity.setBlock_replication((int)status.getReplication());
      hdfsFileEntity.setOwner(status.getOwner());
      hdfsFileEntity.setGroup(status.getGroup());
      hdfsFileEntity.setBlocksize(status.getBlockSize());
      files.add(hdfsFileEntity);
      }
      }
      //fs.close();
      return files;
      }

    public static void mkdir(String path) throws IOException {
    Path srcPath = new Path(path);
    FileSystem fs = srcPath.getFileSystem(conf);
    boolean isok = fs.mkdirs(srcPath);
    if (isok) {
    System.out.println("create dir ok!");
    } else {
    System.out.println("create dir failure");
    }
    //fs.close();
    }
    /**
    *

    • @ return:

    • @ auther: houwenjie

    • @ date: 2018/9/10 14:34

    • @ Description: 根据路径递归查询路径下的文件
      /
      public static List getFileSystem(String srcpath,List files) throws IOException {
      Path path = new Path(srcpath);
      fs = path.getFileSystem(conf);
      if (fs.exists(path) && fs.isDirectory(path)) {
      for (FileStatus status : fs.listStatus(path)) {
      files.add((status.isDirectory() ? "d" : "-")+status.getPermission()+","+status.getLen()+","+simpleDateFormat.format(date2)+","+status.getPath());
      getFileSystem(status.getPath().toString(),files);
      }
      }
      return files;
      }
      /
      *

    • @ auther: houwenjie

    • @ date: 2018/9/12 11:21

    • @ Description: 判断给定的路径是否是文件
      /
      public static boolean isFile( String HDFSPath) throws IOException {
      Path path = new Path(HDFSPath);
      fs = path.getFileSystem(conf);
      boolean isFile = fs.isFile(path);
      return isFile;
      }
      /
      *

    • 如果是高可用集群,判断是否是 active 的 namenode

    • @ return:

    • @ auther: houwenjie

    • @ date: 2018/10/16 13:45

    • @ Description:
      */
      public static String getActiveNameNode(String HDFSPath) {

      try {
      Path path = new Path(HDFSPath);
      fs = path.getFileSystem(conf);
      InetSocketAddress active = HAUtil.getAddressOfActive(fs);
      InetAddress address = active.getAddress();
      return "" + address.getHostAddress() + ":" + active.getPort();
      } catch (Exception e) {
      // e.printStackTrace();
      return null;
      }
      }

}

 

 

HDFSFileEntity实体类

package com.huatec.edu.cloud.hdata.core.ooziejob.utils;

import org.apache.hadoop.fs.Path;

/**

  • @ Auther: houwenjie

  • @ Date: 2018/10/15 14:08

  • @ Description:
    */
    public class HDFSFileEntity {
    private String path;
    private long size;
    private int block_replication;
    private long blocksize;
    private String modification_time;
    private String permission;
    private String owner;
    private String group;

    @Override
    public String toString() {
    return "HDFSFileEntity{" +
    "path='" + path + ''' +
    ", size=" + size +
    ", block_replication=" + block_replication +
    ", blocksize=" + blocksize +
    ", modification_time='" + modification_time + ''' +
    ", permission='" + permission + ''' +
    ", owner='" + owner + ''' +
    ", group='" + group + ''' +
    '}';
    }

    public String getPath() {
    return path;
    }

    public void setPath(String path) {
    this.path = path;
    }

    public long getSize() {
    return size;
    }

    public void setSize(long size) {
    this.size = size;
    }

    public int getBlock_replication() {
    return block_replication;
    }

    public void setBlock_replication(int block_replication) {
    this.block_replication = block_replication;
    }

    public long getBlocksize() {
    return blocksize;
    }

    public void setBlocksize(long blocksize) {
    this.blocksize = blocksize;
    }

    public String getModification_time() {
    return modification_time;
    }

    public void setModification_time(String modification_time) {
    this.modification_time = modification_time;
    }

    public String getPermission() {
    return permission;
    }

    public void setPermission(String permission) {
    this.permission = permission;
    }

    public String getOwner() {
    return owner;
    }

    public void setOwner(String owner) {
    this.owner = owner;
    }

    public String getGroup() {
    return group;
    }

    public void setGroup(String group) {
    this.group = group;
    }
    }

 

 

  • Hadoop

    Hadoop 是由 Apache 基金会所开发的一个分布式系统基础架构。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。

    82 引用 • 122 回帖 • 617 关注

相关帖子

欢迎来到这里!

我们正在构建一个小众社区,大家在这里相互信任,以平等 • 自由 • 奔放的价值观进行分享交流。最终,希望大家能够找到与自己志同道合的伙伴,共同成长。

注册 关于
请输入回帖内容 ...

推荐标签 标签

  • DNSPod

    DNSPod 建立于 2006 年 3 月份,是一款免费智能 DNS 产品。 DNSPod 可以为同时有电信、网通、教育网服务器的网站提供智能的解析,让电信用户访问电信的服务器,网通的用户访问网通的服务器,教育网的用户访问教育网的服务器,达到互联互通的效果。

    6 引用 • 26 回帖 • 522 关注
  • GAE

    Google App Engine(GAE)是 Google 管理的数据中心中用于 WEB 应用程序的开发和托管的平台。2008 年 4 月 发布第一个测试版本。目前支持 Python、Java 和 Go 开发部署。全球已有数十万的开发者在其上开发了众多的应用。

    14 引用 • 42 回帖 • 687 关注
  • 强迫症

    强迫症(OCD)属于焦虑障碍的一种类型,是一组以强迫思维和强迫行为为主要临床表现的神经精神疾病,其特点为有意识的强迫和反强迫并存,一些毫无意义、甚至违背自己意愿的想法或冲动反反复复侵入患者的日常生活。

    15 引用 • 161 回帖 • 3 关注
  • 黑曜石

    黑曜石是一款强大的知识库工具,支持本地 Markdown 文件编辑,支持双向链接和关系图。

    A second brain, for you, forever.

    10 引用 • 85 回帖 • 2 关注
  • 阿里巴巴

    阿里巴巴网络技术有限公司(简称:阿里巴巴集团)是以曾担任英语教师的马云为首的 18 人,于 1999 年在中国杭州创立,他们相信互联网能够创造公平的竞争环境,让小企业通过创新与科技扩展业务,并在参与国内或全球市场竞争时处于更有利的位置。

    43 引用 • 221 回帖 • 238 关注
  • 负能量

    上帝为你关上了一扇门,然后就去睡觉了....努力不一定能成功,但不努力一定很轻松 (° ー °〃)

    85 引用 • 1201 回帖 • 449 关注
  • Facebook

    Facebook 是一个联系朋友的社交工具。大家可以通过它和朋友、同事、同学以及周围的人保持互动交流,分享无限上传的图片,发布链接和视频,更可以增进对朋友的了解。

    4 引用 • 15 回帖 • 454 关注
  • 大数据

    大数据(big data)是指无法在一定时间范围内用常规软件工具进行捕捉、管理和处理的数据集合,是需要新处理模式才能具有更强的决策力、洞察发现力和流程优化能力的海量、高增长率和多样化的信息资产。

    89 引用 • 113 回帖
  • Ant-Design

    Ant Design 是服务于企业级产品的设计体系,基于确定和自然的设计价值观上的模块化解决方案,让设计者和开发者专注于更好的用户体验。

    17 引用 • 23 回帖 • 3 关注
  • 链书

    链书(Chainbook)是 B3log 开源社区提供的区块链纸质书交易平台,通过 B3T 实现共享激励与价值链。可将你的闲置书籍上架到链书,我们共同构建这个全新的交易平台,让闲置书籍继续发挥它的价值。

    链书社

    链书目前已经下线,也许以后还有计划重制上线。

    14 引用 • 257 回帖 • 5 关注
  • Log4j

    Log4j 是 Apache 开源的一款使用广泛的 Java 日志组件。

    20 引用 • 18 回帖 • 42 关注
  • 区块链

    区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。所谓共识机制是区块链系统中实现不同节点之间建立信任、获取权益的数学算法 。

    91 引用 • 751 回帖
  • Netty

    Netty 是一个基于 NIO 的客户端-服务器编程框架,使用 Netty 可以让你快速、简单地开发出一个可维护、高性能的网络应用,例如实现了某种协议的客户、服务端应用。

    49 引用 • 33 回帖 • 22 关注
  • WebComponents

    Web Components 是 W3C 定义的标准,它给了前端开发者扩展浏览器标签的能力,可以方便地定制可复用组件,更好的进行模块化开发,解放了前端开发者的生产力。

    1 引用 • 23 关注
  • SMTP

    SMTP(Simple Mail Transfer Protocol)即简单邮件传输协议,它是一组用于由源地址到目的地址传送邮件的规则,由它来控制信件的中转方式。SMTP 协议属于 TCP/IP 协议簇,它帮助每台计算机在发送或中转信件时找到下一个目的地。

    4 引用 • 18 回帖 • 590 关注
  • 开源

    Open Source, Open Mind, Open Sight, Open Future!

    396 引用 • 3416 回帖
  • gRpc
    10 引用 • 8 回帖 • 56 关注
  • Dubbo

    Dubbo 是一个分布式服务框架,致力于提供高性能和透明化的 RPC 远程服务调用方案,是 [阿里巴巴] SOA 服务化治理方案的核心框架,每天为 2,000+ 个服务提供 3,000,000,000+ 次访问量支持,并被广泛应用于阿里巴巴集团的各成员站点。

    60 引用 • 82 回帖 • 610 关注
  • 笔记

    好记性不如烂笔头。

    304 引用 • 777 回帖
  • JSON

    JSON (JavaScript Object Notation)是一种轻量级的数据交换格式。易于人类阅读和编写。同时也易于机器解析和生成。

    51 引用 • 190 回帖
  • LaTeX

    LaTeX(音译“拉泰赫”)是一种基于 ΤΕΧ 的排版系统,由美国计算机学家莱斯利·兰伯特(Leslie Lamport)在 20 世纪 80 年代初期开发,利用这种格式,即使使用者没有排版和程序设计的知识也可以充分发挥由 TeX 所提供的强大功能,能在几天,甚至几小时内生成很多具有书籍质量的印刷品。对于生成复杂表格和数学公式,这一点表现得尤为突出。因此它非常适用于生成高印刷质量的科技和数学类文档。

    9 引用 • 32 回帖 • 165 关注
  • Hexo

    Hexo 是一款快速、简洁且高效的博客框架,使用 Node.js 编写。

    21 引用 • 140 回帖 • 31 关注
  • MongoDB

    MongoDB(来自于英文单词“Humongous”,中文含义为“庞大”)是一个基于分布式文件存储的数据库,由 C++ 语言编写。旨在为应用提供可扩展的高性能数据存储解决方案。MongoDB 是一个介于关系数据库和非关系数据库之间的产品,是非关系数据库当中功能最丰富,最像关系数据库的。它支持的数据结构非常松散,是类似 JSON 的 BSON 格式,因此可以存储比较复杂的数据类型。

    90 引用 • 59 回帖
  • 职场

    找到自己的位置,萌新烦恼少。

    126 引用 • 1699 回帖 • 2 关注
  • SSL

    SSL(Secure Sockets Layer 安全套接层),及其继任者传输层安全(Transport Layer Security,TLS)是为网络通信提供安全及数据完整性的一种安全协议。TLS 与 SSL 在传输层对网络连接进行加密。

    69 引用 • 190 回帖 • 497 关注
  • OpenResty

    OpenResty 是一个基于 NGINX 与 Lua 的高性能 Web 平台,其内部集成了大量精良的 Lua 库、第三方模块以及大多数的依赖项。用于方便地搭建能够处理超高并发、扩展性极高的动态 Web 应用、Web 服务和动态网关。

    17 引用 • 39 关注
  • Sillot

    Sillot (汐洛)孵化自思源笔记,致力于服务智慧新彖乄,具有彖乄驱动、极致优雅、开发者友好的特点
    Github 地址:https://github.com/Hi-Windom/Sillot

    16 引用 • 6 回帖 • 28 关注