通过 JAVA API 远程操作 HDFS 文件系统工具类

本贴最后更新于 2624 天前,其中的信息可能已经水流花落

通过JAVA API远程操作HDFS文件系统工具类

 


package com.huatec.edu.cloud.hdata.core.ooziejob.utils;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.hdfs.HAUtil;
import org.apache.hadoop.io.IOUtils;
import org.springframework.http.ResponseEntity;

import java.io.*;
import java.net.InetAddress;
import java.net.InetSocketAddress;
import java.net.URI;
import java.net.URISyntaxException;
import java.text.SimpleDateFormat;
import java.util.ArrayList;
import java.util.Date;
import java.util.List;

/**

  • @ Auther: houwenjie

  • @ Date: 2018/9/8 10:57

  • @ Description:远程操纵 HDFS 工具类
    */
    public class HDFSIOUtil {

    private static Configuration conf =new Configuration();
    private static FileSystem fs =null;
    private static Date date2 = new Date();
    private static SimpleDateFormat simpleDateFormat = new SimpleDateFormat("yyyy/MM/dd HH:mm:ss");//24 小时制

    private HDFSIOUtil(){}
    /**

    • @ return:
    • @ auther: houwenjie
    • @ date: 2018/9/3 14:59
    • @ Description: 读取 hdfs 上面文件
      */
      public static String readFile(String filePath) throws IOException, InterruptedException {
      FSDataInputStream in = null;
      Path srcPath = new Path(filePath);
      try {
      fs = srcPath.getFileSystem(conf);
      in = fs.open(srcPath);
      InputStreamReader isr = new InputStreamReader(in, "utf-8");
      BufferedReader br = new BufferedReader(isr);
      String line;
      StringBuffer stringBuffer = new StringBuffer();
      while ((line = br.readLine()) != null) {
      stringBuffer.append(line);
      stringBuffer.append("\r\n");
      }
      return stringBuffer.toString();
      // IOUtils.copyBytes(in, System.out, 4096, false);
      } finally {
      IOUtils.closeStream(in);
      }
      }

    /**

    • @ auther: houwenjie

    • @ date: 2018/9/8 11:21

    • @ Description: 将文件上传到 hdfs 上传路径需要指定文件名
      */
      public static void copyFileToHDFS(File file, String HDFSPath) throws IOException, InterruptedException {

      Path path = new Path(HDFSPath);
      fs = path.getFileSystem(conf);

      InputStream in = new BufferedInputStream(new FileInputStream(file));
      OutputStream out = fs.create(new Path(HDFSPath));
      IOUtils.copyBytes(in, out, 4096, true);
      in.close();
      }

    /**

    • 获取 hdfs 路径下的文件列表
    • @param srcpath
    • @return
      */
      public static List getFileList(String srcpath) throws IOException {
      Path path = new Path(srcpath);
      fs = path.getFileSystem(conf);
      Date date2 = new Date();
      SimpleDateFormat simpleDateFormat = new SimpleDateFormat("yyyy/MM/dd HH:mm:ss");//24 小时制
      List files = new ArrayList();
      HDFSFileEntity hdfsFileEntity = null;
      if (fs.exists(path) && fs.isDirectory(path)) {
      for (FileStatus status : fs.listStatus(path)) {
      hdfsFileEntity= new HDFSFileEntity();
      // String s=(status.isDirectory() ? "d" : "-")+status.getPermission()+","+status.getLen()+","+simpleDateFormat.format(date2)+","+status.getPath();
      hdfsFileEntity.setPermission((status.isDirectory() ? "d" : "-")+status.getPermission());
      hdfsFileEntity.setSize(status.getLen());
      hdfsFileEntity.setModification_time(simpleDateFormat.format(date2));
      hdfsFileEntity.setPath(status.getPath().toString());
      hdfsFileEntity.setBlock_replication((int)status.getReplication());
      hdfsFileEntity.setOwner(status.getOwner());
      hdfsFileEntity.setGroup(status.getGroup());
      hdfsFileEntity.setBlocksize(status.getBlockSize());
      files.add(hdfsFileEntity);
      }
      }
      //fs.close();
      return files;
      }

    public static void mkdir(String path) throws IOException {
    Path srcPath = new Path(path);
    FileSystem fs = srcPath.getFileSystem(conf);
    boolean isok = fs.mkdirs(srcPath);
    if (isok) {
    System.out.println("create dir ok!");
    } else {
    System.out.println("create dir failure");
    }
    //fs.close();
    }
    /**
    *

    • @ return:

    • @ auther: houwenjie

    • @ date: 2018/9/10 14:34

    • @ Description: 根据路径递归查询路径下的文件
      /
      public static List getFileSystem(String srcpath,List files) throws IOException {
      Path path = new Path(srcpath);
      fs = path.getFileSystem(conf);
      if (fs.exists(path) && fs.isDirectory(path)) {
      for (FileStatus status : fs.listStatus(path)) {
      files.add((status.isDirectory() ? "d" : "-")+status.getPermission()+","+status.getLen()+","+simpleDateFormat.format(date2)+","+status.getPath());
      getFileSystem(status.getPath().toString(),files);
      }
      }
      return files;
      }
      /
      *

    • @ auther: houwenjie

    • @ date: 2018/9/12 11:21

    • @ Description: 判断给定的路径是否是文件
      /
      public static boolean isFile( String HDFSPath) throws IOException {
      Path path = new Path(HDFSPath);
      fs = path.getFileSystem(conf);
      boolean isFile = fs.isFile(path);
      return isFile;
      }
      /
      *

    • 如果是高可用集群,判断是否是 active 的 namenode

    • @ return:

    • @ auther: houwenjie

    • @ date: 2018/10/16 13:45

    • @ Description:
      */
      public static String getActiveNameNode(String HDFSPath) {

      try {
      Path path = new Path(HDFSPath);
      fs = path.getFileSystem(conf);
      InetSocketAddress active = HAUtil.getAddressOfActive(fs);
      InetAddress address = active.getAddress();
      return "" + address.getHostAddress() + ":" + active.getPort();
      } catch (Exception e) {
      // e.printStackTrace();
      return null;
      }
      }

}

 

 

HDFSFileEntity实体类

package com.huatec.edu.cloud.hdata.core.ooziejob.utils;

import org.apache.hadoop.fs.Path;

/**

  • @ Auther: houwenjie

  • @ Date: 2018/10/15 14:08

  • @ Description:
    */
    public class HDFSFileEntity {
    private String path;
    private long size;
    private int block_replication;
    private long blocksize;
    private String modification_time;
    private String permission;
    private String owner;
    private String group;

    @Override
    public String toString() {
    return "HDFSFileEntity{" +
    "path='" + path + ''' +
    ", size=" + size +
    ", block_replication=" + block_replication +
    ", blocksize=" + blocksize +
    ", modification_time='" + modification_time + ''' +
    ", permission='" + permission + ''' +
    ", owner='" + owner + ''' +
    ", group='" + group + ''' +
    '}';
    }

    public String getPath() {
    return path;
    }

    public void setPath(String path) {
    this.path = path;
    }

    public long getSize() {
    return size;
    }

    public void setSize(long size) {
    this.size = size;
    }

    public int getBlock_replication() {
    return block_replication;
    }

    public void setBlock_replication(int block_replication) {
    this.block_replication = block_replication;
    }

    public long getBlocksize() {
    return blocksize;
    }

    public void setBlocksize(long blocksize) {
    this.blocksize = blocksize;
    }

    public String getModification_time() {
    return modification_time;
    }

    public void setModification_time(String modification_time) {
    this.modification_time = modification_time;
    }

    public String getPermission() {
    return permission;
    }

    public void setPermission(String permission) {
    this.permission = permission;
    }

    public String getOwner() {
    return owner;
    }

    public void setOwner(String owner) {
    this.owner = owner;
    }

    public String getGroup() {
    return group;
    }

    public void setGroup(String group) {
    this.group = group;
    }
    }

 

 

  • Hadoop

    Hadoop 是由 Apache 基金会所开发的一个分布式系统基础架构。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。

    95 引用 • 122 回帖 • 634 关注

相关帖子

欢迎来到这里!

我们正在构建一个小众社区,大家在这里相互信任,以平等 • 自由 • 奔放的价值观进行分享交流。最终,希望大家能够找到与自己志同道合的伙伴,共同成长。

注册 关于
请输入回帖内容 ...

推荐标签 标签

  • Vim

    Vim 是类 UNIX 系统文本编辑器 Vi 的加强版本,加入了更多特性来帮助编辑源代码。Vim 的部分增强功能包括文件比较(vimdiff)、语法高亮、全面的帮助系统、本地脚本(Vimscript)和便于选择的可视化模式。

    29 引用 • 66 回帖
  • GitBook

    GitBook 使您的团队可以轻松编写和维护高质量的文档。 分享知识,提高团队的工作效率,让用户满意。

    3 引用 • 8 回帖
  • 电影

    这是一个不能说的秘密。

    125 引用 • 610 回帖
  • OAuth

    OAuth 协议为用户资源的授权提供了一个安全的、开放而又简易的标准。与以往的授权方式不同之处是 oAuth 的授权不会使第三方触及到用户的帐号信息(如用户名与密码),即第三方无需使用用户的用户名与密码就可以申请获得该用户资源的授权,因此 oAuth 是安全的。oAuth 是 Open Authorization 的简写。

    36 引用 • 103 回帖 • 44 关注
  • 持续集成

    持续集成(Continuous Integration)是一种软件开发实践,即团队开发成员经常集成他们的工作,通过每个成员每天至少集成一次,也就意味着每天可能会发生多次集成。每次集成都通过自动化的构建(包括编译,发布,自动化测试)来验证,从而尽早地发现集成错误。

    15 引用 • 7 回帖
  • 又拍云

    又拍云是国内领先的 CDN 服务提供商,国家工信部认证通过的“可信云”,乌云众测平台认证的“安全云”,为移动时代的创业者提供新一代的 CDN 加速服务。

    20 引用 • 37 回帖 • 577 关注
  • Office

    Office 现已更名为 Microsoft 365. Microsoft 365 将高级 Office 应用(如 Word、Excel 和 PowerPoint)与 1 TB 的 OneDrive 云存储空间、高级安全性等结合在一起,可帮助你在任何设备上完成操作。

    6 引用 • 35 回帖
  • 一些有用的避坑指南。

    69 引用 • 93 回帖
  • IDEA

    IDEA 全称 IntelliJ IDEA,是一款 Java 语言开发的集成环境,在业界被公认为最好的 Java 开发工具之一。IDEA 是 JetBrains 公司的产品,这家公司总部位于捷克共和国的首都布拉格,开发人员以严谨著称的东欧程序员为主。

    182 引用 • 400 回帖 • 1 关注
  • B3log

    B3log 是一个开源组织,名字来源于“Bulletin Board Blog”缩写,目标是将独立博客与论坛结合,形成一种新的网络社区体验,详细请看 B3log 构思。目前 B3log 已经开源了多款产品:SymSoloVditor思源笔记

    1062 引用 • 3456 回帖 • 124 关注
  • C++

    C++ 是在 C 语言的基础上开发的一种通用编程语言,应用广泛。C++ 支持多种编程范式,面向对象编程、泛型编程和过程化编程。

    110 引用 • 153 回帖
  • Flutter

    Flutter 是谷歌的移动 UI 框架,可以快速在 iOS 和 Android 上构建高质量的原生用户界面。 Flutter 可以与现有的代码一起工作,它正在被越来越多的开发者和组织使用,并且 Flutter 是完全免费、开源的。

    39 引用 • 92 回帖 • 16 关注
  • OpenCV
    15 引用 • 36 回帖 • 1 关注
  • OpenStack

    OpenStack 是一个云操作系统,通过数据中心可控制大型的计算、存储、网络等资源池。所有的管理通过前端界面管理员就可以完成,同样也可以通过 Web 接口让最终用户部署资源。

    10 引用 • 8 关注
  • PHP

    PHP(Hypertext Preprocessor)是一种开源脚本语言。语法吸收了 C 语言、 Java 和 Perl 的特点,主要适用于 Web 开发领域,据说是世界上最好的编程语言。

    167 引用 • 408 回帖 • 494 关注
  • Markdown

    Markdown 是一种轻量级标记语言,用户可使用纯文本编辑器来排版文档,最终通过 Markdown 引擎将文档转换为所需格式(比如 HTML、PDF 等)。

    173 引用 • 1559 回帖
  • 大数据

    大数据(big data)是指无法在一定时间范围内用常规软件工具进行捕捉、管理和处理的数据集合,是需要新处理模式才能具有更强的决策力、洞察发现力和流程优化能力的海量、高增长率和多样化的信息资产。

    91 引用 • 113 回帖
  • 笔记

    好记性不如烂笔头。

    315 引用 • 790 回帖
  • golang

    Go 语言是 Google 推出的一种全新的编程语言,可以在不损失应用程序性能的情况下降低代码的复杂性。谷歌首席软件工程师罗布派克(Rob Pike)说:我们之所以开发 Go,是因为过去 10 多年间软件开发的难度令人沮丧。Go 是谷歌 2009 发布的第二款编程语言。

    502 引用 • 1397 回帖 • 241 关注
  • OneDrive
    2 引用 • 2 关注
  • 深度学习

    深度学习(Deep Learning)是机器学习的分支,是一种试图使用包含复杂结构或由多重非线性变换构成的多个处理层对数据进行高层抽象的算法。

    45 引用 • 44 回帖 • 2 关注
  • Sillot

    Insights(注意当前设置 master 为默认分支)

    汐洛彖夲肜矩阵(Sillot T☳Converbenk Matrix),致力于服务智慧新彖乄,具有彖乄驱动、极致优雅、开发者友好的特点。其中汐洛绞架(Sillot-Gibbet)基于自思源笔记(siyuan-note),前身是思源笔记汐洛版(更早是思源笔记汐洛分支),是智慧新录乄终端(多端融合,移动端优先)。

    主仓库地址:Hi-Windom/Sillot

    文档地址:sillot.db.sc.cn

    注意事项:

    1. ⚠️ 汐洛仍在早期开发阶段,尚不稳定
    2. ⚠️ 汐洛并非面向普通用户设计,使用前请了解风险
    3. ⚠️ 汐洛绞架基于思源笔记,开发者尽最大努力与思源笔记保持兼容,但无法实现 100% 兼容
    29 引用 • 25 回帖 • 152 关注
  • Spark

    Spark 是 UC Berkeley AMP lab 所开源的类 Hadoop MapReduce 的通用并行框架。Spark 拥有 Hadoop MapReduce 所具有的优点;但不同于 MapReduce 的是 Job 中间输出结果可以保存在内存中,从而不再需要读写 HDFS,因此 Spark 能更好地适用于数据挖掘与机器学习等需要迭代的 MapReduce 的算法。

    74 引用 • 46 回帖 • 563 关注
  • Word
    13 引用 • 41 回帖 • 1 关注
  • Java

    Java 是一种可以撰写跨平台应用软件的面向对象的程序设计语言,是由 Sun Microsystems 公司于 1995 年 5 月推出的。Java 技术具有卓越的通用性、高效性、平台移植性和安全性。

    3206 引用 • 8217 回帖
  • CAP

    CAP 指的是在一个分布式系统中, Consistency(一致性)、 Availability(可用性)、Partition tolerance(分区容错性),三者不可兼得。

    12 引用 • 5 回帖 • 660 关注
  • 资讯

    资讯是用户因为及时地获得它并利用它而能够在相对短的时间内给自己带来价值的信息,资讯有时效性和地域性。

    56 引用 • 85 回帖 • 1 关注