Parquet 读写

write and read

       MessageType schema = MessageTypeParser.parseMessageType("message Pair {\n" +
                " required binary left (UTF8);\n" +
                " required binary right (UTF8);\n" +
                "}");

        GroupFactory factory = new SimpleGroupFactory(schema);

        Group group = factory.newGroup().append("left","L").append("right","R");

        Path path = new Path("data.parquet");

        Configuration configuration = new Configuration();
        GroupWriteSupport writeSupport = new GroupWriteSupport();

        writeSupport.setSchema(schema,configuration);

        ParquetWriter<Group> writer = new ParquetWriter<Group>(path,writeSupport,
                ParquetWriter.DEFAULT_COMPRESSION_CODEC_NAME,
                ParquetWriter.DEFAULT_BLOCK_SIZE,
                ParquetWriter.DEFAULT_PAGE_SIZE,
                ParquetWriter.DEFAULT_PAGE_SIZE, /* dictionary page size */
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
Java读写Parquet文件可以使用Apache Parquet库。下面是一个简单的示例代码,演示了如何使用Java读取和写入Parquet文件: 1. 首先,确保你已经添加了Apache Parquet库的依赖。可以在Maven项目中添加以下依赖项: ```xml <dependency> <groupId>org.apache.parquet</groupId> <artifactId>parquet-avro</artifactId> <version>1.12.0</version> </dependency> ``` 2. 读取Parquet文件: ```java import org.apache.avro.generic.GenericRecord; import org.apache.hadoop.fs.Path; import org.apache.parquet.avro.AvroParquetReader; import org.apache.parquet.hadoop.ParquetReader; public class ParquetReaderExample { public static void main(String[] args) { try { Path path = new Path("path/to/parquet/file.parquet"); ParquetReader<GenericRecord> reader = AvroParquetReader.<GenericRecord>builder(path).build(); GenericRecord record; while ((record = reader.read()) != null) { // 处理每一行数据 System.out.println(record); } reader.close(); } catch (Exception e) { e.printStackTrace(); } } } ``` 3. 写入Parquet文件: ```java import org.apache.avro.Schema; import org.apache.avro.generic.GenericData; import org.apache.avro.generic.GenericRecord; import org.apache.hadoop.fs.Path; import org.apache.parquet.avro.AvroParquetWriter; import org.apache.parquet.hadoop.ParquetWriter; import org.apache.parquet.hadoop.metadata.CompressionCodecName; public class ParquetWriterExample { public static void main(String[] args) { try { Path path = new Path("path/to/output/file.parquet"); Schema schema = new Schema.Parser().parse(new File("path/to/schema.avsc")); ParquetWriter<GenericRecord> writer = AvroParquetWriter.<GenericRecord>builder(path) .withSchema(schema) .withCompressionCodec(CompressionCodecName.SNAPPY) .build(); GenericRecord record = new GenericData.Record(schema); // 设置record的字段值 record.put("field1", "value1"); record.put("field2", 123); writer.write(record); writer.close(); } catch (Exception e) { e.printStackTrace(); } } } ``` 请注意,上述示例中的路径需要根据实际情况进行替换。另外,读取Parquet文件时,你可能需要根据实际的Avro模式对读取的记录进行处理。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值