使用序列文件SequenceFile在Spark中写入和读取原始字节数组

 拍友2502906483 发布于 2023-01-11 12:25

如何RDD[Array[Byte]]使用Apache Spark 写入文件并再次阅读?

1 个回答
  • 常见的问题似乎是变得奇怪,不能将BytesWritable中的异常强制转换为NullWritable.其他常见的问题是BytesWritable getBytes是一堆毫无意义的废话,根本不会得到字节.什么getBytes是你的字节比最后添加大量的零!你必须使用copyBytes

    val rdd: RDD[Array[Byte]] = ???
    
    // To write
    rdd.map(bytesArray => (NullWritable.get(), new BytesWritable(bytesArray)))
      .saveAsSequenceFile("/output/path", codecOpt)
    
    // To read
    val rdd: RDD[Array[Byte]] = sc.sequenceFile[NullWritable, BytesWritable]("/input/path")
      .map(_._2.copyBytes())
    

    2023-01-11 12:27 回答
撰写答案
今天,你开发时遇到什么问题呢?
立即提问
热门标签
PHP1.CN | 中国最专业的PHP中文社区 | PNG素材下载 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有