Hadoop:需要从所有数据节点中删除单个数据目录

 mobiledu2502915773 发布于 2022-12-20 11:51

我需要从我所有的Hadoop HDFS数据节点回收磁盘空间.它们每个都配置如下:


    dfs.data.dir
    /d01,/d02,/d03

我应该如何安全地从所有节点中删除/ d03文件系统并重新平衡它们?我已经尝试退役节点,删除目录和重新调试,但它很慢,我想知道是否有更好的方法?

1 个回答
  • 修复实际上非常简单,并且可以从HDFS的用途中了解.文件系统是容错的复制块的分布式集合.因此,只需从群集中的datanode中删除额外的目录并重新启动就足以导致块的重新同步和复制发生.

    监视NameNode日志和WebUI"欠复制块数"以识别进程何时完成.

    对群集中的所有节点单独重复.

    几点需要注意:

    确保这件事

    通过检查http://<name-node>:50070,没有未复制的块:

    其他文件系统有足够的磁盘空间,

    复制级别设置为至少2,以确保群集可以容忍块丢失.理想情况下,安全性应为3或更高.

    2022-12-20 11:54 回答
撰写答案
今天,你开发时遇到什么问题呢?
立即提问
热门标签
PHP1.CN | 中国最专业的PHP中文社区 | PNG素材下载 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有