Hadoop:你能默默地丢弃失败的地图任务吗?

 菁菁da小姐认_194 发布于 2023-02-04 19:05

我正在使用hadoop MapReduce处理大量数据.问题是,ocassionaly,一个损坏的文件导致Map任务抛出java堆空间错误或类似的东西.

如果可能的话,如果可能的话,放弃任何地图任务正在做的事情,杀死它,然后继续工作将是很好的,不要介意丢失的数据.我不希望整个M/R工作因此而失败.

这有可能在hadoop中如何?

1 个回答
  • 您可以修改mapreduce.max.map.failures.percent参数.默认值为0.增加此参数将允许一定百分比的映射任务失败而不会使作业失败.

    您可以在mapred-site.xml中设置此参数(将应用于所有作业),也可以逐个作业(可能更安全).

    2023-02-04 19:05 回答
撰写答案
今天,你开发时遇到什么问题呢?
立即提问
热门标签
PHP1.CN | 中国最专业的PHP中文社区 | PNG素材下载 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有