热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

Hadoop1.2运行demo(MapReduce测试)

专业术语叫:运行一个mapreduce(分布式计算)Hadoop提供的jar包demo:hadoop-mapreduce

专业术语叫:运行一个mapreduce(分布式计算)

Hadoop提供的jar包demo:

hadoop-mapreduce-examples-2.4.1.jar提供的demo有:

pi计算圆周率、wordcount统计相同单词数量

${hadoop安装目录}/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.4.1.jar


 计算圆周率(自带的jar包)

 启动一个job计算任务,将这个job分五成个map运行。 

[root@weekend110 mapreduce]# hadoop jar hadoop-mapreduce-examples-2.4.1.jar pi 5 5


06:30:39 INFO input.FileInputFormat: Total input paths to process : 5
06:30:39 INFO mapreduce.JobSubmitter: number of splits:5 ### 将任务分5个map执行
06:30:40 INFO mapreduce.JobSubmitter: Submitting tokens for job: job_local944404022_0001   ### job标识id

....................

Job Finished in 14.069 seconds   ### 耗时
Estimated value of Pi is 3.68000000000000000000    ### 结果 


统计相同单词数量DEMO

1. 创建一个text.txt文件

[root@weekend110 mapreduce]# cat text.txt 
world
hello tom
hello job
hello name
wang ming
wang liang
wang world

2. 将文件推入HDFS文件服务器

hadoop -fs -mkdir /workcount   ### 在HDFS创建workcount目录

hadoop -fs -mkdir /workcount/input   ### 在HDFS创建workcount/input输入目录

hadoop -fs -put test.txt /workcount/input   ### 将文件推到HDFS

说明:hdfs服务地址可简写,

简写前:hadoop -fs -mkdir hdfs://127.0.0.1:9000/workcount

简写后:hadoop -fs -mkdir /workcount

3. 运行-统计

 hadoop jar hadoop-mapreduce-examples-2.4.1.jar wordcount /wordcount/input /wordcount/output 

说明:计算HDFS服务/wordcount/input目录下的所有文件,将结果文件放到HDFS服务的/wordcount/output目录下

 4. 结果查看

下载结果文件part-r-00000打开后看到:

hello    3
job    1
liang    1
ming    1
name    1
tom    1
wang    3
world    2
~    1


推荐阅读
  • MapReduce工作流程最详细解释
    MapReduce是我们再进行离线大数据处理的时候经常要使用的计算模型,MapReduce的计算过程被封装的很好,我们只用使用Map和Reduce函数,所以对其整体的计算过程不是太 ... [详细]
  • Hadoop2.6.0 + 云centos +伪分布式只谈部署
    3.0.3玩不好,现将2.6.0tar.gz上传到usr,chmod-Rhadoop:hadophadoop-2.6.0,rm掉3.0.32.在etcp ... [详细]
  • mapreduce源码分析总结
    这篇文章总结的非常到位,故而转之一MapReduce概述MapReduce是一个用于大规模数据处理的分布式计算模型,它最初是由Google工程师设计并实现的ÿ ... [详细]
  • 一、Hadoop来历Hadoop的思想来源于Google在做搜索引擎的时候出现一个很大的问题就是这么多网页我如何才能以最快的速度来搜索到,由于这个问题Google发明 ... [详细]
  • 大数据Hadoop生态(20)MapReduce框架原理OutputFormat的开发笔记
    本文介绍了大数据Hadoop生态(20)MapReduce框架原理OutputFormat的开发笔记,包括outputFormat接口实现类、自定义outputFormat步骤和案例。案例中将包含nty的日志输出到nty.log文件,其他日志输出到other.log文件。同时提供了一些相关网址供参考。 ... [详细]
  • 本文介绍了在sqoop1.4.*版本中,如何实现自定义分隔符的方法及步骤。通过修改sqoop生成的java文件,并重新编译,可以满足实际开发中对分隔符的需求。具体步骤包括修改java文件中的一行代码,重新编译所需的hadoop包等。详细步骤和编译方法在本文中都有详细说明。 ... [详细]
  • 什么是大数据lambda架构
    一、什么是Lambda架构Lambda架构由Storm的作者[NathanMarz]提出,根据维基百科的定义,Lambda架构的设计是为了在处理大规模数 ... [详细]
  • Hadoop源码解析1Hadoop工程包架构解析
    1 Hadoop中各工程包依赖简述   Google的核心竞争技术是它的计算平台。Google的大牛们用了下面5篇文章,介绍了它们的计算设施。   GoogleCluster:ht ... [详细]
  • 对于开源的东东,尤其是刚出来不久,我认为最好的学习方式就是能够看源代码和doc,測试它的样例为了方便查看源代码,关联导入源代 ... [详细]
  • MR程序的几种提交运行模式本地模型运行1在windows的eclipse里面直接运行main方法,就会将job提交给本地执行器localjobrunner执行-- ... [详细]
  • 《Spark核心技术与高级应用》——1.2节Spark的重要扩展
    本节书摘来自华章社区《Spark核心技术与高级应用》一书中的第1章,第1.2节Spark的重要扩展,作者于俊向海代其锋马海平,更多章节内容可以访问云栖社区“华章社区”公众号查看1. ... [详细]
  • 我们在之前的文章中已经初步介绍了Cloudera。hadoop基础----hadoop实战(零)-----hadoop的平台版本选择从版本选择这篇文章中我们了解到除了hadoop官方版本外很多 ... [详细]
  •     这里使用自己编译的hadoop-2.7.0版本部署在windows上,记得几年前,部署hadoop需要借助于cygwin,还需要开启ssh服务,最近发现,原来不需要借助cy ... [详细]
  • MapReduce 切片机制源码分析
     总体来说大概有以下2个大的步骤1.连接集群(yarnrunner或者是localjobrunner)2.submitter.submitJobInternal()在该方法中会创建 ... [详细]
  • Zookeeper为分布式环境提供灵活的协调基础架构。ZooKeeper框架支持许多当今最好的工业应用程序。我们将在本章中讨论ZooKeeper的一些最显着的应用。雅虎ZooKee ... [详细]
author-avatar
beauty360尜囡囡
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有