热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

Hadoop2.5.0-cdh5.3.6集群搭建

Hadoop2.5.0-cdh5.3.6部署*LocalMode*DistributedMode*伪分布式

Hadoop 2.5.0-cdh5.3.6 部署

    * Local Mode

    * Distributed Mode

        * 伪分布式

            一台机器,运行所有的守护进程,

            从节点DataNode、NodeManager

        * 完全分布式

            有多个从节点

            DataNodes

            NodeManagers

            配置文件

                $HADOOP_HOME/etc/hadoop/slaves

 

================================================================

三台机器

    192.168.159.111        192.168.159.112        192.168.159.113

     bigdata01              bigdata02              bigdata03

        1.5G                   1G                    1G

        1 CPU                  1CPU                  1 CPU

 

配置映射

    /etc/hosts

        192.168.159.111     bigdata01                  bigdata01  

        192.168.159.112     bigdata02                  bigdata02  

        192.168.159.113     bigdata03                  bigdata03  

 

=====================================================================

        bigdata01              bigdata02              bigdata03   

HDFS

        NameNode

        DataNode                DataNode                DataNode

                                                      SecondaryNameNode

YARN

                               ResourceManager

        NodeManager             NodeManager             NodeManager

 

MapReduce

        JobHistoryServer

 

配置

    * hdfs

         *hadoop-env.sh

         *core-site.xml

         *hdfs-site.xml

         *slaves

    * yarn

         *yarn-env.sh

         *yarn-site.xml

         *slaves

    * mapredue

         *mapred-env.sh

         *mapred-site.xml

 

准备工作:

1.    准备三台虚拟机,命名为bigdata01(NameNode,DataNode,NodeManager,JobHistoryServer),bigdata02(DataNode,ResourceManager,NodeManager),bigdata03(DataNode,SecondaryNameNode,NodeManager)

2.    安装系统并配置(bigdata01)

修改主机名

vim /etc/sysconfig/network

Vim /etc/hosts

vim /etc/udev/rules.d/70-persistent-net.rules

vim /etc/sysconfig/network-scripts/ifcfg-eth0

配置完成重启

对bigdata01进行克隆,分别为bigdata02,bigdata03,两台虚拟机也进行如上操作。

利用CRT连接虚拟机bigdata01,bigdata02,bigdata03

3.    免密码登录配置

bigdata01:

ssh-keygen -tras 连续三个回车,生成2个文件: id_rsa和 id_rsa.pub(在/root/.ssh)

 

ssh-copy-idlocalhost

作用:就是把id_rsa.pub中的内容拷贝到authorized_keys

   使用 catid_rsa.pub  >> authorized_keys 可以代替ssh-copy-id localhost这个命令

   对于三台机器,可以把每个节点上的ssh公共密钥的内容放到一个权限文件中即可。

   在bigdata01中配置完authorized_keys中的所有节点公钥内容之后,分别拷贝到其他的节点,命令如下:

 在bigdata01节点上:

scp/root/.ssh/authorized_keys bigdata02:/root/.ssh/

scp/root/.ssh/authorized_keys bigdata03:/root/.ssh/

bigdata02重复以上操作

4.           环境配置

hadoop-env.sh

core-site.xml

hdfs-site.xml

Slaves

yarn-env.sh

yarn-site.xml

mapred-env.sh

mapred-site.xml

在bigdata01上配置完hadoop之后,需要把hadoop的安装目录远程拷贝到其他节点:

scp -R  hadoop-2.5.0-cdh5.3.6/   root@bigdata02:/opt/app

scp -R  hadoop-2.5.0-cdh5.3.6/   root@bigdata03/opt/app

      

5.           集群时间同步

找一台机器

时间服务器

所有的机器与这台机器时间进行定时的同步

    比如,每日十分钟,同步一次时间

# rpm -qa|grep ntp

 

# vi /etc/ntp.conf

server 127.127.1.0 

fudge  127.127.1.0stratum 10

# vi /etc/sysconfig/ntpd

    # Drop root to id'ntp:ntp' by default.

    SYNC_HWCLOCK=yes

    OPTIOnS="-untp:ntp -p /var/run/ntpd.pid -g"

   

[root@bigdata01 hadoop-2.5.0-cdh5.3.6]# service ntpd status

ntpd is stopped

[root@bigdata01 hadoop-2.5.0-cdh5.3.6]# service ntpdstart

Starting ntpd: [  OK  ]

[root@bigdata01 hadoop-2.5.0-cdh5.3.6]# chkconfig ntpdon

 

[root@bigdata03 hadoop-2.5.0-cdh5.3.6]# crontab -e

0-59/10 * * * * /usr/sbin/ntpdate bigdata01

[root@bigdata04 hadoop-2.5.0-cdh5.3.6]# crontab -e

0-59/10 * * * * /usr/sbin/ntpdate bigdata01

 

6.格式化namenode

hdfs namenode -format

 

7启动hadoop

start-dfs.sh

start-yarn.sh

 

mr-jobhistory-daemon.sh start historyserver

http://192.168.159.111:50070 (HDFS管理界面)


推荐阅读
  • Hadoop2.6.0 + 云centos +伪分布式只谈部署
    3.0.3玩不好,现将2.6.0tar.gz上传到usr,chmod-Rhadoop:hadophadoop-2.6.0,rm掉3.0.32.在etcp ... [详细]
  •        在搭建Hadoop环境之前,请先阅读如下博文,把搭建Hadoop环境之前的准备工作做好,博文如下:       1、CentOS6.7下安装JDK,地址:http:b ... [详细]
  • MapReduce 切片机制源码分析
     总体来说大概有以下2个大的步骤1.连接集群(yarnrunner或者是localjobrunner)2.submitter.submitJobInternal()在该方法中会创建 ... [详细]
  • 一、Hadoop来历Hadoop的思想来源于Google在做搜索引擎的时候出现一个很大的问题就是这么多网页我如何才能以最快的速度来搜索到,由于这个问题Google发明 ... [详细]
  • HDFS2.x新特性
    一、集群间数据拷贝scp实现两个远程主机之间的文件复制scp-rhello.txtroothadoop103:useratguiguhello.txt推pushscp-rr ... [详细]
  • 海马s5近光灯能否直接更换为H7?
    本文主要介绍了海马s5车型的近光灯是否可以直接更换为H7灯泡,并提供了完整的教程下载地址。此外,还详细讲解了DSP功能函数中的数据拷贝、数据填充和浮点数转换为定点数的相关内容。 ... [详细]
  • mapreduce源码分析总结
    这篇文章总结的非常到位,故而转之一MapReduce概述MapReduce是一个用于大规模数据处理的分布式计算模型,它最初是由Google工程师设计并实现的ÿ ... [详细]
  • Java程序员必会的40个Linux命令!
    你知道的越多,不知道的就越多,业余的像一棵小草!你来,我们一起精进!你不来,我和你的竞争对手一起 ... [详细]
  • Hadoop之Yarn
    目录1Hadoop1.x和Hadoop2.x架构区别2Yarn概述3Yarn基本架构4Yarn工作机制5作业提交全过程6资源调度器7任务的推测执行1Hadoop1.x和Hadoo ... [详细]
  • 图解redis的持久化存储机制RDB和AOF的原理和优缺点
    本文通过图解的方式介绍了redis的持久化存储机制RDB和AOF的原理和优缺点。RDB是将redis内存中的数据保存为快照文件,恢复速度较快但不支持拉链式快照。AOF是将操作日志保存到磁盘,实时存储数据但恢复速度较慢。文章详细分析了两种机制的优缺点,帮助读者更好地理解redis的持久化存储策略。 ... [详细]
  • 本文介绍了将mysql从5.6.15升级到5.7.15的详细步骤,包括关闭访问、备份旧库、备份权限、配置文件备份、关闭旧数据库、安装二进制、替换配置文件以及启动新数据库等操作。 ... [详细]
  • 本文介绍了在CentOS上安装Python2.7.2的详细步骤,包括下载、解压、编译和安装等操作。同时提供了一些注意事项,以及测试安装是否成功的方法。 ... [详细]
  • centos安装Mysql的方法及步骤详解
    本文介绍了centos安装Mysql的两种方式:rpm方式和绿色方式安装,详细介绍了安装所需的软件包以及安装过程中的注意事项,包括检查是否安装成功的方法。通过本文,读者可以了解到在centos系统上如何正确安装Mysql。 ... [详细]
  • ejava,刘聪dejava
    本文目录一览:1、什么是Java?2、java ... [详细]
  • SparkOnYarn在YARN上启动Spark应用有两种模式。在cluster模式下,Spark驱动器(driver)在YARNApp ... [详细]
author-avatar
qa32qw51
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有