热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

完全分布式安装HBase

HBase是一个基于Hadoop的分布式的、面向列的开源数据库,它以Google的BigTable为原型。高可用性、高性能、列存储、可伸缩、实时读写。完全分布式安装HBase是在完全分布式安装好Hadoop的基础上进行的。HBase的版本和Hadoop的版本需要匹配得上,尽量不要选

HBase是一个基于Hadoop的分布式的、面向列的开源数据库,它以Google的BigTable为原型。 高可用性、高性能、列存储、可伸缩、实时读写。 完全分布式安装HBase是在完全分布式安装好Hadoop的基础上进行的。 HBase的版本和Hadoop的版本需要匹配得上,尽量不要选

  HBase是一个基于Hadoop的分布式的、面向列的开源数据库,它以Google的BigTable为原型。

  高可用性、高性能、列存储、可伸缩、实时读写。

  完全分布式安装HBase是在完全分布式安装好Hadoop的基础上进行的。

  HBase的版本和Hadoop的版本需要匹配得上,尽量不要选择最新的版本,应该选稳定版本的。

  我这里用的是Hadoop-0.20.2和HBase-0.90.5。

  以下操作在hadoop的namenode主节点上进行,在主节点上配置好之后,再复制到各个从节点。

1、下载并安装HBase

  1)我这里把hbase-0.90.5.tar.gz放到/home/coder/目录下。

  2)解压hbase-0.90.5.tar.gz到/home/coder/hbase-0.90.5/

[coder@h1 ~]$ tar -zxvf hbase-0.90.5.tar.gz

2、配置hbase-env.sh文件

  该文件在hbase-0.90.5/conf/目录下。

  1)配置JDK安装目录

# The java implementation to use. Java 1.6 required. export JAVA_HOME=/usr/java/jdk1.6.0_37

  2)配置Hadoop安装目录

# Extra Java CLASSPATH elements. Optional. export HBASE_CLASSPATH=/home/coder/hadoop-0.20.2/conf

  3)配置由HBase负责启动和关闭zookeeper

# Tell HBase whether it should manage it's own instance of Zookeeper or not. export HBASE_MANAGES_ZK=true

3、配置hbase-site.xml文件

  该文件在hbase-0.90.5/conf/目录下,文件内容配置如下:

/** * Copyright 2010 The Apache Software Foundation * * Licensed to the Apache Software Foundation (ASF) under one * or more contributor license agreements. See the NOTICE file * distributed with this work for additional information * regarding copyright ownership. The ASF licenses this file * to you under the Apache License, Version 2.0 (the * "License"); you may not use this file except in compliance * with the License. You may obtain a copy of the License at * * * * Unless required by applicable law or agreed to in writing, software * distributed under the License is distributed on an "AS IS" BASIS, * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. * See the License for the specific language governing permissions and * limitations under the License. */ hbase.rootdirhdfs://h1:9000/hbasehbase.cluster.distributedtruehbase.masterh1:60000hbase.zookeeper.quorumh2,h3hbase.zookeeper.property.dataDir/home/coder/hbase-0.90.5/zookeeper

4、配置regionservers文件

  该文件在hadoop-0.90.5/conf/目录下,我这里配置了两个从节点h2和h3作为Region服务器,美国空间,该文件内容如下:

h2 h3

5、替换HBase的hadoop核心jar包

  进入到hbase-0.90.5/lib/目录下。

  1)将原来的hadoop-core-0.20-append-r1056497.jar做个备份,或者直接删掉

[coder@h1 lib]$ mv hadoop-core-0.20-append-r1056497.jar hadoop-core-0.20-append-r1056497.jar.bak

  2)将Hadoop安装目录中的hadoop-0.20.2-core.jar复制到hbase-0.90.5/lib/目录中

[coder@h1 lib]$ cp /home/coder/hadoop-0.20.2/hadoop-0.20.2-core.har /home/coder/hbase-0.90.5/lib/

6、到这里,最简单HBase配置已经ok了。现在需要把配置好的Hbase复制到其他节点,执行如下命令

[coder@h1 ~]$ scp -r hbase-0.90.5 h2:/home/coder/ [coder@h1 ~]$ scp -r hbase-0.90.5 h3:/home/coder/

7、先启动Hadoop,再启动HBase。

  1)启动hadoop,进入hadoop安装目录,执行:

[coder@h1 hadoop-0.20.2]$ bin/start-all.sh

  2)启动HBase,进入HBase安装目录,虚拟主机,执行:

[coder@h1 hbase-0.90.5]$ bin/start-hbase.sh

  3)查看是否启动成功:

  主节点h1:

[coder@h1 hbase-0.90.5]$ jps 2167 NameNode 2777 Jps 2300 SecondaryNameNode 2657 HMaster 2376 JobTracker [coder@h1 hbase-0.90.5]$

  从节点h2:

[coder@h2 ~]$ jps 2051 DataNode 2342 HRegionServer 2279 HQuorumPeer 2105 TaskTracker 2905 Jps [coder@h2 ~]$

  从节点h3:

[coder@h3 ~]$ jps 2353 HRegionServer 2116 TaskTracker 2933 Jps 2292 HQuorumPeer 2062 DataNode [coder@h3 ~]$

8、HBase的shell模式

  1)进入shell模式

[coder@h1 hbase-0.90.5]$ bin/hbase shell HBase Shell; enter 'help<RETURN>' for list of supported commands. Type to leave the HBase Shell Version 0.90.5, r1212209, Fri Dec 9 05:40:36 UTC 2011 hbase(main):001:0>

  2)使用status命令查看HBase的运行状况

hbase(main):001:0> status 2 servers, 0 dead, 1.0000 average load hbase(main):002:0>

  3)退出shell

hbase(main):002:0> exit

9、HBase用户界面

  1)master界面,通过:60010/master.jsp访问,192.168.0.129是我主节点ip

  2)zookeeper页面,通过master页面中master属性提供的zookeeper链接进入。

  3)用户表页面,也可以通过master页面的相应链接进入。

  4)Region服务器页面,也可以通过master页面的Region Servers信息提供的链接进入。

9、停止HBase

  在主节点上执行

[coder@h1 hbase-0.90.5]$ bin/stop-hbase.sh

,香港服务器
推荐阅读
  • Hadoop源码解析1Hadoop工程包架构解析
    1 Hadoop中各工程包依赖简述   Google的核心竞争技术是它的计算平台。Google的大牛们用了下面5篇文章,介绍了它们的计算设施。   GoogleCluster:ht ... [详细]
  • 一、Hadoop来历Hadoop的思想来源于Google在做搜索引擎的时候出现一个很大的问题就是这么多网页我如何才能以最快的速度来搜索到,由于这个问题Google发明 ... [详细]
  • ZooKeeper 学习
    前言相信大家对ZooKeeper应该不算陌生。但是你真的了解ZooKeeper是个什么东西吗?如果别人面试官让你给他讲讲ZooKeeper是个什么东西, ... [详细]
  • Kylin 单节点安装
    软件环境Hadoop:2.7,3.1(sincev2.5)Hive:0.13-1.2.1HBase:1.1,2.0(sincev2.5)Spark(optional)2.3.0K ... [详细]
  •        在搭建Hadoop环境之前,请先阅读如下博文,把搭建Hadoop环境之前的准备工作做好,博文如下:       1、CentOS6.7下安装JDK,地址:http:b ... [详细]
  • 我们在之前的文章中已经初步介绍了Cloudera。hadoop基础----hadoop实战(零)-----hadoop的平台版本选择从版本选择这篇文章中我们了解到除了hadoop官方版本外很多 ... [详细]
  • Zookeeper为分布式环境提供灵活的协调基础架构。ZooKeeper框架支持许多当今最好的工业应用程序。我们将在本章中讨论ZooKeeper的一些最显着的应用。雅虎ZooKee ... [详细]
  • 一句话解决高并发的核心原则
    本文介绍了解决高并发的核心原则,即将用户访问请求尽量往前推,避免访问CDN、静态服务器、动态服务器、数据库和存储,从而实现高性能、高并发、高可扩展的网站架构。同时提到了Google的成功案例,以及适用于千万级别PV站和亿级PV网站的架构层次。 ... [详细]
  • 本文总结了初学者在使用dubbo设计架构过程中遇到的问题,并提供了相应的解决方法。问题包括传输字节流限制、分布式事务、序列化、多点部署、zk端口冲突、服务失败请求3次机制以及启动时检查。通过解决这些问题,初学者能够更好地理解和应用dubbo设计架构。 ... [详细]
  • Hadoop2.6.0 + 云centos +伪分布式只谈部署
    3.0.3玩不好,现将2.6.0tar.gz上传到usr,chmod-Rhadoop:hadophadoop-2.6.0,rm掉3.0.32.在etcp ... [详细]
  • Maven构建Hadoop,
    Maven构建Hadoop工程阅读目录序Maven安装构建示例下载系列索引 序  上一篇,我们编写了第一个MapReduce,并且成功的运行了Job,Hadoop1.x是通过ant ... [详细]
  • CentOS 7配置SSH远程访问及控制
    nsitionalENhttp:www.w3.orgTRxhtml1DTDxhtml1-transitional.dtd ... [详细]
  • MR程序的几种提交运行模式本地模型运行1在windows的eclipse里面直接运行main方法,就会将job提交给本地执行器localjobrunner执行-- ... [详细]
  • 前言折腾了一段时间hadoop的部署管理,写下此系列博客记录一下。为了避免各位做部署这种重复性的劳动,我已经把部署的步骤写成脚本,各位只需要按着本文把脚本执行完,整个环境基本就部署 ... [详细]
  • python zookeeeper 学习和操作
    1.zookeeeper介绍ZooKeeper是一个为分布式应用所设计的分布的、开源的协调服务,它主要是用来解决分布式应用中经常遇到的一些数据管理问题,简化分布式应用协调及其管理的 ... [详细]
author-avatar
卓菘碧625
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有