• 日本核能行业誓言日本将在今年内重新启用核电 2019-09-03
  • 中国保险行业协会发布汽车后市场配件合车标准 2019-09-02
  • 晋中市通报五起违反中央八项规定精神问题 2019-08-30
  • 两小鸟缠绕困路中,公交司机车流中救助 2019-08-30
  • 互联网药品信息服务资格证书 (京)-经营性-2009-0016 2019-08-29
  • 淮南23家存在重大安全隐患单位被挂牌督办 2019-08-29
  • 专属球队定制装饰火爆 足球盛宴更是消费大餐——浙江在线 2019-08-26
  • 驻村工作队帮村民“马”上致富 2019-08-26
  • 特色小镇里的税收服务 定海国地税多措并举提升效能 2019-08-23
  • 【央视快评】让传统文化焕发新时代风采 2019-08-22
  • 后高考时代 孩子们这样致青春 2019-08-12
  • 湖南高校:将十九大精神融入基础课教学建设 2019-08-12
  • 兰州大学“习近平新时代中国特色社会主义思想研究中心”成立 2019-08-10
  • 监察体制改革后 湘西半年72名公职人员主动交代问题 2019-08-10
  • 中方有力回击!美国多个行业喊痛:“加征关税就是对美国消费者征税” 2019-08-07
  • 当前位置 > CPDA数据分析师 > “数”业专攻 > Hadoop HBase 单机环境简单配置教程

    辽宁福彩快乐12前三直选走势图:Hadoop HBase 单机环境简单配置教程

    浙江快乐彩和值走势图 www.pn-vs.com 来源:数据分析师 CPDA | 时间:2015-09-09 | 作者:admin

    Hadoop是Apache的一个项目,它是一个实现了MapReduce计算模型的可以运用于大型集群并行计算的分布式并行计算编程框架,当然分布式计算离不开分布式存储,Hadoop框架包含了分布式存储系统HDFS(Hadoop Distributed File System),其存储和数据结构很类似Google的GFS。

    hadoop
    HBase是Hadoop的子项目,它是基于Hadoop HDFS分布存储系统的一个Google BigTable开源实现(最近看了BigTable的Paper,很受鼓舞和启发),它在存储数据结构上并非关系型,而是疏松分布式的,持久并按多维排序并索引的map型,下次我把介绍BigTable和HBase的文章转载过来。

    在初接触Hadoop和Hbase的时候,大多数技术人员只希望通过简单的方法初步搭起框架环境,但我找了好多安装手册都是上来就部署集群分布环境(尽管做Hadoop就是为了这个目的),搭建集群环境的时候要设置ssh协议访问权限,要生成访问公钥,并且slaves配置上的小错误也会导致整个部署问题重重,所以我在部署成功后记录下最简单运行的standalone模式的安装配置过程,希望初学者在需要的时候能找到这个小小的guide,以后有时间我会再把集群配置的方法写出来。

    开始:

    1.在Apache/Hadoop项目的网站(hadoop.apache.org/)下载hadoop以及hbase的发行包,此处两个发行包的大版本号一定要一致,譬如都是0.18版本:

    hadoop-0.18.2.tar.gz hbase-0.18.1.tar.gz

    2.使用root身份登录目标服务器系统(Suse10 Linux),首先安装java虚拟机,这个比较简单,随便找个绿色的解压就可以了,在这个例子里面我使用IBM WAS6.1附带的jdk,它的home目录是/opt/IBM/WebSphere/AppServer/java,我们只需要配置系统的环境变量就可以了.

    编辑全局环境变量文件/etc/profile,在文件后面添加

    export JAVA_HOME=/opt/IBM/WebSphere/AppServer/java

    export PATH=$JAVA_HOME:$PATH

    保存profile文件后使用 $source /etc/profile 命令重新加载profile,然后随便在一个目录下面运行 $java -version 查看javahome环境变量和path变量是否被正确加载.

    另外到 /etc/hosts 文件中查看主机映射是否存在,例如 127.0.0.1 localhost 或者什么其他的名字,在这里默认配置本机为localhost,如果需要做分布式的话,本机要做namenode,所以要把所有的datanode的host添加到这里面.

    3.创建hadoop用户, $useradd hadoop 可以用 $passwd hadoop 修改hadoop用户的登录密码.

    4.创建hadoop用户的home目录,如果打算在别处安装hadoop/hbase的话可以不这样做,这里我们默认将hadoop/hbase安装在/home/${username}目录下.

    $cd /home

    $mkdir hadoop

    将目录用户指派给hadoop

    $chown hadoop hadoop

    改变目录权限,这里我们配大一些,其实只要644就足够了:

    $chmod 755 hadoop

    5.使用hadoop用户登录系统,将下载的两个发行包文件传到/home/hadoop目录下面,然后给它们加上执行权限:

    $chmod a+x hadoop-0.18.2.tar.gz

    $chmod a+x hbase-0.18.1.tar.gz

    6.解压hadoop:

    $tar zxvf hadoop-0.18.2.tar.gz

    这样做会在/home/hadoop目录下解压hadoop发行包并创建到/home/hadoop/hadoop-0.18.2目录中,这里可以详细设计目录结构并创建link文件来方便日后升级等工作,这里我们先简单放在这里.

    7.修改hadoop环境脚本:

    修改文件/home/hadoop/hadoop-0.18.2/conf/hadoop-env.sh,在其中加入JAVA_HOME变量: export JAVA_HOME=/opt/IBM/WebSphere/AppServer/java

    HADOOP_HOME变量我们可以不设置,默认的情况是指定HADOOP_HOME为运行启动脚本当前目录的父目录.

    8.修改hadoop启动配置:

    参照默认配置文件/home/hadoop/hadoop-0.18.2/conf/hadoop-default.xml 修改用户配置文件/home/hadoop/hadoop-0.18.2/conf/hadoop-site.xml,hadoop启动的时候会加载默认配置文件,然后读取用户配置文件并使用用户配置文件中的属性替换默认配置文件中的值,这里最简单的情况我们只需要修改如下几项即可,如果需要做分布的话也是要在这个文件里面进行配置.将要修改的配置项简单的放到hadoop-site.xml文件的中去:

    fs.default.name

    hdfs://localhost:9000/

    mapred.job.tracker

    localhost:9001

    9.格式化nodename及启动hdfs守护进程:

    $/home/hadoop/hadoop-0.18.2/bin/hadoop namenode -format

    $/home/hadoop/hadoop-0.18.2/bin/start-all.sh

    使用shart-all.sh可以方便的启动所有的hdfs守护进程,如果想关闭这些守护进程可以使用stop-all.sh脚本.

    启动过程中需要输入登录密码.

    启动成功后可以用以下简单方法测试hdfs:

    $/home/hadoop/hadoop-0.18.2/bin/hadoop dfs -mkdir dir4test

    $/home/hadoop/hadoop-0.18.2/bin/hadoop dfs -ls

    $/home/hadoop/hadoop-0.18.2/bin/hadoop dfs -put /home/hadoop/file4test.zip file4test_temp.zip

    相当于linux系统下的mkdir ls cp命令.

    用浏览器访问 http://localhost:50030/ 和 http://localhost:50070/ 可以查看hdfs拓扑结构和job进程还有hdfs文件系统结构.

    10.解压hbase发行包:

    $tar zxvf hbase-0.18.1.tar.gz

    11.修改hbase环境脚本:

    修改文件/home/hadoop/hbase-0.18.1/conf/hbase-env.sh,在其中加入JAVA_HOME变量: export JAVA_HOME=/opt/IBM/WebSphere/AppServer/java

    简单启动暂时不需要在用户配置文件/home/hadoop/hbase-0.18.1/conf/hbase-site.xml添加任何替代属性.

    12.启动hbase:

    $/home/hadoop/hbase-0.18.1/bin/start-hbase.sh

    成功启动hbase的守护进程.

    启动hbase hql shell:

    $/home/hadoop/hbase-0.18.1/bin/hbase shell

    在hql shell中可以进行hbase数据操作,如果需要帮助信息可以键入:

    hbase>help

    简单测试hbase:

    在hbase shell下:

    hbase>create 't1','f1','f3'

    hbase>list

    使用浏览器访问 http://localhost:60010/ 可以查看当前hbase信息.

    启动hbase REST服务:

    $/home/hadoop/hbase-0.18.1/bin/hbase rest start

    成功启动hbase REST服务后就可以通过对uri: http://localhost:60050/api/ 的通用REST操作(GET/POST/PUT/DELETE)实现对hbase的REST形式数据操作.


    (来源:新浪博客 作者:MAZHE)

  • 日本核能行业誓言日本将在今年内重新启用核电 2019-09-03
  • 中国保险行业协会发布汽车后市场配件合车标准 2019-09-02
  • 晋中市通报五起违反中央八项规定精神问题 2019-08-30
  • 两小鸟缠绕困路中,公交司机车流中救助 2019-08-30
  • 互联网药品信息服务资格证书 (京)-经营性-2009-0016 2019-08-29
  • 淮南23家存在重大安全隐患单位被挂牌督办 2019-08-29
  • 专属球队定制装饰火爆 足球盛宴更是消费大餐——浙江在线 2019-08-26
  • 驻村工作队帮村民“马”上致富 2019-08-26
  • 特色小镇里的税收服务 定海国地税多措并举提升效能 2019-08-23
  • 【央视快评】让传统文化焕发新时代风采 2019-08-22
  • 后高考时代 孩子们这样致青春 2019-08-12
  • 湖南高校:将十九大精神融入基础课教学建设 2019-08-12
  • 兰州大学“习近平新时代中国特色社会主义思想研究中心”成立 2019-08-10
  • 监察体制改革后 湘西半年72名公职人员主动交代问题 2019-08-10
  • 中方有力回击!美国多个行业喊痛:“加征关税就是对美国消费者征税” 2019-08-07
  • 麻将技巧变牌 大学生如何致富 三D彩票论坛 竟彩篮球网 青海11选5查询 快乐8开奖结果查询 辽宁11选5奖金分配 幸运武林河南福彩网 3d组选杀号技巧 体育彩票混合过关 内蒙古快3计划软件 新11选5技巧稳赚 曾道人玉像 竞彩足球比分直播现场500完整n 安徽福彩25选5