一、hive概述

一、Hive介绍

先是有的

什么是Hive:

Hive是依据Hadoop之上的数据仓库,数据存放在HDFS上,它1律能够经过ETL来展开数量的抽取、转换和加载。同时Hive能够团结成本Mapreduce程序来成功自己无法提供的多少处理操作。Hive本身正是3个SQL的辨析引擎,他将SQL
语句转成Mapreduce职分在hadoop之上执行。

怎么是数据仓库:

数据仓库是1个面向宗旨的,集成的,不可更新的,随时间不扭转的数据集合,它用来帮助公司或组织的决策分析处理。

针对数据仓库的概念的解说:首先数据仓库中的数据是面向主旨的,也正是那一个数量的都以为着描述同一类作业,同时它的数量首要用以查询操作,不会对数据仓库中的数据开始展览删减和换代操作。

OLTP: 联机事务处理(面向的是工作,须要实时的换代操作,银行转账)
【金沙注册送58】hive数据仓库,Hadoop数据解析平台实战。OLAP:
联机分析处理(面向历史数据,举行数据的解析与发掘,首要面向查询,不会做革新和插入数据,推荐系统)

注意:

在搭建数据仓库的进度最常用的三种模型就是:长方形模型和冰雪模型,雪花模型是在正方形模型上前进出来的。什么是星型模型,比如2个商品的引入系统,大旨应该是商品,不过围绕商品的有客户新闻、厂家音讯、减价消息等众多音讯,那样就组成了贰个圆柱形模型。不过客户音讯中也存在客户的家庭的新闻、地址新闻等。那样再涉及的话正是二个雪花模型了。


离线数据解析平台实战——1拾Hive介绍和Hive环境搭建

金沙注册送58 1

  Hive是基于Hadoop的3个数据仓库,Hive能够将SQL语句转化为MapReduce职分进展运维。

其次有个别

Hive的系统布局:

Hive将元数据存储在数据库中(metastore),这一个数据库援助mysql、derby等数据库中。Hive暗中认可是储存在derby数据库中。
Hive的元数据有怎么着?
包含表的名字、表的列和分区及其性质,表的天性包蕴是还是不是为外部表等,表的数目所在目录等。
先是Hive是依照Hadoop的,所以hive的数据会动用HDFS进行保存,同时hive的询问操作也是转账成hadoop的MapReduce操作,所以在hive中会存在四个Hive
Driver:包涵编译器、解析器和优化器。
在Hive的驱动在此以前有访问接口、jdbc以及WebConsole等方法举办操作。当然hive的元音信是存放在关系型数据库中的。
HQL的履行进度:
解释器、编写翻译器、优化器完结HQL查询语句从词法分析、语法分析、编写翻译、优化以及询问安插的扭转。生成的查询布置存储在HDFS中,并在随之的Mapreduce调用实践。


Hive介绍

Hive是构建在Hadoop之上的数据仓库平台,设计指标正是将hadoop上的数量操作同SQL结合,让熟稔SQL编制程序的开发人士能够轻松的向Hadoop平台上转移。

Hive能够在HDFS上营造数据仓仓库储存款和储蓄结构化数据,这个数量来源就是hdfs上,hive提供了几个近似sql的询问语言HiveQL来展开查询、变换数据等操作。
自然HiveQL语句的底层是更换为相应的mapreduce代码进行实施的。

       Hive是基于
Hadoop
的叁个【数据仓库工具】,可以将结构化的数据文件映射为一张数据库表,并提供简单的
sql 查询作用,能够将 sql 语句转换为 MapReduce
职分拓展运维。使用SQL来神速达成不难的MapReduce
总结,不必支付专门的MapReduce
应用,学习花费低,10分顺应数据仓库的总计分析。

  Hive架构图分为以下四有的。

其三片段

Hive的安装:

Hive的官网地址: hive.apache.org apache 的历史工程揭橥页面在:
archive.apache.org,在这么些页面下得以找到hive工程。那里运用的是0.一三版本。

Hive的装置此前要求先将hadoop安装好,hive有两种安装格局:嵌入情势、当地格局、远程格局。

停放方式:Hive将元消息囤积在Hive自带的Derby数据库中。然则那种操作办法存在1些毛病:

  1. 只同意成立二个老是,也正是只允许四个用户操作hive 二. 多用来德姆o

在安装hive从前需求先安装hadoop,然后把hive的回落包解压,在bin目录下执行./hive进入hive的起步脚本,那种措施正是行使的嵌入式方式运营hive,会在当前目录下生成3个metastore_db的目录,那么些便是元信息目录。

本地情势:Hive将元信息囤积在mysql数据库中,mysql数据库与hive运转在同等台物理机上。那种措施能够允许四个用户操作hive,能够用来开发和测试。

长途方式:(推荐使用那种办法)hive将元新闻存款和储蓄在mysql数据库中,mysql数据库与hive运营在分裂的情理机上。

元消息存储在长途的mysql中。进入远程mysql中,mysql -u … -p … ,
进入后选用create database hive创设二个hive数据库来保存元数据。
在hive解压后,把mysql的驱动jar包上传到hive的lib目录中。那样hive才能操作mysql数据库。然后须要转移hive的布置文件。在conf中开创三个hive-site.xml文件,文件的内容如下:

<configuration>
    <property>
        <name>javax.jdo.option.ConnectionURL</name>
        <value>jdbc:mysql://ip:3306/hive</value>
        <name>javax.jdo.option.ConnectionDriverName</name>
        <value>com.mysql.jdbc.Driver</value>
        <name>javax.jdo.option.ConnectionUserName</name>
        <value>root</value>
        <name>javax.jdo.option.ConnectionPassword</name>
        <value>root</value>
    </property>
</configuration>

当配置文件设置完后以往,就能够运转hive了。


Hive组成

Hive包蕴用户接口、元数据库、解析器和数据仓库等零件组成,当中用户接口包涵shell客户端、JDBC、ODBC、Web接口等。
元数据库重点是指定义在hive中的表结构音讯,1般保存到关系型数据库中,默许是derby,1般采纳mysql实行保存。
解析器首要成效是将HQL语句转换为mapreduce代码。
数据仓库正是由hdfs组成的数额存款和储蓄容器。

    【数据仓库】英文名字为Data Warehouse,可简写为 DW 或
DWH。数据仓库,是为商户具有级其他决策制定进度,提供具有品种数据支撑的战略集合。它是单个数据存款和储蓄,出于分析性报告和裁定协理目标而创立。为要求工作智能的公司,提供辅导业务流程立异、监视时间、花费、品质以及控制。一句话总结:
 数据仓库是用来做 查询分析的数据库,
基本不用来做插入,修改,删除操作。

  金沙注册送58 2 

第陆有个别

Hive的管理

应用hive的台本直接进去hive,可能 hive –service cli

cli常用的一声令下:

  1. 清屏:ctrl + l 或者 !clear;
  2. 查看数据仓库中的表: show tables;
  3. 翻看数据仓库中的函数:show functions;
  4. 查看表结构: desc 表名;
  5. 翻看hdfs上的文件列表: dfs -ls /user 查看hadoop上/user上的文件
  6. 执行linux命令: !命令
  7. 执行HQL语句:select * from
    test;当执行那么些讲话的时候是不会敞开3个MapReduce义务的,因为这么些是收获全体的数量,获取全体的数目只需求把全部的数目读取出来就足以了,并不须要运维二个任务。不过在履行select
    name from
    test;查询某四个字段的音讯的时候就须求运营三个MapReduce职责了。
  8. 能够进行三个sql脚本:source /root/test.sql
    那些讲话就是运维一个执行sql脚本。这种办法正是和mysql执行外部的新闻相同。
  9. hive -S 进入hive运行职务不会产生调节和测试音信,直接产生MapReduce的结果。
  10. hive -e 执行sql语句。hive -e ‘show
    tables’;那样的实施就径直在linux的命令行操作就行,并不必要进入hive的交互式中举行。

Web界面形式:

开行情势: #hive –service hwi &
在0.一3.0中并从未包蕴web管理的war包,须要本身编写翻译。

下载hive源码包,并且解压源码包,然后进入源码路径下的hwi目录,使用:jar
cvfM0 hive-hwi-0.一三.0.war -C web/ .
那样就会打成三个war包,把那些war包拷贝到hive的lib目录下,同时供给修改hive-site.xml
配置文件,那一个修改能够在wiki上看看。

<property>
  <name>hive.hwi.listen.host</name>
  <value>0.0.0.0</value>
  <description>This is the host address the Hive Web Interface will listen on</description>
</property>

<property>
  <name>hive.hwi.listen.port</name>
  <value>9999</value>
  <description>This is the port the Hive Web Interface will listen on</description>
</property>

<property>
  <name>hive.hwi.war.file</name>
  <value>lib/hive-hwi-0.13.0.war</value>
  <description>This is the WAR file with the jsp content for Hive Web Interface</description>
</property>

本条就足以选用hive –service
hwi运维web服务了,可是在造访那个web应用的时候,浏览器照旧报出了500的失实。那么些题材必要拷贝jdk的tools.jar
拷贝到hive的lib目录下。

其一时半刻候就足以打开那几个web界面了。

hive的长距离服务

起头hive的中距离服务的指令如下: hive –service hiveserver &
借使要运用jdbc连接hive进行操作,那个时候就须求敞开hive的远程服务。


Hive架构

金沙注册送58 3

image.png

 一、数据处理分类

  一、用户接口

第5片段

Hive的数据类型

  • 基本数据类型:
    tinyint/smallint/int/bigint 整数类型
    float/double 浮点类型
    boolean 布尔类型
    string/varchar/char 字符串类型

  • 复杂数据类型:
    array:数组类型,由一名目繁多一样的数据类型的要素结合
    map:集合类型,包括key->value键值对,能够经过key来访问成分。
    struct:结构类型,能够涵盖分裂数据类型的因素,那一个因素得以通
    过“点语法”的法门来赢得所急需的要素。

create table student (
age int,
name string,
grade array<float>);

插入的时候就是: {1, wangmin, [10,20,30]};

create table student1 (
sid int,
sname string,
grade map<string, float>);

插入数据的时候: {1,wangmin,<'大学语文', 85>}

create table studnet3(
sid int,
sname string,
grades array<map<string, float>>);

插入数据的时候:{1, wangmin, [<'大学语文‘, 12>,<'大学英语’,23>]}

create table student4(
sid int,
info struct<nname:string, age:int, sex:string>);

插入数据的时候:{1, {'wangmin', 23, ‘男’}}
  • 光阴档次:
    Date: 日期(年月日)
    Timestamp: 是unix的二个时日偏移量
    select unix_timestamp(); 查看系统的时刻偏移量

Hive安装

Hive依照metastore的存款和储蓄地点不一致,分为二种安装模式:
内嵌格局,本地方式,远程方式。
内嵌情势正是采纳derdy存储元数据;
地点格局是将hvie.metastore.local设置为true,正是说metastore和hive客户端安装在同样台机械上;
长距离情势指的是我们路人皆知钦定metastore安装的机器地方,而且能够内定三个,要求加以参数hive.metastore.uris并且hive.metastore.local必须设置为false。
Hive远程情势安装,使用mysql进行元数据的囤积。

安装步骤:

  1. 安装mysql数据库。
  2. hive当地形式安装。

(一)联机事务处理
OLTP(on-linetransaction processing)  

    Hive有四个用户接口:

第陆局地

Hive的数量存款和储蓄

据书上说HDFS,没有特意的数码存款和储蓄格式
Hive的数据模型:

表能够分成以下两种:

  • Table 内部表
  • Partition 分区表
  • External Table 外部表
  • Bucket Table 桶表

create table t1
(tid int, tname string, age int);

create table t2
(tid int, tname string age int);
localtion '/mytable/hive/t2';

create table t3
(tid int, tname string, age int)
row format delimited fields terminated by ',';

create table t4
as
select * from sample_date;

create table t5
row format delimited fields terminated by ','
as
select * from sample_data;

分区表:

create table partition_table
(sid int, sname string)
partitioned by (gender string)
row format delimited fields terminated by ',';

开创那张表的时候尽管以gender进行分区 分区表可以加快查询效能

Hive安装–Mysql安装

设置步骤:

  1. 动用root用户设置mysql。
  2. 修改/etc/my.cnf文件中的配置音讯。
  3. 启动mysql
  4. 设置root用户密码
  5. root用户登录
  6. 始建hive元数据的mysql用户并授权。
  7. 应用新用户登录,然后创造数据库,并修改数据库的连天情势。

  OLTP是守旧的关系型数据库的第壹选取,首如果骨干的、平时的事务处理,例如银行交易。OLTP系统强调数据库内部存款和储蓄器效用,强调内部存款和储蓄器各样指标的命令率,强调绑定变量,强调并发操作;

    • 一声令下行接口(CLI):以命令行的样式输入SQL语句举办数量数据操作
    • Web界面:通过Web格局进行访问。     
    • Hive的中远距离服务措施:通过JDBC等办法进行走访。              

Hive安装–Hive安装

设置步骤:

  1. 下载hive,下载地址:http://archive.cloudera.com/cdh5/cdh/5/hive-0.13.1-cdh5.3.6.tar.gz
  2. 解压下载的压缩包。
  3. 配备环境变量hive-site.xml。
  4. 将mysql-connector-java-伍.一.31.jar移动到hive的lib文件夹下。
  5. 将bin目录添加到$PATH环境变量中去。
  6. 启动metastore服务。hive –service metastore &.
  7. 跻身hive的shell客户端,验证是不是安装成功。

 

  2、元数据存款和储蓄

Hive Web界面安装

Hive提供了三个Web的操作客户端,一般我们通过该页面查看hive的音信,配置新闻包蕴:
hive.hwi.listen.host钦赐监听ip(私下认可0.0.0.0),
hive.hwi.listen.port监听端口(暗中认可9999),
hive.hwi.war.file=xxx。

除此以外部须求要将java的tool.jar文件移动到hive的lib文件夹中。

运行命令为:
hive --service hwi &

一、 安装mysql
    1. 使用root用户: su root
    2. 安装
        yum install mysql
        yum install mysql-server
        yum install mysql-devel(可选)
    3. 修改配置信息,添加: vim /etc/my.cnf
        [mysql]
        default-character-set=utf8
        [mysqld]
        character-set-server=utf8
        lower_case_table_names=1
    4. 启动mysql:service mysqld restart/stop/start
    5. 配置超级用户名和密码, mysqladmin -u root password 123456
    6. root用户登录mysql -u root -p 123456
    7. 创建mysql用户:create user 'hive' identified by 'hive';
    8. 授权:grant all privileges on *.* to 'hive'@'%' with grant option
    9. 重启一下这个mysql服务。
    10. 使用hive用户创建数据库并修改连接信息。
       create database hive;
       alter database hive character set latin1;


二、 安装hive
    1. 下载hive:http://archive.cloudera.com/cdh5/cdh/5/hive-0.13.1-cdh5.3.6.tar.gz
    2. hive的帮助文档位置:https://cwiki.apache.org/confluence/display/Hive/LanguageManual,
        hive官网:http://hive.apache.org
    3. 参考hive-site.xml文件
    4. 将bin目录添加到path目录中,
        vim ~/.bash_profile
            export HIVE_HOME=/home/hadoop/bigdater/hive-0.13.1-cdh5.3.6/
            export PATH=$PATH:$HIVE_HOME/bin
        source ~/.bash_profile
    5. 移动mysql驱动jar到hive的lib文件夹下。
    6. 启动metastore服务(启动hdfs+yarn服务)
        hive --service metastore &
    7. 进入hive的客户端
        hive



<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<configuration>
  <property>
    <name>hive.metastore.uris</name>
    <value>thrift://hh:9083</value>
  </property>
  <property>
    <name>hive.metastore.warehouse.dir</name>
    <value>/hive</value>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:mysql://hh:3306/hive?createDatabaseIfNotExist=true&amp;useUnicode=true&amp;characterEncoding=UTF-8</value>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>com.mysql.jdbc.Driver</value>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>hive</value>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>hive</value>
  </property>
</configuration>

(二)联机分析处理P
OLAP(On-Line AnalyticalProcessing)

   
将元数据存款和储蓄在关周全据库中(MySql、Derby),元数据包涵表的性质、表的名目、表的列、分区及其本性以及表数据所在的目录等。

  OLAP是数据仓库系统的首要性使用,帮忙复杂的辨析操作,侧重决策帮衬,并且提供直观易懂的查询结果。OLAP系统则强调数据解析,强调SQL执行商场,强调磁盘I/O,强调分区等。

  3、解释器、编译器、优化器

 

   
分别形成SQL查询语句从词法分析、语法分析、编写翻译、优化以及询问陈设的变化。生成的询问布置存储在HDFS中,并在跟着由MapReduce调用实践。

 

  四、数据存款和储蓄

—类比表

   
Hive未有特意的多少存款和储蓄格式,也并未有为多少建立目录,Hive中负有数据都存款和储蓄在HDFS中。

金沙注册送58 4

    Hive包罗以下数据模型:表、外部表、分区和桶

 

二、Metadata,Metastore 的作用

 

  Metadata即元数据:  
元数据包蕴用Hive创立的database、tabel等的元消息。元数据存款和储蓄在关系型数据库中。如Derby、MySQL等。

2.hive架构原理

  Metastore的功力是:
 客户端连接metastore服务,metastore再去老是MySQL数据库来存取元数据。

用户接口主要有八个:CLI命令行,Client 和 WUI。

  有了metastore服务,就能够有多少个客户端同时连接,而且这个客户端不需求明白MySQL数据库的用户名和密码,只要求连接metastore
服务即可。

金沙注册送58 5

三、Hive的元数据存款和储蓄(Metastore三种配备方式)

(一)最常用的是
CLI 命令行,Cli运行的时候,会同时起步多个Hive副本;
Client是Hive的客户端,用户连接至Hive Server。

  由于元数据持续地修改、更新,所以Hive元数据不切合储存在HDFS中,一般存在XC90DBMS中。

在起步Client方式的时候,供给建议Hive
Server所在节点,并且在该节点运维Hive Server。
WUI是因而浏览器访问Hive。

  
一、内嵌格局(Embedded)

(2)Hive将
元数据存款和储蓄在数据库中,如mysql、 derby 。
Hive中的元数据包涵表的名字,表的列和分区及其性质,表的性情(是或不是为外

   
 hive服务和metastore服务运转在同一个历程中,derby服务也运维在该进程中.

 部表等),表的数额所在目录等。

   
 内嵌格局采取的是内嵌的Derby数据库来储存元数据,也不须求10分起Metastore服务。

(3)解释器、编写翻译器、优化器实现HQL查询语句从词法分析、语法分析、编写翻译、优化以及询问陈设的变化。生成的查询安顿存款和储蓄在HDFS中,

   
 这几个是默许的,配置不难,不过三遍只可以一个客户端连接,适用于用来试验,不适用于生产环境。

并在紧接着有MapReduce调用实践。

   2、当地格局(Local):本地安装mysql 替代derby存款和储蓄元数据

(四)Hive的数量存款和储蓄在HDFS中,大多数的询问、总计由MapReduce实现(蕴涵*的查询,比如select
* from tbl不会生成MapRedcue职责)

    那种设置情势和嵌入式的分别在于,不再采取内嵌的Derby作为元数据的存款和储蓄介质,而是选取任何数据库比如MySQL来囤积元数据。

 

    hive服务和metastore服务运作在同3个进度中,mysql是独自的经过,能够1样台机械,也能够在长途机器上。

 二、hive搭建及三种形式

    那种格局是二个多用户的情势,运营多个用户client连接受一个数据库中。那种办法1般作为公司内部同时选用Hive。

 1.hive的搭建

    每二个用户必必要有对MySQL的拜访义务,即每两个客户端使用者要求驾驭MySQL的用户名和密码才行。

 

  <property>
        <name>javax.jdo.option.ConnectionURL</name>
        <value>jdbc:mysql://127.0.0.1:3306/hive? createDatabaseIfNotExit=true</value>
    </property>
    <property>
        <name>javax.jdo.option.ConnectionDriverName</name>
        <value>com.mysql.jdbc.Driver</value>
    </property>
    <property>
        <name>javax.jdo.option.ConnectionUserName</name>
        <value>root</value>
    </property>
    <property>
        <name>javax.jdo.option.ConnectionPassword</name>
        <value>root</value>
    </property>
    <property>
      <name>hive.metastore.uris</name>
      <value></value>
      <description>指向的是运行metastore服务的主机,这是hive客户端配置,metastore服务不需要配置</description>
   </property>
    <property>
      <name>hive.metastore.warehouse.dir</name>
      <value>/user/hive/warehouse</value>
      <description>hive表的默认存储路径,为HDFS的路径location of default database for the warehouse</description>
    </property>

 1.一、安装
Hive安装环境以及前提表明:首先,Hive 是依靠于 hadoop 系统的,由此在运行Hive 从前须要确定保证已经搭建好 hadoop 集群环境。

 

—安装三个关系型数据
mysql

  叁、远程形式(Remote): 远程安装mysql 替代derby存款和储蓄元数据

金沙注册送58 6

    Hive服务和metastore在不一致的历程内,恐怕是分化的机械,该格局供给将hive.metastore.local设置为false,将hive.metastore.uris设置为metastore服务器ULANDL,

 

    假诺有多个metastore服务器,将UBMWX叁L之间用逗号分隔,metastore服务器UCRUISERL的格式为thrift://12七.0.0.1:90捌三。

一.二、配置环境变量:(类似于上面那样,跟以前hadoop50%.x 配置一样)

    远程元存款和储蓄需求单独起metastore服务,然后每一种客户端都在陈设文件里安插连接到该metastore服务。


HADOOP_HOME=/**/*

HIVE_HOME=$*/**/*

    将metadata作为贰个独立的劳务拓展运营。种种客户端通过beeline来两次三番,连接此前无需了然数据库的密码。

一.三、替换和增加相关 jar
包–修改 HADOOP_HOME\share/hadoop/yarn/lib 目录下的
jline-*.jar将其替换到 艾滋病E_HOME\lib 下的 jline-2.12.jar。

    仅连接远程的mysql并无法称为“远程形式”,是还是不是远程指的是metastore和hive服务是不是在一如既往进程内.

–将 hive 连接
mysql 的 jar 包:mysql-connector-java-伍.一.32-bin.jar拷贝到 hive
解压目录的 lib 目录下

    hive metastore 服务端运维命令:
hive --service metastore -p <port_num>
    如果不加端口暗中同意运行:hive --service metastore,则暗中认可监听端口是:90八3。

一.四、修改配置文件(选择三 种方式里哪1种)见二种安装格局
1.5、启动
hive:bin/hive

    注意客户端中的端口配置需求和运行监听的端口壹致。服务端运转平常后,客户端就能够实施hive操作了。

 

      客户端连接metastore服务配置如下

2.二种形式: (内嵌方式/本地方式/远程情势)

 <property>
    <name>hive.metastore.uris</name>
    <value>thrift://127.0.0.1:9083,thrift://127.0.0.1:9084</value>
    <description>指向的是运行metastore服务的主机</description>
  </property>

 2.1内嵌情势

  在劳务器端运转三个MetaStoreServer,客户端应用Thrift协议通过MetaStoreServer访问元数据库。如下图:    

那种装置格局的元数据是内嵌在Derby数据库中的,只可以同意二个对话连接,数据会存放到HDFS上。

  金沙注册送58 7

那种方法是最不难易行的仓库储存格局,只需求hive-site.xml做如下配置便可(注:使用
derby 存款和储蓄格局时,运维 hive 会在当

四、Thrift 服务 

前目录生成三个derby 文件和1个 metastore_db)

  通过hiveServer/hiveServer二运转Thrift服务,客户端连接Thrift服务走访Hive数据库(JDBC,JAVA等连接Thrift服务走访Hive)。

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:derby:;databaseName=metastore_db;creat
e=true</value> </property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>org.apache.derby.jdbc.EmbeddedDriver</value>
</property>
<property>
<name>hive.metastore.local</name>
<value>true</value>
</property>
<property>
<name>hive.metastore.warehouse.dir</name>
<value>/user/hive/warehouse</value>
</property>
</configuration>
 <property>
    <name>hive.server2.thrift.port</name>
    <value></value>
    <description>Port number of HiveServer2 Thrift interface when hive.server2.transport.mode is 'binary'.</description>
  </property>

  <property>
    <name>hive.server2.thrift.bind.host</name>
    <value>127.0.0.1</value>
    <description>Bind host on which to run the HiveServer2 Thrift service.</description>
  </property>

  <property>
    <name>hive.server2.enable.doAs</name>
    <value>false</value>
    <description>
      Setting this property to true will have HiveServer2 execute
      Hive operations as the user making the calls to it.
    如果为True:Hive Server会以提交用户的身份去执行语句
    如果为False:会以hive server daemon的admin user来执行语句

    </description>
  </property>

 

  启动Thrift服务:**hive
–service hiveserver2**

 2.2 本地格局

   测试Thrift服务:

 那种设置方式和嵌入式的差别在于,不再使用内嵌的
Derby 作为元数据的存款和储蓄介质,而是利用其它数据库比如 MySQL
来储存元数据且是1个多用户的方式

   新开一个命令行窗口,执行beeline命令:

运营多少个用户
client 连接到2个数据库中。这种办法壹般作为集团里面同时选用Hive。那里有2个前提,每叁个用户必须求有对 MySQL 的造访权利,即每

shuwendeMBP:~ shuwen$ beeline
Beeline version 1.2.1.spark2 by Apache Hive
beeline> !connect jdbc:hive2://127.0.0.1:10000
Connecting to jdbc:hive2://127.0.0.1:10000
Enter username for jdbc:hive2://127.0.0.1:10000: shuwen
Enter password for jdbc:hive2://127.0.0.1:10000: ******
log4j:WARN No appenders could be found for logger (org.apache.hive.jdbc.Utils).
log4j:WARN Please initialize the log4j system properly.
log4j:WARN See http://logging.apache.org/log4j/1.2/faq.html#noconfig for more info.
Connected to: Apache Hive (version 1.2.2)
Driver: Hive JDBC (version 1.2.1.spark2)
Transaction isolation: TRANSACTION_REPEATABLE_READ
0: jdbc:hive2://127.0.0.1:10000> show databases;
+----------------+--+
| database_name  |
+----------------+--+
| db_2_1         |
| default        |
| netuml         |
+----------------+--+
3 rows selected (1.941 seconds)

3个客户端使用者须要明白MySQL 的用户名和密码才行。那种存款和储蓄格局索要在该地运营一个 mysql
服务器,并作如下配置(下边三种接纳 mysql 的法子,

 

亟待将 mysql 的
jar 包拷贝到$艾滋病E_HOME/lib 目录下)。

5、Hive的二种运行格局

注: mysql-connector-java-伍.壹.32-bin.jar拷贝到
hive 解压目录的 lib 目录下

   一、hive 命令行格局

 (jar包 链接:
密码:4k6w)

    进入hive安装目录,输入bin/hive的执行顺序,可能输入 hive –service
cli,用于linux平台命令行查询,查询语句基本跟mysql查询语句看似

 vim hive-site-xml   配置如下:

   贰、hive
web界面包车型地铁开行格局

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
    <!--数据仓库的位置,默认是/user/hive/warehouse-->
<name>hive.metastore.warehouse.dir</name>
<value>/user/hive_rlocal/warehouse</value>
</property>
<property>
    <!--控制hive是否连接一个远程metastore服务器还是开启一个本地客户端jvm-->
<name>hive.metastore.local</name>
<value>true</value>
</property>
<property>
    <!--JDBC连接字符串,默认jdbc:derby:;databaseName=metastore_db;create=true-->
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://node03/hive_remote?createDatabaseIfNotExist=t
rue</value>
</property>
<property>
    <!--JDBC的driver,默认org.apache.derby.jdbc.EmbeddedDriver-->
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
    <!--username,默认APP-->
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>123456</value>
</property>

    Hive 二.0 将来才支撑Web
UI的

 

金沙注册送58 ,     bin/hive –service hwi (&
代表后台运转)

 

    用于通过浏览器来拜访hive,感觉没多大用场,浏览器访问地址是:1二七.0.0.1:9999/hwi

启动:

   3、hive 远程服务 (端口号一千0)
运行格局 (Thrift服务)

壹开启集群(hive必要借助集群);  service  iptables stop     zkServer.sh
start   start-all.sh

     bin/hive –service hiveserver2&(&表示后台运转)

贰打开mysql服务器:先在mysql中链接到客户端,本机创立的数据库名叫hive

   
 用java,python等程序达成通过jdbc等驱动的造访hive就用这种起动格局了,这些是程序员最亟需的法子了

金沙注册送58 8

 

 

6、Hive两种内置服务 

 再到客户端:service  mysqld start    —–> mysql  -u root   -p  
(用户名/密码)

  执行bin/hive –service help 如下:

 金沙注册送58 9

shuwendeMBP:~ shuwen$ hive --service help
Usage ./hive <parameters> --service serviceName <service parameters>
Service List: beeline cli help hiveburninclient hiveserver hiveserver2 hwi jar lineage metastore metatool orcfiledump rcfilecat schemaTool version 
Parameters parsed:
  --auxpath : Auxillary jars 
  --config : Hive configuration directory
  --service : Starts specific service/component. cli is default
Parameters used:
  HADOOP_HOME or HADOOP_PREFIX : Hadoop install directory
  HIVE_OPT : Hive options
For help on a particular service:
  ./hive --service serviceName --help
Debug help:  ./hive --debug --help

 

  大家得以见到上边输出项Server
List,里边突显出Hive援救的劳务列表,beeline cli help hiveserver贰hiveserver hwi jar lineage metastore metatool orcfiledump rcfilecat。

 ③启动hive:  执行hive

  下边介绍最可行的一些劳务

金沙注册送58 10

  一、cli:是Command Line Interface
的缩写,是Hive的指令行界面,用的可比多,是暗许服务,直接能够在命令行里使用。

 

  叁、hwi:其实正是hive web interface的缩写它是hive的web借口,是hive
cli的一个web替代方案。

小规模试制牛刀:

  二、hiveserver:那么些能够让Hive以提供Thrift服务的服务器方式来运营,能够允许许多少个不等语言编写的客户端实行通讯,使用供给运维HiveServer服务以和客户端联系,

创建一个数据库:zhangsan

hive> show databases;
OK
default
wuxiong
Time taken: 0.051 seconds, Fetched: 2 row(s)
hive> create  database  zhangsan;
OK
Time taken: 0.113 seconds
hive> show databases;
OK
default
wuxiong
zhangsan
Time taken: 0.046 seconds, Fetched: 3 row(s)
hive> 

    大家可以通过安装喉肿E_PO揽胜极光T环境变量来设置服务器所监听的端口,在暗许景况下,端口号为10000,这么些能够经过以下办法来运维Hiverserver:

 

    bin/hive –service hiveserver -p 10002

是或不是见效:1查看集群对应的目录 :  
 hive-site-xml配置文件中已定义了目录的存放地点:/user/hive/warehouse  
 ——>打开node0二节点(active)

    在那之中-p参数也是用来钦点监听端口的
  
  四、jar:与hadoop jar等价的Hive接口,那是运作类路径中同时含有Hadoop
和Hive类的Java应用程序的便利方法

金沙注册送58 11

  伍、metastore:在默许的情景下,metastore和hive服务运行在同一个进度中,使用这些服务,能够让metastore作为二个独门的长河运维。

②本地mysql数据库hive中查看:hive_remote
 —–>dbs—–>会发现:

    我们得以经过METASTOE——POQX56T来钦命监听的端口号

 金沙注册送58 12

 

 

 7、难点计算

 ok,数据库创立落成!存放地方也能找到!

Could not create ServerSocket on address 0.0.0.0/0.0.0.0:9083

蒙受那种境况大家都找不到头绪,是因为您开头运转了hive的metastore,能够输入jps
查看有没有RunJar
下一场再输入
hive –service metastore启动

接上述’zhangsan’数据库继续成立一张表:

 

 use   zhangsan;

style=”font-size: 15px; color: #000000;”>Hive在spark贰.0.0运维时不能够访问spark-assembly-*.jar的化解办法

ls:
/usr/local/share/spark-2.0.0-bin-hadoop2.7/lib/spark-assembly-*.jar:
No such file or directory
意识根本缘由是:在/<PathToHive>/bin/hive文件中,有那样的命令:加载spark中有关的JA奇骏包

if [[ -n "$SPARK_HOME" ]]
then
sparkAssemblyPath=`ls ${SPARK_HOME}/lib/spark-assembly-*.jar`
CLASSPATH="${CLASSPATH}:${sparkAssemblyPath}"
fi

style=”font-family: 行草; font-size: 14px;”>不过spark升级到spark2未来,原有lib目录下的大JA福特Explorer包被分散成七个小JAPRADO包,原来的spark-assembly-*.jar已经不设有,所以hive未有章程找到那些JA翼虎包。

style=”font-family: 草书; font-size: 1四px;”>消除措施:修改/<PathToHive>/bin/hive文件,将加载原来的lib/spark-assembly-*.jar`替换成jars/*.jar,就不会产出如此的题材。

 金沙注册送58 13

 

查找:①mysql—>hive—–>hive_remote——>TBLS

 

金沙注册送58 14

一.hive.metastore.uris针对性的是运维metastore服务的主机,并不是指向运维hiveserver的主机,那台主机不用运维hiveserver也ok;

二.直接采纳hive命令运营shell环境时,其实已经有意无意运营了hiveserver,所以远程情势下实际只须要独自运转metastore,然后就足以进去shell环境常规使用

三.hiveserver和metastore进度名都叫RunJar。

 ②集群中:

 

金沙注册送58 15

 二.3 远程情势

     
 remote:那种存储形式需求在远端服务器运转二个 mysql 服务器,并且供给在
Hive 服务器运营 meta服务。本机配置了

八个节点:node0一、node0二、node0叁,node01央月计划了mysql,未来以node0二为服务端,node0三为客户端依次配置系统文件

hive-site.xml 

 node0二配置如下:

 

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
    <property>
        <name>hive.metastore.warehouse.dir</name>
        <value>/user/hive/warehouse</value>
    </property>
    <property>
        <name>javax.jdo.option.ConnectionURL</name>
        <value>jdbc:mysql://node01:3306/hive2?createDatabaseIfNotExist=true</value>
    </property>
    <property>
        <name>javax.jdo.option.ConnectionDriverName</name>
        <value>com.mysql.jdbc.Driver</value>
    </property>
    <property>
        <name>javax.jdo.option.ConnectionUserName</name>
        <value>root</value>
    </property>
    <property>
        <name>javax.jdo.option.ConnectionPassword</name>
        <value>123456</value>
    </property>
</configuration>

 

 

node03配置如下:

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
    <property>
        <name>hive.metastore.warehouse.dir</name>
        <value>/user/hive/warehouse</value>
    </property>
    <property>
        <name>hive.metastore.local</name>
        <value>false</value>
        </property>
    <property>
        <name>hive.metastore.uris</name>
        <value>thrift://node01:9083</value>
    </property>
</configuration>

 

启动:

node02 (服务端):  hive –server  metastore

node03(客户端):启动 hive

 

相关文章

网站地图xml地图