Hive所有表和分区的元数据都通过Hive Metastore进行访问。使用JPOX ORM解决方案(Data Nucleus)持久化元数据,因此它支持的任何数据库都可以被Hive使用。它支持大多数商业关系数据库和许多开放源码数据库。请参阅下面一节中支持的数据库列表。
Hive Metastore库里的表之间的拓扑关系图如下:
有2种不同的方法来设置metastore服务器和metastore数据库使用不同的Hive配置:
简单来讲就是使用本地的Derby模式的
使用远程的数据库
相关配置参数如下所示。非metastore参数请参见配置Hive。也请参阅语言手册的Hive配置属性,包括Metastore和Hive Metastore安全。)
请参见配置Hive下的hivemetstore -site.xml文档。
Configuration Parameter |
Description |
javax.jdo.option.ConnectionURL |
用于包含元数据的数据存储的JDBC连接字符串 |
javax.jdo.option.ConnectionDriverName |
包含元数据的数据存储的JDBC驱动程序类名 |
hive.metastore.uris |
Hive连接到这些uri中的一个,向远端Metastore(以逗号分隔的uri列表)发送元数据请求。 |
hive.metastore.local |
本地或远端metastore(从Hive 0.10移除:如果Hive .metastore.uri为空,则假设本地模式为远端模式) |
hive.metastore.warehouse.dir |
本机表的默认位置的URI |
Hive metastore是无状态的,因此可以有多个实例来实现高可用性。使用hive.metastore.uri可以指定多个远程元数据连接。Hive会默认使用列表中的第一个,但会在连接失败时随机选择一个,并尝试重新连接。
以下metastore配置参数是从旧文档中继承下来的,没有保证它们仍然存在。Hive当前的配置选项请参见HiveConf Java类,Metastore和Hive Metastore安全部分的语言手册的Hive配置属性的用户友好的描述Metastore参数。
Configuration Parameter |
Description |
Default Value |
hive.metastore.metadb.dir |
文件存储元数据基目录的位置。(在0.4.0中HIVE-143删除了该功能。) |
|
hive.metastore.rawstore.impl |
实现org.apache.hadoop.hive.metastore.rawstore接口的类名。该类用于存储和检索原始元数据对象,如表、数据库。(Hive 0.8.1及以上版本) |
|
org.jpox.autoCreateSchema |
如果模式不存在,则在启动时创建必要的模式。(模式包括表、列等等。)创建一次后设置为false。 |
|
org.jpox.fixedDatastore |
数据存储模式是否固定。 |
|
datanucleus.autoStartMechanism |
是否在启动时初始化。 |
|
hive.metastore.ds.connection.url.hook |
用于检索JDO连接URL的钩子的名称。如果为空,则使用javax.jdo.option.ConnectionURL中的值作为连接URL。(Hive 0.6及以上版本) |
|
hive.metastore.ds.retry.attempts |
如果出现连接错误,重试调用备份数据存储的次数。 (Hive 0.6到0.12;在0.13.0中移除-使用hive.hmshandler.retry.attempts代替。) |
1 |
hive.metastore.ds.retry.interval |
数据存储重试之间的毫秒数。 (Hive 0.6到0.12;在0.13.0中移除-请改用hive.hmshandler.retry.interval。) |
1000 |
hive.metastore.server.min.threads |
Thrift服务器池中工作线程的最小数量。 (Hive 0.6及以上版本) |
200 |
hive.metastore.server.max.threads |
Thrift服务器池中的最大工作线程数。 (Hive 0.6及以上版本) |
100000 since Hive 0.8.1 |
hive.metastore.filter.hook |
Metastore钩子类,用于在客户端进一步过滤元数据读取结果。 (Hive 1.1.0及以上版本) |
org.apache.hadoop.hive.metastore.DefaultMetaStoreFilterHookImpl |
hive.metastore.port |
Hive metastore监听端口。 (Hive 1.3.0及以上版本) |
9083 |
配置datanucleus。强烈推荐使用autoStartMechanism,强烈建议为数据中心配置自动启动。
<property>
<name>datanucleus.autoStartMechanism</name>
<value>SchemaTable</value>
</property>
默认配置将设置一个自带的metastore,它将在单元测试中使用。
自带的metastore数据库主要用于单元测试。一次只能有一个进程连接到metastore数据库,所以这不是一个实际的解决方案,但在单元测试中工作得很好。
对于单元测试,Metastore服务器的本地/嵌入式Metastore服务器配置与自带的数据库一起使用。
Derby是自带的metastore的默认数据库。
Config Param |
Config Value |
Comment |
javax.jdo.option.ConnectionURL |
|
Derby数据库位于hive/trunk/build… |
javax.jdo.option.ConnectionDriverName |
|
Derby自带了JDBC驱动类 |
hive.metastore.warehouse.dir |
file://${user.dir}/../build/ql/test/data/warehouse |
单元测试数据放在本地文件系统中 |
如果您希望将Derby作为网络服务器运行,以便可以从多个节点访问metastore,请参阅Hive Using Derby in server Mode。
在此配置中,您将使用传统的独立RDBMS服务器。下面的示例配置将在MySQL服务器中设置一个metastore。建议实际使用metastore数据库的这种配置。
Config Param |
Config Value |
Comment |
javax.jdo.option.ConnectionURL |
|
元数据存储在MySQL服务器中 |
javax.jdo.option.ConnectionDriverName |
|
MySQL JDBC 驱动类 |
javax.jdo.option.ConnectionUserName |
|
连接MySQL服务的用户名 |
javax.jdo.option.ConnectionPassword |
|
连接MySQL服务的密码 |
在本地/内嵌的metastore安装中,metastore服务器组件像Hive Client中的库一样被使用。每个Hive Client将打开一个连接到数据库,并对它进行SQL查询。确保执行Hive查询的机器可以访问数据库,因为这是一个本地存储。还要确保JDBC客户端库在Hive client的类路径中。这个配置通常在HiveServer2中使用(仅在HiveServer2中添加“——hiveseconf hive.metastore”)。uris=' '",或者使用hiveserver2-site.xml (Hive 0.14中提供)。
Config Param |
Config Value |
Comment |
hive.metastore.uris |
not needed because this is local store |
|
hive.metastore.local |
|
这是本地存储(在Hive 0.10中移除,参见配置描述部分) |
hive.metastore.warehouse.dir |
|
指向HDFS中非外部Hive表的默认位置。 |
在远程metastore设置中,所有的Hive客户端将连接到一个metastore服务器,反过来查询数据存储(在这个例子中是MySQL)的元数据。Metastore服务器和客户端使用Thrift协议进行通信。从Hive 0.5.0开始,可以执行以下命令启动Thrift服务器:
hive --service metastore
在Hive 0.5.0之前的版本中,需要通过直接执行Java来运行Thrift服务器:$JAVA_HOME/bin/java -Xmx1024m -Dlog4j.configuration=file://$HIVE_HOME/conf/hms-log4j.properties -Djava.library.path=$HADOOP_HOME/lib/native/Linux-amd64-64/ -cp $CLASSPATH org.apache.hadoop.hive.metastore.HiveMetaStore
如果直接执行Java,那么JAVA_HOME, HIVE_HOME, HADOOP_HOME必须正确设置;CLASSPATH应该包含Hadoop、Hive (lib和auxlib)和Java jar。
下面以Remote Metastore数据库为例。
Config Param |
Config Value |
Comment |
javax.jdo.option.ConnectionURL |
|
metadata is stored in a MySQL server |
javax.jdo.option.ConnectionDriverName |
|
MySQL JDBC driver class |
javax.jdo.option.ConnectionUserName |
|
user name for connecting to MySQL server |
javax.jdo.option.ConnectionPassword |
|
password for connecting to MySQL server |
hive.metastore.warehouse.dir |
|
默认hive表路径 |
hive.metastore.thrift.bind.host |
<host_name> |
Host name to bind the metastore service to. When empty, "localhost" is used. This configuration is available Hive 4.0.0 onwards. |
从Hive 3.0.0 (Hive -16452)开始,metastore数据库存储了一个GUID,可以通过Thrift API get_metastore_db_uuid被metastore客户端查询,以识别后端数据库实例。HiveMetaStoreClient可以通过getMetastoreDbUuid()方法访问这个API。
Config Param |
Config Value |
Comment |
hive.metastore.uris |
|
Thrift metastore服务器的主机和端口。如果指定了hive.metastore.thrift.bind.host, host应该与该配置相同。在动态服务发现配置参数中了解更多信息。 |
hive.metastore.local |
|
Metastore是远程的。注意:从Hive 0.10开始不再需要。设置hive.metastore.uri就足够了。 |
hive.metastore.warehouse.dir |
|
指向HDFS中非外部Hive表的默认位置。 |
如果使用MySQL作为元数据的数据存储,在启动Hive Client或HiveMetastore Server之前,请将MySQL jdbc库放在HIVE_HOME/lib目录下。
Database |
Minimum Supported Version |
Name for Parameter Values |
See Also |
MySQL |
5.6.17 |
|
|
Postgres |
9.1.13 |
postgres | |
Oracle |
11g |
|
hive.metastore.orm.retrieveMapNullsAsEmptyStrings |
MS SQL Server |
2008 R2 |
|
Hive现在会记录metastore数据库中的模式版本,并验证metastore的模式版本是否与将要访问metastore的Hive二进制文件兼容。注意,默认情况下,用于隐式创建或修改现有模式的Hive属性是禁用的。Hive不会试图隐式改变metastore模式。当对旧模式执行Hive查询时,将无法访问metastore。
要抑制模式检查并允许metastore隐式修改模式,您需要在hive-site.xml中将配置属性hive.metastore.schema.verification设置为false。
从0.12版开始,Hive还包括一个离线模式工具来初始化和升级metastore模式。
在第一章节的时候有介绍过metastore里面的库表之间的关系图
掌握如下几个常用的表,就能够基本上玩转Metastore里的内容了。
附一段,根据表名,利用如下几个表查出这个表的重要信息的SQL语句
SELECT concat(a2.name,a1.tbl_name,a4.integer_idx) AS primary_key
,a1.tbl_id
,a1.db_id
,a1.owner AS create_table_auth
,a1.sd_id
,a2.name AS database_name
,a5.param_value AS table_comments
,a1.tbl_name AS TABLE_NAME
,a1.tbl_type AS table_type
,a4.comment AS column_comments
,a4.column_name
,a4.type_name
,a3.location
,a3.input_format
,a3.output_format
,a4.integer_idx
FROM (
SELECT tbl_id
,db_id
,OWNER
,sd_id
,tbl_name
,tbl_type
FROM tbls
WHERE tbl_name = 'table_name'
) a1
LEFT JOIN dbs a2
ON a1.db_id = a2.db_id LEFT
JOIN sds a3
ON a1.sd_id = a3.sd_id
LEFT JOIN columns_v2 a4
ON a3.cd_id = a4.cd_id LEFT
JOIN table_params a5
ON a1.tbl_id = a5.tbl_id
AND a5.param_key = 'comment'
WHERE a2.name <> 'default'
英文名 |
类型 |
中文注释 |
TBL_ID |
bigint(20) |
全表唯一主键 |
CREATE_TIME |
int(11) |
表创建时间,格式是到秒的时间戳 |
DB_ID |
bigint(20) |
DBS 表的id |
LAST_ACCESS_TIME |
int(11) |
|
OWNER |
varchar(767) |
创建表的用户名 |
OWNER_TYPE |
varchar(10) |
|
RETENTION |
int(11) |
|
SD_ID |
bigint(20) |
|
TBL_NAME |
varchar(256) |
表名 |
TBL_TYPE |
varchar(128) |
类型: EXTERNAL_TABLE 外部表 MANAGED_TABLE内部表 VIRTUAL_VIEW 试图 |
VIEW_EXPANDED_TEXT |
mediumtext |
如果是试图的话,试图的SQL语句 |
VIEW_ORIGINAL_TEXT |
mediumtext |
|
IS_REWRITE_ENABLED |
bit(1) |
英文名 |
类型 |
中文注释 |
DB_ID |
bigint(20) |
唯一主键id |
DESC |
Varchar(4000) |
|
DB_LOCATION_URI |
varchar(4000) |
表所属db的路径地址 |
NAME |
varchar(128) |
表所属db的名字 |
OWNER_NAME |
varchar (128) |
表所属账号名字 |
OWNER_TYPE |
varchar (10) |
|
CTLG_NAME |
varchar(256) |
英文名 |
类型 |
中文注释 |
SD_ID |
bigint(20) |
唯一主键id |
CD_ID |
bigint(20) |
|
INPUT_FORMAT |
varchar(4000) |
Input格式 |
IS_COMPRESSED |
bit(1) |
|
IS_STOREDASSUBDIRECTORIES |
bit(1) |
|
location |
varchar(4000) |
数据存储路径 |
NUM_BUCKETS |
Int(11) |
|
OUTPUT_FORMAT |
varchar(4000) |
Output格式 |
SERDE_ID |
bigint(20) |
英文名 |
类型 |
中文注释 |
CD_ID |
bigint(20) |
跟sds表的cd_id关联 |
COMMENT |
varchar(4000) |
注释信息 |
COLUMN_NAME |
bit(1) |
列名 |
TYPE_NAME |
bit(1) |
列值类型 |
INTEGER_IDX |
varchar(4000) |
列在表中的顺序 |
英文名 |
类型 |
中文注释 |
TBL_ID |
bigint(20) |
跟tbls表的tbl_id关联 |
PARAM_KEY |
varchar(4000) |
comment –> 表注释 EXTERNAL –> 是否是外部表 parquet.compression –> 是否压缩 transient_lastDdlTime –> 最近一次ddl时间(时间戳) |
PARAM_VALUE |
bit(1) |
Key对的value值 |
官方hive接口文档地址:https://hive.apache.org/javadocs/ ,在这个上面可以选择对应的hive版本之后再详细看里面的接口。
由于接口比较多,挑选几个重要的详细说明下
//获取所有的数据库
getAllDatabases
//获取所有的表名
getAllTables
//获取分区信息
getPartition
//获取schema信息
getSchema
//获取函数信息
getFunctions
import org.apache.hadoop.hive.conf.HiveConf;
import org.apache.hadoop.hive.metastore.HiveMetaStoreClient;
import org.apache.hadoop.hive.metastore.api.FieldSchema;
import org.apache.hadoop.hive.metastore.api.MetaException;
import org.apache.hadoop.hive.metastore.api.Table;
import org.apache.thrift.TException;
import java.util.List;
public class HiveMetastoreApi {
public static void main(String[] args) {
HiveConf hiveConf = new HiveConf();
hiveConf.addResource("hive-site.xml");
HiveMetaStoreClient client = null;
try {
client = new HiveMetaStoreClient(hiveConf);
} catch (MetaException e) {
e.printStackTrace();
}
//获取数据库信息
List<String> tablesList = null;
try {
tablesList = client.getAllTables("db_name");
} catch (MetaException e) {
e.printStackTrace();
}
System.out.print("db_name 数据所有的表: ");
for (String s : tablesList) {
System.out.print(s + "\t");
}
System.out.println();
//获取表信息
System.out.println("db_name.table_name 表信息: ");
Table table = null;
try {
table = client.getTable("db_name", "table_name");
} catch (TException e) {
e.printStackTrace();
}
List<FieldSchema> fieldSchemaList = table.getSd().getCols();
for (FieldSchema schema : fieldSchemaList) {
System.out.println("字段: " + schema.getName() + ", 类型: " + schema.getType());
}
client.close();
}
}
文章浏览阅读290次,点赞8次,收藏10次。1.背景介绍稀疏编码是一种用于处理稀疏数据的编码技术,其主要应用于信息传输、存储和处理等领域。稀疏数据是指数据中大部分元素为零或近似于零的数据,例如文本、图像、音频、视频等。稀疏编码的核心思想是将稀疏数据表示为非零元素和它们对应的位置信息,从而减少存储空间和计算复杂度。稀疏编码的研究起源于1990年代,随着大数据时代的到来,稀疏编码技术的应用范围和影响力不断扩大。目前,稀疏编码已经成为计算...
文章浏览阅读217次。EasyGBS - GB28181 国标方案安装使用文档下载安装包下载,正式使用需商业授权, 功能一致在线演示在线API架构图EasySIPCMSSIP 中心信令服务, 单节点, 自带一个 Redis Server, 随 EasySIPCMS 自启动, 不需要手动运行EasySIPSMSSIP 流媒体服务, 根..._easygbs-windows-2.6.0-23042316使用文档
文章浏览阅读1.2k次,点赞27次,收藏7次。2023巅峰极客 BabyURL之前AliyunCTF Bypassit I这题考查了这样一条链子:其实就是Jackson的原生反序列化利用今天复现的这题也是大同小异,一起来整一下。_原生jackson 反序列化链子
文章浏览阅读734次,点赞9次,收藏7次。微服务架构简单的说就是将单体应用进一步拆分,拆分成更小的服务,每个服务都是一个可以独立运行的项目。这么多小服务,如何管理他们?(服务治理 注册中心[服务注册 发现 剔除])这么多小服务,他们之间如何通讯?这么多小服务,客户端怎么访问他们?(网关)这么多小服务,一旦出现问题了,应该如何自处理?(容错)这么多小服务,一旦出现问题了,应该如何排错?(链路追踪)对于上面的问题,是任何一个微服务设计者都不能绕过去的,因此大部分的微服务产品都针对每一个问题提供了相应的组件来解决它们。_spring cloud
文章浏览阅读5.9k次,点赞6次,收藏20次。Js实现图片点击切换与轮播图片点击切换<!DOCTYPE html><html> <head> <meta charset="UTF-8"> <title></title> <script type="text/ja..._点击图片进行轮播图切换
文章浏览阅读10w+次,点赞245次,收藏1.5k次。在开始安装前,如果你的电脑装过tensorflow,请先把他们卸载干净,包括依赖的包(tensorflow-estimator、tensorboard、tensorflow、keras-applications、keras-preprocessing),不然后续安装了tensorflow-gpu可能会出现找不到cuda的问题。cuda、cudnn。..._tensorflow gpu版本安装
文章浏览阅读243次。0x00 简介权限滥用漏洞一般归类于逻辑问题,是指服务端功能开放过多或权限限制不严格,导致攻击者可以通过直接或间接调用的方式达到攻击效果。随着物联网时代的到来,这种漏洞已经屡见不鲜,各种漏洞组合利用也是千奇百怪、五花八门,这里总结漏洞是为了更好地应对和预防,如有不妥之处还请业内人士多多指教。0x01 背景2014年4月,在比特币飞涨的时代某网站曾经..._使用物联网漏洞的使用者
文章浏览阅读786次。A. Epipolar geometry and triangulationThe epipolar geometry mainly adopts the feature point method, such as SIFT, SURF and ORB, etc. to obtain the feature points corresponding to two frames of images. As shown in Figure 1, let the first image be and th_normalized plane coordinates
文章浏览阅读708次,点赞2次,收藏3次。开放信息抽取(OIE)系统(三)-- 第二代开放信息抽取系统(人工规则, rule-based, 先关系再实体)一.第二代开放信息抽取系统背景 第一代开放信息抽取系统(Open Information Extraction, OIE, learning-based, 自学习, 先抽取实体)通常抽取大量冗余信息,为了消除这些冗余信息,诞生了第二代开放信息抽取系统。二.第二代开放信息抽取系统历史第二代开放信息抽取系统着眼于解决第一代系统的三大问题: 大量非信息性提取(即省略关键信息的提取)、_语义角色增强的关系抽取
文章浏览阅读1.1w次,点赞6次,收藏51次。快速完成网页设计,10个顶尖响应式HTML5网页模板助你一臂之力为了寻找一个优质的网页模板,网页设计师和开发者往往可能会花上大半天的时间。不过幸运的是,现在的网页设计师和开发人员已经开始共享HTML5,Bootstrap和CSS3中的免费网页模板资源。鉴于网站模板的灵活性和强大的功能,现在广大设计师和开发者对html5网站的实际需求日益增长。为了造福大众,Mockplus的小伙伴整理了2018年最..._html欢迎页面
文章浏览阅读282次。原标题:2018全国计算机等级考试调整,一、二级都增加了考试科目全国计算机等级考试将于9月15-17日举行。在备考的最后冲刺阶段,小编为大家整理了今年新公布的全国计算机等级考试调整方案,希望对备考的小伙伴有所帮助,快随小编往下看吧!从2018年3月开始,全国计算机等级考试实施2018版考试大纲,并按新体系开考各个考试级别。具体调整内容如下:一、考试级别及科目1.一级新增“网络安全素质教育”科目(代..._计算机二级增报科目什么意思
文章浏览阅读240次。conan简单使用。_apt install conan