Hive二 Hive基本使用详解大数据
数据 使用 详解 基本 hive
2023-06-13 09:20:26 时间
创建数据库
partitioned by (month string, day string) row format delimited fields terminated by /t; 加载数据到二级表中
创建一个数据库,数据库在HDFS上的默认存储路径是/user/hive/warehouse/*.db
create database 库名;
避免要创建的数据库已经存在错误,增加if not exists判断。(标准写法)
create database if not exists 库名;
创建一个数据库,指定数据库在HDFS上存放的位置
create database db_hive2 location /db_hive2.db;修改数据库
用户可以使用ALTER DATABASE命令为某个数据库的DBPROPERTIES设置键-值对属性值,来描述这个数据库的属性信息。数据库的其他元数据信息都是不可更改的,包括数据库名和数据库所在的目录位置。
alter database db_hive set dbproperties(createtime=20180830);
在mysql中查看修改结果
desc database extended db_hive;查询数据库 显示数据库
显示数据库
show databases;
过滤显示查询的数据库
show databases like db_hive*;查看数据库详情
显示数据库信息
desc database db_hive;
显示数据库详细信息,extended
desc database extended db_hive;使用数据库
use db_hive;删除数据库 删除空数据库
drop database db_hive2;如果删除的数据库不存在
drop database if exists db_hive2;如果数据库不为空
drop database db_hive cascade;
1.提示:如果将sql语句写到文件中是,可以用:hive -f 文件名的方式来执行文件中的sql语句
2.默认创建的表都为内部表
创建内部表create table if not exists 表名(eid int, name string, sex string) row format delimited fields terminated by /t;
查询表类型
desc formatted 表名;创建外部表
因为表是外部表,所有Hive并非认为其完全拥有这份数据。删除该表并不会删除掉这份数据,不过描述表的元数据信息会被删除掉
建表语句:
create external table if not exists 表名(eid int, name string, sex string) row format delimited fields terminated by /t;外部表使用场景
每天将收集到的网站日志定期流入HDFS文本文件。在外部表(原始日志表)的基础上做大量的统计分析,用到的中间表、结果表使用内部表存储,数据通过SELECT+INSERT进入内部表
向外部表导入本地磁盘数据insert overwrite local directory 本地磁盘路径 ROW FORMAT DELIMITED FIELDS TERMINATED BY /t COLLECTION ITEMS TERMINATED BY /n select * from student;
insert overwrite directory 本地磁盘路径 ROW FORMAT DELIMITED FIELDS TERMINATED BY /t COLLECTION ITEMS TERMINATED BY /n select * from student;
分区表实际上就是对应一个HDFS文件系统上的独立的文件夹,该文件夹下是该分区所有的数据文件。Hive中的分区就是分目录,把一个大的数据集根据业务需要分割成小的数据集。在查询时通过WHERE子句中的表达式选择查询所需要的指定的分区,这样的查询效率会提高很多
创建分区表create table dept_partition( deptno int, dname string, loc string partitioned by (month string) row format delimited fields terminated by /t;加载数据到分区表中
load data local inpath /opt/module/datas/dept.txt into table default.dept_partition partition(month=201709);查询分区表中数据
单分区查询
select * from dept_partition where month=201709;
多分区查询
select * from dept_partition where month=201709 union select * from dept_partition where month=201708 union select * from dept_partition where month=201707;
alter table dept_partition add partition(month=201705) partition(month=201704);
alter table dept_partition drop partition (month=201705), partition (month=201706);
partitioned by (month string, day string) row format delimited fields terminated by /t; 加载数据到二级表中
load data local inpath /opt/module/datas/dept.txt into table default.dept_partition2 partition(month=201709, day=13);查询分区数据
select * from dept_partition2 where month=201709 and day=13;查询展示所有分区
show partitions dept_paritition;
alter table dept_partition2 rename to dept_partition3;增加/修改/替换列信息
alter table dept_partition add columns(deptdesc string);
alter table dept_partition change column deptdesc desc int;
alter table dept_partition replace columns(deptno string, dname string, loc string);
drop table dept_partition;
原创文章,作者:Maggie-Hunter,如若转载,请注明出处:https://blog.ytso.com/9150.html
分布式文件系统,分布式数据库区块链并行处理(MPP)数据库,数据挖掘开源大数据平台数据中台数据分析数据开发数据治理数据湖数据采集相关文章
- 详解使用对象存储服务备份NAS中的数据
- 使用Evaluate方法筛选数据——基于两个条件
- 大数据必学Java基础(一百零二):连接池的使用
- 使用 ggplot2 绘制比较各省份及其区县的详细数据
- 5 种使用 Python 代码轻松实现数据可视化的方法详解编程语言
- Redis集群搭建与简单使用详解大数据
- Ubuntu下MongoDB的安装与使用(离线安装方式|非apt-get)详解大数据
- sparkmlib使用Pipeline实现简单的逻辑回归详解大数据
- 使用MapReduce实现二度人脉搜索算法详解大数据
- 使用 mtools 搭架 mongodb 的自动化日志分析平台详解大数据
- 那些年使用Hive踩过的坑详解大数据
- 如何使用Hibernate对Oracle中Clob类型数据存储和取出详解编程语言
- 使用Redis管理你的数据(redis管理软件)
- 使用Redis的Del命令实现数据删除(redis命令del)
- 数据 如何使用Redis导出数据(redis导出)
- 使用Neo4j进行数据迁移的实践(neo4j的数据迁移)
- 使用Oracle中的两个游标操作数据(oracle两个游标)
- 管理MySQL权限管理:有效使用权限以保护数据(mysql %权限)
- MySQL中使用删除语句快速完成数据的删除(mysql 的删除语句)
- MySQL中使用C语言进行数据删除(c mysql数据删除)
- Oracle中妥善使用非空约束提升数据质量(oracle中非空约束)
- MySQL查询中使用不为空条件,提高数据筛选效率(mysql 不为空条件)
- 使用Redis轻松实现数据去重(利用redis去重)
- Jquery模板数据绑定插件的使用方法详解
- python数据库操作常用功能使用详解(创建表/插入数据/获取数据)