一、HQL初步试用

1、创建一个student表

#创建一个student表
hive> create table student(id int, name string) ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t';
OK
Time taken: 0.028 seconds
hive> show tables;
OK
bf_log
student
Time taken: 0.01 seconds, Fetched: 2 row(s) #因为数据是存在HDFS的文件中,ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t' 就是指定数据之间的分隔符;

2、准备测试数据

[root@hadoop-senior datas]# touch student.txt

[root@hadoop-senior datas]# vim student.txt     #制表符分割
1001 zhangsan
1002 lisi
1003 wangwu

3、加载数据到hive表中

hive> load data local inpath '/opt/datas/student.txt' into table student;
Copying data from file:/opt/datas/student.txt
Copying file: file:/opt/datas/student.txt
Loading data to table default.student
Table default.student stats: [numFiles=1, numRows=0, totalSize=45, rawDataSize=0]
OK
Time taken: 0.222 seconds

4、查询

#查询全部,不会走MapReduce
hive> select * from student;
OK
1001 zhangsan
1002 lisi
1003 wangwu
Time taken: 0.023 seconds, Fetched: 3 row(s) #查询部分,就会走MapReduce
hive> select id from student;
Total jobs = 1
Launching Job 1 out of 1
Number of reduce tasks is set to 0 since there's no reduce operator
Starting Job = job_1554717689707_0003, Tracking URL = http://hadoop-senior.ibeifeng.com:8088/proxy/application_1554717689707_0003/
Kill Command = /opt/modules/hadoop-2.5.0/bin/hadoop job -kill job_1554717689707_0003
Hadoop job information for Stage-1: number of mappers: 1; number of reducers: 0
2019-04-18 18:04:48,120 Stage-1 map = 0%, reduce = 0%
2019-04-18 18:04:53,240 Stage-1 map = 100%, reduce = 0%, Cumulative CPU 0.85 sec
MapReduce Total cumulative CPU time: 850 msec
Ended Job = job_1554717689707_0003
MapReduce Jobs Launched:
Job 0: Map: 1 Cumulative CPU: 0.85 sec HDFS Read: 268 HDFS Write: 15 SUCCESS
Total MapReduce CPU Time Spent: 850 msec
OK
1001
1002
1003
Time taken: 10.565 seconds, Fetched: 3 row(s)

二、安装mysql存储元数据

1、准备安装包

#卸载自带的mysql
[root@hadoop-senior softwares]# rpm -qa |grep mysql
mysql-libs-5.1.71-1.el6.x86_64 [root@hadoop-senior softwares]# rpm -e mysql-libs-5.1.71-1.el6.x86_64 --nodeps #
[root@hadoop-senior ~]# cd /opt/softwares/ [root@hadoop-senior softwares]# unzip mysql-libs.zip #
[root@hadoop-senior softwares]# cd mysql-libs [root@hadoop-senior mysql-libs]# ls
MySQL-client-5.6.24-1.el6.x86_64.rpm mysql-connector-java-5.1.27.tar.gz MySQL-server-5.6.24-1.el6.x86_64.rpm

2、安装启动

#安装server端
[root@hadoop-senior mysql-libs]# rpm -ivh MySQL-server-5.6.24-1.el6.x86_64.rpm #会生成随机密码,在/root/.mysql_secret里 [root@hadoop-senior ~]# cat /root/.mysql_secret
# The random password set for the root user at Fri Apr 19 09:29:24 2019 (local time): O9zwV6WQljcMkzRa #安装client
[root@hadoop-senior mysql-libs]# rpm -ivh MySQL-client-5.6.24-1.el6.x86_64.rpm #启动
[root@hadoop-senior mysql-libs]# service mysql start
Starting MySQL. [确定] [root@hadoop-senior mysql-libs]# service mysql status
MySQL running (24085) [确定] [root@hadoop-senior mysql-libs]# netstat -ntlp |grep 3306
tcp 0 0 :::3306 :::* LISTEN 24085/mysqld

3、连接mysql,改密码

#改密码
[root@hadoop-senior mysql-libs]# mysql -uroot -pO9zwV6WQljcMkzRa #密码是刚才自动生成的
......
mysql> set password=password('123456');
Query OK, 0 rows affected (0.00 sec)
mysql> exit
Bye #新密码连接
[root@hadoop-senior mysql-libs]# mysql -uroot -p123456
......
mysql>

4、授权mysql的root用户

#
[root@hadoop-senior ~]# hostname
hadoop-senior.ibeifeng.com #连入mysql操作
mysql> grant all privileges on *.* to root@'%' identified by '123456';
Query OK, 0 rows affected (0.00 sec) mysql> grant all privileges on *.* to 'root'@'hadoop-senior.ibeifeng.com' identified by '123456' with grant option;
Query OK, 0 rows affected (0.00 sec) mysql> select User,Host,Password from user;
+------+----------------------------+-------------------------------------------+
| User | Host | Password |
+------+----------------------------+-------------------------------------------+
| root | localhost | *6BB4837EB74329105EE4568DDA7DC67ED2CA2AD9 |
| root | hadoop-senior.ibeifeng.com | *6BB4837EB74329105EE4568DDA7DC67ED2CA2AD9 |
| root | 127.0.0.1 | *D25D1C957F2E56F330D565256AE9D88C49E7194D |
| root | ::1 | *D25D1C957F2E56F330D565256AE9D88C49E7194D |
| root | % | *6BB4837EB74329105EE4568DDA7DC67ED2CA2AD9 |
+------+----------------------------+-------------------------------------------+
5 rows in set (0.00 sec) mysql> delete from user where User='root' and Host='hadoop-senior.ibeifeng.com';
Query OK, 1 row affected (0.00 sec) mysql> delete from user where User='root' and Host='127.0.0.1';
Query OK, 1 row affected (0.00 sec) mysql> delete from user where User='root' and Host='::1';
Query OK, 1 row affected (0.00 sec) mysql> delete from user where User='root' and Host='localhost';
Query OK, 1 row affected (0.00 sec) mysql> flush privileges;
Query OK, 0 rows affected (0.00 sec) mysql> select User,Host,Password from user;
+------+------+-------------------------------------------+
| User | Host | Password |
+------+------+-------------------------------------------+
| root | % | *6BB4837EB74329105EE4568DDA7DC67ED2CA2AD9 |
+------+------+-------------------------------------------+
1 row in set (0.00 sec) mysql> exit;

1.5 Hive初步使用和安装MySQL的更多相关文章

  1. Hive初步使用、安装MySQL 、Hive配置MetaStore、配置Hive日志《二》

    一.Hive的简单使用 基本的命令和MySQL的命令差不多 首先在 /opt/datas 下创建数据  students.txt 1001 zhangsan 1002 lisi 1003 wangwu ...

  2. Hive基础概念、安装部署与基本使用

    1. Hive简介 1.1 什么是Hive Hives是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供类SQL查询功能. 1.2 为什么使用Hive ① 直接使用 ...

  3. ubuntu安装mysql遇到的坑----解决Mysql报错缺少libaio.so.1

    最近学习大数据,涉及到hive的部分需要安装mysql,于是就在linux环境下尝试安装,对于我这个linux小白来说,中间遇到很多坑爹问题,在这里做一个记录. 我参考的mysql安装博客: http ...

  4. spark安装mysql与hive

    第一眼spark安装文件夹lib\spark-assembly-1.0.0-hadoop2.2.0.jar\org\apache\spark\sql下有没有hive文件夹,假设没有的话先下载支持hiv ...

  5. 安装MySQL与安装Hive

    安装mysql 检查是否安装mysql: rpm -qa |grep mysql 删除已经安装的mysql: rpm -e mysql-libs-5.1.71-1.el6.x86_64 报错:因为my ...

  6. 60分钟内从零起步驾驭Hive实战学习笔记(Ubuntu里安装mysql)

    本博文的主要内容是: 1. Hive本质解析 2. Hive安装实战 3. 使用Hive操作搜索引擎数据实战 SparkSQL前身是Shark,Shark强烈依赖于Hive.Spark原来没有做SQL ...

  7. hive0.13.1安装-mysql server作为hive的metastore

    hive0.13.1在hadoop2.4.1伪分布式部署上安装过程 环境:redhat enterprice 6.5 +hadoop2.4.1+hive0.13.1+mysql单节点伪分布式部署 相关 ...

  8. HIVE 2.1.0 安装教程。(数据源mysql)

    前期工作 安装JDK 安装Hadoop 安装MySQL 安装Hive 下载Hive安装包 可以从 Apache 其中一个镜像站点中下载最新稳定版的 Hive, apache-hive-2.1.0-bi ...

  9. Hive 安装 & Mysql 安装

    安装Hive && mysql (1)安装Hive Hive安装所需要的依赖(安装Hive前必须先安装jdk.hadoop) 1)jdk1.6以上 2)Hadoop要启动 未安装jdk ...

随机推荐

  1. 【每日Scrum】第二天(4.12) TD学生助手Sprint1站立会议

    TD学生助手Sprint1站立会议(4.12) 任务看板 站立会议内容 组员 昨天 今天 困难 签到 刘铸辉 (组长) 做了几个Sqlite编辑事件导入数据库没成功,就编辑图片滑动显示功能 今天学习了 ...

  2. ListView优化总结(二)--Android

    3.使用Activity和Delegate与适配器交互 这个内容是从书里看到的,通过托付模式帮助开发人员把全部的业务逻辑从适配器中移到Activity中. 以下是加入电话号码的样例,列表中每一行都有一 ...

  3. Selenium学习(二)入门小例子

    1)打开百度页面 2)输入“hello” 3)点击百度一下按钮 from selenium import webdriver url = "http://" + "www ...

  4. 图像处理之滤波---滤波在游戏中的应用boxfilter

    http://www.yxkfw.com/?p=7810 很有意思的全方位滤波应用 https://developer.nvidia.com/sites/default/files/akamai/ga ...

  5. Refusing to install package with name “XXXX”

    我的执行步骤 我创建了一个名叫express的文件夹,想在这个工程中学习express 进入该文件夹,执行npm init来初始化package.json文件,一直回车. 我们会发现当前文件夹多了一个 ...

  6. 【甘道夫】Eclipse+Maven搭建HBase开发环境及HBaseDAO代码演示样例

    环境: Win764bit Eclipse Version: Kepler Service Release 1 java version "1.7.0_40" 第一步:Eclips ...

  7. mysql general log开启

    #先查看当前状态 mysql> show variables like 'general%'; +------------------+----------------------------- ...

  8. LR添加Windows和Linux压力机实战

    添加Windows和Linux压力机实战 既然Controller是LoadRunner的“心脏”,那么压力产生也必然是它发起的,通过压力机来对被测系统产生压力.一般压力机分为Windows和Linu ...

  9. HTML5 实现文件拖放上传

    1. [图片] 5375acf5gw1dusqsscfksj.jpg ​2. [代码][HTML]代码 <!DOCTYPE html><html lang="en" ...

  10. JS倒计时,距离某一日期还有多少时间

    JS计算从现在到某个时刻还有多少时间,显示当前日期时间距离x年x月x日还有x天x小时x分钟x秒,如果给定时间比当前时间更早,则显示为距离2012-9-30已过去1天22小时26分30秒的格式,如果给定 ...