查看数据库
show databases;
进入数据库
use 库名
查看表
show tables;
select * from 表名
hdfs传输spark sql查询
hive找到指定路径sql查询
vim gouzheng.txt 文件名字
放入数据
1 赵强 22 m 山西阳泉
2 李鹏波 21 m 河北邯郸
3 薛晋 26 m 山西运城
4 孙帅 21 m 河北张家口
5 杨老师 32 m 辽宁开原
6 李宇辉 24 m 河北张家口
7 钱万丰 24 m 山东梁山
8 王小佳 26 m 辽宁鞍山
9 李爽 18 f 辽宁鞍山
10 孙铭浩 18 m 辽宁鞍山
11 王坤华 20 m 河北邢台
12 王传芝 26 m 四川南充
13 梁红 18 f 甘肃张掖
14 牛睿 27 m 山西运城
15 马铭见 27 m 河北唐山
16 赵俊杰 21 m 内蒙包头
17 梁越 19 m 山西运城
18 秦凤 18 f 内蒙古呼和浩特
19 孙晓云 18 f 新疆乌鲁木齐
20 何明 24 m 黑龙江齐齐哈尔
21 张旭 16 m 黑龙江大庆
22 张江涛 21 m 山西运城
23 杨惠 18 m 山西运城
24 黄则铭 25 m 山西运城
25 宋旭 21 m 黑龙江绥化
26 肖鹏程 18 m 河北张家口
27 唐凤龙 23 m 黑龙江哈尔滨
28 许月月 18 f 山西运城
29 徐果 22 m 安徽六安
#将文件上传到Hdfs
hdfs dfs -put gouzheng.txt /
#查看
hdfs dfs -cat /gouzheng.txt
#打开spark-shell
 
 val lineRDD = sc.textFile("hdfs://hadoop:9000/gouzheng.txt").map(_.split(" "))
 
 case class Person(id:Int, name:String, age:Int, Sex:String, s_local:String)
 
 val personRDD = lineRDD.map(x => Person(x(0).toInt, x(1), x(2).toInt, x(3), x(4)))
 
  val personDF = personRDD.toDF
 
  personDF.show
 
如果出现权限问题的话
hdfs dfs -chmod 777 /
 
______________________________________________________________________
#进入hive
create 数据库
use 数据库
creat 表格
create table test(
id int,
name string,
age int,
gender char(1),
s_local string)
ROW FORMAT DELIMITED
FIELDS TERMINATED BY ' '
STORED AS TEXTFILE;
use 表格
#指定路径
load data local inpath '/root/gouzheng.txt' into table test;
#查询即可
 
 ——————————————————————————
HIVE的连接模式== 本地连接模式 直接启动hive命令
HIVE的远程连接 这里要启动HIVE的服务 thirft进行编写
hiveserver2 —- > 前台启动 后台启动
前台启动 hiveserver2
后台启动 hiveserver2 &
#进入beeline
  1. !connect jdbc:hive2://10.0.0.11:10000
  2. #或者
  3. beeline -u jdbc:hive2://10.0.0.11:10000 -n root
 
 
 
 
 
 
 
 
 
 
 
 

sqarkSQL hiveSql的更多相关文章

  1. Etl之HiveSql调优(设置map reduce 的数量)

    前言: 最近发现hivesql的执行速度特别慢,前面我们已经说明了left和union的优化,下面咱们分析一下增加或者减少reduce的数量来提升hsql的速度. 参考:http://www.cnbl ...

  2. Etl之HiveSql调优(left join where的位置)

    一.前言 公司实用Hadoop构建数据仓库,期间不可避免的实用HiveSql,在Etl过程中,速度成了避无可避的问题.本人有过几个数据表关联跑1个小时的经历,你可能觉得无所谓,可是多次Etl就要多个小 ...

  3. HiveSQL解析过程详解 | 学步园

    HiveSQL解析过程详解 | 学步园   http://www.xuebuyuan.com/2210261.html

  4. 大数据之hiveSQL

    最近增加了学习java基础算法,包括几种排序算法,二叉树(前序,后序,中序),队列和栈,bmp搜索,广义搜索算法,迭代等等一些技巧(自己动手绝对比单纯的理论要强的多,多练练) HIVE是hadoop生 ...

  5. [Hive]HiveSQL解析原理

    Hive是基于Hadoop的一个数据仓库系统,在各大公司都有广泛的应用.美团数据仓库也是基于Hive搭建,每天执行近万次的Hive ETL计算流程,负责每天数百GB的数据存储和分析.Hive的稳定性和 ...

  6. 带limit的hivesql排序

    带limit的hivesql排序   select requestdomain,count(1) as cnt from ods_cndns_real_log where dt = 20160707 ...

  7. 3、Hive-sql优化,数据倾斜处理

    一.Hive-sql优化 #增加reducer任务数量(拉取数量分流) ; #在同一个sql中的不同的job是否可以同时运行,默认为false set hive.exec.parallel=true; ...

  8. 执行HiveSQL出现的问题

    -- ::, INFO [main] org.apache.hadoop.hive.ql.exec.ReduceSinkOperator: RECORDS_OUT_INTERMEDIATE:, -- ...

  9. hivesql笔记

    一.常用聚合函数 count():计数 count(distinct 字段) 去重统计 sum():求合 avg():平均 max():最大值 min():最小值 二.hivesql执行顺序 from ...

随机推荐

  1. jQuery系列(八):jQuery的位置信息

    1.宽度和高度 (1):获取宽度 .width() 描述:为匹配的元素集合中获取第一个元素的当前计算宽度值.这个方法不接受任何参数..css(width) 和 .width()之间的区别是后者返回一个 ...

  2. Django基础之Session版登录验证

    from functools import wraps def check_login(func): @wraps(func) def inner(request, *args, **kwargs): ...

  3. Yet Another Division Into Teams

    E. Yet Another Division Into Teams 首先要想明白一个东西,就是当一个小组达到六个人的时候,它一定可以拆分成两个更优的小组. 这个题可以用动态规划来写,用一个数组来保存 ...

  4. airflow自动生成dag

    def auto_create_dag(): dag_list=[] dag = DAG() dag_list.append(dag) return dag_list dags = auto_crea ...

  5. 预处理、const、static与sizeof-C++中const有什么作用(至少说出3个)

    1:作用如下: (1)const用于定义常量:const定义的常量编译器可以对其进行数据静态类型安全检查. (2)const修饰函数形式的参数:当输入参数为用户自定义类型和抽象数据类型时,应该将“值传 ...

  6. C/C++程序基础-标准头文件的结构

    1:标准头文件有如下结构,请解释. #ifndef _INCvxWorksh #define _INCvxWorksh#ifdef _cplusplus extern "C"{ # ...

  7. MySort(选做)

    一.题目要求 注意:研究sort的其他功能,要能改的动代码,需要答辩 模拟实现Linux下Sort -t : -k 2的功能. 要有伪代码,产品代码,测试代码(注意测试用例的设计) 参考 Sort的实 ...

  8. Python驱动Headless Chrome

    Headelss 比Headed的浏览器在内存消耗,运行时间,CPU占用都更具优势 from selenium import webdriverfrom selenium.webdriver.chro ...

  9. 性能测试 | 理解单线程的Redis为何那么快?

    前言 Redis是一种基于键值对(Key-Value)的NoSQL数据库,Redis的Value可以由String,hash,list,set,zset,Bitmaps,HyperLogLog等多种数 ...

  10. docker内时间问题

    修改配置文件来修改时区1.修改/etc/sysconfig/clock         ZONE=Asia/Shanghai 2.rm /etc/localtime 3.链接到上海时区文件       ...