写于2016.7月 最近项目需要在hbase上做统计分析,在本机上装了hive,结果跑小批量数据sum时报错: hive> select count(*) from page_view; Total jobs = Launching Job out of Number of reduce tasks determined at compile In order to change the average load for a reducer (in bytes): set hive.exec.r
项目中使用的hive版本低于0.11,无法使用hive在0.11中新加的开窗分析函数. 在项目中需要使用到row_number()函数的地方,有人写了udf来实现这个功能. new java project, BuildPath add hadoop-core..jar and hive-exec…jar. package myudf; import java.util.Arrays; import org.apache.hadoop.hive.ql.exec.UDF; public final
Hive中执行SQL语句时,出现类似于“Display all 469 possibilities? (y or n)”的错误,根本原因是因为SQL语句中存在tab键导致,tab键在linux系统中是有特殊含义的. 基本查询 desc formatted stu_buck;desc stu_buck; 创建部门表 create table if not exists dept( deptno int, dname string, loc int) row format delimited fie
原文地址:http://www.cnblogs.com/breg/p/5552342.html 装了一个多星期的hive on spark 遇到了许多坑.还是写一篇随笔,免得以后自己忘记了.同事也给我一样苦逼的人参考. 先说明一下,这里说的Hive on Spark是Hive跑在Spark上,用的是Spark执行引擎,而不是MapReduce,和Hive on Tez的道理一样. 先看官网的资源Hive on Spark: Getting Started 要想在Hive中使用Spark执行引擎,
目前hive不支持 in或not in 中包含查询子句的语法,所以只能通过left join实现. 假设有一个登陆表login(当天登陆记录,只有一个uid),和一个用户注册表regusers(当天注册用户,字段只有一个uid),这两个表都包含一个字段,uid. in查询 如果要查询当天登陆的注册用户,需要用in查询,hive sql如下: select login.uid from login left outer join regusers on login.uid=regusers.uid