1.Hive 分区partition 必须在表定义时指定对应的partition字段 a.单分区建表语句: create table day_table (id int, content string) partitioned by (dt string); 单分区表,按天分区,在表结构中存在id,content,dt三列. 以dt为文件夹区分 b. 双分区建表语句: create table day_hour_table (id int, content string) partitioned…
Hive的Java客户端操作分为JDBC和Thrifit Client,首先启动Hive远程服务: hive --service hiveserver 一.JDBC 在MyEclipse中首先创建连接 import java.sql.DriverManager; import java.sql.SQLException; public class JDBCUtils { private static String driver="org.apache.hadoop.hive.jdbc.HiveD…
1.HDFS的put上传文件操作的java代码: package Hdfs; import java.io.FileInputStream; import java.io.FileNotFoundException; import java.io.IOException; import java.net.URI; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FSDataOutputStream;…
承接上文,使用Java客户端操作elasticsearch,本文主要介绍 常见的配置 和Sniffer(集群探测) 的使用. 常见的配置 前面已介绍过,RestClientBuilder支持同时提供一个RequestConfigCallback和一个HttpClientConfigCallback,你可以定制 the Apache Async Http Client 公开的配置.这两个回调函数可以修改某些特定的行为,而不会覆盖RestClient初始化的所有其他默认配置. 本节介绍一些需要为客户…
FastDFS 的作者余庆先生已经为我们开发好了 Java 对应的 SDK.这里需要解释一下:作者余庆并没有及时更新最新的 Java SDK 至 Maven 中央仓库,目前中央仓库最新版仍旧是 1.27 版.所以我们需要通过 Github:https://github.com/happyfish100/fastdfs-client-java 下载项目源码,再通过命令 mvn clean install 编译打包导入 Maven 本地仓库使用即可. 接下来我们通过 Java API 操作 Fast…
hive   ddl 操作官方手册https://cwiki.apache.org/confluence/display/Hive/LanguageManual+DDL hive  dml 操作官方手册https://cwiki.apache.org/confluence/display/Hive/LanguageManual+DML   1.创建库 create database test; 2.删除库 drop database test;   3.建表 完整ddl建表语法规则 CREATE…
常用命令: memcached设计的原则就是简单,所以支持的命令也不是特别多~ 1.查看memcached的状态,主要用于分析内存的使用状况.优化内存分配等 stats 查看memcached的运行状态 stats items 查看items的状态 stats slabs 查看slabs的内存分配状态,注重点在性能而非计数 stats sizes 查看 2.存 set 存值,若key已存在会覆盖原值 add 存值,若key已存在保存失败 replace 替换原值,若key不存在替换失败 appe…
1.hive的数据加载方式 1.1.load data 这中方式一般用于初始化的时候 load data [local] inpath '...' [overwrite] into table t1 [partition(...)] -- 如果有local是从linux磁盘加载,如果没带local是从hdfs的某个目录移动到hive中 -- 带上overwrite会覆盖掉表中原来的数据 -- partition 加载到指定分区 1.2.使用查询语句向表中插入数据 insert overwrite…
首先要在windows下解压一个windows版本的hadoop 然后在配置他的环境变量,同时要把hadoop的share目录下的hadoop下的相关jar包拷贝到esclipe 然后Build Path 下面上代码 import java.io.BufferedReader; import java.io.FileInputStream; import java.io.IOException; import java.io.InputStreamReader; import java.net.…
客户端:jedis-2.7.2.jar 配置文件两种方式: properties: redis.cluster.nodes1=192.168.1.117 redis.cluster.port1=7001 redis.cluster.nodes2=192.168.1.117 redis.cluster.port2=7002 redis.cluster.nodes3=192.168.1.117 redis.cluster.port3=7003 redis.cluster.nodes4=192.168…