Hive的存储和MapReduce处理——数据清洗(Part2)
日期:2019.11.14
博客期:116
星期四
基本的处理类
import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.PreparedStatement;
import java.sql.ResultSet;
import java.sql.SQLException;
import java.sql.Statement;
import java.util.ArrayList;
import java.util.List; import com.hive.basic.Bean; public class SqlForBean {
public static String databasename = "hive";//数据库名称
public static String username = "root";//登录数据库的用户的用户名
public static String password = "nssxs2489615648";//登录数据库的用户的密码
//插入方法
public static void insert(Bean bean)
{
try {
Class.forName("com.mysql.jdbc.Driver").newInstance(); //MYSQL驱动
Connection conn = DriverManager.getConnection("jdbc:mysql://127.0.0.1:3306/"+databasename, username, password); //链接本地MYSQL
String sql = "insert into result values (";
sql += "'"+bean.getIp()+"',";
sql += "'"+bean.getTime()+"',";
sql += "'"+bean.getDay()+"',";
sql += bean.getTraffic()+",";
sql += "'"+bean.getType()+"',";
sql += "'"+bean.getId()+"')"; PreparedStatement pstmt = (PreparedStatement) conn.prepareStatement(sql);
pstmt.executeUpdate();
pstmt.close(); conn.close();
} catch (SQLException e) {
e.printStackTrace();
} catch (Exception e) {
e.printStackTrace();
}
}
public static void insert(List <Bean> list_bean)
{
int size = list_bean.size();
for(int i=0;i<size;++i)
{
SqlForBean.insert(list_bean.get(i));
}
}
public static List<Bean> getData(){
List <Bean> list = new ArrayList<Bean>(); try
{
Class.forName("com.mysql.jdbc.Driver").newInstance(); //MYSQL驱动
Connection conn = DriverManager.getConnection("jdbc:mysql://127.0.0.1:3306/"+databasename, username, password); //链接本地MYSQL
String sql = " select * from result";
Statement stmt = conn.createStatement();
ResultSet rs = stmt.executeQuery(sql);
while(rs.next())
{
String ip_s = rs.getString("ip");
String time_s = rs.getString("time");
String day_s = rs.getString("day");
int traffic_s = rs.getInt("traffic");
String type_s = rs.getString("type");
String id_s = rs.getString("id");
Bean bean = new Bean(ip_s,time_s,day_s,traffic_s,type_s,id_s);
list.add(bean);
}
}catch(ClassNotFoundException e){
e.printStackTrace();
}catch(IllegalAccessException e){
e.printStackTrace();
}catch(InstantiationException e){
e.printStackTrace();
}catch(SQLException e){
e.printStackTrace();
} return list;
}
}
SqlForBean
Hive的存储和MapReduce处理——数据清洗(Part2)的更多相关文章
- Hive的存储和MapReduce处理——数据清洗
日期:2019.11.13 博客期:115 星期三 Result文件数据说明: Ip:106.39.41.166,(城市) Date:10/Nov/2016:00:01:02 +0800,(日期) D ...
- Hive的存储和MapReduce处理——数据清洗(Part3)
日期:2019.11.17 博客期:118 星期日 这几天在写程序的时候虚拟机崩了,无语~所以重新从最初的状态开始配环境,重新整理之前的所有代码程序.
- 升级版:深入浅出Hadoop实战开发(云存储、MapReduce、HBase实战微博、Hive应用、Storm应用)
Hadoop是一个分布式系统基础架构,由Apache基金会开发.用户可以在不了解分布式底层细节的情况下,开发分布式程序.充分利用集群的威力高速运算和存储.Hadoop实现了一个分布式文件系 ...
- Hive| 压缩| 存储| 调优
Hadoop压缩配置 修改Hadoop集群具有Snappy压缩方式: 查看hadoop支持的压缩方式 [kris@hadoop101 datas]$ hadoop checknative 将编译好的支 ...
- spark2.1:读取hive中存储的多元组(string,double)失败
这两天和同事一起在想着如何把一个表的记录减少,表记录包含了:objectid(主小区信息),gridid(归属栅格),height(高度),rsrp(主小区rsrp),n_objectid(邻区),n ...
- hive优化之调整mapreduce数目
一.调整hive作业中的map数 1.通常情况下,作业会通过input的目录产生一个或者多个map任务.主要的决定因素有: input的文件总个数,input的文件大小,集群设置的文件块大小(目前为1 ...
- Hive快捷查询:不启用Mapreduce job启用Fetch task
启用MapReduce Job是会消耗系统开销的.对于这个问题,从Hive0.10.0版本开始,对于简单的不需要聚合的类似SELECT <col> from <table> L ...
- Hive基础之Hive的存储类型
Hive常用的存储类型有: 1.TextFile: Hive默认的存储类型:文件大占用空间大,未压缩,查询慢: 2.Sequence File:将属于以<KEY,VALUE>的形式序列化到 ...
- HIve数据存储
表 Table 内部表 Partition 分区表 External Table 外部表 Bucket Table 桶表 内部表 分区表 parttion对应于数据库中的Partition列的密集索引 ...
随机推荐
- 吴裕雄--天生自然神经网络与深度学习实战Python+Keras+TensorFlow:使用TensorFlow和Keras开发高级自然语言处理系统——LSTM网络原理以及使用LSTM实现人机问答系统
!mkdir '/content/gdrive/My Drive/conversation' ''' 将文本句子分解成单词,并构建词库 ''' path = '/content/gdrive/My D ...
- idea新建项目相关名词意义
新建项目中的对比 建完之后的项目对比 对比 新建中Artifact的名称对应maven中名字 新建中package的名字对应的是项目中src下package名字 新建中project name的名字对 ...
- L3-022 地铁一日游
floyd算法建立新图,dfs标记~ #include<bits/stdc++.h> using namespace std; ; const int inf=1e9; int d[max ...
- python3下pygame显示中文的设置
1.先看代码: import pygame from pygame.locals import * def main(): pygame.init() screen = pygame.display. ...
- vs2017 vs2019配置sqlite3连接引擎(驱动)指南(二)vs2019续集
在写完上一篇博客后,一觉醒来,又又又又不行了,介绍一个终极大招,如果你的fuck vs又提示无法打开sqlite3.h的问题 环境win10 vs2019 debug x86 实在没心情写文字了,直 ...
- 计划任务cron,date,时间同步ntp,chrony
取出磁盘利用率最大值 ,写个脚本,做判断,只要快满了,就报警 计划周期性执行的任务提交给crond,到指定时间会自动运行 系统cron任务:系统维护作业 /etc/crontab 用户cron任务: ...
- IEEE 802.11r-2008
IEEE 802.11r-2008 or fast BSS transition (FT), also called fast roaming, is an amendment to the IEEE ...
- Linux vim中方向键变成字母的问题
使用Ubuntu Desktop 18.04 时 发现 vim 在编辑模式的时候,方向键变成了字母ABCD. 原因: Ubuntu预装的是vim tiny版本,安装vim full版本即可解决. 1. ...
- state thread api 查询
state thread api 查询: http://state-threads.sourceforge.net/docs/reference.html
- linux磁盘空间挂载
(1)查看磁盘空间 df -hl (3)查看硬盘及分区信息 fdisk -l (4)格式化新分区 mkfs.ext3 /dev/xvdb (5)将磁盘挂载在/www/wwwroot/default目录 ...