往硬盘文件里写数据 序列化:序列化是将对象转换为容易传输的格式的过程.例如,可以序列化一个对象,然后使用 HTTP 通过 Internet 在客户端和服务器之间传输该对象.在另一端,反序列化将从该流重新构造对象. 是对象永久化的一种机制. 确切的说应该是对象的序列化,一般程序在运行时,产生对象,这些对象随着程序的停止运行而消失,但如果我们想把某些对象(因为是对象,所以有各自不同的特性)保存下来,在程序终止运行后,这些对象仍然存在,可以在程序再次运行时读取这些对象的值,或者在其他程序中利用这些保存…
参考之前整理过的Java序列化与反序列化:https://www.cnblogs.com/BigJunOba/p/9127414.html 使用对象输入输出流可以实现对象序列化与反序列化,可以直接存取对象. 将对象存入一个流被称为序列化,而从一个流将对象读出被称为反序列化. 对象序列化与反序列化的过程: 1.被序列化的对象必须实现java.io.Serializable接口,否则不能实现序列化. public class Employee implements Serializable{ ...…
package seday07; import java.io.FileOutputStream;import java.io.IOException;import java.io.OutputStreamWriter; /** * @author xingsir * 字符流 * java将流按照读写数据的单位画分为了两类: 字节流:以字节为单位读写数据,超类:InputStream,OutputStream 字符流:以字符为单位读写数据,超类:Reader,Writer * * 字符流底层实际…
package seday07; import java.io.IOException;import java.io.PrintWriter; /*** @author xingsir * 缓冲字符流 * java.io.BufferedWriter * java.io.BufferedReader * 缓冲字符流内部有缓冲区,读写字符效率高.并可按行读写字符串. * 但是比较常用的缓冲字符输出流为:PrintWriter,它内部链接 * BufferedWriter作为其缓冲加速,而它自身有提…
package seday06; import java.io.Serializable;import java.util.Arrays; /** * @author xingsir * 使用当前类来测试对象流的对象读写操作 * 当前类实例若想被对象流进行读写,那么必须实现接口:java.io.Serializable */public class Person implements Serializable { private static final long serialVersionUI…
hive> select product_id, track_time from trackinfo limit 5; Total MapReduce jobs = 1 Launching Job 1 out of 1 Number of reduce tasks is set to 0 since there's no reduce operator org.apache.hadoop.ipc.RemoteException: java.io.IOException: java.io.IOEx…
java.io.OutputStream & java.io.FileOutputStream 1.Java.io.OutputStream(字节输出流) 字节输出流,这是一个抽象类,是表示输出字节流的所有类的超类.下面是该类的子类都共有的方法: 方法 作用 public void close() 关闭输出流并释放与此流相关的任何系统资源 public void flush() 刷新输出流,并强制任何缓冲的输出字节被写出 public void write(byte[] b) 将b.length…
任务一直报错 现象比较奇怪,部分任务可以正常跑,部分问题报错 报错信息如下: Ended Job = job_1527476268558_132947 with exception 'java.io.IOException(java.net.ConnectException: Call From xxx/xxx to xxx:10020 failed on connection exception: java.net.ConnectException: 拒绝连接; For more detail…
最近由于数据库的全备出问题了,所以一直在观察. 刚好发现很多不需要的数据,就删了几百个G的数据吧. 今天突然就报这个问题. java.io.IOException: java.sql.SQLException: ORA: index 'BTO.PK_xxxxx' or partition of such index is in unusable state 索引处于不可用状态. 重建索引 OK…
sqoop从mysql导入到hive报错: 18/08/22 13:30:53 ERROR tool.ImportTool: Import failed: java.io.IOException: java.lang.ClassNotFoundException: org.apache.hadoop.hive.conf.HiveConf at org.apache.sqoop.hive.HiveConfig.getHiveConf(HiveConfig.java:50) at org.apach…