java程序向hdfs中追加数据,异常以及解决方案
今天在学习hdfs时,遇到问题,就是在向hdfs中追加数据总是报错,在经过好几个小时的努力之下终于将他搞定
解决方案如下:在hadoop的hdfs-sit.xml中添加一下三项
- <property> 
 <name>dfs.support.append</name>
 <value>true</value>
 </property>- 注:hdfs默认是不支持追加数据的 
- <property> 
 <name>dfs.client.block.write.replace-datanode-on-failure.policy</name>
 <value>NEVER</value>
 </property>
- <property> 
 <name>dfs.client.block.write.replace-datanode-on-failure</name>
 <value>true</value>
 </property>- 因为我是从window本地的eclipse传文件上去,所以还要再java程序中声明一下以上三个配置项 
本人代码如下:
@Test
public void updateload() throws IOException, Exception {
System.setProperty("hadoop.home.dir", "D:\\hadoop-2.4.1");
//配置文件
Configuration conf = new Configuration();
conf.set("fs.defaultFS", "hdfs://192.168.252.200:9000/");
conf.setBoolean("dfs.support.append", true);
conf.setBoolean("dfs.client.block.write.replace-datanode-on-failure", true);
conf.set("dfs.client.block.write.replace-datanode-on-failure.policy", "NEVER");
//首先要拿到客户端的对象
FileSystem fs = FileSystem.get(new URI("hdfs://192.168.252.200:9000/"), conf, "hadoop");
//hdfs上的路径
Path dst = new Path("hdfs://192.168.252.200:9000/aa/f.txt");
//设置元数据的地址
FileInputStream is = new FileInputStream("d:/a.txt");
//判断目的文件是否存在
if(fs.exists(dst)) {
System.out.println("路径已存在");
FSDataOutputStream os = fs.append(dst);
//上传文件
IOUtils.copy(is, os);
os.close();
is.close();
fs.close();
}else {
//打开输出流,向hdfs上输出
FSDataOutputStream os = fs.create(dst);
//上传文件
IOUtils.copy(is, os);
os.close();
is.close();
fs.close();
} }
本人用用的hadoop版本是2.4.1,希望对改为有用
java程序向hdfs中追加数据,异常以及解决方案的更多相关文章
- java jxl 向Excel中追加数据而不覆盖原来数据的例子
		向先原来就有数据的Excel写数据是不会覆盖原有的数据,只是在追加数据. public class Excel { public Excel() { } public void ... 
- Hadoop(八)Java程序访问HDFS集群中数据块与查看文件系统
		前言 我们知道HDFS集群中,所有的文件都是存放在DN的数据块中的.那我们该怎么去查看数据块的相关属性的呢?这就是我今天分享的内容了 一.HDFS中数据块概述 1.1.HDFS集群中数据块存放位置 我 ... 
- Sqoop2 将hdfs中的数据导出到MySQL
		1.进入sqoop2终端: [root@master /]# sqoop2 2.为客户端配置服务器: sqoop:000> set server --host master --port 120 ... 
- Linux启动kettle及linux和windows中kettle往hdfs中写数据(3)
		在xmanager中的xshell运行进入图形化界面 sh spoon.sh 新建一个job 
- hbase使用MapReduce操作4(实现将 HDFS 中的数据写入到 HBase 表中)
		实现将 HDFS 中的数据写入到 HBase 表中 Runner类 package com.yjsj.hbase_mr2; import com.yjsj.hbase_mr2.ReadFruitFro ... 
- Java程序在内存中运行详解
		目录 Java程序在内存中运行详解 一.JVM的内存分布 二.程序执行的过程 三.只有一个对象时的内存图 四.两个对象使用同一个方法的内存图 五.两个引用指向同一个对象的内存图 六.使用对象类型作为方 ... 
- NOPI读取模板导出(Excel中追加数据)
		在Controller里,我们定义一个FileResult的Action,返回值是一个文件形式被浏览器下载下来. [HttpGet] public FileResult ExportProductLi ... 
- 向HDFS中追加内容
		向生成好的hdfs文件中追加内容,但是线上使用的版本是1.0.3,查看官方文档发现,在1.0.4版本以后才支持文件append 以下是向hdfs中追加信息的操作方法 如果你只在某一个driver中追加 ... 
- HDFS中的数据块(Block)
		我们在分布式存储原理总结中了解了分布式存储的三大特点: 数据分块,分布式的存储在多台机器上 数据块冗余存储在多台机器以提高数据块的高可用性 遵从主/从(master/slave)结构的分布式存储集群 ... 
随机推荐
- CloudStack  全局参数设置
			mem.overprovisioning.factor 内存超分参数 cpu.overprovisioning.factor cpu超分参数 
- CTF中的变量覆盖漏洞
			https://www.cnblogs.com/bmjoker/p/9025351.html 原 作 者:bmjoker出 处:https://www.cnblogs.com/bmjoker/p/ ... 
- 使用delphi 开发多层应用(二十一)使用XE5 RESTClient 直接访问kbmmw 数据库
			delphi XE5 出来了,增加了android 的开发支持,另外增加了一个RESTClient 来支持访问REST 服务器. 这个功能非常强大,可以直接使用非常多的REST 服务器.同时也可以支持 ... 
- ASP.NET WEBAPI设计(文摘)
			HTML5和移动应用推动WEB API的发展 第1部分 基础知识 第1章 因特网,万维网和HTTP协议 1.1 WEB体系结构 资源,URI(统一资源标识符)和表示 URI分为两种类型:URL(统一资 ... 
- HDU 6214 Smallest Minimum Cut (最小割且边数最少)
			题意:给定上一个有向图,求 s - t 的最小割且边数最少. 析:设边的容量是w,边数为m,只要把每边打容量变成 w * (m+1) + 1,然后跑一个最大流,最大流%(m+1),就是答案. 代码如下 ... 
- SSM的项目框架
- 复杂HTML页面解析
			1.层叠样式表CSS可以让html元素呈现出差异化,网络爬虫可以通过class属性的值,轻松分出不同标签 findAll函数通过标签的名称和属性来查找标签 from urllib.request im ... 
- 创建 Android 项目
			创建 Android 项目 上一页下一页 您也应该阅读 项目概览 本课向您介绍如何使用 Android Studio 创建新的 Android 项目并介绍该项目中的一些文件. 在 Android St ... 
- word复制粘贴表格不齐
			1.查找橡皮擦 2.有时候复制粘贴 表格 会将以前的东西格式也粘贴进来,需要清除格式和重新排版 3.word2007清除格式 
- c# 检查报错详细
			catch (DbEntityValidationException error) { string test = string.Empty; foreach (var validationError ... 
