Java接口对Hadoop集群的操作
Java接口对Hadoop集群的操作
首先要有一个配置好的Hadoop集群
这里是我在SSM框架搭建的项目的测试类中实现的
一、windows下配置环境变量
下载文件并解压到C盘或者其他目录。
链接:http://pan.baidu.com/s/1jHHPElg 密码:aufd
配置环境变量
1.配置HADOOP_HOME

2.配置PATH
在PATH中添加
%HADOOP_HOME%\bin
- 1
3.配置HADOOP_USER_NAME
这是Hadoop集群的用户名
HADOOP_USER_NAME root
- 1
二、Maven处理依赖jar包
<!--hadoop依赖-->
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-client</artifactId>
<version>2.7.4</version>
</dependency>
<dependency>
<groupId>commons-io</groupId>
<artifactId>commons-io</artifactId>
<version>2.4</version>
</dependency>
三、创建测试类
package com.mavenssmlr.hadoop;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IOUtils;
import org.junit.Test;
import org.junit.runner.RunWith;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
import org.springframework.test.context.ContextConfiguration;
import org.springframework.test.context.junit4.SpringJUnit4ClassRunner;
import java.io.FileInputStream;
import java.io.FileOutputStream;
import java.io.InputStream;
import java.io.OutputStream;
/**
* java接口对Hadoop进行操作
* 1.配置环境变量:HADOOP_HOME
* HADOOP_USER_NAME
* Created by shirukai on 2017/11/2.
*/
@RunWith(SpringJUnit4ClassRunner.class)
//告诉junit spring配置文件
@ContextConfiguration({"classpath:spring/spring-dao.xml"})
public class TestHadoop {
private Logger logger = LoggerFactory.getLogger(this.getClass());
/**
* 连接Hadoop
*/
public FileSystem connectHadoop() {
String nameNodeUrl = "hdfs://10.110.13.243:9000";
String nameNodeName = "fs.defaultFS";
FileSystem fs = null;
Configuration configuration = new Configuration();
try {
configuration.set(nameNodeName, nameNodeUrl);
fs = FileSystem.get(configuration);
logger.info("连接成功:Path={}", fs.getFileStatus(new Path("/")));
} catch (Exception e) {
logger.error(e.getMessage(), e);
}
return fs;
}
/**
* 创建目录
*
* @throws Exception 异常
*/
@Test
public void mkdirFolder() throws Exception {
FileSystem fs = connectHadoop();
String folderName = "/input";
fs.mkdirs(new Path(folderName));
}
/**
* 上传文件到Hadoop
*
* @throws Exception 异常
*/
@Test
public void uploadFile() throws Exception {
FileSystem fs = connectHadoop();
//定义本地上传的文件路径
String localFilePath = "D://Hadoop//upload//";
//定义上传文件
String fileName = "user.xlsx";
//定义要上传到的文件夹
String uploadFolder = "/input/";
InputStream in = new FileInputStream(localFilePath + fileName);
OutputStream out = fs.create(new Path(uploadFolder + fileName));
IOUtils.copyBytes(in, out, 4096, true);
}
/**
* 从Hadoop获取文件
*
* @throws Exception 异常
*/
@Test
public void getFileFromHadoop() throws Exception {
FileSystem fs = connectHadoop();
//定义要下载路径
String downloadPath = www.meiwanyule.cn "/input/";
//定义要下载的文件名
String downloadFileName = "user.xlsx";
//定义要保存的路径
String savePath = "D://www.mhylpt.com Hadoop//download//" + downloadFileName;
InputStream in = fs.open(new Path(downloadPath + downloadFileName));
OutputStream out = new FileOutputStream(savePath);
IOUtils.copyBytes(in, out, 4096, true);
}
/**
* 删除文件
* delete(path,boolean)
* boolean如果为true,将进行递归删除,子目录及文件都会删除
* false 只删除当前
*
* @throws Exception
*/
@Test
public void deleteFile() throws Exception {
FileSystem fs = connectHadoop(www.dongfan178.com);
//要删除的文件路径
String deleteFilePath = "/inputuser.xlsx";
Boolean deleteResult = fs.delete(new Path(deleteFilePath), true);
logger.info("删除文件:={}", deleteResult);
}
/**
* 遍历指定目录下所有的文件
* @throws Exception 异常
*/
@Test
public void getAllFile()throws Exception{
FileSystem fs = connectHadoop();
//定义要获取的目录
String getPath = "/";
FileStatus[] statuses = fs.listStatus(new Path(getPath));
for (FileStatus file: statuses
) {
logger.info("fileName={www.taohuayuan178.com}",file.getPath().getName());
}
}
@Test
public void otherOption(www.yongshiyule178.com) throws Exception{
FileSystem fs = connectHadoop();
}
}
Java接口对Hadoop集群的操作的更多相关文章
- 使用HDFS客户端java api读取hadoop集群上的信息
本文介绍使用hdfs java api的配置方法. 1.先解决依赖,pom <dependency> <groupId>org.apache.hadoop</groupI ...
- 使用JAVA API获取hadoop集群的FileSystem
所需要配置的参数: Configuration conf = new Configuration(); conf.set("fs.defaultFS", "hdfs ...
- 搭建Hadoop集群 (三)
通过 搭建Hadoop集群 (二), 我们已经可以顺利运行自带的wordcount程序. 下面学习如何创建自己的Java应用, 放到Hadoop集群上运行, 并且可以通过debug来调试. 有多少种D ...
- 3-3 Hadoop集群完全分布式配置部署
Hadoop集群完全分布式配置部署 下面的部署步骤,除非说明是在哪个服务器上操作,否则默认为在所有服务器上都要操作.为了方便,使用root用户. 1.准备工作 1.1 centOS6服务器3台 手动指 ...
- 三节点Hadoop集群搭建
1. 基础环境搭建 新建3个CentOS6.5操作系统的虚拟机,命名(可自定)为masternode.slavenode1和slavenode2.该过程参考上一篇博文CentOS6.5安装配置详解 2 ...
- hadoop集群配置和在windows系统上运用java操作hdfs
安装 配置 概念 hadoop常用shell命令 使用java操作hadoop 本文介绍hadoop集群配置和在windows系统上运用java操作hdfs 安装 http://mirror.bit. ...
- Hadoop(八)Java程序访问HDFS集群中数据块与查看文件系统
前言 我们知道HDFS集群中,所有的文件都是存放在DN的数据块中的.那我们该怎么去查看数据块的相关属性的呢?这就是我今天分享的内容了 一.HDFS中数据块概述 1.1.HDFS集群中数据块存放位置 我 ...
- 大数据实操2 - hadoop集群访问——Hadoop客户端访问、Java API访问
上一篇中介绍了hadoop集群搭建方式,本文介绍集群的访问.集群的访问方式有两种:hadoop客户端访问,Java API访问. 一.集群客户端访问 Hadoop采用C/S架构,可以通过客户端对集群进 ...
- Java+大数据开发——Hadoop集群环境搭建(一)
1集群简介 HADOOP集群具体来说包含两个集群:HDFS集群和YARN集群,两者逻辑上分离,但物理上常在一起 HDFS集群: 负责海量数据的存储,集群中的角色主要有 NameNode / DataN ...
随机推荐
- 国外常用代理IP对比【仅供参考】
国外常用代理IP对比[仅供参考]http://www.it588.cn/vmware/2019-03-22/547.html
- python_76_json与pickle反序列化2
import pickle def say(name):#序列化时用完会释放,要想反序列化,要重新写上该函数,否则会出错 print('我的高中:', name)#可以和之前的序列化函数不同 f=op ...
- 踩坑日志!viser-ng的使用
在ng-alian项目中使用viser图表库,在app.module中引用了viser-ng,然而,在具体的html项目中使用<v-chart>会报错,提示v-chart不是一个angul ...
- 后台调用前台js
WEB后台代码调用前台JS(两种方式). 1 这种方式只能调用简单的JS代码.不能调用自定义的函数. string jss = "<script language='javascr ...
- 关于Star UML
为什么是使用Star UML而不是Visio 2013呢? 以前本人在大学期间使用的Visio 2013来绘制UML的,最近一个星期因为在阅读源码,所以有多学了一门UML绘制工具—Star UML,下 ...
- GNU汇编 函数调用的例子
.text .global _start _start: mov r1,#2 cmp r1,#1 bl func1 @bl能保存下一条指令的位置到lr寄存器里面,b不能 mov r1, # ...
- vue.js 发布后路径引用问题
在发布到iis目录下时候,如果放在网站的根目录下的时候,是不会有什么问题的 但是一旦放在了非根目录的其他文件夹里面,这时候index.html里引用的js和css文件路径都会找不到 错误如下 打开in ...
- 使用U盘给笔记本重做系统
**一.戴尔 Vostro 14 3000 Series **1. 开机时快速按F12进入BIOS界面 **2. 按照下图进行一系列的处理,把U盘被设置为第一启动项 **3. 插入U盘后进入老毛桃PE ...
- Python知识点进阶——细节问题
int()强制转换浮点数 在int()的强制转换浮点数时候,不管是正数还是负数,只取整数部分. 注意:这里不是向上或者向下取整,也不是四舍五入. 无限递归 递归是为了将问题简化为更小规模的同类型问题, ...
- Keywords Search HDU - 2222 ( ac自动机)模版题
Keywords Search Time Limit: 2000/1000 MS (Java/Others) Memory Limit: 131072/131072 K (Java/Others ...