Hadoop Java API 操作 hdfs--1
Hadoop文件系统是一个抽象的概念,hdfs仅仅是Hadoop文件系统的其中之一。
就hdfs而言,访问该文件系统有两种方式:(1)利用hdfs自带的命令行方式,此方法类似linux下面的shell命令;(2)利用hdfs的java接口,通过编写java程序来实现。
操作环境:hadoop-1.0.4,java1.7.0_65,Ubuntu 14.04.1 LTS
import java.io.InputStream;
import java.net.URI; import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IOUtils; public class FileSystemCat { public static void main(String[] args) throws Exception {
String uri = args[0];
Configuration conf = new Configuration();
FileSystem fs = FileSystem.get(URI.create(uri), conf);
InputStream in = null;
try {
in = fs.open(new Path(uri));
IOUtils.copyBytes(in, System.out, 4096, false);
} finally {
IOUtils.closeStream(in);
}
} }
气死我了,这个程序都还没运行成功。
一开始,搞不清楚到底需要import那些类, 关于代码中的类需要import哪些package,可以查这个API文档:http://hadoop.apache.org/docs/current/api/index.html
现在能javac编译成功了,但用hadoop filename 还是不能运行,报错提示:
hadoop FileSystemCat hdfs://conf.sh
Error: Could not find or load main class FileSystemCat
气死我了!!!!!!!!!!!!!!!!!!!!!!1
-----------------------------------
我想一定是关于java程序运行,以及classpath的问题,,,,,我需要搞清楚!21:28:54 2014-10-23
------------------------------
问题搞定了,hadoop-env.sh这个文件里面有个CLASSPATH的参数设置,这个设置值要和javac编译生成的.class文件一致 2014-10-23 23:59:53
今天发现,在没有启动hadoop的情况下,居然可以直接启动hbase 2014-10-28 11:12:29
用javac FileSystemCat.java时,会出现很多报错,
stu@master:~$ javac FileSystemCat.java
FileSystemCat.java:4: error: package org.apache.hadoop.conf does not exist
import org.apache.hadoop.conf.Configuration;
^
FileSystemCat.java:5: error: package org.apache.hadoop.fs does not exist
import org.apache.hadoop.fs.FSDataInputStream;
^
FileSystemCat.java:6: error: package org.apache.hadoop.fs does not exist
import org.apache.hadoop.fs.FileSystem;
^
FileSystemCat.java:7: error: package org.apache.hadoop.fs does not exist
import org.apache.hadoop.fs.Path;
^
FileSystemCat.java:8: error: package org.apache.hadoop.io does not exist
import org.apache.hadoop.io.IOUtils;
^
FileSystemCat.java:17: error: cannot find symbol
Configuration conf = new Configuration();
^
symbol: class Configuration
location: class FileSystemCat
FileSystemCat.java:17: error: cannot find symbol
Configuration conf = new Configuration();
^
symbol: class Configuration
location: class FileSystemCat
FileSystemCat.java:18: error: cannot find symbol
FileSystem fs = FileSystem.get(URI.create(uri), conf);
^
symbol: class FileSystem
location: class FileSystemCat
FileSystemCat.java:18: error: cannot find symbol
FileSystem fs = FileSystem.get(URI.create(uri), conf);
^
symbol: variable FileSystem
location: class FileSystemCat
FileSystemCat.java:21: error: cannot find symbol
in = fs.open(new Path(uri));
^
symbol: class Path
location: class FileSystemCat
FileSystemCat.java:22: error: cannot find symbol
IOUtils.copyBytes(in, System.out, 4096, false);
^
symbol: variable IOUtils
location: class FileSystemCat
FileSystemCat.java:24: error: cannot find symbol
IOUtils.closeStream(in);
^
symbol: variable IOUtils
location: class FileSystemCat
12 errors
stu@master:~$
这时需要在编译的时候,把hadoop里面的相应jar文件设置为classpath参数,即如下就对了:
stu@master:~$ javac -classpath /home/stu/hadoop-1.0.4/hadoop-core-1.0.4.jar FileSystemCat.java
然后把生成的FileSystemCat.java复制到 hadoop-env.sh里面设定的文件夹下即可。
# Extra Java CLASSPATH elements. Optional.
export HADOOP_CLASSPATH=/home/stu/myclass
Hadoop Java API 操作 hdfs--1的更多相关文章
- Hadoop Java API操作HDFS文件系统(Mac)
1.下载Hadoop的压缩包 tar.gz https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/stable/ 2.关联jar包 在 ...
- 使用Java API操作HDFS文件系统
使用Junit封装HFDS import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.*; import org ...
- 使用Java Api 操作HDFS
如题 我就是一个标题党 就是使用JavaApi操作HDFS,使用的是MAVEN,操作的环境是Linux 首先要配置好Maven环境,我使用的是已经有的仓库,如果你下载的jar包 速度慢,可以改变Ma ...
- hadoop学习笔记(五):java api 操作hdfs
HDFS的Java访问接口 1)org.apache.hadoop.fs.FileSystem 是一个通用的文件系统API,提供了不同文件系统的统一访问方式. 2)org.apache.hadoop. ...
- 使用java api操作HDFS文件
实现的代码如下: import java.io.IOException; import java.net.URI; import java.net.URISyntaxException; import ...
- Hadoop之HDFS(三)HDFS的JAVA API操作
HDFS的JAVA API操作 HDFS 在生产应用中主要是客户端的开发,其核心步骤是从 HDFS 提供的 api中构造一个 HDFS 的访问客户端对象,然后通过该客户端对象操作(增删改查)HDFS ...
- HDFS 05 - HDFS 常用的 Java API 操作
目录 0 - 配置 Hadoop 环境(Windows系统) 1 - 导入 Maven 依赖 2 - 常用类介绍 3 - 常见 API 操作 3.1 获取文件系统(重要) 3.2 创建目录.写入文件 ...
- JAVA API 实现hdfs文件操作
java api 实现hdfs 文件操作会出现错误提示: Permission denied: user=hp, access=WRITE, inode="/":hdfs:supe ...
- hadoop的API对HDFS上的文件访问
这篇文章主要介绍了使用hadoop的API对HDFS上的文件访问,其中包括上传文件到HDFS上.从HDFS上下载文件和删除HDFS上的文件,需要的朋友可以参考下hdfs文件操作操作示例,包括上传文件到 ...
随机推荐
- Prometheus-配置解析
1.Prometheus整体架构图 2.配置文件 # 全局配置 global: scrape_interval: 15s # 多久 收集 一次数据 evaluation_interval: 30s # ...
- saltstack主机管理项目:动态调用插件解析-模块解析(五)
一.动态调用插件解析 1.目录结构 1.base_module代码解析: def syntax_parser(self,section_name,mod_name,mod_data): print(& ...
- openstack项目【day23】:keystone组件网关协议
本节内容 一 静态页面和动态页面 二 什么是web server 三 什么是网关协议 3.1 引子 3.2 网关协议 四 网关协议CGI.FastCGI.WSGI.UWSGI 五 网关协议与keyst ...
- 第十四节:再探MVC中路由的奥秘
一. 基于RouteBase扩展 1. 原理 扩展RouteBase,同样使用的是MVC框架提供的MvcRouteHandler进行处理. 2. 步骤 1. 新建YpfRoute1类,继承RouteB ...
- sql 发送邮件
一.启用Database Mail XPs功能. 查看Database Mail XPs功能是否打开,从返回结果来看,value为0说明没有打开,注意SQL Mail XPs是SQL Server早期 ...
- 肺结节CT影像特征提取(四)——肺结节CT影像特征提取MATLAB代码实现
之前的文章讲述了肺结节CT影像数据特征提取算法及基于MATLAB GUI设计的肺结节CT影像特征提取系统.本文将讲述几个主要部分的代码实现,分别是预处理.灰度特征提取.纹理特征提取.形态特征提取数据. ...
- sql读取 所有表、结构 描述
需要:读取库里面所有 表.以及表描述. 列.列描述 create PROCEDURE [dbo].[ProGetAllTableName] AS BEGIN --开启事物 BEGIN TRAN tra ...
- 【原创】大数据基础之Hive(1)Hive SQL执行过程之代码流程
hive 2.1 hive执行sql有两种方式: 执行hive命令,又细分为hive -e,hive -f,hive交互式: 执行beeline命令,beeline会连接远程thrift server ...
- vue——loading组件
<template> <div class="loading" :style="{height:loadingRadiusVal+'px',width: ...
- Java实现大数加法运算的几种方法
大数加法 思路一:定义String变量str1和str2分别存储输入的两个大数,定义num1[]和num2[]两个int型数组,将两个字符串分别逐个字符逆序存入数组,定义sum[]数组存放求和结果,使 ...