Hadoop文件系统是一个抽象的概念,hdfs仅仅是Hadoop文件系统的其中之一。

就hdfs而言,访问该文件系统有两种方式:(1)利用hdfs自带的命令行方式,此方法类似linux下面的shell命令;(2)利用hdfs的java接口,通过编写java程序来实现。

操作环境:hadoop-1.0.4,java1.7.0_65,Ubuntu 14.04.1 LTS

 import java.io.InputStream;
import java.net.URI; import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IOUtils; public class FileSystemCat { public static void main(String[] args) throws Exception {
String uri = args[0];
Configuration conf = new Configuration();
FileSystem fs = FileSystem.get(URI.create(uri), conf);
InputStream in = null;
try {
in = fs.open(new Path(uri));
IOUtils.copyBytes(in, System.out, 4096, false);
} finally {
IOUtils.closeStream(in);
}
} }

气死我了,这个程序都还没运行成功。

一开始,搞不清楚到底需要import那些类,  关于代码中的类需要import哪些package,可以查这个API文档:http://hadoop.apache.org/docs/current/api/index.html

现在能javac编译成功了,但用hadoop filename  还是不能运行,报错提示:

hadoop FileSystemCat hdfs://conf.sh
Error: Could not find or load main class FileSystemCat

气死我了!!!!!!!!!!!!!!!!!!!!!!1

-----------------------------------

我想一定是关于java程序运行,以及classpath的问题,,,,,我需要搞清楚!21:28:54   2014-10-23

------------------------------

问题搞定了,hadoop-env.sh这个文件里面有个CLASSPATH的参数设置,这个设置值要和javac编译生成的.class文件一致  2014-10-23 23:59:53

今天发现,在没有启动hadoop的情况下,居然可以直接启动hbase    2014-10-28  11:12:29

用javac FileSystemCat.java时,会出现很多报错,

stu@master:~$ javac FileSystemCat.java
FileSystemCat.java:4: error: package org.apache.hadoop.conf does not exist
import org.apache.hadoop.conf.Configuration;
^
FileSystemCat.java:5: error: package org.apache.hadoop.fs does not exist
import org.apache.hadoop.fs.FSDataInputStream;
^
FileSystemCat.java:6: error: package org.apache.hadoop.fs does not exist
import org.apache.hadoop.fs.FileSystem;
^
FileSystemCat.java:7: error: package org.apache.hadoop.fs does not exist
import org.apache.hadoop.fs.Path;
^
FileSystemCat.java:8: error: package org.apache.hadoop.io does not exist
import org.apache.hadoop.io.IOUtils;
^
FileSystemCat.java:17: error: cannot find symbol
Configuration conf = new Configuration();
^
symbol: class Configuration
location: class FileSystemCat
FileSystemCat.java:17: error: cannot find symbol
Configuration conf = new Configuration();
^
symbol: class Configuration
location: class FileSystemCat
FileSystemCat.java:18: error: cannot find symbol
FileSystem fs = FileSystem.get(URI.create(uri), conf);
^
symbol: class FileSystem
location: class FileSystemCat
FileSystemCat.java:18: error: cannot find symbol
FileSystem fs = FileSystem.get(URI.create(uri), conf);
^
symbol: variable FileSystem
location: class FileSystemCat
FileSystemCat.java:21: error: cannot find symbol
in = fs.open(new Path(uri));
^
symbol: class Path
location: class FileSystemCat
FileSystemCat.java:22: error: cannot find symbol
IOUtils.copyBytes(in, System.out, 4096, false);
^
symbol: variable IOUtils
location: class FileSystemCat
FileSystemCat.java:24: error: cannot find symbol
IOUtils.closeStream(in);
^
symbol: variable IOUtils
location: class FileSystemCat
12 errors
stu@master:~$

  这时需要在编译的时候,把hadoop里面的相应jar文件设置为classpath参数,即如下就对了:

stu@master:~$ javac -classpath /home/stu/hadoop-1.0.4/hadoop-core-1.0.4.jar FileSystemCat.java

  然后把生成的FileSystemCat.java复制到 hadoop-env.sh里面设定的文件夹下即可。

# Extra Java CLASSPATH elements. Optional.
export HADOOP_CLASSPATH=/home/stu/myclass

Hadoop Java API 操作 hdfs--1的更多相关文章

  1. Hadoop Java API操作HDFS文件系统(Mac)

    1.下载Hadoop的压缩包 tar.gz   https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/stable/ 2.关联jar包 在 ...

  2. 使用Java API操作HDFS文件系统

    使用Junit封装HFDS import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.*; import org ...

  3. 使用Java Api 操作HDFS

    如题 我就是一个标题党  就是使用JavaApi操作HDFS,使用的是MAVEN,操作的环境是Linux 首先要配置好Maven环境,我使用的是已经有的仓库,如果你下载的jar包 速度慢,可以改变Ma ...

  4. hadoop学习笔记(五):java api 操作hdfs

    HDFS的Java访问接口 1)org.apache.hadoop.fs.FileSystem 是一个通用的文件系统API,提供了不同文件系统的统一访问方式. 2)org.apache.hadoop. ...

  5. 使用java api操作HDFS文件

    实现的代码如下: import java.io.IOException; import java.net.URI; import java.net.URISyntaxException; import ...

  6. Hadoop之HDFS(三)HDFS的JAVA API操作

    HDFS的JAVA API操作 HDFS 在生产应用中主要是客户端的开发,其核心步骤是从 HDFS 提供的 api中构造一个 HDFS 的访问客户端对象,然后通过该客户端对象操作(增删改查)HDFS ...

  7. HDFS 05 - HDFS 常用的 Java API 操作

    目录 0 - 配置 Hadoop 环境(Windows系统) 1 - 导入 Maven 依赖 2 - 常用类介绍 3 - 常见 API 操作 3.1 获取文件系统(重要) 3.2 创建目录.写入文件 ...

  8. JAVA API 实现hdfs文件操作

    java api 实现hdfs 文件操作会出现错误提示: Permission denied: user=hp, access=WRITE, inode="/":hdfs:supe ...

  9. hadoop的API对HDFS上的文件访问

    这篇文章主要介绍了使用hadoop的API对HDFS上的文件访问,其中包括上传文件到HDFS上.从HDFS上下载文件和删除HDFS上的文件,需要的朋友可以参考下hdfs文件操作操作示例,包括上传文件到 ...

随机推荐

  1. 和CISSP并肩的信息安全认证国际注册信息安全经理CISM

    众所周知,信息安全认证界有一个扛把子的证书叫CISSP(国际信息安全专家认证),一般拥有CISSP证书的小哥哥还会选择考取另一个认证,这就是今天给大家介绍的CISM(国际注册信息安全经理).CISM是 ...

  2. uImage

    linux内核经过编译后会生成一个ELF格式的可执行程序,叫vmlinux或vmlinuz,是原始的未经任何处理加工的原版内核ELF文件:嵌入式系统烧录的一般不是这个vmlinuz/vmlinux,而 ...

  3. NodeJS跨域问题

    const express = require('express'), app = express(), router = express.Router(), bodyParser = require ...

  4. windows linux 文件编码转换

    查看文件编码在Linux中查看文件编码可以通过以下几种方式:1.在Vim中可以直接查看文件编码:set fileencoding即可显示文件编码格式.如果你只是想查看其它编码格式的文件或者想解决用Vi ...

  5. CMS收集器和G1收集器优缺点

    首先要知道 Stop the world的含义(网易面试):不管选择哪种GC算法,stop-the-world都是不可避免的.Stop-the-world意味着从应用中停下来并进入到GC执行过程中去. ...

  6. line-height && vertical-align 学习总结

    前言 line-height.font-size.vertical-align是设置行内元素布局的关键属性.这三个属性是相互依赖的关系,改变行间距离.设置垂直对齐等都需要它们的通力合作. 行高 lin ...

  7. [物理学与PDEs]第4章习题2 反应力学方程组形式的化约 - 能量守恒方程

    试证明: 利用连续性方程及动量方程, 能量守恒方程 (2. 15) 可化为 (2. 21) 的形式. 证明: 注意到 $$\beex \bea &\quad\cfrac{\p}{\p t}\s ...

  8. Flink学习(二)Flink中的时间

    摘自Apache Flink官网 最早的streaming 架构是storm的lambda架构 分为三个layer batch layer serving layer speed layer 一.在s ...

  9. DeepLearning.ai学习笔记(四)卷积神经网络 -- week4 特殊应用:人力脸识别和神经风格转换

    一.什么是人脸识别 老实说这一节中的人脸识别技术的演示的确很牛bi,但是演技好尴尬,233333 啥是人脸识别就不用介绍了,下面笔记会介绍如何实现人脸识别. 二.One-shot(一次)学习 假设我们 ...

  10. Django之会议室预预订

    model表设计: from django.db import models from django.contrib.auth.models import AbstractUser # Create ...