1, hdfs中两种连接方式

1), 网页

2), 客户端

文件的切块大小和存储的副本数量,都是由客户端决定!
所谓的由客户端决定,是通过配置参数来定的
hdfs的客户端会读以下两个参数,来决定切块大小、副本数量:
切块大小的参数: dfs.blocksize
副本数量的参数: dfs.replication
<property>
<name>dfs.blocksize</name>
<value>64m</value>
</property> <property>
<name>dfs.replication</name>
<value></value>
</property>

切块后的文件会在hdfs的目录中存在, 通过cat命令将replace拼接后, 文件恢复原始文件

即, hdfs只对文件进行啦按大小的简单切割

2, 常用的命令操作

1, 查看目录

hadoop fs -ls -R /目录      # -R 递归显示
hadoop fs -mkdir -p /hdfs目录。 -p 支持多级创建

2, 上传文件

Hadoop fs -put /本地目录。/hdfs 目录
hadoop fs -copyFromLocal /本地目录 /hdfs目录
hadoop fs -moveFormLocal /本地目录 /hdfs目录    会从本地目录中移除

3, 下载文件

hadoop fs -get /hdfs目录 /本地目录
hadoop fs -copyToLocal /hdfs目录 /本地目录
hadoop fs -moveToLocal /hdfs目录 /本地目录    会从hdfs中删除原文件

4, 移动hdfs中的文件, 改名

hadoop fs -mv /hdfs目录 /hdfs目录
hadoop fs -cp /hdfs文件1 /hdfs文件2 /hdfs目录
可复制一个, 也可复制多个, 当复制多个的时候, 目的地必须是目录

5, 删除文件或文件夹

Hadoop fs -rm -r /hdfs目录

6, 修改文件权限

hadoop fs -chgrp [-R] wenbronk /hdfs目录
hadoop fs -chown wenbronk:wenbronk /hdfs目录
hadoop fs -chmod /hdfs目录

7, 追加内容到已有的文件

hadoop fs -appenToFile /本地文件  /hdfs目录

hadoop fs -appendToFile ./zookeeper.out hdfs://node1:8020/data/test/yarn-site.xml

8, 显示文件内容

hadoop fs -cat /hdfs文件
hadoop fs -tail /hdfs 文件
hadoop fs -text /hdfs文件  # 以文本格式输出
hadoop fs -touchz /hdfs文件  # 创建一个空文件, 文件长度为0

9, 显示文件校验码

hadoop fs -checksum /data/test/zookeeper.out

10, 对文件进行统计大小, 配额, 等

hadoop fs -count -h hdfs://node1:8020/data/test/zookeeper.out

11, 统计目录大小, 文件大小等

hadoop fs -du -h /hdfs目录    # 统计目录大小
hadoop fs -df -h /hdfs 目录    # 查看剩余空间大小

剩余, 遇到在慢慢补充...

hdfs-03-hdfs客户端操作的更多相关文章

  1. HDFS的Java客户端操作代码(HDFS的查看、创建)

    1.HDFS的put上传文件操作的java代码: package Hdfs; import java.io.FileInputStream; import java.io.FileNotFoundEx ...

  2. HDFS的java客户端操作代码(Windows上面打jar包,提交至linux运行)

    1.通过java.net.URL实现屏幕显示demo1文件的内容 package Hdfs; import java.io.InputStream; import java.net.URL; impo ...

  3. HDFS的Java客户端操作代码(HDFS删除文件或目录)

    1.HDFS删除文件或目录 package Hdfs; import java.io.IOException; import java.net.URI; import org.apache.hadoo ...

  4. HDFS的Java客户端操作代码(查看HDFS下所有的文件存储位置信息)

    1.查看HDFS下所有的文件存储位置信息 package Hdfs; import java.net.URI; import org.apache.hadoop.conf.Configuration; ...

  5. HDFS的Java客户端操作代码(查看HDFS下所有的文件或目录)

    1.查看HDFS下所有的文件或目录 package Hdfs; import java.io.IOException; import java.net.URI; import org.apache.h ...

  6. HDFS的Java客户端操作代码(查看HDFS下的文件是否存在)

    1.查看HDFS目录下得文件是否存在 package Hdfs; import java.io.IOException; import java.net.URI; import org.apache. ...

  7. 03 HDFS的客户端操作

    服务器和客户端的概念 hdfs的客户端有多种形式 1.网页形式 2.命令行形式 3.客户端在哪里运行,没有约束,只要运行客户端的机器能够跟hdfs集群联网 参数配置 文件的切块大小和存储的副本数量,都 ...

  8. Hadoop HDFS的shell(命令行客户端)操作实例

    HDFS的shell(命令行客户端)操作实例 3.2 常用命令参数介绍 -help 功能:输出这个命令参数手册 -ls                  功能:显示目录信息 示例: hadoop fs ...

  9. Hadoop JAVA HDFS客户端操作

    JAVA HDFS客户端操作 通过API操作HDFS org.apache.logging.log4jlog4j-core2.8.2org.apache.hadoophadoop-common${ha ...

  10. 大数据学习——hdfs客户端操作

    package cn.itcast.hdfs; import org.apache.commons.io.IOUtils; import org.apache.hadoop.conf.Configur ...

随机推荐

  1. python程序编写简介

    语句和语法 # 注释 \ 转译回车,继续上一行,在一行语句较长的情况下可以使用其来切分成多行,因其可读性差所以不建议使用 : 将两个语句连接到一行,可读性差,不建议使用 : 将代码的头和体分开 语句( ...

  2. MySQL(数据类型和完整约束)

    MySQL数据类型 MySQL支持多种数据类型,主要有数值类型.日期/时间类型和字符串类型. 1.数值数据类型 包括整数类型TINYINT.SMALLINT.MEDIUMINT.INT.BIGINT. ...

  3. C#Dictionary源码

     Dictionary Dictionary与hashtable的区别:dictionary支持泛型. 通常处理哈希冲突的方法有:开放地址法,再哈希法,链地址法,建立一个公共栈区等. 在哈希表上进行查 ...

  4. 顺序队列(C语言)

    #define Queue_MAX_SIZE 20 #define OK 1 #define ERROR 0 #include <stdio.h> #include <stdlib. ...

  5. Spring配置Bean,为属性赋值

    SayHello的实体类: package com.langchao; /** * @ClassName: SayHello * @description: * @author: ZhangYawei ...

  6. 延迟执行(Invoke 函数)和消息发送(SendMessage 函数)

    Invoke 函数需要继承 MonoBehaviour 类后才能使用. Invoke(string str,float a):a 秒后执行名为 str 函数(只会调用一次). Invoke(strin ...

  7. 【慕课网实战】Spark Streaming实时流处理项目实战笔记十四之铭文升级版

    铭文一级: 第11章 Spark Streaming整合Flume&Kafka打造通用流处理基础 streaming.conf agent1.sources=avro-sourceagent1 ...

  8. XamlWriter-将对象树写入Xaml

    WPF通常用Xaml格式创建对象树.您还可以使用XamlWriter类进行反方向操作——将对象树写入Xaml. 对于XamlWriter来说,将对象转换成良好的Xaml表示形式通常很容易.但是,您不能 ...

  9. Authorization Security for Mongodb

    To keep security for the mongodb server, we can create an authorized machanism. db.createUser( { use ...

  10. Nginx Redirect Websocket

    I want to redirect my websocket to another server. As we known, nginx command rewrite or redirect ca ...