Required Skills


技能要求:

Data Ingest


数据消化:

The skills to transfer data between external systems and your cluster. This includes the following:

在外部系统和集群之间转移数据的技能,包括以下几个:

  • Import data from a MySQL database into HDFS using Sqoop

    使用sqoop将数据从mysql导入HDFS
  • Export data to a MySQL database from HDFS using Sqoop

    使用sqoop将数据从HDFS导入mysql
  • Change the delimiter and file format of data during import using Sqoop

    使用sqoop导入的时候改变数据的分隔符和文件格式
  • Ingest real-time and near-real time (NRT) streaming data into HDFS using Flume

    使用Flume处理实时和接近实时的流数据导入到HDFS中
  • Load data into and out of HDFS using the Hadoop File System (FS) commands

    使用HDFS 的hadoop FIle System命令导入导出数据

Transform, Stage, Store

转化,筹划,存储

Convert a set of data values in a given format stored in HDFS into new data values and/or a new data format and write them into HDFS. This includes writing Spark applications in both Scala and Python:

将给定的HDFS上的一套数据值转化成为一套新的数据值和数据格式,并且写入到HDFS中。这包括使用Scala和Python编写Spark程序

  • Load data from HDFS and storing results back to HDFS using Spark

    使用Spark从HDFS中加载数据,并且将运算结果写回到HDFS
  • Join disparate datasets together using Spark

    使用Spark合并不同的数据集
  • Calculate aggregate statistics (e.g., average or sum) using Spark

    使用Spark计算汇总统计数据
  • Filter data into a smaller dataset using Spark

    使用Spqrk过滤数据得到更小的数据集
  • Write a query that produces ranked or sorted data using Spark

    使用Spqrk编写查询得到排名或者排序的数据

Data Analysis

数据分析

Use DDL (Data Definition Language) in order to create tables in the Hive metastore for use by Hive and Impala.

使用DDL(数据定义语言)在Hive元数据库中创建表便于hive和impala使用

  • Read and/or create a table in the Hive metastore in a given schema

    使用指定的模式在Hive metastore中读取或者创建一个表
  • Extract an Avro schema from a set of datafiles using avro-tools

    使用avro工具从一套数据文件中提取Avro schema
  • Create a table in the Hive metastore using the Avro file format and an external schema file

    使用Avro 文件格式和一个外部schema 文件在hive metastore中创建一个表
  • Improve query performance by creating partitioned tables in the Hive metastore

    在hive metastore中创建分区来提升查询的效率
  • Evolve an Avro schema by changing JSON files

    改变JSON文件升级Avro schema


Charles 2016-1-1 于Phnom Phen




版权说明:
本文由Charles Dong原创,本人支持开源以及免费有益的传播,反对商业化谋利。
CSDN博客:http://blog.csdn.net/mrcharles
个人站:http://blog.xingbod.cn
EMAIL:charles@xingbod.cn

CCA Spark and Hadoop 开发者认证技能点【2016只为hadoop达到巅峰】的更多相关文章

  1. 新浪SAE高级开发者认证通过

    如题,新浪SAE高级开发者认证通过,申请的方式为提交开源项目地址,用的是如下的项目 http://jqext.sinaapp.com/ 之前该项目是部署在 mopaas 上的,在拿到高级开发者资格后迁 ...

  2. Hadoop之父Doug Cutting:Lucene到Hadoop的开源之路

    Hadoop之父Doug Cutting:Lucene到Hadoop的开源之路 Doug Cutting,凭借自己对工作的热情和脚踏实地的态度,开创了Lucene和Nutch两个成功的开源搜索引擎项目 ...

  3. hadoop生态搭建(3节点)-04.hadoop配置

    如果之前没有安装jdk和zookeeper,安装了的请直接跳过 # https://www.oracle.com/technetwork/java/javase/downloads/java-arch ...

  4. Hadoop MapReduce执行过程详解(带hadoop例子)

    https://my.oschina.net/itblog/blog/275294 摘要: 本文通过一个例子,详细介绍Hadoop 的 MapReduce过程. 分析MapReduce执行过程 Map ...

  5. Hadoop单机模式安装-(3)安装和配置Hadoop

    网络上关于如何单机模式安装Hadoop的文章很多,按照其步骤走下来多数都失败,按照其操作弯路走过了不少但终究还是把问题都解决了,所以顺便自己详细记录下完整的安装过程. 此篇主要介绍在Ubuntu安装完 ...

  6. [Hadoop] 在Ubuntu系统上一步步搭建Hadoop(单机模式)

    1 Hadoop的三种创建模式 单机模式操作是Hadoop的默认操作模式,当首次解压Hadoop的源码包时,Hadoop无法了解硬件安装环境,会保守地选择最小配置,即单机模式.该模式主要用于开发调试M ...

  7. 解决root用户ssh配置无密码登陆/hadoop用户照仿可以实现相同功能:hadoop用户登录并且把命令的所有root换成home/hadoop

    http://inuyasha1027.blog.51cto.com/4003695/1132896/ 主机ip:192.168.163.100(hostname: node0) ssh无密码登陆的远 ...

  8. hadoop备战:一台x86计算机搭建hadoop的全分布式集群

    主要的软硬件配置: x86台式机,window7  64位系统 vb虚拟机(x86的台式机至少是4G内存,才干开3台虚机) centos6.4操作系统 hadoop-1.1.2.tar.gz jdk- ...

  9. hadoop高速扫盲帖,从零了解hadoop

    1.MapReduce理论简单介绍 1.1 MapReduce编程模型 MapReduce採用"分而治之"的思想,把对大规模数据集的操作,分发给一个主节点管理下的各个分节点共同完毕 ...

随机推荐

  1. python open函数关于w+ r+ 读写操作的理解(转)

    r 只能读 (带r的文件必须先存在)r+ 可读可写 不会创建不存在的文件.如果直接写文件,则从顶部开始写,覆盖之前此位置的内容,如果先读后写,则会在文件最后追加内容.w+ 可读可写 如果文件存在 则覆 ...

  2. day33 序列类型,绑定方法,类方法,静态方法,封装继承和多态

    Python之路,Day20 = 序列类型,绑定方法,类方法,静态方法,封装继承和多态 序列是指有序的队列,重点在"有序". 一.Python中序列的分类 Python中的序列主要 ...

  3. 计算几何——poj1410,线段不规范交

    直接用kuangbin的板子,能判不规范,规范和不交 另外线段在矩形内也可以,判断方式是比较线段的端点和矩形四个角 #include <cstdio> #include <cmath ...

  4. JAVA基础_类加载器

    什么是类加载器 类加载器是Java语言在1.0版本就引入的.最初是为了满足JavaApplet需要.现在类加载器在Web容器和OSGI中得到了广泛的应用,一般来说,Java应用的开发人员不需要直接同类 ...

  5. multiprocessing多进程(31-04)创建进程的两种方式

    一个进程可以寄生多个线程. CPU核数与进程个数是统一的, 若进程多于核数,那么只有等待上一进程执行完才能被执行. ------------------第一种进程创建方式--------------- ...

  6. 2019 Multi-University Training Contest 6 Snowy Smile (最大字段和变形)

    题意: 求一个子矩阵要求其矩阵内的合最大. 题解: 正常的求最大子矩阵的复杂度是O(n^3) 对于这一题说复杂度过不去,注意到这个题总共只有2000个点关键点在与这里优化 最大子矩阵可以压缩矩阵变成最 ...

  7. python语句结构(range函数)

    python语句结构(range函数) range()函数 如果你需要遍历数字序列,可以使用内置range()函数,它会生成序列 也可以通过range()函数指定序列的区间 也可以使用range()函 ...

  8. 2019-8-31-PowerShell-通过-WMI-获取系统安装软件

    title author date CreateTime categories PowerShell 通过 WMI 获取系统安装软件 lindexi 2019-08-31 16:55:58 +0800 ...

  9. Linux 下 cs8900a 的移植说明

    为 cs8900a 建立编译菜单 1. 拷贝到文件 把 cs8900a 的压缩包拷贝到 arm 用户下的 dev_home/localapps/ [arm@localhost localapps]$ ...

  10. BZOJ1597: [Usaco2008 Mar]土地购买——斜率优化

    题目大意: 将$n$个长方形分成若干部分,每一部分的花费为部分中长方形的$max_长*max_宽$(不是$max_{长*宽}$),求最小花费 思路: 首先,可以被其他长方形包含的长方形可以删去 然后我 ...