福利 => 每天都推送

欢迎大家,关注微信扫码并加入我的4个微信公众号:   大数据躺过的坑      Java从入门到架构师      人工智能躺过的坑         Java全栈大联盟
 
     每天都有大量的学习视频资料和精彩技术文章推送... 人生不易,唯有努力。
 
     百家号 :九月哥快讯               快手号:  jiuyuege
 
 
 
 
 

  其实啊,将spark的压缩包解压好,就已经是spark的最简易安装了。

其实啊,想说的是,只要将spark这压缩包解压好,就已经是spark的最简易安装了。

  1. [spark@sparksinglenode spark-1.6.1-bin-hadoop2.6]$ ll
  2. total 1408
  3. drwxr-xr-x. 2 spark spark 4096 Feb 27 2016 bin (可执行)
  4. -rw-r--r--. 1 spark spark 1343562 Feb 27 2016 CHANGES.txt
  5. drwxr-xr-x. 2 spark spark 4096 Feb 27 2016 conf (配置文件)
  6. drwxr-xr-x. 3 spark spark 4096 Feb 27 2016 data       (例子里用到的一些数据)
  7. drwxr-xr-x. 3 spark spark 4096 Feb 27 2016 ec2
  8. drwxr-xr-x. 3 spark spark 4096 Feb 27 2016 examples     (自带的例子一些源代码) 
  9. drwxr-xr-x. 2 spark spark 4096 Feb 27 2016 lib        jar包)
  10. -rw-r--r--. 1 spark spark 17352 Feb 27 2016 LICENSE
  11. drwxr-xr-x. 2 spark spark 4096 Feb 27 2016 licenses
  12. -rw-r--r--. 1 spark spark 23529 Feb 27 2016 NOTICE
  13. drwxr-xr-x. 6 spark spark 4096 Feb 27 2016 python
  14. drwxr-xr-x. 3 spark spark 4096 Feb 27 2016 R        
  15. -rw-r--r--. 1 spark spark 3359 Feb 27 2016 README.md     (包含一些入门的spark说明)
  16. -rw-r--r--. 1 spark spark 120 Feb 27 2016 RELEASE
  17. drwxr-xr-x. 2 spark spark 4096 Feb 27 2016 sbin        (集群启停,因为spark有自带的集群环境)
  18. [spark@sparksinglenode spark-1.6.1-bin-hadoop2.6]$ pwd
  19. /usr/local/spark/spark-1.6.1-bin-hadoop2.6
  20. [spark@sparksinglenode spark-1.6.1-bin-hadoop2.6]$

  1. [spark@sparksinglenode bin]$ pwd
  2. /usr/local/spark/spark-1.6.1-bin-hadoop2.6/bin
  3. [spark@sparksinglenode bin]$ ll
  4. total 92
  5. -rwxr-xr-x. 1 spark spark 1099 Feb 27 2016 beeline
  6. -rw-r--r--. 1 spark spark 932 Feb 27 2016 beeline.cmd
  7. -rw-r--r--. 1 spark spark 1910 Feb 27 2016 load-spark-env.cmd
  8. -rw-r--r--. 1 spark spark 2143 Feb 27 2016 load-spark-env.sh
  9. -rwxr-xr-x. 1 spark spark 3459 Feb 27 2016 pyspark
  10. -rw-r--r--. 1 spark spark 1486 Feb 27 2016 pyspark2.cmd
  11. -rw-r--r--. 1 spark spark 1000 Feb 27 2016 pyspark.cmd
  12. -rwxr-xr-x. 1 spark spark 2384 Feb 27 2016 run-example
  13. -rw-r--r--. 1 spark spark 2682 Feb 27 2016 run-example2.cmd
  14. -rw-r--r--. 1 spark spark 1012 Feb 27 2016 run-example.cmd
  15. -rwxr-xr-x. 1 spark spark 2858 Feb 27 2016 spark-class
  16. -rw-r--r--. 1 spark spark 2365 Feb 27 2016 spark-class2.cmd
  17. -rw-r--r--. 1 spark spark 1010 Feb 27 2016 spark-class.cmd
  18. -rwxr-xr-x. 1 spark spark 1049 Feb 27 2016 sparkR
  19. -rw-r--r--. 1 spark spark 1010 Feb 27 2016 sparkR2.cmd
  20. -rw-r--r--. 1 spark spark 998 Feb 27 2016 sparkR.cmd
  21. -rwxr-xr-x. 1 spark spark 3026 Feb 27 2016 spark-shell
  22. -rw-r--r--. 1 spark spark 1528 Feb 27 2016 spark-shell2.cmd
  23. -rw-r--r--. 1 spark spark 1008 Feb 27 2016 spark-shell.cmd
  24. -rwxr-xr-x. 1 spark spark 1075 Feb 27 2016 spark-sql
  25. -rwxr-xr-x. 1 spark spark 1050 Feb 27 2016 spark-submit
  26. -rw-r--r--. 1 spark spark 1126 Feb 27 2016 spark-submit2.cmd
  27. -rw-r--r--. 1 spark spark 1010 Feb 27 2016 spark-submit.cmd
  28. [spark@sparksinglenode bin]$

  拿bin目录而言。比如

  1. [spark@sparksinglenode bin]$ pwd
  2. /usr/local/spark/spark-1.6.1-bin-hadoop2.6/bin
  3. [spark@sparksinglenode bin]$ ./spark-shell
  4. log4j:WARN No appenders could be found for logger (org.apache.hadoop.metrics2.lib.MutableMetricsFactory).
  5. log4j:WARN Please initialize the log4j system properly.
  6. log4j:WARN See http://logging.apache.org/log4j/1.2/faq.html#noconfig for more info.
  7. Using Spark's repl log4j profile: org/apache/spark/log4j-defaults-repl.properties
  8. To adjust logging level use sc.setLogLevel("INFO")
  9. Welcome to
  10. ____ __
  11. / __/__ ___ _____/ /__
  12. _\ \/ _ \/ _ `/ __/ '_/
  13. /___/ .__/\_,_/_/ /_/\_\ version 1.6.1
  14. /_/
  15.  
  16. Using Scala version 2.10.5 (Java HotSpot(TM) 64-Bit Server VM, Java 1.8.0_60)
  17. Type in expressions to have them evaluated.
  18. Type :help for more information.
  19. Spark context available as sc.
  20. 17/03/24 04:37:19 WARN Connection: BoneCP specified but not present in CLASSPATH (or one of dependencies)
  21. 17/03/24 04:37:21 WARN Connection: BoneCP specified but not present in CLASSPATH (or one of dependencies)
  22. 17/03/24 04:37:36 WARN ObjectStore: Version information not found in metastore. hive.metastore.schema.verification is not enabled so recording the schema version 1.2.0
  23. 17/03/24 04:37:36 WARN ObjectStore: Failed to get database default, returning NoSuchObjectException
  24. 17/03/24 04:37:43 WARN Connection: BoneCP specified but not present in CLASSPATH (or one of dependencies)
  25. 17/03/24 04:37:43 WARN Connection: BoneCP specified but not present in CLASSPATH (or one of dependencies)
  26. 17/03/24 04:37:53 WARN ObjectStore: Version information not found in metastore. hive.metastore.schema.verification is not enabled so recording the schema version 1.2.0
  27. 17/03/24 04:37:53 WARN ObjectStore: Failed to get database default, returning NoSuchObjectException
  28. SQL context available as sqlContext.
  29.  
  30. scala>

  拿example而言,比如

  例子,(官网给的)

http://spark.apache.org/docs/latest/quick-start.html

欢迎大家,加入我的4个微信公众号:    大数据躺过的坑     Java从入门到架构师    人工智能躺过的坑     Java全栈大联盟    
 
 
 

同时,大家可以关注我的个人博客

   http://www.cnblogs.com/zlslch/   和     http://www.cnblogs.com/lchzls/      http://www.cnblogs.com/sunnyDream/   

   详情请见:http://www.cnblogs.com/zlslch/p/7473861.html

  人生苦短,我愿分享。本公众号将秉持活到老学到老学习无休止的交流分享开源精神,汇聚于互联网和个人学习工作的精华干货知识,一切来于互联网,反馈回互联网。
  目前研究领域:大数据、机器学习、深度学习、人工智能、数据挖掘、数据分析。 语言涉及:Java、Scala、Python、Shell、Linux等 。同时还涉及平常所使用的手机、电脑和互联网上的使用技巧、问题和实用软件。 只要你一直关注和呆在群里,每天必须有收获

对应本平台的讨论和答疑QQ群:大数据和人工智能躺过的坑(总群)(161156071) 

 

打开百度App,扫码,精彩文章每天更新!欢迎关注我的百家号: 九月哥快讯

带你认识spark安装包的目录结构的更多相关文章

  1. hadoop安装包的目录结构

    初次接触Hadoop,了解了Hadoop安装包的目录结构,和大家分享下: bin:Hadoop最基本的管理脚本和使用脚本的目录,这些脚本是sbin目录下管理脚本的基础实现,用户可以直接使用这些脚本管理 ...

  2. vs2010制作带卸载功能的安装包过程,及asp.net网站iis发布、备份数据库

    1:新建安装部署项目 打开VS编辑器,点击新建项目,选择:其他项目类型->安装与部署->安装项目,然后点击确定. 2 安装向导完成后即可进入项目文件夹: 双击"应用程序文件夹&q ...

  3. Linux 查找安装包所在目录的常用方法

    1. which命令查找出相关命令是否已经在搜索路径中: $which gcc //显示出GNC的C编译器安装在哪个目录 返回: /usr/bin/gcc 注意:如果which没有找到要找的命令,可以 ...

  4. InstallShield 12 制作安装包

    目  录 一. 二. 三. (一) 打开project... 2 (二) project助手页面... 3 1.Application Information:程序信息... 4 2.Installa ...

  5. 有关VS2008制作安装包时遇到的问题详解

    公司最近要做一个安装包,然而在做的时候遇到好多问题,这里我一一记录下来 一.先用VS2008建一个Setup项目,添加你需要打包的文件,这里我就不具体介绍了,网上一搜都好多,这时我们一般都需要在安装前 ...

  6. astgo 老版本免激活完整安装包带安装命令脚本

    astgo是个国产的老牌经典软交换服务器,主要用来当回拨网络电话服务端,同时也具备群呼.传真等功能! 这个需要安装在centos 5.x 32位系统.带安装脚本,上传到root目录后执行安装脚本即可等 ...

  7. python一些模块的exe安装包在windows的64位系统里识别不到已安装Python目录的解决方法

    在windows里安装python一些模块时候,有时候源码安装比较困难,pip install也各种报错,这时候最喜欢用别人编译好的exe或者whl文件来安装,但是在windows的64位系统里,如果 ...

  8. Windows安装docker (带安装包)

    docker安装包链接 链接:https://pan.baidu.com/s/1JBk8GCH6j_WeGdoaUuIoWw 提取码:8kgg 我电脑上有了git所以没有勾选最后一个 安装完成后将此目 ...

  9. Solr 01 - 什么是Solr + Solr安装包目录结构说明

    目录 1 Solr概述 1.1 Solr是什么 1.2 Solr与Lucene的区别 2 Solr文件说明 2.1 Solr的目录结构 2.2 其他常用概念说明 2.3 创建基础文件目录 2.4 so ...

随机推荐

  1. 20169219《linux内核原理与分析》第九周作业

    网易云课堂学习 可执行程序的装载 可执行程序的产生过程:预处理-----> 编译 ----> 汇编 ----> 链接 以hello.c文件为例进行分析,编译步骤如下 vi hello ...

  2. 小小c#算法题 - 10 - 求树的深度

    树型结构是一类重要的非线性数据结构,树是以分支关系定义的层次结构,是n(n>=0)个结点的有限集.关于树的基本概念不再作过多陈述,相信大家都有了解,如有遗忘,可翻书或去其他网页浏览以温习. 树中 ...

  3. BCP导入导出

  4. Powershell Deploy Service Fabric Application To Local Cluster

    之前写过一篇用 Powershell 部署 Service Fabric Application 到本地集群的随笔,感觉过程有点复杂,这次将流程简化,只需要将应用程序打包,加上配置文件就可以了.   ...

  5. c++语言的组合类的使用,用组合类的方法计算两点间距离。

    组合类的使用主要涉及到类的构造函数,类的复制构造函数. #include <iostream> #include<cmath> class Point{ public: Poi ...

  6. 基于XML的类的属性的装配

    基于XML的属性装配 1.手动装配 <!-- 属性的装配:手动装配 --> <bean id="userService" class="com.neue ...

  7. 查看ip常见命令...

    1.获取ip Unix用户可以在命令提示符中输入ifconfig来获取. 使用Windows的用户,请尝试使用 ipconfig 命令.

  8. kuangbin专题十六 KMP&&扩展KMP HDU1686 Oulipo

    The French author Georges Perec (1936–1982) once wrote a book, La disparition, without the letter 'e ...

  9. 洛谷 P1003 铺地毯

    嗯.... 一道比较水的模拟题.. 刚拿到题的时候被它的数据范围吓到了,二维数组不可能开那么大啊,可是一边做发现测试数据太水 ... 先看一下题吧... 题目描述 为了准备一个独特的颁奖典礼,组织者在 ...

  10. nginx的配置文件(反向代理和主配置)

    配置文件保存,是为了工作方便.特别是优化好的配置.我们基本可以直接复制粘贴.这样做可以快速的完成手上的工作!! vim nginx.conf user nginx; worker_processes ...