运行spark-shell 或者scala命令,出现以下错误:

Welcome to Scala version 2.10.6 (Java HotSpot(TM) 64-Bit Server VM, Java 1.8.0_66).
Type in expressions to have them evaluated.
Type :help for more information. scala> [init] error: error while loading <root>, error in opening zip file Failed to initialize compiler: object scala.runtime in compiler mirror not found.
** Note that as of 2.8 scala does not assume use of the java classpath.
** For the old behavior pass -usejavacp to scala, or if using a Settings
** object programatically, settings.usejavacp.value = true.

解决方法:删除下面以点开头的包

cd /usr/lib/jvm/jdk1.8.0_66/jre/lib/ext/


root@ha0:/usr/lib/jvm/jdk1.8.0_66/jre/lib/ext# ls -la total 25676 drwxrwxr-x 2 501 root 4096 Feb 3 15:49 . drwxrwxr-x 15 501 root 4096 Feb 3 15:49 .. -rwxrwxr-x 1 501 staff 176 Oct 7 08:36 ._cldrdata.jar -rwxrwxr-x 1 501 root 3860522 Oct 7 08:36 cldrdata.jar -rwxrwxr-x 1 501 staff 176 Oct 7 08:36 ._dnsns.jar -rwxrwxr-x 1 501 root 8286 Oct 7 08:36 dnsns.jar -rwxrwxr-x 1 501 staff 176 Oct 7 08:36 ._jaccess.jar -rwxrwxr-x 1 501 root 44516 Oct 7 08:36 jaccess.jar -rwxrwxr-x 1 501 staff 176 Oct 7 04:00 ._jfxrt.jar -rwxrwxr-x 1 501 root 18467564 Oct 7 04:00 jfxrt.jar -rwxrwxr-x 1 501 staff 176 Oct 7 08:36 ._localedata.jar -rwxrwxr-x 1 501 root 1178935 Oct 7 08:36 localedata.jar -rwxrwxr-x 1 501 staff 176 Oct 7 08:37 ._meta-index -rwxrwxr-x 1 501 root 1269 Oct 7 08:37 meta-index -rwxrwxr-x 1 501 staff 176 Oct 7 08:36 ._nashorn.jar -rwxrwxr-x 1 501 root 2015935 Oct 7 08:36 nashorn.jar -rwxrwxr-x 1 501 staff 176 Oct 7 08:36 ._sunec.jar -rwxrwxr-x 1 501 root 39771 Oct 7 08:36 sunec.jar -rwxrwxr-x 1 501 staff 176 Oct 7 08:36 ._sunjce_provider.jar -rwxrwxr-x 1 501 root 278680 Oct 7 08:36 sunjce_provider.jar -rwxrwxr-x 1 501 staff 176 Oct 7 08:36 ._sunpkcs11.jar -rwxrwxr-x 1 501 root 250826 Oct 7 08:36 sunpkcs11.jar -rwxrwxr-x 1 501 staff 176 Oct 7 08:36 ._zipfs.jar -rwxrwxr-x 1 501 root 68849 Oct 7 08:36 zipfs.jar root@ha0:/usr/lib/jvm/jdk1.8.0_66/jre/lib/ext# rm ._*.jar root@ha0:/usr/lib/jvm/jdk1.8.0_66/jre/lib/ext# ls -la total 25636 drwxrwxr-x 2 501 root 4096 Feb 25 18:01 . drwxrwxr-x 15 501 root 4096 Feb 3 15:49 .. -rwxrwxr-x 1 501 root 3860522 Oct 7 08:36 cldrdata.jar -rwxrwxr-x 1 501 root 8286 Oct 7 08:36 dnsns.jar -rwxrwxr-x 1 501 root 44516 Oct 7 08:36 jaccess.jar -rwxrwxr-x 1 501 root 18467564 Oct 7 04:00 jfxrt.jar -rwxrwxr-x 1 501 root 1178935 Oct 7 08:36 localedata.jar -rwxrwxr-x 1 501 staff 176 Oct 7 08:37 ._meta-index -rwxrwxr-x 1 501 root 1269 Oct 7 08:37 meta-index -rwxrwxr-x 1 501 root 2015935 Oct 7 08:36 nashorn.jar -rwxrwxr-x 1 501 root 39771 Oct 7 08:36 sunec.jar -rwxrwxr-x 1 501 root 278680 Oct 7 08:36 sunjce_provider.jar -rwxrwxr-x 1 501 root 250826 Oct 7 08:36 sunpkcs11.jar -rwxrwxr-x 1 501 root 68849 Oct 7 08:36 zipfs.jar root@ha0:/usr/lib/jvm/jdk1.8.0_66/jre/lib/ext# scala

spark-shell和scala错误的更多相关文章

  1. 在Scala IDEA for Eclipse或IDEA里程序编译实现与在Spark Shell下的对比(其实就是那么一回事)

    不多说,直接上干货! 比如,我这里拿主成分分析(PCA). 1.主成分分析(PCA)的概念介绍 主成分分析(PCA) 是一种对数据进行旋转变换的统计学方法,其本质是在线性空间中进行一个基变换,使得变换 ...

  2. Spark源码分析之Spark Shell(上)

    终于开始看Spark源码了,先从最常用的spark-shell脚本开始吧.不要觉得一个启动脚本有什么东东,其实里面还是有很多知识点的.另外,从启动脚本入手,是寻找代码入口最简单的方法,很多开源框架,其 ...

  3. Spark源码分析之Spark Shell(下)

    继上次的Spark-shell脚本源码分析,还剩下后面半段.由于上次涉及了不少shell的基本内容,因此就把trap和stty放在这篇来讲述. 上篇回顾:Spark源码分析之Spark Shell(上 ...

  4. Spark shell的原理

    Spark shell是一个特别适合快速开发Spark原型程序的工具,可以帮助我们熟悉Scala语言.即使你对Scala不熟悉,仍然可以使用这个工具.Spark shell使得用户可以和Spark集群 ...

  5. Spark:使用Spark Shell的两个示例

    Spark:使用Spark Shell的两个示例 Python 行数统计 ** 注意: **使用的是Hadoop的HDFS作为持久层,需要先配置Hadoop 命令行代码 # pyspark >& ...

  6. [Spark内核] 第36课:TaskScheduler内幕天机解密:Spark shell案例运行日志详解、TaskScheduler和SchedulerBackend、FIFO与FAIR、Task运行时本地性算法详解等

    本課主題 通过 Spark-shell 窥探程序运行时的状况 TaskScheduler 与 SchedulerBackend 之间的关系 FIFO 与 FAIR 两种调度模式彻底解密 Task 数据 ...

  7. 【原创 Hadoop&Spark 动手实践 5】Spark 基础入门,集群搭建以及Spark Shell

    Spark 基础入门,集群搭建以及Spark Shell 主要借助Spark基础的PPT,再加上实际的动手操作来加强概念的理解和实践. Spark 安装部署 理论已经了解的差不多了,接下来是实际动手实 ...

  8. Spark Shell简单使用

    基础 Spark的shell作为一个强大的交互式数据分析工具,提供了一个简单的方式学习API.它可以使用Scala(在Java虚拟机上运行现有的Java库的一个很好方式)或Python.在Spark目 ...

  9. Spark Shell Examples

    Spark Shell Example 1 - Process Data from List: scala> val pairs = sc.parallelize( List( ("T ...

  10. 02、体验Spark shell下RDD编程

    02.体验Spark shell下RDD编程 1.Spark RDD介绍 RDD是Resilient Distributed Dataset,中文翻译是弹性分布式数据集.该类是Spark是核心类成员之 ...

随机推荐

  1. HDU 5446 中国剩余定理+lucas

    Unknown Treasure Time Limit: 1500/1000 MS (Java/Others)    Memory Limit: 131072/131072 K (Java/Other ...

  2. 上传到github!

    今天课上在冯老师的带领下终于在github上成功上传了东西但是还有很多没用的东西,慢慢研究改进! https://github.com/Hxy94264/GitHubTest https://gith ...

  3. linuxz终端开启echo颜色显示

    echo输出命令echo [选项] [输出内容]-e //支持反斜线控制的字符转换:控制字符:\a //输出警告音:\b //退格键,也就是向左删除键:\n //换行符:\r //回车键:\t //制 ...

  4. PE文件格式 持续更新ing

    PE文件就是exe文件和dll文件,前者是可执行文件,后者是动态连接库文件.两者的区别仅仅是字面上的,唯一的区别就是内部的一个字段标识这个文件是exe文件还是dll文件. 对于PE文件格式,举一个例子 ...

  5. Beta版本发布说明

    发布地址 https://github.com/LongWerLingShi/DataObtainingAndHandling/tree/beta 版本开发背景 首先,应软件工程课程要求,我们小组针对 ...

  6. c#事件机制

    namespace test { class Publisher//出版社 { public delegate void PubComputer(string magazineName);//声明事件 ...

  7. JavaScript数据类型之隐式类型转换

    JavaScript的数据类型分为七种,分别为null,undefined,boolean,string,number,object,symbol ( ECMAScript 2015新增).objec ...

  8. 首页使用page类完成生成页面内容的大部分工作

    fs2在处理异常及资源使用安全方面也有比较大的改善.fs2 Stream可以有几种方式自行引发异常:直接以函数式方式用fail来引发异常.在纯代码里隐式引发异常或者在运算中引发异常,最开始只是我自己浏 ...

  9. linux下shell编写九九乘法表

    主要语法:类似    1x2       echo   $((1*2)) for 变量 in 值1 值2 值3 ;do linux命令或者语句done

  10. 改写《python基础教程》中的一个例子

    一.前言 初学python,看<python基础教程>,第20章实现了将文本转化成html的功能.由于本人之前有DIY一个markdown转html的算法,所以对这个例子有兴趣.可仔细一看 ...