运行spark-shell 或者scala命令,出现以下错误:

Welcome to Scala version 2.10.6 (Java HotSpot(TM) 64-Bit Server VM, Java 1.8.0_66).
Type in expressions to have them evaluated.
Type :help for more information. scala> [init] error: error while loading <root>, error in opening zip file Failed to initialize compiler: object scala.runtime in compiler mirror not found.
** Note that as of 2.8 scala does not assume use of the java classpath.
** For the old behavior pass -usejavacp to scala, or if using a Settings
** object programatically, settings.usejavacp.value = true.

解决方法:删除下面以点开头的包

cd /usr/lib/jvm/jdk1.8.0_66/jre/lib/ext/


root@ha0:/usr/lib/jvm/jdk1.8.0_66/jre/lib/ext# ls -la total 25676 drwxrwxr-x 2 501 root 4096 Feb 3 15:49 . drwxrwxr-x 15 501 root 4096 Feb 3 15:49 .. -rwxrwxr-x 1 501 staff 176 Oct 7 08:36 ._cldrdata.jar -rwxrwxr-x 1 501 root 3860522 Oct 7 08:36 cldrdata.jar -rwxrwxr-x 1 501 staff 176 Oct 7 08:36 ._dnsns.jar -rwxrwxr-x 1 501 root 8286 Oct 7 08:36 dnsns.jar -rwxrwxr-x 1 501 staff 176 Oct 7 08:36 ._jaccess.jar -rwxrwxr-x 1 501 root 44516 Oct 7 08:36 jaccess.jar -rwxrwxr-x 1 501 staff 176 Oct 7 04:00 ._jfxrt.jar -rwxrwxr-x 1 501 root 18467564 Oct 7 04:00 jfxrt.jar -rwxrwxr-x 1 501 staff 176 Oct 7 08:36 ._localedata.jar -rwxrwxr-x 1 501 root 1178935 Oct 7 08:36 localedata.jar -rwxrwxr-x 1 501 staff 176 Oct 7 08:37 ._meta-index -rwxrwxr-x 1 501 root 1269 Oct 7 08:37 meta-index -rwxrwxr-x 1 501 staff 176 Oct 7 08:36 ._nashorn.jar -rwxrwxr-x 1 501 root 2015935 Oct 7 08:36 nashorn.jar -rwxrwxr-x 1 501 staff 176 Oct 7 08:36 ._sunec.jar -rwxrwxr-x 1 501 root 39771 Oct 7 08:36 sunec.jar -rwxrwxr-x 1 501 staff 176 Oct 7 08:36 ._sunjce_provider.jar -rwxrwxr-x 1 501 root 278680 Oct 7 08:36 sunjce_provider.jar -rwxrwxr-x 1 501 staff 176 Oct 7 08:36 ._sunpkcs11.jar -rwxrwxr-x 1 501 root 250826 Oct 7 08:36 sunpkcs11.jar -rwxrwxr-x 1 501 staff 176 Oct 7 08:36 ._zipfs.jar -rwxrwxr-x 1 501 root 68849 Oct 7 08:36 zipfs.jar root@ha0:/usr/lib/jvm/jdk1.8.0_66/jre/lib/ext# rm ._*.jar root@ha0:/usr/lib/jvm/jdk1.8.0_66/jre/lib/ext# ls -la total 25636 drwxrwxr-x 2 501 root 4096 Feb 25 18:01 . drwxrwxr-x 15 501 root 4096 Feb 3 15:49 .. -rwxrwxr-x 1 501 root 3860522 Oct 7 08:36 cldrdata.jar -rwxrwxr-x 1 501 root 8286 Oct 7 08:36 dnsns.jar -rwxrwxr-x 1 501 root 44516 Oct 7 08:36 jaccess.jar -rwxrwxr-x 1 501 root 18467564 Oct 7 04:00 jfxrt.jar -rwxrwxr-x 1 501 root 1178935 Oct 7 08:36 localedata.jar -rwxrwxr-x 1 501 staff 176 Oct 7 08:37 ._meta-index -rwxrwxr-x 1 501 root 1269 Oct 7 08:37 meta-index -rwxrwxr-x 1 501 root 2015935 Oct 7 08:36 nashorn.jar -rwxrwxr-x 1 501 root 39771 Oct 7 08:36 sunec.jar -rwxrwxr-x 1 501 root 278680 Oct 7 08:36 sunjce_provider.jar -rwxrwxr-x 1 501 root 250826 Oct 7 08:36 sunpkcs11.jar -rwxrwxr-x 1 501 root 68849 Oct 7 08:36 zipfs.jar root@ha0:/usr/lib/jvm/jdk1.8.0_66/jre/lib/ext# scala

spark-shell和scala错误的更多相关文章

  1. 在Scala IDEA for Eclipse或IDEA里程序编译实现与在Spark Shell下的对比(其实就是那么一回事)

    不多说,直接上干货! 比如,我这里拿主成分分析(PCA). 1.主成分分析(PCA)的概念介绍 主成分分析(PCA) 是一种对数据进行旋转变换的统计学方法,其本质是在线性空间中进行一个基变换,使得变换 ...

  2. Spark源码分析之Spark Shell(上)

    终于开始看Spark源码了,先从最常用的spark-shell脚本开始吧.不要觉得一个启动脚本有什么东东,其实里面还是有很多知识点的.另外,从启动脚本入手,是寻找代码入口最简单的方法,很多开源框架,其 ...

  3. Spark源码分析之Spark Shell(下)

    继上次的Spark-shell脚本源码分析,还剩下后面半段.由于上次涉及了不少shell的基本内容,因此就把trap和stty放在这篇来讲述. 上篇回顾:Spark源码分析之Spark Shell(上 ...

  4. Spark shell的原理

    Spark shell是一个特别适合快速开发Spark原型程序的工具,可以帮助我们熟悉Scala语言.即使你对Scala不熟悉,仍然可以使用这个工具.Spark shell使得用户可以和Spark集群 ...

  5. Spark:使用Spark Shell的两个示例

    Spark:使用Spark Shell的两个示例 Python 行数统计 ** 注意: **使用的是Hadoop的HDFS作为持久层,需要先配置Hadoop 命令行代码 # pyspark >& ...

  6. [Spark内核] 第36课:TaskScheduler内幕天机解密:Spark shell案例运行日志详解、TaskScheduler和SchedulerBackend、FIFO与FAIR、Task运行时本地性算法详解等

    本課主題 通过 Spark-shell 窥探程序运行时的状况 TaskScheduler 与 SchedulerBackend 之间的关系 FIFO 与 FAIR 两种调度模式彻底解密 Task 数据 ...

  7. 【原创 Hadoop&Spark 动手实践 5】Spark 基础入门,集群搭建以及Spark Shell

    Spark 基础入门,集群搭建以及Spark Shell 主要借助Spark基础的PPT,再加上实际的动手操作来加强概念的理解和实践. Spark 安装部署 理论已经了解的差不多了,接下来是实际动手实 ...

  8. Spark Shell简单使用

    基础 Spark的shell作为一个强大的交互式数据分析工具,提供了一个简单的方式学习API.它可以使用Scala(在Java虚拟机上运行现有的Java库的一个很好方式)或Python.在Spark目 ...

  9. Spark Shell Examples

    Spark Shell Example 1 - Process Data from List: scala> val pairs = sc.parallelize( List( ("T ...

  10. 02、体验Spark shell下RDD编程

    02.体验Spark shell下RDD编程 1.Spark RDD介绍 RDD是Resilient Distributed Dataset,中文翻译是弹性分布式数据集.该类是Spark是核心类成员之 ...

随机推荐

  1. Linux记录从此开始

    Linux记录从此开始~ 希望自己多写代码同时多记录~

  2. public/private/protected访问控制权限的区别

    //public/private/protected访问控制权限的区别//时间:2016/8/16 //(一)修饰成员: //public: 在类内.类外都能使用 . //protected: 在类内 ...

  3. js switch 扩展

    //demo var num=99 switch(n){ case 80<n: document.write("优秀");break; case 70<n: docum ...

  4. lua随机数函数

    function rnd(max)  --lua的第1次random数不靠谱,取第3次的靠谱  local ret=0  math.randomseed(os.time())  for i=1,3 d ...

  5. 王爽 <<汇编 语言>> 13.6 BIOS中断例程应用

    ;名称:ILOVEU程序 ;使用BIOS提供的中断例程 assume cs:code code segment main: ;显示背景22*80 ;dh中放行号 ;dl中放列号 bibi: push ...

  6. /px/em/rem/的区别

    PX特点: 1 .IE无法调整那些使用px作为单位的字体大小: 2. 国外的大部分网站能够调整的原因在于其使用了em或rem作为字体单位: 3.Firefox能够调整px和em,rem,但是96%以上 ...

  7. JMeter基础之一 一个简单的性能测试

    JMeter基础之一 一个简单的性能测试 上一节中,我们了解了jmeter的一此主要元件,那么这些元件如何使用到性能测试中呢.这一节创建一个简单的测试计划来使用这些元件.该计划对应的测试需求. 1)测 ...

  8. Weblogic是瓦特?和JVM是瓦特关系?

    所谓固定内存60M是瓦特? 以下内容是个瓦特? “总内存大小=堆内存+非堆内存1200m:为堆内存大小,如果不指定后者参数则有最大数限制,网上很多文章认为这就是JVM内存,-Xmx为设置最大堆内存60 ...

  9. javascript标识符

    标识符,就是指变量.函数.属性的名字,或者函数的参数. 规则 1.第一个字符必须是一个字母.下划线或是美元符号($) 2.其他字符可以是字母.下划线.美元符号或数字 3.不能是关键字和保留字 4.区分 ...

  10. c#变量缺少using引用,如何快速加上using,加Using的快捷键[bubuko.com]

    在vs的“工具”->“选项”中,左侧树形菜单,“环境”下的“键盘”中设置快捷键. 在“显示命令包含”输入框内输入“显示智能标记”,找到“视图.显示智能标记”,可以看到该命令的快捷键已经分配了2个 ...