spark-shell和scala错误
运行spark-shell 或者scala命令,出现以下错误:
Welcome to Scala version 2.10.6 (Java HotSpot(TM) 64-Bit Server VM, Java 1.8.0_66).
Type in expressions to have them evaluated.
Type :help for more information.
scala> [init] error: error while loading <root>, error in opening zip file
Failed to initialize compiler: object scala.runtime in compiler mirror not found.
** Note that as of 2.8 scala does not assume use of the java classpath.
** For the old behavior pass -usejavacp to scala, or if using a Settings
** object programatically, settings.usejavacp.value = true.
解决方法:删除下面以点开头的包
cd /usr/lib/jvm/jdk1.8.0_66/jre/lib/ext/
root@ha0:/usr/lib/jvm/jdk1.8.0_66/jre/lib/ext# ls -la
total 25676
drwxrwxr-x 2 501 root 4096 Feb 3 15:49 .
drwxrwxr-x 15 501 root 4096 Feb 3 15:49 ..
-rwxrwxr-x 1 501 staff 176 Oct 7 08:36 ._cldrdata.jar
-rwxrwxr-x 1 501 root 3860522 Oct 7 08:36 cldrdata.jar
-rwxrwxr-x 1 501 staff 176 Oct 7 08:36 ._dnsns.jar
-rwxrwxr-x 1 501 root 8286 Oct 7 08:36 dnsns.jar
-rwxrwxr-x 1 501 staff 176 Oct 7 08:36 ._jaccess.jar
-rwxrwxr-x 1 501 root 44516 Oct 7 08:36 jaccess.jar
-rwxrwxr-x 1 501 staff 176 Oct 7 04:00 ._jfxrt.jar
-rwxrwxr-x 1 501 root 18467564 Oct 7 04:00 jfxrt.jar
-rwxrwxr-x 1 501 staff 176 Oct 7 08:36 ._localedata.jar
-rwxrwxr-x 1 501 root 1178935 Oct 7 08:36 localedata.jar
-rwxrwxr-x 1 501 staff 176 Oct 7 08:37 ._meta-index
-rwxrwxr-x 1 501 root 1269 Oct 7 08:37 meta-index
-rwxrwxr-x 1 501 staff 176 Oct 7 08:36 ._nashorn.jar
-rwxrwxr-x 1 501 root 2015935 Oct 7 08:36 nashorn.jar
-rwxrwxr-x 1 501 staff 176 Oct 7 08:36 ._sunec.jar
-rwxrwxr-x 1 501 root 39771 Oct 7 08:36 sunec.jar
-rwxrwxr-x 1 501 staff 176 Oct 7 08:36 ._sunjce_provider.jar
-rwxrwxr-x 1 501 root 278680 Oct 7 08:36 sunjce_provider.jar
-rwxrwxr-x 1 501 staff 176 Oct 7 08:36 ._sunpkcs11.jar
-rwxrwxr-x 1 501 root 250826 Oct 7 08:36 sunpkcs11.jar
-rwxrwxr-x 1 501 staff 176 Oct 7 08:36 ._zipfs.jar
-rwxrwxr-x 1 501 root 68849 Oct 7 08:36 zipfs.jar
root@ha0:/usr/lib/jvm/jdk1.8.0_66/jre/lib/ext# rm ._*.jar
root@ha0:/usr/lib/jvm/jdk1.8.0_66/jre/lib/ext# ls -la
total 25636
drwxrwxr-x 2 501 root 4096 Feb 25 18:01 .
drwxrwxr-x 15 501 root 4096 Feb 3 15:49 ..
-rwxrwxr-x 1 501 root 3860522 Oct 7 08:36 cldrdata.jar
-rwxrwxr-x 1 501 root 8286 Oct 7 08:36 dnsns.jar
-rwxrwxr-x 1 501 root 44516 Oct 7 08:36 jaccess.jar
-rwxrwxr-x 1 501 root 18467564 Oct 7 04:00 jfxrt.jar
-rwxrwxr-x 1 501 root 1178935 Oct 7 08:36 localedata.jar
-rwxrwxr-x 1 501 staff 176 Oct 7 08:37 ._meta-index
-rwxrwxr-x 1 501 root 1269 Oct 7 08:37 meta-index
-rwxrwxr-x 1 501 root 2015935 Oct 7 08:36 nashorn.jar
-rwxrwxr-x 1 501 root 39771 Oct 7 08:36 sunec.jar
-rwxrwxr-x 1 501 root 278680 Oct 7 08:36 sunjce_provider.jar
-rwxrwxr-x 1 501 root 250826 Oct 7 08:36 sunpkcs11.jar
-rwxrwxr-x 1 501 root 68849 Oct 7 08:36 zipfs.jar
root@ha0:/usr/lib/jvm/jdk1.8.0_66/jre/lib/ext# scala
spark-shell和scala错误的更多相关文章
- 在Scala IDEA for Eclipse或IDEA里程序编译实现与在Spark Shell下的对比(其实就是那么一回事)
不多说,直接上干货! 比如,我这里拿主成分分析(PCA). 1.主成分分析(PCA)的概念介绍 主成分分析(PCA) 是一种对数据进行旋转变换的统计学方法,其本质是在线性空间中进行一个基变换,使得变换 ...
- Spark源码分析之Spark Shell(上)
终于开始看Spark源码了,先从最常用的spark-shell脚本开始吧.不要觉得一个启动脚本有什么东东,其实里面还是有很多知识点的.另外,从启动脚本入手,是寻找代码入口最简单的方法,很多开源框架,其 ...
- Spark源码分析之Spark Shell(下)
继上次的Spark-shell脚本源码分析,还剩下后面半段.由于上次涉及了不少shell的基本内容,因此就把trap和stty放在这篇来讲述. 上篇回顾:Spark源码分析之Spark Shell(上 ...
- Spark shell的原理
Spark shell是一个特别适合快速开发Spark原型程序的工具,可以帮助我们熟悉Scala语言.即使你对Scala不熟悉,仍然可以使用这个工具.Spark shell使得用户可以和Spark集群 ...
- Spark:使用Spark Shell的两个示例
Spark:使用Spark Shell的两个示例 Python 行数统计 ** 注意: **使用的是Hadoop的HDFS作为持久层,需要先配置Hadoop 命令行代码 # pyspark >& ...
- [Spark内核] 第36课:TaskScheduler内幕天机解密:Spark shell案例运行日志详解、TaskScheduler和SchedulerBackend、FIFO与FAIR、Task运行时本地性算法详解等
本課主題 通过 Spark-shell 窥探程序运行时的状况 TaskScheduler 与 SchedulerBackend 之间的关系 FIFO 与 FAIR 两种调度模式彻底解密 Task 数据 ...
- 【原创 Hadoop&Spark 动手实践 5】Spark 基础入门,集群搭建以及Spark Shell
Spark 基础入门,集群搭建以及Spark Shell 主要借助Spark基础的PPT,再加上实际的动手操作来加强概念的理解和实践. Spark 安装部署 理论已经了解的差不多了,接下来是实际动手实 ...
- Spark Shell简单使用
基础 Spark的shell作为一个强大的交互式数据分析工具,提供了一个简单的方式学习API.它可以使用Scala(在Java虚拟机上运行现有的Java库的一个很好方式)或Python.在Spark目 ...
- Spark Shell Examples
Spark Shell Example 1 - Process Data from List: scala> val pairs = sc.parallelize( List( ("T ...
- 02、体验Spark shell下RDD编程
02.体验Spark shell下RDD编程 1.Spark RDD介绍 RDD是Resilient Distributed Dataset,中文翻译是弹性分布式数据集.该类是Spark是核心类成员之 ...
随机推荐
- Linux记录从此开始
Linux记录从此开始~ 希望自己多写代码同时多记录~
- public/private/protected访问控制权限的区别
//public/private/protected访问控制权限的区别//时间:2016/8/16 //(一)修饰成员: //public: 在类内.类外都能使用 . //protected: 在类内 ...
- js switch 扩展
//demo var num=99 switch(n){ case 80<n: document.write("优秀");break; case 70<n: docum ...
- lua随机数函数
function rnd(max) --lua的第1次random数不靠谱,取第3次的靠谱 local ret=0 math.randomseed(os.time()) for i=1,3 d ...
- 王爽 <<汇编 语言>> 13.6 BIOS中断例程应用
;名称:ILOVEU程序 ;使用BIOS提供的中断例程 assume cs:code code segment main: ;显示背景22*80 ;dh中放行号 ;dl中放列号 bibi: push ...
- /px/em/rem/的区别
PX特点: 1 .IE无法调整那些使用px作为单位的字体大小: 2. 国外的大部分网站能够调整的原因在于其使用了em或rem作为字体单位: 3.Firefox能够调整px和em,rem,但是96%以上 ...
- JMeter基础之一 一个简单的性能测试
JMeter基础之一 一个简单的性能测试 上一节中,我们了解了jmeter的一此主要元件,那么这些元件如何使用到性能测试中呢.这一节创建一个简单的测试计划来使用这些元件.该计划对应的测试需求. 1)测 ...
- Weblogic是瓦特?和JVM是瓦特关系?
所谓固定内存60M是瓦特? 以下内容是个瓦特? “总内存大小=堆内存+非堆内存1200m:为堆内存大小,如果不指定后者参数则有最大数限制,网上很多文章认为这就是JVM内存,-Xmx为设置最大堆内存60 ...
- javascript标识符
标识符,就是指变量.函数.属性的名字,或者函数的参数. 规则 1.第一个字符必须是一个字母.下划线或是美元符号($) 2.其他字符可以是字母.下划线.美元符号或数字 3.不能是关键字和保留字 4.区分 ...
- c#变量缺少using引用,如何快速加上using,加Using的快捷键[bubuko.com]
在vs的“工具”->“选项”中,左侧树形菜单,“环境”下的“键盘”中设置快捷键. 在“显示命令包含”输入框内输入“显示智能标记”,找到“视图.显示智能标记”,可以看到该命令的快捷键已经分配了2个 ...