最近在Hive中使用Spark引擎进行执行时(set hive.execution.engine=spark),经常遇到return code 30041的报错,为了深入探究其原因,阅读了官方issue.相关博客进行了研究.下面从报错现象.原因分析.解决方案几个方面进行介绍,最后做一下小结. (一)报错现象 ERROR : FAILED: Execution Error, return code 30041 from org.apache.hadoop.hive.ql.exec.spark.Sp…
最近在hive里将mr换成spark引擎后,执行插入和一些复杂的hql会触发下面的异常: org.apache.hive.service.cli.HiveSQLException: Error while compiling statement: FAILED: SemanticException Failed to get a spark session: org.apache.hadoop.hive.ql.metadata.HiveException: Failed to create Sp…
最近在做AX2012 R3 CU9 到CU11的upgrade时 (用的Admin帐号), 在Date upgrade 的 synchronize database 这步 跑了一半,报出错误 说“failed to create a session; confirm that the user has the proper privileges to log on to the Microsoft Dynamics.”. Bing了一圈,找到了有用信息http://community.dynam…
问题描述 IDE:pycharm,环境中安装tensorflow-gpu 1.8.0 ,Cuda9 ,cudnn 7,等,运行代码 报错如下 tensorflow.python.framework.errors_impl.InternalError: Failed to create session 解决方案 在代码中添加gpu的配置代码 import os os.environ["CUDA_VISIBLE_DEVICES"] = '0' #use GPU with ID=0 conf…
1 贴出完整日志信息 // :: INFO client.RMProxy: Connecting to ResourceManager at hdp1/ // :: INFO yarn.Client: Requesting a new application from cluster with NodeManagers // :: INFO yarn.Client: Verifying our application has not requested MB per container) //…
经过几天闲暇时间的学习,终于又理解的深入了一些,关于Spark Client如何提交作业也更清晰了点. 在整体的流程图上是这样的: 大体的思路就是应用程序通过SparkSubmit提交程序后,自动在当前的JVM中启动Driver,然后与Master通信创建Excutor执行相应的任务. 自己整理了下流程图 以及的组件图: 可以看到大概是下面的步骤: 新建SparkContext 创建对应的scheduler和schedulerBackend val (sched, ts) = SparkCont…
  2014-02-18 08:06:17 By Ly #Linux 阅读(78) 评论(0) 错误信息如下: Root-NFS: nfsroot=/home/zenki/nfs/rootfs NFS: nfs mount opts='udp,nolock,addr=192.168.8.1' NFS:   parsing nfs mount option 'udp' NFS:   parsing nfs mount option 'nolock' NFS:   parsing nfs mount…
前提:完成hadoop + kerberos安全环境搭建. 安装配置spark client: 1. wget https://d3kbcqa49mib13.cloudfront.net/spark-2.2.0-bin-hadoop2.7.tgz 2. 配置 指定hadoop路径 vim conf/spark-env.sh HADOOP_CONF_DIR=/xxx/soft/hadoop-2.7.3/etc/hadoop 配置环境变量: vim /etc/profile export SPARK…
Spark2.1.1 一 Spark Submit本地解析 1.1 现象 提交命令: spark-submit --master local[10] --driver-memory 30g --class app.package.AppClass app-1.0.jar 进程: hadoop 225653 0.0 0.0 11256 364 ? S Aug24 0:00 bash /$spark-dir/bin/spark-class org.apache.spark.deploy.SparkS…
使用Docker-Hub中Spark排行最高的sequenceiq/spark:1.6.0. 操作: 拉取镜像: [root@localhost home]# docker pull sequenceiq/spark: Trying to pull repository docker.io/sequenceiq/spark ... 启动容器: [root@localhost home]# docker image ls REPOSITORY TAG IMAGE ID CREATED SIZE d…