spark搭建】的更多相关文章

Spark大数据平台有使用一段时间了,但大部分都是用于实验而搭建起来用的,搭建过Spark完全分布式,也搭建过用于测试的伪分布式.现在是写一遍随笔,记录一下曾经搭建过的环境,免得以后自己忘记了.也给和初学者以及曾经挖过坑的人用作参考. Hive on Spark是Hive跑在Spark上,用的是Spark执行引擎,而不是默认的MapReduce. 可以查阅官网的资源Hive on Spark: Getting Started. 一 .安装基础环境 1.1 Java1.8环境搭建 1) 下载jdk…
1.准备三台虚拟机 2.hadoop+hive+spark+java软件包 传送门:Hadoop官网 Hive官网 Spark官网      一.修改主机名,hosts文件 主机名修改 hostnamectl set-hostname *** hosts文件修改 vi /etc/hosts 写入以下内容 master 192.168.0.110 slaver1 192.168.0.111 slaver2 192.168.0.112 SSH免登陆 运行命令 ssh-keygen -t rsa生成秘…
晚上出去和洋仔吃了涮肉,喝了点啤酒,不知不觉就聊到了11点,感觉他工作状态还不错,emmm...都要加油吧.虽然没有当时去山西零下二十多度那么夸张,这几天北京的冬夜还是有点小冷的.好了进入正题: 一.openfire服务器的配置 1. 下载安装包按步骤进行安装,我用的版本号是:4.2.1 2. 安装结束后在网页内管理服务器,这里依照右边的导航栏依次往下设置就可以了. 3. 域名的填写最为关键,当时的问题就是出在这里,这一步网上其他博客说的都很模糊,我在这里根据我的安装经验说一下.如果你填 loc…
1.搭建3台虚拟机 2.建立账户及信任关系 3.安装java wget jdk-xxx rpm -i jdk-xxx 4.添加环境变量(全部) export JAVA_HOME=/usr/java/jdk1..0_141 export JRE_HOME=$JAVA_HOME/jre export PATH=$PATH:$JAVA_HOME/bin:$JAVA_HOME/jre/bin export CLASSPATH=$CLASSPATH:.:$JAVA_HOME/lib:$JAVA_HOME/…
基础环境准备 安装JDK1.8+,并设置环境变量 搭建zookeeper集群 搭建Hadoop集群 Spark local模式 上传编译完成的spark安装程序到服务器上,并解压到指定目录 [root@hadoop01 soft]# -bin--cdh5.14.0.tgz -C /usr/local/ [root@hadoop01 soft]# cd /usr/local/ [root@hadoop01 local]# -bin--cdh5.14.0/ spark [root@hadoop01…
因玩票需要,使用三台搭建spark(192.168.1.10,192.168.1.11,192.168.1.12),又因spark构建在hadoop之上,那么就需要先搭建hadoop.历经一个两个下午,终于搭建完成,特记录如下. 准备工作 1. jdk已经安装. 2. 文件下载 http://pan.baidu.com/s/1o6mydYi 包含scala,hadoop,spark 3. ssh无密码认证 三台互相无密码认证步骤: 第一步,生成rsa公约私钥: [root@jw01 .ssh]#…
一.spark安装   因为之前安装过hadoop,所以,在“Choose a package type”后面需要选择“Pre-build with user-provided Hadoop [can use with most Hadoop distributions]”,然后,点击“Download Spark”后面的“spark-2.1.0-bin-without-hadoop.tgz”下载即可.Pre-build with user-provided Hadoop: 属于“Hadoop…
1.背景介绍 从20世纪90年代数字化医院概念提出到至今的20多年时间,数字化医院(Digital Hospital)在国内各大医院飞速的普及推广发展,并取得骄人成绩.不但有数字化医院管理信息系统(HIS).影像存档和通信系统(PACS).电子病历系统(EMR)和区域医疗卫生服务(GMIS)等成功实施与普及推广,而且随着日新月异的计算机技术和网络技术的革新,进一步为数字化医院带来新的交互渠道譬如:远程医疗服务,网上挂号预约. 随着IT技术的飞速发展,80%以上的三级医院都相继建立了自己的医院信息…
实验环境: zookeeper-3.4.6 Spark:1.6.0 简单介绍: 本篇博客将从下面几点组织文章: 一:Spark 构建高可用HA架构 二:动手实战构建高可用HA 三:提交程序測试HA 一:Spark 构建高可用HA架构 Spark本身是Master和Slave,而这这里的 Master是指Spark资源调度和分配. 负责整个集群的资源调度和分配. Worker是管理单个节点的资源. 这里面的资源主要指:内存和CPU. 1. Master-Slave模型非常easy出现单节点故障的问…
欢迎和大家交流技术相关问题: 邮箱: jiangxinnju@163.com 博客园地址: http://www.cnblogs.com/jiangxinnju GitHub地址: https://github.com/jiangxincode 知乎地址: https://www.zhihu.com/people/jiangxinnju Scala IDE complains about '... is cross-compiled with an incompatible version of…