Linux下的ssh、scala、spark配置
注:笔记旨在记录,配置方式每个人多少有点不同,但大同小异,以下是个人爱好的配置方式.
平台:win10下的ubuntu虚拟机内
所用到的文件:
hadoop-2.7.3.tar
jdk-11.0.7_linux-x64_bin.tar.gz
scala-2.11.12.zip
spark-2.4.5-bin-hadoop2.7_Working_Config.zip
下载请点这里 :s81k
预先步骤:
将上述文件下载并拷贝到虚拟机共享目录下(mnt/hgfs/共享文件夹名字)(外部window平台操作)
将共享文件夹下文件拷贝到usr/local下(llinux虚拟机内操作)。
常用代码:
切换到管理员代码:sudo su
修改文件权限:sudo chown -R 用户名 文件名(/*)
设置环境变量:vim ~/.bashrc
应用环境变量:source ~/.bashrc
一、配置jdk
1.1 打开终端,进入到usr/local目录下,直接解压文件jdk-11.0.7_linux-x64_bin.tar.gz到当前目录下,并改名,代码如下:
cd //usr/local
sudo mv dk-11.0.7_linux-x64_bin java
1.2 配置环境变量:
vim ~/.bashrc
1.3 在打开文件中加入以下代码:
#JAVA
export JAVA_HOME=/usr/local/Java
export JRE_HOME=$JAVA_HOME/jre
export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH
export CLASSPATH=$JAVA_HOME/lib:$JRE_HOME/lib:.
1.4 应用修改:
source ~/.bashrc
1.5 测试,能看到java版本则是配置成功:
java -version
二、配置ssh
2.1 创建文件.ssh: mkdir ~/.ssh
2.2 修改权限: chmod 700 ~/.ssh
2.3 生成公钥和私钥(一路回车): ssh-keygen –t rsa
2.4 将密钥加入授权:cat ./id_rsa.pub >> ./authorized_keys
2.5 测试:ssh localhost
三、配置hadoop
3.1 进入到usr/local目录下,直接解压文件hadoop-2.7.3.tar到当前目录下,并改名:
cd //usr/local
sudo mv hadoop-2.7.3 hadoop
3.2 修改文件权限:
sudo chown -R 用户名 hadoop
sudo chown -R 用户名 hadoop/*
3.3 查看版本号以及是否安装好:
uhadoop/bin/hadoop version
3.4 设置环境变量:vim ~/.bashrc
export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:/usr/local/hadoop/bin
3.5 应用修改:source ~/.bashrc
3.6 修改配置文件:(hadoop/etc/hadoop目录下,个人直接找到文件打开用文本编辑器编辑了)
vim core-site.xml
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/hadoop/hadoop_tmp</value>
<description>A base for other temporary directories.</description>
</property>
</configuration>
vim hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
vim mapred-site.xml
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
</configuration>
3.7 对namenode格式化: hadoop/bin/hadoop namenode –format
3.8 启动hadoop:hadoop/sbin/start-all.sh
3.9 检测进程:jps
有以下进程则是成功:
DateNode、nameNode、Jps、ResourceManager、SecondaryNameNode、NodeManager
四、配置scala
4.1 进入到usr/local目录下,直接解压文件scala-2.11.12.zip到当前目录下,并改名:
cd //usr/local
sudo mv scala-2.11.12 scala
4.2 设置环境变量:vim ~/.bashrc
export SCALA_HOME=/usr/local/scala
4.3 应用修改: source ~/.bashrc
五、配置spark
5.1 进入到usr/local目录下,直接解压文件spark-2.4.5-bin-hadoop2.7_Working_Config.zip
到当前目录下,并改名:
cd //usr/local
sudo mv spark-2.4.5-bin-hadoop2.7_Working_Config spark
5.2 设置环境变量:vim ~/.bashrc
export SPARK_HOME=/usr/local/hadoop
5.3 应用修改:source ~/.bashrc
5.4 配置spark:
vim spark-env.sh
export JAVA_HOME=/urs/local/java
export HADOOP_HOME=/urs/local/hadoop/
export HADOOP_CONF_DIR=//urs/local/hadoop/etc/hadoop
export SCALA_HOME=/usr/local/scala
export SPARK_HOME=/usr/local/spark
export SPARK_MASTER_IP=127.0.0.1
export SPARK_MASTER_PORT=7077
export SPARK_MASTER_WEBUI_PORT=8099
export SPARK_WORKER_CORES=3
export SPARK_WORKER_INSTANCES=1
export SPARK_WORKER_MEMORY=5G
export SPARK_WORKER_WEBUI_PORT=8081
export SPARK_EXECUTOR_CORES=1
export SPARK_EXECUTOR_MEMORY=1G
export LD_LIBRARY_PATH=${LD_LIBRARY_PATH}:$HADOOP_HOME/lib/native
所有环境变量(里面设置有一点点问题,不过不影响): ~/.bashrc
export JAVA_HOME=/usr/local/java
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:${HADOOP_HOME}/bin:${SPARK_HOME}/bin:${SCALA_HOME}/bin:$PATH
export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:/usr/local/hadoop/bin
export SCALA_HOME=/usr/local/scala
export SPARK_HOME=/usr/local/spark
5.5 启动spark(hadoop已经启动的情况下):
cd usr/local/spark
bin/spark-shell
出现spark的欢迎界面,配置成功了!
Linux下的ssh、scala、spark配置的更多相关文章
- linux下开启SSH,并且允许root用户远程登录,允许无密码登录
参考:http://blog.csdn.net/jia0511/article/details/8237698 1. 允许root用户远程登录 修改ssh服务配置文件 sudo vi /etc/ssh ...
- Linux远程登录ssh免密码配置方法(仅供参考)
这篇文章主要介绍了linux远程登录ssh免密码配置方法,需要的朋友可以参考下(http://www.0834-3659999.com) 一.情景 公司刚上几台Linux,现在要把主机之间都能远程ss ...
- linux下vsftpd的安装及配置使用详细步骤(推荐)
vsftpd 是“very secure FTP daemon”的缩写,安全性是它的一个最大的特点. vsftpd 是一个 UNIX 类操作系统上运行的服务器的名字,它可以运行在诸如 Linux.BS ...
- Linux下apache+phppgadmin+postgresql安装配置
Linux下apache+phppgadmin+postgresql安装配置 操作系统:CentOS 安装包:httpd(首选yum), php(包括php以及php-pgsql,php-mbstri ...
- Linux下Qt的安装与配置
参考资料:http://www.cnblogs.com/emouse/archive/2013/01/28/2880142.html Linux 下编译.安装.配置 QT 下载qt 这里用的是4.7. ...
- ssh-keygen+ssh-copy-id 在linux下实现ssh无密码登录访问(转)
转自:http://blog.csdn.net/pennyliang/article/details/8556662 ssh-keygen+ssh-copy-id 在linux下实现ssh无密码登录访 ...
- Linux 下编译、安装、配置 QT
转自Linux 下编译.安装.配置 QT 注意:编译安装耗时费力,且很容易出错,要不断调整编译参数,不推荐使用,否则这将会是一个纠结痛苦的过程. 打算做嵌入式图像处理,计划方案嵌入式Linux+Ope ...
- 在Linux下,在网络没有配置好前,怎样查看网卡的MAC地址?
在Linux下,在网络没有配置好前,怎样查看网卡的MAC地址? 使用 dmesg 与 grep 命令来实际,例如以下: [root@localhost ~]# dmesg | grep eth e10 ...
- .Neter玩转Linux系列之六:Linux下MySQL的安装、配置、使用
一.Linux安装MySQL (1)下载安装包:https://dev.mysql.com/downloads/mysql/ (2)解压并安装 命令:tar zxvf 文件名 解压完成之后,重名一下文 ...
- linux下svn的安装与配置
---恢复内容开始--- linux下svn的安装与配置 Linux发行版本:CentOS6.5 1.安装subversion sudo yum -y install subversion 2.创建s ...
随机推荐
- 微信支付——沙箱调试环境getsignkey方法秘钥获取及常见问题说明
官方文档 :https://pay.weixin.qq.com/wiki/doc/api/native.php?chapter=23_1 微信支付PC二维码支付:https://www.cnblogs ...
- 【LeetCode】547. Friend Circles 解题报告(Python & Java & C++)
作者: 负雪明烛 id: fuxuemingzhu 个人博客: http://fuxuemingzhu.cn/ 目录 题目描述 题目大意 解题方法 日期 题目地址:https://leetcode.c ...
- [源码解析] PyTorch 分布式之弹性训练(6)---监控/容错
[源码解析] PyTorch 分布式之弹性训练(6)---监控/容错 目录 [源码解析] PyTorch 分布式之弹性训练(6)---监控/容错 0x00 摘要 0x01 总体逻辑 1.1 Node集 ...
- Adversarial Training with Rectified Rejection
目录 概 主要内容 rejection 实际使用 代码 Pang T., Zhang H., He D., Dong Y., Su H., Chen W., Zhu J., Liu T. Advers ...
- HTML5 纯CSS3实现div按照顺序出入效果
效果: 源代码: <!DOCTYPE html> <html> <head> <meta charset="UTF-8"> < ...
- 【MySQL作业】SELECT 数据查询——美和易思定制显示查询结果应用习题
点击打开所使用到的数据库>>> 1.分类显示所有商品信息,按商品价格升序排列. "分类显示所有商品信息"表明查询表"商品",排序列为" ...
- 解决eclipse中Findbugs检查不生效的问题
eclipse安装了Findbugs插件, 但是在eclipse中发现不了bug错误, 具体表现为指定的类存在findbugs, 已经通过其他工具检查出来, 但是在eclipse中就是无法报告错误. ...
- JUC之多线程锁问题
多线程锁 8种问题锁状态: 该部分全部围绕的是以下内容并结合相应的例子:synchronized实现同步的基础:Java中每个对象都可以作为锁. 具体表现为以下三种形式:(之前只是简单的了解) 对于普 ...
- SpringBoot 与 SpringCloud 的版本对应详细信息
"spring-cloud": { "Finchley.M2": "Spring Boot >=2.0.0.M3 and <2.0.0.M ...
- EasySharding.EFCore 如何设计使用一套代码完成的EFCore Migration 构建Saas系统多租户不同业务需求且满足租户自定义分库分表、数据迁移能力?
下面用一篇文章来完成这些事情 多租户系统的设计单纯的来说业务,一套Saas多租户的系统,面临很多业务复杂性,不同的租户存在不同的业务需求,大部分相同的表结构,那么如何使用EFCore来完成这样的设计呢 ...