hadoop配置day01
hadoop
安装jdk
配置文件:
sudo vim /etc/profile
配置文件:
export JAVA_HOME=/home/hadoop/jvm/jdk1.8.0_341
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH
重新加载配置文件:
source /etc/profile
验证是否成功:
java -version
配置ssh免密登录
安装ssh:
sudo ape-get install ssh
产生ssh key:
ssh-keygen -t rsa
查看ssh key:
ll ~/.ssh
将id_rsa.pub放许可证文件:
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
更改权限:
chmod 755~
chmod 700 ~/.ssh
chmod 600 ~/.ssh/authorized_keys
验证是否成功:
ssh -Version
用hostname查看主机名:
ssh ubuntu(主机名)
退出ssh:exit
hadoop安装
1.解压安装包
cd 到想要安装的目录:
tar -zxvf hadoop-3.1.1.tar.gz
hadoop环境变量配置准备
1.查看本机ip:
ifconfig
本机ip为:192.168.232.9
2.查看主机名:
hostname
本机主机名为:nbuntu
3.将ip地址和主机名写进/etc/hosts:
sudo vim /etc/hosts
环境变量配置
1.编辑配置文件
sudo vim ~/.bashrc
export JAVA_HOME=/home/hadoop/jvm/jdk1.8.0_341
export HADOOP_HOME=/home/hadoop01/hadoop-3.1.1
export PATH=$PATH:$HADOOP_HOME/binexport PATH=$PATH:$HADOOP_HOME/sbin
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib :$HADOOP_COMMON_LIB_NATIVE_DIR"
export JAVA_LIBRARY_PATH=$HADOOP_HOME/lib/native:$JAVA_LIBRARY_PATH
在 /etc/profile添加
export HADOOP_HOME=/home/hadoop01/hadoop-3.1.1
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
配置好之后,重新加载一下source /etc/profile
source ~/.bashrc
2.检查是否成功
hadoop version
修改hadoop配置文件
1.修改hadoop-env.sh
sudo vim ./hadoop-3.1.1/etc/hadoop/hadoop-env.sh
添加export JAVA_HOME=/home/hadoop/jvm/jdk1.8.0_341
2.在/home/hadoop01/hadoop-3.1.1/etc/hadoop目录下:
修改core-site.xml
sudo vim core-site.xml
添加:
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://192.168.232.9:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop01/hadoop-3.1.1/dataNode_1_dir</value>
</property>
</configuration>
3.修改sudo vim yarn-site.xml
<property>
<name>yarn.resourcemanager.hostname</name>
<value>192.168.232.9</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
4.修改mapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
5.修改sudo vim hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:///home/hadoop01/hadoop-3.1.1/hadoop_data/hdfs/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:///home/hadoop01/hadoop-3.1.1/hadoop_data/hdfs/datanode</value>
</property>
<property>
<name>dfs.http.address</name>
<value>192.168.232.9:50070</value>
</property>
</configuration>
修改/etc/profile
sudo vim /etc/profile
export JAVA_HOME=/home/hadoop/jvm/jdk1.8.0_341
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
export HADOOP_HOME=/home/hadoop01/hadoop-3.1.1
6.创建并格式化文件系统
mkdir -p /home/hadoop01/hadoop-3.1.1/hadoop_data/hdfs/namenode
mkdir -p /home/hadoop01/hadoop-3.1.1/hadoop_data/hdfs/datanode
mkdir -p /home/hadoop01/hadoop-3.1.1/dataNode_1_dir/datanode
格式化:
hdfs namenode -format
bug
1.如果出现找不到native本地库的情况,需要在hadoop-env.sh里面加入native的路径,然后重新格式化一下namenode,即可成功。
2.不要轻易格式化namenode,关机需要先关所有进程,避免下次丢失。
结点出不来就格式化,先删文件夹再格式化,要删干净
3.修改ip:sudo vim /etc/netplan/01-network-manager-all.yaml
network:
ethernets:
ens33:
addresses: [192.168.232.1/24]
gateway4: 192.168.232.2
nameservers:
addresses: [114.114.114.114,8.8.8.8]
version: 2
renderer: NetworkManager
生效:sudo netplan apply
修改主机名:sudo vim /etc/hostname
然后解析主机:vim /etc/resolv.conf
nameserver 114.114.114.114
nameserver 8.8.8.8
修改完主机名需要改一下:
sudo vim /etc/hosts
127.0.0.1 localhost
ip 主机名
ping不通百度
hadoop配置day01的更多相关文章
- hadoop配置优化
yarn-site.xml <property> <name>yarn.nodemanager.resource.memory-mb</name> <valu ...
- hadoop配置错误
经过上一周的郁闷期(拖延症引发的郁闷),今天终于开始步入正轨了.今天主要是解决hadoop配置的错误以及网络时断时续的问题. 首先说明一下之前按照这篇文章的方法配置完全没有问题,但是等我配置好了发现h ...
- Hadoop 配置好hive,第一次在conf能进入,第二次就不行了,怎么办?
问题描述: 在 Hadoop 配置好 hive 数据仓库,在conf目录下通过hive命令进入hive数据仓库,非常顺利. 但关闭终端,第二次按这种方式却显示,无次命令. 怎么办? 解决办法: 在h ...
- Centos7中hadoop配置
Centos7中hadoop配置 1.下载centos7安装教程: http://jingyan.baidu.com/article/a3aad71aa180e7b1fa009676.html (注意 ...
- Hadoop配置第2节-JDK的安装
Hadoop配置-JDK的安装 总体目标:完成zookeeper+Hadoop+Hbase 整合平台搭建 进度:1:集群网络属性配置2:集群免密码登陆配置3:JDK的安装4:Zookeeper的安 ...
- Hadoop配置要点必看
hadoop 配置要点 软件 版本 java 1.8.0_151 hadoop 2.6.1 part1 $HADOOP_HOME/etc/hadoop 目录下配置参数. slaves 配置从节点 ya ...
- hadoop生态搭建(3节点)-04.hadoop配置
如果之前没有安装jdk和zookeeper,安装了的请直接跳过 # https://www.oracle.com/technetwork/java/javase/downloads/java-arch ...
- nutch+hadoop 配置使用
nutch+hadoop 配置使用 配置nutch+hadoop 1,下载nutch.如果不需要特别开发hadoop,则不需要下载hadoop.因为nutch里面带了hadoop core包以及相关配 ...
- Docker Hadoop 配置常见错误及解决办法
Docker Hadoop 配置常见错误及解决办法 问题1:wordcount运行卡住,hadoop 任务运行到running job就卡住了 INFO mapreduce.Job: Running ...
随机推荐
- 【Java】学习路径51-线程组
平时创建线程的时候,系统会默认为线程分组. 我们可以使用 ThreadGroup tg1 = t1.getThreadGroup(); 取得t1的线程组对象. 然后使用getName获得线程组名称. ...
- [CISCN2019 华北赛区 Day1 Web2]ikun-1|python反序列化
考点:JWT身份伪造.python pickle反序列化.逻辑漏洞 1.打开之后首页界面直接看到了提示信息,信息如下: 2.那就随便注册一个账号进行登录,然后购买lv6,但是未发现lv6,那就查看下一 ...
- Redis图形化管理工具
一.treeNMS Redis做为现在web应用开发的黄金搭担组合,工作中的项目大量使用了Redis,treeNMS是一款用于JAVA语言开发的Redis管理工具:treeNMS管理工具,直接到htt ...
- Html飞机大战(四):状态的切换(界面加载类的编辑)
好家伙,接着写 既然我们涉及到状态了,那么我们也会涉及到状态的切换 那么我们怎样切换状态呢? 想象一下,如果我玩的游戏暂停了,那么我们肯定是通过点击或者按下某个按键来让游戏继续 这里我们选 ...
- 第十章 Kubernetes的CNI网络插件--flannel
1.简介 1.1前言 Kubernetes设计了网络模型,但却将它的实现讲给了网络插件,CNI网络插件最重要的功能就是实现Pod资源能够跨主机通信 常见的CNI网络插件如下: Flannel: Cac ...
- KingbaseESV8R6如何针对表单独设置vacuum策略
背景 书接上文 KingbaseES应对表年龄增长过快导致事务回卷 ,有些特殊业务场景不能靠全局的autovacuum方法,例如大型数据库系统,频繁做update的系统,还有上文提到的做实时数据同步的 ...
- QT学习(四)----360界面制作(1)
参照网上的资料,模仿了一份360新特效的界面. 源代码在:http://download.csdn.net/detail/zhangyang1990828/5238013 360真实效果:(最好自己打 ...
- 企业运维实践-丢弃手中的 docker build , 使用Kaniko直接在Kubernetes集群或Containerd环境中快速进行构建推送容器镜像
关注「WeiyiGeek」公众号 设为「特别关注」每天带你玩转网络安全运维.应用开发.物联网IOT学习! 希望各位看友[关注.点赞.评论.收藏.投币],助力每一个梦想. 本章目录 目录 首发地址: h ...
- python 作用域与命名空间
作用域 作用域分为: 全局作用域 局部作用域 在函数内部的作用域叫做局部作用域,局部作用域中的变量叫做局部变量 非函数内部的作用域叫做全局作用域,全局作用域中的变量叫做全局变量 局部作用域可以使用全局 ...
- Fast.Framework ORM 试用
简介 Fast.Framework 是一款基于 .NET 6 封装的轻量级ORM框架,支持多种数据库(SQL Server.Oracle.MySQL.PostgreSQL.SQLite). 优点 性能 ...