Hadoop学习2--Linux准备及环境准备
1、环境安装:
虚拟机:VMware Player
系统:Ubuntu12
注意事项:注意位数,包括系统,java,Hadoop
2、切换账号
当前登录账号是自己的账号,如果想切换到root,且是第一次切换,需要执行以下步骤:
sudo passwd
oa
Password: <--- 输入你当前用户的密码 Enter new UNIX password: <--- 新的Root用户密码 Retype new UNIX password: <--- 重复新的Root用户密码 passwd:已成功更新密码
非第一次:
su - :为什么要带- ,为了使用root的系统配置,比如PATH变量值。
3、查看下系统的位数:uname -ar :带i586之类的为32位,带。。。64的是64位
4、修改文件权限:
chmod +x 或者[ugo]=[rwx] 文件名
5、解压缩
.tar:tar -zxv filename
.gz:gzip -d filename
遇到一个问题,在解压缩的时候,犯了经验主义错误。之前在一个虚拟机解压的时候,窗口会用动态信息显示,而现在没有反应,所以一直以为解压失败了。随意就重装了系统。。。更换的位数。。。
后来打开文件夹后,看在解压过程中,生成了一个新文件,完成后,把原有压缩包删除了!就是这么简单。
这个解压缩绝对是个大坑,研究了一天,无论怎么解压,访问解压后的文件时,都提示:is not dictionary,我就奇了怪了。
后来想着,从linux系统里直接下载压缩包,(因为之前都是从windows下载的,因为快,然后复制过去,之前就狠疑惑,为什么下载的文件后缀不一样,jdk-8u60-linux-x64.gz,少了一个.tar ?这样导致,在解压缩的时候,不能使用tar,只能使用gzip。解压出来的文件名称,也不一样,网上的都是jdk1.xxx_xx,为啥我的就是jdk-8u60-linux-x64!,就少了个后缀名),果然,在linux里下载,后缀完全没问题!(为什么这么想用无数个感叹号呢!)
于是,赶紧直接修改后缀名,改为:jdk-8u60-linux-x64.tar.gz,然后执行
1.解压压缩包
tar -zxvf jdk-8u60-linux-x64.tar.gz
命令。
(此时,眼泪哗哗的)
熟悉的命令窗口出现了。
原来是windows误导了我使用不正确的解压缩方式。
这篇文章是个靠谱的文章,讲的比较详细:
http://www.cnblogs.com/bluestorm/archive/2012/05/10/2493592.html
解压完成,copy到目标目录,我的在/usr/lib/jvm
sudo cp -r ~/Downloads/jdk1.8.0_60 /usr/lib/jvm/
其中,-r是递归copy文件夹里的内容,如果不加,会提示失败
2.配置环境变量
记下几个命令:
sudo gedit ~/.profile 编辑文件配置环境变量=>
"export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_60"
保存关闭后,执行以下命令:
source ~/.profile
3.用安装的java替换默认的java
sudo update-alternatives --install /usr/bin/javac javac /usr/lib/jvm/jdk1.8.0_60/bin/javac 300
sudo update-alternatives --install /usr/bin/java java /usr/lib/jvm/jdk1.8.0_60/bin/java 300
Hadoop学习2--Linux准备及环境准备的更多相关文章
- Hadoop学习笔记(4) ——搭建开发环境及编写Hello World
Hadoop学习笔记(4) ——搭建开发环境及编写Hello World 整个Hadoop是基于Java开发的,所以要开发Hadoop相应的程序就得用JAVA.在linux下开发JAVA还数eclip ...
- Hadoop学习笔记—22.Hadoop2.x环境搭建与配置
自从2015年花了2个多月时间把Hadoop1.x的学习教程学习了一遍,对Hadoop这个神奇的小象有了一个初步的了解,还对每次学习的内容进行了总结,也形成了我的一个博文系列<Hadoop学习笔 ...
- hadoop学习之Linux使用
Hadoop学习前准备工作 1.安装虚拟机(常用虚拟机:VirtualBox.VMWare)2.安装Linux操作系统(可以直接将打包好的Linux操作系统的镜像文件拿来用,鼠标右键打开,打开方式选择 ...
- C# Hadoop学习笔记(一)—环境安装
一.安装环境 1,前期准备:官网下载“NuGet Package Manager”,按自己已有的VS环境下载对应版本: 2,利用NuGet下载Hadoop For .NET SDK,地址“http:/ ...
- Hadoop学习12-配置集群环境
由于之前虚拟机都是用的桥接方式,有时候没有网络可用,想学习的时候,就狠不方便. 于是研究了一下,希望搭建一个多台虚机组成一个局域网的集群,即host-only方式 1.安装VM,网络选择“host-o ...
- Hadoop学习5--配置本地开发环境(Windows+Eclipse)
一.导入hadoop插件到eclipse 插件名称:hadoop-eclipse-plugin-2.7.0.jar 我是从网上下载的,还可以自己编译. 放到eclipse安装目录下的plugins文件 ...
- Hadoop学习笔记(3)——分布式环境搭建
Hadoop学习笔记(3) ——分布式环境搭建 前面,我们已经在单机上把Hadoop运行起来了,但我们知道Hadoop支持分布式的,而它的优点就是在分布上突出的,所以我们得搭个环境模拟一下. 在这里, ...
- Hadoop学习之Ubuntu12.04 Hadoop 环境搭建笔记
SSH无密码配置 Hadoop在Ubuntu12.04上搭建环境 报错及问题 SSH无密码配置 参考:Linux(Centos)配置OpenSSH无密码登陆 注意问题: Hadoop集成环境三台机器都 ...
- Hadoop学习笔记(10) ——搭建源码学习环境
Hadoop学习笔记(10) ——搭建源码学习环境 上一章中,我们对整个hadoop的目录及源码目录有了一个初步的了解,接下来计划深入学习一下这头神象作品了.但是看代码用什么,难不成gedit?,单步 ...
- Linux 学习笔记 Linux环境变量初稿
set命令会显示为某个特定进程设置的所有环境变量,但不包括一些没有设置值的默认环境变量 可以通过等号来给环境变量赋值,值可以是数值或字符串 如果要给变量赋一个含有空格的字符串值,必需用单引号来界定字符 ...
随机推荐
- ZOJ 1041 Transmitters
原题链接 题目大意:有一个发射站,覆盖范围是半径一定的一个半圆.在一个1000*1000平方米的地盘里有很多接收站.给定发射站的圆心,求最佳角度时能覆盖接收站的个数. 解法:本质上就是给一个原点和其他 ...
- ehcache 缓存
一:详细配置步骤 1,添加ehcache.xml文件 将ehcache.xml文件添加到src路径下面.ehcache.xml文件内容如下 <ehcache> <diskStore ...
- Fresco好案例
http://www.open-open.com/lib/view/open1436094840774.html
- 关于获取目录的N种方法 的汇总
前段时间在Global.asax.cs中的Session_End中使用Server.MapPath() 出现"服务器操作在此上下文中不可用"异常. 网络上给出的解决方案:Syste ...
- error when loading the sdk 发现了元素 d:skin 开头无效内容 转自http://blog.csdn.net/yueqinglkong/article/details/46340571
把devices.xml这个文件删除,再把sdk里面tools\lib下的这个文件拷贝到你删除的那个文件夹里,重启eclipse
- JavaWeb学习记录(二十七)——定时发送邮件ServletContextListener监听实现
public class EmailSendListener implements ServletContextListener{ @Override public void contextDe ...
- linux 命令查看CPU和内存信息
几个cpu more /proc/cpuinfo |grep "physical id"|uniq|wc -l 每个cpu是几核(假设cpu配置相同) more /proc/cpu ...
- POJ Girls and Boys (最大独立点集)
Girls and Boys Time Limit: 5000MS Memo ...
- 作业:用HTML制作邮箱登陆界面
<body leftmargin="200" rightmargin="200"> <font size="45" > ...
- 解决Ubuntu下Sublime Text 3无法输入中文
前言 sublime很好用,但是ubuntu下不能输入中文,这是一个很大的问题.不知道为什么开发着一直也不解决,好在还是有高手在,总能找到方法.网上方法很多,但是也很乱,现在我将自己的经验总结一下. ...