Hadoop简单介绍

Hadoop:适合大数据分布式存储与计算的平台。

Hadoop两大核心项目
1、HDFS:Hadoop分布式文件系统
  HDFS的架构: 主从结构:
          主节点,只有一个:namenode
                      1、接收用户操作请求
                      2、维护文件系统的目录结构
                      3、管理文件与block之间关系,block与datanode之间关系
          从节点,有很多个:datanodes
                      1、存储文件
                      2、文件被分成block存储在磁盘上
                      3、为保证数据安全,文件会有多个副本
2、MapReduce:并行计算框架
   MapReducede的架构:主从结构:
                主节点,只有一个:JobTracker
                          1、接收客户端提交的计算任务
                          2、把计算任务分给TaskTrackers执行
                          3、监控TaskTracker的执行情况
                从节点,有很多个:TaskTrackers
                          执行JobTracker分配的计算任务

Hadoop的特点
  1、扩容能力
  2、成本低
  3、高效率
  4、可靠性

Hadoop部署方式
  1、本地模式
  2、伪分布模式
  3、集群模式

安装前准备软件:
  1、Vitual Box/VMWare
  2、centOS
  3、jdk-6u24-linux-xxx.bin
  4、hadoop-1.1.2.tar.gz

1.hadoop的伪分布安装
1.1 设置ip地址
  执行命令 service network restart
  验证: ifconfig
1.2 关闭防火墙
  执行命令 service iptables stop
  验证: service iptables status
1.3 关闭防火墙的自动运行
  执行命令 chkconfig iptables off
  验证: chkconfig --list | grep iptables //过滤出iptables
1.4 设置主机名(按下面这两步进行)
  执行命令 (1)hostname chaoren //设置当前主机名为chaoren,但是重启系统后会失效
       (2)vi /etc/sysconfig/network //编辑文件设置主机名,重启后不会失效
1.5 ip与hostname绑定
  执行命令 vi /etc/hosts //在文件下面增加一行 192.168.80.100 chaoren
  验证: ping chaoren
1.6 设置ssh免密码登陆
  执行命令 (1)ssh-keygen -t rsa //一直回车即可
       (2)cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys
  验证: ssh chaoren
**************
windows与Linux之间传输文件工具: WinSCP
安装好,打开设置: 主机名:192.168.56.100 用户名:root 密码:hadoop
然后点击保存,勾选上保存密码,然后双击连接登录。
将左侧Windows下的文件,拖动复制到右侧Linux下的目录/usr/local下。
**************
1.7 安装jdk
  执行命令 (1)cd /usr/local
       (2)chmod u+x jdk-6u24-linux-i586.bin //增加执行的权限
       (3)./jdk-6u24-linux-i586.bin //解压
       (4)mv jdk-1.6.0_24 jdk //重命名
       (5)vi /etc/profile 增加内容如下:
                export JAVA_HOME=/usr/local/jdk
                export PATH=.:$JAVA_HOME/bin:$PATH
       (6)source /etc/profile //刷新环境变量
  验证: java -version (改变后,OpenJdk就变成了oracle下的jdk了)
1.8 安装hadoop
  执行命令 (1)tar -zxvf hadoop-1.1.2.tar.gz //解压
       (2)mv hadoop-1.1.2 hadoop //重命名
       (3)vi /etc/profile 修改环境变量,增加内容如下:
                      export JAVA_HOME=/usr/local/jdk
                      export HADOOP_HOME=/usr/local/hadoop
                      export PATH=.:$HADOOP_HOME/bin:$JAVA_HOME/bin:$PATH
       (4)source /etc/profile
       (5)修改conf目录下的配置文件(直接在WinSCP中编辑修改保存)
              hadoop-env.sh:
                    export JAVA_HOME=/usr/local/jdk/
              core-site.xml:
                    <configuration>

                      <property>

                        <name>fs.default.name</name>

                        <value>hdfs://主机名:9000</value>

                      </property>

                      <property>

                        <name>hadoop.tmp.dir</name>

                        <value>/usr/local/hadoop/tmp</value>

                      </property>

                    </configuration>

              hdfs-site.xml:
                    <configuration>

                      <property>

                        <name>dfs.replication</name>

                        <value>1</value>

                      </property>

                      <property>

                        <name>dfs.permissions</name>

                        <value>false</value>

                      </property>

                    </configuration>
              mapred-site.xml:
                    <configuration>

                      <property>

                        <name>mapred.job.tracker</name>

                        <value>主机名:9001</value>

                      </property>

                    </configuration>
      (6)hadoop namenode -format //存储之前,要对文件系统进行格式化
      (7)start-all.sh
  验证: (1)执行命令jps 如果看到5个新的java进程,分别是NameNode、SecondaryNameNode、DataNode、JobTracker、TaskTracker

      

      (2)在浏览器查看,http://chaoren:50070    http://chaoren:50030

      

      

1.9 启动时没有NameNode的可能原因:
  (1)没有格式化
  (2)环境变量设置错误
  (3)ip与hostname绑定失败

伪分布式安装Hadoop的更多相关文章

  1. 指导手册02:伪分布式安装Hadoop(ubuntuLinux)

    指导手册02:伪分布式安装Hadoop(ubuntuLinux)   Part 1:安装及配置虚拟机 1.安装Linux. 1.安装Ubuntu1604 64位系统 2.设置语言,能输入中文 3.创建 ...

  2. 第二章 伪分布式安装hadoop hbase

    安装单机模式的hadoop无须配置,在这种方式下,hadoop被认为是一个单独的java进程,这种方式经常用来调试.所以我们讲下伪分布式安装hadoop. 我们继续上一章继续讲解,安装完先试试SSH装 ...

  3. CentOS 6.5 伪分布式 安装 hadoop 2.6.0

    安装 jdk -openjdk* 检查安装:java -version 创建Hadoop用户,设置Hadoop用户使之可以免密码ssh到localhost su - hadoop ssh-keygen ...

  4. Hadoop单机和伪分布式安装

    本教程为单机版+伪分布式的Hadoop,安装过程写的有些简单,只作为笔记方便自己研究Hadoop用. 环境 操作系统 Centos 6.5_64bit   本机名称 hadoop001   本机IP ...

  5. hadoop 2.7.3伪分布式安装

    hadoop 2.7.3伪分布式安装 hadoop集群的伪分布式部署由于只需要一台服务器,在测试,开发过程中还是很方便实用的,有必要将搭建伪分布式的过程记录下来,好记性不如烂笔头. hadoop 2. ...

  6. Hadoop入门进阶课程1--Hadoop1.X伪分布式安装

    本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接,博主为石山园,博客地址为 http://www.cnblogs.com/shishanyuan  ...

  7. hadoop伪分布式安装之Linux环境准备

    Hadoop伪分布式安装之Linux环境准备 一.软件版本 VMare Workstation Pro 14 CentOS 7 32/64位 二.实现Linux服务器联网功能 网络适配器双击选择VMn ...

  8. hadoop 0.20.2伪分布式安装详解

    adoop 0.20.2伪分布式安装详解 hadoop有三种运行模式: 伪分布式不需要安装虚拟机,在同一台机器上同时启动5个进程,模拟分布式. 完全分布式至少有3个节点,其中一个做master,运行名 ...

  9. Hadoop大数据初入门----haddop伪分布式安装

    一.hadoop解决了什么问题 hdfs 解决了海量数据的分布式存储,高可靠,易扩展,高吞吐量mapreduce 解决了海量数据的分析处理,通用性强,易开发,健壮性 yarn 解决了资源管理调度 二. ...

随机推荐

  1. vue ESLint自动修复

    在package.json文件中的"lint"里面加入--fix 然后终端里输入:npm run lint 1. vue用命令直接修复ESLint

  2. 从咖啡馆的经营看 Web 应用的扩展

    我经营着一家咖啡馆.经营成本同所用的资源成正比. 我的咖啡馆店面大概有一百平方英尺(约九平方米),雇佣了一个咖啡师,一台咖啡机. 营业能力: 每次能够服务一个顾客,用三分钟泡制一杯咖啡,算下来服务一个 ...

  3. 20155307 2016-2017-2 《Java程序设计》第七周学习总结

    学号 2016-2017-2 <Java程序设计>第七周学习总结 教材学习内容总结 认识Lambda语法,方法参考在重用现有API上扮演了重要角色,重用现有方法操作,可避免到处写下Lamb ...

  4. 微服务深入浅出(4)-- 负载均衡Ribbon

    Spring Cloud中可以使用RestTemplate+Ribbon的解决方案来将负载均衡以代码的形式封装到客户端中. 通过查阅官方文档可以知道,只需要在程序的IoC容器中注入一个restTemp ...

  5. C++传递二维数字给一个自定义函数

    如果参数是多维数组,那么参数必须指明第一维意外得所有未得长度:比如你的 void tt(char a[][20])或者 void tt(char (*a)[20]) 另外这样也是可以的char *a[ ...

  6. Oracle错误: ORA-01722 无效数字

    ORA-01722: 无效数字 主要原因是: 1.对于两个类型不匹配(一个数字类型,一个非数字类型,同下)的值进行赋值操作; 2.两个类型不匹配的值进行比较操作(例如,"="); ...

  7. Entity Framework(EF的Code First方法)

    EntityFramework,是Microsoft的一款ORM(Object-Relation-Mapping)框架.同其它ORM(如,NHibernate,Hibernate)一样, 一是为了使开 ...

  8. 【译】第十二篇 SQL Server代理多服务器管理

    本篇文章是SQL Server代理系列的第十二篇,详细内容请参考原文 在这一系列的上一篇,我们查看了维护计划,一个维护计划可能会创建多个作业,多个计划.你还简单地看了SSIS子系统,并查看了维护计划作 ...

  9. Velocity VelocityEngine 支持多种loader 乱码问题

    最近升级团队的代码生成工具,此工具是velocity实现的. 之前习惯使用UTF-8编码,现在团队使用GBK. 所以遇到一种场景,模板文件使用UTF-8(习惯了所有任性),输出文件使用GBK(项目需要 ...

  10. sru源码--language model

    import sys import os import argparse import time import random import math import numpy as np import ...