Hadoop介绍与安装配置方法

 1. HADOOP背景介绍

1.1 什么是HADOOP

1.HADOOP是apache旗下的一套开源软件平台
2.HADOOP提供的功能:利用服务器集群,根据用户的自定义业务逻辑,对海量数据进行分布式处理
3.HADOOP的核心组件有 1.HDFS(分布式文件系统)
2.YARN(运算资源调度系统)
3.MAPREDUCE(分布式运算编程框架)

4.广义上来说,HADOOP通常是指一个更广泛的概念——HADOOP生态圈

Hadoop hive hbase flume kafka sqoop spark flink …….

1.2 HADOOP产生背景

1.HADOOP最早起源于Nutch。Nutch的设计目标是构建一个大型的全网搜索引擎,包括网页抓取、索引、查询等功能,但随着抓取网页数量的增加,遇到了严重的可扩展性问题——如何解决数十亿网页的存储和索引问题。
2.2003年、2004年谷歌发表的两篇论文为该问题提供了可行的解决方案。

——分布式文件系统(GFS),可用于处理海量网页的存储

——分布式计算框架MAPREDUCE,可用于处理海量网页的索引计算问题。

   3.Nutch的开发人员完成了相应的开源实现HDFS和MAPREDUCE,并从Nutch中剥离成为独立项目HADOOP,到2008年1月,HADOOP成为Apache顶级项目,迎来了它的快速发展期。

1.3 HADOOP在大数据、云计算中的位置和关系

1.云计算是分布式计算、并行计算、网格计算、多核计算、网络存储、虚拟化、负载均衡等传统计算机技术和互联网技术融合发展的产物。借助IaaS(基础设施即服务)、PaaS(平台即服务)、SaaS(软件即服务)等业务模式,把强大的计算能力提供给终端用户。

    2.现阶段,云计算的两大底层支撑技术为“虚拟化”和“大数据技术”

    3.而HADOOP则是云计算的PaaS层的解决方案之一,并不等同于PaaS,更不等同于云计算本身。

前言

最近想学习下大数据,有点急于求成,于是去网上找了各种培训机构的视频,发现大都质量不佳,理论基本不说或者简单讲下,然后教你照猫画虎的敲代码,出了问题都没法分析。最后还是找了厦门大学的公开课从理论开始稳扎稳打的学习了。

一 Hadoop起源

Hadoop的理论起源主要来自谷歌公司的三大论文,并迅速应用于全球各大互联网公司。因此,学习大数据Hadoop是绕不开的一个知识点。今年来,大数据的兴起其实来自于计算机技术的发展,物联网技术产生了大量的数据,云技术使得计算机存储与运算资源更加普及,因此大数据技术应运而出,用以解决大量数据的存储与计算的问题。

二 Hadoop生态圈

学习Hadoop,需要知道Hadoop生态圈中各个项目的功能与作用,为何要用开发这种新项目,而不使用已有项目实现这种功能。

2.1 HDFS

Hadoop的底层文件系统,与传统文件系统不同在于它是分布式的。同时与已有的分布式文件系统相比,它又有着旧分布式文件系统没有的优点。如:高可用性,高可靠性,吞吐量大,能使用廉价服务器构建,可通过不断增加机器数来进行拓展。具体实现在HDFS文章中记录。

2.2 HBase

构建在HDFS之上的分布式数据库系统。是一种基于列的NoSQL数据库,从另一个角度看也能看成键值对的NoSQL数据库。与传统关系型数据库相比,最大的优势在于可通过增加机器进行横向扩展,并且能使用廉价服务器。

2.3 Hive

一种分布式数据仓库,可以导入外部数据后用类SQL语言进行操作。一般用于历史数据的查询与分析。与HBase不同,HBase常用于实时的交互式查询。

2.4 MapRuduce

一种分布式计算框架,MapRuce本来就是一种计算模型的名称。核心思想是“分而治之”,能将计算分解成多个小计算,由多个机器同时计算。适合离线批处理。

2.5 Storm

一种流式计算框架,MapRuce适合批处理,无法完成流式数据的处理,因此开发出流式处理框架。

2.6 常见大数据处理需求

•离线批处理,特点:使用历史数据,大批量的处理,要求吞吐率。
•实时交互式处理,特点:用户交互使用,要求反映速度在秒级到数分钟之间。
•流式数据处理,特点:数据以流的形式输入,要求毫秒级的处理速度,且处理后的数据大部分都不用储存。

2.7 Hadoop组件关系

基本的关系就是,底层用HDFS存储,之上是核心计算框架MapRuduce。而Hive,Hbase,Pig等等组件一般都是将自身的操作转化成Mapreduce代码然后通过Mapreduce进行计算实现功能。同时与MapRuduce框架同一层次的Storm解决了流式数据的处理。Hbase虽然是使用Mapreduce框架进行处理,但是基本也能实现实时交互式处理的要求。(也正是Mapreduce存在种种问题,Spark渐渐兴起,虽然Mapreduce也做了各种优化,但是在某些领域相比Spark还是有些差距)。

三 Hadoop安装

1.准备。同一局域网的Linux服务器数台,我是用我的游戏本同时开了3个虚拟机代替的。

2.Linux里创建hadoop用户,专门负责Hadoop项目,便于管理与权限划分。

3.安装JDK,下载Hadoop时官方会指明JDK版本需求,设置JDK环境变量

4.安装SSH并设置免密登录。因为HDFS的NameNode与其他DateNode等节点的通讯与管理就是基于SSH协议的。并且将要使用的机器域名写入hosts文件,方便命名。

5.去官网下载并解压Hadoop。修改hadoop配置文件,位于hadoop/etc/hadoop /下面,分别有:

•slaves。写入DateNode的机器,因为之前修改了域名解析文件,可以直接写域名,不用写IP了。
•core-site.xml。Hadoop的核心配置文件

fs.defaultFS,默认文件系统的主机和端口,这里的文件系统就是hdfs。

hadoop.tmp.dir hadoop的临时文件路径,不设置则会使用系统临时文件路径,系统重启后就丢失了。

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://Master:9000</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>file:/usr/local/hadoop/tmp</value>
        <description>Abase for other temporary directories.</description>
    </property>
</configuration>

•hdfs-site.xml。HDFS的配置文件

dfs.namenode.secondary.http-address。SecondNameNode的机器和端口

dfs.replication。HDFS系统保存的文件副本数。

dfs.namenode.name.dir,dfs.datanode.data.dir。NameNode和DataNode数据在原本文件系统中的存放位置。

<configuration>
    <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>Master:50090</value>
    </property>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>file:/usr/local/hadoop/tmp/dfs/name</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>file:/usr/local/hadoop/tmp/dfs/data</value>
    </property>
</configuration>

•mapred-site.xml。MapReuce的配置文件

mapreduce.framework.name。MapReuce的资源管理系统。这个选yarn,原本是MapReuce自己进行分布式计算时的资源管理,后来发现效率不足便分割开来重新开发了一套框架。

mapreduce.jobhistory.address。MapReuce的任务日志系统,指定机器和端口。

mapreduce.jobhistory.webapp.address。任务日志系统web页面所使用的机器和端口,通过这个可以在web页面中查看任务日志系统。

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
    <property>
        <name>mapreduce.jobhistory.address</name>
        <value>Master:10020</value>
    </property>
    <property>
        <name>mapreduce.jobhistory.webapp.address</name>
        <value>Master:19888</value>
    </property>
</configuration>

•yarn-site.xml。YARN的配置文件

yarn.resourcemanager.hostname。YARN的ResourceManager所使用的机器。这个负责进行全局的资源分配,管理。
yarn.nodemanager.aux-services。可以自定义一些服务,比如MapReuce的shuffle就是用这个配置的。目前我们使用填shuffle就行了。

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
    <property>
        <name>mapreduce.jobhistory.address</name>
        <value>Master:10020</value>
    </property>
    <property>
        <name>mapreduce.jobhistory.webapp.address</name>
        <value>Master:19888</value>
    </property>
</configuration>

1.配置好以后将Hadoop文件从主节点复制到各个从节点,Hadoop的HADFS与MapReduce就安装完成了。(CentOs系统需要关闭相应防火墙)

四 Hadoop生态圈其他组件安装

看看网友博客和官方文档差不多就会了,基本一个形式。下载解压-配置环境变量-配置组件的配置文件,基本都是xxxx-env.sh,xxx-site.sh,xxx-core.sh,slave,work这种,在里面按照需求配置参数就好了,具体参数意思和必须要配置的参数看看官方文档也就懂了(滑稽)。

总结

以上所述是小编给大家介绍的Hadoop介绍与安装配置方法,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对我们网站的支持!
如果你觉得本文对你有帮助,欢迎转载,烦请注明出处,谢谢!

(0)

相关推荐

  • hadoop 单机安装配置教程

    单机安装主要用于程序逻辑调试.安装步骤基本通分布式安装,包括环境变量,主要Hadoop配置文件,SSH配置等.主要的区别在于配置文件:slaves配置需要修改,另外如果分布式安装中dfs.replication大于1,需要修改为1,因为只有1个datanode. 分布式安装请参考: http://acooly.iteye.com/blog/1179828 单机安装中,使用一台机器,即做namenode和JobTracker也是datanode和TaskTracker,当然也是SecondaryN

  • 用python + hadoop streaming 分布式编程(一) -- 原理介绍,样例程序与本地调试

    MapReduce与HDFS简介 什么是Hadoop? Google为自己的业务需要提出了编程模型MapReduce和分布式文件系统Google File System,并发布了相关论文(可在Google Research的网站上获得: GFS . MapReduce). Doug Cutting和Mike Cafarella在开发搜索引擎Nutch时对这两篇论文做了自己的实现,即同名的MapReduce和HDFS,合起来就是Hadoop. MapReduce的Data flow如下图,原始数据

  • Linux中安装配置hadoop集群详细步骤

    一. 简介 参考了网上许多教程,最终把hadoop在ubuntu14.04中安装配置成功.下面就把详细的安装步骤叙述一下.我所使用的环境:两台ubuntu 14.04 64位的台式机,hadoop选择2.7.1版本.(前边主要介绍单机版的配置,集群版是在单机版的基础上,主要是配置文件有所不同,后边会有详细说明) 二. 准备工作 2.1 创建用户 创建用户,并为其添加root权限,经过亲自验证下面这种方法比较好. sudo adduser hadoop sudo vim /etc/sudoers

  • hadoop中一些常用的命令介绍

    假设Hadoop的安装目录HADOOP_HOME为/home/admin/hadoop.启动与关闭启动Hadoop1.进入HADOOP_HOME目录.2.执行sh bin/start-all.sh 关闭Hadoop1.进入HADOOP_HOME目录.2.执行sh bin/stop-all.sh文件操作Hadoop使用的是HDFS,能够实现的功能和我们使用的磁盘系统类似.并且支持通配符,如*. 查看文件列表查看hdfs中/user/admin/aaron目录下的文件.1.进入HADOOP_HOME

  • Hadoop单机版和全分布式(集群)安装

    Hadoop,分布式的大数据存储和计算, 免费开源!有Linux基础的同学安装起来比较顺风顺水,写几个配置文件就可以启动了,本人菜鸟,所以写的比较详细.为了方便,本人使用三台的虚拟机系统是Ubuntu-12.设置虚拟机的网络连接使用桥接方式,这样在一个局域网方便调试.单机和集群安装相差不多,先说单机然后补充集群的几点配置. 第一步,先安装工具软件编辑器:vim 复制代码 代码如下: sudo apt-get install vim ssh服务器: openssh,先安装ssh是为了使用远程终端工

  • 详解Ubuntu16.04下Hadoop 2.7.3的安装与配置

    一.Java环境搭建 (1)下载JDK并解压(当前操作系统为Ubuntu16.04,jdk版本为jdk-8u111-Linux-x64.tar.gz) 新建/usr/java目录,切换到jdk-8u111-linux-x64.tar.gz所在目录,将这个文件解压缩到/usr/java目录下. tar -zxvf jdk-8u101-linux-x64.tar.gz -C /usr/java/ (2)设置环境变量 修改.bashrc,在最后一行写入下列内容. sudo vim ~/.bashrc

  • 在Hadoop集群环境中为MySQL安装配置Sqoop的教程

    Sqoop是一个用来将Hadoop和关系型数据库中的数据相互转移的工具,可以将一个关系型数据库(例如 : MySQL ,Oracle ,Postgres等)中的数据导进到Hadoop的HDFS中,也可以将HDFS的数据导进到关系型数据库中. Sqoop中一大亮点就是可以通过hadoop的mapreduce把数据从关系型数据库中导入数据到HDFS. 一.安装sqoop 1.下载sqoop压缩包,并解压 压缩包分别是:sqoop-1.2.0-CDH3B4.tar.gz,hadoop-0.20.2-C

  • Hadoop streaming详细介绍

    Hadoop streaming Hadoop为MapReduce提供了不同的API,可以方便我们使用不同的编程语言来使用MapReduce框架,而不是只局限于Java.这里要介绍的就是Hadoop streaming API.Hadoop streaming 使用Unix的standard streams作为我们mapreduce程序和MapReduce框架之间的接口.所以你可以用任何语言来编写MapReduce程序,只要该语言可以往standard input/output上进行读写. st

  • Hadoop MapReduce多输出详细介绍

    Hadoop MapReduce多输出 FileOutputFormat及其子类产生的文件放在输出目录下.每个reducer一个文件并且文件由分区号命名:part-r-00000,part-r-00001,等等.有时可能要对输出的文件名进行控制或让每个reducer输出多个文件.MapReduce为此提供了MultipleOutputFormat类. MultipleOutputFormat类可以将数据写到多个文件,这些文件的名称源于输出的键和值或者任意字符串.这允许每个reducer(或者只有

  • VMware虚拟机下hadoop1.x的安装方法

    这是Hadoop学习全程记录第1篇,在这篇里我将介绍一下如何在Linux下安装Hadoop1.x. 先说明一下我的开发环境: 虚拟机:VMware8.0: 操作系统:CentOS6.4: 版本:jdk1.8:hadoop1.2.1 ①下载hadoop1.2.1,网盘:链接: https://pan.baidu.com/s/1sl5DMIp 密码: 5p67 下载jdk1.8,网盘:链接: https://pan.baidu.com/s/1boN1gh5 密码: t36h 将 jdk-8u144-

随机推荐