大数据不得不提到最有用的利器Hadoop,本文最快的方式让你上手Hadoop,hadoop快速入门,并且有一个感性的认识,也可以当做步骤的快速索引,本文解决以下问题:
HADOOP是apache旗下的一套开源软件平台
HADOOP提供的功能:利用服务器集群,根据用户的自定义业务逻辑,对海量数据进行分布式处理
HADOOP的核心组件有
为什么会有Hadoop呢?
Hadoop用于做什么
Hadoop怎么用
上面提过其实HADOOP是一个很大的生态圈,既然是生态圈就有很多重要的组件:
Hadoop的集群搭建
说道Hadoop的集群搭建,就是将所需要的核心组件搭建起来,Hadoop集群包含两个重要集群:HDFS集群和YARN集群
HDFS集群:负责海量数据的存储,集群中的角色主要有NameNode / DataNode
YARN集群:负责海量数据运算时的资源调度,集群中的角色主要有 ResourceManager /NodeManager
注意:那mapreduce是什么呢?它其实是一个应用程序开发包,主要负责业务逻辑开发。
本集群搭建案例,以5节点为例进行搭建,角色分配如下:
> hdp-node-01 NameNode SecondaryNameNode(HDFS) > > hdp-node-02 ResourceManager (YARN) > > hdp-node-03 DataNode NodeManager (HDFS) > > hdp-node-04 DataNode NodeManager (HDFS) > > hdp-node-05 DataNode NodeManage r(HDFS)
部署图如下:
集群搭建案例
因为模拟可以使用模拟器,模拟五台linux服务器,细节忽略。
Hadoop 安装部署,保证每台的linux均有Hadoop的安装包:
规划安装目录: /home/hadoop/apps/hadoop-2.6.1
修改基本配置Haddop文件: $HADOOP_HOME/etc/hadoop/
相应的Hadoop最简配置如下:
Hadoop-env.sh
# The java implementation to use. export JAVA_HOME=/home/hadoop/apps/jdk1.8
core-site.xml
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://hdp-node-01:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/home/HADOOP/apps/hadoop-2.6.1/tmp</value> </property> </configuration>
hdfs-site.xml
<configuration> <property> <name>dfs.namenode.name.dir</name> <value>/home/hadoop/data/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>/home/hadoop/data/data</value> </property> <property> <name>dfs.replication</name> <value>3</value> </property> <property> <name>dfs.secondary.http.address</name> <value>hdp-node-01:50090</value> </property> </configuration>
mapred-site.xml
<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration>
yarn-site.xml
<configuration> <property> <name>yarn.resourcemanager.hostname</name> <value>hadoop01</value> </property> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> </configuration>
注意:五台linux配置应该相同,这里使用的hadoop2.6.1根据自己用的来修改
启动集群
在终端中执行:
#初始化HDFS bin/hadoop namenode -format #启动HDFS bin/start-dfs.sh #启动YARN bin/start-yarn.sh
测试
1、上传文件到HDFS
从本地上传一个文本文件到hdfs的/wordcount/input目录下
终端代码:
[HADOOP@hdp-node-01 ~]$ HADOOP fs -mkdir -p /wordcount/input [HADOOP@hdp-node-01 ~]$ HADOOP fs -put /home/HADOOP/somewords.txt /wordcount/input
2、运行一个mapreduce程序
在HADOOP安装目录下,运行一个示例mr程序:
cd $HADOOP_HOME/share/hadoop/mapreduce/ hadoop jar mapredcue-example-2.6.1.jar wordcount /wordcount/input /wordcount/output
注意:example是hadoop自带的程序用于测试是否搭建成功
典型的BI系统流程图如下:
BI系统流程图
如图所示,虽然所用技术也许会有不同,但是流程基本如图所示:
数据采集:定制开发采集程序,或使用开源框架FLUME
数据预处理:定制开发mapreduce程序运行于hadoop集群
数据仓库技术:基于hadoop之上的Hive
数据导出:基于hadoop的sqoop数据导入导出工具
数据可视化:定制开发web程序或使用kettle等产品
整个过程的流程调度:hadoop生态圈中的oozie工具或其他类似开源产品
作者:慕久久
链接:https://www.jianshu.com/p/94844ec599bf
来源:简书
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。