最近加班比较多,差点鸽了自己 /悲伤脸
一、优点
1)高容错性
数据自动保存多个副本。它通过增加副本的形式,提高容错性。
某一个副本丢失以后,它可以自动恢复。
2)适合处理大数据
数据规模:能够处理数据规模达到GB、TB、甚至PB级别的数据;
文件规模:能够处理百万规模以上的文件数量,数量相当之大。
3)可构建在廉价机器上,通过多副本机制,提高可靠性。
二、缺点
1)不适合低延时数据访问,比如毫秒级的存储数据,是做不到的。
2)无法高效的对大量小文件进行存储。
存储大量小文件的话,它会占用NameNode大量的内存来存储文件目录和块信息。这样是不可取的,因为NameNode的内存总是有限的;小文件存储的寻址时间会超过读取时间,它违反了HDFS的设计目标。
3)不支持并发写入、文件随机修改。
一个文件只能有一个写,不允许多个线程同时写;仅支持数据append(追加),不支持文件的随机修改。
1)NameNode(nn):就是Master,它是一个主管、管理者。
(1)管理HDFS的名称空间;
(2)配置副本策略;
(3)管理数据块(Block)映射信息;
(4)处理客户端读写请求。
2)Secondary NameNode:并非NameNode的热备。当NameNode挂掉的时候,它并不能马上替换NameNode并提供服务。
(1)辅助NameNode,分担其工作量,比如定期合并Fsimage和Edits,并推送给NameNode ;
(2)在紧急情况下,可辅助恢复NameNode。
3)DataNode:就是Slave。NameNode
下达命令,DataNode执行实际的操作。
(1)存储实际的数据块;
(2)执行数据块的读/写操作。
4)Client:就是客户端。
(1)文件切分。文件上传HDFS的时候,Client将文件切分成一个一个的Block,然后进行上传;
(2)与NameNode交互,获取文件的位置信息;
(3)与DataNode交互,读取或者写入数据;
(4)Client提供一些命令来管理HDFS,比如NameNode格式化;
(5)Client可以通过一些命令来访问HDFS,比如对HDFS增删查改操作;
HDFS中的文件在物理上是分块存储(Block),块的大小可以通过配置参数( dfs.blocksize)来规定,默认大小在Hadoop2.x/3.x版本中是128M,1.x版本中是64M。
目前主流配置为128M和256M,具体最优速度看硬盘读写速度。
HDFS的块设置太小,会增加寻址时间,程序一直在找块的开始位置;
如果块设置的太大,从磁盘传输数据的时间会明显大于定位这个块开始位置所需的时间。导致程序在处理这块数据时,会非常慢。
具体原因:
不论对磁盘的文件进行读还是写,都需要先进行寻址! 最佳传输损耗理论:在一次传输中,寻址时间占用总传输时间的1%时,本次传输的损耗最小,为最佳性价比传输! 目前硬件的发展条件,普通磁盘写的速率大概为100M/S, 寻址时间一般为10ms! 10ms / 1% = 1s 1s * 100M/S=100M 块在传输时,每64K还需要校验一次,因此块大小,必须为2的n次方,最接近100M的就是128M! 如果公司使用的是固态硬盘,写的速度是300M/S,将块大小调整到 256M 如果公司使用的是固态硬盘,写的速度是500M/S,将块大小调整到 512M
命令开头为hadoop fs 具体命令 OR hdfs dfs 具体命令,两个是一样的,如:
# 查看根目录文件 hdfs dfs -ls / hadoop fs -ls /
# 具体命令详见官网,或者输入-help http://hadoop.apache.org/docs/r1.0.4/cn/hdfs_shell.html
输入hdfs dfs -help
或者查看某一命令的帮助
如:hdfs dfs -mv rm
进入可视化页面,在hdfs-site.xml配置的路径,具体自行操作即可
http://hadoop01:9870/explorer.html#/
进入可视化页面,在hdfs-site.xml配置的路径,具体自行操作即可
http://hadoop01:9870/explorer.html#/
[外链图片转存中…(img-FBV5Nm8N-1624895246576)]