HDFS角色DataNode

1 工作机制

HDFS角色DataNode
  1. 一个数据块在DataNode上以文件形式存储在磁盘上,包括两个文件,一个是数据本身,一个是元数据包括数据块的长度,块数据的校验和,以及时间戳。
  2. DataNode启动后向NameNode注册,通过后,周期性(1小时)的向NameNode上报所有的块信息。
  3. 心跳是每3秒一次,心跳返回结果带有NameNode给该DataNode的命令如复制块数据到另一台机器,或删除某个数据块。如果超过10分钟没有收到某个DataNode的心跳,则认为该节点不可用。
  4. 集群运行中可以安全加入和退出一些机器。

2 存储结构

DataNode不需要显式地格式化;关键文件和目录结构如下:

HDFS角色DataNode
1、HDFS块数据存储于blk_前缀的文件中,包含了被存储文件原始字节数据的一部分。

2、每个block文件都有一个.meta后缀的元数据文件关联。该文件包含了一个版本和类型信息的头部,后接该block中每个部分的校验和。

3、每个block属于一个block池,每个block池有自己的存储目录,该目录名称就是该池子的ID(跟NameNode的VERSION文件中记录的block池ID一样)。

当一个目录中的block达到64个(通过dfs.datanode.numblocks配置)的时候,DataNode会创建一个新的子目录来存放新的block和它们的元数据。这样即使当系统中有大量的block的时候,目录树也不会太深。同时也保证了在每个目录中文件的数量是可管理的,避免了多数操作系统都会碰到的单个目录中的文件个数限制(几十几百上千个)。

如果dfs.datanode.data.dir指定了位于在不同的硬盘驱动器上的多个不同的目录,则会通过轮询的方式向目录中写block数据。需要注意的是block的副本不会在同一个DataNode上复制,而是在不同的DataNode节点之间复制。

3 存储数据模型

HDFS角色DataNode
1、文件线性切割成块(Block)(按字节切割)
[root@node1 ~][root@node1 ~]hello gtjin1.....hello gtjin100......

2、Block分散存储在集群节点中
3、单一文件Block大小一致,文件与文件可以不一致

hdfs dfs  -D  dfs.blocksize=1048576  -D dfs.replication=2 -put hello.txt  /

4、Block可以设置副本数,副本分散在不同节点中

a) 副本数不要超过DataNode节点数量

b) 承担计算

​ c) 容错
5、文件上传可以设置Block大小和副本数

6、已上传的文件Block副本数可以调整,大小不变

7、只支持一次写入多次读取;对同一个文件,一个时刻只有一个写入者

8、可以append追加数据
优势:

  1. 一个文件的大小可以大于网络中任意一个节点的磁盘容量
  2. 使用抽象块而非整个文件作为存储单元,大大简化存储子系统的设计
  3. 块非常适合用于数据备份进而提供数据容错能力和提高可用性

Original: https://blog.51cto.com/u_15704423/5434919
Author: wx62be9d88ce294
Title: HDFS角色DataNode

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/516910/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

亲爱的 Coder【最近整理,可免费获取】👉 最新必读书单  | 👏 面试题下载  | 🌎 免费的AI知识星球