大橙子网站建设,新征程启航
为企业提供网站建设、域名注册、服务器等服务
这篇文章将为大家详细讲解有关Hadoop文件写入的示例分析,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。
10年的沈河网站建设经验,针对设计、前端、开发、售后、文案、推广等六对一服务,响应快,48小时及时工作处理。成都营销网站建设的优势是能够根据用户设备显示端的尺寸不同,自动调整沈河建站的显示方式,使网站能够适用不同显示终端,在浏览器中调整网站的宽度,无论在任何一种浏览器上浏览网站,都能展现优雅布局与设计,从而大程度地提升浏览体验。创新互联从事“沈河网站设计”,“沈河网站推广”以来,每个客户项目都认真落实执行。
客户端通过对DistibutedFileSystem对象调用create()函数来创建文件(步骤1).DistributedFileSystem对namenode创建一个RPC调用,在文件系统的命名空间中创建一个新文件,此时该文件中还没有相应的数据块(步骤2)。namenode执行各种不同的检查以确保个文件不存在,并且客户端有创建该文件的权限。如果这些检查均通过,namenode就会创建新文件记录一条记录;否则,文件创建失败并向客户端抛出一个IOException异常。DistributedFileSystem向客户端返回一个FSDataOutputStream对象,由此客户端可以开始写入数据。就像读取事件一样,FSDataOutputStream封装一个DFSOutputStream对象,该对象负责处理datanode和namenode之间的通信。
在客户端写入数据时(步骤3),DFSOutputStream将它分成一个个的数据包,并写入内部队列,称为“数据队列”(data queue).DataStream处理数据列表,它的责任是根据datanode列表来要求namenode分配适合的新块来存储数据备份。这一组datanode构成一个管线----我们假设复本数为3,所以管线中有3个节点.DataStreamer将数据包流式传输到管线中第一个datanode,该datanode存储数据包并将它发送到管线中的第2个datanode。同样地,第2个datanode存储该数据包并且发送给管线中的第3个(也就是最后一个)datanode(步骤4).DFSOutputStream也维护着一个内部数据包队列来等待datanode的收到确认回执,称为”确认队列“(ack queue).当收到管道中所有datanode确认信息后,该数据包才会从确认队列删除(步骤5)。
如果在数据写入期间,datanode发生故障,则执行以下操作,这对于写入数据的客户端是透明的,首先关闭管线,确认把队列中的任何数据包都添加回数据队列的最前端,以确认故障节点下游的datanode不会漏掉任何一个数据包。为存储在另一正常datanode的当前数据块指定一个新的标识,并将该标识传送给namenode,以便datanode在恢复后可以删除存储的部分数据块。从管线中删除故障数据节点并且把余下的数据块写入管线中的两个正常的datanode。namenode注意到块复本量不足时,会在另一个节点创建一个新的复本。后续的数据块继续正常接受处理。
在一个块被写入期间可能会有多个datanode同时发生故障,但非常少见,只要写入了dfs.replication.min的复本数(默认为1),写操作就会成功,并且这个块可以在集群中异步复制,直到达到其目标复本数(dfs.replication的默认值为3)。客户端完成数据的写入后,会对数据流调用close()方法(步骤6),该操作将剩余的所有数据包写入datanode管线中,并在联系namenode且发送文件写入完成信号之前,等待确认(步骤7),namenode已经知道文件由哪些块组成(通过DataStreamer询问数据库的分配),所以它在返回成功前只需要等待数据块进行最小量的复制。
关于“Hadoop文件写入的示例分析”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,使各位可以学到更多知识,如果觉得文章不错,请把它分享出去让更多的人看到。