Hadoop出现DataXceiver error processing WRITE_BLOCK operation

Hadoop出现DataXceiver error processing WRITE_BLOCK operation

字面理解为文件操作超租期,实际上就是data stream操作过程中文件被删掉了。以前也遇到过,通常是因为Mapred多个task操作同一个文件,一个task完成后删掉文件导致。

​修改1、datanode所在的linux服务器提高文件句柄参数;

2、增加DataNode句柄参数:dfs.datanode.max.transfer.threads

修改hdfs-site.xml

dfs.datanode.max.transfer.threads                   8192

Original: https://blog.51cto.com/wang/5422521
Author: 江南独孤客
Title: Hadoop出现DataXceiver error processing WRITE_BLOCK operation

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/517070/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

亲爱的 Coder【最近整理,可免费获取】👉 最新必读书单  | 👏 面试题下载  | 🌎 免费的AI知识星球