hadoop 中数据分块block默认大小是64MB,不足64MB不会分块。

2024-12-26 02:38:39
推荐回答(1个)
回答1:

先凑足块大小,先分64M,当然会根据日志文件的完整性,不会在行中分割;最后剩余不足64M的部分划成一个块。假如200M:64M,64M,64M,8M。其中64M不一定是准确的64M,而是最接近64M,但是不大于64M的一个分块。

已经在那边帮你解答了哦