推荐答案
HDFS 中 Block 的默认大小是 128 MB。
本题详细解读
在 Hadoop 分布式文件系统(HDFS)中,文件被分割成多个块(Block),这些块是 HDFS 存储和处理数据的基本单位。默认情况下,每个块的大小为 128 MB。这个大小可以通过配置文件 hdfs-site.xml
中的 dfs.blocksize
参数进行调整。
为什么 Block 大小设置为 128 MB?
减少元数据开销:较大的块大小可以减少 NameNode 中存储的元数据量,因为每个块都需要在 NameNode 中记录元数据。块越大,存储相同数据量所需的元数据越少。
提高数据传输效率:较大的块大小可以减少客户端与 DataNode 之间的通信次数,从而提高数据传输的效率。
平衡存储与计算:128 MB 的块大小在存储和计算之间提供了一个良好的平衡。块太小会导致过多的元数据开销,而块太大可能会导致数据局部性不足,影响计算任务的效率。
如何修改 Block 大小?
可以通过修改 hdfs-site.xml
文件中的 dfs.blocksize
参数来调整块大小。例如:
<property> <name>dfs.blocksize</name> <value>256MB</value> </property>
这将把块大小设置为 256 MB。