fs.default.name |
NameNode 的URI。 |
hdfs://主机名/ |
dfs.hosts/dfs.hosts.exclude |
许可/拒绝DataNode列表。 |
如有必要,用这个文件控制许可的datanode列表。 |
dfs.replication |
默认: 3 |
数据复制的分数 |
dfs.name.dir |
举例:/home/username/hadoop/namenode
默认:/tmp
|
当这个值是一个逗号分割的目录列表时,nametable数据将会被复制到所有目录中做冗余备份。 |
dfs.data.dir |
举例:/home/username/hadoop/datanode
默认: /tmp
|
当这个值是逗号分割的目录列表时,数据将被存储在所有目录下,通常分布在不同设备上。 |
|
|
|
mapred.system.dir |
Map/Reduce框架存储系统文件的HDFS路径。比如/hadoop/mapred/system/ 。 |
这个路径是默认文件系统(HDFS)下的路径, 须从服务器和客户端上均可访问。 |
mapred.local.dir |
本地文件系统下逗号分割的路径列表,Map/Reduce临时数据存放的地方。 |
多路径有助于利用磁盘i/o。 |
mapred.tasktracker.{map|reduce}.tasks.maximum |
某一TaskTracker 上可运行的最大Map/Reduce任务数,这些任务将同时各自运行。 |
默认为2(2个map和2个reduce),可依据硬件情况更改。 |
mapred.job.tracker |
JobTracker 的主机(或者IP)和端口。 |
主机:端口 。 |
mapred.hosts/mapred.hosts.exclude |
许可/拒绝TaskTracker列表。 |
如有必要,用这个文件控制许可的TaskTracker列表。 |
|
|
|
hadoop.job.history.user.location |
默认:mapred.output.dir/_logs/history
也可以设置为none 来停用
|
作业的历史文件记录目录 |