我想了解如何在Hadoop中使用KFS作为文件系统来实现mapreduce。
./bin/start-mapred.sh If the map/reduce job/task trackers are up, all I/O will be done to KFS.
因此,假设我的输入文件分散在不同的节点(Kosmos服务器)中,我(使用KFS作为文件系统的hadoop客户端)如何发出Mapreduce命令?
此外,在发出Mapreduce命令之后,我的hadoop客户端将从不同服务器获取所有数据到本地计算机,然后执行Mapreduce,还是会在输入文件所在的机器上启动TaskTrac