我已经从旧的Hadoop api (mapred)切换到新的Hadoop api (mapreduce)。我无法在新的api中设置映射器的数量。我可以使用job.setNumReduceTasks()来设置缩减的数量,但是没有任何方法来设置映射器的数量。我还尝试了conf.setInt("mapred.map.task
我正在尝试通过流在Hadoop上运行一个简单的python mapreduce脚本。映射器部分加载一个json文档,从一个属性中读取文本,并将文本中的每个单词用1表示,稍后将由脚本的缩减部分求和。代码在Hadoop之外运行得很好。一旦提交到Hadoop,映射就会失败,并显示"ValueError: No Json object map be decoded“。错误行是带有"json.loads()