Ошибка несоответствия типа значения преобразователя и редуктора Hadoop

Я новичок в Hadoop и столкнулся с этой проблемой. Я пытаюсь изменить значения Text, Integer по умолчанию для редуктора на Text, Text. Я хочу отобразить Text, IntWritable, затем в редукторе я хочу иметь 2 счетчика в зависимости от значения, а затем записать эти 2 счетчика в текст для сборщика.

public class WordCountMapper extends MapReduceBase
    implements Mapper<LongWritable, Text, Text, IntWritable> {

  private final IntWritable one = new IntWritable(1);
  private Text word = new Text();

  public void map(LongWritable key, Text value, OutputCollector<Text, IntWritable>
        output, Reporter reporter) throws IOException {

    String line = value.toString();
    String[] words = line.split(",");
    String[] date = words[2].split(" ");
      word.set(date[0]+" "+date[1]+" "+date[2]);
      if(words[0].contains("0"))
          one.set(0);
      else
          one.set(4);
      output.collect(word, one);

  }
}

-----------------------------------------------------------------------------------

public class WordCountReducer extends MapReduceBase
    implements Reducer<Text, IntWritable, Text, Text> {

  public void reduce(Text key,Iterator<IntWritable> values,
                  OutputCollector<Text, Text> output,
                  Reporter reporter) throws IOException {

    int sad = 0;
    int happy = 0;
    while (values.hasNext()) {
      IntWritable value = (IntWritable) values.next();
      if(value.get() == 0)
          sad++; // process value
      else
          happy++;
    }

    output.collect(key, new Text("sad:"+sad+", happy:"+happy));
  }
}
---------------------------------------------------------------------------------

public class WordCount {

  public static void main(String[] args) {
    JobClient client = new JobClient();
    JobConf conf = new JobConf(WordCount.class);

    // specify output types
    conf.setOutputKeyClass(Text.class);
    conf.setOutputValueClass(IntWritable.class);

    // specify input and output dirs
    FileInputFormat.addInputPath(conf, new Path("input"));
    FileOutputFormat.setOutputPath(conf, new Path("output"));

    // specify a mapper
    conf.setMapperClass(WordCountMapper.class);

    // specify a reducer
    conf.setReducerClass(WordCountReducer.class);
    conf.setCombinerClass(WordCountReducer.class);

    client.setConf(conf);
    try {
      JobClient.runJob(conf);
    } catch (Exception e) {
      e.printStackTrace();
    }
  }
}

Я получаю эту ошибку:

12.14.10 18:11:01 ИНФОРМАЦИЯ mapred.JobClient: Идентификатор задачи: попытка_201412100143_0008_m_000000_0, Статус: ОШИБКА 425) в WordCountMapper.map(WordCountMapper.java:31) в WordCountMapper.map(WordCountMapper.java:1) в org.apache.hadoop.mapred.MapRunner.run(MapRunner.java:47) в org.apache.hadoop. mapred.MapTask.run(MapTask.java:227) в org.apache.hadoop.mapred.TaskTracker$Child.main(TaskTracker.java:2209) Причина: java.io.IOException: неправильное значение класса: класс org.apache .hadoop.io.Text не является классом org.apache.hadoop.io.IntWritable в org.apache.hadoop.mapred.IFile$Writer.append(IFile.java:143) в org.apache.hadoop.mapred.Task$ CombineOutputCollector.collect(Task.java:626) в WordCountReducer.reduce(WordCountReducer.java:29) в WordCountReducer.reduce(WordCountReducer.java:1) в org.apache.hadoop.mapred.MapTask$MapOutputBuffer.combineAndSpill(MapTask.java:904) в org.apache.hadoop.mapred.MapTask$MapOutputBuffer.sortAndSpill(MapTask.java:785) в org.apache.hadoop.mapred .MapTask$MapOutputBuffer.access$1600(MapTask.java:286) в org.apache.hadoop.mapred.MapTask$MapOutputBuffer$SpillThread.run(MapTask.java:712)

После этого ошибка повторяется несколько раз. Может ли кто-нибудь объяснить, почему возникает эта ошибка? Я искал подобные ошибки, но все, что я нашел, было несоответствием типов ключ-значение для преобразователя и редуктора, но, как я вижу, у меня есть совпадающие типы ключ-значение для преобразователя и редуктора. Заранее спасибо.


person Alek    schedule 10.12.2014    source источник


Ответы (2)


Попробуйте комментировать

conf.setCombinerClass(WordCountReducer.class);

и беги.

Это связано с тем, что буфер данных может быть заполнен.

Разлив ошибка

Также включите

job.setMapOutputKeyClass(Text.class);
job.setMapOutputValueClass(IntWritable.class);

job.setOutputKeyClass(Text.class);
job.setOutputValueClass(Text.class);

поскольку Map и Reducer выдают разные типы данных «ключ-значение».

Если оба испускают одинаковые типы данных, тогда

job.setOutputKeyClass();
job.setOutputValueClass();

достаточно.

person USB    schedule 11.12.2014
comment
Большое спасибо! комментирование conf.setCombinerClass(WordCountReducer.class) сделало свое дело. - person Alek; 11.12.2014

в этой строке класса WordCount это должно было быть

 conf.setOutputValueClass(Text.class);
person Kishore    schedule 11.12.2014