WordCountMapper
インポートにjava.io.IOException; 輸入org.apache.hadoop.io.IntWritable; 輸入org.apache.hadoop.io.LongWritable; 輸入org.apache.hadoop.io.Text; 輸入org.apache.hadoop.mapreduce.Mapper; パブリッククラスWordCountMapperはマッパー<LongWritable、テキスト、テキスト、IntWritableは> {延び テキストK =新しいテキスト(); IntWritable V =新しいIntWritable(1)。 保護されたボイドマップ(LongWritableキー、テキスト値、コンテキストコンテキスト)にIOException、InterruptedExceptionある{スロー 文字列の行= value.toStringを(); 文字列[]ワード= line.split(」「)。 (文字列ワード:ワード)のために{ k.set(ワード) context.write(K、V)。 } } }
WordCountMapper
インポートにjava.io.IOException; 輸入org.apache.hadoop.io.IntWritable; 輸入org.apache.hadoop.io.LongWritable; 輸入org.apache.hadoop.io.Text; 輸入org.apache.hadoop.mapreduce.Mapper; パブリッククラスWordCountMapperはマッパー<LongWritable、テキスト、テキスト、IntWritableは> {延び テキストK =新しいテキスト(); IntWritable V =新しいIntWritable(1)。 保護されたボイドマップ(LongWritableキー、テキスト値、コンテキストコンテキスト)にIOException、InterruptedExceptionある{スロー 文字列の行= value.toStringを(); 文字列[]ワード= line.split(」「)。 (文字列ワード:ワード)のために{ k.set(ワード) context.write(K、V)。 } } }
WordCountReducer
インポートにjava.io.IOException; 輸入org.apache.hadoop.io.IntWritable; 輸入org.apache.hadoop.io.Text; 輸入org.apache.hadoop.mapreduce.Reducer。 パブリッククラスWordCountReducerが延びる減速<テキスト、IntWritable、テキスト、IntWritable> { int型の合計。 IntWritable V =新しいIntWritable(); @Override 保護ボイドが低減(テキストキー、反復処理可能<IntWritable>値を、コンテキストコンテキスト) にIOException、InterruptedExceptionがスロー{ // 1累加求和 和= 0。 (IntWritable数:値)のための{ 和+ = count.get()。 } // 2输出 v.set(合計)。 context.write(キー、V); } }