5.4單詞統計分析代碼實現-Mapper實現(完)_第1頁
5.4單詞統計分析代碼實現-Mapper實現(完)_第2頁
5.4單詞統計分析代碼實現-Mapper實現(完)_第3頁
5.4單詞統計分析代碼實現-Mapper實現(完)_第4頁
5.4單詞統計分析代碼實現-Mapper實現(完)_第5頁
已閱讀5頁,還剩7頁未讀 繼續免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

Hadoop大數據項目開發——單詞統計分析-mapper代碼實現目錄content02Reducer類的編寫01Mapper類的編寫03Driver類的編寫添加依賴:hadoop-commonhadoop-hdfshadoop-client實戰開發:WordCountMapperWordCountReducerWordCountMain/開發環境:mavenIDEA/Eclipse上傳運行:hadoopjarwordcount-1.0-SNAPSHOT.jar

/input/data.txt/output/wc單詞統計功能開發流程引入依賴<dependency><groupId>org.apache.hadoop</groupId><artifactId>hadoop-mapreduce-client-common</artifactId><version>2.9.2</version></dependency><dependency><groupId>org.apache.hadoop</groupId><artifactId>hadoop-mapreduce-client-core</artifactId><version>2.9.2</version></dependency>本案例中的測試數據位于“G:/wordcount/input”的文件夾中。首先在新建項目中的pom.xml文件中引入依賴,如圖所示:Mapper類的編寫新建WordCountMapper類,該類繼承了org.apache.hadoop.mapreduce.Mapper類。WordCountMapper類是map()函數的執行者,用戶需要根據數據處理需求重寫map()方法。創建WordCountMapper類Mapper類的編寫importjava.io.IOException;importorg.apache.hadoop.io.IntWritable;importorg.apache.hadoop.io.LongWritable;importorg.apache.hadoop.io.Text;importorg.apache.hadoop.mapreduce.Mapper;publicclassWordCountMapperextendsMapper<LongWritable,Text,Text,IntWritable>{ @Override protectedvoidmap(LongWritablekey,Textvalue,Contextcontext) throwsIOException,InterruptedException{ Stringline=value.toString();//將Text類型轉成字符型 String[]words=line.split("");//切割單詞 for(Stringword:words){//遍歷words context.write(newText(word),newIntWritable(1)); } }}WordCountMapper類的代碼如圖所示:Mapper類的編寫上述代碼中可知,WordCountMapper類使用extends關鍵字繼承了Mapper<KEYIN,VALUEIN,KEYOUT,VALUEOUT>類,其中:KEYIN:是MapTask讀取到key的數據類型,是一行的起始偏移量的數據類型,使用長整型,在MapReduce中使用LongWritable。VALUEIN:是MapTask讀取到的數據的value的類型,是一行的內容的數據類型,本案例中一行內容的數據類型為文本型,在MapReduce中使用Text。KEYOUT:是用戶的自定義map方法要返回的結果Key-Value中的key的數據類型,在WordCount邏輯中,需要輸出的單詞是字符型,在MapReduce中使用Text。VALUEOUT:是用戶的自定義map方法要返回的結果Key-Value中value的數據類型,在wordcount邏輯中,需要輸出的單詞數量是整數,在MapReduce中使用IntWritable。在mapreduce中,map產生的數據需要傳輸給reduce,需要進行序列化和反序列化。而jdk中的原生序列化機制產生的數據量比較冗余,就會導致數據在mapreduce運行過程中傳輸效率低下。所以,hadoop專門設計了自己的序列化機制,那么,mapreduce中傳輸的數據類型就必須實現hadoop自己的序列化接口。hadoop為jdk中的常用基本類型Long,String,Integer,Float等數據類型封裝了自己的實現了hadoop序列化接口的類型:LongWritable,Text,IntWritable,FloatWritable。Mapper類的編寫Mapper類的編寫然后需要重寫map方法上述代碼中對map方法的重寫,可以通過快捷鍵實現,使用Alt+Insert組合鍵會出現提示,如圖所示:在生成類的各項基本方法界面中選擇OverrideMethods,出現可以重寫的方法,選擇重寫方法界面如圖所示:Mapper類的編寫選中要重寫的方法之后,會出現如圖代碼,將代碼中的super.map(key,value,context);刪除,就可以在map()方法中編寫邏輯代碼,map()讀入進來的數據為Text類型,要對單詞按空格進行切分,需要將Text類型轉換為字符型,轉換代碼如下所示:Stringline=value.toString();//將Text類型轉成字符型刪除此行Mapper類的編寫其次,將讀入進來的數據按照空格進行切分,切分代碼如下所示:String[]words=line.split("");//切割單詞最后,需要將單詞轉換成為<單詞,1>的形式,遍歷切割完成后的單詞數組,將每個單詞都轉化成為<單詞,1>形式,代碼如下所示:for(Stringword:words){//遍歷

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論