




版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領
文檔簡介
摘要人工智能的思想概念是從上世紀50-60年代提出來的思想,那時的計算機運算能力非常有限,無法對大數據量進行快速運算和存儲。當時的計算機水平制作工藝還處于初期發展階段,相關電子材料還沒有重大突破,因此制約了大數據量運算概念的發展和完善基礎。人工智能的實現基礎在于機器的自我認知,當前實現機器自我認知的途徑主要是通過數據建模和邏輯建模,讓機器擁有自我學習的能力。人類自從有了計算機之后就逐步的開始提高計算機的計算能力,從最開始的幾兆運算能力到現在的幾個吉的運算能力,特別是摩爾定律出現后計算機的計算性能每兩年就會有一次運算能力提升,經過多年的發展我們的計算能力已初步具備大數據量運算的能力,同時也得益于軟件架構思想的提升,主要是基于分布式的軟件架構思想以及集群協作的計算理念為實現大規模計算奠定基礎。在軟硬件具備大規模計算能力以后,就可以通過海量的數據讓機器進行學習。成熟的機器學習有兩種模式:1.有監督的機器學習;有監督的機器學習主要基于數據建模,基于一定的模式規則進行學習。主要的理論支持是基于數學的概率論,線性回歸函數等等基礎理論。2.無監督的機器學習;無監督的機器學習通常以數據的關聯關系以及相似特征進行自歸類,自關聯的方式進行學習然后給出判斷結果。目前主要用的算法有神經網絡算法為基礎進行數據建模。那么在大數據,云計算和機器學習逐步成熟的今天,在電氣自動化領域完全可以集成人工智能的相關技術,通過人工智能技術來提升電氣自動化的智能水平,同時帶來更好的社會效益。關鍵詞:人工智能,大數據,云計算,機器學習,電氣自動化檢測,智能檢測系統第1章前言人工智能技術是通過機器學習加邏輯規則系統結合而成的一門綜合技術,通過大數據處理機器學習通過數學算法建模,對大規模數據進行分析推理思考,從而使其能夠達到類似人類的認知能力,隨著硬件技術的發展,包括量子計算機的出現,離全面超過人類的認知能力的智能系統將在不遠的將來誕生,人工智能系統依靠強大的算力,海量的數據,以及經典的算法模型必然會爆發出巨大的創造力,隨著電氣自動化系統智能的能力提升,必會提高生產效率,節省資源耗費,減少電氣系統的故障發生率,讓電氣系統的運行更加穩定,為社會經濟發展創造更多效益,為人民的的生活水平提高提供更好的動力。1.1課題的來源和目的1.1.1人工智能化的趨勢\t"/item/%E6%96%B0%E4%B8%80%E4%BB%A3%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD%E5%8F%91%E5%B1%95%E8%A7%84%E5%88%92/_blank"人工智能技術經過60多年的發展,目前已經到了可以對日常生活中一些復雜的生活場景進行智能化處理,目前人工智能系統在理論建模方面已取得重大突破,包含硬件方面的突破,比如神經網絡算法,深度學習算法,量子計算機等。當前人工智能研究在國際上也是一個耀眼的焦點,美國在人工智能研究領域處于第一梯隊,特別是美國的硅谷公司,比如大型的搜索引擎公司google,以及知名的人工智能算法研究團隊,來自斯坦福大學的機器學習算法專業等,第二梯隊是來自我國的的一些大型互聯網公司,我國的型互聯網公司從2014年就開始進入人工智能領域,比如百度人工大腦,目前是行業內的領航企業,在未來了的人工智能技術領域,我們要繼續保持奮斗精神走在世界前沿。1.1.2傳統的電氣自動化系統(一)現場總控與分布式控制系統的應用。現場總控指的是連接智能現場設備和自動化系統的通信系統,這一技術能夠解決智能化儀表、控制器等現場設備之間的通信問題,可以對一些高級控制系統之間的信息傳遞進行控制,在電氣自動化領域中都對其有所應用。分布式控制系統能夠實現人機交互、數字控制、以及監控管理等功能,應用起來較為可靠,且反應比較靈活,具有維修簡單、協調性好和控制功能齊全的優勢。(二)遠程監控方式的應用。對于電氣自動化而言,長久在固定的領域中實施監控,并不是最終的訴求。因此,在大量的研究和拓展以后,遠程監控方式得到確立,并且在推廣應用后獲得了人們的認可。但是,遠程監控方式的應用也存在著一定的限制性。例如,各種現場總控的通訊速度,并沒有辦法達到較高的特點,同時電廠的電氣控制部分在通訊量方面,表現出了較大的情況,在遠程監控方式的操作,可能會與理論上的效果存在一定的差距。建議在以后的應用中,將電氣遠程監控方式安置在小系統的監控上,盡量不要應用到整個廠區的電氣自動化構建上,應該將其優勢更好的發揮。(三)軟件技術與電氣工業自動化的結合。在計算機信息技術發達的今天,軟件技術與多媒體技術在自動化的發展過程中添上了濃墨重彩的一筆,在軟件行業的自動化應用過程中已經有辦公自動化逐漸向控制環境的方向進行轉變,隨著市場需求的增加,將電氣自動化和軟件技術更加深入的聯系到一起,并且將自動電氣化的發展推向了一種創新的熱潮,軟件技術不僅僅是在工業領域發揮出了重要的作用,同時在工業、自動化設備的生產與研發等各個環節都產生了重要的影響,對網絡建設的日益完善將產生巨大的意義。1.2開發技術的選擇1.2.1大數據介紹大數據是指在一定的時間內能夠處理大數據量的一種軟件技術,可以對非結構化數據和結構化數據進行處理,以及對實時在線離線數據進行流式處理分析。大數據有四大特征分別是指:大數據軟件架構思想符合處理海量數據的處理方法,及處理海量數據的特征。大數據軟件架構思想能夠快速處理海量數據,處理海量數據的方法是基于龐大的計算集群實現的,及處理速度快的特征。海量數據的多樣性,現實世界中是一個多元文化,每一種文化都有多樣性的特征,正如我們生活存在多樣性一樣,所以說大數據的一大特征就是數據的多樣性。在有了海量的數據后數據的價值就非常重要了,不同數據特征對分析問題處理問題具有很高的價值,所以大數據的另一特征就是數據的高價值特征。在云計算時代,大數據的計算平臺都在云處理運算,云計算平臺提供充沛的計算能力,同時也為數據存儲提供了大容量的存儲空間,讓真正的存儲海量數據成為可能,另外云計算平臺為大數據的集群化運維提供了方便,傳統的大數據運維比較復雜,對機器的安裝部署,已經集群化配置,參數調優,數據存儲和等都為傳統的運維方式帶來了不便,有了云計算平臺后大數據的運算性能,數據存儲能力,運維管理能力顯著提升,為建造一個人工智能平臺提供了堅實的基礎。1.2.2Hadoop簡介Hadoop是一個由軟件基金會所支持開發的分布式系統基礎架構。Hadoop軟件架構思想是根據谷歌的論文思想實現而成的一種分布式計算軟件技術,Hadoop實現了集群計算和海量數據存儲使用的相關技術,并且將相關技術開源了出來,廣大的技術愛好者可以基于此開源軟件進行二次開發,來實現不同業務場景下的技術要求。Hadoop有三個重要組成部分,第一部分是文件存儲系統,簡稱HDFS(HadoopDirectoryFileSystem),HDFS具有高容錯性,并且可以在低廉的硬件服務器上運行,是因為它至少有3份數據備份,所以在廉價的服務器上一兩個節點出現問題也不會影響數據的正確處理,這就是它高容錯性的特點,另外的一個特點就是高吞吐量的來訪問存儲的數據適合大數據量的應用程序。第二部分就是邏輯處理運行算部分MapReduce,MapReduce的思想就是將關鍵字作為key在各個機器節點上進行文件檢索處理,將整個集群里的所有關鍵字檢索出來進行合并累加計算然后輸出,在通過機器學習算法進行統計分析,最后得出分析結果供智能系統參考使用。第三部分,分布式架構思想,Hadoop具有很好的容錯性,服務可靠性,穩定性,彈性設計等思想保證了人工智能系統平臺的穩定。1.2.3Spark簡介Spark是美國加州伯克利分校的AMP實驗室開發的一款基于內存并行計算的分布式框架Spark是使用Scala語言進行開發,它是一款參照高級語言編程開發一套語言,具有靈活的函數式編程,同時也支持面向對象編程,是一個很不錯的編程語言。1.Spark主要是基于內存運算的一個應用思想,在進行大數據集群計算時,它的編程運算路徑是提前規劃好的,是一個有向的無循環圖,支持在內存中對數據檢索計算這個速度比Hadoop基于磁盤的讀取運行快100倍以上。2.Spark使用的編程語言是Scala,它的編程易用性好,Scale的函數式編程不僅大大的簡化的編程的難度,對應機器學習算法的編寫提供了很多便利使用方法,對于其他語言的支持也有很多好的結合方式,比如對java語言的支持,Scale語言可以運行在Java虛擬機中等等。3.Spark有很多組件庫可以大大簡化的整個系統的開發工作量和額難度,將現有的組件加入到Spark系統集群中就可以方便的使用,常用的組件庫有SparkCore,SparkSQL,SparkStreaming,MLLib和GraphX等組件。4.Spark的運行范圍也很廣,具有很廣的適用性,能夠從不同數據系統讀取數據,比如HDFS,Cassandra,HBase,Techyon,Hive,Database,ETL等為持久層都寫原始數據,能夠以集群模式運行或者單機版集群下管理運行,通過自身攜帶資源調度器來管理job,完成大數據量的job程序計算。第2章系統設計在大數據技術應用場景下的建模,一般有兩種形式的基本需求:一是實時數據流的建模,二是大批量離線數據分析建模。這兩種需求在當前分別有不同的解決方案,對第一個需求可以使用流數據計算平臺,而對第二個需求則可以使用Hadoop或MPI等高性能集群進行離線數據分析。然而在一般的應用中,這兩個需求是同時產生,比如一個在線實時監測系統,既需要有對大容量的歷史數據進行挖掘分析,如建立一個地區的長期用電波動以及用電設備狀態分析,也有對當前電網的用電異動和設備異常變化快速反饋的實時建模。2.1功能設計2.1.1人工智能技術平臺人工智能技術平臺的主要組成部分有:1.搭建一個能存儲結構化數據和非結構化數據的文件存儲平臺,這個結構化和非結構化存儲平臺要有很高的容錯性,可擴張展現性,穩定性等等特點。然后我們可以在這個文件存儲平臺上面存儲各種格式的文件,文件的內容可以包含一些結構化的數據或一些非結構化的數據,比如,數據庫的結構化建模數據,excel文件的表格數據,word文檔的文本數據,圖片數據等等。2.需要實現一個分布式的計算框架,為什么需要一個分布式的計算框架,因為將來要把各式各樣的結構化數據和非結構化數據存儲到一個分布式的文件存儲系統上,到時一些數據可能被存儲到這個文件系統的極個別服務器上面,那么我們的計算框架要滿足跨多臺服務器計算數據的能力,然后將各個計算節點的數據匯總歸納,這對分布式計算框架的計算性能要求很高,要具有很高的跨機器通信能力,并且在大規模集群的情況下可以對計算節點進行job任務編排,實現整個集群協同作業讓整個集群運算處在最優的狀態下。3.實現實時數據流計算框架,實時數據流主要是采集一些動態物體的實時數據,有了這些實時數據就可以實現電氣檢測場景中的預測檢查,實時數據流計算框架需要具備高吞吐量數據的能力,同時具備動態擴展能力,快速計算結果。4.數據顯示層,數據顯示層要具備數據抽象組合能力,將不同結果列表進行組合展示的能力5.將第2步和第3步計算的結果同步到電氣自動化系統供電氣自動化系統做決策依據。2.1.2數據收集來源本例針對變電檢測系統,變電檢測系統的數據來源可以有,通過傳感器檢測變電設備溫度,檢測環境溫度,濕度等,檢測電路電壓數據,檢測變壓器油溫,變電設備儲存油量容積,電子拍照系統將電路氧化信息拍照記錄等等檢測手段獲取數據,然后將這些數據收集儲存到HDFS文件平臺,最后HDFS文件系統基于收集到的數據結合歷史數據整合后供機器學習引擎計算使用。2.1.3如何將數據存儲到HDFS文件系統將從變電設備端采集的數據存放到HDFS之前要做以下幾件事情,第一需要將數據進行必要的數據篩選,將那些無用沒有價值的數據通過數據清洗工具將他過濾掉,過濾工具可以使用Kettle或自行編寫一個MapReduce算法進行數據清洗,第二步根據數據采集的頻率將數據緩存到一個消息隊列里,有的數據采集頻率比較高,比如電壓電流采集端每豪秒采集一次,這樣的采集頻率對于HDFS存儲系統來說,存在大量的采集終端的情況下,HDFS系統無法快速響應存儲請求,反而會拉低系統整體性能,因此需要加一個數據緩沖隊列,將采集到的數據統一緩存到數據隊列,然后再通過數據隊列將數據輸送到HDFS文件存儲系統。HDFS流程圖如下圖2-1HDFS流程2.1.4Spark計算學習引擎將數據存儲到HDFS以后,通過使用Spark的分布式計算學習引擎檢測數據異動情況,使用Spark的分布式計算學習引擎前需要先建立學習模型,建立訓練模型前要分析所建模型的數據特征,根據特征建模,特征的選擇要基于業務的特點進行分析,好的特征能夠影響建模的好壞,選取完特征后就可以對這些特征進行建模訓練,將訓練好的模型作為驗證數據好壞的一個標準,然后每次加入的數據計算后使用模型進行概率驗證是否正確,然后經驗證結果保存的結果表中通知給變電檢測系統作為業務決策才參考。另外,也可以通過視圖層展示計算結果。圖2-2Sprak計算流程2.1.5變電檢測系統和人工智能平臺對接傳統的變電檢測系統根據邏輯算法,規則設定,條件判斷等形式處理系統運行中遇到的各種問題,基于這些規則算法往往能解決一部分問題,但隨著經濟的發展,使用電量的增加變電設施越來越多,一個好的變電檢測系統能省去大量的人工成本,提高效率,并且隨著歷史數據的堆積,和環境的變化能處理的問題將越來越復雜。隨著技術的發展變電檢測技術和人工智能技術的結合是越來越必要了,人工智能技術能將歷史數據收集起來,將現有采集的數據和歷史數據一起進行數據學習運行得出更準確的決策依據,人工智能技術是依據大數據進行數據學習運算的,其特點就是數據量大,數據多樣性,數據價值更高,處理速度快等特點,基于以上特點比傳統的專家系統各有準確性,更加靈活,更便捷的處理特殊場景,比如圖片識別,對于圖片上一些細微的變化有很好的捕捉能力,并且可以處理大量的圖片數據。因此,需要設計一個基于人工智能技術的變電檢測系統,變電檢測系統需要提供數據輸入接口,根據人工智能平臺運算后的數據進行業務處理。圖2-3變電檢測流程在數據處理方式上,分離線數據方式和實時在線處理方式,基于目前的計算機處理能力,在離線數據處理主要針對整個數據集進行完整的數據計算處理,從理論上說離線處理更高復雜,但計算處理效果也是最好的一種方式,而實時在線數據處理基于目前的計算能力只能實現一些較為普通的計算任務處理。因此我們將根據各種計算方式各自的計算特點進行側重使用,使用混合架構較為合適,在混合架構模式下才能充分發揮各個場景下的計算性能最大化。圖2-4Hadoop+Spark混合架構2.2平臺整體架構人工智能技術平臺總體架構技術使用,最底層使用的是HDFS技術,HDFS實現了分布式文件存儲的能力,具備高可用性,可維護性,和可擴展性。第二層使用Spark計算框架,Spark計算框架使用通過Scale語言編程實現的,Spark計算框架的實現思路是將存儲在磁盤上的數據加載到內存中進行計算,然后通過調度算法對將要計算的job任務進行合理分配,具體使用的調度算法是有向不循環圖技術,同時也提供了很多機器學習算法庫,以及一些自定義算子的編寫函數,大大的方便了開發人員的編程工作。第三層是各種平臺的數據交互接口,可以在第三層將第二層的運算結果同步的電氣自動檢測系統中,然后觸發電氣自動檢測系統的后續業務處理中。圖2-5基于人工智能平臺設計的整體流程圖圖2-6人工智能平臺總體架構2.3本章小結本章主要介紹了人工智能系統的架構設計思想,提出了人工智能平臺總體三層架構,分別是基礎數據存儲層、業務計算服務層,以及數據結果導向層,同時,針對本文的重點工作內容:人工智能機器學習平臺設計與實現,提出了整體的設計思路。第3章系統實現本文主要目標是設計和實現一個可擴展、實用性和靈活性兼備的人工智能平臺,該平臺能充分發揮分布式計算集群的優勢,并利用良好的對象與類封裝便于平臺的擴展,達到靈活性的目標。3.1功能模塊3.1.1搭建HDFS文件存儲系統下載Hadoop安裝包Wget/apache/hadoop/common/hadoop-3.0.0/hadoop-3.0.0-src.tar.gz解壓安裝包tarzxvf
hadoop-3.0.0-src.tar.gz配置Hadoop的環境變量vi/etc/profile(三臺機器)增加以下配置#Hadoop3.0exportHADOOP_PREFIX=/home/hadoop/hadoop-3.0.0exportPATH=$PATH:$HADOOP_PREFIX/bin:$HADOOP_PREFIX/sbinexportHADOOP_COMMON_HOME=$HADOOP_PREFIXexportHADOOP_HDFS_HOME=$HADOOP_PREFIXexportHADOOP_MAPRED_HOME=$HADOOP_PREFIXexportHADOOP_YARN_HOME=$HADOOP_PREFIXexportHADOOP_INSTALL=$HADOOP_PREFIXexportHADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_PREFIX/lib/nativeexportHADOOP_CONF_DIR=$HADOOP_PREFIXexportHADOOP_PREFIX=$HADOOP_PREFIXexportHADOOP_LIBEXEC_DIR=$HADOOP_PREFIX/libexecexportJAVA_LIBRARY_PATH=$HADOOP_PREFIX/lib/native:$JAVA_LIBRARY_PATHexportHADOOP_CONF_DIR=$HADOOP_PREFIX/etc/hadoopsource/etc/profile修改配置文件vi/etc/hosts(三臺機器)增加以下配置01node1002node1003node103vi
/home/hadoop/hadoop-3.0.0/etc/hadoop/core-site.xml(三臺機器)<configuration><property><name>fs.defaultFS</name><value>hdfs://node101:9000</value><description>HDFS的URI,文件系統://namenode標識:端口</description></property><property><name>hadoop.tmp.dir</name><value>/opt/hadoop</value><description>namenode上傳到hadoop的臨時文件夾</description></property><property><name>fs.checkpoint.period</name><value>3600</value><description>用來設置檢查點備份日志的最長時間</description></property></configuration>vim
/home/hadoop/hadoop-3.0.0/etc/hadoop/hdfs-site.xml(三臺機器)<configuration><property><name>dfs.replication</name><value>3</value><description>副本個數,默認配置是3,應小于datanode機器數量</description></property><property><name>.dir</name><value>/home/hadoop/hadoop-3.0.0/hdfs/name</value><description>datanode上存儲hdfs名字空間元數據</description></property><property><name>dfs.data.dir</name><value>/home/hadoop/hadoop-3.0.0/hdfs/data</value><description>datanode上數據塊的物理存儲位置</description></property></configuration>vim
/home/hadoop/hadoop-3.0.0/etc/hadoop/hadoop-env.sh
(三臺機器)設置java_home(54行左右)exportJAVA_HOME=/usr/java/jdk1.8.0_11vi
/home/hadoop/hadoop-3.0.0/etc/hadoop/worker(namenode節點機器)node101node102node103備注:node101、node102、node103分別是三臺服務器設置的名稱初始化namenode節點/home/hadoop/hadoop-3.0.0/bin/hadoopnamenode-format啟動HDFS/home/hadoop/hadoop-3.0.0/sbin/start-dfs.sh檢查HDFS集群啟動情況jps在namenode節點的機器上能看到namenode和datanode兩個進程,在datanode節點的機器上只能看到datanode進程,我安裝的namenode在node101機器上,datanode是101~1033.1.2Spark環境搭建安裝前準備Spark下載由于我們的Hadoop的版本是2.7.6.所以在選中Spark版本的時候,要注意.要選中pre-builtforapachehadoop2.7andlater的版本#下載Spark[root@spark-masterlocal]#wget/apache/spark/spark-2.3.0/spark-2.3.0-bin-hadoop2.7.tgz#解壓[root@spark-masterlocal]#tar-xvfspark-2.3.0-bin-hadoop2.7.tgz#重命名文件夾[root@spark-masterlocal]#tar-xvfspark-2.3.0-bin-hadoop2.7spark-2.3.0環境配置#配置環境變量exportSPARK_HOME=/usr/local/spark-2.3.0exportPATH=$PATH:$SPARK_HOME/bin#使環境變量生效[root@spark-masterlocal]#source/etc/profileScala的安裝Spark需要安裝Scala語言的支持,在Spark的下載頁面,我們看到要求最低的版本是Scala2.10我們這里安裝的是Scala-2.12.6#解壓[root@spark-masteropt]#tar-xvfscala-2.12.6.tgz#配置環境變量[root@spark-masteropt]#vim/etc/profileexportSCALA_HOME=/usr/scala-2.12.6exportPATH=$PATH:$SCALA_HOME/bin#使環境變量生效[root@spark-masteropt]#source/etc/profile#檢查是否配置成功[root@spark-masteropt]#scala-versionScalacoderunnerversion2.12.6--Copyright2002-2018,LAMP/EPFLandLightbend,Inc.安裝完成之后,安裝同樣的步驟安裝到另外兩臺slave機器上修改配置文件需要修改的配置文件有兩個spark-env.sh,spark-defaults.conf,slavesspark-env.sh#復制模版配置文件[root@spark-masterspark-2.3.0]#cpconf/spark-env.sh.templateconf/spark-env.sh#修改配置文件.[root@spark-masterspark-2.3.0]#vimconf/spark-env.shexportJAVA_HOME=/opt/jdk1.8.0_144exportSCALA_HOME=/opt/scala-2.12.6exportHADOOP_HOME=/usr/local/hadoop-2.7.6/exportHADOOP_CONF_DIR=/usr/local/hadoop-2.7.6/etc/hadoop#定義管理端口exportSPARK_MASTER_WEBUI_PORT=8088#定義master域名和端口exportSPARK_MASTER_HOST=spark-masterexportSPARK_MASTER_PORT=7077#定義master的地址slave節點使用exportSPARK_MASTER_IP=spark-master#定義work節點的管理端口.work節點使用exportSPARK_WORKER_WEBUI_PORT=8088#每個worker節點能夠最大分配給exectors的內存大小exportSPARK_WORKER_MEMORY=4gslaves#復制模版配置文件[root@spark-masterspark-2.3.0]#cpconf/slaves.templateconf/slaves#修改配置文件.[root@spark-masterspark-2.3.0]#vimconf/slavesspark-slave1spark-slave2spark-defaults.conf[root@spark-masterspark-2.3.0]#vimconf/spark-defaults.confspark.eventLog.enabled=truespark.eventLpress=true#保存在本地#spark.eventLog.dir=file://usr/local/hadoop-2.7.6/logs/userlogs#spark.history.fs.logDirectory=file://usr/local/hadoop-2.7.6/logs/userlogs#保存在hdfs上spark.eventLog.dir=hdfs://spark-master:9000/tmp/logs/root/logsspark.history.fs.logDirectory=hdfs://spark-master:9000/tmp/logs/root/logsspark.yarn.historyServer.address=spark-master:180803.1.3配置百度大腦機器學習引擎使用maven依賴:添加以下依賴即可。其中版本號可在maven官網查詢<dependency><groupId>com.baidu.aip</groupId><artifactId>java-sdk</artifactId><version>${version}</version></dependency>直接使用JAR包步驟如下:1.在官方網站下載JavaSDK壓縮工具包。2.將下載的aip-java-sdk-version.zip解壓后,復制到工程文件夾中。3.在Eclipse右鍵“工程->Properties->JavaBuildPath->AddJARs”。4.添加SDK工具包aip-java-sdk-version.jar和第三方依賴工具包json-20160810.jar
slf4j-api-1.7.25.jar
slf4j-simple-1.7.25.jar(可選)。其中,version為版本號,添加完成后,用戶就可以在工程中使用ContentCensorJavaSDK。新建AipContentCensorAipContentCensor是圖像審核的Java客戶端,為使用圖像審核的開發人員提供了一系列的交互方法。用戶可以參考如下代碼新建一個AipContentCensor,初始化完成后建議單例使用,避免重復獲取access_token:publicclassSample{//設置APPID/AK/SKpublicstaticfinalStringAPP_ID="你的AppID";publicstaticfinalStringAPI_KEY="你的ApiKey";publicstaticfinalStringSECRET_KEY="你的SecretKey";publicstaticvoidmain(String[]args){//初始化一個AipContentCensorAipContentCensorclient=newAipContentCensor(APP_ID,API_KEY,SECRET_KEY);//可選:設置網絡連接參數client.setConnectionTimeoutInMillis(2000);client.setSocketTimeoutInMillis(60000);//可選:設置代理服務器地址,http和socket二選一,或者均不設置client.setHttpProxy("proxy_host",proxy_port);//設置http代理client.setSocketProxy("proxy_host",proxy_port);//設置socket代理//調用接口Stringpath="test.jpg";JSONObjectres=client.antiPorn(path);System.out.println(res.toString(2));}}在上面代碼中,常量APP_ID在百度云控制臺中創建,常量API_KEY與SECRET_KEY是在創建完畢應用后,系統分配給用戶的,均為字符串,用于標識用戶,為訪問做簽名驗證,可在AI服務控制臺中的應用列表中查看。注意:如您以前是百度云的老用戶,其中API_KEY對應百度云的“AccessKeyID”,SECRET_KEY對應百度云的“AccessKeySecret”。配置AipContentCensor如果用戶需要配置AipContentCensor的一些細節參數,可以在構造AipContentCensor之后調用接口設置參數,目前只支持以下參數:接口說明setConnectionTimeoutInMillis建立連接的超時時間(單位:毫秒)setSocketTimeoutInMillis通過打開的連接傳輸數據的超時時間(單位:毫秒)setHttpProxy設置http代理服務器setSocketProxy設置socket代理服務器(http和socket類型代理服務器只能二選一)SDK默認使用slf4j-simple包進行日志輸出,若用戶需要使用自定義日志實現,可去除slf4j-simple依賴包,再額外添加相應的日志實現包即可。maven去除slf4j-simple依賴包示例:<dependency><groupId>com.baidu.aip</groupId><artifactId>java-sdk</artifactId><version>${version}</version><exclusions><exclusion><groupId>org.slf4j</groupId><artifactId>slf4j-simple</artifactId></exclusion></exclusions></dependency>接口說明圖像檢測接口提供圖像垃圾文本識別(反作弊)、惡心圖像識別等一系列圖像識別接口的一站式服務調用,并且支持用戶在控制臺中自定義配置所有接口的報警閾值和疑似區間,上傳自定義文本黑庫和敏感物體名單等。相比于組合服務接口,本接口除了支持自定義配置外,還對返回結果進行了總體的包裝,按照用戶在控制臺中配置的規則直接返回是否合規,如果不合規則指出具體不合規的內容。publicvoidsample(AipContentCensorclient){//參數為本地圖片路徑Stringpath="test.jpg";JSONObjectresponse=client.imageCensorUserDefined(path,EimgType.FILE,null);System.out.println(response.toString());//參數為urlStringurl="http://testurl";response=client.imageCensorUserDefined(url,EimgType.URL,null);System.out.println(response.toString());//參數為本地圖片文件二進制數組byte[]file=readImageFile(imagePath);response=client.imageCensorUserDefined(file,null);System.out.println(response.toString());}3.2本章小結本章主要介紹本文的主要工作:主要實現了人工智能平臺的機器學習算法設計與實現,首先本文介紹了搭建整個人工智能平臺的流程化操作,然后分別針對每個功能模塊的安裝步驟進行的逐一介紹,hdfs主要是收集數據存儲數據,在搭建的過程中要關注集群環境下的安裝配置方法,這對hdfs是否能正常工作發揮出高質量的效果至關重要,第二步介紹了Spark計算引擎的搭建,Spark采用機器算法將寫好的算法邏輯分發到各個子服務器進行計算匯總最后給出結果,第三不主要是按裝配置第三方應用SDK,本例中使用的是百度大腦機器學習引擎,基于百度大腦對變電檢測中的圖片進行故障檢測,將根據圖像特征分析將分析后的結果數據通知給變電檢測系統,然后再進一步業務處理后返回給工作人員或自動觸發應對措施。在按照本章介紹的安裝步驟操作完成后一個人工智能化的平臺便搭建成功。第4章結果驗證4.1驗證HDFS安裝是否成功1.啟動HDFSLinux命令行輸入:hdfsmaster節點安裝目錄下bin/start-dfs.sh啟動后在瀏覽器輸入hdfs服務地址,查看hdfs控制臺信息HDFS所在服務器http://ip:8088/cluster4.2啟動Spark[root@spark-masterspark-2.3.0]#sbin/start-all.sh
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
- 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
- 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 《高血壓病發病機制與治療策略》課件
- 《服務器機箱設計》課件
- 鐵路市場營銷市場營銷的解讀課件
- 水泥混凝土路面常見病害的維修路基路面養護江西交通胡鳳輝
- 水平角測量方向法課件
- 中醫課件教學課件
- 中亞飲食文化課件
- 版個人反擔保保證函合同樣本
- 2025版二手設備銷售合同模板
- 南昌影視傳播職業學院《圖形創意A》2023-2024學年第二學期期末試卷
- 2025年415全民國家安全教育日主題班會課件
- 美容師考試與法律法規相關知識及試題答案
- 山東省東營市東營區勝利第一初級中學2024-2025學年九年級下學期一模英語試卷(含答案無聽力原文及音頻)
- 臨床決策支持系統在路徑優化中的實踐案例
- 推動研究生教育高質量發展方案
- 漢服實體店創業計劃書
- 2025-2030中國滑雪板行業深度調研及投資前景預測研究報告
- 2025-2031年中國竹鼠養殖及深加工行業投資研究分析及發展前景預測報告
- 2025年高考數學模擬卷2(新高考Ⅱ卷專用)(解析版)
- CNAS-CC160大型活動可持續性管理體系審核及認證的能力要求
- 2024-2025學年人教部編版新教材語文一年級下冊第四、第五單元檢測題附答案(各一套)
評論
0/150
提交評論