《多輪對話核心算法分析》4000字_第1頁
《多輪對話核心算法分析》4000字_第2頁
《多輪對話核心算法分析》4000字_第3頁
《多輪對話核心算法分析》4000字_第4頁
《多輪對話核心算法分析》4000字_第5頁
全文預覽已結束

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

多輪對話核心算法分析綜述對話系統根據現有的應用場景,對話系統大致可以分為兩類:面向任務的封閉域任務型對話系統和非面向任務的開放域對話系統(也稱為聊天機器人),兩種系統的對比情況如表所示:表2-1任務型對話系統和非任務型對話系統對比表任務型對話系統非任務型對話系統目的完成任務或動作閑聊領域特定域(垂直域)開放域對話輪數評估越少越好越多越好應用場景虛擬個人助理娛樂、情感陪護、營銷溝通典型系統Siri、Cortana、敦煌小冰、度秘小冰面向任務的封閉域任務型對話系統,需要實現在特定領域內,通過較少的對話完成更多的用戶任務,也就是說這個系統的應用是面向垂直領域的。就目前該方向的研究現狀而言,國內面向中文任務的數據集不足且模型的研究較少,而一個好的模型通常需要經過大量數據的訓練,且系統前期需用手工制定的規則解決冷啟動問題,這就提高了構建對話系統的價格成本和時間成本,不利于推動該方向的研究。而聊天機器人主要應用于開放域,不僅要求系統能提供一致性的回復,也要求系統的回復具有多樣化和個性化。根據目前的研究現狀,該方向的應用數據集主要是通過網絡爬蟲獲得的,因而數據集中難以覆蓋對話的上下文信息,因而很難滿足應用的需求。任務型對話系統一般而言,在任務型對話系統地多輪交互中,客戶在某個特定領域的會有針對性地服務需求,然而由于口語化的表達,用戶在對話過程中可能存在重要信息的省略,因而需要系統針對該領域任務型對話信息地缺失,進一步咨詢用戶,以提供相對最優的解決方案。目前基于管道的方法和基于端到端的方法是實現封閉域對話系統的兩種主要方法。本節介紹了基于管道方法的關鍵技術。圖2-1展示了基于管道的面向任務對話系統的典型結構REF_Ref70964221\r\h[7]。它由四個關鍵部分組成:自然語言理解(NLU):它將用戶的話語解析為預定義的語義槽;對話狀態追蹤(DST):它管理每個回合的輸入以及對話歷史記錄,并輸出當前對話狀態;對話策略學習(DPL):它根據當前的對話狀態學習下一步的系統行動;自然語言生成(NLG):它將選中的操作映射到表示層并生成響應。圖2-1基于管道方法的任務型對話系統的典型結構自然語言理解模塊該模塊的實現由三個任務組成:領域檢測、意圖識別和語義槽填充。在其工作過程中,系統根據用戶輸入的語句,將其映射到預定義的語義槽中,針對不同的應用場景,該預定義的語義槽也需要針對性的進行更改。表2-2自然語言表示的一個示例語句推薦免費景點語義槽OOB-價格I-價格OO意圖Request+景點+名稱領域景點在表2-2展示了上述任務完成語義表示的一個示例,其中“免費”是表示目標景點的價格。用BIO標簽標注了該語義槽在句子中的位置,并且標注了該語句的意圖以及任務領域。通常,自然語言表示涵蓋了兩個方面,一方面是話語級識別,包括了識別用戶意圖和語句類別;另一方面是字級信息提取,也就是說需要識別出語句中的某些字段對應的語義表示,也就是填充任務。在自然語言理解模塊我們需要將輸入的這句話進行分類,并標記為預定義的意圖之一。深度學習技術在近幾年的研究中已陸續被應用于意圖檢測REF_Ref71125838\r\h[8]REF_Ref70962816\r\h[9]REF_Ref70962818\r\h[10]。特別是文獻REF_Ref70962863\r\h[11]使用卷積神經網絡(CNN)提取查詢向量表示作為查詢分類的特征。在文獻REF_Ref70962906\r\h[12]和文獻REF_Ref70962917\r\h[13]中基于CNN的分類框架的應用也得到了充分的驗證,獲得了較好的性能表現,因而在后續研究中可以推廣應用。作為另一個具有挑戰性的自然語言理解任務之一,語義槽的填充不同于意圖識別任務,通常需要解決的是句子中的序列標注問題,也就是說在輸入語句中的的單詞會被標記為不同的語義信息。文獻REF_Ref70962955\r\h[14]和文獻REF_Ref71125838\r\h[8]采用DeepBeliefNetworks(DBNs),與CRF基準相比取得了更好的結果。RNN模型在語義槽填充任務上也有著優越的表現,在文獻REF_Ref70962965\r\h[15]REF_Ref70963021\r\h[16]REF_Ref70963023\r\h[17]REF_Ref70963025\r\h[18]中這種應用方法也得到了充分的證明。例如文獻REF_Ref70962863\r\h[11]REF_Ref70963874\r\h[20]運用CNN架構將查詢向量表示為分類特征,且在該模型中池化層的存在也解決了用戶輸入的語句長度不一致的問題,但是該網絡模型能夠監測的范圍有一定的限制,如果距離超出一定范圍,就不能準確表達句子之間的依賴關系。Zhou等人和Lee等人REF_Ref70963569\r\h[19]提出將RNN模型應用于該任務,解決了上述問題。這種方法不但可以摒棄長度受限的劣勢,而且還可以在多重維度進行拓展,例如時間和空間維度,同時具有記憶功能,有利于分析輸入長句之間的關系。語義槽填充就屬于字級信息提取任務,不同于其他兩種任務,其本質上屬于序列標注問題,需要識別出語句中的某些字段對應的語義表示。該任務的主要實現方法也經歷了由統計學習到深度學習的過渡。其中條件隨機場、隱馬爾可夫模型和最大熵馬爾可夫模型等是最常使用的線性統計方法REF_Ref70963569\r\h[19]。由于任務型對話中的語義槽資源需要依靠手工學習和制定,而基于線性統計的方法的性能恰好是受到了語義槽資源的影響,在當下的研究當中應用范圍并不大,開發成本相對較高。而深度學習的方法是目前的研究當中,使用范圍較廣且性能表現也相對較好的方法,例如循環神經網絡模型及其變體的應用便可以優化上述線性統計方法的劣勢。其中長短期記憶網絡模型通過將輸入通過離散形式表示,實現了更低的成本和更小的絕對誤差。在之前的研究當中,一直存在著對話信息利用不充分的情況,因而最近的研究表明,融合上下文信息作為信息,既可以提高模型的準確性,也可以幫助完成字級信息提取的語義槽填充任務,進而實現該模塊的性能提升。它不僅可以充分利用句子級別的標記信息,而且可以有效地利用上下文信息。此外在文獻REF_Ref70964037\r\h[21]REF_Ref70964039\r\h[22]中,意圖識別和語義槽填充的聯合模型,可以通過訓練同時完成自然語言模塊的這兩個任務。這種方法利用了任務之間的相關性,簡化了模型,同時提高了性能,高質量詞典功能的添加可以進一步提高識別的準確性。使用預先訓練的語言模型已經成為了NLU模塊的近期發展趨勢。為了讓輸出的文本向量更加準確地表示輸入文本地語義信息,在預訓練模型中以包含字信息、文本信息和位置信息地向量作為模型地輸入,也即原始文本各個詞對應的向量,然后經過模型訓練,輸出融合了全文語義信息的向量。該向量作為輸入文本的語義表示,可用于后續的分類和標注任務等。這種方法拓展了輸入文本的向量表示,且融入了更多的上下文信息,可以更好了表達文本信息。例如BERT模型是由多層的Transformer模塊組裝而成的。作為BERT模型的核心組件,Transformer通過將注意力機制引入模塊的構建,不僅節省了資源,還提升了捕獲有效信息的速度。基于Transformers的BERT模型也正因為上述的優勢,其性能表現在多個具有挑戰性的NLP任務中都得到了充分的驗證。自然語言生成模塊生成的語義表示即為對話管理組件的輸入,接下來將介紹的對話狀態追蹤和對話策略學習就是該組件的主要組成部分。對話狀態追蹤模塊對話系統的魯棒性在很大程度上取決于對話狀態追蹤模塊的性能表現。在會話的每一回合,該模塊需要根據上一模塊輸出的語義信息對用戶目標進行更新,也就是完成語義槽填充或者更新語義框架。目前產業界對于該模塊的實現通常是采取的傳統方法,通過預定義手工規則來選擇最有可能的結果。但是基于規則的方法用去缺少靈活性,系統容易遇到意外情況而頻繁發生錯誤,得到的結果并不符合期望。一個統計對話系統在面對嘈雜的條件和模糊的情況下,維持著對真實對話狀態的多個假設的分布REF_Ref71107886\r\h[23]。在對話狀態跟蹤任務中,結果以概率分布的形式出現在每個回合的每個槽上。最近,有文獻REF_Ref71108076\r\h[24]在belieftracking中引入了深度學習。這種方法使用滑動窗口輸出任意數量的潛在結果的概率分布序列。雖然它是在一個領域訓練的,但它可以很容易地轉移到新的領域。近些年,在多域對話狀態跟蹤模型的訓練中,循環卷積網絡的方法也得到了嘗試。在這個方法中,模型首先利用現有的語料庫數據來訓練一個非常通用的狀態追蹤模型,然后有針對性地在不同領域對這個通用模型進行調整,從而具備學習該領域行為地能力。MrkiN等人提出了一種neuralbelieftracking(NBT)的模型來識別語義槽值對REF_Ref71108284\r\h[25]。它將系統對話作為用戶輸入、用戶話語本身和一個候選槽值對(它需要對其做出決策)的前面的動作作為輸入,然后遍歷所有候選槽值對,以確定用戶剛剛表達了哪些槽值對。對話策略學習模塊根據上一步狀態追蹤模塊的更新的狀態,策略學習模塊通過策略學習,預測系統下一步的回復動作。在目前該領域的研究中,通常使用監督學習和強化學習的方法來搭建和優化學習的策略。通常情況下,可以定義一個基于規則的代理接口,通過接口實現系統的啟動,然后通過監督學習,不斷優化策略的性能表現。系統通過模仿學習的方法,從數據集語料庫中訓練得到對話模式的策略,即系統針對用戶行為做出的下一步動作預測,然后指導系統回復的生成,進而實現從“語義理解”到“對話生成”的轉換。概括而言就是從訓練中更新模型以獲得提升,再利用當前狀態的表征向量預測系統下一步的最優回復。監督學習和強化學習是對話策略學習的兩種主要方法,相較于監督學習的方法,通過端到端的強化學習方法,在單任務策略學習、多任務策略學習、多領域對話策略學習等方面均有非常好的效果REF_Ref70964221\r\h[7]。自然語言生成模塊該模塊將上一步對話策略預測得到的下一步系統動作轉化為具有人類對話口語特點的語言。基于神經網絡的方法,將對話行為以及語義槽值對進行one-hot編碼,并將該編碼也作為網絡的輸入,以確保生成的語言可以正確表達原有的意思。近年來,一種基于語義控制的LSTM模型,可以充分融合對話信息和對話行為,最終生成系統的回復。這種方法可以利用Attention來獲取關鍵信息,這是通過利用解碼器當前狀態獲取的。基于神經網絡的模型,利用對話行為的編碼嵌入,可以根據不同的系統行為生成對應的系統回復。而基于Seq2Seq的方法,可以適應用戶的對話模式,進而實現更加優化的系統響應。模型評價方法F1ScoreF1分數可以看作是模型精確率和

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論