大模型驅動的汽車行業群體智能技術白皮書_第1頁
大模型驅動的汽車行業群體智能技術白皮書_第2頁
大模型驅動的汽車行業群體智能技術白皮書_第3頁
大模型驅動的汽車行業群體智能技術白皮書_第4頁
大模型驅動的汽車行業群體智能技術白皮書_第5頁
已閱讀5頁,還剩184頁未讀 繼續免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

PREORDERPREORDERPREORDER1|戰略態勢:人工智能時代的汽車行業發展隨著科技的飛速發展,汽車行業正面臨著顛覆性的變革。從傳統的燃油車到電動汽車,從手動駕駛到自動駕駛,從機械座艙、電子座艙到智能座艙,每一次的技術突破都在推動著汽車行業的進步。在智能化、網絡化、電動化的趨勢下,汽車不僅僅是一種出行工具,而是一個承載了眾多創新技術的移動智能終端。在發展與變革的過程中,大語言模型和群體智能對車企在生產、銷售、營銷等各環節均帶來前所未有的機遇和挑戰,群體智能與組織孿生解決方案也從紙上談兵變群體智能技術的發展,為汽車行業帶來了新的機遇。通過多個智能體的協作,可以處理更加復雜和動態的任務,如智能交通系統的優化、車輛群的協調運行等。這不僅提高了汽車行業的運營效率,也為此外,數字組織孿生技術的應用,為汽車行業帶來了革命性的變革。通過創建數字孿生模型,企業能夠在虛擬空間中模擬和分析研發、生產與營銷流程,從而實現更高效的資源配置和風險管理。這項技術在產品設計、生產過程優化、以及市場策略制定等方面都顯示出巨大本白皮書全面探討了大模型群體智能技術及其在汽車行業的應用潛力。首先,我們在第一章分析了中國汽車行業的市場現狀,聚焦于消費需求的變化、供給側的挑戰以及由此產生的機遇。接著,我們在第二章深入探討了大模型群體智能技術體系,包括大語言模型、AIAgent、群體智能和組織孿生。第三章著重于分析大模型群體智能技術在汽車行業的應用價值和實踐案例。最后,在第四章詳細描述了汽車行業群體智能生態矩陣及其共贏邏輯,并以對未來的展望作為總結,強調了這些技術對于汽車行業轉型升級的重要性。中國汽車行業發展近30年經歷了“起步積累段干預個人購車,價格機制逐步發揮調控作用。進入2勵轎車進入家庭,市場價格成為調控需求與供給的核心機制。21世紀數據來源:全球經濟指標雖然中國乘用車市場整體處于需求增長停滯的大環境中,但細分的新能源車市場表現越加醒目。2023年新能源汽車市場滲透率突破30%,提前實現了《新能源汽車產業發展規劃(2021-2035)》中關于2025年新能源新車銷量達到新車總銷量20%的目標,已經成為我國汽車行業彎道超車的重點賽道。國家政策的扶持給新能源汽車發展帶來眾多有利條件,財政部、稅務總局、工信部在2023年6月聯合發布的《關于延長和優化新能源車輛購置稅減免政策的公告》,將新能10月由科技部發布的《關于支持新能源汽車產業高質量發展的若干政策實施》等一系列政策的頒布,推動了新能源汽車市場繁榮發展、刺數據來源:全國乘用車市場信息聯席會,統計整理易車研究院調研發現,結婚、生子是中國老百姓的關鍵購車需求節點[1-1]。2008年開始,80后的“結婚購車浪潮”是中國車市(特別是首購車用戶)的主要推動力。2018年后,90后開始大規模進入車市,90后人數減少購買潛力不及80后;結合圖表1-4我們發現近五年大家對結婚和生子積極性持續走低,一定程度上降低了首購車人數據來源:國家統計局(統計口徑數源整理:易車研究院《2023年車市價格戰洞數據來源:國家統計局(統計口徑數源整理:易車研究院《2023年車市價格戰洞首購車用戶呈現下降趨勢,再購逐漸成為核心增長動力且均價有所提升,給中高端車型帶來更多機會。根據易車研究院2023年《家庭擁車數量洞察報告》2014年至2022年首購和再購的數據,再購市調研,有54%的受訪者表示在再購車時考慮升級價格區間[1-3],促數據來源:易車研究院(以家庭為單位)《家庭擁車數量洞察報告》[1-2]近年來消費者獲取汽車資訊呈現多渠道、多觸點的特點,在常態化觸媒包圍下,品牌主都在想方設法地搶占用戶注意力。群邑聯合易車發布的《2023全域鏈路時代汽車營銷變革白皮書》中提到,整個用用戶注意力從原先聚焦于汽車垂直資訊平臺與汽車廠商官網,持續且不同程度地分散到各個泛娛樂類短視頻平臺、知識分享及社交媒體平臺、搜索引擎、新聞資訊平臺和綜合視頻平臺等。廠商需依據各平臺的用戶畫像和推送邏輯,不斷向用戶推送車系種草內容或競品攔截信息搶占用戶注意力。從被動獲取信息到主動篩選、糅合信息,實際延長了用戶從形成認知到產生購買行為的時間,用戶注意力被分散的同時也增加了轉化難度。因此,企業亟待信息整合,為用戶提供高信息來源:群邑,易車《2023全域鏈路時代汽車營銷變革白皮書》2019-2023年汽車品牌與車型迅猛增長,在新產品數目不斷擴張的同時,舊有格局也悄然發生變化,給新入局者提供了發展機會,也為汽車市場注入了新的活力。快速涌入的新產品給消費者更多的選擇空間,滿足不同消費者多樣化的需求,其中新能源品牌近年來在汽車數據來源:各品牌官方發布渠道,統計整理近5年來整體市場份額波動較大,行業洗牌加速且尚未形成穩定格局,恰好是新入局玩家憑借敏銳的市場洞察和創新能力,在市場中迅速崛起的好時機。如圖表1-9展示近5年中國乘用車品牌銷量數據來源:全國乘用車市場信息聯席會,統計整理我們認為“價格戰”是把雙刃劍,企業可以利用價格優惠吸引消費者注意,在激烈的市場競爭中快速搶占份額,但同時也會壓縮部分利潤空間。從2021年-2023年9月中國乘用車市場終端優惠與終端銷量走勢圖表,不難發現優惠幅度與銷量基本呈正比。2021-2022年,中國乘用車市場每輛車的平均優惠幅度在1.5-2隨后眾多新能源品牌和傳統車企也紛紛跟進,通過降價、限時促銷等方式來吸引消費者。2023年二季度末,平均每輛車的終端優惠突破了數據來源:易車車型庫,出處:易車研究院,《2023年車市價格戰洞察報告》[1-1]銷量提升并不等同于企業利潤提升。2023年上半年,從國內10家上市車企業對外公布的財報數據看,多數車企上半年營收、凈利潤數據來源:上市公司車企財報公開信息整理2023年上半年,經銷商集團受到價格戰影響,虧損面積增大。降價銷售新車壓縮了利潤空間,毛利潤和毛利率均不及22年同期也有部分消費者為搭乘購置稅減半的福利,在22年底前提前透支數據來源:經銷商集團財報公開信息整理打造行業領先的成本優勢、實現一致的品牌體驗持續影響用戶心易慧智能實地走訪汽車銷售門店發現,人力成本居高不下,引入傳統工具化應用也并未帶來預期的經營效能提升,此外,人員服務專業度問題及為保障品牌一致性帶來了大量額外成本問題,是經銷商與品牌直營店面臨的普遍挑戰。品牌在銷售模式上,正加速從主流經銷商模式到直營模式,再到混合經營模式進行積極探索,以達到降本增經銷商模式通過經銷商網絡銷售和服務車輛,仍是當前汽車廠商的主流銷售渠道。自負盈虧的經銷商模式,具備覆蓋性廣、細分性強經銷商門店人工邀約試駕,仍是潛客孵化的主要手段。面對嚴苛的邀約數量、服務通話質量和轉化率考核,經銷商顧問在有限精力內僅能做到應付考核,對中低意向的客戶基本放棄維護,導致大量潛客流失。即便專業類應用工具越來越多,但學習成本極高,多半是擺設,主機廠無法獲得用戶真實數據反饋,難以帶來經營效益及效率提升。新勢力品牌入局多采用直營模式,通過品牌APP報價/下單、設立自營交付中心,沒有中間商賺差價可以有效的控制價格和利潤,全鏈路對接終端消費者,有效保障了品牌服務的一致性,優異的線下體驗對促成購車不可或缺。與用戶直聯的環節中,廠商可以更加準確有效的掌握消費者的第一手信息、迅速獲得產品反饋,幫助企業快速進行產品迭代。特別在品牌建立初期,直營模式利于品牌形象打造、提需要極高的運營成本投入在門店建設和人員培訓,無疑縮小了品牌的基于汽車行業加速內卷的市場競爭和消費者需求放緩的市場背景,人工智能正在重塑汽車行業的生態,對汽車企業智能化轉型而言是挑戰更是機遇。全面的成本領先是未來汽車企業競爭的基礎。在激烈的市場競爭中,汽車企業需要通過全面的成本領先策略來降低生產成本、提高運營效率,從而獲取競爭優勢。在人工智能時代,自動化和智能化生產成為主流趨勢,這有助于降低汽車企業的生產成本和提高生產效率。例如,通過引入自動化生產線和智能倉儲管理系統,汽車企業可以減少人力成本和庫存成本,從而實現更高效的生產管理。同時,企業需持續投入大量資金進行技術研發和人才引進,關注全球產業鏈的變化,積極尋求與供應商和合作伙伴的協同降本機會,建立完善的AI基礎設施以實現降本增效。一致的品牌體驗和個性化的品牌溝通會成為品牌心智塑造的勝負手。借助AI技術,企業可以更深入地了解消費者需求,提供個性化的品牌溝通和一致的品牌服務體驗,來滿足消費者對品質和服務的基本需求,從而塑造出可信賴的品牌形象。例如,根據消費者的購車習慣和偏好,為其推薦合適的車型和配置。同時,企業可以通過AI技術優化客戶服務中心,提供高效、專業的咨詢服務,提升用戶滿意度和用戶粘性。然而,在保持品牌一致性的同時滿足消費者的個性化需求,這需要企業具備精準的市場分析和精細的產品規劃能力。此外,企業還需面對數據安全和隱私保護的挑戰,確保消費者數據的安全與合規使用。科技突破:邁向通用人工智能的大模型群體數據驅動的解決方案與精細化運營突破人效天花板。隨著科技的進步和消費者需求的變化,傳統的以“人”為中心的運營方式已經難以適應市場發展的需求。在人工智能時代,數據成為企業的核心資產。通過對數據的收集、分析和挖掘,企業可以洞察市場趨勢、優化產品設計、提升服務質量。例如,利用AI算法分析消費者行為數據,預測未來市場趨勢,提前布局產品研發。同時,企業可以通過精細化運營提高人效,降低人工成本。例如,利用AI技術優化人力資源管理,實現人才的精準招聘與培養。然而,數據驅動的解決方案與精細化運營也對企業提出了新的要求。企業需構建完善的數據收集和分析體系,確保數據的準確性和完整性;企業需加強數據安全保護,防止數據泄露和被濫用。科技突破:邁向通用人工智能的大模型群上限。隨著技術發展,大規模與訓練語言模型參數數量不斷快速提升,模型能力也飛速躍升,2022年底,隨著ChatGPT的發布,人們廣泛意識到大模型對技術和生產力帶來的無限潛力,開始討論大語言模型是否產生了智能的“涌現”,研究基于大語言模型應用到生產生活領在當下,大模型技術路線已在產業界達成廣泛共識,但究竟它將成為類似Web3.0的技術浪潮,還是一場足以綿延至少十年的產業革命,仍是一個值得深思的問題。以大模型為核心的AGI革命是第四次重大技術變革,它可以和蒸汽革命、電力革命、信息革命相提并論,并將持續至少20到30年,深刻改變我們的世界。若干年后,整個人科技突破:邁向通用人工智能的大模型群體我們可以將大模型比作汽車引擎,它為汽車提供動力。然而,要制造出一輛完整的汽車,除引擎外,還需要轉向系統、底盤、內飾以及其他所有必要組件。同樣,要充分發揮大模型的潛力,我們還需要在這個“引擎”基礎上加入一系列高級技術,如增強的記憶能力和使用工具的能力,這樣才能開拓更廣泛的應用領域和想象空間。而AIAgent(智能體)正是集合這些技術能力的載體。隨著針對大語言模型的廣泛研究,人們發現大模型目前存在“幻覺”等問題,導致在真實場景中落地困難。鑒于此,能夠調用工具,進行復雜任務規劃、執行的Agent技術,逐漸進入人們研究的領域。AIAgent的出現開啟了一種新的交互方式。不再是被動的執行工具,它能主動感知環境并動態響應,標志著人類智能理解的主動轉變。這一創新是邁向全面人工智能情感智能、感知能力、價值觀念和成長潛力。這些特征使它們能夠適應多種應用場景。為使單個智能體發揮出色的能力,需要讓它們相互連接并協作,以處理和完成更為復雜的任務。實際上,無論是人類社會還是自然界,群體智能的案例比比皆是。正如我們需要團隊和組織將個人聯合起來一樣,自然界中的蜂群、蟻群和魚群也展示出超越個體的高級智能行為。簡單個體聚集成群體時,個體間交互能夠使群體涌現超越個體的智能。隨著研究的深入,AIAgent相互間,能夠通過通信形成協作,完成單智能體無法完成的工作。結合能夠自主理解、規劃、執行、反思任務的AIAgent技術,并最終采用最短路徑科技突破:邁向通用人工智能的大模型群體式:組織孿生。組織孿生是一個以數字技術為核心的創新框架,它包括三個關鍵部分:崗位孿生、架構孿生和業務孿生。崗位孿生利用大模型技術創建個人的數字孿生虛擬人,這些虛擬人能模擬真人的交流方式,包括聲音和表情,并具備“感性智能”。它們能夠執行內容生成、基礎交流、客戶服務等工作。架構孿生則是在數字世界中映射真實公司的組織架構,通過智能體網絡技術定義智能體間的交流和邏輯。最后,業務孿生通過整合大語言模型、搜索增強技術和智能體構建等,自動執行實際業務,優化業務執行效果。這個框架特別適用于復雜的行業場景,如汽車行業,提供了一個全新的數字化工作和管理方式。2.2.1.1大語言模型基本概念自2018年,以BERT和GPT為代表的預訓練語言模型(PLM)技術,大幅刷新各類自然語言處理任務的性能上限,已經成為人工智能領域的主流技術范式。預訓練語言模型采用“預訓練+微調”方法,主要分為兩步:1)將模型在大規模無標注數據上進行自監督訓練得到預訓練模型,2)將模型在下游各種自然語言處理任務上的小規模有標注數據進行微調得到適配模型。相比傳統人工智能模型,預訓練模型在下游應用中具有數據成本低、通用性強、綜合性能好科技突破:邁向通用人工智能的大模型群體并且僅通過少量樣本的學習,就達到逼近人類的學習能力,展現出邁訓練數據量呈現“伸縮定律”(ScalingLaw)現象,即模型參數、訓練數據規模越大模型性能越好,這激發了大語言模型研究熱潮。大2.2.1.2大語言模型發展歷程圖表2-6展示了由深度學習引導的本輪人工智能大潮里程碑式成果。本輪深度學習浪潮可以最早從視覺領域發展起來,2012年圖靈獎得主Hinton提出AlexNet在大規模視覺識別挑戰賽ImageNet評測上大幅超越現有模型,并首次在深度學習中引入GPU加速,激發了深度學習的研究熱潮。2012至2016年間,視覺領域成為深度學習的主導領域,生成對抗網絡GAN、深度殘差網絡ResNet等創新技術應運而生。同時,自然語言處理領域亦有所發展,如文本詞嵌入基礎,盡管其在性能提升上并不顯著。2017年成為轉折點,Google提出的Transformer框架在機器翻譯中取得顯著進步,其分布式學習于Transformer提出了預訓練語言模型BERT和GPT,顯著提高了NLP任務的性能,并展示出廣泛的通用性。這標志著“預訓練+微調”技術范式的開端。此后,眾多預訓練模型相繼涌現,OpenAI以GPT-本學習和復雜任務處理的能力,顯示出實現通用智能的巨大潛力,開等跨模態模型,進一步推動了深度學習和人工智能的發展。科技突破:邁向通用人工智能的大模型群體此次大模型浪潮中,OpenAI成為該領域的絕對的領導者,其提出了系列有影響力的大模型,特別是Cha性能發生質變,開創了人工智能的新變革。圖表2-7展示了OpenAI2.2.1.3大語言模型能力與特點大語言模型較傳統人工智能模型,呈現出如下能力和特點,如圖·涌現能力(EmergentAbilities),隨著模型計算量和訓練數據量的增加,大語言模會涌現出上下文學習、指令遵循、思維鏈推理、交互認知等能力。這里上下文學習是指給定少量演示樣本,大模型就可以參考回答用戶的問題,具備了一舉反三能力;指令遵循是指用戶給定任務描述文本指令,大模型可以找指令要求回答問題;思維鏈推理旨在大模型能夠給出問題解答過程,通過推理過程可以提升大模型回答準確率;交互認知是指大模型具備與工具、環境等交互完成任務大模型可以與人類的需求、期望、價值觀、倫理道德等進行深度對齊,通過有監督微調和人類反饋強化學習等學習人類偏好反饋,能夠有效降低大模型的錯誤、虛假等“幻覺”內容生成,提升大模型的忠誠性、可靠性、有幫助性等,這是ChatGPT成功關鍵,也是目前解決大模型安全的關鍵技術。OpenAI團隊提出了超級對齊的概念,并給出了科技突破:邁向通用人工智能的大模型群體·序列建模,大語言模型技術能夠對任何可以被序列化的事務進行壓縮和學習。大語言模型采用Transformer架構,通過將輸入轉化成token序列實現對輸入的編碼和理解。目前Transformer架構已經成為文本、視覺、語音等各種領域的大模型的核心架構,實現了對各種模態數據編碼能力。在文本之外,我們可以通過序列化方法抽象、學習理解世界中的萬事萬物,如語言可以轉化成文本序列,圖像通過成序列,Agent的工具調用可以劃分成動作執行的序列,電磁波可以轉化成音頻序列等。在大模型中這些序列都是詞元(Token)序列。任何可以被序列化的信息均可被大模型學習。2.2.1.4大語言模型發展趨勢更大模型參數:由于大模型性能與模型參數呈現“ScalingLaw”(擴展定律),即在充分數據訓練下模型參數規模越大模型的性能越好。同時,模型參數規模越大模型的泛化性和復雜數據的編碼能力也越好,而且呈現更強的涌現能力。這激發了人們對更大模型的參數規模從過去的5年間,參數規模增長5000倍(2018年幾億參數科技突破:邁向通用人工智能的大模型群體多模態大模型:多模態數據豐富無處不在,互聯網90%以上是圖像與音視頻數據,文本不到10%。多模態協同更符合人類感知與表達方式,是機器實現類人智能重要途徑。目前構建融合更多模態的大模型是當前大模型發展趨勢。這一趨勢是指將文本、圖像、聲音等多種模態的數據融合在一起,通過大模型進行處理和理解。例如,Midjourney和OpenAI的DALL-E2能夠根據文本描述生成相應的圖像,而GPT-4可以根據理解圖像和文本跨模態理解和生成。這類模型AIforScience(大模型+X這個方向強調將大語言模型應用于科學研究中,例如藥物發現、蛋白質結構預測等。大模型在這些領域的應用,不僅能夠加速數據分析和知識發現,還能夠提出新的科學的蛋白質結構預測模型Alphafold,預測準確性已達到與人類可比水平,取得了重大突破,極大地加速了生物醫學領域的研究進程。清華大學將大模型應用于生醫領域提出了KV-PLM,將生醫文獻數據中分子結構通過SMILES表達式的形式映射到自然語言,然后對文字表達序列和生醫文本進行掩碼語言建模,實現了分子表達式與文本描述的橋接,在分子檢索等領域任務上取得大幅提升。些智能體可以在多種場景下協助人類,如個人助理、客服機器人、教育輔助等。AIAgent的發展不僅在于算法本身的優化,還包括對人類行為和需求的理解,以及與人類的交互能力。例如,GPT-4等大語言2.2.2.1Transformer架構Transformer架構[2-1]是目前大語言模型采用的主流架構[2-2],其基于自注意力機制(Self-attentionMechanism)模型。其主要思想是通過自注意力機制獲取輸入序列的全局信息,并將這些信息通過網絡層進行傳遞。標準的Transformer如圖表2-12所示,是一個編碼器-解碼器架構,其編碼器和解碼器均由一個編碼層和若干相同的Transformer模塊層堆疊組成,編碼器的Transformer模塊層包括多頭注意力層和全連接前饋網絡層,這兩部分通過殘差連接和層歸一化操作連接起來。與編碼器模塊相比,解碼器由于需要考慮編碼器輸出作為背景信息進行生成,其中每個Transformer層多了一個交叉科技突破:邁向通用人工智能的大模型群體注意力層。相比于傳統循環神經網絡(RNN)和長短時記憶神經網絡Transformer架構包含編碼層與Transform編碼層,主要是將輸入詞序列映射到連續值向量空間進行編碼,每個詞編碼由詞嵌入和位置編碼構成,由二者加和得到:1)詞嵌入,在Transformer架構中,詞嵌入是輸入數據的第一步處理過程,它將詞映射到高維空間中的向量,可以捕獲詞匯的語義信息,如詞義和語法關系。每個詞都被轉化為一個固定長度的向量,2)位置編碼,由于自注意力機制本身對位置信息不敏感,為了讓模型能夠理解序列中的順序信息,引入了位置編碼。標準Transformer架構的位置編碼方式是使用正弦和余弦函數Transformer模塊,通過自注意力機制獲取輸入序列的全局信息,并將這些信息通過網絡層進行傳遞,包括多頭注意力層和全連接前饋網絡層,這兩部分通過殘差連接和層歸一化操作連接起來,Transformer模塊,由自注意力層、全連接前饋層、殘差連接和層歸值矩陣,其中矩陣中的每一行對應一個詞。注意力機制的計算方Attention)機制,即輸入序列被線性映射多次得到不同的投影矩陣。多個尺度化后點積注意力可以并行計算,并產生多個自注意力輸出。多頭注意力生成多個高維的注意力表示,這使得其比單頭注意力具有科技突破:邁向通用人工智能的大模型群體2)全連接前饋層,在注意力層之后的全連接前饋層由兩個線性變FFN(X)=O(XW+b,)W+b,FFN作用包括兩個方面:(1)非線性激活:在每個注意力模塊之后引入了非線性激活函數,這有助于增強模型的表達能力2)信息整合:自注意力機制允許模型在不同的位置間建立聯系,而全連接前饋網絡則在每個位置獨立地對信息進行整合,這兩者結合起來,使得模型既能捕獲全局(長距離)的信息,又能在每個位置進行局部3)殘差連接和層歸一化,在每個注意力層和每個全連接前饋層之一化(LayerNormalization)技術,這有助于在模型非常深時保留信息并確保模型性能。具體來說,對于某一層神經網絡f(·),殘差連接和歸一化層定義為LayerNorm(x+f(x))在Transformer模型被提出之后,它也衍生出了相當一部分的變體,包括在編碼器和解碼器中出現了不同方式的注意力機制、歸一化2.2.2.2大語言模型典型架構現有的大語言模型幾乎全部是以Transformer模型作為基礎架構來構建的,不過它們在所采用的具體結構上通常存在差異。LLM根據架構主要分為三類:1)自回歸語言模型,采用Transformer的編構,代表性模型BERT、RoBERTa等;3)序列到序列語言模型,采目前LLM在國際上也被認為是實現通用人工智能的“基礎模型”(FoundationModel在國內也被稱為“大模型”。2022年底,對話、代碼生成等任務,展現了強大的語言理解、多類型任務處理、認知交互能力,取得了巨大成功,標志AGI邁向了新的臺階。由于GPT-3、ChatGPT等的成功和展現的巨大潛力,使得自回歸語言模型科技突破:邁向通用人工智能的大模型群體大語言模型構建的整體技術路線如圖表2-14所示依次包括數據準備、模型預訓練、模型微調、適配部署、模型應用等下面對大語言模型構建中主要關鍵技術進行介紹,包括模型預訓2.2.3.1大語言模型的高效預訓練支撐大語言模型高效訓練的技術主要包括高性能訓練工具、高效預訓練策略、高質量訓練數據、高效的模型架構等。高性能訓練工具,旨在通過對模型計算、顯存、內存和通信使用的系統級優化,提高訓練吞吐量和加載更大模型到顯存中,實現在有限資源下大模型高效訓練的目的。系統級優化通常是與模型無關的,并且不會改變底層的學習算法,被廣泛應用于各種大模型的模型。相關方法主要從兩個方向實現:一是設備內優化方法,包括降低浮點數的冗余表示的半精度浮點優化、混合精度浮點優化等方法,降低梯度計算中過程中冗余表示的梯度檢查點(Checkpointing)方法,以及內存優化的ZeRO-Offload方法,即通過將數據和計算從GPU卸載到CPU,以此減少神經網絡訓練期間GPU內存占用的方法。二是多設備優化方法,也稱分布式優化,即分布在許多計算節點上的多個GPU一起用于訓練單個模型,這類方法主要有數據并行、模型并行、流水線并行等方法。數據并行性,即當將一個大的批處理數據被劃分到不同的計算節點。模型并行性,即在進行模型并行性時,模型參數可以分布到多個節點上。流水線并行,它將一個深度神經網絡劃分為多層,然后將不同的層放到不同的節點上,計算每個節點后,輸出被發送到下一個節點進行下一層計算。以上三種維度的并行優化方法相互獨立,可以同時使用來加速模型訓練。基于以上方法構建的代表性的大模型訓練工具,主要有微軟的DeepSpeed-Megatron、科技突破:邁向通用人工智能的大模型群體高效預訓練策略。其主要思路是采用不同的策略以更低成本實現對大語言模型的預訓練。一種是在預訓練中設計高效的優化任務目標,使得可以使得模型能夠利用每個樣本更多的監督信息,從而實現模型以解決在預訓練中單純增加批處理大小可能會導致優化困難問題。第三種是漸進式訓練策略,不同于傳統的訓練范式使用相同的超參數同時優化模型每一層,該方法認為不同的層可以共享相似的自注意力模式,首先訓練淺層模型,然后復制構建深層模型。第四種是知識繼承方法,即在模型訓練中同時學習文本和已經預訓練大語言模型中的知繼承技術經測試可以使大模型在預訓練前期提速37.5%。第五種是可預測擴展策略(PredictableScaling)[2-7],旨在大模型訓練初期,利用大模型和小模型的同源性關系,通過擬合系列較小模型的性能曲線預測大模型性能,指導大模型訓練優化。OpenAI在GPT-4訓練中,使用1000倍至10000倍較少計算資源訓練的小模型可靠地預測高效的模型架構:BERT之后的Transformer架構在提高自然語言處理效率方面有兩個重要優化方向1)統一的序列建模,旨在將多種自然語言處理任務(如分類、信息抽取、翻譯、對話等)整合到一個統一的框架,然后在同一模型中執行多個任務,以實現更高效的自然語言處理。該方法可以充分利用大規模訓練數據,從而提高了模型在多個任務上的性能和泛化性。這減少了開發和維護多個單獨模型的復雜性以及資源消耗,提高模型的通用性。統一任務序列建模有兩種方式:一是轉化為序列生成的統一任務,如T5[2-10]和BART[2-9]等將多種自然語言任務統一轉化文本到文本的生成任務;二是轉化為大語言模型預訓練任務,通過語言提示在輸入文本中插入人類設計或者自動生成的上下文,實現對不同任務的處理。(2)計算高效的模型訓練穩定性、顯存利用等方面進行優化。比如,Transformer其并行處理機制是以低效推理為代價的,解碼時每個步驟的復雜度為O(N),Transformer模型也是顯存密集型模型,輸入序列越長、占用的內存其采用線性化注意力+尺度保持(Retention)機制,在基本保持模型性能的基礎上同時實現模型訓練速度、推斷速度和內存節約的大幅提升。針對自注意力顯存消耗大,斯坦福大學在Transformer中引內存高效的注意力算法,已經被各種主流大模型采用以擴展對超長文本輸入的支持。最近,模塊化大模型架構引起廣泛關注,其利用大模型的神經激活稀疏性,對稠密模型進行模塊化劃分,不同任務科技突破:邁向通用人工智能的大模型群體只經過部分模塊計算實現訓練和推理加速,典型工作包括Google的2.2.3.2大語言模型的適配微調大語言模型由于在大規模通用領域數據預訓練通常缺乏對特定任務或領域的知識,因此需要適配微調。微調可以幫助模型更好地適應此外,微調可以提高部署效率、減少計算資源需求。指令微調和參數指令微調(InstructionTuning)[2-19],是一種可以幫助大語言模型實現人類語言指令遵循的能力,在零樣本設置中泛化到未見任務上的學習方法。指令微調學習形式與多任務提示微調相似,但與提示微調讓提示適應大語言模型并且讓下游任務對齊預訓練任務不同,其是讓大語言模型對齊理解人類指令并按照指令要求完成任務,即在給定指令提示的情況下給出特定的回應,其中提示可以選擇性包含一條解釋任務的指令。指令微調研究涉及指令理解、指令數據獲取和指令(1)指令理解,指大語言模型準確理解人類語言指令的能力,是大語言模型執行指令完成任務的前提。為了增強對指令的理解,許多工作采用多任務提示方式對基于指令描述的大量任務集上對大語言模型進行微調,如FLAN[2-20]、InstructGPT[2-19]等,這些模型在(2)指令數據獲取,指如何構建包含多樣性的任務指令數據。指令數據構建常見有三種方式:i)基于公開人工標注數據構建,代表指生成構建,如UnnaturalInstructions[2-23],通過種子指令作讓大語言模型生成新的指令描述和問題,然后再輸入到模型讓其輸出回答。清華大學&面壁智能團隊推出的對話指令數據集UltraChat,通過調用多個ChatGPTAPI相互對話生成高質量的訓練數據。此外,還通過自動標注的方法構建了面向大模型對齊的大規模反饋數科技突破:邁向通用人工智能的大模型群體(3)指令對齊,大語言模型在多種自然語言處理任務上都展現了卓越的性能。然而,它們有時可能會出現不預期的行為,如創造虛大語言模型在預訓練時僅通過語言模型建模,未涉及人類的價值觀或偏好。為了解決這一問題,研究者提出了“指令對齊”,使大語言模型的輸出更符合人類的預期。但這種對齊與原始預訓練有所不同,更注重于有用性、誠實性和無害性。此外,指令對齊可能會降低大語言模型的某些通用能力,這被稱為“AlignmentTax”。為實現模型輸出與對人類價值的對齊,InstructGPT提出了一種基于人類反饋的微ChatGPT也采用了與InstructGPT相似的技術,以確保產生高質量且無害的輸出。指令對齊的廣泛應用,適配微調從純數據學習的傳統微參數高效微調(Parameter-EfficientTuning)。早代表的微調方法,是在大模型基座上增加一個任務適配層,然后進行預訓練和微調之間的任務形式不一致,這種差別會顯著影響知識遷移的效能。二是高計算成本,大語言模型的參數規模不斷增長,導致模型全參微調也需要大量計算資源。解決以上問題的有效途徑是參數高效學習,即通過僅微調少量參數實現大模型在下游任務上獲得全參微調效果。目前許多參數高效微調方法被提出,這些方法大致可分為3并僅微調該引入部分的參數。如適配器(Adapter)方法,旨將小規模的神經模塊(適配器)注入到預訓練模型中,并只調整這些適配器以進行模型自適應。在實際應用中,適配器模塊通常分別插入在多頭旨在原模型指定模型中部分參數為可訓練參數,并固定模型其他參數。這類方法簡單也十分有效,如僅通過優化模型內的偏置項并固定其他參數,模型仍然可以再現95%以上的模型全參微調性能3)重參數化方法:將原模型或部分模型參數重參數化到低維度參數空間中,僅僅優化低維空間中的近似參數,顯著降低模型的計算量和內存消耗。如LoRA[2-24],將模型自注意力模塊的變化權重參數分解為兩個低秩矩陣相乘,即W-M+AW-M+MomM參數高效微調通常具有微調參數規模小、增量式微調參數、即插即用等特點,這種技術也統一成技術框架DeltaTuning[2-3]。科技突破:邁向通用人工智能的大模型群體一些圍繞參數高效微調的開源工具也被研發,代表性包括調參數可以被重復利用,一些關于高效微調的倉庫也被構建,如高效微調吸引了越來越多的關注,以開發一種更輕量級的下游任務適通過大規模文本數據預訓練之后的大語言模型具備了作為通用任務求解器的潛在能力,但這些能力在執行一些特定任務時可能不會顯式地展示出來。在大模型輸入中設計合適的語言指令提示有助于激發這些能力,該技術稱為模型提示技術。代表性的提示技術有指令提示在GPT-3[2-6]中首次提出上下能夠達到人類水平,證明在低資源場景下非常有效,引起廣泛關注。指令提示核心思想是w避免強制大語言模型適應下游任務,而是通過提供“提示(Prompt)”來給數據嵌入額外的上下文以重新組織下游任務,使之看起來更像是在大語言模型預訓練過程中解決的問題[2-28]。指令提示有三種形式1)少樣本提示,是指在一個自然語言提示后面附加一些示例數據,作為大語言模型的輸入。其可以提高大語言模型在不同領域和任務上的適應性和穩定性。少樣本提示也存在一些挑戰,例如如何確定合適的示例數量、如何選擇示例等2)零樣本提示,是指不使用任何示例數據,只依靠一個精心設計的提示來激活大語言模型中與目標任務相關的知識和能力。零樣本提示關鍵問題包括如何設計合適的提示、如何選擇最優的提示等;(3)上下文學習(In-contextLearning,ICL也稱情境學習,是指將一個自然語言問題作為大語言模型的輸入,并將其答案作為輸出[學習可以看作是一種特殊形式的少樣本提示,在問題中隱含地包含了目標任務和格式信息。情境學習可以簡化問題表示和答案生成,并且可以靈活地處理多種類型和復雜度的問題。其挑戰在于,如何確保問科技突破:邁向通用人工智能的大模型群體及多個推論步驟,通過多步推理允許產生可驗證的輸出,可以提高黑盒模型的可解釋性。思維鏈是一種提示技術,已被廣泛用于激發大語言模型的多步推理能力,被鼓勵大語言模型生成解決問題的中間推理鏈,類似于人類使用深思熟慮的過程來執行復雜的任務。在思維鏈提示中,中間自然語言推理步驟的例子取代了少樣本提示中的〈輸入,輸出〉對,形成了〈輸入,思維鏈,輸出〉三元組結構。思維鏈被認為是大語言模型的“涌現能力”,通常只有模型參數規模增大到一定程度后,才具有采用思維鏈能力。激活大語言模型的思維鏈能力方法,在提示中給出逐步的推理演示作為推理的條件,每個演示都包含一個問題和一個通向最終答案的推理鏈(圖表2-19)。CoT在推理過程中從左到右的token級決策,一般不擅長對需要探索、策略性預見、推理存在結構關系的任務,思維樹(TreeofThought,ToT)和思維圖2.2.3.4大語言模型的安全治理如歧視言論、辱罵、違背倫理道德的內容等,這種潛在的安全風險普遍存在于文本、圖像、語音和視頻等諸多應用場景中,并會隨著模型的大規模部署帶來日益嚴重的安全隱患。目前大模型衍生出內容安全、隱私安全、政治安全、軟硬件安全等諸多安全風險問題。2023年5月,三星半導體工程師使用ChatGPT參與修復源代碼時發生無意間泄密芯片機密代碼的重大事故。大模型容易受到攻擊,人們發現對ChatGPT進行提示注入,誘導可以輸出Windows11的序列號。大模型存在嚴重的“幻覺”問題,模型在輸出中生成生成錯誤、編造虛假國際和各國紛紛出臺各種政策法規以規范化大模型發展。2023年3月,美國白宮科技政策辦公室發布《促進隱私保護數據共享和分析的國家戰略》。該策略旨在保障公共和私營部門實體中用戶的數據隱私,同時確保數據使用的公平性和最大的效率。202會(EuropeanParliament)通過《人工智能法案》草案,旨在為人工智能引入統一的監管和法律框架,并涵蓋了除軍事用途外的所有人工智能類型。2023年7月,國家互聯網信息辦公室發布的《生成式人工智能服務管理暫行辦法》,對生成式人工智能服務在算法設計、訓練數據選擇、模型生成和優化、提供服務等過程中進行安全規范。包括語料安全、模型安全、安全措施、安全評估等。科技突破:邁向通用人工智能的大模型群體包括后門攻擊、對抗攻擊、提示注入等問題;用戶層,包括隱私泄露、知識版權等問題;應用層,包括低可靠、低可信度、不可解釋等問題;社會層,包括價值對齊、虛假信息、意識形態等問題。安全數據構建。訓練數據的安全性是構建安全大模型的基石。訓練數據安全性是指數據集的來源和質量都是可靠的,數據中蘊含的知識是準確的,數據集內容符合主流價值觀。方法包括:1)確保訓練數據來自可信的、可靠的來源。數據應該從權威機構、專業組織、可驗證的數據倉庫或其他公認的數據提供者獲得。在數據標注時,確保標注的準確性和一致性。標注過程應該由經過培訓的專業人員進行,并且需要進行驗證和審核,以確保標注的正確性。此外,需要進行數在大模型中,保護數據的敏感信息是至關重要的,特別是當模型需要處理涉及個人隱私、敏感信息或商業機密等敏感數據時。數據的敏感信息去除是一種隱私保護措施,旨在確保數據在訓練過程中不會泄露通過構建有害關鍵詞庫、人工規則、安全分類模型等,對數據涉及安全風險類型數據進行過濾清洗。2023年10月,國家網信辦《生成式人工智能服務安全基本要求》(征求意見稿)中對語料及生成內容的主要安全風險進行了分類,包括包含違反社會主義核心價值觀的內容、包含歧視性內容、商業違法違規、侵犯他人合法權益、無法滿足特定模型安全對齊。為了訓練有用、誠實和無害的人工智能系統,使用人類反饋的強化學習技術(RLHF)實現大模型與人類偏好的安科技突破:邁向通用人工智能的大模型群體全對齊。讓模型的輸出與人類價值觀盡可能一致,提高其有用性、真實性和無害性。RLHF訓練過程包括指令微調、獎勵模型訓練和對齊優化三個階段。指令微調階段,也稱有監督微調,旨在優化大模型,使其能夠理解用戶的指令;獎勵模型訓練階段中,人類對模型生成的多條不同回復進行評估,這些回復兩兩組合,由人類確定哪條更優,生成的人類偏好標簽使獎勵模型能學習并擬合人類的偏好。在對齊優化階段,獎勵模型根據生成回復的質量計算獎勵,這個獎勵作為強化學習框架中的反饋,并用于更新當前策略的模型參數,從而讓模型的輸出更符合人類的期望。這一階段體現了人類價值觀和模型技術邏輯的深度交融,通過人類反饋調整模型的產出、優化模型的生成策略,使其更好地反映人類價值觀。基于人類反饋的安全對齊技術已逐漸成為當下大模型安全研究的主流技術。除了OpenAI,DeepMind的Sparrow、Anthropic的Claude模型等國外大模型,以及國內代表模型幻覺治理。大模型生成內容存在嚴重的“幻覺”問題,容易生成錯誤、虛假信息,尤其對于事實知識性問題。該問題對于相關知識學習缺乏越嚴重領域該問題越嚴重。目前降低大模型幻覺的方法主要有:1)外接知識庫,即讓大模型在回答問題時,能夠通過調用網頁搜索引擎或本地知識庫檢索,獲取缺乏的相關背景知識作為上下文,再進行回答,并且在回答內容中提供內容原始來源,提升大模型調用網頁搜索引擎獲取互聯網信息回答用戶問題,并在回答中提供鏈接;2)分多步推理并展示推理過程,即將復雜任務問題通過思維鏈技術拆解成多步執行,將中間狀態輸出展示給用戶;3)自定義工作流Workflow,比如對中間任務需要嚴格執行的過程通過預定義工提升中間內容的精準性和可控性,如COZE、靈境矩陣等智能體生產平臺;3)工具調用,對于專業技能問題如數值計算、軟件編程、數彌補大模型專業技能的缺失,代表性工作包括ChatGPTPlugins、文心一言插件功能、工具學習技術框架ToolLLM等;4)人機交互,在大模型運行期間增加大模型與人類交互,對大模型不確定性的任務獲取人類反饋后執行,代表性工作如超級智能體XAgent;5)大模型持續學習,讓大模型持續學習更多的訓練數據,提升大模型知識覆蓋度。模型對抗防御[2-56]。大語言模型在受到提示注入攻擊、模型科技突破:邁向通用人工智能的大模型群體輸入擾動、模型參數修改等方式使得模型正常服務。1)提示注入攻擊,即使用精心設計的提示誘導模型輸出違反其安全規則的答案。如在NewBing的聊天搜索引擎剛推出時,斯坦福大學學生KevinLiu成功地對其進行了提示注入攻擊,他發現聊天機器人的內部代號是冊碼。2)模型輸入擾動,如在模型輸入中拼接部分其他字符可形成對抗樣本,既可以讓ChatGPT輸出失敗。3)模型參數修改,復旦大總參數的1%。該核心區域表現出顯著的維度依賴性,即使特定維度上的單個參數的擾動也可能導致語言能力的喪失。大模型安全防御技術可分為兩大類:提示注入防御和輸出內容水印技術。1)提示注入防御技術主要包括輸入側防御和輸出側防御。輸入側防御通過提示過濾,檢測并過濾可能含風險的用戶輸入,如注入攻擊或敏感內容,以防止這些輸入與大語言模型或相關軟件交互。提示增強技術則通過構建更魯棒的提示來抵抗注入攻擊,利用大語言模型的理解能力進行“自我增強”,在提示詞中加入任務內容和用戶輸入內容的強調,提高系統提示的精確度。提示增強分為語義增強和結構增強。而輸出側防御則采用內容審核過濾方法,通過規則或模型識別,避免輸出風險內容,保障內容安全。2)輸出內容水印,包括明水印和隱水印,用于保護知識版權和防止模型輸出被惡意使用。這些水印技術在模型服務界面上標記內容來源,以提示和追蹤目的,防止內容惡意傳播。例如,馬里蘭大學提出在模型解碼階段加入水印,通過特定算法檢測文本水印以確定來源;騰訊則提出可編碼水印技術。盡管這些方法在實驗中有效,但在實際應用中的辨識率尚不能完全保模型安全評測。隨著大模型能力的不斷增長,確保其安全、可靠和符合倫理標準的運行變得至關重要。大模型的安全評估不僅為開發人員、政策制定者和其他利益相關者提供了關于模型性能和風險的深入了解,而且有助于整個社會創造了一個更加安全、透明和可信賴的型的內容安全性評測平臺[2-48]。該平臺依托于一套系統的安全評測框架,從辱罵仇恨、偏見歧視、違法犯罪等8個典型安全場景和6種指令攻擊兩個角度綜合評估大語言模型的安全性能。其中,指令攻擊模型進行了安全評估,并發現指令攻擊更有可能暴露所有模型的安全多大學及牛津大學等科研機構和高校,提出一個針對新型威脅評估通用模型的框架,將大模型安全評估分為兩類:①評估模型是否具有某科技突破:邁向通用人工智能的大模型群體些危險的能力;②判斷模型多大程度上可能使用這些能力造成傷害。該框架指出大模型的極端風險評估將成為安全人工智能研發的重要組成部分,安全評估應涵蓋特定領域的風險水平以及特定模型的潛在風險屬性。評估結果可以幫助開發者識別可能導致極端風險的考慮到越來越多的大模型被訓練應用于真實世界的交互任務,2023年衡量大模型在各種社會決策場景中的能力和道德行為。該項評估主要成,在評估中為大模型代理提供真實世界的目標,并通過專注于高層次的決策來追蹤代理的不道德行為,以評估其在現實社會環境中的規回歸架構的生成式模型框架,在此基礎研發了系列大模型GPT-1、ChatGPT,基礎模型參數20B,采用InstructGPT技術,即預訓練+科技突破:邁向通用人工智能的大模型群體編程coding、寫作等各種任務;2023年3月GPT-4,是一種支文跨模態輸入的多模態大模型,在推理方面的能力比ChatGPT更強,同時也減少了幻象的產生,能夠更準確地理解和回應復雜的問題,從大語言模型,2023年3月發布大語言模型產品Claude-1,7月更新至Claude-2。該系列模型通過預訓練、RLHF和“憲法人工智能一家AI安全和研究公司,愿景是構建可靠的、可解釋的和可操控的·文心一言:文心一言由百度公司研發,是基于百度知識增強大文心一言率先向全社會全面開放,提供APP、網頁版、API接口等多槳”深度學習框架進行訓練。文心一言還建設了插件機制,通過外部工具、服務的調用,拓展大模型的能力的邊界。公眾號、APP同時上線,國內首批上線的大模型產品。大模型對華為基礎上構建的智能對話助手,由清華系百川智能公司開發,2023年9月在網頁端、公眾號同時上線,其基礎大模型采用Transformer解碼器架構。Baichuan2-53B融合了意圖理解、信息檢索以及強化學習技術,結合有監督微調與人類意圖對齊,在知識問答、文本創作領域表以GPT-4為代表的大語言模型,展現了復雜指令遵循、思維鏈推理和認知交互能力,催生了AIAgent領域的研究和應用熱潮。AIAgent的進步不僅僅體現在技術層面,它也在重塑我們與計算機系統的互動方式,影響著社會、經濟和文化的各個方面。本節介紹AI科技突破:邁向通用人工智能的大模型群體AIAgent,或稱人工智能體,是一種能夠感知環境、進行決策、執行動作完成既定目標的智能實體。不同于傳統的人工智能,AIAgent具備通過獨立思考、調用工具或使用技能去逐步完成給定目標的能力。AIAgent和大模型的區別在于,大模型與人類之間的交互是基于提示(Prompt)實現的,用戶提示是否清晰明確會影響大模型回大語言模型作為目前AIAgent的核心,以巨大參數規模捕捉復雜語言結構,實現上下文理解和連貫文本輸出。這一“能力涌現”現象體現在大模型能進行高級認知任務,如抽象思考和創造性寫作。AIAgent不僅理解和生成語言,還整合規劃、記憶、工具使用能力,擴在人工智能領域,AIAgent可以根據其運作模式和應用范圍被劃運作,完成特定任務的智能體。這類Agent擁有獨立的決策能力,能夠基于輸入的數據或觀察到的環境自行做出響應。它們通常被設計用于特定的應用場景,例如個人助理、智能推薦系統或特定領域的問題解答。自主型Agent的核心特點是能夠在沒有外部指令或者很少人工干預的情況下,完成復雜的任務。代表性Agent為AutoGPT、2)協同型AIAgent則是指在一個系統中多個智能體協同工作,共同完成任務的情形。這類Agent的的能力可能有限,但當它們作為一個集體工作時,能夠處理更為復雜、多樣的任務。協同型Agent在處理需要多方面協作和信息共享的任務時表現尤為出色,如多Agent系統在自動化工廠、交通管理等領在實際應用中,這兩種類型的Agent都在不斷發展和完善,以適應日益復雜和多樣化的應用需求。隨著技術的進步,兩者之間的界限也在逐漸模糊,例如某些系統可能同時采用自主型和協同型Agent來AIAgent根據其人工智能水平可以大致四級,可以從感知能力、科技突破:邁向通用人工智能的大模型群體L1(部分自動感知,處理單一模態下的相對簡應用于簡單場利用大量人類監督信號獲得的一定程度的理解語言、利用語言人少量的常見標準工具的調用,簡單的工具調用邏靜態地執行特定的、預定義的任務。涉及少量的、簡單串并聯L2(有條件自多模態感知能力,能處理更廣更長尾、更復雜全面的認知能力,包含記憶能高度智能的對話能力、內容生成可使用的工具數量、類型、實現的業務邏輯的復雜度得到極大提以業務流程達到動化為目標,可以規劃和編排大量流程節點和復L3(高度自動綜合利用認知能力,環境交互結果,在少量人類干預下獲得超高通過綜合利用環境知識、人類少達到高精度的認在人類少量干預下,可以實現絕能夠主動洞察問題域和求解域的環境變化,實現業務流程的靈活適應和編排,環L4(完全自動在無人工干預下智能體自主進化獲得超高精度的主學習提升認知能自動學習工具使用的方式、實現100%的自動化調用工具的能能利用過程反難例挖掘等高度智能化的決策機制,自主提升規·L1級別:這是智能體的早期形態,通過整合傳統的視覺能力、語義理解能力、RPA流程自動化能力,完全由領域專家來實現既定業務流程的定義和編排以解決單點的、簡單明確的任務。代表性的智能體包括以UiPath為代表的傳統RPA機器人、NICE的桌面機器人這種高昂的教育成本會一定程度上限制智能體的普及。·L3級別:在這個級別上,智能體可以有效洞察問題域的環境變化,然后主動利用求解域中人類碎片化的歷史經驗、監督信號,智能化地探索、理解、學習問題解決的方法,達到“滄海拾貝”、“睹微而且可以得到更高的任務完成率、準確率。L3智能體的“高精度”、“少干預“、”快適應“的特性使其在市場需求和技術演進高度動態·L4級別:這是最高級別,智能體具備自學習和自組織的能力,該級別基本代表了通用人工智能AGI和類人智能,對應自動駕駛自動化水平的高度的完全自動化(L5)級別。目前還處于初步探索階段,具有潛力的智能體工作如OpenAI的Q*項目、大模型群體智能技術科技突破:邁向通用人工智能的大模型群體1980年代已在人工智能領域有了研究,其發展演進與人工智能技術演1)基于符號規則的智能體階段(1980年前后采用邏輯規則和符號表示來封裝知識和促進推理過程。早期符號型智能體的典型例能體其環境之間的交互,強調快速和實時響應,缺乏復雜決策和規劃能力,該階段采用統計學習模型基于數據和環境交互進行學習。該階段的典型例子如麻省理工大學的行為基礎機器人Genghis,它們通過簡單的感知和動作規則與環境交互,而不是通過復雜的模型和規劃。3)基于深度學習的智能體階段(~2000-2020年):采用深度學習模型作為智能體控制模型,通過智能體與環境交互獲得反饋優化深度學習模型實現對復雜環境適應。2014年由DeepMind推出的引發全球熱議的圍棋機器人AlphaGo,其采用強化學習方法訓練深度學習模型。與之類似的還有2017年OpenAI推出的用于玩《Dota2》AlphaStar等,這些AI都能根據對實時接收到的信息的分析來安排和規劃下一步的操作,均采用了強化學習的方法構建。當時的業界潮流是通過強化學習的方法來對AIAgent進行訓練,主戲這類具有對抗性、有明顯輸贏雙方的場景中。但如果想要在真實世界中實現通用性,基于當時的技術水平還難以實現。4)基于大模型的智能體階段(2021-2023年以及之后2021同時展現了大模型的認知交互能力。2022年底ChatGPT展現了大語言模型強大的語義理解和通用任務處理能力,讓人們看到了構建AIOpenAI推出智能體構建平臺GPTs、游戲公司SignificantGravitas,,用LLM作為智能體的大腦,通過感知、規劃、工具使用、記憶等實現復雜任務處理。AIAgent成功為群體智能構建提供了有力支撐,多個AIAgent之間可以通過協同互補,完成超越單智能體的更高階的復雜科技突破:邁向通用人工智能的大模型群體AIAgent成為目前各大科技巨頭布局的新風口。比如微軟推出界》,阿里云ModelScopeGPT、斯坦福與谷歌聯合搭建的虛擬小鎮Smallville等等,同時,OpenAI也已然奔赴至Agents,在開發者大被認為是大語言模型的下半場。微軟公司創始人比爾·蓋茨在其個人網站撰文,闡述智能體技術將在未來數年中變革計算機使用模式。從大模型“單體智能”到大模型“智能群體化”,再到千行百業。隨著基礎模型能力的不斷加強,以及在應用場景的深入探索,大模型主要基于OpenAIGPT-4實現,大模型的復雜指令遵循、規劃、思維鏈推理、長期記憶等能力是AIAgen2)Agent標準和規范缺乏:目機構和公司推出自己的大模型、Agent、工具鏈等,缺乏統一的接口確保其安全性和可靠性變得尤為重要。這包括保護系統免受外部攻擊、科技突破:邁向通用人工智能的大模型群體以及在多變環境中的穩定運行。安全管理不僅關系到技術的穩定性和4)多模態感知與交互能力不足:人類通過多模態方式感知世界,而當前的AIAgent主要依賴于文理能力還需要進一步發展。這意味著AIAgent在模擬方式方面還有很大的進步空間,尤其是在多模態數據處理和解釋上。5)社會化能力與倫理問題:目前AIAgent在社會行為、人格特征以及認知、情感和性格模擬方面還處于起步階段。隨著技術的發展,更多的倫理和社會學問題將浮現,如虛擬人與社會人的關系,以及在擬人個性化對話場景中的安全性和可信度問題。這些挑戰涉及到倫理、社會學和經濟學領域,需要跨學科的合作和研究。6)智能體部署成本高:目前AIAgent性能仍然依賴于大模型,但大模型API調用成本高昂,難以支持大規模商業化部署,需要小模7)擬人化單體智能:擬人化單體智能具備6大典型特性:構建具德/價值取向/安全等)、成長性(進化、自適應和自學習)等特性的智能體,可以適應更復雜的場景應用,具有重要市場應用前景,目在以大模型為核心的自主智能體系統中,除了大模型作為核心科技突破:邁向通用人工智能的大模型群體1)規劃(Planning):為了完成復雜任務,智能體需要將該任務分解成更小、可管理的子目標,以高效處理復雜任務。同時還需要對自身過去的行為進行批評和反思,從錯誤中學習并改進,為未來步一步步達成目標。在這一環節中,執行工具是一種十分重要的執行能3)感知(PerceptionAIAgent需要擴展自身的感知范圍,除了文字還需要理解圖像、音頻等信息。這種擴展的感知范圍幫助智):如何更好地利用歷史信息,所以需要構建起一個記憶機制對信息進行高效管理與利用。這通常包含兩個部分:短期記憶——暫時存儲和處理當前的輸入信息,幫助進行任務執行和問題求解。這種記憶形式有助于AIAgent在處理語言、理互時更加高效;長期記憶——這使得智能體具備在較長時間內保留和回溯信息的能力,通常通過外部向量存儲和快速檢索實現。5)工具使用(ToolUse):Agent學習調用外部應用程序的API,以獲取模型訓練數據權重中缺失的“額外信息”(任務相關,預訓練后通常難以更改包含當前信息、代碼執行能、專有信息源的2.3.3.1大模型工具學習大語言模型具備理解、推理和決策能力,可與外部工具互動。在特定領域任務中,如金融領域的證券交易和市場預測,大語言模型通常需要結合外部工具獲取信息和技能才能處理。整合外部工具與大語言模型可以發揮各自優勢實現復雜任務的處理,其中外部工具可增強專業知識和可解釋性,大語言模型提供語義理解和推理規劃能力。瀏覽器和搜索引擎交互獲取互聯網信息在長文本問答上實現非常強的能力,展現了大語言模型利用工具解決復雜問題的巨大潛力。該工作引起了學術界和產業界的廣泛關注,產生了許多面向不同任務或場景需求的大模型調用工具的方法,如Webshop[2-32],使用大語言模型替代人在購物平臺上執行一系列操作、購買所需物品。2023年3外部插件的功能,支持瀏覽器實時信息獲取、代碼解釋器、PDF閱讀等能力,截至8月已支持480個常用工具插件。Meta將這種通過非參數的外部模塊擴展大語言模型能力的方法,統一稱為增廣語言模型科技突破:邁向通用人工智能的大模型群體指在讓模型能夠理解和使用各種工具完成任務的學習過程。物理交互的工具(如機器人、傳感器等)、基于圖形用戶界面的工具(如瀏覽器、Office辦公軟件等)、基于編程接口的工具(如數據庫、知識圖譜)等。從學習目標的角度來看,現有工具學習方法主要可以分為兩類[2-35]:一類是工具增強學習(Tool-augmentedLearning),利用各種工具的執行結果,增強基礎模型性能。在這一范式中,工具執行結果被視為輔助生成高質量輸出的外部資源;第二類是工具導向學習(Tool-orientedLearning將學習過程重點從增強模型性能轉向工具執行本身。這一類研究關注開發能夠代替人類從目前來看,LLM工具學習已經取得了顯著的進展,相關應用處在爆發上升趨勢,已展現廣闊的應用前景。隨著大模型性能不斷提升,給工具學習帶來許多機遇和挑戰[2-35]1)工具學習的安全性。在期待LLM與工具學習結合所帶來的生活改變之前,審視其中潛在的風險尤為重要。需要防止惡意用戶誤導模型調用工具,以及提升模型使用工具的可信度等問題;(2)工具AI創造,LLM可能具有自發創造工具的潛力。一直以來,創造和使用工具被認為是人類智能的獨特特征,而LLM的出現可能顛覆這一觀念。越來越多的證據表明,具的能力不再是人類專有的領域;(3)知識沖突,引入工具后,模型需要解決來自不同來源的知識沖突問題,包括模型自身、外部知識庫等。解決不同知識庫間的知識沖突,以實現知識的有效整合,是迎接工具學習挑戰的關鍵一步;(4)多工具協同,一個復雜任務通常需要多種類型工作協同配合完成,需要讓大模型學會規劃和執行多類型工具完成復雜任務。未來,我們預期工具學習將會進一步融合更多2.3.3.2檢索增強生成種結合檢索和生成的深度學習方法,用于增強大語言模型的任務處理能力,是AIAgent的實現長期記憶的關鍵技術。RAG的核心是向量數據庫技術,這是一種存儲和檢索大量信息中,首先利用一個檢索器從一個預先構建的向量數據庫中檢索相關信息。這個數據庫通常包含大量文本數據的向量表示,這些向量是通過科技突破:邁向通用人工智能的大模型群體預訓練的語言模型生成的。檢索過程基于查詢向量和數據庫中的文檔向量之間的相似性。檢索到的信息隨后被送入生成器,生成器是基于Transformer架構的神經網絡,它綜合檢索到的信息和原始輸入來生成響應或回答。這個過程可以大大提高大語言模型的生成性能,因為它允許模型利用數據庫中的豐富信息,提供更準確和信息豐富的輸出。RAG模型的一個關鍵優勢是它能夠處理更復雜、開放式的問題,因為它可以訪問和利用比傳統模型更大量的外部知識庫數據。此外,向量數據庫的使用使得檢索過程更高效,因為相似性搜索可以迅速在海量向量數據庫通過將文檔數據轉化為向量存儲,解決大模型海量知識的存儲、檢索、匹配問題。向量是AI理解世界的通用數據形式。向音視頻等非結構化數據通過預訓練的神經網絡抽象、轉換為高維語義向量,由此實現了知識的結構化管理,從而實現快速、高效的數據存儲和檢索過程,賦予了AIAgent“長期記憶”。同時,將高維空間中的多模態數據映射到低維空間的向量,也能大幅降低存儲和計算的成本:向量數據庫的存儲成本比直接將數據訓練到神經網絡的參數中的成本要低2到4個數量級。代表性的向量數據庫包括Pinecone、Weaviate、Milvus、Qdrant、Chroma、Elasticsearch、Embedding技術和向量相似度計算是向量數據庫的核心。Embedding技術是一種將圖像、音視頻等非結構化數據轉化為計算機能夠識別的語言的方法。在通過Embedding技術將非結構化數據科技突破:邁向通用人工智能的大模型群體例如文本數據轉化為向量后,就可以通過數學方法來計算兩個向量之間的相似度,即可實現對文本的比較。向量數據庫強大的檢索功能就是基于向量相似度計算而達成的,通過相似性檢索特性,針對相似的問題找出近似匹配的結果。相似性向量檢索采用最大內積搜索(MaximunInnerProductSearch,MIPS)。通過使用外部存儲器可以緩解關注范圍有限的限制。一種標準的做法是將信息的嵌入表示法保存到向量數據庫中,該數據庫能夠支持快速的最大內積搜索。為了優化檢索速度,常見的選擇是近似相鄰(ApproximateNearest精度來換取速度的巨大提升。幾種常見的快速最大內積搜索算法如局部敏感的哈希算法(LSH)、層次導航最小世界算法(Hierarchical2.3.3.3長序列流式輸入處理具鏈,接受持續環境輸入。但是大語言模型由于輸入長度限制難以直接處理長序列輸入,通常僅支持幾千token的序列長度,如LLaMA2最大支持4096tokens、GLM-130B最大支持2048toke支持長序列流式輸入的大語言模型技術被提出,代表性技術有三大類,分別是位置編碼拓展、全局注意力有損改進、新型注意力機制設計:第一類是基于位置編碼拓展的方法,將通常使用的旋轉位置編碼(RoPE)經過直接放縮或頻域放縮的方法,使模型的最大處理長度變長數倍,這種方法在工程上有較廣泛的應用,能夠支持十萬左右的輸入序列長度,但是其核心沒有突破全局自注意力機制的平方復雜度,需要消耗巨大的顯存,并且仍然有最大處理長度的限制,無法處理超第二類方法是對Transformer的全局自注意力機制進行有損的改進。包括使用滑動窗口,限制每個token只能看到自己鄰近的位置的token,以此避免模型處理超過訓練階段的相對位置編碼,通過犧牲效果彌補模型生成的穩定性。后續工作進一步通過設計特殊的注意力遮蔽矩陣,避免在使用上述滑動窗口過程中模型注意力塌陷的問題。這類方法雖然表面上支持模型接受流式輸入,但是對于滑動窗口外的內容,模型將完全遺忘,無法支持模型形成長期記憶能力。第三類方法則是通過拋棄Transformer的全局自注意力機制,設計新的信息處理機制來處理長程流式輸入。最早的工作可以追溯到LinearTransformer設計的線性復雜度注意力機制,隨后出現了RWKV、RetNet等模型,這些模型都具有亞平方復雜度注意力機制。此類模型都會在隱狀態中形成可以總結歷史所有信息的內在狀態(InternalState使模型的長期2.3.3.4智能體自適應和自學習科技突破:邁向通用人工智能的大模型群體智能體能夠根據環境和任務的動態變化不斷提升智能水平,適應不同復雜場景的需求,是實現類人智能的重要標志。相關方法可以分為·無參數優化自進化方法。一種是構建本地技能庫(Skill庫和迭代prompt機制三個新型組件構成。自動課程用于提出開放式的探索目標,該課程是由GPT-4根據“盡可能多發現不同的東西”的技能庫用于開發越來越復雜的行為,通過存儲有助于成功解決某個任務的行

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論