人工智能大模型市場分析_第1頁
人工智能大模型市場分析_第2頁
人工智能大模型市場分析_第3頁
人工智能大模型市場分析_第4頁
人工智能大模型市場分析_第5頁
已閱讀5頁,還剩34頁未讀 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

人工智能大模型市場分析AI趨勢明確,大模型為關鍵環(huán)節(jié)全球AI產業(yè)發(fā)展趨勢明確,波動中前行。自1956年約翰·麥卡錫首次提出“人工智能”的概念以來,全球人工智能產業(yè)逐漸進入學術研究和產業(yè)實操并進的階段。盡管在算力性能、數據量、硬件成本等多重因素影響下,人工智能產業(yè)經歷了“三起兩落”的螺旋式發(fā)展,但全球人工智能發(fā)展的趨勢仍然明確,通用人工智能(AGI)仍然是人工智能行業(yè)發(fā)展的主線。ChatGPT加速推進AI產業(yè)發(fā)展,需求爆發(fā)倒逼供給創(chuàng)新。ChatGPT在全球范圍內快速傳播,在短時間內完成了對企業(yè)和用戶的市場教育,需求端的爆發(fā)驅動著供給端加速創(chuàng)新,加快推動全球AI產業(yè)發(fā)展進程。IDC預測,2026年全球AI市場規(guī)模有望達3082.8億美元,2023-2026年CAGR約26.7%。而AI作為下一代全球科技競速的重要領域,我國從頂層設計到科技企業(yè)均積極參與,有望進一步帶動國內AI產業(yè)發(fā)展。IDC預測,2026年,我國AI市場規(guī)模有望達264.4億美元,2023-2026年CAGR約21.5%。政策重點支持,人工智能有望維持高景氣。人工智能作為展現大國國際競爭力的重要領域,我國在頂層設計方面始終重視對人工智能產業(yè)發(fā)展的鼓勵和引導,在關鍵技術投入、人才培養(yǎng)、人工智能賦能實體經濟、基本倫理要求等方面均推出相關政策。政策積極支持下,我國人工智能行業(yè)有望維持高景氣。9月1日,網信辦發(fā)布第二批境內深度合成服務算法備案信息,百度文心大模型、抖音云雀大模型、京東言犀大模型、騰訊混元助手大模型等110款深度合成服務算法通過備案。隨著國產大模型陸續(xù)向公眾開放服務,有望加速產品落地進程及模型迭代飛輪,并驅動AI的商業(yè)化變現。產業(yè)結構:大模型是重要一環(huán),AI時代的入口之爭。從AI產業(yè)結構來看,大模型是連接底層算力和上層應用的重要一環(huán),成熟的大模型能力和生態(tài)是真正實現通用人工智能和未來應用端繁榮的基礎,擁有更強計算和推理能力、更高通用性的大模型企業(yè)有望把握AI時代的流量入口和話語權。競爭態(tài)勢:格局明晰尚需時間,看好互聯網巨頭領先優(yōu)勢發(fā)展階段:國內大模型百家爭鳴,格局明晰尚需時間全球:中美領先發(fā)展,但行業(yè)格局或將相對獨立。從全球范圍來看,中美在大模型領域引領全球發(fā)展。其中,基于在算法模型研發(fā)上的領先優(yōu)勢,美國大模型數量居全球首位,根據中國科學技術信息研究所、科技部新一代人工智能發(fā)展研究中心聯合發(fā)布的《中國人工智能大模型地圖研究報告》,截至2023年5月,美國已發(fā)布100個參數規(guī)模10億以上的大模型。中國亦積極跟進全球大模型發(fā)展趨勢,自2021年以來加速產出,如2021年6月北京智源人工智能研究院發(fā)布1.75萬億參數量的悟道2.0、2021年11月阿里M6大模型參數量達10萬億等。截至2023年5月,我國已發(fā)布79個大模型,在全球范圍占據先發(fā)優(yōu)勢。但考慮到數據安全、隱私合規(guī)以及科技監(jiān)管等因素,我們認為中美的大模型市場有望形成相對獨立的行業(yè)格局。海外:OpenAI及谷歌雙龍頭+Meta開源追趕+垂類特色廠商的格局已較為清晰。從海外大模型格局來看,目前已經形成較為清晰的雙龍頭領先+Meta開源追趕+垂類繁榮的格局。同時,基于通用大模型能力已相對成熟可用,其上的應用生態(tài)已逐漸繁榮。得益于對先進算法模型的集成以及較早的產品化,OpenAI不僅展現了GPT在人機對話中的超預期表現,同時基于GPT的應用生態(tài)也已逐漸繁榮,微軟數款產品(Bing、Windows操作系統(tǒng)、Office、瀏覽器、PowerPlatform等)、代碼托管平臺GitHub、AI營銷創(chuàng)意公司Jasper等均已接入GPT。谷歌在人工智能領域持續(xù)投入,其提出的IeNet卷積神經網絡模型、Transformer語言架構、BERT大語言模型等均對全球人工智能產業(yè)產生重要推動。但由于公司團隊變動及更謹慎的產品化落地的態(tài)度,谷歌前期尚未大規(guī)模推出面向C端的AI產品。在ChatGPT快速流行的帶動下,谷歌亦推出聊天機器人Bard及PaLM2,并將接入谷歌的協作與生產力工具Workspace以及與Spotify、沃爾瑪、UberEats等外部應用融合。Meta通過開源方式快速追趕,7月發(fā)布最新開源大模型LLaMA2,使用2萬億tokens訓練,上下文長度翻倍,實現了更強大的表現能力和更廣泛的應用場景。此外,Anthropic、Cohere、HuggingFace等基于各自的垂類特色和定制化服務也在海外AI市場中扮演著重要角色。國內:大模型投入如火如荼,格局明晰仍需時間。ChatGPT獲得良好用戶反響并在全球范圍引發(fā)關注以來,中國頭部科技企業(yè)(阿里、百度、騰訊、華為、字節(jié)等)、新興創(chuàng)業(yè)公司(百川智能、MiniMax等)、傳統(tǒng)AI企業(yè)(科大訊飛、商湯科技等)以及高校研究院(復旦大學、中科院等)亦加速大模型領域投入。當前國內大模型仍處研發(fā)和迭代的早期階段,各個大模型的性能差異及易用性仍在市場檢驗的過程當中,我們預計國內大模型領域競爭格局的明晰仍需一定時間。競爭要素:技術投入、核心人才和應用場景構成核心壁壘技術投入、核心人才和應用場景構成核心壁壘。我們認為,大模型是一個重資源稟賦、高進入門檻的賽道,其對算法模型的有效性、高質量的數據、算力的支撐能力均有極高要求,模型的優(yōu)化迭代亦有賴于資金和人才的持續(xù)投入。此外,大模型的實際落地和行業(yè)應用能力也是市場檢驗的重要標準。模型架構:理論創(chuàng)新與工程實踐有效分離,加速AI技術創(chuàng)新效率。2017年transformer模型的出現,以及引入的自注意力機制,推動AI在語言類問題(NLP等)上取得快速進展的同時,亦先后擴展至圖像生成、音視頻生成、計算機視覺等領域,并逐步成為眾多AI算法的底層基礎。各類算法輸入數據規(guī)模、模型參數的指數級增長,以及模型scale帶來更優(yōu)的計算精度、問題泛化求解能力等,推動大模型快速普及,據PercyLiang、RishiBommasani、李飛飛等人在2021年論文《OntheOpportunitiesandRiskofFoundationModels》中提及,具有“表達能力、可擴展性、多模態(tài)性、記憶容量和組合性”特征的大模型將成為學術研究的核心方向,并成為AI產業(yè)的底層基礎模型(foundationmodel)。ChatGPT的成功表明,算法架構+工程實踐的有效結合,經過fine-tuning之后的基礎模型部署于各類應用場景,將能顯著改善AI技術研發(fā)效率、產業(yè)化門檻。我們判斷,基礎模型理論創(chuàng)新將逐步回歸至科研機構、科技巨頭等,而眾多算法企業(yè)的差異化能力將進一步向工程實踐領域遷移,并成為下游應用場景廠商緊密的合作伙伴。大模型訓練對算力及資金均提出極高要求。我們對ChatGPT單次訓練成本進行測算,假定預訓練單次,且訓練過程中沒有出現錯誤時的成本。實際情形中,考慮到訓練過程中出現工程類錯誤的可能性,實際成本會高于我們計算的理想情況成本。假設參數量為175B、訓練數據500BTokens的情況下,根據《ScalingLawsforNeuralLanguageModels》(JaredKaplan,SamMcCandlish,TomHenighan等)的分析,在使用256個英偉達HGXA100服務器(包含2048個A100GPU卡)的情況下,模型FLOPsUtilization(MFU)假設為Megatron-LM的51.04%,我們推測單次訓練時長約為30.7天,對應約151萬GPU小時。假設訓練使用成本價約為1美元/GPU小時的情況下,耗費服務器端成本約為151萬美元。數據:高質量的數據,能夠為模型自身的學習、迭代,以及對推理能力的訓練帶來正向影響。按照當前LLM的技術范式,數據集主要應用于預訓練和模型調優(yōu)階段。預訓練階段需要大規(guī)模、多類別、高質量的訓練數據,在模型調優(yōu)階段,垂類小數據集、提示詞工程同樣重要。近年來全球數據量呈現爆發(fā)式增長,據IDC統(tǒng)計,2019年全球產生的數據量為41ZB,過去十年的CAGR接近50%,IDC預計到2025年全球數據量或高達175ZB,2019-2025年仍將維持近30%的復合增速,其中超過80%的數據都將是處理難度較大的文本、圖像、音視頻等非結構化數據。從Bert開始到GPT-3再到谷歌的PALM,網絡中的公開語言數據源已經在被盡可能地利用(論壇、新聞、維基百科等),但模型優(yōu)化仍需更多數據,這要求模型開發(fā)商有能力接觸到優(yōu)質私有數據來源,從而才能在模型的數據底層取得差異性優(yōu)勢。場景:應用落地時檢驗模型能力的重要標準。一方面,通用大模型與行業(yè)場景結合,在帶來生產力和效率的實質性提升后才能真正實現普及。另一方面,大模型結合行業(yè)應用落地后,更多的真實用戶反饋也有望加速大模型的優(yōu)化迭代,從而不斷強化模型能力。格局推演:有望形成互聯網巨頭主導+垂類廠商共存的格局歷史積累:互聯網巨頭具備先發(fā)優(yōu)勢,芯片層、模型層、應用層布局完備。互聯網巨頭在AI領域投入已久,百度2014年即成立人工智能實驗室,阿里、騰訊、字節(jié)跳動也于2016年成立人工智能實驗室,此后各家在芯片層、模型層及應用層持續(xù)探索,不斷完善布局,在研發(fā)、模型、數據、應用等方面已積累顯著的先發(fā)優(yōu)勢。算法模型:追隨海外技術進展,研發(fā)突破是競爭關鍵。從技術路線來看,國內大模型主要追隨海外進展。基于谷歌在人工智能領域更高的影響力以及BERT開源代碼,前期我國企業(yè)在大模型領域的探索更多參考BERT路線。隨著ChatGPT在人機對話領域的超預期表現驗證了高質量數據+反饋激勵(大模型預訓練+小數據微調)的有效性,國內大模型技術路線也逐漸向GPT方向收斂。我們認為,盡管模型架構設計的不同對特定任務上的表現有一定影響,但國內大模型廠商在技術上基本同源,從而導致了現階段較為相似的模型能力,而下一階段對于GPT方向的研發(fā)突破將是競爭關鍵。算力:互聯網廠商在算力資源上具備優(yōu)勢。隨著模型參數和復雜度的提升,大模型對算力的需求也在加速增長。當前國內已發(fā)布的大模型中,參數規(guī)模達到千億及以上的廠商僅為10個左右,一定程度上體現出各廠商之間算力能力的差異。我們認為,互聯網廠商在算力資源上具備相對優(yōu)勢,主要原因系:1)互聯網企業(yè)業(yè)務布局多元,用戶基數龐大,海量數據高頻更新,使得互聯網企業(yè)自身對算力有大量需求,阿里、字節(jié)、百度、騰訊等頭部互聯網企業(yè)是全球芯片及服務器領域的重要客戶。2)阿里云、百度云、騰訊云等為國內頭部云廠商,在云計算中心、AI算力平臺、超算中心等新型高性能計算基礎設施上布局領先,如阿里云推出PAI靈駿智算服務,提供覆蓋AI開發(fā)全流程的平臺和分布式異構計算優(yōu)化能力;騰訊云發(fā)布新一代HCC(High-PerformanceComputingCluster)高性能計算集群,算力性能較前代提升高達3倍。數據:優(yōu)質開源中文數據集稀缺,自有數據及處理能力構成模型訓練壁壘。得益于開源共創(chuàng)的互聯網生態(tài),海外已有大量優(yōu)質、結構化的開源數據庫,文本來源既包含嚴謹的學術寫作、百科知識,也包含文學作品、新聞媒體、社交網站、流行內容等,更加豐富的語料數據能夠提高模型在不同情景下的對話能力。而受制于搭建數據集較高的成本以及尚未成熟的開源生態(tài),國內開源數據集在數據規(guī)模和語料質量上相比海外仍有較大差距,數據來源較為單一,且更新頻率較低,從而導致模型的訓練效果受限。因此,大模型廠商的自有數據和處理能力構成模型訓練效果差異化的核心。受益于移動互聯網時代積累的海量用戶、應用和數據,互聯網企業(yè)在自有數據上更具特色化和獨占性,疊加更強大的數據處理能力,從而能夠通過數據優(yōu)勢帶來模型訓練成果的差異。例如,阿里在研發(fā)M6時,構建了最大的中文多模態(tài)預訓練數據集M6-Corpus,包含超過1.9TB圖像和292GB文本,涵蓋百科全書、網頁爬蟲、問答、論壇、產品說明等數據來源,并設計了完善的清潔程序以確保數據質量。百度ERNIE模型的訓練數據集中也運用了大量百度百科、百度搜索以及百度知識圖譜等生態(tài)內數據,通過更高質量的數據保障了模型的訓練效果。資源投入:互聯網廠商重研發(fā)投入,資金及人才實力領先。大模型的訓練需要較高且可持續(xù)的研發(fā)投入,頭部互聯網企業(yè)兼具高資本密度和高人才密度優(yōu)勢。資金方面,2022年,騰訊/阿里/百度研發(fā)費用達614/567/233億元,明顯領先于行業(yè)相關公司。人才方面,根據脈脈人才庫,在計算機視覺、深度學習、語音識別、自然語言處理4個人工智能重要的技術方向上,互聯網大廠是人才儲備最豐富的企業(yè)。持續(xù)的高研發(fā)投入以及極高的人才密度有望驅動頭部互聯網企業(yè)保持在AI及大模型領域的領先優(yōu)勢。場景:業(yè)務豐富多元,互聯網廠商天然具備落地實踐場景。考慮到數據隱私和安全合規(guī),初期通用大模型在行業(yè)落地時可能會面臨一定的信任問題,從而導致較高的獲客成本。而頭部互聯網平臺基于自身在電商、搜索、游戲、金融等領域豐富的業(yè)務積累,天然具備落地實踐場景。在提高產品效率的同時,也有望率先形成示范效應,從而有助于外部客戶和應用的拓展。格局推演:互聯網巨頭有望保持領先地位,中小廠商或將面臨路徑選擇。綜合上述分析,結合行業(yè)競爭要素,并參考海外當前競爭格局,我們認為,國內大模型賽道有望形成與海外相似的產業(yè)趨勢,兼具技術、資金、人才和場景優(yōu)勢的頭部互聯網企業(yè)有望成為大模型領域的重要玩家,而中小廠商或將面臨路徑選擇。一方面,中小廠商可以利用自身在垂類場景和數據層面積累的優(yōu)勢,成為聚焦垂類的核心特色玩家;另一方面,基于訓練和用戶調用帶來的算力需求的激增,考慮到資源優(yōu)勢和經濟性,中小廠商或將尋求云廠商的支持和合作。互聯網大模型對比:短看技術突破,長看生態(tài)壁壘歷史積累:百度、阿里技術積累深厚,大模型已實現良好性能本章節(jié),我們對國內頭部互聯網企業(yè)在AI領域的發(fā)展現狀、自研布局以及對外投資進行了梳理。從時間線上看,國內頭部互聯網企業(yè)阿里、百度、騰訊、字節(jié)均在2014-2016年間成立人工智能實驗室,但此后在發(fā)展思路和框架布局上各有側重。我們認為,阿里、百度更偏重對底層技術的投入,兼具先發(fā)優(yōu)勢和完備自研布局,目前推出的大模型產品已實現良好的中文對話能力。騰訊在AI領域亦積極跟進,并于2022年12月公布萬億中文NLP預訓練模型混元的最新進展;同時,騰訊在大模型領域也保持了開放的投資風格,與企業(yè)共同成長。字節(jié)此前在AI領域的投入更多與自身業(yè)務相關,如音視頻識別、內容創(chuàng)作、AR/VR等,算法能力突出,但在大模型領域的積累則相對薄弱,推出火山方舟,通過MaaS的方式積極參與行業(yè)競爭。阿里巴巴:AI自研投入已久,數據、算法及算力積累上已占據領先身位。作為國內頭部科技企業(yè),阿里在人工智能等前沿科技方向上早有投入,2014年即成立了數據科學與技術研究院,2016年成立人工智能實驗室,2017年成立達摩院,后續(xù)成立AI芯片自研團隊作為算力支持,并陸續(xù)發(fā)布了中文社區(qū)最大規(guī)模預訓練語言模型PLUG和多模態(tài)大模型M6。同時,阿里在電商、智慧城市等業(yè)務中積極運用深度學習等智能化技術,通過技術進步提升業(yè)務效率。我們認為,基于在數據、算法和算力上的沉淀,阿里在國內人工智能和大模型競速中已占據領先身位。對外投資:廣泛布局,打造AI生態(tài)圈實現共贏。除自研投入外,阿里也在AI核心產業(yè)環(huán)節(jié)積極進行對外投資,在芯片領域投資寒武紀、深鑒科技等,機器視覺和深度學習領域投資商湯科技、曠視科技等,應用領域投資小鵬、小i機器人等。通過AI領域的廣泛布局,阿里巴巴有望與相關企業(yè)形成協同效應和戰(zhàn)略合作,進一步實現效率提升和業(yè)務拓展,通過打造AI生態(tài)圈的方式實現共贏。技術架構:IaaS+PaaS+MaaS重新定義AI架構。面向新的AI時代,阿里云重新定義了IaaS+PaaS+MaaS的三層技術體系。IaaS層,阿里云專門為AI設計了云基礎設施,包括異構計算、高效高速的網絡存儲等。同時,在訓練方面提供靈駿計算集群,在推理方面提供彈性計算ECS集群,通過更加穩(wěn)定高效的基礎設施為AI發(fā)展提供堅實的基礎。PaaS層,阿里云基于長期的技術和軟件能力積累提供了豐富的大數據及機器學習產品,從數據清洗、特征工程訓練等方面助力模型訓練。此外,阿里云于2022年11月推出魔搭社區(qū),提出MaaS(modelasaservice),通過打造大模型開源社區(qū)和生態(tài)共建的方式加速模型發(fā)展及迭代。百度:深耕十年,全棧自研構筑核心壁壘。基于自身業(yè)務需求和濃厚的工程師文化,百度始終重視對AI的投入,2011年在硅谷開設辦公室,并在2017年提出“AllinAI”的公司戰(zhàn)略。從AI技術體系來看,百度是國內少數在AI領域全棧自研布局的公司之一,在芯片層、框架層、模型層和應用層均有自研投入,已形成一定的產業(yè)生態(tài)和影響力。對外投資:長期投入,加速布局大模型領域。百度長期關注人工智能賽道,堅持布局前沿科技領域,在芯片、大模型、AI+制藥、應用等領域均有投資。2023年以來,隨著ChatGPT引發(fā)新一輪AI產業(yè)熱潮,百度亦加速在AIGC及多模態(tài)大模型領域的布局,先后投資text-to-video生成技術與社區(qū)的初創(chuàng)企業(yè)MorphStudio、人工智能公司西湖心辰及多模態(tài)大模型公司生數科技,有望進一步完善公司的AI生態(tài)布局并加快協同發(fā)展。芯片+框架+模型+應用全棧自研布局,強化內部反饋迭代。百度在AI領域全棧自研布局,芯片層,百度已有兩代自研昆侖芯實現量產,預計第三代昆侖芯將于2024年初實現規(guī)模上市;框架層,百度飛槳經過6年開發(fā)并逐漸成熟后,成為中國首個開源開放、功能完備的端到端深度學習平臺,截至2022年11月,百度飛槳已有535萬開發(fā)者,服務了20萬家企事業(yè)單位,創(chuàng)建了67萬個模型;模型層,百度最早于2019年推出文心大模型并不斷迭代,并于2021年發(fā)布百億級大模型文心ERNIE3.0和千億級大模型文心ERNIE3.0Titan;應用層,百度推出生成式AI對話產品文心一言以及面向企業(yè)客戶的文心千帆大模型平臺,積極通過實踐場景驗證大模型能力。我們認為,百度全棧自研布局的優(yōu)勢在于各層之間的反饋有望進一步驅動技術能力的優(yōu)化,提升迭代效率。騰訊:重視AI發(fā)展,內生+外延雙輪并驅。騰訊2016年成立AILab,并在2017年提出“makeAIeverywhere”的戰(zhàn)略愿景,2018年建立以人工智能與前沿科技為基礎的兩大實驗室矩陣。根據騰訊RoboticsX實驗室微信公眾號,截至2022年底,騰訊AILab已累計在AAAI、CVPR、ACL、ICML、NeurIPS等國際頂級AI學術會議或期刊發(fā)表超780篇文章,并持續(xù)推動AI與機器人、數字內容生成、生命科學、醫(yī)療醫(yī)藥、游戲等行業(yè)應用的結合。對外投資方面,根據IT桔子,截至2022年底,騰訊共投資53家國內AI公司,多次投資AI算力芯片公司燧原科技、企業(yè)級認知智能服務平臺明略科技等,并在2023年投資深言科技、MiniMax、光年之外等大模型企業(yè)。在大模型領域,騰訊仍然保持以投資見長的風格,有望與企業(yè)共享成長果實。騰訊:從MaaS切入大模型賽道,算力支持及應用工具完備。6月19日,騰訊云首次正式公布行業(yè)大模型研發(fā)進展,并發(fā)布面向B端客戶的騰訊云MaaS服務解決方案。有別于阿里、百度等直接發(fā)布大模型產品,騰訊率先以MaaS的方式切入大模型賽道,在金融、文旅、政務、傳媒、教育等10大行業(yè)提供超50個解決方案,以更懂行業(yè)、更易落地的方式滿足企業(yè)需求。同時,騰訊TI平臺提供數據標注、訓練、測試、評估、部署等全套工具,技術底座提供HCC高性能計算集群、向量數據庫等算力支撐,以保障行業(yè)大模型的運行效果。字節(jié)跳動:2023年成立大模型團隊,搜索、智創(chuàng)兩部門牽頭。字節(jié)跳動于2016年成立人工智能實驗室,將其定位為公司內部的研究所和技術服務商,為平臺輸出的海量內容提供AI技術支持。此前公司AI研究成果主要與業(yè)務相結合,研發(fā)重點集中在機器翻譯、智能語音、視頻圖像和多模態(tài)等領域,而大模型相關積累相對薄弱。根據36氪,字節(jié)跳動語言大模型團隊在今年組建,由搜索部門牽頭;圖片大模型團隊則由產品研發(fā)與工程架構部下屬的智能創(chuàng)作團隊牽頭。字節(jié)跳動:從MaaS切入,應用先行豐富行業(yè)經驗。6月28日,火山引擎發(fā)布大模型服務平臺火山方舟,面向企業(yè)提供模型精調、評測、推理等全方位平臺服務,已接入百川智能、復旦大學MOSS、瀾舟科技、MiniMax、智譜AI等多家AI科技公司及科研院所的大模型,并已對外啟動邀測。我們認為,由于前期在大模型領域的積累相對薄弱,通過MaaS的方式切入大模型賽道是更具可行性的方式。一方面,通過MaaS模式為需求方提供豐富多元、靈活選擇、具有性價比的大模型使用方式;另一方面,行業(yè)應用的落地和行業(yè)經驗的積累也有望反哺字節(jié)自身在大模型領域的積累和迭代。核心人才:關注人才密度與粘性,兼顧基礎研發(fā)與業(yè)務落地在人才方面,我們認為,互聯網大廠的差異化競爭主要體現在兩方面:1)人才密度和人才質量;2)人才粘性,而保障人才粘性的關鍵在于組織架構與激勵機制的設置。由于人工智能的研發(fā)工作具有一定的前瞻研究和學術影響力的屬性,而在互聯網行業(yè)整體提質增效背景下,對于研發(fā)產出和業(yè)務落地也有一定需求,因此如何平衡基礎研究和業(yè)務落地之間的關系、通過合理的組織體系保障人才粘性是互聯網大廠在架構設置的關鍵。阿里巴巴:達摩院堅持前沿探索,高密度AI人才引領發(fā)展。組織架構上,阿里在人工智能領域的研究主要由達摩院主導。達摩院于2017年成立,致力于探索科技未知,以人類愿景為驅動力,開展基礎科學和創(chuàng)新性技術研究。達摩院主要覆蓋機器智能、數據計算、機器人、金融科技、X實驗室(量子計算)5大領域,其中機器智能布局最為突出,下轄語音實驗室、視覺實驗室、語言技術實驗室、決策智能實驗室、城市大腦實驗室5大實驗室。人員構成上,阿里大模型研發(fā)由阿里云智能CTO周靖人帶隊,其在大數據平臺及人工智能領域經驗豐富,并在M6系列模型研發(fā)中發(fā)揮了重要作用。黃非和趙德麗分別擔任語言技術實驗室和基礎視覺實驗室負責人,分別領導NLP和CV領域的研究,黃非曾在自然語言處理和人工智能頂級會議和期刊發(fā)表文章40多篇,獲得美國專利10多項,并在IBM和Facebook從事自然語言處理的研發(fā)和技術管理等職位;趙德麗曾在微軟亞洲研究院的視覺計算組和香港中文大學的多媒體實驗室工作六年,從事機器視覺和機器學習的算法研究工作。此外,阿里達摩院團隊廣納賢才,原貝殼技術副總裁兼首席科學家葉杰平、前京東數科AI實驗室首席科學家薄列峰等相繼于2022年加入阿里,有望進一步推動阿里在大模型及AI領域的探索。百度:技術攻堅與產品承接并重,CTO王海峰統(tǒng)領AI研發(fā)。根據36氪,百度目前文心一言團隊主要由TPG(技術中臺事業(yè)群)和MEG(移動生態(tài)事業(yè)群)兩大部門協同,前者負責技術攻堅,后者進行搜索、內容產品承接。團隊人員上,百度CTO王海峰自2018年底開始統(tǒng)領TG和AIG,總體負責百度人工智能技術和算法、算力、數據、安全等基礎技術的研發(fā),并擔任文心一言項目總指揮。騰訊:多團隊并行,基礎研究與業(yè)務應用并重。騰訊內部多個團隊均從事人工智能相關研發(fā)工作,其中,AILab和RoboticsX實驗室作為雙基礎研究部門,均隸屬于技術工程事業(yè)部。AILab專注計算機視覺、語音識別、自然語言處理和機器學習等方向的基礎研究,和內容、社交、游戲等方向的應用探索,截至2022年底,已有100多位頂尖研究科學家及300多位應用工程師。同時,云與智慧產業(yè)事業(yè)群設立騰訊優(yōu)圖實驗室,專注于圖像技術的深入研究及應用探索;微信事業(yè)部內部孵化微信AI團隊。2023年2月,針對類ChatGPT對話式產品,騰訊成立混元助手項目組,騰訊首席科學家張正友擔任項目owner,俞棟、王迪、劉田分別擔任PM,并已有至少7位組長和7位Sponsor。字節(jié)跳動:年初快速集結團隊,多部門協作開發(fā)。根據36氪,字節(jié)跳動語言大模型團隊在今年組建,由搜索部門牽頭;圖片大模型團隊則由產品研發(fā)與工程架構部下屬的智能創(chuàng)作團隊牽頭。朱文佳是字節(jié)大模型的第一負責人,其在算法和搜索業(yè)務上經驗深厚。此外,Data-AML負責人項亮、人工智能實驗室總監(jiān)李航、前阿里M6核心技術人員楊紅霞等也均為團隊重要成員。技術投入:百度、阿里暫居第一梯隊,騰訊、字節(jié)加速追趕,關注迭代效率本章節(jié),我們從技術角度對國內頭部互聯網大模型進行對比研究。前期基于相似的算法路線、架構設計和訓練語料,互聯網大模型尚未展現出顯著的能力差異。根據IDC,阿里的通義千問和百度的文心一言在算法模型、通用能力、創(chuàng)新能力等方面取得相近評分。展望后續(xù),我們認為,互聯網大模型在技術上的競爭要點在于:1)對GPT關鍵技術的研發(fā)突破;2)相似性能下的成本和效率優(yōu)勢;3)大規(guī)模、高質量訓練預料的搭建。算法模型:此前各家大模型架構及路線主要參考BERT、LLaMA等開源模型,技術路線基本同源,但在模型設計和訓練方式上各有側重,如阿里更強調多模態(tài)任務能力及效率,百度聚焦在NLP能力上的提升,騰訊兼顧模型規(guī)模增長與效率提升。隨著ChatGPT驗證了GPT路線及高質量數據+反饋激勵的有效性,正驅動著大模型的技術路線向GPT方向收斂。我們認為,后續(xù)互聯網大廠在算法模型上差異化競爭的核心在于:1)對GPT關鍵技術的研發(fā)突破;2)若在模型研發(fā)上較難取得突破,則通過模型設計和訓練方法的優(yōu)化實現相似性能下更優(yōu)的成本和效率的廠商有望具備更大的競爭優(yōu)勢。算力:隨著大模型參數和數據量的飆升帶來對算力需求的快速增長,互聯網大廠均加速在AI算力平臺、超算中心等新型計算基礎設施上的建設。基于互聯網大廠充足的算力儲備及在新型計算基礎設施上的積極建設,我們認為短期算力或將不會成為限制互聯網大模型發(fā)展的瓶頸,中長期具備芯片自研能力的公司有望具備更強的競爭優(yōu)勢。數據:高質量數據源及數據處理能力是差異化競爭的核心。阿里在訓練M6、百度在訓練ERNIE3.0時,均自行搭建了TB級別的大規(guī)模數據庫,數據來源中包含了大量生態(tài)內獨有數據,并設計了完善的清潔程序以確保數據質量,有效提升了模型的訓練效果和中文語境的對話表現。算法模型:底層路線逐漸向GPT方向收斂,模型設計和訓練方式各有側重阿里巴巴:統(tǒng)一學習范式+模塊化設計,通義打造多模態(tài)統(tǒng)一底座。達摩院認為一個全能模型應當具備三重屬性:①任務無關(Task-Agnostic):不針對具體下游任務,而是更具通用性的模型。②模態(tài)無關(Modality-Agnostic):對所有任務建立統(tǒng)一的輸入和輸出形式,從而實現不同模態(tài)的處理能力。③任務足夠豐富(TaskComprehensiveness):需要設計足夠豐富的任務種類,以確保模型的穩(wěn)健性。為了打造多模態(tài)全任務的通用性大模型,達摩院通過統(tǒng)一學習范式和模塊化設計的方式,使M6-OFA可處理超30種跨模態(tài)任務,同時能夠靈活調用模塊從而實現高效率和高性能。M6-OFA實現架構、模態(tài)和任務統(tǒng)一。①架構統(tǒng)一:M6-OFA使用統(tǒng)一的TransformerEncoder-Decoder+ResNetBlocks的架構進行預訓練和微調,從而不需要針對不同任務設計特定的模型層。②模態(tài)統(tǒng)一:M6-OFA將NLP、CV和多模態(tài)任務統(tǒng)一到同一個框架和訓練范式,從而可以完成對不同任務的輸出。③任務統(tǒng)一:M6-OFA將涉及多模態(tài)和單模態(tài)的所有任務都統(tǒng)一建模成序列到序列(seq2seq)任務,模型可以同時學習多任務,從而讓模型通過一次預訓練即可獲得文本生成、圖像生成、跨模態(tài)理解等多種能力。借鑒人腦運行機制,模塊化設計提升多模態(tài)任務能力及效率。模塊化設計借鑒人腦的運行機制,即人類大腦中擁有儲備各種知識和處理不同模態(tài)信息的能力模塊,人類思考時只調用與特定任務相關的模塊,從而保證了人腦的高速運行。模塊化大模型采用模塊化TransformerEncoder-Decoder結構來統(tǒng)一多模態(tài)的理解和生成,同時切分出不同的獨立模塊,包括基礎層、通用層(如不同模態(tài))、任務層到功能性模塊(如推理),每個模塊間相互解耦,各司其職,從而通過靈活拆撥不同模塊進行微調或者預訓練實現大模型的輕量化和任務水平的提升。通義-M6:模型快速迭代,2年投入推出全球最大預訓練模型。達摩院于2020年1月正式啟動中文多模態(tài)預訓練模型M6項目,此后模型快速迭代升級,2021年3月/5月模型參數規(guī)模達千億/萬億。2021年11月模型參數規(guī)模達10萬億,成為全球最大預訓練模型,通過阿里云PAI自研Whale框架上搭建MoE模型,疊加更細粒度的CPUoffload技術實現僅利用512張GPU即完成10萬億規(guī)模參數的訓練;同時,M6團隊設計了Pseudo-to-Real(共享解除)機制,大幅提升訓練速度。2022年9月,達摩院發(fā)布通義大模型系列,打造業(yè)界首個AI統(tǒng)一底座,并宣布相關核心模型向全球開發(fā)者開源開放。通義-AliceMind:深度語言模型體系持續(xù)豐富,NLP(自然語言處理)能力突出。歷經三年研發(fā),目前深度語言模型體系AliceMind已包含通用語言模型StructBERT、多語言VECO、生成式PALM、多模態(tài)StructVBERT、結構化StructuralLM、知識驅動LatticeBERT、機器閱讀理解UED、超大模型PLUG等。AliceMind先后登頂GLUE、CLUE、XTREME、VQAChallenge、DocVQA、MSMARCO等自然語言處理領域權威榜單,在多語言、生成式、多模態(tài)、結構化、知識驅動等領域能力突出。通義-視覺大模型:專注CV(計算機視覺)領域的應用落地。通義視覺大模型基于文本到視覺生成和特征到視覺生成兩個基礎模型,通過視頻處理、視覺問答、視覺算術、知識抽取等中層通用算法的支持,實現在電商、城市大腦、工業(yè)視覺等領域的產業(yè)應用。例如,通義-視覺大模型可以在電商行業(yè)實現圖像搜索和萬物識別等場景應用,并在文生圖以及交通和自動駕駛領域發(fā)揮作用。模型生態(tài):MaaS先行者,魔搭社區(qū)快速迭代。阿里云于2022年11月提出MaaS,并推出開源社區(qū)魔搭,一方面,通過提供以模型為核心要素的一站式使用平臺,降低AI使用門檻;另一方面,通過開源方式吸引更多開發(fā)者共創(chuàng)共建,加速模型開發(fā)迭代。魔搭社區(qū)經過數月時間快速發(fā)展,根據阿里巴巴財報,截至2023年7月,魔搭社區(qū)模型總數已超1000個,累計模型下載量超4500萬次。同時,通義大模型系列中語言大模型AliceMind-PLUG、多模態(tài)理解與生成統(tǒng)一模型AliceMind-mPLUG、多模態(tài)統(tǒng)一底座模型M6-OFA和超大模型落地關鍵技術S4框架等核心模型及能力也已在魔搭社區(qū)中面向全球開發(fā)者開源。我們認為,魔搭作為國內MaaS的先行者,開源社區(qū)帶來的更快的迭代速度和更豐富的應用反饋有望使得魔搭在中長期模型生態(tài)建設中占得先機。百度:ERNIE系列模型不斷迭代,持續(xù)突破NLP任務表現ERNIE1.0:加入短語和實體掩碼策略,強化模型知識推理能力。基于BERT模型,ERNIE1.0主要在掩碼策略上進行了改進。有別于BERT采用基礎mask類型,ERNIE1.0新增了短語mask和實體mask類型,從而使得模型表現出更強的語法學習和知識推理能力。在五類自然語言處理任務(自然語言推理、語義相似性、命名實體識別、情感分析和檢索問答)上,ERNIE表現優(yōu)于基準模型BERT。同時,語料庫方面,預訓練除使用中文維基百科外,還使用了大量百度百科、百度新聞和百度貼吧的數據,更豐富的訓練數據提升了模型對中文語意的理解能力。此外,ERNIE在DLM(對話語言模型)任務上對查詢-響應對話結構進行建模,通過多回合對話幫助ERNIE學習對話中的隱式關系,從而增強了模型學習的語義表示能力。ERNIE2.0:改進多任務學習方式,實現多個NLP下游任務SOTA表現。多任務學習通常有同時學習和順序學習兩種方式,同時學習模式無法確保任務的不斷增加能夠帶來模型效果的持續(xù)提升,而順序學習模式下隨著不同任務的學習、模型參數的遞進,可能會使得模型陷入遺忘。ERNIE2.0采用了交替式的多任務學習方式,當出現新任務時,使用先前學習的參數來初始化模型,并同時訓練新引入的任務和原始任務,從而有效緩解了遺忘現象并提高了模型訓練的有效性。在多任務學習方式的優(yōu)化下,ERNIE2.0在多個NLP下游任務上取得了中英文SOTA(stateofthearts)表現。ERNIE3.0:引入大規(guī)模知識圖譜,提升模型的知識記憶和推理能力。由于已有大模型使用純文本進行訓練,而沒有引入知識,且傳統(tǒng)的自回歸微調方式在解決下游語言理解任務時表現出相對較弱的性能。因此,ERNIE3.0提出了用于大規(guī)模知識增強模型預訓練的統(tǒng)一框架,通過引入4TB語料和10B參數的大規(guī)模知識圖譜,在大規(guī)模無監(jiān)督語料庫上對模型進行預訓練。同時,ERNIE3.0采用了單詞感知、結構感知和知識感知等多種預訓練任務,從而使得模型能夠更有效地學習不同層次的知識。上述改進下,ERNIE3.0在情感分析、觀點抽取、閱讀理解、文本摘要、對話生成、數字運算等54個中文NLP任務中實現SOTA表現。ERNIE3.0Titan:強化可控及可信,實現中文預訓練最強表現。ERNIE3.0Titan在保留了ERNIE3.0海量無監(jiān)督文本與大規(guī)模知識圖譜的平行預訓練算法的基礎上,進一步設計了可控和可信學習算法,通過自監(jiān)督的對抗損失和可控的語言建模損失,達到不同類型的零樣本生成能力并顯著提升了生成結果的可信度,并實現文本分類、信息抽取、閱讀理解等68個NLP任務的SOTA表現。多模態(tài)大模型布局完善,文心系列模型滿足多元需求。百度除了在NLP領域持續(xù)升級ERNIE系列模型外,在視覺、跨模態(tài)和生物計算領域也積極布局。視覺領域,基于領先的視覺技術,利用海量圖像、視頻等數據,提供視覺基礎模型以及視覺任務定制與應用能力;跨模態(tài)領域,基于知識增強的跨模態(tài)語義理解關鍵技術,實現跨模態(tài)檢索、圖文生成、圖片文檔的信息抽取等應用的快速搭建;生物計算領域,將生物領域研究對象的特性融入模型,構建面向化合物分子、蛋白分子的生物計算領域預訓練模型。基于多模態(tài)大模型的完善布局,使得文心系列模型能夠滿足各行業(yè)在不同領域的多元需求。騰訊:關注效率提升,混元成為國內首個低成本、可落地的NLP萬億大模型。混元AI大模型集CV、NLP和多模態(tài)理解能力于一體,2022年4月首次對外發(fā)布研發(fā)進展,在MSR-VTT、MSVD等五大權威數據集榜單中登頂。2022年12月,混元在熱啟動和課程學習、MoE路由算法、模型結構、訓練加速等方面研究優(yōu)化,大幅降低了萬億大模型的訓練成本,成為國內首個低成本、可落地的NLP萬億大模型,并再次登頂自然語言理解任務榜單CLUE。熱啟動和課程學習:混元首先在小規(guī)模模型上訓練收斂,然后將小模型的知識遷移到大模型,逐步增加模型的規(guī)模,從而使得當模型規(guī)模指數型增長時,只需要較少的迭代即可達到較好的水平。MoE路由算法:有別于Dense模型在訓練過程中激活所有FFN和SA層的參數,從而導致較高的訓練成本,MoE通過引入路由,只激活部分FFN的參數參與計算,從而能夠實現訓練成本的節(jié)約。同時,在規(guī)模相同的情況下,使用MoE的大模型能夠具有更高的訓練和推理效率。注意力權重復制:混元研究團隊發(fā)現注意力權重在不同層之間的差異不大,因此改進了注意力權重設置方式。在每一層隨機有p的概率重新計算注意力權重,1-p的概率復用上一層的注意力權重。通過實驗發(fā)現,當p設置為50%,模型效果無損,注意力權重總的時間復雜度降低50%,大模型預訓練提速約20%。詞向量路由機制:引入額外的詞向量用于專家的路由,把路由和注意力層輸出解耦,相同詞的路由向量相同,在保證路由穩(wěn)定性的同時加速了收斂。算力:積極布局新型高性能計算基礎設施,保障算力支撐阿里巴巴:PAI×靈駿智算支持10萬億參數大模型研發(fā)。基于靈駿智算,阿里云推出了PAI×靈駿智算服務,提供覆蓋AI開發(fā)全流程的平臺和分布式異構計算優(yōu)化能力,能夠支撐10萬億參數規(guī)模的大型模型訓練,單個訓練任務可達到萬卡級別規(guī)模,訓練性能提高近10倍,千卡規(guī)模的線性擴展效率達92%,能夠深度支持通用大型模型的研發(fā)。百度:百度百舸構建AI原生的智能計算基礎設施,同等配置下實現性能領先。2022年9月,百度云升級發(fā)布百度百舸2.0,在AI計算、AI存儲、AI容器等模塊上進行了能力增強和功能豐富,并全新發(fā)布AI加速套件。①AI計算:發(fā)布了彈性RDMA網卡,其和VPC網絡進行了融合,使得用戶的使用成本更低,且通信延時相比傳統(tǒng)TCP網絡降低了2-3倍。②AI存儲:發(fā)布并行文件存儲PFS的裸金屬版本,支持IB網絡,可將計算對數據的訪問延遲降低至百us級別。同時,對象存儲BOS新增了原生層級namespace,可以將元數據訪問速度提升4倍以上。③AI容器:在業(yè)界率先推出雙引擎GPU容器虛擬化方案,可以滿足各類場景的要求,提升GPU資源利用率。④AI加速套件:通過存訓推一體化的方式,對數據的讀取和查詢、訓練、推理進行加速,進一步提升AI作業(yè)速度。在MLPerfTrainningv2.0的榜單中,百度百舸2.0和百度飛槳聯合提交的BERTLarge模型GPU訓練性能結果在同等GPU配置下排名第一,比其他結果快5%-11%。騰訊:最新HCC高性能計算集群算力提升3倍,4天完成萬億大模型訓練。2023年4月,騰訊云推出全新HCC高性能計算集群,采用最新一代騰訊云星星海自研服務器,搭載了NVIDIAH800TensorCoreGPU,可提供業(yè)界目前最高的3.2T超高互聯帶寬。相較1.6T網絡,集群整體算力提升20%,將萬億參數的混元NLP大模型的訓練時間縮短至4天,大幅提升了大模型的訓練效率。字節(jié)跳動:自研DPU等系列云產品,提高大模型訓練效率。4月18日,火山引擎發(fā)布自研DPU等系列云產品,并推出智能推薦-高速訓練引擎,采取軟硬一體、細粒度算子優(yōu)化以及分布式訓練和推理,以實現更快的訓練速度和更低的訓練成本。根據火山引擎微信公眾號:軟硬一體化:針對關鍵場景的超大模型,火山引擎智能推薦-高速訓練引擎提供全GPU方案,可以支持100GB-10TB的超大模型的高速訓練,綜合ROI是CPU的5倍;覆蓋更多場景的模型,提供了GPU+CPU混訓方案,綜合ROI是CPU的2倍。細粒度算子優(yōu)化:針對搜索、推薦和營銷場景,優(yōu)化細粒度算子,使得在模型推理的過程中有更好的性能表現。在訓練時,通過算子融合并精細調優(yōu),性能提升20%;在推理時,通過算子優(yōu)化,性能提升40%。分布式訓練和推理:智能推薦-高速訓練引擎為了保障系統(tǒng)的穩(wěn)定性,支持訓練和推理的全方位容錯,當某一個節(jié)點故障時,可以快速恢復;支持分布式推理,包括多分片、多副本,從而保證線上服務的高可用。抖音、今日頭條等基于火山引擎高速訓練引擎的業(yè)務,模型訓練時間的速度相較以往快10倍-25倍,綜合成本降低25%-67%。數據:高質量數據源及數據處理能力是差異化競爭核心。由于優(yōu)質中文開源數據庫較少、數據規(guī)模較小,因此高質量數據源及數據處理能力是競爭差異化的核心。阿里在訓練M6、百度在ERNIE3.0時,均自行搭建了TB級別的大規(guī)模數據庫,數據來源中包含了大量生態(tài)內獨有數據,并設計了完善的清潔程序以確保數據質量,有效提升了模型的訓練效果和中文語境的對話表現。資金:互聯網大廠均重視研發(fā)投入,百度10年投入AI超千億元。互聯網大廠均具備穩(wěn)健的現金流并重視研發(fā)投入,在資金實力上不存在顯著差異,但在行業(yè)整體降本增效趨勢下,或將更加注重研發(fā)的投入效率及產出。2022年,騰訊/阿里/百度研發(fā)費用分別為614/567/233億元,研發(fā)費用率分別為11.1%/6.5%/18.9%,并多次強調在人工智能領域的研發(fā)投入。根據阿里財報,FY2022,阿里巴巴技術投入超過1200億元人民幣;近三年,阿里巴巴專利投入中超60%集中于云計算、人工智能、芯片等硬核科技領域。根據李彥宏在2022年世界人工智能大會上的發(fā)言,百度在人工智能領域10年間累計投入超過1000億元,其中核心研發(fā)投入在核心收入占比連續(xù)多個季度超過20%。同時,百度也持續(xù)在免費算力開放、AI人才培養(yǎng)等方面提供資金和資源。應用場景:內部核心業(yè)務率先落地,積極探索行業(yè)場景自身核心業(yè)務及B端率先應用,關注實際落地進展。從場景上看,各公司均率先將大模型能力用于自身核心業(yè)務,在提升業(yè)務效率的同時,也打造了行業(yè)應用的標桿案例。外部應用上,由于大模型提質增效的能力天然契合B端需求,因此目前B端落地進展相對較快。我們認為,AI在數字化程度較高或人力密集型行業(yè)有望形成更大的應用空間。根據IDC數據,我國專業(yè)服務、政府、制造業(yè)、銀行、通信有望成為AI應用市場規(guī)模最大的行業(yè),2026年市場規(guī)模有望達77.4/36.9/28.0/20.6/18.5億美元。行業(yè)覆蓋上,各公司展現出較強的自身業(yè)務屬性及此前產業(yè)互聯網領域的資源積累。參考各公司在云計算市場的客戶構成,我們認為隨著行業(yè)應用-數據-模型的不斷迭代反饋,各公司在大模型領域也有望形成特定行業(yè)賽道的相對優(yōu)勢。C端,盡管目前尚未有爆款應用的出現,但參考移動互聯網時代應用類公司實現了更高的市值增長,我們認為未來AI對C端應用的顛覆式創(chuàng)新也有望帶來產業(yè)價值的爆發(fā)。阿里巴巴:產品全系接入,有望率先形成示范效應。AI帶來生產效率的顯著提升,目前在文字歸納與生成、創(chuàng)意性內容生成、代碼開發(fā)等領域已得到廣泛應用。同時,大模型結合行業(yè)應用落地后,更多的真實用戶反饋也有望加速大模型的優(yōu)化迭代,從而強化良性循環(huán)。根據2023阿里云峰會,阿里所有產品未來都將接入大模型全面升級,在提高產品效率的同時,也有望率先形成示范效應,從而有助于外部客戶和應用的拓展。辦公:釘釘全面接入通義千問,實現生產智能化。4月,釘釘總裁葉軍在2023春季釘峰會宣布,釘釘全面接入阿里巴巴通義千問大模型。用戶在使用釘釘時,可以通過斜杠“/”調用通義大模型能力,實現對群聊工作討論、推文創(chuàng)建、視頻會議、活動策劃、資料管理等場景協作效率的大幅提升。我們認為,辦公場景中較多的文本工作及內容創(chuàng)意天然適合通過AI的方式進行生產力改造。辦公:通義聽悟全新上線,全面提升音視頻向圖文轉化效率。6月1日,阿里云發(fā)布聚焦音視頻的AI新品通義聽悟,成為國內首個開放公測的大模型應用產品。通義聽悟接入了通義千問大模型的理解與摘要能力,幫助用戶在工作學習中完成對音視頻內容的轉寫、檢索、摘要和整理。同時,通義聽悟也可嵌入各類音視頻平臺,形成實時字幕、智能摘要等,如釘釘的“釘閃記”便集成了通義聽悟,未來通義聽悟也有望接入夸克APP、阿里云盤等端口提供服務。電商:用戶端優(yōu)化購物體驗,商家端提升經營效率。由于電商鏈路中存在大量人機交互、內容生成等場景,因此適合與AI結合實現早期應用落地。阿里電商業(yè)務與AI能力結合后,用戶端,將通過智能推薦、輔助決策等方式優(yōu)化消費者購物體驗,降低決策成本;商家端,既能通過AI輔助創(chuàng)意生成降低營銷成本,也能通過智能客服等方式降低運營成本,同時AI帶來更精準的用戶洞察也有望提升商家的經營產出,從而打開未來潛在的貨幣化空間;平臺端,消費者及商家更好的使用體驗及經營成果有望提升用戶及商家對平臺的心智和粘性,從而進一步保障平臺的市場份額。智能終端:通義千問賦能天貓精靈,有望成為一站式家庭生活服務入口。2023阿里云峰會展示了通義千問在智能居家方面帶來的體驗提升,接入通義千問的天貓精靈Demo版本也展現了其理解用戶需求成功下單外賣以及語言能力和推理能力的增強。我們認為,未來天貓精靈在通義千問賦能下,并接入淘寶、天貓、餓了么、飛豬等應用后,有望優(yōu)化交互體驗,成為一站式家庭生活服務入口。通義千問積極與企業(yè)展開合作,共創(chuàng)企業(yè)專屬大模型滿足個性化需求。除阿里系內部應用將全面接入大模型外,通義千問也將與各行業(yè)合作生成行業(yè)專屬和企業(yè)專屬大模型,滿足企業(yè)個性化需求并提升業(yè)務效率。目前,阿里云已和多家企業(yè)在大模型相關場景展開技術合作探索和共創(chuàng),首批合作企業(yè)包括OPPO安迪斯智能云、太平洋保險、吉利汽車、奇瑞新能源、波司登等。根據2023阿里云峰會,阿里發(fā)布通義千問兩周后,超20萬家企業(yè)申請接入。百度:內部廣泛應用,有望重塑主業(yè)搜索體驗。目前,文心大模型已大規(guī)模應用于搜索、信息流、小度智能屏、百度地圖等百度內部的各類產品,顯著提升了產品智能化體驗。尤其對于百度的搜索主業(yè)來講,傳統(tǒng)搜索模式下存在信息冗余繁雜、用戶篩選成本較高等痛點,結合AI能力后,百度搜索以對話方式生成回答,并列示資料來源,有望大幅優(yōu)化用戶搜索體驗,從而進一步帶來用戶規(guī)模及使用頻率的提升。行業(yè)應用:深入實體經濟,行業(yè)生態(tài)不斷豐富。在通用文心大模型的基礎之上,結合行業(yè)數據和知識圖譜,文心已累計發(fā)布電力、燃氣、金融、航天、傳媒、城市、影視、制造、社科等領域的11個行業(yè)大模型,不斷通過大模型賦能千行百業(yè)的數字化和智能化進程。文心一言發(fā)布首日,即與5家企業(yè)完成首批簽約,與650家企業(yè)啟動簽約,超6.5萬企業(yè)申請調用,產業(yè)化進程領先。文心一格:AI輔助藝術和創(chuàng)意生成,有望釋放AIGC生產力。文心一格是百度基于文心大模型技術推出的AI藝術和創(chuàng)意輔助平臺,可以根據用戶輸入的文本描述,自動生成畫作,同時可以根據用戶需求進行編輯和二次創(chuàng)作。截至2023年5月底,文心一格官網的注冊用戶數已超600萬,參與文心一格測試的生態(tài)伙伴超過900家。隨著文心一格模型能力的不斷優(yōu)化和迭代,有望大幅提升游戲原畫、廣告營銷素材、工業(yè)設計及建筑設計等領域的生產效率,在實現內容創(chuàng)作能力突破的同時,也能促進公司的降本增效。騰訊:多核心業(yè)務落地,行業(yè)大模型推動生態(tài)共建游戲:降低制作成本,豐富玩家體驗。AI技術在游戲全鏈路中均可充分運用,一方面,AI可以輔助游戲制作、運用及周邊生態(tài)開發(fā),降低游戲創(chuàng)造門檻和成本,同時提升游戲品質;另一方面,AI也能拓展更加多元的游戲品類,如圍棋、麻將等棋牌類,足球等體育類,以及多人在線戰(zhàn)術競技(MOBA)、第一人稱射擊(FPS)等復雜策略類游戲,不斷豐富玩家體驗。廣告:提升理解和運算能力,兼顧起量、成本和穩(wěn)定性。混元AI大模型幫助騰訊廣告系統(tǒng)實現升級,在廣告內容理解、廣告智能創(chuàng)作、廣告智能審核和廣告指紋系統(tǒng)4個方面分別打造解決方案,大幅提升了系統(tǒng)在廣告內容理解、行業(yè)特征挖掘、文案創(chuàng)意生成等方面的能力,在助力廣告主達成起量、成本和穩(wěn)定性三大效果指標、實現生意增字節(jié)跳動:8月發(fā)布大模型對話產品“豆包”,加速研發(fā)進展。8月,字節(jié)發(fā)布大模型對話類產品豆包、超愛聊天的小寧、英語學習助手、英文寫作潤色、全能寫作助手,已具備基本的問答對話、智能創(chuàng)作等能力。根據SuperCLUE測評,目前豆包在不同維度的能力上差異較大,在邏輯推理及計算方面具有較強表現,而在代碼、上下文對話等方面仍存在一定短

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論