




版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
執(zhí)?摘要開(kāi)源基礎(chǔ)模型已成為創(chuàng)新的重要驅(qū)動(dòng)?之?根據(jù)斯坦福?學(xué)《2024年AI指數(shù)報(bào)告》1,2023年全球總共發(fā)布了149個(gè)基礎(chǔ)模型,?2022年發(fā)布的數(shù)量翻了?倍還多,?且更??例是開(kāi)源的。在這些新發(fā)布的模型中,有%是開(kāi)源的,相?之下,2022年只有44.4%,2021年只有33.3%的模型是開(kāi)源的。根據(jù)全球開(kāi)源社區(qū)HuggingFace的調(diào)研2,Llama1和Llama2現(xiàn)在已經(jīng)衍?出了3萬(wàn)個(gè)新模型。多位專家預(yù)計(jì),即將推出的Llama3M00B將會(huì)是“?個(gè)GPT-M級(jí)別的開(kāi)源模型”。如何治理開(kāi)源AI已成為短期內(nèi)重要的未解決議題之?的政策和實(shí)踐。在制定相關(guān)政策時(shí),各國(guó)需要綜合考開(kāi)源AI也成為多項(xiàng)政策探索的核?。盡管這些政策旨在平衡技前沿AI開(kāi)源的主要爭(zhēng)論領(lǐng)先的基礎(chǔ)模型研發(fā)機(jī)構(gòu)近年決定開(kāi)源其模型或限制對(duì)其模型的訪問(wèn),引發(fā)了關(guān)于是否以及如何開(kāi)放能??益增強(qiáng)的基礎(chǔ)模型的爭(zhēng)論。AI開(kāi)源成為潛在不安AI開(kāi)源是“確保對(duì)技術(shù)信任的唯?途徑”,強(qiáng)調(diào)開(kāi)放性對(duì)于促進(jìn)創(chuàng)新此外,從企業(yè)視?看,有關(guān)開(kāi)源和閉源的討論和實(shí)踐或多或少地帶有商業(yè)利益的考量。1StanfordHAI,“2024AIIndexReport”,2024-04-15,/report/.2ClemDelangue,“Llama3iso?ciallythemodelfromreleaseto#1trendingonHugging-injusta,,/.超越簡(jiǎn)單化的“開(kāi)放與封閉”爭(zhēng)論雖然開(kāi)放基礎(chǔ)模型帶來(lái)了發(fā)展與安全之間的緊張關(guān)系不可能完全消除,但我們提倡可以超越簡(jiǎn)單化的?維視?,探索更豐富的發(fā)布政策設(shè)計(jì)空間。將AI模型簡(jiǎn)單地劃分為開(kāi)源或閉源是?種過(guò)于簡(jiǎn)化的做法。開(kāi)源AI的概念尚未得到清晰定義,與開(kāi)源軟件不同,AI模型的“源代碼”可能包括多種組件,這些組件的開(kāi)放程度可以各AI研發(fā)機(jī)構(gòu)治理評(píng)測(cè)指出,傾向于開(kāi)放模型的機(jī)構(gòu)和傾向于封閉模型的機(jī)構(gòu)各有所?。本報(bào)告的討論范圍設(shè)定參考了斯坦福?學(xué)基礎(chǔ)模型研究中?的“開(kāi)放基礎(chǔ)模型”概念圖3推動(dòng)基礎(chǔ)模型負(fù)責(zé)任開(kāi)源的務(wù)實(shí)?案AI不同程度開(kāi)源可能引?更?的潛在?險(xiǎn)。因此,我們建議推動(dòng)負(fù)責(zé)任開(kāi)源,這包括兩個(gè)層?:建議根據(jù)基礎(chǔ)模型的?命周期和AI模型,負(fù)責(zé)任主要體現(xiàn)在提?透明度、確保合規(guī)和促進(jìn)創(chuàng)新。?對(duì)于能?更強(qiáng)的前沿模型,需要實(shí)施與模型的潛在?險(xiǎn)相稱的評(píng)測(cè)和安全緩解措施。3RishiBommasanietal.,“ConsiderationsforGoverningOpenFoundationModels”,2023-12-13,/issue-brief-considerations-governing-open-foundation-models.建議開(kāi)發(fā)者應(yīng)考慮開(kāi)源的替代?雖然嚴(yán)格意義上我們討論的是“負(fù)責(zé)任發(fā)布”,但我們希望通過(guò)突出“負(fù)責(zé)任開(kāi)源”的概念,推動(dòng)開(kāi)源AI安全治理的討論,并促進(jìn)負(fù)責(zé)任開(kāi)源實(shí)踐的發(fā)展。?向四類(lèi)?標(biāo)群體和國(guó)際合作分別提出建議本報(bào)告是為中國(guó)的基礎(chǔ)模型研發(fā)機(jī)構(gòu)、AI開(kāi)源社區(qū)、AI治理/政策/?法專家、AI投資?和我們倡導(dǎo)在全球范圍內(nèi)AI技術(shù)和治理能?,推動(dòng)形成具有?泛共識(shí)的??險(xiǎn)模型治理框架和標(biāo)準(zhǔn)規(guī)范。術(shù)語(yǔ)定義本報(bào)告聚焦?基礎(chǔ)模型的負(fù)責(zé)任開(kāi)源。?規(guī)模機(jī)器學(xué)習(xí)模型相關(guān)術(shù)語(yǔ),主要參考斯坦福?學(xué)、智源研究院:模型開(kāi)源和開(kāi)放相關(guān)術(shù)語(yǔ),主要參考斯坦福?學(xué)、?津?學(xué)研究機(jī)構(gòu):開(kāi)源AI):概念尚未得到清晰定義,不同機(jī)構(gòu)都?它來(lái)表?不同程度的“公開(kāi)可?”;開(kāi)放源代碼促進(jìn)會(huì)(OSI)等機(jī)構(gòu)正致?于明確定義開(kāi)源AI。FoundationModels):基礎(chǔ)模型在發(fā)布時(shí),其權(quán)重是?泛可?的;不嚴(yán)格區(qū)分時(shí),也會(huì)稱為“開(kāi)源基礎(chǔ)模型”“開(kāi)放模型”“開(kāi)源模型”。封閉基礎(chǔ)模型(ClosedFoundationModels):基礎(chǔ)模型在發(fā)布時(shí),其權(quán)重不是?泛可?,可能受?定限制或完全封閉;不嚴(yán)格區(qū)分時(shí),也會(huì)稱為“閉源基礎(chǔ)模型”“封閉模型”“閉源模型”“受限模型”。負(fù)責(zé)任開(kāi)源(Responsible開(kāi)源項(xiàng)?的維護(hù)者和貢獻(xiàn)者在開(kāi)源過(guò)程中遵循?定的道德和法律標(biāo)準(zhǔn),確保技術(shù)的構(gòu)建和發(fā)布對(duì)社會(huì)和個(gè)?是安全和有益的,這可能包括安全性、透明度、可訪問(wèn)性、包容性、合規(guī)性、社區(qū)治理和?態(tài)和創(chuàng)新影響等??。模型能?相關(guān)術(shù)語(yǔ),主要參考全球AI安全峰會(huì)、前沿模型論壇:AI):?能?的通?AI模型,能執(zhí)??泛的任務(wù),并達(dá)到或超過(guò)當(dāng)今??智能?險(xiǎn)相關(guān)術(shù)語(yǔ),主要參考?津?學(xué)研究機(jī)構(gòu):Risk):?種可能發(fā)?的事件或過(guò)程,若發(fā)?將導(dǎo)致全球約10%或更多??喪?,或造成類(lèi)似損害。致謝本報(bào)告的主要貢獻(xiàn)者:)、謝旻希、程遠(yuǎn)、段雅?北京?學(xué)??智能研究院:楊耀東感謝安遠(yuǎn)AI伙伴潘漢?、張玲、王婧?對(duì)內(nèi)容的貢獻(xiàn)。?錄?車(chē)?金 ITOC\o"1-2"\h\z\u各國(guó)積極發(fā)布基礎(chǔ)模型相關(guān)政策,開(kāi)源部分取向不同 1歐盟《AI法案》創(chuàng)全球?部全?AI監(jiān)管法,設(shè)獨(dú)特開(kāi)源豁免規(guī)定 1美國(guó)?宮《AI?政命令》關(guān)注?泛可?的模型權(quán)重所帶來(lái)的挑戰(zhàn) 3英國(guó)政策?件謹(jǐn)慎對(duì)待開(kāi)放與封閉之爭(zhēng),防范監(jiān)管捕獲 6法國(guó)將開(kāi)源AI作為其“創(chuàng)新優(yōu)先”發(fā)展AI的核?戰(zhàn)略之? 7中國(guó)??智能法的兩份專家建議稿對(duì)開(kāi)源問(wèn)題做不同處理 9其他全球南?國(guó)家?勵(lì)A(yù)I?險(xiǎn)與收益研究,以開(kāi)放科學(xué)應(yīng)對(duì)全球發(fā)展 111.7?結(jié) 12審慎開(kāi)放vs?勵(lì)開(kāi)放,前沿AI開(kāi)源的主要爭(zhēng)論 13爭(zhēng)論主要在于前沿AI的濫?和失控?險(xiǎn) 13?場(chǎng)?:審慎開(kāi)放,防范?險(xiǎn)的開(kāi)放?檻須標(biāo)準(zhǔn)更? 15?場(chǎng)?:?勵(lì)開(kāi)放,邊際?險(xiǎn)的嚴(yán)謹(jǐn)證據(jù)仍相當(dāng)有限 19兩種?場(chǎng)的異同點(diǎn) 24爭(zhēng)論之外的?場(chǎng)三:是否開(kāi)源主要取決于商業(yè)考量 252.6?結(jié) 26開(kāi)源vs閉源,是錯(cuò)誤的?分法 27不同于開(kāi)源軟件,開(kāi)源AI的概念尚未得到清晰定義 27從“完全開(kāi)放”到“完全封閉”之間存在多種模型發(fā)布選項(xiàng) 29基礎(chǔ)模型安全性評(píng)測(cè):開(kāi)放vs封閉模型均顯?出對(duì)各種攻擊的脆弱性 33AI研發(fā)機(jī)構(gòu)治理評(píng)測(cè):傾向于開(kāi)放vs封閉模型的機(jī)構(gòu)各有所? 38負(fù)責(zé)任開(kāi)源之?:促進(jìn)開(kāi)放發(fā)布從構(gòu)建到使?的全流程負(fù)責(zé)任實(shí)踐 43負(fù)責(zé)任開(kāi)源之?:在封閉發(fā)布中探索實(shí)現(xiàn)開(kāi)源等效收益的替代?案 493.7?結(jié) 59對(duì)推動(dòng)基礎(chǔ)模型負(fù)責(zé)任開(kāi)源的建議 60基礎(chǔ)模型研發(fā)機(jī)構(gòu) 60AI開(kāi)源社區(qū) 61AI治理、政策和?法專家 62AI投資?和資助? 63負(fù)責(zé)任開(kāi)源的國(guó)際合作 63各國(guó)積極發(fā)布基礎(chǔ)模型相關(guān)政策,開(kāi)源部分取向不同我認(rèn)為,如何監(jiān)管開(kāi)源??智能,是短期內(nèi)最重要的未解決問(wèn)題。?加?·?庫(kù)斯(GaryMarkus)4AI相關(guān)政策時(shí),通常需要綜合考慮促進(jìn)創(chuàng)新?態(tài)、技術(shù)安全與可控性、隱AI的治理政策框架。AI的治理上,雖然都希望能平衡發(fā)展與安全,但整體監(jiān)管取向和具體條款設(shè)計(jì)有所不同。歐盟《AI法案》創(chuàng)全球?部全?AI監(jiān)管法,設(shè)獨(dú)特開(kāi)源豁免規(guī)定AI技術(shù)的監(jiān)管上?在了世界前列。接下來(lái)《AI法案》還需得到歐盟理事會(huì)的正式批準(zhǔn),但最艱難的?法階段已經(jīng)過(guò)去,距離最終出臺(tái)僅?步之遙。法案?2021年以來(lái)?直在制定中。?那時(shí)起,該技術(shù)已經(jīng)發(fā)?了快速?顯著的發(fā)展,該提案也經(jīng)歷了多次修訂以跟上步伐。的出現(xiàn)引發(fā)了控制基礎(chǔ)模型的?輪修訂。談判在2023年2?底達(dá)到?熱化程度。法國(guó)、德國(guó)和意?利為了保護(hù)本國(guó)的開(kāi)發(fā)者,試圖削弱對(duì)基礎(chǔ)模型的限制6。最后敲定的協(xié)議條款對(duì)被認(rèn)為具有特別危險(xiǎn)性的AI的使?做出了限制,但減輕了中?型公司和模型開(kāi)源、開(kāi)發(fā)的負(fù)擔(dān)。4DavidHarris,“Open-SourceAIIsUniquelyDangerous”,2024-01-12,/open-source-ai-2GGG932122.5EuropeanParliamentArti?cialIntelligenceAct2024-04-23t.6GianVolpicelli,“PowergrabbyGermanyandItalytokillEU'sAIbill”,2023-11-20,到?前為?,歐盟主要通過(guò)以下這些法案對(duì)開(kāi)源模型或軟件的安全管理做出規(guī)定:時(shí)間主要法案對(duì)開(kāi)源AI或軟件的規(guī)定2024年3?《AI法案》AI系統(tǒng)可2024年3?《產(chǎn)品責(zé)任指令》不應(yīng)適?于在商業(yè)活動(dòng)之外開(kāi)發(fā)或提供的免費(fèi)且開(kāi)源軟件及其源代碼。2024年3?《?絡(luò)彈性法案》根據(jù)開(kāi)源軟件的所屬和開(kāi)發(fā)?式,實(shí)施分層安全管理。2020年10?《開(kāi)源軟件戰(zhàn)略(2020-2023年)》建?世界?流的公共服務(wù),?勵(lì)更多地使?開(kāi)源軟件來(lái)進(jìn)?構(gòu)建,?勵(lì)共享和重復(fù)使?軟件、應(yīng)?程序,以及數(shù)據(jù)、信息和知識(shí),以期通過(guò)共享源代碼來(lái)為知識(shí)社會(huì)作出貢獻(xiàn)。歐盟對(duì)開(kāi)源AI或軟件做出規(guī)定的主要法案(本報(bào)告?制)注:《?絡(luò)彈性法案》《產(chǎn)品責(zé)任指令》《AI法案》歐洲議會(huì)已批準(zhǔn),還需歐盟理事會(huì)正式批準(zhǔn)后?效歐盟《AI法案》對(duì)開(kāi)源AI設(shè)定了?些獨(dú)特的規(guī)定。但如果AI系統(tǒng)是免費(fèi)開(kāi)源的,則產(chǎn)品,?如那些提供付費(fèi)技術(shù)?持或1025AI模型,這些模型必須遵守更為嚴(yán)格的規(guī)定,包括提供詳細(xì)的技術(shù)?檔和進(jìn)?安全測(cè)試。系統(tǒng)可以豁免,但這也為根據(jù)開(kāi)源許可證開(kāi)發(fā)的科研?途的模型轉(zhuǎn)為商業(yè)?途提供了可能,從?繞過(guò)了部分安全法規(guī)。此外,歐盟《產(chǎn)品責(zé)任指令》的草案7也擴(kuò)?了AI系統(tǒng)的適?范圍,涵蓋所有AI產(chǎn)品,為了不妨礙創(chuàng)新或研究,該指令也明確說(shuō)明不應(yīng)適?于在商業(yè)活動(dòng)之外開(kāi)發(fā)或提供的免費(fèi)且開(kāi)源軟件及其源代《?絡(luò)彈性法案》的草案進(jìn)?步引起爭(zhēng)議,尤其是關(guān)于上游開(kāi)源開(kāi)發(fā)者可能要為下游產(chǎn)品的安全缺陷承擔(dān)責(zé)任的條款,引發(fā)了開(kāi)源社區(qū)的?泛反響,?封公開(kāi)信稱該法案可能會(huì)對(duì)軟件7EuropeanParliament,“NewProductLiabilityDirective”,2023-12-14,https://www.europarl.europa.eu/RegData/etudes/BRIE/2023/7393M1/EPRS_BRI(2023)7393M1_EN.pdf.開(kāi)發(fā)產(chǎn)?“寒蟬效應(yīng)”8。對(duì)此,歐盟提出了分層安全管理的概念9,要求單獨(dú)開(kāi)發(fā)并控制產(chǎn)品內(nèi)開(kāi)源軟件的商業(yè)實(shí)體需要承擔(dān)所有的合規(guī)性責(zé)任,但減輕了對(duì)開(kāi)源軟件基?會(huì)或類(lèi)似?持組織下協(xié)作開(kāi)發(fā)的或多?協(xié)作開(kāi)發(fā)開(kāi)源軟件的管理壓?,確保開(kāi)源項(xiàng)?可以在合理的法律框架內(nèi)運(yùn)?。2024年3?,歐洲議會(huì)正式批準(zhǔn)了《?絡(luò)彈性法案》,之后還須得到歐盟理事會(huì)的正式通過(guò)才能成為法律,?最終?效要到2027年,這就給了各?時(shí)間來(lái)滿?法律要求并梳理各種合規(guī)細(xì)節(jié)。在監(jiān)管實(shí)踐??,歐盟設(shè)?了AI辦公室,負(fù)責(zé)監(jiān)督并制定模型的標(biāo)準(zhǔn)和測(cè)試實(shí)踐10。AI的開(kāi)發(fā)和使?。在某些情況下,例AI模型沒(méi)有任何不同。這些新規(guī)則的復(fù)雜性可能會(huì)使其更難在歐盟內(nèi)推?開(kāi)源AI。AI法案因可能對(duì)技術(shù)進(jìn)步和產(chǎn)業(yè)發(fā)展產(chǎn)?制約,也受到了?泛質(zhì)疑12。這些法案的最終效果,還有待時(shí)間的檢驗(yàn)。美國(guó)?宮《AI?政命令》關(guān)注?泛可?的模型權(quán)重所帶來(lái)的挑戰(zhàn)?政命令》),該?政命令為AI安全和保障建?了新的標(biāo)準(zhǔn),意圖保護(hù)美國(guó)?眾的隱私,促?AI,提升美國(guó)在全球的領(lǐng)導(dǎo)?。8EclipseFoundationetal.,“OpentotheEuropeanCommissionontheCyberResilienceAct”,2023-04-17,/news/announcements/open-letter-european-commission-cyber-resilience-act.9Euractive,“EUpolicymakers'advanceonopensourcesoftware,supportperiodinnewcybersecuritylaw”,2023-10-31,rt-period-in-new-cybersecurity-law.10EUArti?cialIntelligenceAct,“TheAIO?ce:Whatisit,andhowdoesitwork?”,https://arti?cialintelligenceact.eu/the-ai-o?ce-summary/.1u,es,1,.12魯傳穎:歐盟推出全球?部AI法案,會(huì)形成效應(yīng)還是陷阱?2024-03-27,/info/zlyaq/7029.13TheWhiteHouse,“ExecutiveOrderontheSafe,Secure,andDevelopmentandUseofIntelligence”,2023-10-30,/brie?ng-room/presidential-actions/2023/10/30/executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-arti?cial-intelligence/.該?政命令被外界稱為“有史以來(lái)政府為推進(jìn)AI安全領(lǐng)域所采取的最重??動(dòng)”14,以確AI的前景和管理AI?險(xiǎn)??處于領(lǐng)先地位,同時(shí)也明確了美國(guó)政府下?步?動(dòng)措2023年發(fā)布的《AI?政命令》和針對(duì)基礎(chǔ)模型的《透明度法案》,也涉及了對(duì)開(kāi)源模型的要求:時(shí)間主要法案對(duì)開(kāi)源AI或軟件的規(guī)定2023年12?《2023年AI基礎(chǔ)模型透明度法案》152023年10?《關(guān)于安全、可靠和可信的AI?政命令》沒(méi)有直接提到開(kāi)源,?是要求商務(wù)部?通過(guò)公開(kāi)咨詢征求各利益相關(guān)?對(duì)具有?泛可?權(quán)重的雙?途基礎(chǔ)模型相關(guān)的潛在?險(xiǎn)、利益、其他影響以及適當(dāng)?shù)恼吆捅O(jiān)管?法的意?,并向總統(tǒng)提交報(bào)告。2023年9?《CISA開(kāi)源軟件安全路線圖》16?度關(guān)注開(kāi)源軟件漏洞“連鎖”效應(yīng)、供應(yīng)鏈“投毒”等兩類(lèi)特有?險(xiǎn),實(shí)?美國(guó)政府?絡(luò)和關(guān)鍵基礎(chǔ)設(shè)施“?核?”重點(diǎn)保護(hù),強(qiáng)化開(kāi)源?態(tài)系統(tǒng)“?范圍”聯(lián)動(dòng)協(xié)作。2023年3?《2023年開(kāi)源軟件安全法案》17強(qiáng)調(diào)了開(kāi)源軟件作為公共數(shù)字基礎(chǔ)設(shè)施的重要性,但需針對(duì)其安全性挑戰(zhàn)加強(qiáng)監(jiān)管。2022年9?《2022年保護(hù)開(kāi)源軟件法案》18建議美國(guó)?絡(luò)安全和基礎(chǔ)設(shè)施安全局(CISA)創(chuàng)建“?險(xiǎn)框架”,以降低使?開(kāi)源軟件系統(tǒng)的?險(xiǎn)。14BBC,“USannouncesglobalactionyet'onAIsafety”,2023-10-31,e/g.15USCongress,“AIFoundationModelActof2023”,2023-12-22,/bill/118th-congress/house-bill/G881.16CybersecurityandInfrastructureSecurityAgency,“CISAOpenSourceSoftwareSecurityRoadmap”,2023-09,/sites/default/?les/2023-09/CISA-Open-Source-Software-Security-Roadmap-508c.pdf.17USCongress,“S.917-SecuringOpenSourceSoftwareActof2023”,2023-03-22,/bill/118th-congress/senate-bill/917/text.8S,3-gneetf,,e/.《關(guān)于安全、可靠和可信的AI?政命令》沒(méi)有直接提到開(kāi)源(OpenSource)?詞,?是對(duì)更具體的具有?泛可?模型權(quán)重的雙重?途基礎(chǔ)模型(Dual-UseFoundationModelswithWidelyAvailableModelWeights)進(jìn)?了規(guī)定,主要集中在第4節(jié)(確保AI技術(shù)的安全性和安保性)的第4.6?節(jié)。該?政命令指出,“當(dāng)雙重?途基礎(chǔ)模型的權(quán)重被?泛可?時(shí),例如當(dāng)它們?cè)诨ヂ?lián)?上公開(kāi)發(fā)布時(shí),創(chuàng)新可能會(huì)帶來(lái)巨?的收益,但也會(huì)帶來(lái)巨?的安全?險(xiǎn),例如移除模型內(nèi)的安全措施。”具體規(guī)定如下:“在命令發(fā)布之?起270天內(nèi),商務(wù)部?應(yīng)通過(guò)通信和信息助理部?,并與國(guó)務(wù)卿協(xié)商,通過(guò)公開(kāi)咨詢過(guò)程征求私營(yíng)部?、學(xué)術(shù)界、?間社會(huì)及其他利益相關(guān)者對(duì)于具有?泛可?權(quán)重的雙?途基礎(chǔ)模型相關(guān)的潛在?險(xiǎn)、利益、其他影響以及適當(dāng)?shù)恼吆捅O(jiān)管?法的意?。并將收集到的意?,與其他相關(guān)機(jī)構(gòu)負(fù)責(zé)?協(xié)商后向總統(tǒng)提交?份報(bào)告。”這個(gè)任務(wù)既需要技術(shù)洞察?,也需要政策制定的智慧。對(duì)于開(kāi)源AI有可能促進(jìn)如?物和化學(xué)武器等危險(xiǎn)材料?產(chǎn)的問(wèn)題,?宮?政命令在第4.1?結(jié)提到了化學(xué)/?物/輻射/核威脅(CBRN)的?險(xiǎn),美國(guó)國(guó)會(huì)?前正在考慮多項(xiàng)法案19來(lái)應(yīng)對(duì)這些威脅。第4.2?節(jié)要求?模型開(kāi)發(fā)者必須分享紅隊(duì)測(cè)試中的表現(xiàn)結(jié)果,對(duì)使??于1026FLOPs訓(xùn)練的任何模型,提出了報(bào)告安全測(cè)試結(jié)果和關(guān)鍵信息的要求,另要求?物序列數(shù)據(jù)相應(yīng)的?檻是1023FLOPs。AI模型權(quán)重所帶來(lái)的挑戰(zhàn),并AI技術(shù)發(fā)展,?能保護(hù)國(guó)家安全和公共利益的政策框架。《2023年AI基礎(chǔ)模型透明度法案》則是在此基礎(chǔ)上,要求聯(lián)邦貿(mào)易委員會(huì)在九個(gè)?內(nèi)制開(kāi)源基礎(chǔ)模型或基于其他基礎(chǔ)模型重新訓(xùn)練或調(diào)整的模型制定特別規(guī)定,顯?了對(duì)開(kāi)源AI的?定?持。在早些時(shí)候,國(guó)會(huì)已經(jīng)提出了多項(xiàng)關(guān)于開(kāi)源軟件的法案,如《2022年保護(hù)開(kāi)源軟件法?險(xiǎn)框架和安全職責(zé),增強(qiáng)開(kāi)源軟件的。《CISA開(kāi)源軟件安全路線圖》進(jìn)?步強(qiáng)調(diào)了聯(lián)合協(xié)作和安全責(zé)任,明確了開(kāi)源軟件的數(shù)字公共物品屬性,?度關(guān)注開(kāi)源軟件漏洞“連鎖”效應(yīng)、供應(yīng)鏈“投毒”等兩類(lèi)特有?險(xiǎn)。20。?些智庫(kù)專家?持,認(rèn)為這是美19EdwardMarkey,“Sens.Markey,BuddAnnounceLegislationtoAssessHealthSecurityRisksofAI”,2023-07-18,ecurity-risks-of-ai.20安全內(nèi)參,“拜登AI?政令評(píng)論:美國(guó)技術(shù)監(jiān)管?式?轉(zhuǎn)變?或是回避‘開(kāi)放式創(chuàng)新模式’”,2023-11-01,/articles/G02G5學(xué)者的代表致函拜登總統(tǒng)21擔(dān)憂??在政策制定過(guò)程中的聲?有限,并建議未來(lái)應(yīng)為中?企業(yè)AI的發(fā)展的同時(shí),也在努?確保其在不增加國(guó)家安全?險(xiǎn)的前提下進(jìn)?創(chuàng)新和應(yīng)?。政府與公眾的合作,以及透明和公正的監(jiān)管是實(shí)現(xiàn)這??標(biāo)的關(guān)鍵。英國(guó)政策?件謹(jǐn)慎對(duì)待開(kāi)放與封閉之爭(zhēng),防范監(jiān)管捕獲英國(guó)的開(kāi)源產(chǎn)業(yè)政策由來(lái)已久,政府?勵(lì)創(chuàng)新,并在開(kāi)源技術(shù)的開(kāi)發(fā)上投?了?量的資?和?才,這讓其對(duì)?勵(lì)開(kāi)放創(chuàng)新和AI競(jìng)爭(zhēng)的?場(chǎng)?脈相承。如果沒(méi)有沒(méi)有?夠的保護(hù)措施,也可能造成傷害。組織AI的監(jiān)管引?了復(fù)雜性。在英國(guó)舉辦的?屆全球AI安安全宣?》等成果與共識(shí)之外,開(kāi)源模型的?險(xiǎn)和利弊成為?個(gè)主要爭(zhēng)論點(diǎn)22。英國(guó)還在峰會(huì)上宣布成?AI安全研究所,并將“開(kāi)源系統(tǒng)以及采?各種形式的訪問(wèn)控制部署的系統(tǒng)”和“破壞保障措施或利?不安全的模型權(quán)重”作為其優(yōu)先事項(xiàng)之?23。英國(guó)對(duì)于對(duì)開(kāi)源AI或軟件政策?件包括:時(shí)間政策?件對(duì)開(kāi)源AI的規(guī)定或?場(chǎng)2024年2?《?語(yǔ)?模型和?成式AI》報(bào)告24積極的市場(chǎng)成果將需要?系列在開(kāi)源和閉源基礎(chǔ)上推動(dòng)前沿的模型。呼吁政府將“開(kāi)放創(chuàng)新和AI競(jìng)爭(zhēng)”作為明確的政策?標(biāo)。2023年3?《?種?持創(chuàng)新的AI監(jiān)管?法》25開(kāi)源模型可以提?對(duì)基礎(chǔ)模型的變?能?,但如果沒(méi)有?夠的保護(hù)措施,也可能造成傷害。組織在開(kāi)發(fā)和提供基礎(chǔ)模型的?式上的差異,為AI的監(jiān)管引?了?泛的復(fù)雜性。英國(guó)對(duì)開(kāi)源AI或軟件做出規(guī)定的主要政策?件(本報(bào)告?制)2024年2?,英國(guó)上議院的通信和數(shù)字委員會(huì)發(fā)布《?語(yǔ)?模型和?成式AI》報(bào)告,強(qiáng)調(diào)21MartinCasado,“We'vesubmittedatoPresidentBidenregardingtheAIOrderanditspotentialforrestrictingopensourceAI”,2023-11-04,/martin_casado/status/172051702G538778G5722謝旻希,“為什么中國(guó)的參與必不可少?我參加?屆全球??智能安全峰會(huì)的所?所思(萬(wàn)字回顧)”,2023-11-09,/s/_SWLDzKDOMNb0Mha1SNKFg.23UKGovernment,“IntroducingtheAISafetyInstitute”,2024-01-17,24UKParliament,“HouseofLords-LargelanguagemodelsandAI”,2024-02-02,tt.25“Apro-innovationapproachtoAIregulation”,2023-08-23,建議,包括、審查災(zāi)難性?險(xiǎn)、賦予監(jiān)管機(jī)構(gòu)權(quán)?等,并呼吁政府將“開(kāi)放創(chuàng)新和AI競(jìng)爭(zhēng)”作為明確的政策?標(biāo)。年發(fā)布的《?種?持創(chuàng)新的AI監(jiān)管?法》政組織在開(kāi)發(fā)和提供基礎(chǔ)模型的?式上的差異,為AI的監(jiān)管引?了?泛的復(fù)雜性。英國(guó)是開(kāi)源技術(shù)的領(lǐng)導(dǎo)者之?,早在2004年就?次發(fā)布開(kāi)源產(chǎn)業(yè)政策,并于2009年2?進(jìn)年2?在歐盟開(kāi)源政策峰會(huì)發(fā)布了其三階段報(bào)告,12.6萬(wàn)名貢獻(xiàn)者參與了創(chuàng)建、開(kāi)發(fā)和維護(hù)開(kāi)源的?作;這?數(shù)字將近歐盟26萬(wàn)名開(kāi)源開(kāi)發(fā)者中的?半。英國(guó)希望在政府內(nèi)部?勵(lì)創(chuàng)新,?勵(lì)開(kāi)源思維,在外部幫助發(fā)展?個(gè)充滿活?的市場(chǎng)。AI帶來(lái)的機(jī)遇,也嚴(yán)肅對(duì)待由法國(guó)將開(kāi)源AI作為其“創(chuàng)新優(yōu)先”發(fā)展AI的核?戰(zhàn)略之?AI的發(fā)展,并將其視為國(guó)家競(jìng)爭(zhēng)?的關(guān)鍵。在這?背景下,法國(guó)將開(kāi)源AI的發(fā)展。法國(guó)總統(tǒng)?克?在多個(gè)場(chǎng)合強(qiáng)調(diào)了創(chuàng)新和發(fā)展的重要性,并主張?jiān)谥卫碇皟?yōu)先考慮創(chuàng)新。2023年6?,?克?在歐洲科。法國(guó)的這??場(chǎng)與其在歐盟中的作?形成了?定AI創(chuàng)新26這?術(shù)語(yǔ)在?常使?中,指的是監(jiān)管有利于受監(jiān)管?業(yè)或特殊利益集團(tuán)?不是公共利益的現(xiàn)象。WendyLi,“Regulatorycapture'sthirdfaceofpower”,2023-02-07,/10.1093/ser/mwad002.27betsbigonopen-sourceAI”,2023-08-04,發(fā)展的同時(shí),需要平衡與歐盟政策的關(guān)系,因此法國(guó)國(guó)家信息和?由委員會(huì)(CNIL)作為法國(guó)的?政機(jī)構(gòu),在執(zhí)?歐盟監(jiān)管政策的同時(shí),也在積極推動(dòng)符合法國(guó)利益的AI創(chuàng)新政策28。時(shí)間法規(guī)或政策?件對(duì)開(kāi)源AI或軟件的規(guī)定2016年《數(shù)字共和法案》增強(qiáng)數(shù)字領(lǐng)域的透明度、開(kāi)放性和私?數(shù)據(jù)保護(hù)。法案中明確要求公共部?和某些私?部?開(kāi)放其數(shù)據(jù),?勵(lì)數(shù)據(jù)的?由流通和使?,同時(shí)強(qiáng)調(diào)保護(hù)個(gè)?隱私和數(shù)據(jù)安全2023年5?CNIL《AI?動(dòng)計(jì)劃》2018年3?國(guó)家AI戰(zhàn)略《AI造福?類(lèi)》15億歐元,?以推動(dòng)AI研究、創(chuàng)新和商業(yè)化。政策重點(diǎn)?勵(lì)開(kāi)源AI平臺(tái)和?具的發(fā)展,旨在建??個(gè)開(kāi)放和協(xié)作的AI?態(tài)系統(tǒng)。法國(guó)對(duì)開(kāi)源AI或軟件做出規(guī)定的主要法規(guī)或政策?件(本報(bào)告?制)法國(guó)政府對(duì)于開(kāi)源AI的監(jiān)管傾向于制定靈活的政策,以適應(yīng)技術(shù)快速發(fā)展的需求,保證開(kāi)源項(xiàng)?的活?不被過(guò)度監(jiān)管抑制。政策明確?勵(lì)創(chuàng)新和數(shù)據(jù)的開(kāi)放使?,但同時(shí)確保了數(shù)據(jù)安全和??隱私的保護(hù)。這種平衡的監(jiān)管框架為Mistral?模型等開(kāi)源AI項(xiàng)?提供了發(fā)展的?壤。法國(guó)的開(kāi)源AI推?策略也體現(xiàn)在對(duì)?才的重視上。法國(guó)擁有強(qiáng)?的數(shù)學(xué)和信息科學(xué)基礎(chǔ),這為其在??智能領(lǐng)域的研究提供了堅(jiān)實(shí)的基礎(chǔ)29。法國(guó)政府通過(guò)PIA(InvestmentsfortheFutureAI的創(chuàng)新和應(yīng)?。其中,圖靈獎(jiǎng)得主、?席AIAI研究領(lǐng)域的地位愈發(fā)顯著。在產(chǎn)業(yè)層?,法國(guó)也涌現(xiàn)出了?批在開(kāi)源AI領(lǐng)域具有國(guó)際影響?的公司。例如,HuggingFace的聯(lián)合創(chuàng)始?都是法國(guó)?,該公司已成為全球開(kāi)源AI社區(qū)的重要參與者。法國(guó)AI初創(chuàng)公司MistralAI開(kāi)發(fā)的旗艦?zāi)P蛯?duì)標(biāo)GPT-M,展?了法國(guó)在?模型領(lǐng)域的強(qiáng)?實(shí)?30。MistralAI的成8,,,.29安全內(nèi)參,“法國(guó)??智能發(fā)展現(xiàn)狀、重要舉措及啟?”,2023-09-25,/articles/59182.30智東西,“法國(guó)版OpenAI殺瘋了,1760億參數(shù)MoE登開(kāi)源榜?,3張A100顯卡可跑”,2024-04-11,/newsDetail_forward_2G50G922.AI發(fā)展的?個(gè)例證31。此外,法國(guó)還有歐洲?個(gè)致?于AI開(kāi)放科學(xué)研究的獨(dú)?實(shí)驗(yàn)室。AI的發(fā)展,并在國(guó)際舞臺(tái)上展AI競(jìng)爭(zhēng)中保持領(lǐng)先地位,也為全球開(kāi)源AI社區(qū)的發(fā)展做出了貢獻(xiàn)。中國(guó)??智能法的兩份專家建議稿對(duì)開(kāi)源問(wèn)題做不同處理AI項(xiàng)?。但暫未發(fā)布針對(duì)基礎(chǔ)模型開(kāi)源的相關(guān)政策法規(guī),相關(guān)?法還在制定中。2023年10?,中國(guó)政府在第三屆“?帶?路”國(guó)際合作?峰論壇上發(fā)布了《全球??智能治理倡議》,圍繞??智能發(fā)展、安全、治理三??系統(tǒng)闡述了??智能治理中國(guó)?案。在國(guó)際治理中,中國(guó)政府站在全球南?的?度呼吁開(kāi)源??智能技術(shù),并倡導(dǎo)需要開(kāi)展?向發(fā)展中國(guó)家的國(guó)際合作與援助,不斷彌合智能鴻溝和治理能?差距。時(shí)間主要倡議或建議稿對(duì)開(kāi)源AI的規(guī)定或?場(chǎng)2024年4?《??智能?范法2.0版(專家建議稿)》32(2023年8?1.0版,9?1.1版33)重視??智能開(kāi)源發(fā)展,提出促進(jìn)開(kāi)源社區(qū)建設(shè)、制定專?合規(guī)指引、明確責(zé)任減免規(guī)則等?持措施。2024年3?《中華??共和國(guó)??智能法(學(xué)者建議稿)》34推進(jìn)開(kāi)源?態(tài)建設(shè),建?開(kāi)源治理體系,免費(fèi)開(kāi)源的??智能/基礎(chǔ)模型可豁免本法。2023年10?《全球??智能治理倡議》35?勵(lì)全球共同推動(dòng)??智能健康發(fā)展,共享??智能知識(shí)成果,開(kāi)源??智能技術(shù)。中國(guó)對(duì)開(kāi)源AI或軟件做出規(guī)定的主要倡議或建議稿(本報(bào)告?制)2023年度?法?作計(jì)劃》。其中顯?,《??智31機(jī)器之能,“拿下微軟合作、旗艦?zāi)P蛯?duì)標(biāo)GPT-M,認(rèn)識(shí)?下「歐洲版OpenAI」”,2024-03-01,/articles/202M-03-0132馮戀閣,“《??智能?范法2.0(專家建議稿)》重磅發(fā)布重視AI開(kāi)源發(fā)展、構(gòu)建知識(shí)產(chǎn)權(quán)創(chuàng)新規(guī)則”,2024-04-16,/article/202M0M1G/herald/Mdf710?ed0?e037cdfGc5Maa3G99G1.html.33馮戀閣,“《??智能?范法1.1(專家建議稿)》重磅發(fā)布”,2023-09-07,/article/20230907/herald/982ae3bb7b82597bMdc1f990dedGMad2.html.34數(shù)字法治,“重磅?發(fā)|《中華??共和國(guó)??智能法(學(xué)者建議稿)》”,2024-03-16,/s/2i9zAXJ5dJKlKNMfMppUDw.35中央?絡(luò)安全和信息化辦公室,“全球??智能治理倡議”,2023-10-18,/2023-10/18/c_1G9929103288M978.htm.議稿,均對(duì)開(kāi)源問(wèn)題做出了探討,都明確了重視開(kāi)源??智能發(fā)展的積極?場(chǎng)。具體??,《??智能?范法2.0(專家建議稿)》相較于《中華??共和國(guó)??智能法(學(xué)者建議2023年8?,中國(guó)社會(huì)科學(xué)院國(guó)情調(diào)研重?項(xiàng)?《我國(guó)??智能倫理審查和監(jiān)管制度建設(shè)狀況調(diào)研》課題組發(fā)布《??智能法?范法1.0(專家建議稿)》,9??發(fā)布1.1版,表?“?持建設(shè)、運(yùn)營(yíng)開(kāi)源開(kāi)發(fā)平臺(tái)、開(kāi)源社區(qū)和開(kāi)源項(xiàng)?等,推進(jìn)開(kāi)源軟件項(xiàng)?合規(guī)應(yīng)?”。2024年4?,《??智能?范法2.0(專家建議稿)》發(fā)布,2.0在此前版本的基礎(chǔ)上不斷更新,將重視??智能開(kāi)源發(fā)展,提出促進(jìn)開(kāi)源社區(qū)建設(shè)、制定專?合規(guī)指引、明確責(zé)任減免規(guī)則等?持措施。2.0(專家建議稿)》對(duì)于開(kāi)源AI?較有特?的條款包括:1)第???對(duì)開(kāi)源??智能研發(fā)規(guī)定專?的稅收優(yōu)惠辦法。2)第五?九條(創(chuàng)新監(jiān)管)國(guó)家??智能主管機(jī)關(guān)針對(duì)開(kāi)源??智能研發(fā)者制訂專?的合規(guī)指引,推動(dòng)開(kāi)源??智能創(chuàng)新發(fā)展。3)第七??條(開(kāi)源??智能的法律責(zé)任減免)存此外,由中國(guó)政法?學(xué)數(shù)據(jù)法治研究院牽頭的專家組,于2024年3?發(fā)布了《中華??共)》,其中開(kāi)源AI的相關(guān)政策相對(duì)簡(jiǎn)要和寬松。提出國(guó)家應(yīng)推進(jìn)建?開(kāi)源治理體系,?勵(lì)?智能開(kāi)發(fā)者、提供者應(yīng)當(dāng)對(duì)開(kāi)源框架、基礎(chǔ)軟硬件和部署環(huán)境的漏洞和安全?險(xiǎn)進(jìn)?定期檢查和監(jiān)測(cè),并實(shí)時(shí)監(jiān)測(cè)可能的攻擊。明確表?開(kāi)源的基礎(chǔ)模型不需要對(duì)衍?利?承擔(dān)連帶責(zé)任、基礎(chǔ)模型屬于開(kāi)源模型的應(yīng)豁免相應(yīng)的法律責(zé)任,免費(fèi)開(kāi)源的??智能不適?于本法。除此之外,國(guó)內(nèi)學(xué)者專家也對(duì)于AI開(kāi)源發(fā)展與法律規(guī)制舉辦了若?研討36,37。以發(fā)展與安全的平衡為例,部分專家認(rèn)為,盡可能進(jìn)?精準(zhǔn)規(guī)制、敏捷治理,避免??切式的安全冗余設(shè)36SPPM法與公管交叉研究,“??智能?法之開(kāi)源發(fā)展與法律規(guī)制會(huì)議順利召開(kāi)”,2024-01-27/s/HMs7V-Jc1GPwxMoBygDROg.37中國(guó)法學(xué)創(chuàng)新?,“AI善治論壇在京召開(kāi)發(fā)布《??智能法(學(xué)者建議稿)》”,2024-03-19,/dyna/content.php?id=2G910.?的安全評(píng)估等?段,實(shí)現(xiàn)?律與他律的有效結(jié)合,確保開(kāi)源?模型?態(tài)在安全與健康的基礎(chǔ)上不斷推動(dòng)創(chuàng)新38,我們期待就這?議題展開(kāi)更深?的探討。其他全球南?國(guó)家?勵(lì)A(yù)I?險(xiǎn)與收益研究,以開(kāi)放科學(xué)應(yīng)對(duì)全球發(fā)展AI平衡和解決與AI系統(tǒng)在彌合數(shù)字鴻溝和實(shí)現(xiàn)所有17項(xiàng)可持續(xù)發(fā)展?標(biāo)??所發(fā)揮作?有關(guān)的潛在利益和?險(xiǎn),包括擴(kuò)?開(kāi)源AI系統(tǒng)等數(shù)字解決?案的作?”。2023年9?,《哈?那G77+中國(guó)峰會(huì)的最終宣?》40強(qiáng)調(diào)了對(duì)開(kāi)放科學(xué)合作的需要以及推它呼吁促進(jìn)?個(gè)包容和公平的技術(shù)進(jìn)步環(huán)境,避免壟斷中東地區(qū),阿聯(lián)酋積極采?開(kāi)源治理模式,對(duì)?模型發(fā)放開(kāi)源許可證(Open-sourceLicense)。此外,阿聯(lián)酋政府還向Falcon基?會(huì)承諾3億美元的資?,?持該?營(yíng)利性機(jī)構(gòu)的應(yīng)?程序。有觀點(diǎn)認(rèn)為,阿聯(lián)酋致?于開(kāi)源AI的承諾在外交上取得了成功,贏得了來(lái)?全AI開(kāi)發(fā)之外。其中?部分動(dòng)機(jī)是為阿聯(lián)酋找到?個(gè)領(lǐng)域,并增強(qiáng)國(guó)家競(jìng)爭(zhēng)?41。此外,巴西促進(jìn)能夠驗(yàn)證數(shù)據(jù)集和機(jī)器學(xué)習(xí)模型中歧視性趨勢(shì)的開(kāi)源代碼的傳播42。?洲AI治理數(shù)據(jù)保護(hù)相關(guān)?法,但?前未涉及針對(duì)開(kāi)源治理的重點(diǎn)討論43。38傅宏宇,“《中華??共和國(guó)??智能法(學(xué)者建議稿)》:產(chǎn)業(yè)期待中的中國(guó)?案”,2024-03-18,/a/7G51033M3_38M789.39聯(lián)合國(guó),“聯(lián)合國(guó)?會(huì)通過(guò)?程碑式?jīng)Q議,呼吁讓??智能給?類(lèi)帶來(lái)'惠益'”,2024-03-21,/zh/story/202M/03/112755G.40CubanMinistryforForeignA?airs,“FinalDeclarationofHavana'sG77+ChinaSummit”,/?nal-declaration-of-havanas-g77china-summit/.41Billy“TheUAEIsonaMissiontoBecomeanAIPower”,2024-03-22,/G9583G9/arti?cial-intelligence-united-arab-emirates/.42BrazilGovernment,“SummaryoftheBrazilianArti?cialIntelligence2022-02-24,r.43ThomsonReutersFoundation,“AIGovernanceforAfrica2023-11-22,01%20and%202.pdf.肯尼亞前任外?RaychelleOmamo表?,南?國(guó)家更關(guān)注的是發(fā)展,以及誰(shuí)能更好地在基礎(chǔ)設(shè)施建設(shè)、?員培訓(xùn)和公共健康等領(lǐng)域?持和幫助??國(guó)家,?不會(huì)關(guān)?是不是給某個(gè)國(guó)家貼上標(biāo)簽。全球南部的許多國(guó)家仍將數(shù)字發(fā)展置于地緣政治協(xié)調(diào)之上44。?結(jié)技術(shù)發(fā)展的重視程度,也體現(xiàn)了對(duì)于開(kāi)源AI?險(xiǎn)與收益的不同理解和評(píng)估。???,監(jiān)管機(jī)構(gòu)試圖通過(guò)制定相關(guān)法規(guī)來(lái)確保AI技術(shù)的安全性和可控性,防?潛在的濫AI政策上的不同選擇和實(shí)施路徑。與此同時(shí),產(chǎn)業(yè)界和學(xué)術(shù)界對(duì)于開(kāi)源AI的?險(xiǎn)和收益也展開(kāi)了激烈的討論,展現(xiàn)出不同的AI治理政策制定的啟?和影響。44肖茜,“在慕安會(huì)感受歐美AI治理的協(xié)調(diào)與分歧”,2024-02-22,/info/subemail_wzjx/G931.審慎開(kāi)放vs?勵(lì)開(kāi)放,前沿AI開(kāi)源的主要爭(zhēng)論到?前為?,AI領(lǐng)域的開(kāi)源?直是有益的。但未來(lái)我們可能會(huì)到達(dá)?個(gè)地步,不開(kāi)源在減少?險(xiǎn)的層?會(huì)對(duì)社會(huì)更有益,盡管這會(huì)在創(chuàng)新速度等??有所損失。顯然,這有利有弊。?約書(shū)亞·本吉奧(JoshuaBengio)45林納斯定律:只要有?夠多的眼睛,所有的錯(cuò)誤都是顯而易?的。?埃?克·雷蒙德(EricRaymond)462023年9?底,抗議者聚集在Meta舊??辦公室外,抗議其公開(kāi)發(fā)布AI模型的政策,聲稱Llama系列模型發(fā)布代表了潛在不安全技術(shù)的“不可逆轉(zhuǎn)的擴(kuò)散”47。但也有?表?,?乎沒(méi)有證據(jù)表明開(kāi)源模型造成了任何具體損害,AI研發(fā)的開(kāi)源是“確保對(duì)技術(shù)信任的唯?途徑”。爭(zhēng)論主要在于前沿AI的濫?和失控?險(xiǎn)?多數(shù)AI應(yīng)開(kāi)放并?爭(zhēng)議圖靈獎(jiǎng)得主Bengio在討論開(kāi)源AI潛在的濫??險(xiǎn)時(shí)認(rèn)為48:模型開(kāi)源?般由研發(fā)機(jī)構(gòu)??決定。?前?多數(shù)AI是有益/?害的,應(yīng)該共享。但未來(lái)更強(qiáng)的AI可能因?yàn)E??產(chǎn)?不可逆轉(zhuǎn)的,?旦落?惡意?為者?中,國(guó)家和社會(huì)就?法控制。當(dāng)ElonMusk等指責(zé)SamAltman“呼吁監(jiān)管”只是為了保護(hù)OpenAI的領(lǐng)導(dǎo)地位時(shí),SamAltman回應(yīng)稱49,“應(yīng)該對(duì)那些超過(guò)某??度能?閾值的?型公司和封閉模型進(jìn)?更多監(jiān)管,?對(duì)?型初創(chuàng)公司和開(kāi)源模型的監(jiān)管應(yīng)該較少”。全的新興?險(xiǎn)》50指出:開(kāi)源AI模型可能是?項(xiàng)重要的公共產(chǎn)品。然?,前沿AI模型可能需要?相對(duì)于它們更?、更專?或能?較弱的同類(lèi)模型受到更多限制。45AzeemBengio,Bengio:AI'shumanisticfuture”,2024-02-14,https://www.exponentialview.co/p/yoshua-bengio-towards-ais-humanistic.2014-05/subject/25881855/.47EddGentDecryIrreversibleProliferation'ofAI”,2023-10-06,/meta-ai.48Bengio2023-12-09,/.49ETtech,“Regulation?AI,saysOpenAICEOSamAltman”,2023-06-09,.50MarkusAnderljungetal.,“FrontierAIRegulation:ManagingEmergingRiskstoPublicSafety”,2023-11-07,/abs/2307.03718.Anthropic在《第三?測(cè)試是AI政策的關(guān)鍵組成部分》51??中認(rèn)為:當(dāng)今絕?多數(shù)(甚。然?,我們相信,未來(lái)前沿AI系統(tǒng)完全開(kāi)放傳播的?化與社會(huì)安全?化之間可能很難調(diào)和。前沿AI可能因?yàn)E?和失控引發(fā)災(zāi)難性?險(xiǎn)CBRN)、虛假信息的濫??險(xiǎn),以及操縱欺騙、模型?主性導(dǎo)致的濫?和失控?險(xiǎn)。當(dāng)前證據(jù)表明開(kāi)放模型和封閉模型之間存在顯著的性能差距52,但隨著開(kāi)源模型的能??益接近GPT-M級(jí)別53,對(duì)于前沿AI模型是否應(yīng)開(kāi)源的爭(zhēng)論預(yù)計(jì)將更加激烈。?險(xiǎn)類(lèi)別描述?絡(luò)安全濫?CBRN濫?利?AI輔助?段創(chuàng)建化學(xué)/?物/輻射/核威脅相關(guān)的?險(xiǎn)。虛假信息濫?利?AI?成傳播有害或虛假信息給公共安全帶來(lái)相關(guān)的?險(xiǎn)。操縱欺騙濫?/失控利?AI?成內(nèi)容使?們改變其信念或據(jù)此采取?動(dòng)相關(guān)的?險(xiǎn)。?主性濫?/失控更強(qiáng)的模型?主性使?為體能夠適應(yīng)環(huán)境變化并規(guī)避被關(guān)閉,從?可能被規(guī)模化濫?。?主性也是?我復(fù)制、?我改進(jìn)、資源獲取的前提。由于?前的安全技術(shù)還不夠完善,其?為可能會(huì)違背設(shè)計(jì)者或使?者的初衷(不對(duì)?)。即使沒(méi)?故意濫?,也可能成為災(zāi)難性?險(xiǎn)的來(lái)源。前沿AI可能涉及的濫?和失控?險(xiǎn)(本報(bào)告?制)注:《布萊切利AI安全宣?》,重點(diǎn)關(guān)注?絡(luò)安全、?物技術(shù)、虛假信息《安全、可靠和可信AI?政命令》,重點(diǎn)關(guān)注?絡(luò)安全、CBRN、欺騙《北京AI安全國(guó)際共識(shí)》,重點(diǎn)關(guān)注?主復(fù)制或改進(jìn)、權(quán)?尋求、協(xié)助武器制造、?絡(luò)安全、欺騙4)OpenAI的PreparenessCBRN、操縱(含欺騙)、?主性5)Anthropic的ResponsibleScalingPolicy1.0,重點(diǎn)關(guān)注?絡(luò)安全、CBRN、?主性和復(fù)制51Anthropic,“Third-partytestingasakeyingredientofAIpolicy”,2024-03-25,/news/third-party-testing.52StanfordHAI,“2024AIIndexReport”,2024-04-15,/report/.53Meta,“IntroducingLlama3:ThemostcapableopenlyavailableLLMtodate”,2024-04-18,/blog/meta-llama-3.?場(chǎng)?:審慎開(kāi)放,防范?險(xiǎn)的開(kāi)放?檻須標(biāo)準(zhǔn)更?產(chǎn)業(yè)界Anthropic專注于開(kāi)發(fā)安全、可控的AI系統(tǒng),前沿模型均未開(kāi)源54???,Anthropic認(rèn)識(shí)到科學(xué)進(jìn)步很?程度上依賴于研究的開(kāi)放和透明?化,AI領(lǐng)域的許多?命性進(jìn)展都是建?在開(kāi)源研究和模型的基礎(chǔ)上的。開(kāi)源系統(tǒng)通過(guò)允許更多?測(cè)試技術(shù)并識(shí)別潛在弱點(diǎn),有助于提?安全環(huán)境的穩(wěn)健性。另???,Anthropic也表達(dá)了對(duì)于前沿AI系統(tǒng)完全開(kāi)源可能帶來(lái)的?險(xiǎn)的擔(dān)憂。他們認(rèn)為,隨著AI模型的能??益增強(qiáng),如果(“如果”是?個(gè)關(guān)鍵且尚未解決的問(wèn)題)存在可能導(dǎo)致有害影響或?yàn)?zāi)難性事故的?險(xiǎn),那么當(dāng)前的開(kāi)源?化可能需要調(diào)整,以確保AI系統(tǒng)的安全和社會(huì)責(zé)任。,例如通過(guò)分類(lèi)器檢Anthropic強(qiáng)調(diào),盡管這些安全措施可能成本?昂,但為了預(yù)防AI系統(tǒng)可能導(dǎo)致的嚴(yán)重濫AI系統(tǒng)或系統(tǒng)?為的不可接受濫??為上達(dá)成?泛共識(shí)。最后,Anthropic指出,作為?家主要開(kāi)發(fā)封閉系統(tǒng)的公司,他們沒(méi)有正當(dāng)性來(lái)決定哪些他們呼吁需要合法的第三?來(lái)開(kāi)發(fā)和應(yīng)?被?泛認(rèn)可的測(cè)試和評(píng)估?法,以及定義AI系統(tǒng)濫??為的標(biāo)準(zhǔn),并對(duì)受控(例如通過(guò)API)或公)的模型進(jìn)?這些測(cè)試,以?成關(guān)于AI領(lǐng)域安全特性的基本信息。AI事故的?險(xiǎn),這可能對(duì)?和社區(qū)造成重?傷害,并可能導(dǎo)致對(duì)AI?業(yè)不利的法規(guī)。OpenAI開(kāi)源策略經(jīng)歷了從相對(duì)開(kāi)放到逐步收緊的過(guò)程2015-2019年的早期階段,OpenAI秉持開(kāi)放、協(xié)作、造福?類(lèi)的理念,主張通過(guò)開(kāi)源推等平臺(tái)的源代碼,希望學(xué)術(shù)界和業(yè)界能?泛參與、共同進(jìn)步。但隨著語(yǔ)?模型等AI系統(tǒng)變得越來(lái)越強(qiáng)?,OpenAI開(kāi)始意識(shí)到技術(shù)濫?和誤?可能帶來(lái)發(fā)布時(shí)采取了分階段發(fā)54Anthropic,“Third-partytestingasakeyingredientofAIpolicy”,2024-03-25,/news/third-party-testing.任、可控發(fā)展的重視。2019年底,OpenAI宣布從?營(yíng)利組織轉(zhuǎn)為"封頂利潤(rùn)"的有限責(zé)任公司,以獲取更多的商業(yè)資源和靈活性。這導(dǎo)致了商業(yè)利益在其決策中的?重上升。為了保護(hù)??的競(jìng)爭(zhēng)優(yōu)勢(shì)和創(chuàng)新成果,OpenAI開(kāi)始減少對(duì)開(kāi)源模型和訓(xùn)練代碼,同時(shí)發(fā)布的研究成果也?幅減少,像GPT-3這樣的?模型只開(kāi)放API,希望既能惠及社會(huì),?能在?定程度上控制技術(shù)的傳播和應(yīng)?,但OpenAI的品牌名稱導(dǎo)致了?定程度的混亂56。總的來(lái)說(shuō),OpenAI的開(kāi)源策略是在開(kāi)放共享、?險(xiǎn)防控和商業(yè)利益之間不斷權(quán)衡、動(dòng)態(tài)調(diào)整的。這種平衡和博弈,也反映了當(dāng)前整個(gè)AI領(lǐng)域在開(kāi)源問(wèn)題上的復(fù)雜性和兩難性。GoogleDeepMind開(kāi)源了AlphaFold2和Gemma,但不開(kāi)源前沿模型Gemini2024年2?,GoogleDeepMind的?席執(zhí)?官DemisHassabis在接受《紐約時(shí)報(bào)》專訪時(shí)57,談及如何看待通過(guò)開(kāi)源使基礎(chǔ)模型可?增加了被惡意使?其能?的?險(xiǎn)這?批評(píng)。DemisHassabis提到,開(kāi)源和開(kāi)放科學(xué)對(duì)于AGI技術(shù)的發(fā)展顯然是是有益的。但他也指出開(kāi)源可能帶來(lái)的?險(xiǎn),特別是對(duì)于強(qiáng)?的AGI技術(shù),因?yàn)槠渫?性,?旦開(kāi)源就可能被惡意利?。他解釋說(shuō),GoogleDeepMind決定開(kāi)源Gemma模型的原因是因?yàn)镚emma是輕量級(jí)的版本,相對(duì)于前沿模型Gemini來(lái)說(shuō),它的能?已經(jīng)得到了很好的測(cè)試和理解,因此GoogleDeepMind認(rèn)為這種規(guī)模的模型相關(guān)的?險(xiǎn)并不?。他還強(qiáng)調(diào)了安全性、魯棒性和責(zé)任性的重要性,特別是在接近AGI時(shí),必須更加謹(jǐn)慎地考他認(rèn)為,對(duì)于開(kāi)源的極端主義者,必須更多地考慮這些問(wèn)題,因?yàn)檫@些系統(tǒng)變得越來(lái)越強(qiáng)?。?此前,DeepMind還開(kāi)源了AlphaFold2,但也通過(guò)內(nèi)部機(jī)構(gòu)審查委員會(huì),外部?物研AlphaFold2的收益盡可能地?泛可?,同時(shí)保持對(duì)其局限和準(zhǔn)確性的透明度58。總的來(lái)說(shuō),DemisHassabis和DeepMind?持開(kāi)源,但同時(shí)也強(qiáng)調(diào)了在開(kāi)源時(shí)需要考慮的安全性和潛在?險(xiǎn),特別是在AGI技術(shù)??。他們傾向于在確保?險(xiǎn)可控的情況下進(jìn)?開(kāi)源,以促進(jìn)技術(shù)的健康發(fā)展和?泛應(yīng)?。/research/gpt-2-1-5b-release.56DavidHarris,“Open-SourceAIIsUniquelyDangerous”,2024-01-12,/open-source-ai-2GGG932122.57HardFork,“GoogleDeepMindC.E.O.DemisHassabisontheChatbotstoA.G.I.”,2024-02-23,es.58GoogleDeepmind,“Howourprincipleshelpedde?neAlphaFold'srelease”,2022-09-14,https://deepmind.google/discover/blog/how-our-principles-helped-de?ne-alphafolds-release.AI合作伙伴關(guān)系建議謹(jǐn)慎發(fā)布前沿模型2023年10發(fā)布《安全基礎(chǔ)模型部署指南》59,為AI模型提供商提供了?個(gè)框架,AI能?和?途。為了解決這些深遠(yuǎn)的影響,PAI強(qiáng)調(diào)需要采取集體?動(dòng)和共享安全原則。這種協(xié)作?法涉及各個(gè)不同利益相關(guān)?,包括?業(yè)界、?間機(jī)構(gòu)、學(xué)術(shù)界和政府。?標(biāo)是為負(fù)責(zé)任的模型開(kāi)發(fā)和部署建?集體共識(shí)的最佳實(shí)踐,從?落實(shí)AI安全原則。指南的主要特點(diǎn):為了適當(dāng)?shù)亟鉀Q?險(xiǎn),模型部署指南的?針是根據(jù)每個(gè)AI模型?泛的適?性。模型部署指南適?于從現(xiàn)有到前沿的基礎(chǔ)模型全譜系。學(xué)術(shù)界探討了開(kāi)放?能?基礎(chǔ)模型的潛在?險(xiǎn)和替代?案益和替代?案進(jìn)?了評(píng)估。AI控AI,并可關(guān)閉模型本?設(shè)計(jì)的安全措施。59GuidanceforSafeFoundationModelDeployment”,2023-10-24,60Elizabeth“Open-SourcingHighlyCapableFoundationModels”,2023-09-29,?偏向于攻擊,因?yàn)閻阂?為者可以更容易地發(fā)現(xiàn)和利?漏洞,開(kāi)源也不利于修復(fù)漏洞以及改進(jìn)措施在下游實(shí)施。?組織安全合作,?勵(lì)和實(shí)現(xiàn)更?泛地參與AI開(kāi)發(fā)、評(píng)估和治理過(guò)程。鑒于這些潛在?險(xiǎn)、攻防失衡和替代?案,為幫助建?負(fù)責(zé)任開(kāi)源的最佳實(shí)踐,在安全的前提下保留開(kāi)源的優(yōu)勢(shì)。作者為開(kāi)發(fā)者、標(biāo)準(zhǔn)制定機(jī)構(gòu)和政策制定者提出了以下建議:除了評(píng)估模型的危險(xiǎn)能?和直接濫?之外,還必須考慮模型微調(diào)或修改可引發(fā)的濫?。開(kāi)發(fā)者應(yīng)考慮開(kāi)源的替代?案,在獲得技術(shù)和社會(huì)效益的同時(shí),?沒(méi)有太?的?險(xiǎn)。AI開(kāi)發(fā)和治理決策的?泛監(jiān)督等。標(biāo)準(zhǔn)應(yīng)基于對(duì)發(fā)布不同組件特定組合所帶來(lái)的?險(xiǎn)的理解。政府應(yīng)對(duì)開(kāi)源AI模型進(jìn)?監(jiān)督,并在?險(xiǎn)?夠?時(shí)實(shí)施安全措施。AI開(kāi)發(fā)者或許不會(huì)?愿采??險(xiǎn)評(píng)估和模型共享標(biāo)準(zhǔn),政府需要通過(guò)法規(guī)來(lái)執(zhí)?此類(lèi)措施,并建?有效執(zhí)?此類(lèi)監(jiān)督機(jī)制的能?。Mila等機(jī)構(gòu)的學(xué)者提出可下載模型微調(diào)的?益便捷可能會(huì)增加?險(xiǎn)2023年12?,Mila、英國(guó)AI安全研究所、劍橋?學(xué)等機(jī)構(gòu)的研究?聯(lián)合發(fā)布論?《可下61AlanChanetal.“HazardsfromIncreasinglyAccessibleofDownloadableFoundationModels”,,g.基礎(chǔ)模型的權(quán)重,3.2節(jié)將進(jìn)?步討論)。論?討論了以下?個(gè)主要??:(如改進(jìn))來(lái)降低微調(diào)的技術(shù)?檻和成本,使得更?泛的??群體能夠便捷地使?這些模型。潛在緩解措施和收益:論?討論了可能的緩解策略,例如使預(yù)訓(xùn)練模型更難針對(duì)特定記憶信息。同時(shí),論?也指出了微調(diào)的可訪問(wèn)性提?可能帶來(lái)的潛在好處,如促進(jìn)學(xué)術(shù)研究、適應(yīng)新的?例、避免權(quán)?不平衡等。論?強(qiáng)調(diào)了在開(kāi)放模型和提?微調(diào)可訪問(wèn)性的同時(shí),需要平衡潛在的收益和?險(xiǎn),并并投?場(chǎng)?:?勵(lì)開(kāi)放,邊際?險(xiǎn)的嚴(yán)謹(jǐn)證據(jù)仍相當(dāng)有限產(chǎn)業(yè)界領(lǐng)先的AI開(kāi)源機(jī)構(gòu):僅列舉開(kāi)源了其最強(qiáng)模型的機(jī)構(gòu)等多個(gè)重要的項(xiàng)?。他考量?法開(kāi)源。在?模型??,2022年5?發(fā)布?語(yǔ)?模型,2023年2?發(fā)布Llama模型,都為?商業(yè)研究?途免費(fèi)開(kāi)放,并在2023年7?和2024年4?分別開(kāi)源了可直接商?的?模型Llama2和Llama3。?席科學(xué)家楊?昆認(rèn)為64,開(kāi)源的?模型能夠吸引AI必須是開(kāi)源的,因?yàn)楫?dāng)?模型成為通信結(jié)構(gòu)的重要組成部分時(shí),我們都需要有?個(gè)通?的基礎(chǔ)設(shè)施。62Henderson,“Self-DestructingModels:IncreasingtheCostsofHarmfulDualUsesofFoundationModels”,,g.63HAI,“HowtoPromoteResponsibleOpenFoundationModels”,2023-10-3,/news/how-promote-responsible-open-foundation-models.64“HownottobestupidaboutAI,withLeCun”,2023-12-22,BigScience是?個(gè)由學(xué)術(shù)界和?業(yè)界合作發(fā)起的國(guó)際開(kāi)源研究項(xiàng)?,旨在訓(xùn)練和開(kāi)源有益于科學(xué)發(fā)展的?規(guī)模AI模型,在推動(dòng)?模型開(kāi)源和多樣性???在前列。2022年5?他們發(fā)布BLOOM-17GB等?規(guī)模多語(yǔ)?開(kāi)源對(duì)話模型,希望讓不同語(yǔ)?和?化背景的??都能使?先進(jìn)AI技術(shù)。該項(xiàng)?由Hugging聯(lián)合創(chuàng)始?ThomasWolf構(gòu)想,他希望與?公司競(jìng)爭(zhēng),的?規(guī)模語(yǔ)?模型,讓更多?能使?和研究。EleutherAI發(fā)布系列等免費(fèi)商?授權(quán)的開(kāi)源模型,這些模型有不同規(guī)模,全部采?公開(kāi)數(shù)據(jù)進(jìn)?訓(xùn)練,旨在幫助研究?員理解?模型訓(xùn)練的不同階段。Connor是AI研究??發(fā)揮了重要作?,但Connor也批評(píng)是“最不負(fù)責(zé)任的AI參與者”,StabilityAI是?家致?于開(kāi)發(fā)先進(jìn)的圖像?成軟件開(kāi)源AI的公司。其代表作StableDi?usion軟件在業(yè)界享有盛譽(yù),最強(qiáng)?的開(kāi)源圖像?成模型之?,被?泛應(yīng)?于圖像識(shí)別、?成和編輯等領(lǐng)域,推動(dòng)了AI藝術(shù)創(chuàng)作的發(fā)展和普及。AI戰(zhàn)略的重要組成部分,致?于推動(dòng)AI技術(shù)的研究、開(kāi)發(fā)和應(yīng)?。TII在開(kāi)源?模型領(lǐng)域取得了重?進(jìn)展,推出180B模型,為全球研究?員和開(kāi)發(fā)者提供了寶貴的資源。TII將180BAI研究的合作和發(fā)展,成為阿聯(lián)酋和中東地區(qū)積極發(fā)展AI技術(shù)的體現(xiàn)。IBM和聯(lián)合發(fā)起AI聯(lián)盟,合作推動(dòng)開(kāi)放、安全、負(fù)責(zé)任的AI發(fā)展2023年12?,IBM和Meta聯(lián)合發(fā)起AI聯(lián)盟(AIAlliance)67。這是?個(gè)國(guó)際性的技術(shù)開(kāi)發(fā)者、研究?員和采?者社區(qū)。AI聯(lián)盟由超過(guò)50個(gè)創(chuàng)始成員和協(xié)作者組成,包括AMD、CERN、?歌、英特爾、Hugging等知名機(jī)構(gòu)。該聯(lián)盟旨在通過(guò)開(kāi)放創(chuàng)新和科學(xué),聚焦于加速負(fù)AI硬件加速器?態(tài)系統(tǒng)的繁榮,以及?持全球AI技能培訓(xùn)和探索性研究。65StasBekman,“千億參數(shù)開(kāi)源?模型BLOOM背后的技術(shù)”,2022-07-14,https://huggingface.co/blog/zh/bloom-megatron-deepspeed.6,,,.67AIAlliance,“AIAllianceAnnounces25+NewMembers,LaunchesAISafetyandAIPolicyWorkingGroupstoEnableOpen,Safe,andResponsibleAIforAll”,2024-02-08,https://thealliance.ai/news.負(fù)責(zé)任創(chuàng)新實(shí)驗(yàn)室發(fā)布聚焦于負(fù)責(zé)任AI的?愿承諾協(xié)議2023年11?,總部位于舊??的負(fù)責(zé)任創(chuàng)新實(shí)驗(yàn)室(ResponsibleInnovationLabs,RIL)68發(fā)布了針對(duì)初創(chuàng)公司及其投資者的?個(gè)?業(yè)驅(qū)動(dòng)的負(fù)責(zé)任AI承諾。這些承諾包括五個(gè)關(guān)鍵?動(dòng)步驟:確保組織對(duì)負(fù)責(zé)任AI的認(rèn)同、通過(guò)透明度建?信任、預(yù)測(cè)AI的?險(xiǎn)和收益、審計(jì)和測(cè)試以確保產(chǎn)品安全、進(jìn)?定期和持續(xù)的改進(jìn)。這??愿性協(xié)議旨在提供實(shí)?指導(dǎo),由多部AI初創(chuàng)公司、學(xué)術(shù)界和美國(guó)商務(wù)部。協(xié)議聚焦于負(fù)責(zé)任AI的?愿承諾,為早期階段的初創(chuàng)公司提供了針對(duì)其特定需求的資源。RIL的?標(biāo)是為?益增多學(xué)術(shù)界Mozilla發(fā)起《關(guān)于AI安全和開(kāi)放的聯(lián)合聲明》主張以公開(kāi)訪問(wèn)和審查增強(qiáng)安全性69聲明指出,當(dāng)前正處于AI治理的關(guān)鍵時(shí)期。為了減輕當(dāng)前和未來(lái)AI系統(tǒng)可能帶來(lái)的傷害,?不同領(lǐng)域的專家,如Meta的楊?昆、斯坦福?學(xué)的吳恩達(dá)、哥倫?亞?學(xué)的CamilleFran?ois、Mozilla的MarkSurman、加州?學(xué)伯克利分校的DeborahRaji、諾?爾和平獎(jiǎng)得主MariaRessaRappler、EleutherAI的StellaBiderman等1800多位簽署者。從開(kāi)源到開(kāi)放科學(xué),聲明呼吁采取多樣化的?法:為專注于創(chuàng)造負(fù)責(zé)任AI的新參與者降低進(jìn)??檻。當(dāng)談到AI安全和安保時(shí),強(qiáng)調(diào)“開(kāi)放性是?種解藥,?不是毒藥”。普林斯頓?學(xué)等機(jī)構(gòu)的學(xué)者探討開(kāi)放基礎(chǔ)模型的社會(huì)影響,?求促進(jìn)討論的精確性7068ResponsibleInnovationLabsIntroducingtheResponsibleAICommitments2024-04-23(引??期),/responsible-ai.69Camilleetal.,“JointonAISafetyandOpenness”,2023-10-31,/letter/.70SayashKapooretal.,“OntheSocietalImpactofOpenFoundationModels”,2024-02-27,/open-fms/.(通過(guò)允許更?泛的?訪問(wèn))、本地適應(yīng)和推理(??可??)。這些特性帶來(lái)許多收益:?閉源軟件更容易受到攻擊或更不安全72。對(duì)模型權(quán)重的?泛訪問(wèn)可實(shí)現(xiàn)某種形式的使?其框架對(duì)開(kāi)放基礎(chǔ)模型的?險(xiǎn)進(jìn)?評(píng)分研究。表明該步驟已明確完成;?表?部分完成;?表?不存在該步驟(完整論?清單)7371RishiBommasanietal.,“ConsiderationsforGoverningOpenFoundationModels”,2023-12-13,/issue-brief-considerations-governing-open-foundation-models.72GuidoSchryen,“IsOpenSourceSecurityaMyth?”,2024-04-12,g.73SayashKapooretal.,“OntheSocietalImpactofOpenFoundationModels”,2024-02-27,/open-fms/.框架步驟步驟描述以?絡(luò)安全(?動(dòng)漏洞檢測(cè))為例威脅識(shí)別指定威脅是什么以及來(lái)?誰(shuí)?所有濫?分析都應(yīng)系統(tǒng)地識(shí)別和描述正在分析的潛在威脅為了提出明確的假設(shè)。漏洞檢測(cè)?具可?于?動(dòng)執(zhí)?發(fā)現(xiàn)軟件漏洞的過(guò)程。威脅?為者包括個(gè)??客、?團(tuán)體或國(guó)家?持的攻擊者。現(xiàn)有?險(xiǎn)這種威脅的現(xiàn)有?險(xiǎn)是什么?攻擊者受益于漏洞檢測(cè)中?然最壞情況的不對(duì)稱性:攻擊者只需利?(不考慮開(kāi)放在許多情況下,公開(kāi)發(fā)布模型的?險(xiǎn)已經(jīng)單個(gè)有效漏洞即可成功,?防御者必須防御所有漏洞才能成功。現(xiàn)有基礎(chǔ)模型)存在于現(xiàn)實(shí)世界(盡管?chē)?yán)重程度可能有所?險(xiǎn)很?程度上受到攻擊者資源的影響:?練的攻擊者經(jīng)常在攻擊設(shè)不同)。計(jì)中使??動(dòng)漏洞檢測(cè)?具。模糊測(cè)試?具?期以來(lái)?直被?來(lái)查找軟件中的漏洞,Metasploit等?具也是如此,Metasploit是?個(gè)免費(fèi)的滲透測(cè)試框架,可以幫助?動(dòng)漏洞檢測(cè)。MITRE的AI系統(tǒng)對(duì)抗威脅格局是對(duì)抗性機(jī)器學(xué)習(xí)的?絡(luò)安全威脅矩陣,包括許多利?封閉基礎(chǔ)模型和其他類(lèi)型的機(jī)器學(xué)習(xí)模型來(lái)檢測(cè)漏洞的技術(shù)。現(xiàn)有防御這種威脅的現(xiàn)有防御是什么??絡(luò)安全防御通常采?縱深防御策略,其中防御是分層的,以確保基(不考慮開(kāi)放開(kāi)放基礎(chǔ)模型的許多所謂?險(xiǎn)都有現(xiàn)有的于?層中未解決的漏洞的利?不會(huì)影響其他防御層。在漏洞檢測(cè)設(shè)置基礎(chǔ)模型)防御措施。中,防御者可以搶先使?漏洞檢測(cè)?具來(lái)檢測(cè)和修補(bǔ)安全威脅,這同樣取決于他們對(duì)資源的訪問(wèn)。漏洞賞?等激勵(lì)策略可以通過(guò)激勵(lì)漏洞發(fā)現(xiàn)者(?客、安全研究?員、公司)報(bào)告漏洞,在?定程度上使攻防平衡向有利于防御的?向傾斜。邊際?險(xiǎn)這種威脅的?險(xiǎn)增量是什么?我們不知道現(xiàn)有證據(jù)表明惡意?為者已成功使?開(kāi)放基礎(chǔ)模型來(lái)?動(dòng)(marginal?旦威脅途徑、現(xiàn)有?險(xiǎn)?平以及現(xiàn)有防檢測(cè)漏洞。存在暗??具?告,聲稱可以促進(jìn)?動(dòng)漏洞檢測(cè),但尚不risk)的證據(jù)御措施的范圍明確后,理解開(kāi)放發(fā)布模型清楚這些產(chǎn)品是否依賴于開(kāi)放基礎(chǔ)模型。在考慮相對(duì)于封閉基礎(chǔ)的邊的邊際?險(xiǎn)就?常重要。不僅要與現(xiàn)有技際?險(xiǎn)時(shí),雖然可以更好地監(jiān)測(cè)封閉基礎(chǔ)模型的濫?情況,但尚不清術(shù)(如互聯(lián)?)相?較,還要與閉源的基楚此類(lèi)?途是否會(huì)得到可靠性識(shí)別。也就是說(shuō),使?封閉基礎(chǔ)模型進(jìn)礎(chǔ)模型的發(fā)布相?較。?漏洞檢測(cè)并不?定是濫?,這引?了區(qū)分?于?動(dòng)漏洞檢測(cè)的封閉基礎(chǔ)模型的合法和惡意使?的重要分類(lèi)問(wèn)題。新?險(xiǎn)防御改進(jìn)防御措施以應(yīng)對(duì)新?險(xiǎn)有多難??模型可以納?信息安全?具包中以加強(qiáng)防御。展?了?模型如何擴(kuò)難易度雖然現(xiàn)有的防御措施為應(yīng)對(duì)開(kāi)放基礎(chǔ)模型?流?的模糊測(cè)試?具OSS-Fuzz的覆蓋范圍。基礎(chǔ)模型還可?于監(jiān)引?的新?險(xiǎn)提供了基線,但可以實(shí)施新測(cè)來(lái)?已部署軟件系統(tǒng)的信號(hào),以發(fā)現(xiàn)主動(dòng)攻擊的跡象。Google在其的防御措施或修改現(xiàn)有的防御措施,以應(yīng)流?的惡意軟件檢測(cè)平臺(tái)Virus-Total中利?了?模型,使?模型來(lái)幫對(duì)總體?險(xiǎn)的增加。助解釋特定?件中包含的惡意軟件的功能。縱深防御在輔助防御??將繼續(xù)發(fā)揮重要作?。?論?于?動(dòng)漏洞檢測(cè)的模型是開(kāi)放還是封閉的,信號(hào)以及以機(jī)器規(guī)模和速度分析信號(hào)的能?都可以為防御者提供不同的?持,因其可以更好地訪問(wèn)系統(tǒng)。不確定性和分析中隱含的不確定性和假設(shè)是什么?對(duì)邊際?險(xiǎn)和防御難易度的分析假設(shè)防御者將繼續(xù)更好地訪問(wèn)最先進(jìn)假設(shè)?些分歧可能源于不同研究?員對(duì)開(kāi)放基的漏洞檢測(cè)?具,包括基于開(kāi)放基礎(chǔ)模型的?具。它還假設(shè)防御者投礎(chǔ)模型?態(tài)系統(tǒng)未明確的假設(shè)。該框架要資使?這些?具來(lái)更新他們的信息安全實(shí)踐,并且隨著模型能?的提求研究?員對(duì)其具體說(shuō)明,以澄清分歧。?,攻防平衡不會(huì)發(fā)?巨?變化。?險(xiǎn)評(píng)估框架對(duì)?絡(luò)安全?險(xiǎn)分析的實(shí)例化7474SayashKapooretal.,“OntheSocietalImpactofOpenFoundationModels”,2024-02-27,g.(如上表所?)AI進(jìn)?防御。對(duì)于后者,開(kāi)放基礎(chǔ)模型?前?前帶來(lái)了相當(dāng)?的邊際?險(xiǎn),?且看似合理的防御似乎很困難。最后,作者希望其概念框架能夠幫助彌補(bǔ)當(dāng)前實(shí)證證據(jù)的不?,并提出以下政策建議:AI實(shí)踐,以及哪些留給可能修改模型以在?向消費(fèi)者的應(yīng)?程序中使?的下游開(kāi)發(fā)者。應(yīng)采??險(xiǎn)評(píng)估框架來(lái)明確闡明公開(kāi)發(fā)布基礎(chǔ)模型?險(xiǎn)確實(shí)?法制定良好防御措施。?前這種邊際?險(xiǎn)的證據(jù)仍然相當(dāng)有限75。兩種?場(chǎng)的異同點(diǎn)開(kāi)源開(kāi)放對(duì)加速創(chuàng)新、提?透明度、促進(jìn)科審慎開(kāi)放??勵(lì)開(kāi)放?總體態(tài)度認(rèn)為隨著基礎(chǔ)模型能?的增強(qiáng),當(dāng)前的開(kāi)源?化可能需要調(diào)整,以確保安全和責(zé)任,?持有條件、漸進(jìn)式的開(kāi)源收益vs?險(xiǎn)承認(rèn)開(kāi)源有助于外部監(jiān)督、加速進(jìn)步等優(yōu)點(diǎn),但認(rèn)為對(duì)于?能?模型,開(kāi)源的?險(xiǎn)可能?于收益強(qiáng)調(diào)開(kāi)源在分配模型?為定義權(quán)、促進(jìn)創(chuàng)新、?持科研、實(shí)現(xiàn)透明、減輕單??化等??的重要價(jià)值。應(yīng)客觀評(píng)估開(kāi)源的邊際?險(xiǎn),很多?險(xiǎn)在閉源情況下也存在75RishiBommasanietal.,“ConsiderationsforGoverningOpenFoundationModels”,2023-12-13,/issue-brief-considerations-governing-open-foundation-models.審慎開(kāi)放??勵(lì)開(kāi)放?如何開(kāi)源主張盡可能完全、直接地開(kāi)源源代碼、模型、權(quán)重等,及時(shí)開(kāi)源有助于發(fā)現(xiàn)和修復(fù)問(wèn)題,即使是前沿模型也應(yīng)盡快開(kāi)源,但要有配套的安全防護(hù)安全保障主張開(kāi)源前應(yīng)進(jìn)?強(qiáng)有?的濫?檢測(cè)、使?限制等安全保證,??險(xiǎn)時(shí)不應(yīng)開(kāi)源,政府應(yīng)加強(qiáng)監(jiān)管執(zhí)法提倡在開(kāi)源的同時(shí)加強(qiáng)防御措施,??嚴(yán)格管控。呼吁明確開(kāi)發(fā)者和下游開(kāi)發(fā)者的責(zé)任劃分監(jiān)管政策更傾向于嚴(yán)格監(jiān)管。建議制定細(xì)粒度的模型開(kāi)源標(biāo)準(zhǔn),政府應(yīng)對(duì)??險(xiǎn)模型實(shí)施必要的安全管控措施擔(dān)?監(jiān)管過(guò)嚴(yán)會(huì)抑制創(chuàng)新,主張更多地依靠?業(yè)?律,提醒應(yīng)評(píng)估監(jiān)管對(duì)開(kāi)源創(chuàng)新?態(tài)的影響,政策制定應(yīng)有充分的?險(xiǎn)證據(jù)?撐,競(jìng)爭(zhēng)機(jī)構(gòu)應(yīng)衡量開(kāi)放性的價(jià)值審慎開(kāi)放?vs?勵(lì)開(kāi)放?的?場(chǎng)對(duì)?(本報(bào)告?制)爭(zhēng)論之外的?場(chǎng)三:是否開(kāi)源主要取決于商業(yè)考量在審慎開(kāi)放和?勵(lì)開(kāi)源這兩種?場(chǎng)的爭(zhēng)論之外,還存在?類(lèi)觀點(diǎn)認(rèn)為企業(yè)決定是否開(kāi)源前沿模型,很?程度上取決于其商業(yè)利益的考量,??對(duì)濫??險(xiǎn)的審慎權(quán)衡。、xAI,以及國(guó)內(nèi)的智譜AI和百川智能等AI企業(yè)采納了開(kāi)源與閉源并?的策CEO李彥宏所指出字節(jié)跳動(dòng)AILab總監(jiān)李航引?微軟全球執(zhí)?副總裁沈向洋的觀點(diǎn),強(qiáng)調(diào)企業(yè)的開(kāi)源決策與其市場(chǎng)地位緊密相關(guān)76。?業(yè)的領(lǐng)導(dǎo)者可能不會(huì)選擇開(kāi)源,第?名肯定不會(huì)開(kāi)源,第?名想要、Anthropic?前尚未開(kāi)源,?和Amazon等公司開(kāi)源并?出于其他考慮,?主要是為了獲取商業(yè)利益優(yōu)勢(shì)。此外,?之暗?的CEO楊植麟也表?77,領(lǐng)先的同時(shí),智源研究院和智譜AI等機(jī)構(gòu)簽署的《北京AI安全國(guó)際共識(shí)》78也表明,?論開(kāi)源還?結(jié)AI開(kāi)源的爭(zhēng)論中,我們識(shí)別了兩種主要?場(chǎng):??是審慎開(kāi)放的倡導(dǎo)者,他們AI模型時(shí),商業(yè)利益AI的真正含義,探索不同76薛瀾等,“中國(guó)在這?波??智能浪潮中處于什么位置?”,2024-03-26,/s/ovBVf8ortxfMoIEW8A23cw.77張?珺,“?之暗?楊植麟復(fù)盤(pán)?模型創(chuàng)業(yè)這?年:向延綿?未知的雪?前進(jìn)”,2024-03-01,/s/kEKotLcnlFK0jf8gNajXIg.78YoshuaBengioetal.,“北京AI安全國(guó)際共識(shí)”,2024-03-11,.開(kāi)源vs閉源,是錯(cuò)誤的?分法空間,這似乎是?個(gè)需要多元專業(yè)知識(shí)才能解決的社會(huì)技術(shù)設(shè)計(jì)問(wèn)題。?吉?什·薩斯特?(GirishSastry)79不同于開(kāi)源軟件,開(kāi)源AI的概念尚未得到清晰定義開(kāi)源最初是?于描述開(kāi)源軟件(open-sourcesoftware,簡(jiǎn)稱OSS),它是?種社會(huì)契約,意味著軟件的源代碼是公開(kāi)可訪問(wèn)的,任何?都可以查看、使?、修改和分發(fā),并且是在開(kāi)源許可證下發(fā)布的。開(kāi)源軟件的標(biāo)準(zhǔn)定義必須滿??個(gè)核?標(biāo)準(zhǔn)80,81,包括免費(fèi)提供源代碼、允許衍?作品以及不歧視任何使?該軟件的領(lǐng)域或群體等。因此,開(kāi)源既指源代碼的可?性,也指允許下游不受限制地使?所述代碼的合法許可。然?,隨著像Llama1、Llama2、這樣的AI模型的發(fā)布,“開(kāi)源”這?術(shù)語(yǔ)與將Llama2稱為開(kāi)源模型,但其許可證有?個(gè)限制,即擁有超過(guò)7億?活躍??的下游開(kāi)發(fā)者不能將其?于商業(yè)?途,其輸出也不能?于訓(xùn)練其他?模型83。因此嚴(yán)格來(lái)說(shuō),根據(jù)傳統(tǒng)的開(kāi)源軟件定義,Llama2并不是?了具有使?限制的OpenRAIL(Open&ResponsibleAI)許可證85。拋開(kāi)許可證問(wèn)題,開(kāi)源軟件僅僅指“免費(fèi)且公開(kāi)可下載的源代碼”的概念,并不直接適?于AI,因?yàn)橄到y(tǒng)的構(gòu)建?式不同86。對(duì)于AI系統(tǒng),“源代碼”可以指推理代碼和/或訓(xùn)練代碼,79GirishSastry,“Beyond‘Release’vs.‘NotRelease’”,2021-10-18,/commentary/2021/10/18/sastry.html.80OpenSourceInitiative,“TheOpenSourceDe?nition”,2024-02-16,/osd.81ChooseaLicense,“Licenses”,2024-04-23(引??期),/licenses/.82CenterfortheGovernanceofAI,“Open-SourcingHighlyCapableFoundationModels”,2023-09-29,Open-SourcingHighlyCapableFoundationModels.Release”,2023-07-18,/llama/license/.84OpenSourceInitiative,LLaMa2licenseisnotOpenSource”,2023-07-20,/blog/metas-llama-2-license-is-not-open-source.85CarlosMu?ozFerrandis,“OpenRAIL:openandresponsibleAIlicensingframeworks”,2022-08-31,https://huggingface.co/blog/open_rail.86SidSijbrandij,“AIweightsarenotopen'source'”,2023-06-27,/blog/2023-0G-27-ai-weights-are-not-open-source/.正如開(kāi)放源代碼促進(jìn)會(huì)(OpenSourceInitiative,簡(jiǎn)稱OSI)的執(zhí)?董事StefanoMa?ulli所說(shuō)的,開(kāi)源AI的概念尚未得到清晰定義。不同的組織使?該術(shù)語(yǔ)來(lái)指代不同的事物。這?常令?困惑,因?yàn)槊總€(gè)?都?它來(lái)表?不同程度的“公開(kāi)可?”,并提出了?系列新的挑戰(zhàn),其中最重要的是圍繞訓(xùn)練數(shù)據(jù)的隱私和版權(quán)問(wèn)題87。OSI?2022年OSI的開(kāi)源AI定義?作的2024年時(shí)間線8987EddGent,Decry'IrreversibleProliferation'ofAI”,2023-10-06,/meta-ai.88OpenSourceInitiativeJoinTheDiscussiononOpenSourceAI2024-04-23(引??期),/deepdive.89OpenSourceInitiative,“OpenSourceAIDe?nition”,2024-01-26,/wp-content/uplo
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 班級(jí)紀(jì)律管理與執(zhí)行措施計(jì)劃
- 出售履帶掛車(chē)合同樣本
- 保溫罐車(chē)銷(xiāo)售合同樣本
- 農(nóng)藥化肥合同標(biāo)準(zhǔn)文本
- 2025年小產(chǎn)權(quán)房購(gòu)買(mǎi)合同范本
- 班級(jí)自我評(píng)估與反饋機(jī)制計(jì)劃
- 關(guān)于店鋪?zhàn)赓U合同樣本
- 農(nóng)村舊房買(mǎi)賣(mài)合同樣本
- 出售股合同標(biāo)準(zhǔn)文本
- 沖鋒舟租賃合同范例
- 2025年江蘇金陵科技集團(tuán)有限公司招聘筆試參考題庫(kù)含答案解析
- 觀察小魚(yú)尾鰭內(nèi)血液的流動(dòng)實(shí)驗(yàn)
- 健身會(huì)籍顧問(wèn)
- 電力系統(tǒng)分析知到智慧樹(shù)章節(jié)測(cè)試課后答案2024年秋東北電力大學(xué)
- 2025年中航證券有限公司招聘筆試參考題庫(kù)含答案解析
- 2024年中考?xì)v史真題匯編專題13 材料分析題(中國(guó)史部分)-教師
- 2025年上半年甘肅省林業(yè)和草原局事業(yè)單位招聘筆試重點(diǎn)基礎(chǔ)提升(共500題)附帶答案詳解
- 化工單元操作知到智慧樹(shù)章節(jié)測(cè)試課后答案2024年秋煙臺(tái)職業(yè)學(xué)院
- 魏晉風(fēng)度課件
- 【讀后續(xù)寫(xiě)】2021年11月稽陽(yáng)聯(lián)考讀后續(xù)寫(xiě)講評(píng):Saving the Daisies 名師課件-陳星可
- 化肥利用率研究
評(píng)論
0/150
提交評(píng)論