人工智能與風險治理體系的重構_第1頁
人工智能與風險治理體系的重構_第2頁
人工智能與風險治理體系的重構_第3頁
人工智能與風險治理體系的重構_第4頁
人工智能與風險治理體系的重構_第5頁
已閱讀5頁,還剩7頁未讀 繼續免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

人工智能與風險治理體系的重構

人工智能的“替代”:大數據和算法的“創造性破壞”在農業社會,人們通過植物和動物了解世界。在工業社會,人們通過蒸汽機征服世界。在互聯網時代,人們通過路由器連接世界。在人工智能時代,人們改變了世界。就像望遠鏡讓我們能夠感受宇宙,顯微鏡讓我們能夠觀測微生物一樣,人工智能但脫胎于現代性的人工智能風險也如影隨形般發生了,數據涉及的隱私權問題頻發,年初支付寶年度賬單默認勾選《芝麻服務協議》被質疑侵犯隱私權,百度涉嫌侵害消費者個人信息安全被江蘇省消保委提起公益民事訴訟。而算法涉及的政治倫理問題也開始顯現,特朗普團隊利用數以千萬的Facebook數據,通過挖掘算法使總統大選獲勝;世界上首起UBER自動駕駛汽車公共道路致死案也在美國亞利桑那州發生。隨著平臺企業將人工智能的商業邏輯推向極致,大數據和算法潛在的風險和“創造性破壞”也必將隨之爆發,國家主權、生產關系、社會結構及法律秩序等關鍵議題都面臨著“顛覆式重構”。這集中體現為隱私與數據權、數據歧視、倫理與人格尊嚴、生態、就業、貧富兩極化、國家能力及國家安全等系列問題。正如馬斯克所說:“人類下一個生存威脅恐怕就是人工智能。對于人工智能應該在國際或者國家層面上有相應的監管措施,以防人類做出不可挽回的傻事來。”基于此,筆者主要討論的是人工智能的風險以及人類的法律應對。一方面,以費雪的“行政憲制主義理論”一、心翼翼在汽車中的駕駛與駕駛生活在人工智能時代,不像是處在一輛被小心翼翼控制并熟練地駕駛著的汽車之中,更像是坐在朝向四方疾馳狂奔的不可駕馭的野馬身上,膽戰心驚,更不知道未來會發生什么。(一)人工智能實踐中的問題在一個到處充斥著數據的“人工智能時代”,人類社會正在從“原子世界”向“比特世界”演進,不斷演繹著“人是生而平等的,卻無往不在枷鎖之中”的事情,人工智能賦予了人類很大的自由,人類實踐著空間維度的自由,甚至開始追求時間維度的自由,但過于泛濫的大數據卻給予了人類太多的選擇,能力有限的人類變得如同遇到洪水猛獸般不知所措。這就是未來社會的不可預測性,“被動自由”問題變得日益突出。這主要由以下原因導致:第一,大數據的“全體性”“混雜性”及“相關性”必然帶來的是風險的不確定性。在小數據時代,人們受限于技術,只能選擇分析隨機樣本;但在大數據時代,收集與分析全樣本是現實可行的。大數據中的“大”非絕對意義的大,而是指全數據;第二,算法的不可預見性也直接導致了風險的不確定性。擁有強大算法能力的人工智能決策系統則不同,它能夠在短時間精確計算所有可能性的基礎上,選擇機器認為的最佳方案。而人工智能決策系統并不受預置的價值觀念、經驗法則、道德法制等因素的制約,它們很有可能做出人類根本不可能考慮的實施方案。這就是算法帶來的不可預見性。由此,盡管人類制造了人工智能,但我們卻無法預見到人工智能最終的決策選擇。隨著深度學習技術的進步,人工智能行為的不可預見性問題更加凸顯,而且程度不斷加深。一個具有自主學習能力的人工智能系統,實踐中大數據的喂養使其愈發進化,使得最細心的制造者都沒有辦法控制或預測指數級升級的人工智能的決策過程及決策結果,這就是一個黑箱。第三,架構的封閉性更加劇了風險的不確定性。網絡“性質”并非由上帝的旨意來決定,而僅僅是由它的架構設計來決定。(二)人工智能與人的關系“自然存在度在世界流變體系中呈現為逐層遞減的分布趨勢”,“愈進化的存在物其存在度愈低……它可以顯示某種相對活躍或較為主動的存在‘能力’,卻不得不借助于日益精巧的求存能力來為日益衰落的‘自在’自負其責。”第一,強自主性帶來了失控性問題。與人類早期科技不同,人工智能的本質特征是以行為自動化為基礎的機器決策自主化。這種自主化有強弱之分。以自動駕駛為例,人類對于3級以上的具有自主性決策能力的人工智能系統的監管將是非常困難的。第二,人工智能研發的隱秘性和分散性加劇了失控性。與核能、轉基因等傳統風險源不同,人工智能的研發不需要建造大量的基礎設施,不需要雇傭大量的員工,甚至不需要購置生產設備,只需一臺電腦或一部智能手機即可。因此,大量初創科技公司或個人都從事于人工智能行業,他們甚至可以在全球的每一個角落隨時隨地進行研發。這種物理上的隱秘性和分散性使得監管機關很難確定是誰以及在何處制造潛在的威脅,社會風險由此不斷集聚。(三)人工智能風險在“制度”層面的重構與財富一樣,前現代社會的風險分配是附著在階級模式上,只不過是以顛倒的方式進行:財富在上層聚集,而風險在下層聚集。由此,為了防范人工智能帶來的諸多風險,在不阻礙創新的前提下重構法律治理體系顯得尤為重要。從這個意義上說,我們理應觀察科技風險治理對國家和社會、政府和市場的關系演變以及法律體系歷史變遷的影響,這也是行政法學的重要任務。二、人工智能能否成為治理風險的最佳手段“這是以往的哥白尼革命、達爾文革命及神經科學革命中不存在的,人類在宇宙中的特殊地位受到威脅,人類已不再是信息圈毋容置疑的主宰,機器開始替代我們執行越來越多的原本需要人的思想來解決的任務。”那么,人工智能的風險到底能不能被治理?“某只看不見的手正在建造一種與網絡空間誕生時完全相反的架構,這只看不見的手,由政府和商務共同推動,正在構筑一種能夠實現最佳控制并使高效規制成為可能的架構。”而“技術風險爭論并不單單是一個個不相關聯的技術或倫理上的不同意見,它關系到政府機構應當如何認定和理解技術風險并采取相應的措施”,(一)決策能力:決方案是促進科學決策或專家決策該進路主張科學和專業知識是人工智能風險決策的主要依據。“技術問題的解決方案就是推動和促進科學決策或專家決策……據此,國家須要保證風險決策盡可能地客觀,保證決策者是其專業領域的專家……科學需要被帶入政治過程、帶入規制過程、帶入法庭,這樣,技術風險才能得到恰當的理解。”(二)“科學的‘客觀”該進路主張民主和倫理等價值作為人工智能風險決策的主要依據。“科學的‘客觀性’實際上是給意識形態披上偽裝斗篷,而且風險決策關系到共同體民眾整體上意愿怎樣生活。因此,科學只是一個有限的決策工具……國家應當采取更為民主的應對風險的進路。”(三)人工智能風險治理的目標無論是科學進路,還是民主進路,法律在人工智能風險治理中的作用都被描述成簡單工具性的、無關緊要的或者會起妨礙作用的。事實上,人工智能風險治理的主要目標如下:保護個人數據隱私、安全及相關權益;抵御可能的集體風險,維護國家安全、公共安全及社會穩定;在個人數據權益保護和社會自主創新之間實現平衡。為了實現上述目標,我們需要重構一個風險治理體系,而核心問題是政府和法律的作用。該體系的特征如下:(一)組織社會的自治。在現代社會,我國由于網絡的非開放性架構導致了人工智能風險治理結構的封閉性,具體表現為“行政主體—行政相對人”的固定規制結構,這種封閉性治理結構極大地增加公眾的存在性焦慮及風險的社會可接受性。在抽象體系的交匯口,連接公眾與信任關系的當面承諾,通常表現出明白無誤的可信任性與誠實性,并伴隨著一種“習以為常”或“鎮定自若”的態度。(二)政府與社會的問題面對著以復雜、不確定性和失控性為特征的人工智能風險,我們需要一種整體性的風險治理體系,即應當從中央與地方、政府與市場、立法與行政、國家與社會四個面向,以開放和多維度的方式來重構治理結構,意在實現政府、市場、社會及公眾之間的一個新型社會,一個更開放的社會,一個權力分享的社會,一個網狀的社會。具體來說,對于人工智能的風險治理,我們要實現從單維度到多維度的轉變,我們不僅需要政府的規制,也需要市場的自發秩序;我們不僅需要全國人大的立法規制,也需要國務院的行政規制;我們不僅需要中央政府高屋建瓴式的領導性規制,也需要地方政府對癥下藥式的自主性規制;我們不僅需要國家的外在強制性規制,也需要包括平臺公司在內的社會自我規制。(三)從向權的角度限定行政法學模型傳統的風險治理結構的特征往往是政府向市場、行政向立法、中央向地方、國家向社會的單向權力運動或放權,但對于人工智能的治理,我們需要一種雙向的權力(利)運動模式,即承認上述單向運動的合理性和有效性的同時,還需要一種反向的權力(利)運動形式,即市場向政府、立法向行政、地方向中央、社會向國家的鱘魚回歸式的權力(權利)運行,這一點從某種意義上更為重要。由此,現有的以追求秩序行政為目標,以法律保留原則、法律安定性原則和法律明確性原則為基石的封閉式行政法學理論顯然不足以抑制人工智能帶來的風險。我們無法再以絕對性、確定性、統一性、可計算性為前提的法學理論來構建前人工智能時代的法律秩序,我們需要一種以“開放與分享”為基本特征的整體性四維雙向風險治理體系。三、治理的模式分類根據政府參與的深度和廣度,對于人工智能風險的治理大致可以分為私法模式和公法模式,私法模式以市場為基石,公法模式則以政府為基石。而政府與市場的關系則是四重雙向風險治理體系的第一維度。(一)人工智能賦能政府建設正向運動的產生原因是什么呢?由于包括技術和效率等國家能力的欠缺,以及基于經濟便利和政治因素的考量,政府在很多情況下會考慮通過企業力量和市場機制來實現人工智能行業的發展以及對其風險的防范。但“未來社會的生產部門主要由少數的從業者、機器人以及人工智能共同完成,而憤怒的失業者則構成了社會中的不安定因素”。在政府放任的“野蠻生長”階段,“非法興起”使得市場和平臺公司等商業力量迅速成為人工智能發展的主要推動機制。以此為契機,我國在自動駕駛、語音及人臉識別、智能投顧、機器人等人工智能領域都取得了長足進步;以深度學習為代表的機器技術開始進入政府的智慧城市建設;206工程強勢進入上海法院,人工智能開始成為司法機關重要的輔助決策系統,甚至被認為是法院的未來圖景。以“政府數據開放”為例,政府與企業力量、市場機制實現深度融合的方式如下:第一,政府和企業的全方位戰略合作。如上海市政府與騰訊公司簽訂了戰略合作框架協議,共建智慧城市。雙方通過云計算和大數據能力,推動信息化服務產業鏈條的完形,以及在社會信用管理等領域進行大數據技術的探索。(二)人工智能時代的隱私保護作為人工智能風險治理維度之一的政府和市場關系,往往會經歷雙向運動。“現代社會的原動力是由一雙重傾向支配著:一方面是市場不斷的擴張,另一方面是這個傾向遭到一個相反的傾向———把市場之擴張局限在一個特定的方向———的對抗。這一對抗自律性市場危害性的社會保護傾向非常重要。”那么,這種反向運動的產生原因是什么呢?自生自發的市場秩序從來都是烏托邦,人工智能帶來的巨大風險自然也不能由市場機制本身所能化解,而市場機制自身所帶來的外部性卻日益顯現,具體表現在:第一,隱私權。身處后隱私時代的我們,人人都變成了“透明人”,并深陷于一個巨大的“黑箱社會”之中。“社會個體不知道自己有多少信息被記錄了,這些信息會傳播到什么地方,也不知道哪些人會使用它,使用這些信息的目的何在,更無從知道這些信息的泄露會產生怎樣的后果,依據這些信息所作的判斷是否準確,是否存在偏見或破壞性?”就人類而言,時間是最好的療傷劑,遺忘是常態,記憶才是例外。但隨著人工智能時代的到來,這種平衡被打破了。往事像炫目的刺青一樣永遠刻在我們的數字皮膚上,洗也洗不掉!隨著海量數據存在越來越廉價的云存儲器上,平臺企業對數據的獲取成本遠遠比選擇性刪除某些需要被遺忘數據的時間成本要低得多。于是,“在信息權力與時間的交會處,永遠的記憶創造了空間和實踐圓形監獄的幽靈。完整的數字化記憶摧毀了歷史,損害了我們的判斷和我們及時行動的能力”。隱私的傳統保護模式主要是一種私法機制,采取的是目前仍舊在世界廣泛流行的嚴格的“告知-許可-例外”權利模式。雖然隱私保護的對象大致經歷了從住宅到人、到信息再到數據的轉變,但不變的是在這個過程中市場始終起到了基礎性的配置作用。但在人工智能時代,這種私法保護模式將面臨著越來越多的局限性:其一,不管是告知與許可、模糊化還是匿名化,這三大傳統的隱私保護策略都將失效。第二,倫理問題。不管我們是否承認,“一切被記錄,一切被監管”的人工智能時代已經來臨,數據開放帶來的倫理問題若隱若現,具體表現在:1.大數據和高級算法可能會使所有人喪失了未來的自由選擇權。當醫療數據集比醫生更了解病人身體狀況、醫療病例和醫療方法時,絕大多數病人的選擇很可能是拋棄醫生,而選擇相信精確算法基礎上的人工智能;當基于高級算法的數據集能夠準確預測員工未來幾年的能力值、忠誠度、經濟貢獻值以及生育計劃的話,公司會選擇據此提前解雇某些可能成為負資產的員工;當基于高級算法的健康數據集能夠預測某人未來的健康狀況時,那么沒有保險公司愿意接受他的人壽保險申請;更為恐怖的是,當基于算法的信用數據集可以預測某人未來犯罪的可能性時,公安部門可能會以“預防犯罪”為名提前干預他的自由權利。大數據的高速流動和再利用也許可以“打造一個更安全、更高效的社會,但是卻否定了我們之所以為人的重要組成部分———自由選擇的能力和行為責任自負。大數據成為了集體選擇的工具,但也放棄了我們的自由意志”。2.大數據和高級算法可能會帶來數據歧視問題。數據表面上看是中立的,似乎并不涉及價值判斷,但在數據商業化過程中,一旦冷冰冰的政府數據加上高深理性的算法,數據歧視的產生可能就不可避免了。當健康大數據可以基本準確預測某位孕婦可能懷的是女孩,該孕婦可能會據此選擇墮胎,這是典型的性別歧視;當司法大數據推測黑人的犯罪率較高或阿拉伯人成為恐怖分子的可能性較高,那么監管部門可能會對他們重點監管,甚至提前預防犯罪,而有些公司也可能會據此拒絕雇傭他們,這就是典型的種族歧視和職業歧視;當電商平臺根據消費大數據,用高級算法作一個精確的推薦系統,如收入較低的顧客瀏覽此平臺時,非常多的打折信息會不斷跳出來騷擾,又如平臺給“經常打好評”和“很少退貨者”寄送假貨,而某旅游網站的“同房不同價”,這是典型的消費歧視。這就是人工智能時代“開放的大數據”加上“復雜卻差異化的算法”帶來的歧視,這是商業領域隱匿的“窮人與狗不得入內”。以上市場外部性亟待政府的反向運動通過保護性干預來解決。具體包括:1.建議政府通過立法方式重塑“公正”“合法推定原則”及“無罪推定原則”等概念。在充斥著“過去決定未來”及“數據預測未來”的人工智能社會,政府需要重新定義公正的概念,“個人動因的保護”應成為公正的新內容。人們應該只為他們的行為負責,而不能為未來的趨勢或傾向負責,應當堅決杜絕政府或企業依據大數據預測的行為而非真實的行為對人們進行評級或獎懲。只有這樣,自然人在法律上才是作為真正的“人”來對待,他們有行為選擇自由和通過自主行為被評判的人。這是人工智能時代的“合法推定原則”及“無罪推定原則”的新含義。2.建議政府通過立法的方式積極推動企業算法的公開、公平和公正等特別保護措施。對于政府行為的合法性和合理性,法律設置了非常詳盡的實體法和程序法的規定。但對于同樣涉及我們每個人的權利和自由(甚至我們的未來)等重要利益的企業決策和評價,法律卻沒有任何限制性規定,這在法理上是說不通的。因為商業算法會直接影響到我們每個人的利益,所以企業不僅要遵循公開原則,向全社會無條件公布算法的具體內容;企業還要遵循正當程序原則,不能既作算法的評分裁判者又作算法的事實參與者;企業還要遵循可辯駁原則,企業在對用戶作出不利的評價之前,必須給用戶辯駁和說明理由的機會。總之,市場向政府的反向運動在法律上主要體現為公法模式。這種風險治理模式是通過政府有意識的保護性立法和政府干預手段而實現。它強調的是政府的強力介入,通過詳盡規則的出臺,政府的人為設計甚至是政府的制度性導向來實現人工智能風險的治理。這種模式中起主要作用的公法機制,往往是顯性的。以歐盟為例,對于人工智能涉及的個人隱私等權利保護,成員國并非依賴私法權利體系及個人司法救濟來實現,而主要通過公法機制來實現。“從《數據保護指令》到《統一數據保護條例》,歐盟一直致力于建立‘行業行為準則+法律強制性規范’的雙重規范體系和‘數據控制者自律+政府數據監管機構的監督管理’的雙重管理體系,尤其是新的條例要求歐盟各成員國均要建立獨立的數據監管機構,建立數據主體向監管機構投訴、受理及處理的一整套完備的行政救濟制度框架。”四、國家:培育人工智能風險預防能力人工智能的風險治理應當以公民基本權利的保護為根本出發點,基于人工智能風險預防特征,考察不同國家權力在手段與功能上的配置,實現治理責任的轉移和優化。(一)人工智能風險標準制定中行政權的復雜性在人工智能風險治理的職能分工中,行政機關因其權力的獨特性承擔了越來越多的責任。由此,立法向行政放權的正向運動開始啟動,具體有三種方式:通過《立法法》及其他法律的明文授權,授予行政機關廣泛的行政立法權;通過法律文本中的不確定概念賦予行政機關更多的自由裁量權;通過設置“風險預防原則”賦予行政機關更多的事實上的風險決策權。而這個正向運動主要是由行政的以下特性決定:第一,主動性及調動資源的能力。“行政的作用在于形成社會生活、實現國家目的,特別是在福利國家或社會國家中,國家的任務更為龐雜而繁重,行政往往必須積極介入社會、經濟、文化、教育、交通等各種關系人民生活的領域,成為一只處處看得見的手,如此方能滿足人民和社會的需要。”人工智能風險標準的制定、評估及反饋需要查閱和收集大量相關的風險信息。這類相關信息往往涉及人工智能風險的法律性質、影響的范圍以及政府治理的法律后果,甚至可能直接關系到人工智能項目的生與死。第二,專業性。在時間和空間分離的巨大跨距之中,脫域機制通過將社會關系從它們所處的特色的地域“情境”中提取出來,使得這種時空延伸成為可能。第三,靈活性。與立法機關、司法機關相比,行政機關在機構組織形式、行政負責人的挑選與任期、行使職權的方式等各方面具有更大的自由裁量空間和更多靈活性。事實上,行政機關依據《立法法》擁有了廣泛的立法性權力,依據《行政復議法》擁有了處理法律糾紛的司法性權力,而且還能發揮其實施法律的傳統國家作用。這種“三位一體”的行政權所體現的靈活性對人工智能的風險治理意義重大。風險標準制定中的核心問題是風險的可接受性,這不僅需要考慮特定的科學評估及客觀事實,而且也要關注不同社會階層的社會利益和政治關懷。事實上,立法機關雖然是最民主的,但其不具備處置具體風險的專家系統、機構能力和時間;同樣法院也不具備專家系統,不具備可用來收集風險信息和商談的手段,更缺乏主動對特定風險的持續監管與及時反應的能力。(二)人工智能風險治理中行政自由裁量權的法理構造由于行政缺乏民主正當性,“行政立法”“行政司法”及廣泛的“行政自由裁量權”存在合憲性上的先天性缺陷,行政這個過度膨脹的當代憲制國家“尷尬傳家寶”面臨著“鳩占鵲巢”的嫌疑,這樣一種強大的利維坦式國家作用令人感到不安且充滿了法律爭議。于是,一場保護性的反向運動應運而生,核心問題是如何控制人工智能風險治理中的行政自由裁量權,而這正是法律的主要功能。這種法律的作用本質上是一種行政憲制主義的形式,重點是如何把治理人工智能風險的問題融入公共行政的合法性、合理性及有效性的法律爭論之中。第一,理性—工具范式。該范式下行政的人工智能風險評估及決策行為,可看作是對立法授權所完成的“傳送帶”動作,包括確認特定的技術風險,評估可能采取的規制手段的法律后果及用“利益代表制”確認社會的價值偏好。第二,商談—建構范式。該范式主張授予行政機關行使實質性、強自由的裁量權,立法并非是一套精確的命令,而只是為行政裁量權設定一般性原則和考慮的相關因素。行政不再只是立法的代理人,而是實施其自由意志的機構。事實上,從“行政憲制主義”重新描述人工智能的風險治理,也許并不能直接產生具體的技術解決方案,但卻打開了一扇理論建構之窗,這有利于我們重新定位法律和政府在人工智能風險決策中的重要作用,并促使行政法學者開始試圖重構人工智能風險的整體法律治理系統。五、三維風險管理體系的第三個維度:中央和地方上文提到了市場與政府、立法與行政之間的雙向運動,而縱向的央地關系也是難以回避的維度。(一)重構人工智能風險的治理體系地方政府一方面基于“GDP錦標賽”的需求,積極推動本地經濟試驗與人工智能產業發展深度融合,人工智能產業的實踐推手主要是地方政府而非中央政府;另一方面,對于隨之而來的人工智能風險,地方政府也是身先士卒地積極探索法律治理模式,并不斷積累經驗。我國是一個民主集中制原則下的單一制國家,其特征是中央的領導權和地方的自主權有機結合。而在人工智能的產業發展和風險治理實踐中,我國出現了一個明顯的中央向地方不斷授權以及地方自主權不斷擴大的正向運動,這種正向運動的產生原因如下:第一,單一制與有效治理的融合。按照憲法的規定,我國是單一制國家,體現為中央在財政、人事、自然資源等方面對地方的最高領導權,而有效治理能力的增強是以地方自主權的擴大為基礎,法律上表現為中央向地方的自上而下的放權和授權。周雪光把這種中國國家治理邏輯歸納為“一統體制和有效治理的關系”。第二,新時代的特色法治經驗。重構人工智能風險的治理體系大致需要以下幾步:第一步,由地方政府就風險治理先行先試,積累有效治理的初步經驗;第二步,由地方人大基于已有的“地方性經驗”制定“地方性立法”,然后進一步試錯并積累經驗;第三步,由國務院在充分總結地方經驗教訓的基礎上制定行政法規;第四步,如有必要,再考慮上升為法律,適用于全國。這種新時代的特色法治經驗的形成主要有兩個依據:其一,我國經濟文化情境差異巨大。我國疆域廣闊,人口眾多,多民族多文化,經濟發展極度不平衡,東部、西部以及南方、北方的地理氣候資源變化多端,這決定了我國需要“差異化”的地方性立法及行政;其二,“民主集中制”原則由此看來,對于人工智能的風險治理,地方行使自主權是法律的常態,而中央行使領導權則是法律的例外。只有當地方的行為可能改變中央和地方的政治平衡時,中央領導權的介入才有必要。第一,出臺人工智能的地方規劃及行動方案。據不完全統計,截至2018年3月,全國31省、自治區、直轄市中,包括北京、第二,制定實驗性政策及地方立法。地方政府應當加強人工智能相關法規、倫理和社會問題研究,推動建立保障人工智能發展的法規和倫理道德框架。根據新時代的特色法治經驗,在人工智能產業發達的城市,如深圳或杭州就風險治理進行試點,積累有效治理的初步經驗;由地方人大基于已有“地方性經驗”制定“地方性立法”,然后進一步試錯,為國務院制定行政法規和未來的全國人大立法提供實踐基礎和理論支撐。第三,試驗性設立獨立的人工智能風險及安全監管機構。地方立法既要保證該監管機構組成機構及成員的獨立性,也要確保監管機構行使職權時程序上的透明度。安全監管委員會的主要成員可以從所在地公安局及市場監管局選任,該機構應當具有如下主要職責:人工智能風險的評估及風險標準的制定、風險決策過程正式和非正式的公眾參與制度的出臺、對人工智能平臺企業行使行政調查權及限期整改等矯正性權力、向上級機關或立法機關提出建議的權力以及定期發布人工智能風險預警和治理的年度報告等。由此,地方政府主導的人工智能風險治理試驗從宣示開明的政治姿態演變為動態的經濟實踐,其內在的政治與法律意涵開始不斷豐富。(二)完善人工智能數據標準化的事先行政許可制度人工智能的風險治理應當是一種制度化體系,這種頂層制度設計只能由中央政府來構建和提供,其目的在于保護自然人的數據權益,維護國家安全、公共安全和社會穩定,但卻不能因噎廢食,阻礙數據合法的自由流通并完全禁止人工智能的研發。我們建議,全國人大在充分吸收地方的經驗和教訓的基礎上制定《人工智能發展法》,具體制度如下:第一,設立人工智能系統的登記認證審查制度。立法的重點是圍繞如何在不阻礙創新的前提下最大限度控制和防范人工智能的潛在風險,因此,除了自動駕駛系統這類可能對自然人的人身財產權造成巨大威脅以及智能武器這類可能威脅國家安全、公共安全的人工智能系統之外,立法并不能也沒有必要對所有的人工智能系統設立嚴格的事前行政許可制度。筆者建議,設立適用于所有人工智能系統的登記認證審查制度,即所有的人工智能系統都應當按照法律的要求去監管部門登記備案,但絕大多數并不需要事先取得監管機構的批準性許可文書。同時,實現認證程序與侵權責任體系深度結合。企業可以自愿申請監管部門或授權的專業機構的認證程序,經過權威認證的人工智能系統的設計者、生產者或銷售者僅需承擔有限侵權責任,而沒有經過認證的人工智能系統將會承擔嚴格的連帶責任。筆者還建議,設立抽查式事后的安全審查制度,監管機構審查的關鍵詞是“安全”,即查看人工智能系統“是否落實網絡安全等級保護制度,按照國家標準規范要求,采取管理和技術措施,保護網絡、信息系統、數據資源安全”,立法應當授予監管部門“安全一票否決”的權力,即涉及“安全”問題,監管部門有權強制啟動嚴格的事先行政許可制度,即人工智能系統獲得行政許可需要經過多重多階段的嚴格安全測試,在沒有獲得許可前不能上市銷售。第二,設立人工智能專員制度。當實施政府數據開放和利用的機構是政府部門時,或者當其核心業務是用算法處理大量數據且需要進行定期的、系統化的大規模監控時,或者當其核心業務是用算法去處理就業、社會保險與社會保障法等領域以及與犯罪和違法行為有關的大規模特殊數據時,立法應當明確要求數據控制者和處理者指定一名人工智能專員。第三,建設國家統一的大數據平臺。國家統一大數據平臺需要有足夠的立法支撐和可操作的實施方案,同時應當通過立法設立首席信息官、首席技術官及首席數據官等專業機構。這樣的國家大數據平臺只能由中央政府來建構,并且需要一個較長時間的經驗積累和試錯。從地方分散實踐到中央統一立法的反向運動是可取的,我國地方數據平臺從數據量、時效性、數據集可視化、互動分享等方面與美國存在巨大的差距,其中一個重要原因是各自為政下形成的“低法治”數據割據。由此,一個旨在全面提升數據的有用性和易用性以及公眾數據利用效果的全國性數據開放平臺的建設必須提上全國人大的議事日程,應當將中國最為重要的政府數據統一集中到一個網站,為全國所有公眾無差別地提供一站式的、內容豐富的、便于再利用的數據群,而這個工作只能由《人工智能發展法》來完成。六、科技風險的威脅對于人工智能風險的破壞力和臨界點,人們也許還有不同的見解,但這種科技風險的威脅毫無疑問是巨大的和不確定的。而國家和社會的雙向運動是我們重構風險治理體系必須要考慮的一個維度。(一)國家從國家權力之間關系向國家與民眾關系的轉型當前中國正處于一個尋求新的合法性基礎的過程中,逐步走向建立法治國家,而國家治理的主線也正從國家權力之間關系向國家與民眾之間關系進行轉型。在這種背景下,人工智能的風險治理也正在經歷著國家向社會放權和擴權的正向運動,具體表現為行政機關與平臺企業的合作治理。根據弗里曼的研究,人工智能風險合作治理的規范模型應當具有如下特征:(二)對社會的反思由于人工智能平臺企業的自我治理領域往往沒有清晰的法律邊界,而基于大數據的算法產品卻容易波及社會中的每一個人,這種巨大影響力必將最終損害到國家能力;受到人工智能平臺企業自我治理影響的利害關系人范圍之廣、數量之大,是傳統社會所難以見到的,因而很難設計一種讓所有利害關系人參與到人工智能風險評估和風險決策中來的法律機制。在“大眾創業、萬眾創新”時代,政府機關有意無意地疏忽于“野蠻生長”階段的監管職責,使得人工智能平臺在短時間實現“非法興起”,其后果是威脅公共安全和社會穩定的法律風險短時間內集中爆發。在此背景下,國家必須改變“強社會、弱國家”狀況,啟動一場從社會向國家集權的“反向運動

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論