人工智能時代人體增強問題的道德哲學研究(10篇)_第1頁
人工智能時代人體增強問題的道德哲學研究(10篇)_第2頁
人工智能時代人體增強問題的道德哲學研究(10篇)_第3頁
人工智能時代人體增強問題的道德哲學研究(10篇)_第4頁
人工智能時代人體增強問題的道德哲學研究(10篇)_第5頁
已閱讀5頁,還剩80頁未讀 繼續免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

人工智能時代人體增強問題的道德哲學研究(10篇)第一篇:為了防范人類生存危機,道德增強進入了科技倫理議程中。由于生物醫學道德增強的諸多弊端,各種人工智能道德增強方案被陸續提出,分別為:人工智能作為人類道德決策的“替代者”“建議者”或“對話者”;“替代者方案”將導致道德消亡,阻礙道德進步,但適用于危急情境;“建議者方案”會損害能動者的能動性,固化其道德觀念,但適用于日常決策;“對話者方案”能夠幫助用戶實現道德成長,但無法提供道德動力。混合式道德增強將各方案應用于不同場景,在緊急狀態下調用“替代者”模式,在日常生活道德決策情境中喚醒“建議者”模式,在空閑時段進入“對話者”模式,兼顧三種方案優點又規避其缺陷。但混合式方案仍需要生物道德增強的輔助以提升用戶道德動機,并被納為義務性培訓的一部分。我們現今的世界正面臨著嚴峻的生存危機,生物與核恐怖主義、資源枯竭以及氣候惡化的挑戰使人類必須尋求技術手段進行自我拯救。最初,倫理學家將目光投向生物醫學領域,希望這些技術可以幫助人類實現道德增強。多年的哲學辯論揭示出,生物醫學道德增強技術仍不成熟,且具有嚴重的道德局限性。于是學者開始探索人工智能道德增強,逐漸形成了三種不同的道德增強方案。我國是人工智能研究發展迅猛的經濟體之一,但目前國內學者還未充分探討人工智能道德增強。因此,在本文中,筆者通過批判性地回顧三種AI道德增強方案,以期引起學者對這一領域的重視與討論,進而為國際哲學討論作出貢獻。本文首先梳理AI道德增強的理論背景,然后依次引介與批判三種方案——“替代者方案”“建議者方案”以及“對話者方案”。在揭示各種方案的缺陷及適用情境后,筆者將論證一種結合其各自優勢的混合方案。一、道德增強的人工智能轉向工業革命以降,人類科技達到了空前的高度。科學上的突破使人類的影響力覆蓋全球并影響到遙遠的未來。盡管科技為全球不斷增長的人口帶來了前所未有的福祉,也催生了一些前所未有的倫理問題。過度的消費導致資源枯竭和氣候變暖。隨著科學知識的積累,極端恐怖主義分子可能掌握核武器或生物武器技術,而對無辜的生命造成終極傷害。許多學者認為,這些倫理問題若得不到解決,將會嚴重影響人類未來的福祉,甚至可能危及人類的生存。然而,我們的道德心理難以應對這些挑戰。盡管我們生活在科技高度發達的社群,但我們的道德心理卻是為了在小型、緊密且技術較原始的社群中生活而演化出來的。這種演化的不匹配(mismatch)主要體現在我們的心理傾向和偏見上。例如,我們的道德視野狹窄,關注的重點主要集中在我們自己及親友將要發生的事情上。相反,我們鮮少關懷陌生個體與更大集體所遭受的痛苦;我們對未來世代與非人類動物的道德回應也不夠充分。我們有自私、裙帶關系、仇外與小團體主義等排他性心理傾向。這種心理傾向阻礙我們進行大規模的合作以應對恐怖主義和氣候惡化這類問題。在這種情況下,托馬斯·道格拉斯(ThomasDouglas)和英格馬爾·佩爾松(IngmarPersson)等在2008年提出了通過生物醫學技術提升人類道德能力的觀點。自那時以來,圍繞生物道德增強的辯論在西方學界逐漸升溫,藥物、神經技術、基因編輯等各種各樣的道德增強方案被陸續提出。由于我們的核心道德傾向——利他主義和公正感——是生物學上的特征,一些道德增強的支持者提出,可以通過生物醫學的手段(如藥物、神經技術、基因編輯),增強我們的利他主義傾向。或者,可以利用生物醫學技術增強我們的公正感或公平感,即調整我們某些“以牙還牙”的傾向,使我們更適當地表達感激、憤怒和寬恕等情緒。他們認為,通過這樣的方式,我們將有足夠的道德動機去克服意志力薄弱(weaknessofwill),從而更好地履行我們的道德責任。然而,各種生物醫學道德增強手段的效果往往是微小的、短暫的,且高度依賴情境。這些手段還帶有嚴重副作用。因此,在我們可以放心地使用生物醫學干預進行道德增強之前,還有大量的科學工作要做。無論是藥物、神經技術還是基因編輯,這些增強道德動機的方式都會侵犯到個人的自由。道德動機增強就像一臺“上帝機器”,使人們在心理上無法選擇作出不道德的行為,這無疑會壓抑個人的自主性(autonomy)和道德能動性(moralagency)。為了在保障個人自主性的前提下進行道德增強,一些哲學家轉而推崇用生物醫學手段來增強人們的道德認知能力。由于技術不成熟,腦部刺激等神經技術也無法用于增強道德認知。綜合看來,在當前科技水平下,進行道德增強仍是遙不可及的目標,同時還涉及侵犯個人自由的道德問題。生物醫學道德增強的不足,使許多學者將眼光投向了近十幾年迅速發展的人工智能領域,認為該領域的進步能幫助人類走出當前的倫理困境。一些堅定的生物道德增強的支持者如薩維列斯庫(JulianSavulescu),甚至轉向支持人工智能(AI)道德增強。二、人工智能道德增強的三種現有方案人工智能在道德增強研究的語境下,指的是“無處不在的計算”或“環境智能”,即一個系統收集多個傳感器和數據庫的信息,并根據這些信息與系統用戶所需功能之間的相關性來處理它們。為了利用AI來使個人變得更加道德,倫理學家們提出了AI道德增強的不同方案。根據人工智能在人類道德推理與決策中的不同角色,這些方案大致可以歸為三類:人工智能作為“替代者”“建議者”或“對話者”。1.人工智能作為替代者機器倫理學(machineethics)研究者為AI道德增強提供了第一種方案。機器倫理最初的目的并不在于人類道德增強,而是將機器變成真正的道德決策者。其支持者認為,由于AI的道德決策具有持續的公正性(impartiality)、一致性(consistency),且不受情感影響,它們在道德推理方面會比人類更加出色。AI也不受人類道德心理局限性的困擾:它們不會因以自我為中心或偏袒派系成員(ingroupmembers)而作出非理性的道德決策。此外,機器也不會因為持續作道德判斷而感到疲倦。一些機器倫理學家因此建議創建具有優于人類道德能力的自主人工智能,并用這種AI來全面替代人類作道德決策,從而增強人類的道德行為。一些機器倫理的忠實擁護者如埃里克·迪特里希(EricDietrich)甚至提議使人類完全滅絕,以創造一個只有道德機器人居住的更好世界。他認為,大多數人類由于其生物條件的限制,無法實現以道德的方式決策與行動。自利、偏心等道德心理使人類在決策時往往偏袒自己或親友的利益;而道德機器人并不將自身視為宇宙中心,因而能從無私的(disinterested)觀點出發來決策與行事。根據“替代者方案”,系統設計者首先要預設一種有效的、正確的道德觀念,并根據這種道德觀念來配置AI,以此指導人類的道德實踐。在系統編寫完畢之后,要做正確的事情,人類只需要完全服從AI的指令。這種方案的核心就在于,包括設計者在內的所有人類參與者,在初始編程完成后,都應該采取被動的角色,聽從AI的道德建議。除了決定允許AI為我們作決策之外,我們不需要花費任何心理或行為上的努力來達到期望的道德增強。人類可以通過讓AI直接控制我們的行為來執行這些決策,比如通過腦機接口來讓AI直接主導我們的行動。我們也可以通過政治系統來懲罰任何偏離AI要求的舉動,從而間接地使AI控制我們的行為。“替代者方案”在倫理上飽受爭議。首先,“替代者”AI根據系統設計者所預設的道德觀念來進行道德推理,然而許多人可能并不接受這種道德觀念。當AI替代與之持不同道德觀念的用戶作道德決策時,它將系統設計者的道德觀強加在他們之上,違背后者的自主性(autonomy)。有人可能會爭辯說,這并不必然是個問題,因為多個系統設計者可以開發出多個系統。這樣的話,不同用戶可以自己決定使用哪個系統。然而,這會扼殺不同道德觀念之間對話與協調的可能性。根據“替代者方案”,我們的道德決策權完全交托給了AI,因而我們放棄了在不同的系統對一個道德問題提供不同解決方案的情況下,達成任何協議的可能性。更重要的是,由于失去了對話與達成協議的可能性,“替代者方案”也扼殺了道德進步的可能性。人類道德觀念的演化與進步往往是在不同觀點的交鋒與協調之間逐步產生的,這就是約翰·密爾(JohnStuartMill)贊頌自由思想市場(thefreemarketofideas)的動機。在AI全面替代人類的道德推理活動后,人們不再共同進行道德慎思(moraldeliberation),自由思想市場將不復存在。即使今時今日的人類在某些道德判斷上存在共識,在未來的某個時刻這種判斷可能不再被接受。由于AI無法自動更新其決策模型,如果讓AI來替代人類決策,我們會被困在一個靜態的道德觀念中。最后,“替代者方案”將會導致道德能力的喪失。將我們的道德決策“外包”給AI,這種行為會逐漸弱化我們的道德技能(moralde-skilling)。由于道德決策全由AI來執行,人類在道德推理上的卓越將不再會被重視。我們也因此無法再享受亞里士多德所認可的美好生活中一個基本要素:過一種由實踐發展而來的道德理解所主導的生活。總而言之,“替代者方案”將導致道德本身的消亡,因為道德決策不再由人類而是由道德AI作出,人類儼然成為了AI的追隨者。既然人們已經放棄了他們的道德自主性,扼殺了道德進步的可能性,道德增強也無從談起。不過,在一些十分緊急的道德困境中,“替代者方案”也有其可取之處。例如,一位反恐警察在公共空間中面對一名攜帶大規模殺傷性武器的恐怖分子時,可能會受到厭惡傷害他人的心理傾向之影響,從而未能及時采取行動消除恐怖分子的威脅,導致大量無辜生命的傷亡。“替代者”AI在這種情境中可以迅速作出道德決策,促使能動者及時采取措施。AI道德增強的核心動機是幫助人類規避環境惡化與恐怖主義所引起的生存危機。在與這些危機高度相關的緊急事態中,我們可以正當地(bejustifiedin)將決策權讓渡給道德AI。2.人工智能作為建議者為了彌補“替代者方案”對人類自主性的剝奪與對道德能力的侵蝕,一些AI道德增強的支持者如薩維列斯庫等,提出了人工智能作為道德決策建議者的方案。根據這種方案,用戶需要向AI提供其個人道德準則作為后者進行道德推理的依據。根據用戶個人的道德標準,AI進行道德推理并為用戶提供建議,以供后者在作決策之前參考。道德增強的重要推動者——朱利安·薩維列斯庫——是這一方案的積極倡導者。在他與漢娜·馬斯倫(HannahMaslen)的合著文章中,他們從價值多元論出發,設想人類用戶可以從AI所提供的以下價值中進行選擇,并對其重要性進行自主排序:仁慈(benevolence-helpingothers);非惡意(non-malevolence-notharmingothers);正義或公平(justice/fairness);合法性(legality);環境保護(environmentalprotection);家庭或重要關系(family/significantrelationships);執行義務、承諾或諾言(fulfillingduties/commitments/promises);最大化凈效用(maximisingnetutility-makingsureoverallbenefitsoutweighoverallcosts);他人的自主性(autonomyofothers)。依據用戶對這些價值的選擇與排序,道德AI會作出相應道德推理并推薦與用戶價值體系一致的道德決策。通過允許用戶自主選擇其AI所遵循的特定價值體系,薩維列斯庫與馬斯倫希望盡可能地保障人類道德抉擇與行動的自主性。然而,從價值多元主義的角度看,世間各種事物和行為所包含的道德價值種類,遠超出薩維列斯庫與馬斯倫所列出的價值清單。比方說,一位虔誠的天主教徒可能將上帝的恩寵(grace)與天國的至善視為最為崇高的價值。既然兩位作者從價值多元主義出發,他們也不應將這種準自由主義(quasi-liberal)價值觀中摻雜進道德AI的設計方案中。由于意識到這種設計方案的缺陷,薩維列斯庫與阿爾貝托·朱比利尼(AlbertoGiubilini)在后續文章中建議,我們應該提供不同版本的系統以供用戶選擇,使用戶可以根據他們的價值來選擇他們希望采用的版本。根據這種設計方案,道德AI在某些方面如同一個理想的觀察者,比如它對非道德事實(non-moralfacts)是全知全覺的(omniscientandomni-percipient),即能夠視覺化、想象并同時使用所有信息。同時,在作道德推理時,AI也是無私(disinterested)且不帶情緒的(dispassionate),同時能保持道德判斷的一致性(consistency)。與理想觀察者不同的是,薩維列斯庫與朱比利尼所設想的AI在進行道德判斷時不是基于某種理想觀察者的視角,而是依賴其用戶的道德價值觀。為了解決某些用戶可能持有扭曲的道德觀念這個難題,兩位作者提出兩種策略。根據第一種策略,我們在編寫道德AI時須咨詢一群道德專家。這些道德專家可以決定將哪些基本的道德原則或約束條件作為基本過濾器置入AI之中。在這些約束之內,不同用戶憑借自己的道德觀念來設置AI,以便AI提供定制的道德建議。根據第二種策略,道德專家將更加實質性的道德原則輸入到AI中。例如,我們可以想象,一個天主教道德專家輸入的標準會幫助一個用戶遵守天主教教義,或者一個功利主義哲學家運用功利主義原則給AI編程。每個用戶都能自主選擇使用哪個版本的AI,而無須自己決定用哪些具體的原則來指導AI的道德推理。例如,有些人只想成為好的天主教徒,但不確切知道在不同情況下應用哪些原則。一個天主教道德AI會幫助他們的行為與他們的基本道德觀念保持一致。雖然“建議者方案”相較于“替代者方案”,更加尊重個人的自主性,但它仍存在嚴重的缺陷。第一,用戶的角色仍然過于被動。一旦用戶選擇了他們愿意接納的價值觀,他們的能動性只剩下決定是否接受AI道德推理得出的建議。由于用戶不需要理解他們的價值觀與AI所作的決策之間的理性聯系,他們的道德技能無法大幅提升。“建議者方案”主要關注的是幫助用戶作出正確的道德決策,而非助力用戶成為更優秀的道德能動者,如果有一天AI停止運作,用戶可能無法作出比他們最初就能作出的更好道德決策。第二,一旦用戶確定了AI所依據的價值框架,AI將僅推薦符合這種框架的決策,而不是鼓勵用戶質疑這個框架。薩維列斯庫與馬斯倫也認識到了這一點,因而他們寫道,使用機器可能會鼓勵人們順從,而不是進行“深入反思”。人們通常就不愿意改變自己價值觀念,如果他們認為自己的決策是基于可靠AI的建議,他們會更加不愿意改變。雖然“建議者方案”允許不同觀點的多樣性,容納了一定程度的個人自主性,但很難看出它如何能夠促進不同價值觀念之間的對話與協調,如何促進道德進步。即使“建議者方案”具有上述缺陷,它也有一定可取之處,適用于特定情境。首先,很多時候人們并非不想行道德之事,而是缺乏認知能力去弄清在特定情境中采取哪些行為才符合自己的道德標準。在這些情況下,“建議者”AI可以減輕用戶的認知負擔,幫助用戶輕松作出符合其道德觀念的行動。而且,即使人們不使用“建議者”AI,他們也很少修正自己的價值觀念。在這種前提下,雖然道德AI需要增添其他功能來促使用戶進行道德反思,但在日常生活中輔助用戶作出符合自身價值觀念的道德決策也是可取的(desirable)。3.人工智能作為對話者由于“替代者方案”與“建議者方案”都無法完全做到尊重用戶的自主性,也無法推動道德反思與道德進步,弗朗西斯科·拉拉(FranciscoLara)提出了道德AI作為人類對話者——蘇格拉底式AI——的方案。這種方案從蘇格拉底式對話(dialogue)中獲得啟發,將AI作為一種與用戶對話來幫助其道德成長(moraldevelopment)的工具,而不是作為預編的(preprogrammed)道德原則或價值清單的存儲庫。在蘇格拉底哲學中,蘇格拉底被視為一個助產士,幫助對話者產出他們自己的知識。按照“對話者方案”,AI避免根據某種既定道德觀念為用戶作決策或提供建議,而是鼓勵用戶自己進行道德推理。不過,當用戶的道德推理中存在經驗論據和邏輯推導的錯誤,或者用戶使用可疑的道德原則時,AI會質疑用戶。它會敦促用戶重新考慮證據和論證,以此來幫助他們提升自己的道德判斷能力。具體來說,一個“對話者”AI具有以下關鍵功能。①提供經驗支持。AI有能力快速處理大量數據,可以在用戶的道德判斷違背經驗證據(empiricalevidence)時,敦促他們修改判斷,使之與事實更加一致。②提高概念明晰度。道德判斷常常包含模糊的概念。AI可以通過引用廣泛的語言資源和專家道德建議來幫助澄清這些概念。③理解論證邏輯。AI可以評估用戶論證的邏輯結構。通過揭示邏輯缺陷或謬誤,AI可以幫助用戶提高他們的論證嚴謹性。④鼓勵道德一致性。AI可以敦促用戶確保他們在某一特定情境下的道德判斷與賦予所有判斷融貫性(coherence)的最終價值標準相契合。⑤測試道德的合理性。AI可以將規范倫理學現有理論存入數據庫,從而在用戶道德推理明顯偏離主流觀點時予以警告,促使用戶重新考慮他們的立場。⑥提高對個人局限性的意識。通過監控生物和環境因素,AI可以告知用戶可能會影響他們道德思考的負面因素,如睡眠不足、饑餓或壓力等。⑦就執行道德決策提供建議。如同商業和醫學領域的AI應用,AI可以幫助用戶將道德決策轉化為實際行動。例如,它可以預測某決策對他人和環境的潛在影響,從而幫助用戶在行為與道德判斷上保持一致。總的來說,“對話者方案”重新設想了人工智能與人類用戶的互動方式,避免了預設任何道德觀念。它強調用戶與AI進行持續對話,以此優化用戶自身的道德觀念。這種方案的最終目標是在不預設任何倫理立場的前提下,幫助個人發展出更好的道德決策能力。AI的角色是通過提問來揭示用戶論點中潛在的缺陷,從而改進用戶的道德推理過程。該方案在兩個主要方面與其他AI道德增強方案顯著不同。一是它賦予用戶更高程度的參與性——能動者與AI共同商議,而不是AI代替能動者作決策。二是它強調了AI的塑造性角色(formativerole),幫助用戶在道德推理上取得精進。綜上所述,筆者認為“對話者方案”是當前所有AI道德增強提議中最為可取的,它既保證了用戶的自主性,又能夠推動用戶的道德成長與社會層面上的道德進步;但這種方案仍有其弊端。首先,道德對話需要大量時間,以及用戶自身的深入反思。這種AI無法幫助用戶及時作出決策,只適用于在用戶面臨道德難題前為其提供預訓練(pre-training)。其次,很多時候人們作出違背道德的決策與行動,是因為缺乏道德動機,而“對話者”AI只能在非常有限的程度內激勵用戶行道德之事。最后,人們不只缺乏道德行動的動機,也往往缺乏進行深入道德思考的動力。“對話者”AI由于不向用戶直接提供答案,而是敦促后者自己推理與決策,在繁忙生活外進一步占據用戶精力與時間,因而會進一步降低人們使用這種工具的動機(demotivation)。換言之,很多人可能會選擇不與道德AI進行對話,而是選擇根據自己的情緒與直覺來作道德判斷。如此一來,道德增強也無從談起。三、作為更優替代的混合進路到目前為止,筆者已經批判性地梳理了三種AI道德增強方案的優缺點。“替代者”AI可以在危急情況下代替能動者作出合理道德決策,但會侵蝕能動者的自主性,阻礙道德成長與進步,甚至導致道德能力的喪失。“建議者”AI將能動者自身的價值觀念采納為自己的運作模型,一定程度上保留了能動者的道德自主性,但無法提升能動者的道德判斷與反思能力,因而只適合用于在日常生活中為能動者降低道德認知負擔。“對話者”AI能夠通過預訓練幫助能動者反思與修正自己固有價值觀念,但無法向其提供道德行動與反思的動機。為了尋求一種更加優越的方案,我們需要將三種方案置于道德增強的大背景中進行考量。道德增強的最終目的是防范環境惡化與大規模恐怖襲擊等人類生存危機。結合這種理論動機,筆者認為幾種方案在不同情境中各盡其職是當前的最優解。第一,有些道德情境要求能動者作出及時果斷的決策,比如本文中反恐警察的例子。如果在某些情境中,不及時采取某些行為會造成環境的極大破壞或大量無辜生命的傷亡,道德AI應該代替躊躇不定的用戶作出明確的判斷并主導其行動。第二,大部分日常生活中的道德情境也與人類生存危機息息相關,卻不要求當機立斷的決策。例如,我們是否將垃圾合理地分類、執法人員是否適當地監督高危人群。在這些情境中,“建議者”AI可以根據其獲取與存儲的信息——如垃圾分類法規、攜帶高危物品的概率等——結合能動者自身的道德觀念或訴求,為他們提供道德建議。第三,生存危機的緩解最終要依靠能動者自身的道德成長與社會整體的道德進步。因此,AI仍須在能動者面臨道德情境或困境之前就為其提供倫理訓練。“對話者”AI很好地實現了這種功能。綜上而言,混合式道德增強AI提供了一種更為可取的進路。這種方案在緊急狀態下調用“替代者”AI,在日常生活道德決策情境中喚醒“建議者”AI,而在能動者空閑時段進入“對話者”模式,從而在生活的不同方面幫助人類作出更好的道德決策。混合式AI最難以實現的乃是其“對話者”功能。但是,唐納德·西爾林(DonaldSearing)開發的伊索斯(Ethos)程序、圣克拉拉大學開發的倫理決策助手程序以及達克斯·科沃特(DaxCowart)程序等成功嘗試從實踐角度說明了混合式方案的有效性。不過,一些人可能會從技術或價值的角度質疑混合方案。一是將三種AI增強方案融合進同一個道德AI程序在技術上是否可能?二是這種混合進路是否同時繼承了三種方案各自的不足?1.技術可行性三種AI道德增強方案的核心都在于增強人類道德能力,并不存在本質上的差異。它們之間的差別僅僅在于AI在多大程度上主導人類的道德決策過程。根據“替代者方案”,人類將道德決策過程完全交予AI,自己只扮演執行角色。根據“建議者方案”,人類依然掌控自己的道德決策過程,AI僅起到參謀的作用。根據“對話者方案”,AI不直接干預人類道德決策,而是在決策情境前培訓能動者,提高其道德決策能力。既然這三種方案的差異僅在于AI對決策過程的干預程度,事實上可以集成到同一個道德增強程序之中,依據不同情境調用不同模式。我們可以用智能汽車為例來說明。這類汽車利用其車載傳感器來感知用戶的駕駛環境。在緊急狀況時,它能替代駕駛員作出自動剎車或迅速調整方向等操作。在日常駕駛中,智能汽車可以為駕駛員提供巡航速度、路線選擇與安全駕駛等方面的建議。在非駕駛場景下,智能汽車也可以為用戶提供駕駛培訓和安全教育。將這些功能集成于車載AI系統并不存在技術上的阻礙。同理,一個道德AI系統在技術上完全可以融合“替代者”“建議者”與“對話者”三種功能,并利用傳感器來感知用戶的實際情境,從而在這三種功能中進行智能切換。2.混合式AI的價值這種混合進路可能會面對如下質疑:即使該進路能將三種現有方案運用于其各自適用的場景,它也因此同時具有三種方案的缺陷。然而,這樣的擔憂并不成立。首先,混合式AI只會在涉及嚴重環境破壞或大量無辜生命受到威脅的情況下啟動“替代者”模式。這意味著混合式AI不會如同“替代者方案”一樣,嚴重侵害用戶的自主性和道德能力。其次,雖然在日常道德場景中,混合式AI會根據用戶的價值觀給出建議,但在非道德決策情境中,它會調用“對話者”模式,輔助用戶更深入地審視自己的道德觀點,并促進不同觀點之間的交流和協同。因此,與“建議者方案”不同,混合式AI最終能推動而非阻礙用戶道德成長與社會道德進步。再次,混合式AI的“對話者”模式能夠通過提供經驗支持、提高概念清晰度和幫助用戶理解論證邏輯等功能,提升用戶的道德推理和決策能力,助其成為更出色的道德能動者。最后,由于“建議者”模式在日常生活中大大降低了用戶的道德認知負擔,這將提高用戶對混合式AI的黏性,進而增加他們使用“對話者”模式的可能性,從而規避了“對話者方案”無法激起道德反思動機之弊病。綜上而言,混合式AI既能在危急時刻推動人類用戶迅速應對,又能在日常生活中確保用戶保護環境、防范風險。最關鍵的是,通過倫理培訓,“對話者”模式最終能幫助用戶培養出卓越的道德決策能力、德行(virtues)與行為習慣,從而進一步降低他們對“替代者”“建議者”模式的依賴,如同得到充分培訓的駕駛員無須再使用智能汽車的輔助模式一般,以自主的姿態應對新時代的倫理困境。3.混合式AI的局限與對策雖然混合式AI發揮三種方案各自的優勢,又規避了其缺陷,但它很大程度上是從道德認知一端增強能動者的道德決策與行動能力。然而,很多時候能動者缺乏的是行道德之事的動機。同時,雖然“建議者”模式通過使日常道德決策便利化,增進了用戶對混合式AI的黏性,從而提高了用戶使用“對話者”模式的可能性,但這種可能性仍然無法確保用戶有利用該模式進行道德反思的充分動力。總而言之,混合式AI在一定程度上,仍然面臨“對話者方案”的經典困境:如何解決用戶缺乏道德行動與反思之動機這個難題?筆者主要有兩點建議。首先,我們不能把AI道德增強視為一個自足的(self-contained)的解決方案。它所增強的主要是我們的(道德)認知能力。雖然形成正確的道德觀念一定程度上能提升我們行道德之事的動機,但人類具有意志力薄弱的天性,常常無法依據自身道德信念行事。與AI道德增強相反,生物醫學道德增強主要是從動機端增強人們的道德能力。這兩種增強手段形成了良性互補。既然當前人類科技水平還未能提供安全有效的生物醫學增強手段,我們須開展實質性科學研究來開發更好的生物醫學增強方案。其次,針對能動者缺乏反思其價值體系的動機這個問題,將AI道德訓練作為義務性培訓的一部分非常有必要。義務教育時期是道德社會化最重要的階段,各國的教育體系鮮少把道德培育課程排除在外。相對于人類教師,既然道德AI在事實信息、邏輯嚴謹度、對規范學說的掌握等方面更加優越,又不會受人類情緒與偏見的影響,我們有充分的理由將它作為義務道德培育的輔助手段。此外,這種義務性(obligatory)培訓可以延伸到包括高等教育、職業培訓、資質審核等生活的各個方面與人生的各個階段。義務性培訓通過從外部為人們提供激勵,從而增進人們利用道德AI進行道德反思的動機。四、結語道德增強的哲學論辯起源于倫理學家對人類生存危機的憂慮。由于生物醫學道德增強在技術與道德上的缺陷,學者逐漸將目光轉向了人工智能道德增強,提出了人工智能作為人類道德決策的“替代者”“建議者”與“對話者”三種方案。然而,這三種方案各具缺陷,沒有一種能夠單獨承擔起道德增強的重任。為了有效地防范生存危機,我們應該綜合考慮不同方案的優缺點,發展出一款在不同情境下發揮不同功能的混合式AI。不過,由于混合式AI在增強道德動機上有局限性,我們也需要改良生物醫學增強技術,以期在未來能有效地增進人類道德動機。同時,在我們開發出理想的混合式AI之后,也應利用義務性培訓的方式激勵人們接受AI道德訓練,以進一步提升道德反思的積極性與深度。不過,為了混合式AI更好地提升人類道德能力,其設計應該據什么原則,以及如何防范AI道德增強在侵犯隱私、受開發者操縱、弱化個人道德責任等方面的風險仍是學界亟須共同探討的話題。第二篇:“人類增強”的哲學思考:高科技時代如何守護人性當科技改造力量指向了人類自身,人還是不是科技發展的目的?在元宇宙里,如何安放人的身體?近日,在上海社會科學院舉行的“人類增強與人本主義的未來”學術研討會暨新書發布會上,上海社會科學院哲學研究所副所長、科技哲學創新團隊首席專家成素梅研究員認為,智能文明時代是科技高度發達的時代,更是一個守護人性的時代。怎么理解人性,怎么理解人本身,是技術必須要回答的大問題和難問題。以人工智能為核心的第四次技術革命的深化發展,不僅重新定義了我們時代的技術,迎來了技術發展的新時代,它還在將人類文明的演進方向從工業文明時代和信息文明時代全面推向智能文明時代。智能文明越向縱深發展,在工業時代形成的概念范疇的解釋力日漸疲弱,其社會運行與管理機制的適用性短板則日益顯露。隨著人工智能、大數據、云計算、區塊鏈、量子信息、合成生物學、基因編輯、神經科學、腦機接口、再生醫學等技術的深度發展,人類不只是有能力控制與利用外部自然,而是在改變著人類身體——這個內部自然,人類增強技術正是這一趨勢的代表。成素梅表示,人文研究涉及現代科技主題時應避免缺少客觀依據的臆測成分,人文學者要對科技前沿和進展做準確和細致的把握,這樣才能客觀地來評價科技發展和意義。人類增強技術提出的是人的精神是否可以被技術化的難題,這其中蘊含了許多悖論,因為人類增強技術的根本特征就是自反性。智能文明時代是科技高度發達的時代,更是一個守護人性的時代。但怎么理解人性,怎么理解人本身,這個是從人類增強這個話題引出的一個技術必須要回答的大問題和難問題,值得進一步探索。此外,她還介紹了上海社會科學院科哲創新團隊“智能文明時代的哲學探索叢書”的出版計劃,《增強、人類與后人類未來——關于人類增強的哲學探索》作為叢書的第一本率先與讀者見面,這套叢書將是科哲創新團隊在上海社科院第二輪創新工程中著力打造的標志性學術成果之一。“人類增強”是一個由現代高科技發展而引發的重要哲學問題。在2020年的國家社科基金資助中就有來自上海和湖南的兩個學術團隊分別獲得了“人類增強”的重大項目立項,這是該問題具有重要哲學意義的一個證明。上海社會科學院哲學所科技倫理與治理研究中心主任、《增強、人類與后人類未來——關于人類增強的哲學探索》作者計海慶認為,“人類增強”在科技倫理、哲學本體論、生物學哲學和歷史唯物論-技術哲學四個方面提出了重要的哲學問題。在科技倫理中,人類增強提出的問題是:前沿科技的發展如何挑戰了人類社會的基本價值觀,我們又該如何應對;在哲學本體論中,人類增強提出的問題是:如何認識和反思祛魅的自然主義人類觀和人本主義的人類觀之間在觀念上矛盾和沖突,其中關鍵是如何繼承人本主義的人類中心論;在生物學哲學上,人類增強提出的問題是:現代生物科技對人身體的改造、乃至設計,是否可以具有物種進化層面的意義;在歷史唯物論-技術哲學上,人類增強提出的問題是:人類增強技術對人類身體的改變,是否以及將如何影響我們對歷史唯物主義中的生產力、生產關系等關鍵概念的重新理解。回答這些問題需要結合現代的技術哲學思想來重新思考人與技術全新的結合可能和模式。“當代新興增強技術前沿的人文主義哲學研究”課題組認為,對人類增強的考察不應忽略不同的文化背景對增強界定的差異,因為這在很大程度上決定了醫療實踐和醫學倫理中對身體干預手段性質的不同理解。上海市精神衛生研究所辦公室主任則張青認為,精神疾病治療研究中腦機接口技術的使用,提供了一個醫學與技術面向的窗口。但由于研究的探索性,特別是有創傷性技術手段,需要對大腦施行侵入性電極植入,由此引發了廣泛的倫理關切及哲學思考。技術干預下對患者精神狀態的影響,除了傳統生命科學研究的倫理審查,技術對患者作為人的主體與自主性權利的僭越是不可忽視的。亟待精神疾病腦機接口研究倫理共識的達成,并對如上的問題的解答提供理論的基礎。人類增強技術的意義在于現代科技正在向人的有限性中注入無限性的力量,這種力量豐富了人存在的可能性的同時,也有一定的不確定性。復旦大學哲學系徐志宏副教授認為,這種不確定性值得用科技倫理來仔細審視。上海交通大學科學史與科學文化研究院閆宏秀教授則提出,在人類增強倫理研究中不能僅僅從批判的視角進行單方面的拒絕,也應該用建構的積極的立場來理解和把握,以免在相關問題上得出片面的結論。闡釋人工智能技術、揭示人工智能的運行邏輯至關重要。上海大學馬克思主義學院院長閆坤如教授提出,人工智能技術的風險性、不透明性是人工智能系統的固有屬性,通過立足于內在主義與外在主義相結合的技術倫理進路以及規范性和描述性相結合的應用倫理進路,可以揭示可解釋人工智能的因果相關關系,以此來構建基于因果相關性的可解釋人工智能模型,發展負責任的人工智能。精密的算法生成“數字城市”,也引發了眾多算法倫理問題。復旦大學新聞學院潘霽教授提出,在人的尺度外,將媒介系統的運行引入算法倫理的考量,將為算法倫理問題提供媒介學的洞見。媒介溝通系統的運作,要求“融通共生”作為調和人與技術關系的倫理基礎。“融通共生”原則在個性推薦、資源分配和認同建立等算法倫理熱點領域中形成了各種具體化的表達。情緒識別技術有其特殊的理論基礎和本質特征,它們必然地引發了相應的問題和風險。上海社會科學院哲學所助理研究員阮凱認為,情緒識別技術是人工智能領域的一項新技術,既能提升人的情緒識別能力,也能增強機器的智能水平,進而可能帶來新的人機交互革命,需分層次對該技術的理論基礎與本質特點進行規范和治理。第三篇:哲學,這門古老而又深奧的學問,常常讓我們思考人生的意義、世界的本質,還有一些看起來很遙遠,但實際上和我們生活息息相關的問題。比如,現在非常火熱的人工智能,它的道德、倫理和社會影響,就是哲學探討的一個重要話題。首先,我們來聊聊人工智能的道德問題。道德,簡單來說,就是我們判斷事情好壞、對錯的標準。那么,人工智能有沒有道德呢?這個問題聽起來有點奇怪,因為在我們心里,只有活人才會有道德觀念,機器怎么會有呢?但實際上,這并不是說人工智能自己會有道德判斷,而是說我們在設計和使用人工智能的時候,應該考慮到道德因素。比如說,現在有一種人工智能叫“推薦算法”,它能在網上給你推薦你喜歡的電影、音樂、新聞。但是,如果這個算法只推薦給你一些能賺更多錢的內容,而不考慮這些內容是不是對你有好處,那就有點不道德了。這就像是一個只想著賺錢,而不關心你健康的朋友,總是給你推薦一些垃圾食品。所以,哲學家們會思考,怎么讓人工智能在做事的時候,也能考慮到道德問題,做到既聰明又善良。接下來,我們再談談倫理。倫理和道德有點像,但又不太一樣。倫理更多地是關注社會上的規矩和習慣,是我們大家公認的行為準則。那么,人工智能的倫理問題又是什么呢?簡單來說,就是人工智能應該怎么和人類相處,才能讓大家都覺得舒服、公平。比如,現在有些工廠用機器人來代替工人做工,這確實能提高效率,降低成本。但是,如果因為機器人太能干,導致很多工人失業,那這就涉及到一個倫理問題了。我們是不是應該限制一下機器人的使用,保護一下工人的工作機會呢?還有,如果人工智能做出了什么錯誤的決定,比如自動駕駛汽車出了事故,那么責任應該算在誰頭上呢?是汽車制造商,還是軟件開發者,還是開車的人呢?這些問題,都需要我們從倫理的角度去思考,找到一個大家都能接受的答案。最后,我們來說說人工智能的社會影響。這個范圍可就廣了,因為人工智能現在已經滲透到了我們生活的方方面面,從手機、電腦到工廠、醫院,幾乎到處都能看到它的身影。所以,它對社會的影響,也是多種多樣的。比如說,人工智能可以提高生產效率,讓我們的生活變得更富裕。但是,它也可能讓一些人失去工作,導致社會不平等加劇。還有,人工智能可以幫助醫生診斷疾病,提高治療效果。但是,如果我們的醫療數據都被人工智能掌握了,那我們的隱私是不是就得不到保護了呢?這些問題,都是哲學家們關心的社會影響問題。那么,哲學家們具體是怎么探討這些問題的呢?他們可不是像我們平時聊天那樣,隨便說說自己的想法。他們會用一些很深奧的理論和方法,來仔細分析人工智能的各個方面。比如說,有一種叫做“倫理學理論”的東西,它就是專門用來研究倫理問題的。其中有一種理論叫做“功利主義”,它認為我們應該讓大多數人獲得最大的幸福。那么,按照這個理論,我們在發展人工智能的時候,就應該盡量讓它給大家帶來好處,而不是傷害。還有一種叫做“德性倫理學”的理論,它強調我們應該培養一些好的品德,比如誠實、勇敢、善良。那么,按照這個理論,我們在設計人工智能的時候,就應該讓它也具備這些品德,成為一個“好”的人工智能。除了這些理論,哲學家們還會用一些具體的方法來研究人工智能。比如,他們會做一些思想實驗,想象一些可能發生的場景,然后思考在這些場景下,人工智能應該怎么做才是道德的、倫理的。還有,他們也會關注一些真實的案例,比如自動駕駛汽車出了事故,然后分析這些案例,看看我們能從中學到什么教訓。說了這么多,你可能會覺得,哲學探討人工智能的道德、倫理和社會影響,好像都是一些很抽象、很遙遠的東西。但實際上,這些探討對我們的生活有著非常重要的意義。因為人工智能的發展速度非常快,它對我們的影響也越來越大。如果我們不提前思考這些問題,不制定一些規則和標準來約束它的發展,那么很可能有一天,我們會發現人工智能已經超出了我們的控制,帶來了一些我們無法預料的后果。比如,現在就有一些科學家和企業家在呼吁,我們應該暫停開發比人類更聰明的人工智能,因為這樣的人工智能可能會對我們的生存造成威脅。他們擔心,一旦人工智能變得比我們聰明,它們就可能會按照自己的意愿來行動,而不是服從我們的命令。這樣一來,我們就可能失去對人工智能的控制,甚至可能被它們取代。聽起來是不是有點像科幻電影里的情節?但實際上,這并不是完全不可能的。因為人工智能的發展速度非常快,而且它們的學習能力也非常強。所以,我們真的需要認真思考一下,怎么讓人工智能的發展既能夠帶來好處,又不會對我們造成威脅。那么,哲學在這個過程中能起到什么作用呢?其實,哲學就像是一盞明燈,能夠照亮我們前進的道路。它能夠幫助我們思考一些根本性的問題,比如我們應該怎么看待人工智能?我們應該怎么和它相處?這些問題可能沒有確定的答案,但是通過哲學的探討,我們可以更加清楚地認識到自己的價值觀和立場,也可以更加理性地看待人工智能的發展。而且,哲學的探討還可以為我們提供一些指導性的原則和建議。比如,我們可以根據倫理學的理論來制定一些人工智能的道德準則和行為規范;我們也可以根據社會影響的分析來預測和防范一些可能的風險和問題。這樣一來,我們就可以在人工智能的發展過程中保持一種理性和審慎的態度,讓它的發展更加符合人類的利益和愿望。所以你看,哲學探討人工智能的道德、倫理和社會影響并不是一件無用的事情。相反它對于我們理解、引導和控制人工智能的發展具有非常重要的意義。在這個充滿變化和挑戰的時代里我們需要哲學的智慧來為我們指引方向讓我們在享受人工智能帶來的便利的同時也能夠避免它可能帶來的風險和危害。正如古希臘哲學家亞里士多德所說:“智慧不僅僅存在于知識之中,而且還存在于運用知識的能力中。”在面對人工智能這一前所未有的挑戰時,我們需要運用哲學的智慧去思考、去判斷、去選擇讓科技的發展真正造福于人類而不是成為我們的負擔。這樣我們才能在享受科技帶來的美好生活的同時也能保持對未來的希望和憧憬。第四篇:人工智能、人類增強等高新技術的發展正急速改變著我們的社會;理想的技術發展都應當是有軌道的,這樣的軌道便是哲學家鋪設的;面對今天高技術的快速發展,哲學應當為這些技術的列車鋪好前行的鐵軌。復旦大學楊慶峰教授在一天半的報告期間會議安排了6組報告,共20位報告人進行發言。這些報告大體圍繞兩個方面進行:在人類增強與哲學相關議題方面,來自復旦大學生命醫學倫理研究中心的楊慶峰教授在題為《當代新興增強技術及其倫理后果》的報告中簡要回顧了人類增強技術的發展,指出2000年以來以NBIC為基本框架的當代增強技術正在隨著以人工智能為核心的智能革命發生著調整,以AI為主導的新興增強技術框架正在形成,并強調新興增強技術表現出外在走向內在化、從宏觀到微觀化、機能的異質化和精神的數據化等四個方面的特征,同時相應的倫理后果也從這四個方面展示出來。廣東外語外貿大學西方語言文化學院的程林副教授的報告《人類增強和自我認知:西方文化史中的人類增強早期想象與倫理思考》回顧歷史,對西方文化史中的人類增強早期想象進行了報告,并通過早期想象內容對人的自我認知等問題進行了分析。華東理工大學哲學研究所的陳迎年副教授的報告《天工人其代之:人類增強的界線及其可能》則將目光投向未來,通過檢討“天工人其代之”的歷史來探討人類增強的界限及其可能,指出人類增強的界線只有在“真正的、人本學的自然界”與“人的激情的本體論本質”那種合一中來劃定,才是可能的。針對人類增強中“增強”概念的含混不清與使用混亂的情況,上海社會科學院哲學所的計海慶副研究員的報告《“增強vs治療”的揚棄——論從醫學倫理出發的人類增強研究》從醫學倫理出發,嘗試在與“治療”概念的對勘關系中把握“增強”概念的實質,并指出人類增強研究的深入發展要求對“增強”vs“治療”的兩分法判斷加以揚棄。來自南京大學哲學系的司徒安(AndreaStrollo)副教授在報告《人類增強與人格同一性》(HumanEnhancementandPersonalIdentity)討論了認知的增強將會帶來的身份認同難題以及對軀體理論(somatictheory)可能產生的障礙,即人類增強后會面臨“幾個思考者”的難題。西安交通大學哲學系的丁曉軍副教授的《道德增強哪家強:生物醫學、人工智能抑或人類導師?》從實驗哲學的觀點出發對三種主要的道德增強途徑進行分析,嘗試回答哪些因素會影響人們對道德增強的接受度,以及人們對不同途徑的接受度的具體差異及其產生原因等問題。南京大學哲學系博士生趙豆則針對利用生物醫學手段達到道德增強這一途徑進行了批判與反思,在報告《道德生物增強真的可能嗎?——基于哲學視角的審視》中,她指出目前道德生物增強還不是真正意義上的“道德增強”。來自湖南師范大學哲學系的王淑慶博士的報告《能動性問題與能動性增強——行動哲學視角下的腦機接口技術》對腦機接口(BCI)這一具有廣泛應用前景的新興技術的哲學反思,指出從行動哲學的角度看,BCI-媒介行為似乎可以作為有意行動,但已有的行動理論特別是行動因果論不能很好地解釋BCI-媒介行為的能動性問題。但是當只把BCI看作一種能動性增強技術的時候,則能夠更好地理解由BCI引發的倫理和法律問題。在“人工智能哲學”方面,報告人圍繞人工智能對倫理-社會的影響以及在本體論、認識論等問題進行了報告與討論。人工智能發展的倫理是人工智能發展中面臨的一個重要話題。中國社會科學院哲學所段偉文教授做了題為《算法時代的倫理政治審視與思辨性應對》的報告,指出在數據智能與算法決策被廣泛應用的背景下,不論是算法的運作條件,還是人類與算法的關系都關涉復雜的倫理政治配置。因此,算法倫理(包括倫理設計)研究應將算法納入社會感知技術譜系,從而揭示潛藏于算法及其技術解決主義邏輯背后的倫理政治暗線,并剖析由此帶來的社會感知與行動方式的變化和應予扭轉的問題。上海交通大學科技史與科學文化研究院的閆宏秀教授在報告《數據賦能的倫理基質》中提出,在數據智能化與倫理內在化的過程中,對更加有效的倫理方式探尋不僅是對數據賦能所引發的倫理問題反思,更應從倫理作為基礎設施的視角,基于技術哲學的調節理論,引入倫理與技術之間雙向反饋機制,在人與技術共融的情境中,構建數據賦能的倫理基質。而對于如何進行人工智能倫理教育這一問題,浙江大學馬克思主義學院的潘恩榮教授在其報告《面向未來工程教育的人工智能倫理譜系》中表明面向未來人工智能時代的工程教育需要建立一種人工智能倫理譜系,以此闡明人工智能倫理與工程倫理、傳統倫理之間的聯系和區別,從而為開展人工智能倫理教育提供支持。關于人工智能及其相關技術的發展所帶來的社會問題同樣也受到了報告人的關注。來自香港城市大學公共政策系的鄧文韜研究員,他的報告“AI記憶問題和HKSAR中的遺忘權”(TheproblemsofAImemoryandtherighttobeforgotteninHKSAR)分析并指出被遺忘權在概念和倫理上所存在的困難。南京大學哲學系博士生趙培做了題為《數字記憶的困境——基于斯蒂格勒技術觀對數字記憶的反思》的報告。報告從斯蒂格勒的思想出發,指出基于數字化第三持留的記憶的工業化,不僅導致了知識的喪失,還造成了欲望與個性化的毀滅,從而引發時代的精神性危機。為了抵抗數字記憶的威脅,當代需要發展數字遺忘來維護人的尊嚴。中國社會科學院大學的博士生黎春嫻的報告《生物識別技術在智能社會應該發展嗎?——以人臉識別技術為例》則以人臉識別技術為例,對生物識別技術進行了反思,分析了中西方對于生物識別技術的不同態度,并建議從一個更為平衡的方向去有節制地發展生物識別技術的相關應用。多位報告人從傳統哲學資源中尋求對人工智能的理解。南京信息工程大學當代中國馬克思主義研究院的崔中良副教授的報告《人工智能研究中人機交互實現的感知基礎》在身體現象學視域下,結合哲學、認知科學和神經科學的研究,探討了以通感作為機器與人類交互的基本感知模式。廣東外語外貿大學外國文學文化研究中心李日容副教授以《從海德格爾的時間性此在看人工智能發展的限度——兼論德雷福斯AI批判的局限性》為題報告了從海德格爾的時間性此在對人工智能發展限度的思考,指出德雷福斯對符號主義AI的形式化本質的批判以及對于海德格爾式AI的非形式化路徑的肯定都有失偏頗,由時間性此在所揭示出來的AI的發展方向應該致力于此在形式與非形式化生存的內在融合與統一。大連理工大學人文與社會科學學部的索引博士的報告《論虛擬現實體驗對人主體性建構的影響》討論了虛擬現實技術發展帶來的一些問題,指出虛擬現實技術已經超出其作為客觀技術工具的功能性范疇,而對人的主體性建構產生了虛擬化、可塑化、信息化和交互主體化等影響。在此背景下,一種非本質的、去中心化的主體生成觀或許更加適用于思考人在今天這個全面技術化時代的生存境況。南京大學哲學系的潘天群教授及其博士生鄭炳楠、浦江淮的報告則圍繞智能概念及奇點(智能爆炸點)及人工智能在科學發現中的作用展開分析。潘天群教授的報告《智能系統的增殖與進步》從邏輯分析的視角對智能概念展開精確分析,認為智能可理解成系統面對環境而提出的問題或者挑戰而提出方案的能力,這樣的能力可以被比較但難以被精確度量。人類一方面通過生物本能實現基因增殖從而實現智能增殖,同時通過知識的增加人類的智能呈現出智能進步。超級智能機器被設想為人所制造且能夠代替人類制造機器的機器,而這樣超級智機器被制造出來,機器智能大量增殖的奇點便會到來。鄭炳楠的報告題目是《查爾莫斯對奇點論證的重塑及其問題》。報告重新審視了查爾莫斯對于奇點問題的論證和思考。浦江淮的報告關注人工智能技術在科學發現中的作用,其報告題目為《機器可以進行科學發現嗎?——從BACON到AlphaFold2》。人工智能專家一直在探索如何用機器幫助科學家進行科學發現,而AlphaFold2對蛋白質結構的揭示則是近期科學界的重大事件。浦江淮通過分析人工智能程序BACON和AlphaFold2,認為機器具備進行科學發現的可能性。第五篇:10月21日,“人類增強與人本主義的未來”學術研討會暨新書發布會在上海社會科學院召開。“人類增強”是由一個現代科技改造人類自身而引發的科技倫理和科技哲學問題,它涉及人工智能、腦機接口、神經調控、基因編輯、合成生物等尖端科技對人性基礎的挑戰,是近年來學術關切的熱點。為了厘清科技發展與科技倫理、人性哲學的基本理論問題,上海社會科學院科技哲學創新團隊出版了《增強、人類與后人類未來——關于人類增強的哲學探索》一書,將最新的研究成果凝聚其中,以期對人類文明發展的“未來之問”提供思考的線索和哲學的回答。技術不能回避的人文之問在新書發布環節中,《增強、人類與后人類未來——關于人類增強的哲學探索》一書的作者計海慶研究員作了題為“人類增強與哲學問題”的主題發言,他指出,“人類增強”現象正受到越來越多的哲學關注。在2020年國家社科基金資助中,就有來自上海和湖南的兩個學術團隊分別獲得了“人類增強”哲學的重大項目立項,這是該問題具有重要哲學意義的一個證明。他認為,人類增強的哲學意義集中體現在科技發展與人本主義之間的關系上,并且在科技倫理、哲學本體論、生物學哲學和歷史唯物論四個方面提出了重要的哲學問題。在科技倫理中,人類增強提出的問題是:前沿科技的發展如何挑戰了人本主義的基本價值觀,例如腦機接口技術是否侵害了個人自主,基因編輯是否破壞了人與人與生俱來的平等地位等棘手的應用倫理問題。在哲學本體論中,人類增強提出的問題是:如何認識自然主義的和人本主義的人類觀之間的矛盾和沖突,其中關鍵是如何繼承人本主義中的人類中心論遺產。在生物學哲學上,人類增強提出的問題是:現代生物科技對人身體的改造乃至設計和重塑,是否可以具有物種進化層面的意義,技術的力量是否足以作為獲得性遺傳的影響因子而被承認。在歷史唯物論上,人類增強提出的問題是:人類增強對人類身體的改變,是否會影響我們重新理解歷史唯物論中的生產力、生產關系等關鍵概念,對此的回答應結合現代技術哲學思想來重新思考人與技術全新的結合可能和模式。在與談環節中,復旦大學生命醫學倫理中心教授、國家社科基金重大項目“當代新興增強技術前沿的人文主義哲學研究”課題組首席專家楊慶峰認為,從馬克思主義歷史唯物論對人類增強進行解讀,是一個值得深入探討的理論新視角;此外,對人類增強的考察也不應忽略不同的文化背景對增強概念的界定是有差異的,這在很大程度上決定了醫療實踐和醫學倫理中對身體干預手段性質的不同理解。湖南師范大學馬克思主義學院教授、國家社科基金重大項目“當代新興增強技術前沿的人文主義哲學研究”課題組首席專家易顯飛提出,探討人類增強應區分傳統的增強和基于現代科技的增強,前者是間接的、漸進的,并大多是精神性的方式,而后者則是直接的、速成的和改造人類身體的。通過對比這些干預手段在性質和程度上的差別,將引出許多值得探討的理論問題。上海交通大學科學史與科學文化研究院的閆宏秀教授提出,在人類增強倫理研究中,傳統的人本主義立場往往從批判的視角進行單方面的駁斥和否定,但越來越多的人類史研究成果顯示,人類一直以來的生存都是和各種技術共同“進化”的,這一點對合理評估人類增強技術將是一個重要的啟示。復旦大學哲學學院徐志宏副教授提出,人本主義思想對人的存在有一個基本假設,即人是有限性的存在,但某些激進的人類增強技術卻希望改變這一點,例如心靈上傳的方案,這其中就有了理論上的錯位和逆反。如果人的年齡對人的存在并不構成實質上的約束,那么未來的人本主義將把自己轉變為后人類主義嗎?這其中會有極大的觀念轉型。人類增強:智慧與人性的位置人類增強問題的哲學意義,也在各類前沿技術應用的哲學反思中顯露端倪。上海大學馬克思主義學院院長閆坤如教授做了題為“可解釋人工智能的哲學反思”的報告。她提出:闡釋人工智能技術、揭示人工智能的運行邏輯至關重要。人工智能技術的風險性、不透明性是人工智能系統的內在屬性。但是通過立足于內在主義與外在主義相結合的技術倫理方法,以及規范性和描述性相結合的應用倫理學手段,可以塑造出人工智能的因果關系,以此來構建可解釋的人工智能模型。這是發展負責任的人工智能的有益路徑,也是避免由于人工智能誤用而導致人類增強技術偏離人本主義的有效保障。復旦大學新聞學院潘霽教授做了題為“融通共生:從媒介運作出發反思算法倫理”的報告。他提出,人工智能算法的設計需要超越傳統人本主義的理論框架。在人的尺度外,將媒介系統的運行引入算法倫理的考量。這將為算法倫理問題提供媒介學的洞見。“融通共生”原則的提出,充分考慮了作為人類溝通系統而存在的媒介,并以調和人與技術關系作為倫理秩序的基礎。“融通共生”原則要求超越人本主義的迷思,在智能算力資源的分配中,在虛擬身份的互構中,在元宇宙空間的多層次規劃中,將人與媒介的融通發展作為價值目標來實現。上海社會科學院哲學所助理研究員阮凱做了題為“情緒識別技術的問題、風險和規治”的報告。他認為,情緒識別技術是人工智能領域的一項新技術,通過提升機器對人類情緒識別能力來增強機器的智能水平,進而可能帶來人機交互關系的革命。但是,ai情緒識別技術也存在倫理風險。低效易錯的情緒識別將給人帶來心理上的傷害,惡化人機關系;高效準確的情緒識別,則可能會侵犯個人隱私;而不加約束的越界使用情緒識別,更會導致行為操縱等不可控風險。因此需要在合理規劃技術適用范圍的前提下,審慎發展ai情緒識別。增強與服務:感知的拓寬與認知的完善除了人工智能技術外,人類增強的實現也依賴其他前沿技術的應用,相應的哲學考察也不可或缺。上海交通大學哲學系助理教授賴長生做了題為“認知延展技術的三重困境”的報告。他首先提出了一個問題,人類的記憶真的可以通過認知延展技術得到增強嗎?我們使用搜索引擎、學習軟件、感知相機等外部技術手段達成的記憶,究竟是在回憶往事,還是在重新學習往事?他認為,記憶本身并不像傳統人本主義認為的那樣是一個純粹的心理活動,而更是一個通過技術實踐不斷重新學習的過程。上海交通大學科學史與科學文化研究院博士后索引的報告題目是“身體現象學視域下虛擬現實體驗的生成及增強效應”。他認為,虛擬現實體驗不僅能在行為層面增強人的認知能力、交互能力,以及構建生活世界的實踐能力,還能在知覺層面擴展人對自身存在的知覺維度,加強人與他人的共情連接,豐富對象世界的呈現方式。這些身體體驗的增強,使人的存在方式發生了信息化的轉變,象征了技術塑造下人類生存方式的未來轉型。上海精神衛生中心張青老師的報告題目是“基于腦機接口的精神疾病干預治療及倫理共識”。他認為,作為增強人類認知的腦機接口技術,在精神疾病治療方面也具有廣闊的應用前景。其作用方式是通過對大腦實施無創的磁刺激、光刺激或是有創的電極植入,來抑制和消除精神疾病的病灶。雖然在可行性上已有了初步的證明,但是相應的技術進步還需要輔之以倫理方面的共識。一方面,倫理共識可以提升公眾對這一療法的認同程度,另一方面,它也會切實保護患者的基本權利,更重要的是倫理共識也將為科技進步提供人本主義的理論框架,讓科技更好服務人類。上海社會科學院哲學所成素梅副所長為本次新書發布會做了總結。她指出,當哲學研究涉及現代科技時,應避免缺少客觀依據的臆測,人文學者要對科技前沿做準確和細致的把握,這樣才能客觀地評價科技發展及其意義。人類增強技術提出的是人的精神是否可以被技術化的問題,這其中蘊含了許多悖論,因為人類增強技術的根本特征就是自反性,即指向人類自身。智能文明時代是科技高度發達的時代,更是一個需要反思人性的時代。怎么理解人性,怎么理解人本身,這是從人類增強這個話題引出的重要哲學問題,是一個技術時代必須回答的大問題和難問題,值得進一步探索。本次會議也是上海社會科學院迎接黨的二十大召開、宣傳貫徹黨的二十大精神重大科研成果系列發布活動之一。第六篇:人類增強技術作為一種運用會聚技術提高人類生理與心理能力的技術手段,其對于人體的嵌入式的干預打破了傳統技術觀下人物二分的本體論模型,但從增強人類能力的目的與追求完美化的理想來看,人類增強技術又被視為一種人類中心主義式的技術形態與人文傳統的延續。斷裂與連續的觀點之區分構成了生物保守主義與超人類主義的分界點,兩大陣營圍繞人類增強技術所帶來的“增強”與“治療”的概念界定、自主性與社會公正問題展開了激烈討論,雙方各自在自然人性論與進化論的理論基點與理論框架下的倫理論證都具有一定的合理性與局限性。這些理論探索對于揭示和理解人類增強技術所帶來的倫理問題提供了思路,而合理而有限監管的中間道路、增強技術實踐應用的倫理原則以及有效的法律法規體系與倫理審查制度可以構成當下應對人類增強技術倫理問題的策略框架。引言21世紀以來,隨著新興科技的發展,特別是在納米、生物、信息與認知這四大前沿科技領域,彼此交叉融合所形成的“會聚技術”取得了一系列新成果,并在世界范圍內引起了廣泛討論與極大關注。《會聚技術,增強人類能力》的報告指出:在對倫理事務與社會需要的合理關切下,本世紀初會聚技術將大幅增強人類能力、社會效益與生活質量。然而,我們應該不假思索地直接接受增強技術所許諾的“讓人類更好”的愿景嗎?或許不能,那么,我們應該如何理性地看待人類增強技術與傳統技術的聯系與區分?人類的自身定位是否會因“增強”而發生改變?增強所帶來的新的社會倫理問題以及針對這些倫理問題哲學反思又該有怎樣的實踐指導效力?一、人類增強技術——連續還是斷裂?伴隨著會聚技術的出現與發展,人類增強技術相較于傳統技術具備了一些新特點。傳統增強技術實質上是人類有機生命體的外部延伸器官及其機能。當代會聚技術的一大突破方向就在于通過人與機器、技術的內在整合來改造和增強人的身體與機能,然而,這種直接作用于人體自身的“內部增強”不同于傳統的、借助外部人工物中介作用的“外部增強”。進一步來說,這種新興的人類增強技術也將意味著建立在傳統二元主義本體論預設上的人與非人、生命與非生命、人工物與自然物的邊界被模糊化。此外,傳統技術的增強作用并不會涉及或干預人類心靈、情感、道德等,而隨著近年來“腦機接口技術”的發展,人類增強技術進一步觸及到了過去所認為的不可侵入的心智領域。然而,也存在著一種聲音認為人類增強技術的出現并非一種斷裂。超人類主義者將人類增強技術看作自啟蒙運動以來人類不斷追求可完美化(perfectibility)理想的延續,只是這種理想的實現方式在目前會聚技術迅猛發展的時代背景下,從聚焦“工具性技術”轉向了改造作為“目的性存在”的人本身。如此一來,人類增強技術似乎可以更為寬泛地被理解為不斷突破自然賦予人類自身的局限性以及不斷追求完美性的一系列發明與創設。大抵來說,對于人類增強技術與傳統技術形態之間關系的不同理解可以作為超人類主義者與生物保守主義的一個劃界標準。二、人類增強技術的主要倫理問題論爭人類增強技術在醫學上的運用引發了治療與增強的同異之爭,而直接干預人體甚至心智、情感則引發了自主性與自由意志的辯論,另外,增強技術作為一種稀缺性技術如何進行資源分配則引發了社會公平正義的討論。(一)生命醫學范式:治療與增強的區分治療與增強是否應該區分以及該如何進行區分,圍繞這一問題存在著兩種立場與解釋進路。一種看法認為“人類增強”顯然不同于“治療”,人類增強是在沒有疾病的情況下提供干預以改善、超越正常健康狀態的過程,而治療則針對的是在病理學上危害身體健康或者身體機能水平低于此物種平均水平的狀況,使患有某種疾病的身體或具有缺陷的機能恢復到健康水平。同時也存在著另一種相反的觀點——人類增強與治療之間實際上難以劃出一道清晰的界線,增強可以包括任何改善我們身體、能力以提高生命福祉的活動。大體上來說,生物保守主義者支持前者的立場,而作為人類增強技術倡導者的超人類主義則支持后一種看法。生物保守主義認為,對于治療的態度在倫理上是可以被接受的,即治療是一種善的醫學行為活動,而增強作為一種非必要的惡的人為干預則是不被允許的,或者至少在道德上是值得懷疑的。相反,超人類主義者認為人類增強技術提高身體性能或者精神表現以追求更好的生命狀態應該是一種道德上的善而被允許與接收,并且隨著會聚技術的進步,更多人類增強技術將走向大眾,服務人們的健康需求乃至更廣闊的生活需求。此外,關于治療與增強的討論中也存在另一種聲音,他們呼吁來一次范式轉換以擺脫這場爭論。如今關于人類增強技術的討論,無論是超人類主義者以“人的能力的增強”的進化論立場,還是保守主義者們以“自然人狀態”作為規范性概念,他們的論證都無法建立在中立的基礎上,為打破健康與疾病、人工與自然的本質主義二元對立并推進圍繞人類增強技術的辯論,倫博爾德呼吁以不暗示規范性判斷的“身體修飾”(bodymodification)來代替“人類增強”概念。簡而言之,在人類增強技術的生命醫學范式討論中,核心的問題在于治療與增強是否存在確定的邊界,對于這一問題的回答存在三種觀點:生物保守主義者出于反對人類增強的立場而承認這一邊界;超人類主義者則出于為人類增強進行辯護的立場而否認這一邊界;最后一種觀點秉持中立的立場,并試圖通過引入新術語“身體修飾”來消解該爭論。(二)人格同一性與自由意志人類增強技術同時具備了對人體器官與意識活動進行干預的可能手段。在技術所造就的離身體驗、輔助判斷等情境下,人格的同一性是否還能夠保持?人類的自由意志在增強技術的時代是否受到了威脅與挑戰?在生物保守主義者看來,應用增強技術將會對受試者自我同一性的建立以及人類的自由意志產生消極影響,主體的自我真實性與敘事統一性將面臨扭曲的危險,他們斷定依靠增強技術獲得的情感不是真情感,經過增強技術輔助所做出的判斷并非自主決斷,道德增強的效果也并不能說明被增強者道德自覺的提升與道德水平的提高。然而,超人類主義者認為人格同一性并不會因為增強技術的介入而消解,在生理連續性層面,以器官移植為例,被移植者接受器官移植手術后的人格同一性通常并不會受到懷疑。同樣在心理連續性層面,個體的人生敘事總是受到一些生活事件的干擾,認知或情感類的增強技術帶來的改變僅僅只是精神狀態而并非自我感知與自我擁有感,自我的真實性、完整性也不會消解。即便個體的偏好受到外在環境的塑造與影響,只要這一偏好是個人經過理性考慮而認同的,那么這一行為并不會有悖于個人的自由。(三)人類增強技術的分配正義問題人類增強技術的應用也同器官移植一樣引發了社會公平與正義問題的討論。由于人類增強技術成本高昂,最初獲得這種技術的機會將受到諸多限制,那些能夠負擔起運用這項技術的人在獲得增強所帶來的益處后將進一步有利于其追求與生活質量相關的競爭性產品,而那些在經濟社會中處于弱勢地位的人相較之下更無力獲取這類稀缺性資源,進而在社會競爭中落于更加不利的位置。生物保守主義者擔憂人類增強技術的出現將加劇貧富差距,擴大原有的社會不平等狀況,并且創造出一種新的社會分裂,即“增強鴻溝”——增強者與未增強者間的上下對立關系。超人類主義者或許不會否認當今社會就已經存在的社會和經濟上的不平等,以及這種不平等所帶來的在獲取人類增強技術的機會上的差異,但他們并不認同生物保守主義提出的“增強鴻溝”。他們通過加速回報定律(thelawofacceleratingreturns)以及邊際溢出效應對其觀點進行了辯護,普通消費者也能從人類增強技術的普及化發展中受益。因此,“增強鴻溝”在超人類主義者看來只是杞人憂天而根本無法阻止增強技術為社會所接納的現實趨勢。三、人類增強技術倫理爭論的論證進路及其限度生物保守主義者與超人類主義者之間的“人類增強技術倫理之爭”很大程度上關涉到人性論與技術觀。從兩種不同的看待人性與技術的立場觀點可以看出,超人類主義與生物保守主義雙方的論證核心或者說進路分別是進化論與自然人性論。(一)人性論論證及其限度生物保守主義者支持一種天賦的自然人性觀。保守主義的自然人性論試圖去捍衛一種人文主義傳統,這種傳統強調,考慮到人類基因的獨特性,自然人作為一個物種與與其他物種之間應該存在一個區分,并且即便考慮到關于人性的理解具有歷史性,人性也總歸存在一個不可逾越的底線,人的自然權利與人性尊嚴也來源于此,人與技術的關系應該是主人與奴仆的關系而非反之,人類增強技術以進化的名義將人作為可操作的器具對待實際上是“去人性化”的,非正義的,同時也暗含著替代造物主的人類中心主義式的狂妄與傲慢。因此,要想保持人類的生存與人類社會的存續就必然保持人的自然本性不被人工技術所干預。然而,保守主義對于人性的自然規定訴諸于形而上學式的直覺,而非像超人類主義那樣從經驗事實判斷出發,這就使得保守主義的論證與辯護顯得和時代、技術的發展現實相脫節。不過更為根本的是,自然人性論論證所依托的形而上學直覺實際上來自于歐洲文藝復興以來的現代性價值,而受到現代性批判思潮的沖擊。(二)進化倫理學論證及其限度哲學人類學家蓋倫(ArnoldGehlen)的“生物本能缺乏論”認為,人是一種在生物本能上不完美、不充分的存在,無法像動物一樣天生地依靠專門化的器官與本能適應外部環境,不得不使用技術與工具來增強自身能力以便適應環境。這也就意味著,缺乏本能的人類是技術性生成的存在,人性沒有一個初始性的自然本原,人類的歷史是不斷發明、創造和增強自身性能的進化過程。超人類主義的“增強進化論”延續了這種理念,“利用技術提高身體素質和能力是物種生存和適應能力增強的表現”,同樣,人類增強技術的影響并不是像某些保守主義者所批評的那樣導致社會貧富差距加深以及自主性的散失,從人類演化史和技術史的角度來看,那些最初昂貴的、罕見的和有風險的技術也往往會在工業化生產下變得便宜、易得、普遍和相對安全。在哈里斯等超人類主義者看來,人類增強技術給人們帶來影響將不會是對自由意志的壓制與社會不公平,而會是更加公正平等、健康、自由和積極的生活以及更高層次的人類進化階段。然而,如果從元倫理學層面來看,超人類主義者的進化論論證實際上犯了摩爾(GeorgeEdwardMoore)所說的“自然主義謬誤”,即建立在經驗與可實證基礎上的事實陳述無法直接推導出規范性的價值陳述。依據弗蘭克那(WilliamFrankena)的闡述,我們可以從兩方面呈現出超人類主義者的論證錯誤:從邏輯層面而言,增強技術給生理與心理帶來的“更高、更強、更進化”并不能直接推導出道德層面的善,因為從非道德前提無法推出道德結論;而就定義層面而言,超人類主義的論證實際上是將某一種或某一類自然屬性等同于善。進化論最多可以幫助我們理解某些道德規范形成所必要的經驗性前提,卻不能夠作為論證某種價值規范的原則或是綱領,如

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論