杨幂乱人伦中文视频在线观看,www.四虎.,成人爽爽大片在线观看,天天曰天天操av,亚洲日本va午夜中文字幕,黄色在线资源,成年女人18级毛片毛片免费观看

法治號 手機版| 站內(nèi)搜索

網(wǎng)上有害信息舉報

生成式人工智能應(yīng)用的倫理立場與治理之道:以ChatGPT為例

2024-02-23 10:27:35 來源:法治日報-法治網(wǎng) -標(biāo)準(zhǔn)+

□ 馮子軒 (西南政法大學(xué)教授)

倫理問題關(guān)乎人工智能未來技術(shù)走向、規(guī)則制定、接受程度等,是生成式人工智能發(fā)展過程中需要解決的首要問題。以ChatGPT為代表的生成式人工智能擁有強大的語言理解和文本生成能力,但其僅是吸納虛擬世界中的數(shù)字代碼集成,與客觀世界交互仍有遙遠(yuǎn)距離。應(yīng)當(dāng)警惕其撼動人類主體地位的倫理困境,明確生成式人工智能應(yīng)用中的人本主義立場,建構(gòu)生成式人工智能治理的倫理規(guī)則,從人工智能倫理治理組織機制、人工智能倫理規(guī)范機制入手,為人機共存社會尋求妥善的倫理解決方案。

當(dāng)前,國際組織層面主要以倫理倡導(dǎo)性規(guī)范為主,旨在為人工智能倫理凝聚共識,宣示意義較強。隨著引領(lǐng)生成式人工智能技術(shù)實現(xiàn)突破后,美國對其倫理問題的重視程度明顯超越以往,多份文件提出確保人工智能的合倫理性、可信賴性以及對公民個人信息、隱私、公平、自由等基本權(quán)利的保障,并在聯(lián)邦政策與法律框架制定中有所表達,正在形成一種倡導(dǎo)與監(jiān)管并行的倫理治理模式。英國在生成式人工智能監(jiān)管中注重維護市場秩序、保障相關(guān)消費者合法權(quán)益等,強調(diào)基本倫理秩序維護與基本權(quán)利保護。我國正處于人工智能倫理規(guī)范建設(shè)初期,正在探尋安全發(fā)展、協(xié)同參與的平衡方案?!渡墒饺斯ぶ悄芊?wù)管理暫行辦法》《深圳經(jīng)濟特區(qū)人工智能產(chǎn)業(yè)促進條例》等立法對人工智能應(yīng)尊重社會公德與倫理道德,堅持社會主義核心價值觀、防止歧視,尊重他人合法權(quán)益等提出明確要求,未來還需在組織架構(gòu)、程序設(shè)計、標(biāo)準(zhǔn)統(tǒng)一和責(zé)任承擔(dān)等方面予以完善。

生成式人工智能應(yīng)用的多重倫理困境

第一,削弱人類主體價值。人類被賦予了某種固有價值或價值優(yōu)先,倫理秩序圍繞著人類展開,倫理建構(gòu)以“人類塑造世界”為核心。但在人機共存社會中,人工智能正在成為具有一定自主行動能力的實施者,并且人工智能極易通過結(jié)論的輸出去分析、識別和塑造人的觀念和認(rèn)知體系,引發(fā)“人工智能塑造人類”的結(jié)果,人類主體性將會遭受挫折。再者,由于個體能力有差別,“人工智能鴻溝”的出現(xiàn)或?qū)⒓觿∩缛簝?nèi)部分化,弱勢群體將面臨淘汰或成為算法霸凌受害者,動搖普遍意義上的人本主義立場。

第二,加劇算法偏見與歧視。一是作為與人類社會同構(gòu)的大數(shù)據(jù),包含著根深蒂固的偏見。人工智能可從數(shù)據(jù)中學(xué)到刻板聯(lián)想,也會從訓(xùn)練數(shù)據(jù)集中繼承偏見,使部分人群遭受不公正待遇。二是生成式人工智能可以在人機交互過程中獲取并分析人類回應(yīng),反饋自我強化學(xué)習(xí),提高準(zhǔn)確性。若使用者傳播虛假或不實數(shù)據(jù),或回復(fù)本身存有偏見、歧視等個人價值觀因素,則會生成有害輸出。

第三,過度依賴擬態(tài)環(huán)境輸出結(jié)果。生成式人工智能使人們習(xí)慣依賴其輸出結(jié)果來認(rèn)識周圍事物,并對其結(jié)果產(chǎn)生信任。這時,傳來經(jīng)驗代替實踐經(jīng)驗,擬態(tài)環(huán)境就成了人與世界的一種中介性存在。因此,機器最終向大眾呈現(xiàn)的并非全然是真實世界中的客觀事實,其存有產(chǎn)生“象征性現(xiàn)實”這一擬態(tài)情況的可能。使用者接收到擬態(tài)事實并經(jīng)大眾傳播渠道輸出后,便會變成普遍社會現(xiàn)實存在,成為人類行動的標(biāo)準(zhǔn)和認(rèn)識世界的依據(jù)。

第四,價值對齊困難。如果人工智能不能理解人類的意圖,在為其設(shè)定多種目標(biāo)時,機器可能會作出錯誤的選擇,輸出結(jié)果可能不符合人類意圖。人機價值無法對齊,機器會選擇執(zhí)行人類不需要的目標(biāo),如果不能堅守人的價值立場,我們可能會失去對它的控制,使機器應(yīng)用最終凌駕于人類之上。

生成式人工智能應(yīng)用的人本主義倫理立場

聚焦于人機共存關(guān)系,我們亟須秉持人本主義立場來定位兩者在社會譜系中的相對位置。第一,明確人類較之機器所具有的優(yōu)先性,也兼顧人機交互的優(yōu)勢。第二,明確機器的從屬性和次要性,始終把人工智能視作實現(xiàn)人類目標(biāo)的工具,其任務(wù)是協(xié)助而不是取代人類,更不能操縱和支配人類,使人類異化為工具。第三,無論是傳統(tǒng)工具,還是人工智能,都是人類創(chuàng)造的具有價值的社會實踐物或社會實踐活動,都要遵循“人是目的”的倫理立場,不能改變其“屬人性”特征。

筆者認(rèn)為,立足人本主義倫理立場,應(yīng)堅持福祉、尊嚴(yán)和責(zé)任原則。福祉原則是以人為本的根本目標(biāo),尊嚴(yán)原則是實現(xiàn)以人為本的前提和必然要求,責(zé)任原則是實現(xiàn)以人為本的重要保障。上述原則旨在確保生成式人工智能發(fā)展和應(yīng)用為人類社會帶來正面?zhèn)惱碛绊憽?/p>

生成式人工智能應(yīng)用的人本主義倫理治理機制

法律具有滯后性,科技創(chuàng)新要考慮倫理先行。在人工智能未來風(fēng)險處于不可完全認(rèn)知、風(fēng)險評估及成本效益分析等規(guī)制手段不完全有效的情況下,我國應(yīng)秉持人本主義立場,探尋符合中國實際的科技向善之道。

第一,建構(gòu)人本面向的人工智能倫理治理組織機構(gòu)。我國人工智能倫理治理組織機構(gòu)應(yīng)當(dāng)立足人本主義立場,重視常態(tài)化、場景化評估生成式人工智能引用的倫理風(fēng)險與影響,制定倫理安全標(biāo)準(zhǔn)、技術(shù)規(guī)范、風(fēng)險防控與應(yīng)對策略。倫理機構(gòu)應(yīng)協(xié)同發(fā)揮作用,相互協(xié)調(diào)、信息互通、分工明確,搭建倫理監(jiān)督的協(xié)同治理組織框架。應(yīng)秉持預(yù)防原則,對生成式人工智能的倫理風(fēng)險及時干預(yù),對其發(fā)展方向、發(fā)展戰(zhàn)略作出規(guī)劃,制定安全標(biāo)準(zhǔn)與規(guī)范,提升管理風(fēng)險的能力。倫理機構(gòu)也應(yīng)關(guān)注生成式人工智能應(yīng)用中公民基本權(quán)利如何得到有效保護。

第二,完善人本面向的人工智能倫理規(guī)范機制。一是明晰技術(shù)應(yīng)用的公平機制。關(guān)注生成式人工智能應(yīng)用中所產(chǎn)生的歧視偏見等,完善公平保障機制。解決設(shè)計道德問題,擴大技術(shù)系統(tǒng)質(zhì)量的評價標(biāo)準(zhǔn),開發(fā)符合應(yīng)用者價值傾向的算法。形成生成式人工智能應(yīng)用真實性的規(guī)范制度,促成生成式人工智能應(yīng)用過程可解釋性實現(xiàn)。二是完善倫理風(fēng)險的預(yù)警機制。加強人工智能技術(shù)安全保障,建立倫理風(fēng)險智能監(jiān)測、預(yù)警及管控機制,提升生成式人工智能的安全透明度。三是補足倫理審查的追責(zé)機制。生成式人工智能輸出的問答與信息,其倫理責(zé)任最終應(yīng)指向各環(huán)節(jié)承擔(dān)實際角色的主體。生成式人工智能仍然是一種“非人化”擬合工具,是基于對參數(shù)與數(shù)據(jù)的分析,其本身不具有主體自覺和情感,嚴(yán)格來講不具有倫理意識與責(zé)任。故就現(xiàn)階段而言,應(yīng)基于人本主義立場,明確提供者、使用者、設(shè)計者等各方主體倫理責(zé)任,落實倫理責(zé)任承擔(dān)機制,完善責(zé)任體系。還應(yīng)建立監(jiān)測生成式人工智能系統(tǒng)全生命周期的機制,針對算法、數(shù)據(jù)與系統(tǒng)運行流程進行監(jiān)測與審計,關(guān)注生成式人工智能應(yīng)用可追溯性和可審計性的實現(xiàn)。

(原文刊載于《華東政法大學(xué)學(xué)報》2024年第1期)

編輯:武卓立