當(dāng)前位置: 首頁(yè) 精選范文 人工智能的法律規(guī)制范文

人工智能的法律規(guī)制精選(五篇)

發(fā)布時(shí)間:2023-09-18 16:39:15

序言:作為思想的載體和知識(shí)的探索者,寫(xiě)作是一種獨(dú)特的藝術(shù),我們?yōu)槟鷾?zhǔn)備了不同風(fēng)格的5篇人工智能的法律規(guī)制,期待它們能激發(fā)您的靈感。

人工智能的法律規(guī)制

篇1

【關(guān)鍵詞】人工智能 超級(jí)計(jì)算力

一、引言

(一)問(wèn)題提出

人工智能作為下一代技術(shù)發(fā)展的趨勢(shì),其方向也是眾多科技界人士關(guān)心的問(wèn)題。很多科學(xué)家預(yù)言,人工智能不僅僅是人類技術(shù)突破的下一個(gè)階段,而且更是人工智能的發(fā)展?jié)摿Ρ貙⒊鋈祟惖目刂疲蔀樾乱粋€(gè)物種,甚至可能替代人類,“統(tǒng)治”地球,我們抱著研究的目的,來(lái)探討人工智能技術(shù)發(fā)展的方向與途徑。

人工智能技術(shù)的發(fā)展對(duì)大多數(shù)人而言,是渾然不覺(jué),全無(wú)概念的,但是從近年來(lái)各大科技公司的戰(zhàn)略與產(chǎn)品上看,人工智能的確已經(jīng)成為當(dāng)下科技界爭(zhēng)奪的戰(zhàn)略制高點(diǎn),蘋(píng)果的Siri語(yǔ)音助手,谷歌的無(wú)人駕駛等單向的人工智能技術(shù)已經(jīng)非常成熟,而大量的科技公司正在投入巨大的精力與財(cái)力進(jìn)行研究,可以預(yù)見(jiàn),在不久的將來(lái),人工智能技術(shù)必將成為人類生產(chǎn)生活領(lǐng)域中廣泛應(yīng)用的技術(shù)之一。而對(duì)其進(jìn)行發(fā)展脈絡(luò)和規(guī)律的判斷與估計(jì)也是十分必要的,也是順應(yīng)技術(shù)趨勢(shì),推動(dòng)技術(shù)創(chuàng)新的必由之路。

(二)目的與意義

一方面,對(duì)于科學(xué)研究來(lái)說(shuō),繁重的科學(xué)和工程計(jì)算本來(lái)是要人腦來(lái)承擔(dān)的,如今計(jì)算機(jī)不但能完成這種計(jì)算,而且能夠比人腦做得更快、更正確,因此當(dāng)代人已不再把這種計(jì)算看作是“需要人類智能才能完成的復(fù)雜任務(wù)”,人工智能這門(mén)科學(xué)的詳細(xì)目標(biāo)也天然跟著時(shí)代的變化而發(fā)展。這些創(chuàng)造力以各種數(shù)學(xué)定理或結(jié)論的方式呈現(xiàn)出來(lái),而數(shù)學(xué)定理最大的特點(diǎn)就是:建立在一些基本的概念和公理上,以模式化的語(yǔ)言方式表達(dá)出來(lái)的包含豐碩信息的邏輯結(jié)構(gòu)。這種途徑是數(shù)學(xué)賦予的,是普通人無(wú)法擁有但計(jì)算機(jī)可以擁有的“能力”。從此,計(jì)算機(jī)不僅精于算,還會(huì)因精于算而精于創(chuàng)造。我們可以將這樣的學(xué)習(xí)方式稱之為“連續(xù)型學(xué)習(xí)”。本質(zhì)上,這種方法為人的“創(chuàng)造力”的模式化提供了一種相稱有效的途徑。

另一方面,對(duì)于人類的生產(chǎn)生活甚至未來(lái)來(lái)說(shuō),人工智能技術(shù)的快速發(fā)展,不僅會(huì)在更大程度上解放人的勞動(dòng)時(shí)間與降低工作辛勞程度,使得人們?cè)絹?lái)越離不開(kāi)機(jī)器的工作,并且每個(gè)人的生活方式發(fā)生根本性的轉(zhuǎn)變,而且,更重要的是,在未來(lái),人類是否會(huì)與機(jī)器進(jìn)行深度融合,發(fā)展處全新的生命構(gòu)造體,以此來(lái)迭代和進(jìn)化,實(shí)現(xiàn)人類和機(jī)器人的和諧共存,還是人工智能會(huì)自動(dòng)發(fā)展出自我意識(shí),而在將來(lái)的某一個(gè)時(shí)點(diǎn),機(jī)器人們將會(huì)對(duì)他們的締造者――人類舉起屠刀,實(shí)現(xiàn)自己稱霸的野心,這也不得而知,因此,對(duì)人工智能的路徑探討是十分必要和有重大意義的。

二、人工智能發(fā)展趨勢(shì)

(一)人工智能的準(zhǔn)確定位

人工智能(Artificial Intelligence),它是研究、開(kāi)發(fā)用于模擬、延伸和擴(kuò)展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門(mén)新的技術(shù)科學(xué)。 人工智能是計(jì)算機(jī)科學(xué)的一個(gè)分支,它企圖了解智能的實(shí)質(zhì),并生產(chǎn)出一種新的能以人類智能相似的方式做出反應(yīng)的智能機(jī)器,該領(lǐng)域的研究包括機(jī)器人、語(yǔ)言識(shí)別、圖像識(shí)別、自然語(yǔ)言處理和專家系統(tǒng)等。人工智能從誕生以來(lái),理論和技術(shù)日益成熟,應(yīng)用領(lǐng)域也不斷擴(kuò)大,可以設(shè)想,未來(lái)人工智能帶來(lái)的科技產(chǎn)品,將會(huì)是人類智慧的“容器”。人工智能是對(duì)人的意識(shí)、思維的信息過(guò)程的模擬。人工智能不是人的智能,但能像人那樣思考、也可能超過(guò)人的智能。

(二)人工智能的發(fā)展趨勢(shì)研究

1、自我存續(xù)。這是一個(gè)十分顯眼的要求,人工智能如果作為一個(gè)新物種存在,其必須擁有自我生存的能力,即離開(kāi)人類,人工智能技術(shù)必將仍然存在。而且人工智能將與其他物種和環(huán)境形成新型交流互動(dòng)方式。以極端的情況來(lái)說(shuō),如果人類在將來(lái)的某一天消失了,而人工智能必須擁有維持自身生存和發(fā)展機(jī)制和技術(shù),如果是電量不足,核心機(jī)器人將會(huì)指揮挖掘型機(jī)器再次挖煤,或核能機(jī)器人運(yùn)用核能來(lái)發(fā)電,以維持自身的正常運(yùn)轉(zhuǎn),而這一切的工作都是在人工智能的機(jī)器內(nèi)部解決,而并不需要人類的參與,這就是人工智能的自我生存功能。

2、自我迭代更新。這是在自我存續(xù)的基礎(chǔ)之上發(fā)展而來(lái)的。一個(gè)機(jī)器,一代機(jī)器的存在可能并不是問(wèn)題,而要想機(jī)器向人類一樣代代繁衍不絕,則對(duì)人工智能來(lái)說(shuō),絕對(duì)是一個(gè)巨大的障礙。因此,在機(jī)器自身的自我繁殖更新迭代,也是必須要進(jìn)行的過(guò)程,這就需要強(qiáng)人工智能的高度運(yùn)用,來(lái)對(duì)整個(gè)機(jī)器人生態(tài)進(jìn)行實(shí)時(shí)評(píng)估,不斷地提出新的發(fā)展要求,而且立即組織機(jī)器人中的“科學(xué)家”對(duì)其進(jìn)行研究與探討,實(shí)驗(yàn)與創(chuàng)造,或者是融入生物技術(shù)而與之進(jìn)行基因式的合作,這些都是不確定的,唯一能確定的是,離開(kāi)人類的獨(dú)立人工智能必須要有發(fā)展創(chuàng)造出更新更快更強(qiáng)的人工智能的能力。

3、自我認(rèn)同。人工智能的自我認(rèn)同分兩個(gè)層面,一方面是對(duì)內(nèi)進(jìn)行認(rèn)同,另一方面,是對(duì)外進(jìn)行認(rèn)同。如果假定人工智能是人類的發(fā)展方向,其必須會(huì)對(duì)人類關(guān)心的終極問(wèn)題等產(chǎn)生同樣的巨大疑惑,比如我是誰(shuí)?我從哪里來(lái)?要到哪里去?宇宙的界限是什么?而且以人工智能的水平來(lái)看,它一定不會(huì)停留在思考的層面上,而是會(huì)進(jìn)行各種不同的實(shí)驗(yàn)與探索,已驗(yàn)證自己的猜想。另一方面,人工智能作為一個(gè)以理性而存在的物種,其合作是建立在種種規(guī)章制度之上,而一旦有機(jī)器發(fā)現(xiàn)制度的漏洞,就會(huì)有進(jìn)行套利和損人利己的動(dòng)機(jī),而阻止這種情況的發(fā)生,只能是建立在機(jī)器人的情感共同體的基礎(chǔ)之上,即是機(jī)器人產(chǎn)生同樣的情感,而形成有效率的合作與分工,而不會(huì)因?yàn)槎唐诶鏍奚L(zhǎng)遠(yuǎn)利益。

三、結(jié)論

由上述探討可知,人工智能的發(fā)展道路還是非常漫長(zhǎng)而艱辛的。對(duì)于其是否會(huì)取代人類,這個(gè)問(wèn)題要依賴于將來(lái)的技術(shù)發(fā)展和人類的生命形態(tài)的演變而定,而我們對(duì)人工智能進(jìn)行的物種化探討是非常有必要的,也是對(duì)人工智能技術(shù)的發(fā)展和對(duì)其風(fēng)險(xiǎn)的防控具有借鑒意義的一個(gè)環(huán)節(jié),是我們進(jìn)行科學(xué)技術(shù)開(kāi)發(fā)的留有的一個(gè)客觀冷靜的分析角度。

參考文獻(xiàn):

篇2

當(dāng)我們談?wù)撊斯ぶ悄埽ˋrtificial Intelligence,AI)時(shí),很大程度上受到源自20世紀(jì)想象的影響,例如,直接把人工智能和機(jī)器人聯(lián)系起來(lái),甚至是人形機(jī)器人。這可能也會(huì)影響法律人對(duì)人工智能的想象,包括是否承認(rèn)人工智能作為具有自我意識(shí)的法律主體地位(或至少是人類行為的人),從而保護(hù)其特定權(quán)利(言論自由、著作權(quán))、劃定責(zé)任(締約、侵權(quán)),甚至強(qiáng)調(diào)可能的毀滅性風(fēng)險(xiǎn)。這種想象遠(yuǎn)非受到科幻作品影響那樣簡(jiǎn)單,深層次中還反映出人工智能在技術(shù)和應(yīng)用上不同的發(fā)展路徑:早期人工智能研究更集中于對(duì)人腦的仿真模擬,探究意識(shí)、理性等更為宏大的哲學(xué)問(wèn)題,但應(yīng)用性較少;當(dāng)下的人工智能走出了實(shí)驗(yàn)室,借助互聯(lián)網(wǎng)服務(wù)直接影響到普通人的生活,在技術(shù)上并不執(zhí)著于創(chuàng)造一個(gè)完美的智能體,而是依靠算法(如機(jī)器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò))不斷優(yōu)化,對(duì)海量數(shù)據(jù)自動(dòng)挖掘與預(yù)測(cè),通過(guò)無(wú)所不在的傳感器實(shí)時(shí)更新數(shù)據(jù),動(dòng)態(tài)掌控著人類社會(huì)各個(gè)方面的運(yùn)轉(zhuǎn),并把從某個(gè)特定領(lǐng)域升級(jí)為通用人工智能作檳勘輟4誘飧鲆庖逕纖擔(dān)人工智能并不神秘,它出現(xiàn)在日常生活中,不僅是工業(yè)社會(huì)生產(chǎn)自動(dòng)化的延續(xù),也是互聯(lián)網(wǎng)商業(yè)化的必然結(jié)果和新階段。時(shí)至今日,歐美國(guó)家紛紛出臺(tái)政策,推動(dòng)人工智能發(fā)展,力求提升經(jīng)濟(jì)效率和競(jìng)爭(zhēng)力。 互聯(lián)網(wǎng)公司正逐漸主導(dǎo)實(shí)體經(jīng)濟(jì)和金融生產(chǎn)

如果我們擺脫簡(jiǎn)單的擬人思維,把人工智能看作互聯(lián)網(wǎng)智能演進(jìn)的新階段,為理解其法律規(guī)則,就有必要理解互聯(lián)網(wǎng)法律在過(guò)去20年中形成的路徑和推動(dòng)力,從而探討人工智能是否有任何特殊性以至于需要新的規(guī)則。本文將從網(wǎng)絡(luò)法的兩個(gè)視角――實(shí)證性和生產(chǎn)性――切入,將它們延伸至人工智能語(yǔ)境下分別討論。“實(shí)證性”視角是我們觀察和應(yīng)用任何規(guī)則的慣常思維方式,例如人工智能行為的具體規(guī)則如何確立、如何規(guī)制等,本文將討論支撐人工智能的兩個(gè)構(gòu)成性要素――算法與數(shù)據(jù)――可能帶來(lái)的法律問(wèn)題,以及法律人處理人工智能的兩種路徑;“生產(chǎn)性”視角則深入規(guī)則背后,探索規(guī)則形成的政治經(jīng)濟(jì)因素,特別是經(jīng)濟(jì)生產(chǎn)方式的內(nèi)在要求。人工智能本質(zhì)上是一套復(fù)雜的代碼設(shè)計(jì),既是影響社會(huì)行為的強(qiáng)力規(guī)范,也是產(chǎn)生新價(jià)值的生產(chǎn)機(jī)制;它驅(qū)動(dòng)整個(gè)社會(huì)朝向更智能的方向變化,從而要求法律做出相應(yīng)調(diào)整,尤其是確認(rèn)新型經(jīng)濟(jì)利益的合法性。

限于篇幅,本文姑且將人工智能看成法律上的客體,暫不討論賽博格(cyborg)之類的人體轉(zhuǎn)向機(jī)械體或通過(guò)基因技術(shù)改變身體的問(wèn)題(仍是法律上的人),也不討論人工智能作為一種人造物的自我意識(shí)問(wèn)題(一個(gè)難以達(dá)成共識(shí)的哲學(xué)問(wèn)題)。

理解網(wǎng)絡(luò)法的變遷

網(wǎng)絡(luò)法在中國(guó)的變遷大致遵循兩類邏輯:外生性的政治/監(jiān)管邏輯和內(nèi)生性的商業(yè)邏輯。政治/監(jiān)管邏輯體現(xiàn)為對(duì)“實(shí)證性規(guī)則”的追求,這些規(guī)則集中在國(guó)家(包括法院和監(jiān)管機(jī)構(gòu))如何對(duì)互聯(lián)網(wǎng)的內(nèi)容和行為進(jìn)行規(guī)制,包括對(duì)網(wǎng)絡(luò)和信息安全的追尋。這集中反映了國(guó)家權(quán)力如何試圖介入新技術(shù)帶來(lái)的問(wèn)題與挑戰(zhàn)。這一視角最早由美國(guó)法學(xué)界引出,特別是Lawrence Lessig的代碼理論將代碼(架構(gòu))和法律并列。由此,所謂的網(wǎng)絡(luò)法不僅要約束社會(huì)主體在網(wǎng)絡(luò)空間中的行為,也要對(duì)架構(gòu)的變化本身做出回應(yīng)。

首先,就規(guī)制主體行為而言,出現(xiàn)了是否按照傳統(tǒng)線下行為規(guī)則的思路約束線上行為的討論。這一討論的核心是,互聯(lián)網(wǎng)問(wèn)題是否具有任何特殊性,需要某些新規(guī)來(lái)解決。我們已經(jīng)看到,中國(guó)的互聯(lián)網(wǎng)行為監(jiān)管在很大程度上延續(xù)了傳統(tǒng)規(guī)則和管理方式,采取漸進(jìn)的方式,這不僅成本較小,也給予監(jiān)管者一定的學(xué)習(xí)和探索空間。其次,就架構(gòu)變化本身而言,國(guó)家在宏觀上主張網(wǎng)絡(luò)空間中仍然需要,不能成為法外之地,在微觀上相應(yīng)出現(xiàn)了國(guó)家與平臺(tái)權(quán)力/責(zé)任二分的討論。例如,政府權(quán)力何時(shí)需要介入平臺(tái)治理,加強(qiáng)平臺(tái)的行政管理責(zé)任或安全保障責(zé)任,還是由后者根據(jù)自身情況自我規(guī)制,實(shí)現(xiàn)治理目標(biāo)。政治/監(jiān)管邏輯要么遵循管理者的路徑依賴效應(yīng),要么堅(jiān)持既有社會(huì)穩(wěn)定、意識(shí)形態(tài)安全價(jià)值。問(wèn)題在于,監(jiān)管者在多大程度上能夠認(rèn)識(shí)到代碼及其商業(yè)模式的特殊性,從而使監(jiān)管行為和行業(yè)特性相互協(xié)調(diào)融合。

另一種看待規(guī)則產(chǎn)生的方式遵循商業(yè)邏輯。這種生產(chǎn)性視角關(guān)注微觀權(quán)力運(yùn)作,綜合將代碼、法律與社會(huì)規(guī)范放在一起,不單純從社會(huì)學(xué)意義上觀察社會(huì)主體行為如何受到影響,而是在政治經(jīng)濟(jì)學(xué)意義上將網(wǎng)絡(luò)空間的生成和擴(kuò)散看成是一個(gè)由商業(yè)力量推動(dòng)主導(dǎo)的生產(chǎn)性過(guò)程,關(guān)注價(jià)值由誰(shuí)產(chǎn)生、如何分配,由此推動(dòng)對(duì)新規(guī)則的內(nèi)生需求。按照這一視角,無(wú)論是法律還是架構(gòu),在具有實(shí)證性規(guī)制功能的同時(shí),也是一種“生產(chǎn)性規(guī)則”。互聯(lián)網(wǎng)的生產(chǎn)模式?jīng)Q定了其對(duì)社會(huì)范圍內(nèi)生產(chǎn)資料的創(chuàng)造性生產(chǎn)和再利用,需要法律確認(rèn)其生產(chǎn)方式的合法性,重塑關(guān)鍵法律制度,并解決和傳統(tǒng)生產(chǎn)模式的利益沖突。這一視角無(wú)疑幫助厘清新經(jīng)濟(jì)主張的例外特性,不僅展示出架構(gòu)和相應(yīng)的法律改變,更指明了背后的政治經(jīng)濟(jì)原因,是更好地理解實(shí)證性規(guī)則的基礎(chǔ)。

兩類不同的邏輯在過(guò)去20年中交替出現(xiàn),相互制約,共同塑造了中國(guó)網(wǎng)絡(luò)法體系,也推動(dòng)了中國(guó)互聯(lián)網(wǎng)的整體發(fā)展。總體而言,鑒于國(guó)家有意促進(jìn)新經(jīng)濟(jì),需要推動(dòng)傳統(tǒng)的屬地化、分口治理,事后運(yùn)動(dòng)治理模式發(fā)生轉(zhuǎn)變,認(rèn)清互聯(lián)網(wǎng)商業(yè)模式和價(jià)值產(chǎn)生的根源,有利探索適應(yīng)新經(jīng)濟(jì)性質(zhì)的管理體制。從這個(gè)意義上說(shuō),信息資本主義不斷要求對(duì)法律內(nèi)核進(jìn)行改造,取代其中的傳統(tǒng)經(jīng)濟(jì)要素,打破限制生產(chǎn)要素自由流通的各類規(guī)則。

人工智能法律的實(shí)證性視角

如前所述,人工智能的本質(zhì)在于算法和數(shù)據(jù)處理,物理形體不必然是人工智能的構(gòu)成要素,因?yàn)榧词故侨诵螜C(jī)器人,也不過(guò)是一個(gè)算法主導(dǎo)的硬件系統(tǒng),它實(shí)時(shí)收集信息,并按照算法的要求做出決定,繼而行動(dòng)。更重要的是,具有物理形體的人工智能可以推動(dòng)群體智能發(fā)展,通過(guò)分布式終端收集更多數(shù)據(jù)加以處理,并不斷傳輸至云端“大腦”,提升整體網(wǎng)絡(luò)的智能水平。 人工智能巳深度介入醫(yī)療領(lǐng)域

根據(jù)算法的復(fù)雜性和學(xué)習(xí)/運(yùn)算能力對(duì)強(qiáng)人工智能和弱人工智能進(jìn)行區(qū)分,這在技術(shù)認(rèn)知上沒(méi)有問(wèn)題,但在法律上很難按照智能程度給出精確的標(biāo)準(zhǔn)。法律應(yīng)對(duì)復(fù)雜世界的方式是確立一般性的簡(jiǎn)單規(guī)則,在概念上對(duì)社會(huì)個(gè)體進(jìn)行抽象假定(如行為能力),而非針對(duì)特殊主體,否則規(guī)則體系本身將變得異常復(fù)雜,難于理解和操作。而人工智能從單一的自動(dòng)化服務(wù)向多元通用服務(wù)轉(zhuǎn)變的過(guò)程可能是一個(gè)相當(dāng)長(zhǎng)的光譜,法律需要針對(duì)其本質(zhì)特征進(jìn)行約束,并探索一套應(yīng)對(duì)未來(lái)的方案。當(dāng)我們說(shuō)社會(huì)變得越來(lái)越智能的時(shí)候,事實(shí)上指由于數(shù)據(jù)搜集、儲(chǔ)存和處理的能力不斷增強(qiáng),所有軟件/算法都可能朝向自動(dòng)收集數(shù)據(jù),做出決定或判斷的趨勢(shì),由于算法的復(fù)雜性,算法帶來(lái)的結(jié)果可能無(wú)法預(yù)測(cè),并在更大范圍內(nèi)帶來(lái)系統(tǒng)性的不利后果。這種后果未必是毀滅性的風(fēng)險(xiǎn),甚至只是在某領(lǐng)域的制度設(shè)計(jì)問(wèn)題,但人工智能恰好將這類社會(huì)問(wèn)題具象化,掩藏在外表華麗、高效、更多是私人控制的“黑箱”中,就會(huì)引發(fā)一系列問(wèn)題。

如果放在一個(gè)更大范圍內(nèi)觀察,在歷史上,人類社會(huì)隨著復(fù)雜性的增加,不可避免地產(chǎn)生以組織和技術(shù)形態(tài)出現(xiàn)的各類“黑箱”,它們的決定影響著社會(huì)發(fā)展和大眾福利,但仍然保持著某種秘密性。這一隱喻未必是陰謀論,其核心問(wèn)題在于信息不對(duì)稱。為平衡相關(guān)當(dāng)事人和社會(huì)大眾的知情權(quán)、避免恐慌、保持某種預(yù)測(cè)能力,人們不斷設(shè)計(jì)出某種程度的信息公開(kāi)和透明化機(jī)制,例如政治辯論的公開(kāi)化,法院訴訟程序透明化甚至公開(kāi)庭審,上市公司強(qiáng)制信息披露等等。而人工智能不過(guò)是信息技術(shù)時(shí)代的新型黑箱,帶來(lái)更加嚴(yán)重的系統(tǒng)化影響。互聯(lián)網(wǎng)在興起過(guò)程中,通過(guò)降低信息成本,推動(dòng)了開(kāi)放政府、庭審直播,使信息公開(kāi)透明更加便利,將生產(chǎn)性資源不斷解放出來(lái),在更大社會(huì)范圍內(nèi)重新配置,產(chǎn)生新價(jià)值。然而,這一過(guò)程在消除一個(gè)又一個(gè)傳統(tǒng)黑箱的同時(shí),產(chǎn)生了更為復(fù)雜的新黑箱,進(jìn)而主導(dǎo)整個(gè)社會(huì)的生產(chǎn)過(guò)程。生產(chǎn)資料之間的信息變得越來(lái)越對(duì)稱,甚至可以實(shí)時(shí)互通信息,但作為信息匹配中介的人工智能卻變得更不透明,其規(guī)則設(shè)計(jì)和運(yùn)作從屬于用戶甚至開(kāi)發(fā)者無(wú)法理解的秘密狀態(tài),這回到了法律如何處理與代碼的關(guān)系問(wèn)題。

一個(gè)類似的比較是人類自身:人腦經(jīng)過(guò)上百萬(wàn)年的進(jìn)化,演變成十分復(fù)雜精致的系統(tǒng)。盡管當(dāng)代神經(jīng)科學(xué)不斷改變我們對(duì)人腦的認(rèn)知,甚至每個(gè)人的大腦都不完全一樣,但就法律而言意義不大,這只能在邊際上改變個(gè)案判決。即使無(wú)從了解人腦的運(yùn)轉(zhuǎn)機(jī)制,或者依據(jù)某種更加先進(jìn)的科學(xué)知識(shí)解釋社會(huì)主體行動(dòng)的具體理由,人類還是有能力形成社會(huì)規(guī)范,并演進(jìn)成更加理性化的規(guī)則。這套規(guī)則只需要假定一般社會(huì)主體是(受限)理性的,由少數(shù)概念界定不同情形的心理狀態(tài)(故意、過(guò)失),并集中對(duì)人的外在行為進(jìn)行約束,確定權(quán)利與義務(wù),就足以以簡(jiǎn)單規(guī)則應(yīng)對(duì)(而非認(rèn)識(shí))這一紛繁復(fù)雜的世界。類似地,在處理算法的負(fù)外部性時(shí),也可以有兩種不同的路徑:(1)關(guān)注算法的外部行為與后果,(2)關(guān)注算法內(nèi)部的設(shè)計(jì)規(guī)則。

大部分現(xiàn)有規(guī)則關(guān)注算法導(dǎo)致的(未意料)結(jié)果,例如內(nèi)容分發(fā)算法未經(jīng)審查造成非法或侵權(quán)內(nèi)容傳播,這一般由信息傳播者(即內(nèi)容服務(wù)商)承擔(dān)責(zé)任,算法本身并無(wú)法律地位,在造成不利后果的過(guò)程中只是一個(gè)工具。這類責(zé)任假定內(nèi)容服務(wù)商應(yīng)當(dāng)知道非法內(nèi)容的存在,并有能力通過(guò)算法設(shè)計(jì)或人力(比如人工審查)加以阻止。在諸多侵權(quán)場(chǎng)合,內(nèi)容服務(wù)商可以通過(guò)“避風(fēng)港”規(guī)則免責(zé),只要無(wú)法證明它實(shí)際知曉狀態(tài)。更復(fù)雜的是,如果軟件開(kāi)發(fā)者聲稱自己無(wú)法控制信息的生產(chǎn)和傳播,卻造成一定社會(huì)危害的情形。無(wú)論是在快播案還是BT案中,軟件開(kāi)發(fā)者都無(wú)法因這一原因而逃脫責(zé)任,法院的理由仍然是,開(kāi)發(fā)者有能力知曉非法內(nèi)容的輸出(如果不是故意的話,例如快播向推廣該播放器)。類似地,如果一個(gè)具有物理形體的人工智能由于處理信息不當(dāng)造成了外在損害,按照這一邏輯仍應(yīng)由算法開(kāi)發(fā)者負(fù)責(zé)。

而且,還有必要將算法產(chǎn)生的錯(cuò)誤和算法缺陷本身區(qū)分開(kāi)。長(zhǎng)期以來(lái),軟件行業(yè)一直通過(guò)拆封合同(shrink-wrap)解決缺陷軟件造成的短時(shí)崩潰或重啟問(wèn)題,這種格式條款旨在確認(rèn)這樣一種事實(shí):沒(méi)有任何軟件是百分之百完美的,只要在用戶拆封使用該軟件時(shí)運(yùn)行正常即可,服務(wù)商并不為軟件崩潰或死機(jī)造成的消費(fèi)者損失負(fù)責(zé),因?yàn)榍罢邿o(wú)法預(yù)料到缺陷帶來(lái)的風(fēng)險(xiǎn)。這就是為什么消費(fèi)者需要接受軟件生產(chǎn)商不停的更新和補(bǔ)丁,軟件/應(yīng)用不受產(chǎn)品責(zé)任的約束,被視為一種可以不斷升級(jí)改進(jìn)的服務(wù),這在免費(fèi)軟件時(shí)代更是如此。按照這一思路,似乎有理由認(rèn)為,無(wú)人駕駛汽車因算法計(jì)算錯(cuò)誤導(dǎo)致車禍(何況造成事故的概率遠(yuǎn)遠(yuǎn)小于人類司機(jī)的錯(cuò)誤)是這類軟件的正常的缺陷,消費(fèi)者應(yīng)當(dāng)容忍這類錯(cuò)誤。但無(wú)論是監(jiān)管者還是潛在的受害人都無(wú)法接受這種比擬。聲稱有潛在缺陷的交通工具(也包括醫(yī)療設(shè)備和其他與生命財(cái)產(chǎn)直接相關(guān)的算法)一旦投入使用就需要為此造成的后果負(fù)責(zé)。無(wú)論如何,這類思路仍然是通過(guò)后果施加事后責(zé)任,監(jiān)管者或法院并不想深入算法內(nèi)部了解造成事故的技術(shù)原因是什么。只要法律認(rèn)定這一黑箱應(yīng)當(dāng)在合理范圍內(nèi)得到控制,事故可以避免,黑箱提供者就應(yīng)當(dāng)承擔(dān)責(zé)任。在這種情況下,保險(xiǎn)(甚至是強(qiáng)制險(xiǎn))就成為確保這類發(fā)生概率小但潛在損失巨大的不二選擇,航空、醫(yī)療保險(xiǎn)市場(chǎng)十分發(fā)達(dá),可以預(yù)見(jiàn)將會(huì)延伸至更多由人工智能驅(qū)動(dòng)的服務(wù)行業(yè)。 現(xiàn)實(shí)與虛擬的界限不斷模糊化

如果說(shuō)事后救濟(jì)還無(wú)法確保安全,事前干預(yù)算法設(shè)計(jì)則是另一種選擇,同時(shí)帶來(lái)的問(wèn)題也更復(fù)雜。早在20世紀(jì),阿西莫夫就試圖為機(jī)器人立法,盡管他從未討論技術(shù)上的可行性。安全可能是人工智能服務(wù)的首要問(wèn)題之一:一個(gè)中心化的入侵可能會(huì)導(dǎo)致所有終端都變得極度不安全。行業(yè)監(jiān)管者在不同行業(yè)為特定服務(wù)中的人工智能設(shè)定安全標(biāo)準(zhǔn)(如醫(yī)療器械、交通工具、自動(dòng)化武器),實(shí)行安全保護(hù)等級(jí)制度,甚至要求被認(rèn)定為重要設(shè)施的源代碼(如windows系統(tǒng))供監(jiān)管者備案,或在設(shè)計(jì)自動(dòng)化交易程序時(shí)控制報(bào)單頻率的閾值等。又例如,在魏則西事件后,聯(lián)合調(diào)查組在整改意見(jiàn)中要求落實(shí)以信譽(yù)度為主要權(quán)重的排名算法,對(duì)商業(yè)推廣信息逐條加注醒目標(biāo)識(shí),予以風(fēng)險(xiǎn)提示。如果說(shuō)這些監(jiān)管手段針對(duì)的是作為商業(yè)秘密的私人算法,諸如Open人工智能這樣的倡議則意在延續(xù)開(kāi)源軟件運(yùn)動(dòng)路徑,確保軟件漏洞能夠得到更大范圍內(nèi)的監(jiān)督和修補(bǔ)。至少在中國(guó),信息披露機(jī)制尚未成為算法監(jiān)管的重要手段,無(wú)論是強(qiáng)制性披露還是第三方披露。

(作者單位:上海財(cái)經(jīng)大學(xué)法學(xué)院)

注釋:

[1]當(dāng)下的大眾媒體、文化產(chǎn)品和社會(huì)公共認(rèn)知正努力將未來(lái)的人工智能塑造成具有獨(dú)立意識(shí)的逐漸演化的主體,這集中體現(xiàn)在諸如《終結(jié)者》《我,機(jī)器人》《西部世界》《2001銀河漫游》這類科幻影視作品中。盡管人們也有理由進(jìn)一步想象,一旦人工智能具有了自我意識(shí),就不再可能忠實(shí)地為人類服務(wù),而更可能對(duì)人類生存構(gòu)成威脅。其路徑和思維方式仍是20世紀(jì)的,和21世紀(jì)依托大數(shù)據(jù)機(jī)器學(xué)習(xí)迥然不同。事實(shí)上,按照日本學(xué)者森政弘提出的“恐怖谷理論”,人工智能不太可能在短時(shí)間內(nèi)人形普及化,因?yàn)檫@會(huì)在消費(fèi)者心理上引發(fā)不安甚至恐懼。像Siri和Cornata這樣的語(yǔ)音助手、像Tay和小冰這樣的聊天機(jī)器人則不會(huì)有這種負(fù)面效果,因?yàn)橛脩糁雷约涸诤鸵粋€(gè)尚未通過(guò)圖靈測(cè)試的算法對(duì)話,他們甚至樂(lè)于教Tay在推特上辱罵用戶、發(fā)表種族主義和煽動(dòng)性的政治言論。另一個(gè)可能影響中文世界讀者想象的因素是,把robot翻譯成“機(jī)器人”先驗(yàn)地賦予了這類客體某種擬人化主體地位,而人形機(jī)器人(android)卻沒(méi)有引起更多的關(guān)注。

[2]John Weaver, Robots are People Too: How Siri, Google Car, and Artificial Intelligence Will Force Us to Change Our Laws ,Praeger Publishers Inc, 2013; Ugo Pagallo, The Laws of Robots: Crimes, Contracts, and Torts ,Springer, 2015.一個(gè)更加有用的綜合文集是Ryan Calo, A. Michael Froomkin and Ian Kerr (ed.), Robot Law ,Edward Elgar Publishing, 2016。Ryan Calo的研究將具有物理形體的機(jī)器人作為法律的對(duì)象,特別區(qū)分了信息性和物理性效果,見(jiàn)Ryan Calo, “Robotics and the Lessons of Cyberlaw”, Calif. L. Rev., Vol.103(2015).一個(gè)不同觀點(diǎn),見(jiàn)Jack Balkin, “The Path of Robotics Law”, Calif. L. Rev., No.6(2015),Circuit 45.把機(jī)器人視為人在法律上也有相當(dāng)?shù)臍v史,見(jiàn)Samir Chopra and Laurence F. White, A Legal Theory for Autonomous Artificial Agents ,The University of Michigan Press, 2011; Ryan Calo, “Robots in American Law”, University of Washington School of Law Research Paper, No. 2016-04.

[3]吳軍:《智能時(shí)代》,中信出版社2016年版。

[4]例如阿西莫夫的機(jī)器人系列小說(shuō)中,無(wú)一例外地設(shè)定機(jī)器人擁有一個(gè)“正子腦”(positronic br人工智能 n),但卻沒(méi)有給出任何解釋。見(jiàn)阿西莫夫:《機(jī)器人短篇全集》,江蘇文藝出版社2014年版。

[5]這被稱為終極算法(master algorithm),見(jiàn)佩德羅?多明戈斯:《終極算法:機(jī)器學(xué)習(xí)和人工智能如何重塑世界》,中信出版社2016年版。

[6]尼古拉斯?卡爾:《玻璃籠子:自動(dòng)化時(shí)代和我們的未來(lái)》,中信出版社2015年版。在互聯(lián)網(wǎng)發(fā)展的每一個(gè)階段都有某種意識(shí)形態(tài)化的術(shù)語(yǔ)或熱詞吸引投資,例如寬帶、大數(shù)據(jù)、分享經(jīng)濟(jì)、VR(虛擬現(xiàn)實(shí))等,它們不過(guò)是互聯(lián)網(wǎng)形態(tài)的各類變種。例如,一個(gè)關(guān)于分享經(jīng)濟(jì)和之前互聯(lián)網(wǎng)經(jīng)濟(jì)的關(guān)聯(lián),參見(jiàn)胡凌:《分享經(jīng)濟(jì)的法律規(guī)制》,載《文化縱橫》2015年第4期。

[7]這種思維方式可追溯到霍布斯以來(lái)的法律實(shí)證主義。

[8]胡凌:《代碼、著作權(quán)保護(hù)與公共資源池》,載《騰云》2016年12月刊。

[9]關(guān)于兩類邏輯的具體表現(xiàn),集中參見(jiàn)胡凌:《探尋網(wǎng)絡(luò)法的政治經(jīng)濟(jì)起源》,上海財(cái)經(jīng)大學(xué)出版社2016年版。

[10]這在眾多(特別是國(guó)外的)中國(guó)互聯(lián)網(wǎng)觀察者身上十分常見(jiàn),人們的注意力全都轉(zhuǎn)向中國(guó)政府如何嚴(yán)格管理和控制互聯(lián)網(wǎng)。在政治學(xué)研究中自然而然地并入“國(guó)家與市民社會(huì)”傳統(tǒng)框架,并吸納了關(guān)于在線抗?fàn)帯⒓w行動(dòng)的傳播學(xué)與社會(huì)學(xué)研究。

[11]勞倫斯?萊斯格:《代碼2.0》,清華大學(xué)出版社2008年版。

[12]一個(gè)概述,見(jiàn)胡凌:《馬的法律與網(wǎng)絡(luò)法》,載張平主編:《網(wǎng)絡(luò)法律評(píng)論》2010年第11卷。

[13]胡凌:《非法興起:理解中國(guó)互聯(lián)網(wǎng)演進(jìn)的一個(gè)框架》,d《文化縱橫》2016年第5期。這體現(xiàn)在版權(quán)、隱私、財(cái)產(chǎn)、不正當(dāng)競(jìng)爭(zhēng)、壟斷、勞動(dòng)法等一系列制度中。這種對(duì)法律制度的改變不單純是在既有工業(yè)生產(chǎn)背景下微型創(chuàng)新帶來(lái)的變化,而是社會(huì)生產(chǎn)的重塑。

[14]比如說(shuō),平臺(tái)責(zé)任議題的出現(xiàn),和互聯(lián)網(wǎng)平臺(tái)更多轉(zhuǎn)向由第三方提供服務(wù)的信息中介模式直接相關(guān)。

[15]這一區(qū)分和觀察中國(guó)式資本主義興起的框架十分類似,政治經(jīng)濟(jì)學(xué)家們爭(zhēng)論的焦點(diǎn)就在于如何解釋中國(guó)改革開(kāi)放三十年的成功經(jīng)驗(yàn),究竟是政府主導(dǎo)還是市場(chǎng)主導(dǎo),但實(shí)質(zhì)上是一個(gè)混合制經(jīng)濟(jì)。

[16]由于科斯所說(shuō)的企業(yè)信息成本和管理成本降低,調(diào)動(dòng)生產(chǎn)要素的邊際成本趨近于零,企業(yè)組織形態(tài)本身將成為競(jìng)爭(zhēng)的高成本。

[17]尼克?波斯特洛姆:《超級(jí)智能:路線圖、危險(xiǎn)性與應(yīng)對(duì)策略》,中信出版社2015年版。

[18]古代的政治過(guò)程、現(xiàn)代的企業(yè)決策都是黑箱,對(duì)外人而言如果不是神秘,也是除魅之后的國(guó)家/商業(yè)秘密。卡夫卡的小說(shuō)《審判》就精確描述了作為黑箱的訴訟過(guò)程,同一時(shí)代的韋伯也描述了理性化的國(guó)家機(jī)器應(yīng)當(dāng)像自動(dòng)售貨機(jī)一樣。

[19]Frank Pasquale:《黑箱社:掌控信息和金錢(qián)的數(shù)據(jù)法則》,中信出版社2015年版。

[20]帕伯斯:《差錯(cuò):軟件錯(cuò)誤的致命影響》,人民郵電出版社2012年版。

[21]長(zhǎng)久以來(lái)民用航空器已經(jīng)由軟件深度介入駕駛過(guò)程,以至于人類駕駛員無(wú)法在短時(shí)間內(nèi)預(yù)熱,形成另一種風(fēng)險(xiǎn)。

[22]阿西莫夫提出的“機(jī)器人三定律”(后來(lái)擴(kuò)展至四點(diǎn))雖然十分基礎(chǔ),但仍然很難在具體情況下起作用,特別是當(dāng)代倫理學(xué)上著名的“線車難題”之類的倫理困境。考慮到這些定律是為模擬人腦狀態(tài)下設(shè)計(jì)的,就更可疑;因?yàn)槿四X并不總是按某些理性倫理原則行事的,在某些關(guān)鍵場(chǎng)合強(qiáng)烈依靠某些默認(rèn)設(shè)置――直覺(jué)。

[23]由監(jiān)管機(jī)構(gòu)強(qiáng)制披露并審查事實(shí)做不到,只能依靠像蘋(píng)果這樣的平臺(tái)公司和軟件分發(fā)平臺(tái)幫助對(duì)成千上萬(wàn)個(gè)軟件進(jìn)行至少是安全審查。在臺(tái)式機(jī)時(shí)代,這一平臺(tái)責(zé)任幾乎不可能,自然狀態(tài)下的windows只能導(dǎo)致?tīng)?zhēng)奪私人控制權(quán)的3Q大戰(zhàn)。但像烏云網(wǎng)這樣的第三方白帽黑客也被禁止探測(cè)和公開(kāi)互聯(lián)網(wǎng)公司的漏洞。

[24]同注11。

[25]在筆者看來(lái),法院應(yīng)當(dāng)將注意力放在知情同意的合同條款本身的適當(dāng)性上,而不是一味接受黑箱的邏輯,因?yàn)楹笳叽_實(shí)無(wú)懈可擊。如果格式合同能準(zhǔn)確反映代碼的設(shè)計(jì),對(duì)其條款的審查是更好的選擇。百度引發(fā)的被遺忘權(quán)第一案反映的也是這個(gè)問(wèn)題。

[26]一個(gè)補(bǔ)救方法還是盡可能地披露算法信息,允許用戶理性地生產(chǎn)/隱瞞個(gè)人信息,見(jiàn)戴昕:《自愿披露隱私的規(guī)制》,載蘇力主編:《法律和社會(huì)科學(xué)》第15卷第1輯,法律出版社2016年版。

[27]法律的人工智能化是本文另一個(gè)沒(méi)有討論的問(wèn)題,與此相關(guān)的是大規(guī)模監(jiān)控、智能警務(wù)、犯罪預(yù)測(cè)等問(wèn)題。

篇3

關(guān)鍵詞:人工智能;創(chuàng)作物;著作權(quán)

伴隨著互聯(lián)網(wǎng)+時(shí)代的到來(lái),人工智能技術(shù)發(fā)展也在日趨成熟。2016年3月,引發(fā)社會(huì)廣泛關(guān)注的人機(jī)大戰(zhàn)事件,人工智能Alpha Go與世界圍棋冠軍李世石進(jìn)行人機(jī)大戰(zhàn)并以4-1戰(zhàn)勝李世石,更展現(xiàn)了其的無(wú)限發(fā)展?jié)撃堋5珟?lái)的問(wèn)題是,人工智能創(chuàng)作物能否成為作品享有著作權(quán),從而受到《著作權(quán)法》的保護(hù)?

一、人工智能的界定及傳統(tǒng)認(rèn)識(shí)

(一)人工智能的定義

人工智能,英文名稱為Artificial Intelligence,縮寫(xiě)AI。它是研究、開(kāi)發(fā)用于模擬、延伸和擴(kuò)展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門(mén)新的技術(shù)科學(xué)①。人工智能源于計(jì)算機(jī)科學(xué),現(xiàn)已涉及到心理學(xué)、哲學(xué)和語(yǔ)言學(xué)等學(xué)科。

(二)對(duì)人工智能的傳統(tǒng)認(rèn)識(shí)

按照我國(guó)傳統(tǒng)意義上的解釋,人工智能的創(chuàng)作物是不可以構(gòu)成《著作權(quán)法》上的作品的,從而不能得到著作權(quán)法的相關(guān)保護(hù)。作品是指文學(xué)、藝術(shù)和科學(xué)領(lǐng)域內(nèi)具有獨(dú)創(chuàng)性并能以某種有形形式復(fù)制的智力成果。②《著作權(quán)法》和《實(shí)施條例》都要求創(chuàng)作物是具有獨(dú)創(chuàng)性的智力成果。而我國(guó)對(duì)于人工智能創(chuàng)造物傳統(tǒng)的觀點(diǎn)認(rèn)為,人工智能的創(chuàng)作物不具有獨(dú)創(chuàng)性,它只是將計(jì)算機(jī)內(nèi)存儲(chǔ)的內(nèi)容進(jìn)行匯編整理,沒(méi)有任何的創(chuàng)新內(nèi)容。其次,著作權(quán)對(duì)于作者的人格屬性也有要求,而人工智能是不能算作法律意義上的“人”,所以人工智能的創(chuàng)作物為非智力成果。

二、國(guó)外人工智能著作權(quán)的現(xiàn)狀研究

2016年4月,日本知識(shí)產(chǎn)權(quán)本部宣布在知識(shí)產(chǎn)權(quán)計(jì)劃中納入“人工智能”的相關(guān)內(nèi)容。人工智能技術(shù)處于世界前沿的日本,從其立法行為我們可以看出,他們正在通過(guò)法律形式,將人工智能的創(chuàng)作物以作品的形式逐漸定下來(lái)。旨在人工智能創(chuàng)作物產(chǎn)生爭(zhēng)議時(shí)能夠有法可依,同時(shí)使得人工智能的既得利益者相關(guān)利益能夠得到保護(hù)。

此外,日本再其2016年的《知識(shí)財(cái)產(chǎn)推進(jìn)計(jì)劃》中,明確表示“具有一定市場(chǎng)價(jià)值的人工智能創(chuàng)作物亦有可能有必要給予一定的知識(shí)產(chǎn)權(quán)保護(hù)③。”目前,世界上大部分國(guó)家還未對(duì)人工智能及其創(chuàng)作物的著作權(quán)的相關(guān)問(wèn)題進(jìn)行詳細(xì)地探究。但以英國(guó)、新西蘭為代表的部分英美法系國(guó)家已經(jīng)認(rèn)識(shí)到自己國(guó)家對(duì)于人工智能創(chuàng)作物的著作權(quán)法律規(guī)制不明確的問(wèn)題,并試圖從政策和法律上認(rèn)可人工智能的創(chuàng)作物,這些國(guó)家將人工智能的操作者作為人工智能創(chuàng)作物的作者并對(duì)其進(jìn)行保護(hù);而澳大利亞雖然在相關(guān)的法律中沒(méi)有人工智能創(chuàng)作物的具體規(guī)定,但在政策上,該國(guó)已經(jīng)認(rèn)可了部分人工智能創(chuàng)作物為作品并享有相應(yīng)的著作權(quán)。

三、人工智能創(chuàng)作物的不同角度分析

其實(shí),僅從創(chuàng)作物的表現(xiàn)形式上是難以對(duì)人工智能創(chuàng)作物和人類作品進(jìn)行區(qū)別的,對(duì)音樂(lè)、美術(shù)等創(chuàng)新性要求不高的作品則更是如此。因此,筆者試圖從利益平衡理論和市場(chǎng)激勵(lì)角度兩個(gè)方面對(duì)是否應(yīng)認(rèn)可人工智能創(chuàng)作物的著作權(quán)這一問(wèn)題進(jìn)行分析。

(一)利益平衡角度分析

著作權(quán)法是知識(shí)產(chǎn)權(quán)法的重要組成部分,知識(shí)產(chǎn)權(quán)的核心原則就是利益平衡原則。著作權(quán)法是對(duì)作品產(chǎn)生的利益進(jìn)行分配的法律,調(diào)整著傳播者、著作權(quán)人與社會(huì)公眾之間的,原作者與演繹作者之間的利益關(guān)系。

如果不給予人工智能創(chuàng)作物以著作權(quán)的保護(hù),則可能導(dǎo)致不受著作權(quán)法保護(hù)的人工智能創(chuàng)作物大量涌入市場(chǎng),而這些創(chuàng)作物和一般的人類作品并沒(méi)有實(shí)際的區(qū)別。一旦大量投入市場(chǎng)這一公共領(lǐng)域當(dāng)中,由于人工智能作品并不受到著作權(quán)法的保護(hù),用戶就不需要支付任何費(fèi)用而對(duì)“人工智能作品”進(jìn)行使用,那這些創(chuàng)作物的價(jià)值將無(wú)限趨向于零,除非一些高度原創(chuàng)性的作品或依賴作者聲譽(yù)的作品,這無(wú)疑是對(duì)人工智能及其創(chuàng)作者利益的一種嚴(yán)重侵害,而經(jīng)過(guò)精密設(shè)計(jì)的利益分配體系將會(huì)失去應(yīng)有的平衡,這明顯是有違利益平衡原則的。

(二)從市場(chǎng)激勵(lì)角度分析

從市場(chǎng)激勵(lì)機(jī)制的角度來(lái)說(shuō),如果對(duì)人工智能創(chuàng)作授予著作權(quán)保護(hù),這就意味著市場(chǎng)中受到著作權(quán)保護(hù)的人工智能作品的供應(yīng)量將會(huì)大幅度增加。而考慮到人工智能的低成本和高效率的特點(diǎn),在市場(chǎng)總需求保持不變的前提下,人類作品的定價(jià)能力和競(jìng)爭(zhēng)能力在市場(chǎng)上將被大大的削弱,從而使人類作者進(jìn)行創(chuàng)作的經(jīng)濟(jì)性動(dòng)力逐漸下降。人工智能創(chuàng)作物的產(chǎn)生實(shí)際上是從作品的供給端沖擊了著作權(quán)制度原有的架構(gòu),也就是說(shuō),原始投入到市場(chǎng)中的作品數(shù)量將由于人工智能技術(shù)的發(fā)展而變得龐大。

如果不賦予人工智能作品著作權(quán),那么人類作品市場(chǎng)吸引力和流動(dòng)性就不會(huì)喪失,以人類作品形成的發(fā)行、復(fù)制和傳播為經(jīng)濟(jì)鏈的著作權(quán)市場(chǎng)將會(huì)依舊繁榮。但是,人類作品競(jìng)爭(zhēng)力卻得不到應(yīng)有的提升,市場(chǎng)對(duì)于整個(gè)作品行業(yè)的創(chuàng)新激勵(lì)機(jī)制明顯不足,這實(shí)際上并不利于作品行業(yè)的進(jìn)步。

四、立法保護(hù)的建議

如果立法對(duì)人工智能創(chuàng)作物進(jìn)行保護(hù),那人工智能作品的著作權(quán)歸屬問(wèn)題、著作權(quán)保護(hù)期限以及權(quán)利內(nèi)容等也有待進(jìn)一步探討。從目前的實(shí)踐來(lái)看,人工智能作品的著作權(quán)多被授予該人工智能的操作者,筆者在此不做具體分析。

但應(yīng)納入立法者考慮范圍的是,如何保持人類創(chuàng)作的作品與人工智能的創(chuàng)作物在市場(chǎng)中保持既競(jìng)爭(zhēng)又共存的局面?所以,筆者認(rèn)為《著作權(quán)法》中有關(guān)作品創(chuàng)新性的標(biāo)準(zhǔn)需要提高,界以達(dá)到人工智能作品與人類作品的利益平衡。此外,《反不正當(dāng)競(jìng)爭(zhēng)法》中也應(yīng)增加人工智能的相應(yīng)部分,以規(guī)制市場(chǎng)中存在的惡意競(jìng)爭(zhēng)等行為。

五、結(jié)束語(yǔ)

筆者認(rèn)為,我們不能簡(jiǎn)單地從創(chuàng)作物的獨(dú)創(chuàng)性和人身屬性這兩個(gè)方面來(lái)判斷人工智能創(chuàng)作物是否應(yīng)該獲得著作權(quán)的保護(hù)。人工智能的創(chuàng)作物作為一種新形式的“作品”被接受,其相關(guān)市場(chǎng)經(jīng)濟(jì)效應(yīng)和是否有利于著作權(quán)作品行業(yè)的可持續(xù)發(fā)展也應(yīng)被納入考慮范圍。

基于利益平衡原則和市場(chǎng)分析,筆者認(rèn)為,認(rèn)同人工智能創(chuàng)作物為作品,并通過(guò)《著作權(quán)法》等法律對(duì)其加以合理的保護(hù)對(duì)于市場(chǎng)經(jīng)濟(jì)的發(fā)展利大于弊,有利于促進(jìn)我國(guó)人工智能技術(shù)的發(fā)展和法制建設(shè)的完善。

注釋:

① http:///wiki/人工智能.2016年10月18日訪問(wèn).

② 引自2013修訂的《中華人民共和國(guó)著作權(quán)法實(shí)施條例》第二條.

③ 曹源.人工智能創(chuàng)作物獲得版權(quán)保護(hù)的合理性[J].科技與法律,2016年第三期.

參考文獻(xiàn):

[1] 曹源.人工智能創(chuàng)作物獲得版權(quán)保護(hù)的合理性[J].科技與法律,2016年第3期.

[2] 馮曉青.著作權(quán)法的利益平衡理論研究[J].湖南大學(xué)學(xué)報(bào):社會(huì)科學(xué)版,2008年.

篇4

2017年7月,國(guó)務(wù)院印發(fā)《新一代人工智能發(fā)展規(guī)劃》,不僅對(duì)人工智能的發(fā)展做出了戰(zhàn)略性部署,還確立了“三步走”的政策目標(biāo),力爭(zhēng)到2030年將我國(guó)建設(shè)成為世界主要的人工智能創(chuàng)新中心。[1]值得注意的是,此次規(guī)劃不僅僅只是技術(shù)或產(chǎn)業(yè)發(fā)展規(guī)劃,還同時(shí)包括了社會(huì)建設(shè)、制度重構(gòu)、全球治理等方方面面的內(nèi)容。之所以如此,是由于人工智能技術(shù)本身具有通用性和基礎(chǔ)性。換句話說(shuō),為助推人工智能時(shí)代的崛起,我們面對(duì)的任務(wù)不是實(shí)現(xiàn)某一個(gè)專業(yè)領(lǐng)域或產(chǎn)業(yè)領(lǐng)域內(nèi)的顛覆性技術(shù)突破,而是大力推動(dòng)源于技術(shù)發(fā)展而引發(fā)的綜合性變革。

也正因?yàn)槿绱耍斯ぶ悄馨l(fā)展進(jìn)程中所面臨的挑戰(zhàn)才不僅僅局限于技術(shù)或產(chǎn)業(yè)領(lǐng)域,而更多體現(xiàn)在經(jīng)濟(jì)、社會(huì)、政治領(lǐng)域的公共政策選擇上。首先,普遍建立在科層制基礎(chǔ)上的公共事務(wù)治理結(jié)構(gòu),是否能夠適應(yīng)技術(shù)發(fā)展和應(yīng)用過(guò)程中所大規(guī)模激發(fā)的不確定性和不可預(yù)知性?再者,長(zhǎng)久以來(lái)圍繞人類行為的規(guī)制制度,是否同樣能夠適應(yīng)以數(shù)據(jù)、算法為主體的應(yīng)用環(huán)境?最后,如何構(gòu)建新的治理體系和治理工具來(lái)應(yīng)對(duì)伴隨人工智能發(fā)展而興起的新的經(jīng)濟(jì)、社會(huì)、政治問(wèn)題?

應(yīng)對(duì)上述挑戰(zhàn)并不完全取決于技術(shù)發(fā)展或商業(yè)創(chuàng)新本身,而更多依賴于我們的公共政策選擇。本文試圖在分析人工智能發(fā)展邏輯及其所引發(fā)的風(fēng)險(xiǎn)挑戰(zhàn)的基礎(chǔ)上,對(duì)人工智能時(shí)代的公共政策選擇做出分析,并討論未來(lái)改革的可能路徑,這也就構(gòu)成了人工智能治理的三個(gè)基本問(wèn)題。具體而言,人工智能本身成為治理對(duì)象,其發(fā)展與應(yīng)用構(gòu)成了治理挑戰(zhàn),而在此基礎(chǔ)上如何做出公共政策選擇便是未來(lái)治理變革的方向。

全文共分為四個(gè)部分:第一部分將探討人工智能的概念及特征,并進(jìn)而對(duì)其發(fā)展邏輯進(jìn)行闡述。作為一項(xiàng)顛覆性技術(shù)創(chuàng)新,其本身的技術(shù)門(mén)檻對(duì)決策者而言構(gòu)成了挑戰(zhàn),梳理并捋清人工智能的本質(zhì)內(nèi)涵因而成為制定相關(guān)公共政策的前提;第二部分將著重分析人工智能時(shí)代崛起所帶來(lái)的治理挑戰(zhàn),主要包括三個(gè)方面,即傳統(tǒng)科層治理結(jié)構(gòu)應(yīng)對(duì)人工智能新的生產(chǎn)模式的滯后性、建基于行為因果關(guān)系之上的傳統(tǒng)治理邏輯應(yīng)對(duì)人工智能新主體的不適用性,以及人工智能發(fā)展所引發(fā)的新議題的治理空白;面對(duì)上述挑戰(zhàn),各國(guó)都出臺(tái)了相關(guān)政策,本文第三部分對(duì)此進(jìn)行了綜述性對(duì)比分析,并指出了其進(jìn)步意義所在。需要指出的是,盡管各國(guó)的政策目標(biāo)都試圖追求人工智能發(fā)展與監(jiān)管的二維平衡,但由于缺乏對(duì)人工智能內(nèi)涵及其發(fā)展邏輯的完整認(rèn)識(shí),當(dāng)前的公共政策選擇有失綜合性;本文第四部分將提出新的治理思路以及公共政策選擇的其他可能路徑,以推動(dòng)圍繞人工智能治理的相關(guān)公共政策議題的深入討論。

一、人工智能的概念及技術(shù)發(fā)展邏輯:算法與數(shù)據(jù)

伴隨著人工智能技術(shù)的快速發(fā)展,尤其是其近年來(lái)在棋類對(duì)弈、自動(dòng)駕駛、人臉識(shí)別等領(lǐng)域的廣泛應(yīng)用,圍繞人工智能所可能引發(fā)的社會(huì)變革產(chǎn)生了激烈爭(zhēng)論。在一方面,以霍金[2]、馬斯克[3]、比爾-蓋茨[4]、赫拉利[5]為代表的諸多人士呼吁加強(qiáng)監(jiān)管,警惕“人工智能成為人類文明史的終結(jié)”;在另一方面,包括奧巴馬[6]在內(nèi)的政治家、學(xué)者又認(rèn)為應(yīng)該放松監(jiān)管,充分釋放人工智能的技術(shù)潛力以造福社會(huì)。未來(lái)發(fā)展的不確定性固然是引發(fā)當(dāng)前爭(zhēng)論的重要原因之一,但圍繞“人工智能”概念內(nèi)涵理解的不同,以及對(duì)其發(fā)展邏輯認(rèn)識(shí)的不清晰,可能也同樣嚴(yán)重地加劇了人們的分歧。正因?yàn)榇耍迦斯ぶ悄艿母拍顑?nèi)涵和發(fā)展邏輯不僅是回應(yīng)爭(zhēng)論的需要,也是進(jìn)一步提出公共政策建議的前提。

就相關(guān)研究領(lǐng)域而言,人們對(duì)于“人工智能”這一概念的定義并未形成普遍共識(shí)。計(jì)算機(jī)領(lǐng)域的先驅(qū)阿蘭-圖靈曾在《計(jì)算機(jī)器與智能》一文中提出,重要的不是機(jī)器模仿人類思維過(guò)程的能力,而是機(jī)器重復(fù)人類思維外在表現(xiàn)行為的能力。[7]正是由此理解出發(fā),著名的“圖靈測(cè)試”方案被提出。但如同斯坦福大學(xué)計(jì)算機(jī)系教授約翰·麥卡錫所指出的,“圖靈測(cè)試”僅僅只是“人工智能”概念的一部分,不模仿人類但同時(shí)也能完成相關(guān)行為的機(jī)器同樣應(yīng)被視為“智能”的。[8]事實(shí)上,約翰·麥卡錫正是現(xiàn)代人工智能概念的提出者。在他看來(lái),“智能”關(guān)乎完成某種目標(biāo)的行為“機(jī)制”,而機(jī)器既可以通過(guò)模仿人來(lái)實(shí)現(xiàn)行為機(jī)制,也可以自由地使用任何辦法來(lái)創(chuàng)造行為機(jī)制。[9]由此,我們便得到了人工智能領(lǐng)域另一個(gè)非常重要的概念——“機(jī)器學(xué)習(xí)”。

人工智能研究的目標(biāo)是使機(jī)器達(dá)到人類級(jí)別的智能能力,而其中最重要的便是學(xué)習(xí)能力。[10]因此,盡管“機(jī)器學(xué)習(xí)”是“人工智能”的子域,但很多時(shí)候我們都將這兩個(gè)概念等同起來(lái)。[11]就實(shí)現(xiàn)過(guò)程而言,機(jī)器學(xué)習(xí)是指利用某些算法指導(dǎo)計(jì)算機(jī)利用已知數(shù)據(jù)得出適當(dāng)模型,并利用此模型對(duì)新的情境給出判斷,從而完成行為機(jī)制的過(guò)程。此處需要強(qiáng)調(diào)一下機(jī)器學(xué)習(xí)算法與傳統(tǒng)算法的差異。算法本質(zhì)上就是一系列指令,告訴計(jì)算機(jī)該做什么。對(duì)于傳統(tǒng)算法而言,其往往事無(wú)巨細(xì)地規(guī)定好了機(jī)器在既定條件下的既定動(dòng)作;機(jī)器學(xué)習(xí)算法卻是通過(guò)對(duì)已有數(shù)據(jù)的“學(xué)習(xí)”,使機(jī)器能夠在與歷史數(shù)據(jù)不同的新情境下做出判斷。以機(jī)器人行走的實(shí)現(xiàn)為例,傳統(tǒng)算法下,程序員要仔細(xì)規(guī)定好機(jī)器人在既定環(huán)境下每一個(gè)動(dòng)作的實(shí)現(xiàn)流程;而機(jī)器學(xué)習(xí)算法下,程序員要做的則是使計(jì)算機(jī)分析并模擬人類的行走動(dòng)作,以使其即使在完全陌生的環(huán)境中也能實(shí)現(xiàn)行走。

由此,我們可以對(duì)“人工智能”設(shè)定一個(gè)“工作定義”以方便進(jìn)一步的討論:人工智能是建立在現(xiàn)代算法基礎(chǔ)上,以歷史數(shù)據(jù)為支撐,而形成的具有感知、推理、學(xué)習(xí)、決策等思維活動(dòng)并能夠按照一定目標(biāo)完成相應(yīng)行為的計(jì)算系統(tǒng)。這一概念盡管可能仍不完善,但它突出了人工智能技術(shù)發(fā)展和應(yīng)用的兩大基石——算法與數(shù)據(jù),有助于討論人工智能的治理問(wèn)題。

首先,算法即是規(guī)則,它不僅確立了機(jī)器所試圖實(shí)現(xiàn)的目標(biāo),同時(shí)也指出了實(shí)現(xiàn)目標(biāo)的路徑與方法。就人工智能當(dāng)前的技術(shù)發(fā)展史而言,算法主要可被劃分為五個(gè)類別:符號(hào)學(xué)派、聯(lián)接學(xué)派、進(jìn)化學(xué)派、類推學(xué)派和貝葉斯學(xué)派。[12]每個(gè)學(xué)派都遵循不同的邏輯、以不同的理念實(shí)現(xiàn)了人工智能(也即“機(jī)器學(xué)習(xí)”)的過(guò)程。舉例而言,“符號(hào)學(xué)派”將所有的信息處理簡(jiǎn)化為對(duì)符號(hào)的操縱,由此學(xué)習(xí)過(guò)程被簡(jiǎn)化(抽象)為基于數(shù)據(jù)和假設(shè)的規(guī)則歸納過(guò)程。在數(shù)據(jù)(即歷史事實(shí))和已有知識(shí)(即預(yù)先設(shè)定的條件)的基礎(chǔ)上,符號(hào)學(xué)派通過(guò)“提出假設(shè)-數(shù)據(jù)驗(yàn)證-進(jìn)一步提出新假設(shè)-歸納新規(guī)則”的過(guò)程來(lái)訓(xùn)練機(jī)器的學(xué)習(xí)能力,并由此實(shí)現(xiàn)在新環(huán)境下的決策判斷。

從對(duì)“符號(hào)學(xué)派”的描述中可以發(fā)現(xiàn),機(jī)器學(xué)習(xí)模型成功的關(guān)鍵不僅是算法,還有數(shù)據(jù)。數(shù)據(jù)的缺失和預(yù)設(shè)條件的不合理將直接影響機(jī)器學(xué)習(xí)的輸出(就符號(hào)學(xué)派而言,即決策規(guī)則的歸納)。最明顯體現(xiàn)這一問(wèn)題的例子便是羅素的“歸納主義者火雞”問(wèn)題:火雞在觀察10天(數(shù)據(jù)集不完整)之后得出結(jié)論(代表預(yù)設(shè)條件不合理,超過(guò)10個(gè)確認(rèn)數(shù)據(jù)即接受規(guī)則),主人會(huì)在每天早上9點(diǎn)給它喂食;但接下來(lái)是平安夜的早餐,主人沒(méi)有喂它而是宰了它。

所有算法類型盡管理念不同,但模型成功的關(guān)鍵都聚焦于“算法”和“數(shù)據(jù)”。事實(shí)上,如果跳出具體學(xué)派的思維束縛,每種機(jī)器學(xué)習(xí)算法都可被概括為“表示方法、評(píng)估、優(yōu)化”這三個(gè)部分。[13]盡管機(jī)器可以不斷的自我優(yōu)化以提升學(xué)習(xí)能力,且原則上可以學(xué)習(xí)任何東西,但評(píng)估的方法和原則(算法)以及用以評(píng)估的數(shù)據(jù)(數(shù)據(jù))都是人為決定的——而這也正是人工智能治理的關(guān)鍵所在。算法與數(shù)據(jù)不僅是人工智能發(fā)展邏輯的基石,其同樣是治理的對(duì)象和關(guān)鍵。

總而言之,圍繞“人工智能是否會(huì)取代人類”的爭(zhēng)論事實(shí)上并無(wú)太大意義,更重要的反而是在廓清人工智能的內(nèi)涵并理解其發(fā)展邏輯之后,回答“治理什么”和“如何治理”的問(wèn)題。就此而言,明確治理對(duì)象為算法和數(shù)據(jù)無(wú)疑是重要的一步。但接下來(lái)的重要問(wèn)題仍然在于,人工智能時(shí)代的崛起所帶來(lái)的治理挑戰(zhàn)究竟是什么?當(dāng)前的制度設(shè)計(jì)是否能夠?qū)ζ渥龀鲇行?yīng)對(duì)?如果答案是否定的,我們又該如何重構(gòu)治理體系以迎接人工智能時(shí)代的崛起?本文余下部分將對(duì)此做進(jìn)一步的闡述。

二、人工智能時(shí)代崛起的治理挑戰(zhàn)

不同于其他顛覆性技術(shù),人工智能的發(fā)展并不局限于某一特定產(chǎn)業(yè),而是能夠支撐所有產(chǎn)業(yè)變革的通用型技術(shù)。也正因?yàn)榇耍渚哂袕V泛的社會(huì)溢出效應(yīng),在政治、經(jīng)濟(jì)、社會(huì)等各個(gè)領(lǐng)域都會(huì)帶來(lái)深刻變革,并將同時(shí)引發(fā)治理方面的挑戰(zhàn)。具體而言,挑戰(zhàn)主要體現(xiàn)在以下三個(gè)方面。

首先,治理結(jié)構(gòu)的僵化性,即傳統(tǒng)的科層制治理結(jié)構(gòu)可能難以應(yīng)對(duì)人工智能快速發(fā)展而形成的開(kāi)放性和不確定性。之所以需要對(duì)人工智能加以監(jiān)管,原因在于其可能成為公共危險(xiǎn)的源頭,例如當(dāng)自動(dòng)駕駛技術(shù)普及之后,一旦出現(xiàn)問(wèn)題,便可能導(dǎo)致大規(guī)模的連續(xù)性傷害。但不同機(jī)、大型水壩、原子核科技等二十世紀(jì)的公共危險(xiǎn)源,人工智能的發(fā)展具有極強(qiáng)的開(kāi)放性,任何一個(gè)程序員或公司都可以毫無(wú)門(mén)檻的進(jìn)行人工智能程序的開(kāi)發(fā)與應(yīng)用。這一方面是由于互聯(lián)網(wǎng)時(shí)代的到來(lái),使得基于代碼的生產(chǎn)門(mén)檻被大大降低[14];另一方面,這也是人工智能本身發(fā)展規(guī)律的需要。正如前文所提到,唯有大規(guī)模的數(shù)據(jù)輸入才可能得到較好的機(jī)器學(xué)習(xí)結(jié)果,因此將人工智能的平臺(tái)(也即算法)以開(kāi)源形式公開(kāi)出來(lái),以使更多的人在不同場(chǎng)景之下加以利用并由此吸收更多、更完備的數(shù)據(jù)以完善算法本身,就成為了大多數(shù)人工智能公司的必然選擇。與此同時(shí),人工智能生產(chǎn)模式的開(kāi)放性也必然帶來(lái)發(fā)展的不確定性,在缺乏有效約束或引導(dǎo)的情況下,人工智能的發(fā)展很可能走向歧途。面對(duì)這一新形勢(shì),傳統(tǒng)的、基于科層制的治理結(jié)構(gòu)顯然難以做出有效應(yīng)對(duì)。一方面,政府試圖全范圍覆蓋的事前監(jiān)管已經(jīng)成為不可能,開(kāi)放的人工智能生產(chǎn)網(wǎng)絡(luò)使得監(jiān)管機(jī)構(gòu)幾乎找不到監(jiān)管對(duì)象;另一方面,由上至下的權(quán)威結(jié)構(gòu)既不能傳遞給生產(chǎn)者,信息不對(duì)稱問(wèn)題的加劇還可能導(dǎo)致監(jiān)管行為走向反面。調(diào)整治理結(jié)構(gòu)與治理邏輯,并形成適應(yīng)具有開(kāi)放性、不確定性特征的人工智能生產(chǎn)模式,是當(dāng)前面臨的治理挑戰(zhàn)之一。

再者,治理方法的滯后性,即長(zhǎng)久以來(lái)建立在人類行為因果關(guān)系基礎(chǔ)上的法律規(guī)制體系,可能難以適用于以算法、數(shù)據(jù)為主體的應(yīng)用環(huán)境。人工智能的價(jià)值并不在于模仿人類行為,而是其具備自主的學(xué)習(xí)和決策能力;正因?yàn)槿绱耍斯ぶ悄芗夹g(shù)才不能簡(jiǎn)單地理解為其創(chuàng)造者(即人)意志的表達(dá)。程序員給出的只是學(xué)習(xí)規(guī)則,但真正做出決策的是基于大規(guī)模數(shù)據(jù)訓(xùn)練后的算法本身,而這一結(jié)果與程序員的意志并無(wú)直接因果關(guān)聯(lián)。事實(shí)上也正由于這個(gè)特點(diǎn),AlphaGo才可能連續(xù)擊敗圍棋冠軍,而其設(shè)計(jì)者卻并非圍棋頂尖大師。也正是在這個(gè)意義上,我們才回到了福柯所言的“技術(shù)的主體性”概念。在他看來(lái),“技術(shù)并不僅僅是工具,或者不僅僅是達(dá)到目的的手段;相反,其是政治行動(dòng)者,手段與目的密不可分”。[15]就此而言,長(zhǎng)久以來(lái)通過(guò)探究行為與后果之因果關(guān)系來(lái)規(guī)范人的行為的法律規(guī)制體系,便可能遭遇窘境:如果將人工智能所造成的侵權(quán)行為歸咎于其設(shè)計(jì)者,無(wú)疑不具有說(shuō)服力;但如果要?dú)w咎于人工智能本身,我們又該如何問(wèn)責(zé)一個(gè)機(jī)器呢?由此,如何應(yīng)對(duì)以算法、數(shù)據(jù)為核心的技術(shù)主體所帶來(lái)的公共責(zé)任分配問(wèn)題,是當(dāng)前面臨的第二個(gè)治理挑戰(zhàn)。

最后,治理范圍的狹隘性,即對(duì)于受人工智能發(fā)展沖擊而引發(fā)的新的社會(huì)議題,需要構(gòu)建新的治理體系和發(fā)展新的治理工具。人工智能發(fā)展所引發(fā)的治理挑戰(zhàn)不僅僅體現(xiàn)在現(xiàn)有體系的不適應(yīng)上,同時(shí)還有新議題所面臨的治理空白問(wèn)題。具體而言,這又主要包括以下議題:算法是否能夠享有言論自由的憲法保護(hù),數(shù)據(jù)的權(quán)屬關(guān)系究竟如何界定,如何緩解人工智能所可能加劇的不平等現(xiàn)象,以及如何平衡人工智能的發(fā)展與失業(yè)問(wèn)題。在人工智能時(shí)代之前,上述問(wèn)題并不存在,或者說(shuō)并不突出;但伴隨著人工智能的快速發(fā)展和應(yīng)用普及,它們的重要性便日漸顯著。以最為人所關(guān)注的失業(yè)問(wèn)題為例,就技術(shù)可能性來(lái)說(shuō),人工智能和機(jī)器人的廣泛應(yīng)用代替人工勞動(dòng),已是一個(gè)不可否定的事實(shí)了。無(wú)論是新聞?dòng)浾撸€是股市分析員,甚至是法律工作者,其都有可能為機(jī)器所取代。在一個(gè)“充分自動(dòng)化(Full Automation)”的世界中,如何重新認(rèn)識(shí)勞動(dòng)與福利保障的關(guān)系、重構(gòu)勞動(dòng)和福利保障制度,便成為最迫切需要解決的治理挑戰(zhàn)之一。[16]

上述三方面共同構(gòu)成了人工智能時(shí)代崛起所帶來(lái)的治理挑戰(zhàn)。面對(duì)這些挑戰(zhàn),各國(guó)也做出了相應(yīng)的公共政策選擇。本文第三部分將對(duì)各國(guó)人工智能的治理政策進(jìn)行對(duì)比性分析。在此基礎(chǔ)上,第四部分將提出本文的政策建議。

三、各國(guó)人工智能治理政策及監(jiān)管路徑綜述

人工智能時(shí)代的崛起作為一種普遍現(xiàn)象,其所引發(fā)的治理挑戰(zhàn)是各國(guó)面臨的共同問(wèn)題,各國(guó)也陸續(xù)出臺(tái)了相關(guān)公共政策以試圖推動(dòng)并規(guī)范人工智能的快速發(fā)展。

美國(guó)于2016年同時(shí)頒布了《國(guó)家人工智能研究與發(fā)展戰(zhàn)略規(guī)劃》和《為人工智能的未來(lái)做好準(zhǔn)備》兩個(gè)國(guó)家級(jí)政策框架,前者側(cè)重從技術(shù)角度指出美國(guó)人工智能戰(zhàn)略的目的、愿景和重點(diǎn)方向,而后者則更多從治理角度探討政府在促進(jìn)創(chuàng)新、保障公共安全方面所應(yīng)扮演的角色和作用。就具體的監(jiān)管政策而言,《為人工智能的未來(lái)做好準(zhǔn)備》提出了一般性的應(yīng)對(duì)方法,強(qiáng)調(diào)基于風(fēng)險(xiǎn)評(píng)估和成本-收益考量的原則以決定是否對(duì)人工智能技術(shù)的研發(fā)與應(yīng)用施以監(jiān)管負(fù)擔(dān)。[17]日本同樣于2016年出臺(tái)了《第五期(2016~2020年度)科學(xué)技術(shù)基本計(jì)劃》,提出了“超智能社會(huì)5.0”的概念,強(qiáng)調(diào)通過(guò)推動(dòng)數(shù)據(jù)標(biāo)準(zhǔn)化、建設(shè)社會(huì)服務(wù)平臺(tái)、協(xié)調(diào)發(fā)展多領(lǐng)域智能系統(tǒng)等各方面工作促進(jìn)人工智能的發(fā)展和應(yīng)用。[18]

盡管美國(guó)和日本的政策著力點(diǎn)不同,但其共有的特點(diǎn)是對(duì)人工智能的發(fā)展及其所引發(fā)的挑戰(zhàn)持普遍的包容與開(kāi)放態(tài)度。就當(dāng)前的政策框架而言,美日兩國(guó)的政策目標(biāo)更傾斜于推動(dòng)技術(shù)創(chuàng)新、保持其國(guó)家競(jìng)爭(zhēng)力的優(yōu)勢(shì)地位;當(dāng)涉及對(duì)人工智能所可能引發(fā)的公共問(wèn)題施以監(jiān)管時(shí),其政策選擇也更傾向于遵循“無(wú)需批準(zhǔn)式(permissionless)”的監(jiān)管邏輯,即強(qiáng)調(diào)除非有充分案例證明其危害性,新技術(shù)和新商業(yè)模式默認(rèn)為都是被允許的。[19]至于人工智能的發(fā)展對(duì)個(gè)人數(shù)據(jù)隱私、社會(huì)公共安全的潛在威脅,盡管兩國(guó)的政策框架都有所涉及,卻并非其政策重心——相比之下,英國(guó)、法國(guó)則采取了不同的政策路徑。

英國(guó)政府2016年了《人工智能:未來(lái)決策制定的機(jī)遇與影響》,對(duì)人工智能的變革性影響以及如何利用人工智能做出了闡述與規(guī)劃,尤其關(guān)注到了人工智能發(fā)展所帶來(lái)的法律和倫理風(fēng)險(xiǎn)。在該報(bào)告中,英國(guó)政府強(qiáng)調(diào)了機(jī)器學(xué)習(xí)與個(gè)人數(shù)據(jù)相結(jié)合而對(duì)個(gè)人自由及隱私等基本權(quán)利所帶來(lái)的影響,明確了對(duì)使用人工智能所制定出的決策采用問(wèn)責(zé)的概念和機(jī)制,并同時(shí)在算法透明度、算法一致性、風(fēng)險(xiǎn)分配等具體政策方面做出了規(guī)定。[20]與英國(guó)類似,法國(guó)在2017年的《人工智能戰(zhàn)略》中延續(xù)了其在2006年通過(guò)的《信息社會(huì)法案》的立法精神,同樣強(qiáng)調(diào)加強(qiáng)對(duì)新技術(shù)的“共同調(diào)控”,以在享有技術(shù)發(fā)展所帶來(lái)的福利改進(jìn)的同時(shí),充分保護(hù)個(gè)人權(quán)利和公共利益。[21]與美日相比,英法的公共政策更偏向于“審慎監(jiān)管(precautionary)”的政策邏輯,即強(qiáng)調(diào)新技術(shù)或新的商業(yè)模式只有在開(kāi)發(fā)者證明其無(wú)害的前提下才被允許使用。[22]

在本文看來(lái),無(wú)論是“無(wú)需批準(zhǔn)式監(jiān)管”還是“審慎監(jiān)管”,在應(yīng)對(duì)人工智能時(shí)代崛起所帶來(lái)的治理挑戰(zhàn)方面都有其可取之處:前者側(cè)重于推動(dòng)創(chuàng)新,而后者則因重視安全而更顯穩(wěn)健。但需要指出的是,這兩種監(jiān)管路徑的不足卻也十分明顯。正如前文第二部分所指出,一方面,快速迭代的技術(shù)發(fā)展與商業(yè)模式創(chuàng)新必將引發(fā)新的社會(huì)議題,無(wú)論是算法是否受到言論自由的權(quán)利保護(hù)還是普遍失業(yè)對(duì)社會(huì)形成的挑戰(zhàn),它們都在客觀上要求公共政策做出應(yīng)對(duì),而非片面的“無(wú)需批準(zhǔn)式監(jiān)管”能夠處理。更重要的是,“無(wú)需批準(zhǔn)式監(jiān)管”的潛在假設(shè)是事后監(jiān)管的有效性;然而,在事實(shí)上,正如2010年5月6日美國(guó)道瓊斯工業(yè)指數(shù)“瞬間崩盤(pán)”事件所揭示的,即使單個(gè)電子交易程序合規(guī)運(yùn)行,當(dāng)各個(gè)系統(tǒng)行為聚合在一起時(shí)反而卻造成了更大的危機(jī)。[23]在此種情形下,依賴于合規(guī)性判斷的“事后監(jiān)管”基本上難以有效實(shí)施。另一方面,人工智能本身的自主性和主體性使得建立在人類行為因果關(guān)系基礎(chǔ)上的“審慎監(jiān)管”邏輯存在天然缺陷:既然人類無(wú)法預(yù)知人工智能系統(tǒng)可能的行為或決策,開(kāi)發(fā)者又如何證明人工智能系統(tǒng)的無(wú)害性?

正如本文所反復(fù)強(qiáng)調(diào)的,人工智能與其他革命性技術(shù)的不同之處,正是在于其所帶來(lái)的社會(huì)沖擊的綜合性和基礎(chǔ)性。人工智能并非單個(gè)領(lǐng)域、單個(gè)產(chǎn)業(yè)的技術(shù)突破,而是對(duì)于社會(huì)運(yùn)行狀態(tài)的根本性變革;人工智能時(shí)代的崛起也并非一夜之功,而是建立在計(jì)算機(jī)革命、互聯(lián)網(wǎng)革命直至數(shù)字革命基礎(chǔ)上的“奇點(diǎn)”變革。因此,面對(duì)人工智能時(shí)代崛起所帶來(lái)的治理挑戰(zhàn),我們同樣應(yīng)該制定綜合性的公共政策框架,而非僅僅沿襲傳統(tǒng)治理邏輯,例如只是針對(duì)具體議題在“創(chuàng)新”與“安全”這個(gè)二元維度下進(jìn)行艱難選擇。本文在第四部分從承認(rèn)技術(shù)的主體性、重構(gòu)社會(huì)治理制度、推進(jìn)人工智能全球治理這三方面提出了政策建議,并希望以此推動(dòng)更深入地圍繞人工智能時(shí)代公共政策選擇的研究與討論。

四、人工智能時(shí)代的公共政策選擇

《新一代人工智能發(fā)展規(guī)劃》明確提出了到2030年我國(guó)人工智能發(fā)展的“三步走”目標(biāo),而在每一個(gè)階段,人工智能法律法規(guī)、倫理規(guī)范和政策體系的逐步建立與完善都是必不可少的重要內(nèi)容。面對(duì)人工智能時(shí)代崛起的治理挑戰(zhàn),究竟應(yīng)該如何重構(gòu)治理體系、創(chuàng)新治理機(jī)制、發(fā)展治理工具,是擺在決策者面前的重要難題。本文基于對(duì)人工智能基本概念和發(fā)展邏輯的梳理分析,結(jié)合各國(guó)已有政策的對(duì)比分析,提出以下三方面的改革思路,以為人工智能時(shí)代的公共選擇提供參考。

第一,人工智能發(fā)展的基石是算法與數(shù)據(jù),建立并完善圍繞算法和數(shù)據(jù)的治理體系與治理機(jī)制,是人工智能時(shí)代公共政策選擇的首要命題,也是應(yīng)對(duì)治理挑戰(zhàn)、賦予算法和數(shù)據(jù)以主體性的必然要求。(1)就算法治理而言,涉及的核心議題是算法的制定權(quán)及相應(yīng)的監(jiān)督程序問(wèn)題。算法作為人工智能時(shí)代的主要規(guī)則,究竟誰(shuí)有權(quán)并通過(guò)何種程序來(lái)加以制定,誰(shuí)來(lái)對(duì)其進(jìn)行監(jiān)督且又如何監(jiān)督?長(zhǎng)久以來(lái)公眾針對(duì)社交媒體臉書(shū)(Facebook)的質(zhì)疑正體現(xiàn)了這一問(wèn)題的重要性:公眾如何相信臉書(shū)向用戶自動(dòng)推薦的新聞內(nèi)容不會(huì)摻雜特殊利益的取向?[24]當(dāng)越來(lái)越多的人依賴定制化的新聞推送時(shí),人工智能甚至?xí)绊懙娇偨y(tǒng)選舉。也正因?yàn)榇耍ㄍ该饕蟆㈤_(kāi)源要求在內(nèi)的諸多治理原則,應(yīng)當(dāng)被納入到算法治理相關(guān)議題的考慮之中。(2)就數(shù)據(jù)治理而言,伴隨著人工智能越來(lái)越多地依賴于大規(guī)模數(shù)據(jù)的收集與利用,個(gè)人隱私的保護(hù)、數(shù)據(jù)價(jià)值的分配、數(shù)據(jù)安全等相關(guān)議題也必將成為公共政策的焦點(diǎn)。如何平衡不同價(jià)值需求、規(guī)范數(shù)據(jù)的分享與應(yīng)用,也同樣成為人工智能時(shí)代公共政策選擇的另一重要抓手。

第二,創(chuàng)新社會(huì)治理制度,進(jìn)一步完善社會(huì)保障體系,在最大程度上緩解人工智能發(fā)展所可能帶來(lái)的不確定性沖擊。與歷史上的技術(shù)革命類似,人工智能的發(fā)展同樣會(huì)導(dǎo)致利益的分化與重構(gòu),而如何保證技術(shù)革命成本的承受者得到最大限度的彌補(bǔ)并使所有人都享有技術(shù)發(fā)展的“獲得感”,不僅是社會(huì)發(fā)展公平、正義的必然要求,也是促進(jìn)技術(shù)革命更快完成的催化劑。就此而言,在人工智能相關(guān)公共政策的考量中,我們不僅應(yīng)該關(guān)注產(chǎn)業(yè)和經(jīng)濟(jì)政策,同時(shí)也應(yīng)該關(guān)注社會(huì)政策,因?yàn)橹挥泻笳叩耐晟撇拍軌蚩刂乒と嘶蚱髽I(yè)家所承擔(dān)的風(fēng)險(xiǎn),并幫助他們判斷是否支持或抵制變革的發(fā)生。就具體的政策設(shè)計(jì)來(lái)說(shuō),為緩解人工智能所可能帶來(lái)的失業(yè)潮,基本收入制度的普遍建立可能應(yīng)該被提上討論議程了。“基本收入”是指政治共同體(如國(guó)家)向所有成員不加任何限制條件地支付一定數(shù)額的收入,以滿足其基本生活的需求。盡管存在“養(yǎng)懶漢”的質(zhì)疑,但有研究者已指出,自18世紀(jì)就開(kāi)始構(gòu)想的基本收入制度很有可能反過(guò)來(lái)促進(jìn)就業(yè)。[25]芬蘭政府已經(jīng)于2017年初開(kāi)始了相關(guān)實(shí)驗(yàn),美國(guó)的一些州、瑞士也做出了一定探索。在人工智能時(shí)代尚未完全展現(xiàn)其“猙容”之前,創(chuàng)新社會(huì)治理機(jī)制、完善社會(huì)保障體系,可能是平衡技術(shù)創(chuàng)新與社會(huì)風(fēng)險(xiǎn)的最佳路徑。

第三,構(gòu)建人工智能全球治理機(jī)制,以多種形式促進(jìn)人工智能重大國(guó)際共性問(wèn)題的解決,共同應(yīng)對(duì)開(kāi)放性人工智能生產(chǎn)模式的全球性挑戰(zhàn)。人工智能的發(fā)展具有開(kāi)放性和不確定性的特征,生產(chǎn)門(mén)檻的降低使得人工智能技術(shù)研發(fā)的跨國(guó)流動(dòng)性很強(qiáng),相關(guān)標(biāo)準(zhǔn)的制定、開(kāi)放平臺(tái)的搭建、共享合作框架的形成,無(wú)不要求構(gòu)建相應(yīng)的全球治理機(jī)制。另一方面,跨境數(shù)據(jù)流動(dòng)在廣度和深度上的快速發(fā)展成為了人工智能技術(shù)進(jìn)步的直接推動(dòng)力,但各國(guó)數(shù)據(jù)規(guī)制制度的巨大差異在制約跨境數(shù)據(jù)流動(dòng)進(jìn)一步發(fā)展的同時(shí),也將影響人工智能時(shí)代的全面到來(lái)。[26]故此,創(chuàng)新全球治理機(jī)制,在承認(rèn)各國(guó)制度差異的前提下尋找合作共享的可能性,便成為人工智能時(shí)代公共政策選擇的重要考量之一。就具體的機(jī)制設(shè)計(jì)而言,可以在人工智能全球治理機(jī)制的構(gòu)建中引入多利益相關(guān)模式;另一方面,為防止巨頭壟斷的形成,充分發(fā)揮主權(quán)國(guó)家作用的多邊主義模式同樣不可忽視。作為影響深遠(yuǎn)的基礎(chǔ)性技術(shù)變革,互聯(lián)網(wǎng)全球治理機(jī)制的經(jīng)驗(yàn)和教訓(xùn)值得人工智能發(fā)展所借鑒。

上述三方面從整體上對(duì)人工智能時(shí)代的公共政策框架做出了闡述。與傳統(tǒng)政策局限于“創(chuàng)新”與“安全”之間做出二維選擇不同,本文以更綜合的視角提出了未來(lái)公共政策選擇的可能路徑。就其內(nèi)在聯(lián)系來(lái)講,建立并完善圍繞算法和數(shù)據(jù)的治理體系是起點(diǎn),其將重構(gòu)人工智能時(shí)代的規(guī)則與制度;創(chuàng)新社會(huì)治理機(jī)制并完善社會(huì)保障體系是底線,其將緩解人工智能所帶來(lái)的影響與波動(dòng);構(gòu)建全球治理機(jī)制則成為了制度性的基礎(chǔ)設(shè)施,推動(dòng)各國(guó)在此之上共同走向人工智能時(shí)代的“人類命運(yùn)共同體”。

五、結(jié)語(yǔ)

在經(jīng)歷了60余年的發(fā)展之后,人工智能終于在互聯(lián)網(wǎng)、大數(shù)據(jù)、機(jī)器學(xué)習(xí)等諸多技術(shù)取得突破的基礎(chǔ)上實(shí)現(xiàn)了騰飛。在未來(lái)的人類生活中,人工智能也必將扮演越來(lái)越重要的角色。對(duì)于這樣的圖景,我們自不必驚慌,但卻也不可掉以輕心。對(duì)于人工智能的治理,找到正確的方向并采取合理的措施,正是當(dāng)下所應(yīng)該重視的政策議題。而本文的主旨也正在于此:打破長(zhǎng)久以來(lái)人們對(duì)于人工智能的“籠統(tǒng)”式擔(dān)憂,指出人工智能技術(shù)發(fā)展的技術(shù)邏輯及其所引發(fā)的治理挑戰(zhàn),并在此基礎(chǔ)上提出相應(yīng)的政策選擇。人工智能治理的這三個(gè)基本問(wèn)題,是重構(gòu)治理體系、創(chuàng)新治理機(jī)制、發(fā)展治理工具所必須思考的前提。伴隨著我國(guó)國(guó)家層面戰(zhàn)略規(guī)劃的出臺(tái),我國(guó)人工智能的發(fā)展也必將躍上新臺(tái)階。在此背景下,深入探討人工智能治理的相關(guān)公共政策議題,對(duì)于助推一個(gè)人工智能時(shí)代的崛起而言,既有其必要性,也有其迫切性。(來(lái)源:中國(guó)行政管理 文/賈開(kāi) 蔣余浩 編選:中國(guó)電子商務(wù)研究中心)

[參考文獻(xiàn)]

[1]國(guó)務(wù)院關(guān)于印發(fā)新一代人工智能發(fā)展規(guī)劃的通知[EB/OL]. http://gov.cn/zhengce/content/2017-07/20/content_5211996.htm.

[2]霍金. AI可能成就或者終結(jié)人類文明[EB/OL].http://raincent.com/content-10-7672-1.html.

[3] Elon Musk. Artificial Intelligence is Our Biggest Existential Threat. https://theguardian.com/technology/2014/oct/27/elon-musk-artificial-intelligence-ai-biggest-existential-threat.

[4] Microsoft's Bill Gates Insists AI is A Threat. http://bbc.com/news/31047780. 2017-8-14.

[5] [以]赫拉利.人類簡(jiǎn)史[M].北京:中信出版社,2014.

[6] The President in Conversation With MIT’s Joi Ito and WIRED’s Scott Dadich. https://wired.com/2016/10/president-obama-mit-joi-ito-interview/. 2017-8-14.

[7] Turing,A. M. Computing Machinery and Intelligence. Mind,1950,59(236).

[8] [9][10] McCarthy,J.What is Artificial Intelligence. URL:http://www-formal.stanford.edu/jmc/whatisai/whatisai.html.

[11] [12][13] [美]佩德羅-多明戈斯.終極算法:機(jī)器學(xué)習(xí)和人工智能如何重塑世界[M].黃芳萍譯.北京:中信出版社,2016.

[14] Benkler,Y. The Wealth of Networks:How Social Production Transforms Markets and Freedom. Yale University Press,2006.

[15] Foucoult,M. Discipline and Punish. A. Sheridan,Tr.,Paris,F(xiàn)R,Gallimard,1975.

[16] Srnicek,N.,& Williams,A. The Future isn't Working. Juncture,2015,22(3):243-247.

[17] Preparing for the Future of Artificial Intelligence. https://obamawhitehouse.archives.gov/sites/default/files/whitehouse_files/microsites/ostp/NSTC/preparing_for_the_future_of_ai.pdf. 2017-8-14.

[18]薛亮.“日本推動(dòng)實(shí)現(xiàn)超智能社會(huì)‘社會(huì)5.0’”[EB/OL]. http://istis.sh.cn/list/list.aspx?id=10535.

[19] Thierer,A. Permissionless Innovation:The Continuing Case for Comprehensive Technological Freedom. Mercatus Center at George Mason University,2016.

[20] Artificial Intelligence:Opportunities and Implications for the Future of Decision Making.https://gov.uk/government/uploads/system/uploads/attachment_data/file/566075/gs-16-19-artificial-intelligence-ai-report.pdf.

[21]周衍冰.大數(shù)據(jù)產(chǎn)業(yè)在法國(guó)的發(fā)展及應(yīng)用[N].學(xué)習(xí)時(shí)報(bào),2014-11-03.

[22] Thierer,A. D.,& Watney,C. J. Comment on the Federal Automated Vehicles Policy,2016.

[23] [美]杰瑞·卡普蘭.人工智能時(shí)代:人機(jī)共生下財(cái)富、工作與思維的大未來(lái)[M].杭州浙江人民出版社,2016.

[24] Marcel Rosenbach. How Google and Facebook Can Reshape Elections.http://spiegel.de/international/germany/google-and-facebook-could-help-decide-2017-german-election-a-1120156.html.

[25] Van Parijs,P. Basic Income:A Simple and Powerful Idea for the Twenty-first Century. Politics & Society,2004,32(1).

篇5

關(guān)鍵詞:高校;人工智能;倫理道德教育

中圖分類號(hào):G642.0文獻(xiàn)標(biāo)志碼:A文章編號(hào):1674-9324(2019)41-0144-02

一、人工智能課程倫理考慮的基本內(nèi)涵

人工智能課程中進(jìn)行倫理考慮,是在人工智能課程中有針對(duì)性地加入道德教育的元素。在方式上,可以借用西方的“隱形教育”方式。在內(nèi)容上,必須符合中國(guó)的人工智能發(fā)展態(tài)勢(shì),更要受中國(guó)社會(huì)主義核心價(jià)值體系的引導(dǎo)。目前中國(guó)的人工智能課程,過(guò)度偏向于技術(shù)性。尤其是許多社會(huì)機(jī)構(gòu)提供的課程,更是偏向于功利性,目的在于讓學(xué)習(xí)課程的學(xué)習(xí)者快速獲得工作。因此,必須從源頭入手,對(duì)這些社會(huì)機(jī)構(gòu)進(jìn)行一定的約束和規(guī)范,對(duì)人工智能課程內(nèi)容進(jìn)行整體的架構(gòu)。

二、高校人工智能課程中倫理考慮的必要性

(一)我國(guó)對(duì)于科技工作者職業(yè)道德建設(shè)的要求

首先,科技工作者的職業(yè)道德建設(shè)是促進(jìn)社會(huì)治理體系現(xiàn)代化的必然要求。加強(qiáng)社會(huì)治理制度建設(shè),一靠法治,二靠德治。中國(guó)正聚焦力量加強(qiáng)自主創(chuàng)新,科技是第一生產(chǎn)力。基于當(dāng)代中國(guó)語(yǔ)境下,科技工作者的職業(yè)道德建設(shè)就至關(guān)重要。科技工作者對(duì)自己的社會(huì)責(zé)任與倫理責(zé)任應(yīng)該有著充分的理解,在科研活動(dòng)中既要著眼于為社會(huì)提供科學(xué)技術(shù)上的新成果,同時(shí)也要強(qiáng)調(diào)在倫理道德建設(shè)中起到應(yīng)有的作用。

其次,從長(zhǎng)期看,科技工作者的職業(yè)道德建設(shè)利于國(guó)家科技的發(fā)展,利于促進(jìn)科技難題的解決。發(fā)展是連續(xù)和間斷的同一,科技發(fā)展不能一蹴而就。在面臨科技瓶頸問(wèn)題時(shí),就更要求科技工作者具有堅(jiān)韌不拔的品質(zhì)和無(wú)私奉獻(xiàn)的精神。這些精神都是進(jìn)行職業(yè)道德教育中的重要內(nèi)容,也是科技工作者承擔(dān)的社會(huì)角色中必不可少的特質(zhì)。

最后,高尚的職業(yè)道德是科技工作者奮進(jìn)的不竭動(dòng)力。一個(gè)科技工作者只有站在最廣大人民的立場(chǎng)上,奉獻(xiàn)自我才能成就事業(yè)。隨著全球化的發(fā)展,受西方“享樂(lè)主義”的負(fù)面影響,科技工作者只有更加堅(jiān)守自我、承擔(dān)社會(huì)責(zé)任,才能具有不斷前進(jìn)的精神支柱。

(二)對(duì)解決人工智能倫理困境的源頭性作用

隨著人工智能應(yīng)用領(lǐng)域的廣泛化,以及應(yīng)用群體的普及化,難以避免的帶來(lái)一些倫理問(wèn)題上的困境。例如倫理學(xué)中經(jīng)典的“電車難題”,在當(dāng)代科技發(fā)展中也出現(xiàn)了在人工智能領(lǐng)域的“無(wú)人車難題”。無(wú)人車產(chǎn)生事故的責(zé)任歸屬與分配就是目前很多學(xué)者在關(guān)注的倫理問(wèn)題。人工智能的發(fā)展對(duì)當(dāng)前的法律規(guī)制,還有現(xiàn)存的人倫規(guī)范都產(chǎn)生了挑戰(zhàn)。人工智能的未來(lái)發(fā)展方向,在操作性上要避免技術(shù)鴻溝,在設(shè)計(jì)過(guò)程中要堅(jiān)持算法公開(kāi)化、透明化,并且在出現(xiàn)數(shù)據(jù)漏洞時(shí)應(yīng)盡快地進(jìn)行自我修復(fù)。這對(duì)于科技工作者自身的素質(zhì)提出了很高的要求,不但要求科技工作者自身的知識(shí)素質(zhì)與知識(shí)能力過(guò)硬,而且要求科技工作者要嚴(yán)于律己,具有較高的思想道德素質(zhì)。要求科技工作者對(duì)于人工智能的發(fā)展保持理性的態(tài)度,堅(jiān)持為國(guó)為民。許多科幻電影和小說(shuō)中都體現(xiàn)了未來(lái)人工智能發(fā)展到一定階段時(shí),人與機(jī)器產(chǎn)生的情感迷思。作為科技工作者,在設(shè)計(jì)與調(diào)整過(guò)程中都應(yīng)保持情感中立,勇于承擔(dān)社會(huì)責(zé)任。目前我國(guó)正處于人工智能發(fā)展的初級(jí)階段,人工智能尚不能擁有自主意識(shí),人工智能的行為責(zé)任必須要找到其背后的擁有自主意識(shí)的人。無(wú)論是現(xiàn)階段還是未來(lái),作為人工智能產(chǎn)品開(kāi)發(fā)者與設(shè)計(jì)者的科技工作者樹(shù)立正確的價(jià)值觀和承擔(dān)相應(yīng)的社會(huì)責(zé)任是十分必要的。科技工作者的知識(shí)層次與道德品質(zhì)在某種程度上說(shuō),是研發(fā)人工智能產(chǎn)品的起點(diǎn)。因此,對(duì)科技工作者的成長(zhǎng)過(guò)程中進(jìn)行持續(xù)的道德教育,使其樹(shù)立高尚的道德觀念,對(duì)于解決許多人工智能帶來(lái)的倫理困境都具有源頭性、基礎(chǔ)性的作用。

三、高校人工智能課程與倫理道德教育的結(jié)合方式探索

(一)高校人工智能課程資源的充分運(yùn)用與更新

從資源形態(tài)上看,實(shí)物化資源與虛擬化資源,線上資源與線下資源都應(yīng)充分運(yùn)用。隨著智能校園的普及,有基礎(chǔ)條件的地區(qū)與校園可以充分運(yùn)用好身邊的人工智能。人工智能課程是一門(mén)理論與實(shí)踐相結(jié)合的課程,因此課程的內(nèi)容也不能僅停留在理論層面。除了對(duì)于學(xué)術(shù)資源的運(yùn)用,也應(yīng)當(dāng)結(jié)合實(shí)體的人工智能產(chǎn)品進(jìn)行學(xué)習(xí)。但因?yàn)槿斯ぶ悄艿陌l(fā)展程度還沒(méi)有普及化,人工智能機(jī)器人也遠(yuǎn)沒(méi)有達(dá)到觸手可及的程度。因此運(yùn)用新媒體技術(shù),通過(guò)虛擬現(xiàn)實(shí)的手段進(jìn)行在教學(xué)過(guò)程中的知行結(jié)合是可以嘗試的路徑。VR技術(shù)在網(wǎng)絡(luò)設(shè)備硬件教學(xué)中可以節(jié)約成本,便于人工智能課堂的普及化。在理論教學(xué)中,可以通過(guò)與虛擬機(jī)器人的交互增強(qiáng)趣味性。VR技術(shù)有3個(gè)最突出的特點(diǎn):交互性、沉浸性和構(gòu)想性。課程設(shè)置者可以充分借助VR的沉浸性設(shè)置相應(yīng)的場(chǎng)景,讓課程學(xué)習(xí)者通過(guò)對(duì)特定道德場(chǎng)景的判斷引出思考。這種新媒體手段既可以更新原有課堂知識(shí)的教學(xué)教法,更適合作為倫理教育走入人工智能課堂的重要媒介。

從資源時(shí)態(tài)上看,人工智能課程資源必須隨著人工智能的發(fā)展而不斷更新。從現(xiàn)實(shí)角度來(lái)看,最初開(kāi)設(shè)人工智能課程時(shí),其教學(xué)目標(biāo)還是相對(duì)簡(jiǎn)單的——即培養(yǎng)學(xué)生的創(chuàng)造性與知識(shí)能力。但隨著人工智能的普及應(yīng)用,產(chǎn)生了許多人工智能語(yǔ)境下的道德困境。從指導(dǎo)思想來(lái)看,我國(guó)逐步走向世界舞臺(tái),隨著實(shí)力增強(qiáng)指導(dǎo)思想也是不斷變化的,新時(shí)代會(huì)提出新目標(biāo),為了實(shí)現(xiàn)中華民族的偉大復(fù)興,課程內(nèi)容的豐富也是十分必要的。因此,人工智能課程若要符合時(shí)代需要,就需要不斷地更新課程資源。人工智能這一學(xué)科是具有學(xué)科交叉性的,與之相關(guān)各個(gè)領(lǐng)域的最新前沿問(wèn)題都需要結(jié)合相應(yīng)的道德教育,只有這樣才能適應(yīng)時(shí)代的發(fā)展。

(二)高校人工智能課程內(nèi)容的合理架構(gòu)

對(duì)于不同年齡層次的人工智能課程,必須考慮到不同群體的教育規(guī)律。提出合理的教育目標(biāo),用不同群體可以接受的方式方法才能達(dá)到最優(yōu)的教學(xué)效果。我國(guó)人工智能課程目前的課程架構(gòu)中,已經(jīng)有學(xué)者進(jìn)行了分年齡層次的研究。人工智能課程可以規(guī)劃為專業(yè)性逐漸增強(qiáng)的、從邊緣到中心的課程層級(jí)系統(tǒng)。對(duì)于高校本科生和研究生來(lái)說(shuō),人工智能課程設(shè)置內(nèi)容必須具有專業(yè)性。在上文的課程體系建構(gòu)中添加了藝術(shù)、文學(xué)、哲學(xué)等內(nèi)容,其中包含對(duì)于人工智能倫理學(xué)的思考與認(rèn)識(shí)。但在某種意義上這些青年的社會(huì)價(jià)值觀就代表了未來(lái)科技工作者的社會(huì)價(jià)值觀。因此在這一階段,人工智能課程的架構(gòu)與實(shí)施,國(guó)家應(yīng)加以引導(dǎo)和監(jiān)督。一方面需要建立統(tǒng)一標(biāo)準(zhǔn)的高校人工智能課程體系,另一方面在應(yīng)對(duì)課程具體內(nèi)容的落實(shí)方面給予一定程度的監(jiān)督。

(三)在高校人工智能課程教學(xué)過(guò)程中充分運(yùn)用案例

首先應(yīng)充分運(yùn)用學(xué)術(shù)案例,例如度量學(xué)習(xí),在其基礎(chǔ)上的遷移學(xué)習(xí),以及發(fā)表在《機(jī)器學(xué)習(xí)》、《數(shù)據(jù)挖掘》等頂級(jí)期刊上的論文。使課堂具有含金量,可以說(shuō)這也是國(guó)家發(fā)展與關(guān)注的重點(diǎn)。通過(guò)學(xué)術(shù)性經(jīng)典案例的學(xué)習(xí)可以擁有不一樣的視角,通過(guò)歷史發(fā)展的角度去看人工智能技術(shù)的演變與發(fā)展。其次應(yīng)充分運(yùn)用具體案例。在人工智能課程中對(duì)于許多道德問(wèn)題,不應(yīng)抽象地去討論,而應(yīng)該具體地去討論。也可以讓學(xué)生與AI系統(tǒng)進(jìn)行直接的問(wèn)答,如:我們能保證它們穩(wěn)定可靠嗎?我們應(yīng)該如何去測(cè)試人工智能?人工智能課堂中既要包容學(xué)生多元化的答案,不壓抑創(chuàng)造性又要對(duì)于錯(cuò)誤的思想進(jìn)行思想轉(zhuǎn)化,這就需要教育者具體問(wèn)題進(jìn)行具體分析了。

主站蜘蛛池模板: 久久久久亚洲av无码专区喷水| 狠狠躁夜夜躁av网站中文字幕| 欧美亚洲国产日韩电影在线| 国产中文字幕在线观看| 久久午夜羞羞影院免费观看| 粗大的内捧猛烈进出在线视频| 国产私拍福利精品视频推出| 中文字幕91在线| 欧美国产成人精品二区芒果视频| 国产一区二区精品久久| 91精品国产91久久久久青草| 无翼乌全彩之可知子| 亚洲欧美18v中文字幕高清| 色综合小说天天综合网| 国产美女高清**毛片| 主播福利在线观看| 欧美成人亚洲欧美成人| 又粗又硬又大又爽免费视频播放| 奇米影视777色| 娇妻当着我的面被4p经历| 亚洲AV无码精品蜜桃| 看国产一级毛片| 国产在线精品网址你懂的| 99久久精品国产一区二区蜜芽| 日本亚洲黄色片| 亚洲欧美性另类春色| 美女脱得一二净无内裤全身的照片| 国产精品久久久| m.jizz4.com| 日本不卡1卡2卡三卡四卡最新| 亚洲欧美一区二区三区九九九| 理论片yy4408在线观看| 国产亚洲婷婷香蕉久久精品| 337p中国人体啪啪| 影音先锋男人看片资源| 久久精品无码午夜福利理论片| 欧美野外疯狂做受xxxx高潮| 四虎国产精品永久在线看| tom影院亚洲国产一区二区| 女人扒开腿让男人桶| 久久亚洲精品中文字幕|