首頁 >> 跨學科
人工智能有 “ 法律人格 ” 嗎
2019年11月06日 10:27 來源:《學習時報》 作者:徐昭曦 字號

內容摘要:

關鍵詞:

作者簡介:

  人工智能在社會各領域的深入應用帶來了諸多法律問題,如人工智能可否作為法律上的主體?人工智能生成物是不是作品?人工智能駕駛責任如何分配?這些問題可歸結到一點予以詮釋——人工智能是否有“法律人格”?

  人工智能法律人格問題的實質。法律人格,是指法律認可的一種享受權利、承擔義務的資格。通俗地說,若人工智能成為了法律上的“人”,其就擁有了享受權利的可能,比如受到尊重、不被隨意破壞打罵等身份方面的權利,以及著作權、收益權等財產方面的權利;若人工智能成為了法律上的“人”,其也須對自身行為負責,要有獨立承擔責任的能力,不能損害他人自由,不得侵犯他人財產及人身,否則會受到法律的制裁。相反,若人工智能不是法律上的“人”,其權利和責任將無從談起。也就是說,法律人格是享有權利和承擔責任的前提。

  目前對此問題的討論,大致可以歸結為三種觀點:一是肯定說(主體說),即認為應當承認人工智能具有法律人格,但應同時明確其法律人格的有限性。如有學者認為,人工智能有獨立的意識和意志,具備了法律主體資格條件。二是否定說(工具說),該觀點主張人工智能僅僅是人類的工具,不是具有生命的自然人,也區別于具有獨立意志并作為自然人集合體的“法人”,且目前發展水平不足,不具備主體資格要件,因而尚不足以取得獨立的主體地位。三是具體說(區分階段說),該觀點認為人工智能法律人格問題的研究必須區分具體階段,也就是將人工智能大致劃分為弱人工與強人工兩個階段,弱人工時期的人工智能主要是單一方面具有人類造詣的功能型機器,仍然是人類的輔助工具,不具有法律人格;而強人工時代的人工智能具備獨立意志,擁有綜合智能元素,并能脫離人類控制自主行為,應當賦予其相應人格,同時明確其法律人格具有特殊性,區別于自然人人格與法人人格。如同法人區別于自然人沒有名譽權一樣,人工智能區別于自然人,也不具有結婚、生育等權利能力,當然這僅限于當前人工智能所處的發展階段。

  實際上,隨著人工智能科技的進步及機器學習能力的逐步增強,人工智能自身的主體能力也在不斷充實、發展與成熟。如果把弱人工時代比作人工智能發展的嬰童階段,強人工時代則相當于人工智能發展的成年階段。與之相對應,法律是因應社會的發展變化而不斷發展完善的,“法律人格”的內涵也在隨時代更迭不斷被賦予新的內涵,其外延當然亦隨之擴展。從自然人格演進史、動物及無生命體的人格制度史來看,法律主體的范疇極具包容性。因此,法律的發展應當結合時代和技術的具體發展水平。就目前人工智能的發展水平而言,還處在弱人工時代,人工智能仍然是輔助人類工作的工具,尚不足以賦予其法律人格。而如果有一天,當我們進入人工智能發展到具備自我意識乃至自由意志的強人工時代,這一問題可能會有不同的答案。

  人工智能生成物的權利歸屬。目前人工智能已可以進行自行寫作、作曲、作畫、撰寫新聞報道等,隨之而來的問題是,詩歌、畫作、歌曲、新聞稿等這些人工智能生成的內容是不是著作權法上具有獨創性的作品?如果是作品,其權利歸屬于人工智能還是人?如果權利歸屬于人,是歸屬于人工智能的所有者、使用者、設計者抑或是其他主體?由此,人工智能生成物面臨的法律問題主要是生成物的法律定性及其權利歸屬。對此問題,學術界已經有了一些研究成果,但爭議激烈、莫衷一是。如有學者認為,人工智能能夠自主學習、自主創作,其生成內容具有獨創性,著作權應歸屬于機器人所有。對此,反對者則認為,權利若為機器人所有,該權利如何行使、由誰行使缺乏可操作性;也有學者認為,機器人是程序員設計出來的,應當由設計人員享有;還有學者認為,應借鑒單位作品制度,由機器人和設計人員共同所有,等等。

  事實上,當前人工智能按照功能差異,如人類社會職位分工一樣,一般都會朝向不同領域、行業分化為專業性非常鮮明的功能型人工智能,雖然不具備綜合性主體能力,但在某一領域是有賦予其相應能力的空間的。例如,醫療機器人、法律機器人、寫作機器人等,對應可以賦予其為實現醫療工作的權利、為實現法律工作的權利、為實現寫作方面的權利。

  人工智能侵權的責任承擔。人工智能迭代式的發展,使得汽車自動駕駛、醫療機器人、無人機等技術進一步解放了人類勞動,同時帶來的問題也層出不窮。在利用智能機器引發的醫療事故、自動駕駛的交通事故、無人機誤判等問題上,如何對相應責任進行認定與歸結,誰來為人工智能的行為負責?有觀點認為,責任分配應結合機器人致損的具體情況分析,一是人為操控智能系統導致損害,如黑客、病毒等人為因素侵入互聯網,進而控制智能機器人導致的損害,應當由背后的操控者承擔責任;二是因智能系統自身缺陷造成損害,如果是使用者過失,則由使用者承擔責任,如果是智能系統漏洞或者是人工智能超越控制的“自主行為”,應由受益者或社會承擔替代責任。這一觀點在現階段是有其合理性的。

  但如果到了強人工智能時代,以算法程序、代碼規則這些無機神經網絡具備思維與決斷能力的“人造人”,同以神經元形式而具備獨立意志的人類一樣,都是擁有自由精神的實體,他們都有能力脫離自我之外其他實體控制獨立實施有意識與有意志的行為,那時如果仍要求人工智能背后的人類為其承擔責任將不再合理。到那時,人工智能享有權利(如著作權),其可以通過自己的勞動獲得財產。此外,按照由受益者負擔風險的原則,可由受益人或社會設立基金或投保方式為人工智能承擔責任。

  綜上所述,在認識人工智能“法律人格”這一問題上,必須結合科學技術的發展階段進行實事求是地分析。可喜的是,這一問題已得到國家層面的重視,國務院發布的《新一代人工智能發展規劃》,明確了要“加強人工智能相關法律、倫理和社會問題研究,建立保障人工智能健康發展的法律法規和倫理道德框架。開展與人工智能應用相關的民事與刑事責任確認、隱私和產權保護、信息安全利用等法律問題研究,建立追溯和問責制度,明確人工智能法律主體以及相關權利、義務和責任等”,這為促進人工智能健康快速發展打下了堅實的法治基礎。

作者簡介

姓名:徐昭曦 工作單位:

轉載請注明來源:中國社會科學網 (責編:馬云飛)
W020180116412817190956.jpg
用戶昵稱:  (您填寫的昵稱將出現在評論列表中)  匿名
 驗證碼 
所有評論僅代表網友意見
最新發表的評論0條,總共0 查看全部評論

回到頻道首頁
QQ圖片20180105134100.jpg
jrtt.jpg
wxgzh.jpg
777.jpg
內文頁廣告3(手機版).jpg
大乐透走势图带连线图表