當前位置: 華文世界 > 科技

有限法律主體:人工智能法律地位的合理選擇

2024-09-02科技
【學術爭鳴】
作者:許中緣(中南大學法學院院長、教授)
當前,人工智能正以前所未有的速度迅猛發展,深刻影響著人類的生活和社會結構。現有民法體系將人工智能納入客體制度進行規制,使得在規制人工智能損害時面臨諸多難題,特別是權利義務認定的模糊性和法律責任的分散性導致對受害人的保護不周延,影響人工智能技術的進一步發展。由此,「人工智能是否應當成為法律主體」的議題引起了諸多學術討論與社會爭議。光明日報理論版近期刊發的【人工智能不應成為法律主體】和【破除人工智能成為法律主體的臆想】兩篇文章,提出不應當賦予人工智能法律主體地位,筆者對此持不同觀點。筆者認為,主體制度是權利、行為、責任制度的基礎,人工智能成為有限法律主體,有助於實作權利和責任的清晰劃分,推動科技創新健康發展。
8月16日、23日,本報理論版圍繞「人工智能是否應具有法律主體地位」刊發的系列爭鳴文章。資料圖片
8月16日、23日,本報理論版圍繞「人工智能是否應具有法律主體地位」刊發的系列爭鳴文章。資料圖片
人工智能作為客體的弊端
其一,人工智能作為客體在侵權責任中存在構造不當問題。傳統民法責任制度建立在個人過錯基礎之上,對於普通機器適用客體制度能夠解決問題,但在具有高感知力與高決策力的人工智能語境下,則難以透過客體制度保障受害人權利。具言之,在過錯責任中,合理預見是確立責任的基礎,預見性確定了責任的性質與責任的內容,但由於人工智能能夠獨立思考和作出決策,其自我決策的存在削弱了參與主體(使用者)的過錯程度,因此需要重新審視和調整民事責任的分配機制。對此,學界試圖以嚴格責任來解決致人損害的問題,但沈重的責任負擔將嚴重影響人工智能的開發與利用。
其二,人工智能作為客體在產品缺陷認定中存在困難。人工智能系統的復雜性意味著人類對其行為無法完全掌控。例如,高階自動駕駛汽車在發生事故時,在其客體定位下只能極力探尋是因產品缺陷還是操作不當導致事故發生,而人工智能的「演算法黑箱」導致缺陷認定困難。即使在確定產品存在缺陷後,最終硬件制造商、軟件開發商、演算法設計師、數據提供商等參與主體分別承擔何種責任,依然無法準確認定。這種責任分散且因果關系中斷的情況加大了責任歸屬認定的難度,導致責任認定的無限遞迴,不利於保護受害人的權益。對此,【人工智能不應成為法律主體】與【破除人工智能成為法律主體的臆想】等提出否定觀點,均認為人工智能所引發的問題完全可以由既有法律體系調整而解決。這確實能夠在一定程度上解決當前的擔責困境。但這種應對之策,與認可人工智能能夠成為法律主體一樣,均屬解決人工智能發展所帶來的法律挑戰的備選方案,二者並無本質區別。
其三,人工智能作為客體不利於科學技術的發展創新。正如美國學者博登海默所言,法律必須服從社會進步所提出的正當要求。在快速發展的智能時代,法律應當促進而非阻礙技術創新與套用。若將人工智能僅視為客體,那麽在面對技術叠代與套用場景擴充套件時,現行法律框架可能無法提供足夠的激勵機制和安全保障,進而抑制了潛在的社會經濟效益與科技進步。
值得強調的是,主體制度是權利制度的基礎,權利是定分止爭的基礎。人工智能被視為法律主體後能使權利義務更加清晰。例如,當前關於人工智能創造物的歸屬爭議,即是因人工智能的客體定位導致了正當權利主體的「虛無」,這何嘗不是人類的一種「自負」?而將人工智能作為主體則能夠使權利更加明確地被界定和分配——創作物屬於人工智能與使用者共同所有。此外,【人工智能不應成為法律主體】一文提出,人工智能成為法律主體有潛在的不可預計的風險。但正是基於此種風險,才更需要「刺穿人工智能面紗」,從而增加一種可選擇的直接規制其致害的路徑。這種做法不僅能有效解決責任歸屬問題,還能透過設定合理的責任限制和保險機制來平衡技術進步帶來的潛在利益與可能的危害,確保受害者能夠獲得適當的賠償,同時避免過度懲罰技術創新者,從而保持技術發展的活力。
人工智能成為有限法律主體的可行性
其一,民事主體是法律承認的結果,法律人格在社會需求中不斷擴張。從「人可非人」到「非人可人」的歷史演變,闡釋了民事主體只是社會需要的法律形式。例如,法人制度的出現純粹是經濟發展的需求導致法律技術進步的結果,是一種經濟生活的客觀現實與法律技術運用相結合的產物。即使是法國民法典編纂之時,立法者因害怕波旁王朝借「法人制度」進行復辟而予以拒斥,卻依然無法違背「法律須適應社會發展需求」這一客觀規律,最終法人具有擬制主體地位。又如,法律為了保護胎兒利益,在繼承、接受贈與等情況下被視為已出生,胎兒在此種情形下具有民事主體地位。人格制度的演變直接反映了整個民法觀念、價值的發展變化,逐漸出現了「沒有臉龐」的權利主體。法律對民事主體的承認是基於現實需要,根基在於實作人的利益,生命和倫理並非成為民事主體的必然要求。
其二,賦予人工智能有限人格不會損害以人為中心的主體制度,反而以工具性人格來定位人工智能可以更好貫徹以人為本的理念。【破除人工智能成為法律主體的臆想】一文認為,「賦予人工智能主體地位會挑戰以人類為中心的傳統觀念」。但在有限的工具性人格主張下,此種憂慮可以得到解決。對人工智能有限人格的承認,其實是以人類為中心建立相應的制度體系,避免具體人格的缺乏導致規則的無所依存。事實上,中國民事主體可分為支配性主體(自然人)與工具性主體(法人、非法人組織),後者系為了服務人類社會發展,實作責任有限的目的而人為擬制的一種工具,但並不具有與人類完全相同的權利義務。同樣,賦予人工智能民事主體資格,也可使人工智能更好地發展以服務人類社會。
其三,賦予人工智能有限人格不會違反現行民事財產制度。財產制度作為一種社會分擔制度,其核心在於透過法律手段合理分配社會資源,以實作公平與效率的雙重目標。從這個角度看,賦予人工智能有限的法律人格不僅不會與現有財產制度相沖突,反而能更好地發揮財產制度的社會分擔功能。一方面,人工智能所涉及的財產關系本質上是對既有財產制度的補充和完善。例如,當人工智能作為投資受托人參與經濟活動時,其獲取的財產收益可以被規定為歸委托人所有,或者按照事先約定的比例分配給委托人和機器人本身。這種安排既尊重了財產所有權的基本原則,又為新型經濟活動提供了法律上的支持,確保了財產分配的公平性和合理性。另一方面,財產制度的一個重要功能是透過法律規範來實作資源的有效配置和社會風險的合理分散。透過賦予人工智能有限法律人格,可以明確其在特定情形下的財產持有權和使用權。例如,商用無人駕駛汽車因出租或共享而獲取的收益,可以歸屬汽車所有,這些收益可以用來彌補潛在的風險損失,或用於補償受害者的損失。由此,財產制度不僅促進了資源的有效利用,還實作了社會風險的合理分擔。基於該制度,【破除人工智能成為法律主體的臆想】一文提出人工智能沒有獨立財產承擔責任的說法亦不攻而破。
對有限法律主體之「有限性」的理解
具有自主性與決策力的人工智能具有一定程度的創造性:創造出相應在法律上無從依歸的權利,創造出相應無法確定的責任。基於此,為解決相應問題,人工智能應該成為有限法律主體,其「有限性」主要表現為以下幾個方面:
其一,權利能力的有限性。人工智能作為工具性主體並不享有倫理性的人格權或身份權,而是享有經濟性的財產權利。這意味著人工智能可以透過自己的「勞動」擁有特定的財產權,但它們並不享有與自然人相同的身份權或人格權,比如名譽權、私密權等。需要註意的是,在肯定人工智能擁有財產權的基礎上,也不妨礙其作為人類「所有物」的內容。這一點可以類比於實控股東對法人的「所有權」,而法人也具有自己的財產。簡言之,法律在肯定人工智能可以享有民事財產權的同時,並不改變人工智能本身相對於人類而言的客體內容。
其二,行為能力的有限性。人工智能的行為能力同樣受限於其設計和技術。盡管人工智能能在一定範圍內自主決策和執行任務,但這些行為始終受制於其編程邏輯及法律規範。設計者、使用者或所有者透過編程等方式設定了人工智能的行為邊界,以保障其行為不會超出法律和社會可接受的範圍。亦即,盡管人工智能具備一定的自主性,但其行動仍需遵循預設的規則體系,且最終應由人類負責監督和控制。簡言之,人類不可因人工智能有限主體地位而逃避自身的責任。由此,可回應【破除人工智能成為法律主體的臆想】一文提出「誘發道德風險」的擔憂。
其三,責任能力的有限性。人工智能的責任能力與自然人的責任能力不同,其承擔責任是有限的。【人工智能不應成為法律主體】一文認為人工智能無法獨立承擔責任。在有限人格的制度定位下,法律應當為人工智能創設特殊的責任承擔的機制,在一定限度內以自己的財產獨立對受害人承擔責任,以減輕相關參與人的責任負擔。例如,透過統一為人工智能開設相應信托賬戶、購買保險等方式,當其對他人造成損害時,優先以該賬戶資金進行賠付;同時,還可以透過登記確立人工智能與占有人的代理關系,從而確定代理人與被代理人之間的責任承擔機制。以上述多元財產—責任制度的設計來完成對責任的承擔。
隨著時代的發展,尤其是人工智能技術的迅速發展,法律制度的革新變得尤為迫切。人工智能不僅在改變著我們的生活方式,還在影響著既有法律框架,推動著法律理論的創新。將人工智能視為有限法律主體,不僅是應對當前法律挑戰的迫切需求,也是促進社會科技進步和創新的必要之舉。雖然這一路徑面臨諸多爭議,但面對快速變化的社會和科技環境時,簡單劃定界限、固守成規,往往會限制創新與進步。法律制度不應僅僅停留在將人工智能視為客體進行規制的傳統思維模式中,而應積極探索並承認其在特定條件下作為有限法律主體的可能性,在促進技術創新與套用的同時確保法律制度能夠更好地服務於社會發展。
【光明日報】(2024年09月02日 15版)
來源:光明網-【光明日報】