新興技術推動法理論變革的因素考量-以人工智能產品侵權責任分配理論為例的反思_第1頁
已閱讀5頁,還剩32頁未讀 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

新興技術推動法理論變革的因素考量——以人工智能產品侵權責任分配理論為例的反思提要:人工智能時代之來臨,法律人基于各自的理論推演和預設,試圖構建新型法理論。以人工智能產品的侵權責任為例,學者們提出了產品責任說、高度危險說、用人者責任說以及法律主體責任說等代表性新觀點。通過從生產者、使用者以及社會進步之角度進行思考,發(fā)現(xiàn)上述觀點依然是傳統(tǒng)侵權行為理論的延續(xù)?;跉v史維度、主體維度以及技術維度反思,也可以發(fā)現(xiàn),人工智能產品的侵權行為并沒有動搖現(xiàn)有侵權責任分配原理,現(xiàn)有法理論可以處理好人工智能產品的侵權歸責問題。從法理論變革的視角來看,以人工智能為標志的現(xiàn)代科學技術的發(fā)展雖然會促進法理論在某些方面的變化,甚至可能是擴大了法律的規(guī)制領域,但是想要從根本上撼動現(xiàn)有的法律體系,仍然需要有其他變革的契機。理論與實踐的雙重演繹表明,科技的發(fā)展促進法理論變革,需要具備多種耦合性因素,包括科技因素、社會因素以及制度因素,從而形成理論變革的合力。一、問題的由來隨著人工智能技術的迅速發(fā)展,人工智能應用范圍越來越廣,人工智能產品也越來越多,人工智能技術開發(fā)與應用已經深入社會生活的方方面面,一個新的技術時代——人工智能時代已經來臨。為了解人工智能技術帶來的社會變革,建構規(guī)范方法應對人工智能社會風險,2012年,歐盟委員會啟動RoboLaw項目,主要目的是研究“機器人技術領域中的新興技術如何影響生活”。隨后,歐盟議會法律事務委員會(JURI)于2016年5月發(fā)布《就機器人民事法律規(guī)則向歐盟委員會提出立法建議的報告草案》(簡稱《報告草案》),《報告草案》指出:“從長遠來看,人工智能存在超越人類智力能力的可能。立法機關在不扼殺創(chuàng)新的前提下,需要考慮其法律和倫理影響。人工智能替代人類或超越人類的可能性逐漸成為一種共識。因此,人工智能產品能力的特殊性、超強性以及潛在的危險性,引發(fā)人們對人與機器關系的思考,特別是關于人工智能產品能力的法理思考。人們往往會從理論上追問,如果人工智能具有人類智能,那么人工智能與人是什么關系?是平等關系嗎?如果是平等關系,人工智能與人發(fā)生沖突時,如何分配責任?無論如何理解人工智能的社會角色,人工智能為人們帶來技術福利的同時,也會不可避免地與人類發(fā)生沖突。在法律尚無明確規(guī)定的前提下,我們是否會想當然地以為,因為人工智能會與人發(fā)生沖突,所以人工智能產品侵權就會帶來侵權責任歸責理論的重大變化,進而導致整個民法乃至法理上責任主體的理論變革?為此,本文首先從當前學術界的代表性觀點出發(fā),反思人工智能是否對民事侵權責任的基本原理帶來了挑戰(zhàn),進而從法理上尋找理論緣由,為我們充分應對人工智能時代的到來提供理論依據(jù)。二、人工智能產品侵權責任分配的代表性新觀點自人工智能的研究成為學界的學術熱點以來,短短的五年時間(2017年被公認為中國人工智能研究的元年),有關人工智能產品侵權責任分配的學術研究成果非常豐富。概而言之,這些學術研究成果可以總結為以下幾種學術觀點。(一)產品責任說吳漢東提出關于智能系統(tǒng)致人損害責任的認定,有兩種責任方式可供選擇:一是基于行為人過失所產生的產品責任;二是基于技術中立原則所產生的替代責任。有人認為將機器人定位為民法上的物且將其視為產品并據(jù)以確定其民事責任應是更現(xiàn)實的選擇。從屬性來看,人工智能本身是由人類制造的物品,而市場上的人工智能是為了滿足人類需要而生產出來的,目的是為參與流通即銷售,因此人工智能符合《產品責任法》第2條規(guī)定的產品要件“經過加工制造”“用于銷售”,仍然屬于產品的范疇,故應接受產品責任制度的調整。(二)高度危險責任說美國學者凱爾·科隆納將HAV(HighlyAutomatedVehicles,即高度自動化)駕駛定義為侵權責任法中的“高度危險”。高度危險責任的理論基礎主要在于“危險責任說”,即危險不僅在于潛在加害人所從事的活動或管理的對象具有外部致?lián)p的可能性,更在于損害的高度嚴重性和危害廣泛性,而且潛在受害人對此幾無防御之道。有學者認為,無論人工智能歸于危險物品或危險活動,高度危險的說法都符合人工智能的屬性。高度危險責任是“基于風險的不可預測性和損害后果的極端嚴重性而對加害人課以無過錯責任”。PauliusCerka等人提出人工智能的開發(fā)者應該對更大的危險來源的行為負責,在這種情況下,無過錯責任論產生。此外,高度危險責任是在人工智能技術“危險的難以避免性”、行業(yè)的“非通常性”——即人工智能核心技術的專業(yè)性以及技術缺陷和因果關系較難證明的情況下,基于節(jié)約交易成本的考量。(三)用人者責任說用人者責任又可以被稱為“雇主責任”,屬于替代責任的范疇,指的是如果雇員在職務范圍內實施侵害他人權益的行為,那么雇主就需要對雇員的行為承擔責任。用人者責任說提出,人工智能自主運行行為是為執(zhí)行特定任務,所有者或使用者為其運行利益的享有者。即如果智能機器人實際上“代理或者代表”某個法律主體從事行為或者進行決策,那么可以比照雇主對雇員的責任,讓部署智能機器人的人承擔替代責任。如貝札爾等人指出,誰“雇傭”誰負責應當是基本原則。用人者責任中,責任主體承擔無過錯責任。此外,還有一種特殊的用人者責任——勞務派遣責任。2017年2月,歐洲議會《機器人民事法律規(guī)則》就是基于勞務派遣關系進行自動駕駛侵權的責任構造。該理論基礎在于用工單位直接享受勞動者勞動成果帶來的利益,因此對比用人單位,應承擔更為嚴苛的侵權責任。(四)法律主體責任說1.類比自然人的有限人格——監(jiān)護人責任監(jiān)護人理論認為因人工智能具備一定的自主性,但又不能完全像人類一樣獨立地思考和行為,其類似于人類社會中的無或者限制民事行為能力人,使用者如果使用該人工智能,對人工智能的自主行為負有監(jiān)督管理的義務,應當承擔人工智能的監(jiān)護人責任。賴玉強提出,人工智能是人類創(chuàng)造出來的服務于自身的,其地位不可能超出人類,甚至不能達到與人類同等重要的程度。它所能擁有的,至多只是有限的民事行為能力以及民事權利能力,這種能力在一定程度上可類比于未成年人,是“類人”。所以,所有者應當對人工智能承擔監(jiān)護人的責任。2.類比法人的有限人格——設立中法人和電子人制度劉曉純、達亞沖提出智能機器人享有有限法律權利,即可以成為中法人。貝克則主張在人與工具之間設立新的主體,即把與智能機器人相關的所有參與者(研發(fā)者、程序員、生產者、用戶)全部綁定起來,轉化為一個新的法律實體——“電子智能體”(electronicagent)或“電子人”(electronicperson)。他認為法人概念在處理公司事務時是相當成功的,至少能夠確保由公司各方的合作行為造成的全部損失不是由某個人來獨立承擔。因此可以賦予智能機器人特定的法律“人格”,讓自主機器人有一定程度的法律自主權。這種觀點與從屬法律主體地位理論有一致性。3.直接賦予人工智能法律主體地位不少學者從法律主體理論出發(fā),提出直接賦予人工智能法律主體資格不存在學理和倫理上的困境。周詳認為,以往有很多先例可循的“社會人格化”例證,足以說明如今我們若將智能機器人“人格化”,在邏輯上并不存在法律推理與論證方法層面的根本性障礙。權利主體的內容是逐步建構起來的,是一個不斷發(fā)展變化的觀念。智能機器人的智能性這一本質性要素,必然要求賦予智能機器人法律主體地位,從而對社會發(fā)展起到正向作用。因此賦予智能機器人法律主體地位是順應時代發(fā)展的要求。如許中緣提出民法上確認法人的民事主體人格。張童提出法律關系主體與客體的區(qū)分依據(jù)并非局限于是否擁有生命、是否擁有獨立意志,而是應當將重點放在衡量有無必要賦予主體資格使其享有權利能力,如法人擁有擬制人格那般,賦予人工智能產品以擬制人格并非不可。在不限制其他法律主體(自然人和人工開發(fā)的法律實體)的利益的最佳保護的情況下,人工智能系統(tǒng)應該是公認的法律主體。所以,在知識產權法領域,有學者基于人工智能的法律主體地位,提出可以賦予人工智能創(chuàng)造物以著作權。三、對人工智能產品侵權責任分配代表性新觀點的反思人工智能技術的發(fā)展,帶來了法學學術研究的新一輪繁榮。秉持學術研究應當提升知識增量的理路,我們應當對上述四種代表性新觀點進行分析,思索其是否真正地反映了人工智能產品侵權責任分配的基本原理,進而思索這些所謂的新觀點是否沖擊了現(xiàn)有的民事侵權責任體系。因此,我們要關注的是,人工智能產品的侵權行為是否動搖了現(xiàn)有民事侵權責任體系的理論根基,人工智能產品的民事侵權責任是否仍然囊括于現(xiàn)有的民事侵權責任體系之中。概而言之,如果將人工智能產品的侵權行為歸結到生產者、銷售者或者使用者,那么就可以說這只是傳統(tǒng)侵權行為理論的延續(xù),并沒有誕生新的民事侵權責任歸責理論。(一)從生產者角度的觀察與反思生產者在追求市場利益的過程中創(chuàng)造人工智能技術,是人工智能技術危險產生和流通的根源;在具體的人工智能侵權事件中,生產者是實力雄厚的賠付主體;對人工智能侵權事故整體而言,生產者是人工智能侵權危險的有效控制者。生產者是人工智能侵權責任主要主體之一,生產缺陷是人工智能侵權危險來源之一。1.人工智能產品存在生產缺陷時的歸責反思在產品責任、高度危險責任、用人者責任以及監(jiān)護人責任中,人工智能存在生產缺陷時,生產者若為責任主體,則承擔無過錯責任。其中,產品責任直接規(guī)定了生產者的缺陷責任。我國《產品責任法》第四十一條規(guī)定當產品存在缺陷時生產者承擔無過錯責任:“因產品存在缺陷造成人身、缺陷產品以外的其他財產(以下簡稱他人財產)損害的,生產者應當承擔賠償責任?!币虼?,如果人工智能生產制造過程中存在缺陷而導致人工智能侵權責任事故,生產者應當承擔無過錯責任。確保人工智能符合當事人之間約定的或者法律規(guī)定的質量標準是生產者的法定義務。生產者作為人工智能技術制造生產角色,是保障人工智能技術安全的第一道防線,一般而言“在工程領域,產業(yè)界常常并沒有強烈的直接動力在系統(tǒng)安全性和正確性方面做出更多投入,更常見的應對是來源于問題發(fā)生之后的補救和分析”。生產者對缺陷制造承擔無過錯責任有利于引導生產者提高人工智能生產制造的安全性。相較而言,若設立中法人發(fā)起人、智能電子人代表或人工智能成為獨立法律主體,則生產者對人工智能侵權不承擔直接責任。在人工智能因生產缺陷而侵權時,高度危險責任、用人者責任以及監(jiān)護人責任的免責事由均較為嚴苛,且存在不適用之處?!睹穹ǖ洹返谝磺Ф偎氖臈l規(guī)定:“承擔高度危險責任,法律規(guī)定賠償限額的,依照其規(guī)定,但是行為人有故意或者重大過失的除外。”《民法典》第一千一百九十一條規(guī)定:“用人單位的工作人員因執(zhí)行工作任務造成他人損害的,由用人單位承擔侵權責任。用人單位承擔侵權責任后,可以向有故意或者重大過失的工作人員追償?!薄睹穹ǖ洹返谝磺б话侔耸藯l規(guī)定:“無民事行為能力人、限制民事行為能力人造成他人損害的,由監(jiān)護人承擔侵權責任。監(jiān)護人盡到監(jiān)護職責的,可以減輕其侵權責任。”因此高度危險責任、用人者責任中,生產者無法以人工智能技術符合安全質量標準等進行抗辯;有限人格監(jiān)護人責任中,無過錯是減責而非免責事由。在免責事由之欠缺前提下,責任由生產者一己之力承擔。由此作為“風險社會”,損害總是以一定的概率存在,區(qū)別只是由哪些人實際承受這些損害,此時生產者成為損害的實際承擔者。這一理念下,生產者會將重心轉移至如何通過保險等方式提高自己的償付能力而非最大限度地提高人工智能技術的安全性,因為前一種方式的成本明顯低于后一方式。蓋多·卡拉布雷西指出:“毫無疑問,在事故發(fā)生后,我們?yōu)槭鹿适芎φ咛峁┑姆椒ㄊ侵陵P重要的,但現(xiàn)實的事故的社會成本可以通過首先采取手段避免事故得到最大程度的減少?!蓖耆扇烁裣?,人工智能要以自己的獨立財產承擔責任,這在實踐生活中無法實現(xiàn)。雖然其可以通過人工智能保險、人工智能風險基金等方式來轉化責任,但減少了生產者與人工智能侵權行為之間的聯(lián)系,無法推動制造商積極主動關注人工智能技術安全問題。這種責任聯(lián)系的弱化,也是今天許多法人組織從事非法行為屢見不鮮的原因之一。2.人工智能產品無生產缺陷時的歸責反思除了人工智能無生產缺陷時生產者是否需要承擔侵權責任這一問題,承擔責任比例也是人工智能侵權責任分配面臨的問題之一。如果人工智能不存在生產缺陷,則在產品責任中,生產者不承擔責任;在高度危險、用人者責任以及有限主體論的監(jiān)護人責任等三種觀點中,生產者承擔無過錯責任;設立中法人、電子人以及法律主體責任,尚無具體規(guī)定。不同的觀點,生產者責任承擔相差較大。筆者認為人工智能無生產缺陷而發(fā)生侵權事故時,生產者應承擔公平責任?!睹穹ǖ洹返谝磺б话侔耸鶙l規(guī)定:“受害人和行為人對損害的發(fā)生都沒有過錯的,依照法律的規(guī)定由雙方分擔損失?!边@一規(guī)定被稱為公平責任原則。公平責任原則充分考慮了生產者作為受益者的身份,也考慮了使用者作為受益者的身份。由兩個受益者分擔人工智能產品無缺陷時導致的損失,大體體現(xiàn)了分配正義。(二)從使用者角度的觀察與反思使用者作為人工智能技術的直接控制者,規(guī)范使用人工智能是其應有之義。此外,謹慎使用人工智能技術,避免因操作失誤等過失致第三人受損是其注意義務之范疇。與生產者相比,使用者是力量較為薄弱的責任主體,不宜為其設置超出其承受能力之責任,適當?shù)呢熑畏峙溆欣诩ぐl(fā)使用者履行安全使用人工智能之注意義務。使用者對人工智能的青睞和信任是人工智能技術長足發(fā)展的基礎。1.使用者未謹慎使用人工智能在人工智能不存在生產缺陷的前提下,使用者應當謹慎使用人工智能,使用者未履行謹慎義務致人工智能侵權的,應當承擔過錯侵權責任。鑒于使用者大多數(shù)賠償能力較弱,故可以借鑒機動車強制責任保險制度,覆蓋小額賠償。以自動駕駛汽車為例,自動汽車駕駛人未履行注意義務的,可以依據(jù)《道路交通安全法》第七十六條規(guī)定承擔責任:“機動車發(fā)生交通事故造成人身傷亡、財產損失的,由保險公司在機動車第三者責任強制保險責任限額范圍內予以賠償?!睆娭曝熑伪kU是確保使用者賠償能力的重要條件,消費型使用者作為個體賠償能力普遍較弱,借鑒機動車強制責任保險制度有利于分散使用者賠償風險,保護受害人權利。但強制責任保險賠償限度較低,面對較為嚴重的損害,無法全面覆蓋,此時單個主體可以以商業(yè)保險等方式填補損害。2.使用者謹慎使用人工智能使用者在謹慎使用人工智能,履行其注意義務的前提下,不存在過錯,不對人工智能侵權承擔侵權責任。首先,與生產者不同,使用者對人工智能技術運作知之甚少,無法進一步阻止人工智能侵權;其次,使用者多為單個主體,對個人過失行為負責是權利與義務相對應之內涵,但對非義務范圍內行為承擔責任超過其法律義務。使用者不承擔責任,由生產者與受害者根據(jù)公平責任分擔損失。在現(xiàn)有新觀點中,產品責任未規(guī)定使用者之責任承擔。高度危險侵權責任中,取使用者做責任主體,不符合高度危險責任理論基礎。首先,使用者享受人工智能的運行利益,但生產者卻未嘗不是人工智能的更大受益者,整個社會也因人工智能技術的普及減少資源浪費等。其次,從現(xiàn)有的高度危險責任出發(fā),承擔高度危險責任的主體有:民用航空器的經營者,易燃、易爆、劇毒、高放射性、強腐蝕性、高致病性等高度危險物的占有人或者使用人,高空、高壓、地下挖掘活動或者使用高速軌道運輸工具的經營者,高度危險活動區(qū)域或者高度危險物存放區(qū)管理人等主體。從高度危險責任主體的規(guī)模到其活動的高度危險性,使用者使用人工智能技術的行為都無法與其相提并論。此外,人工智能侵權責任事故的原因既可能是用戶未履行注意義務,也可能是技術自身的缺陷,此時即使用戶履行了合理的注意義務也無法避免損害發(fā)生。不論是用人者責任、勞務派遣責任還是監(jiān)護人責任,使用者作為人工智能的直接控制人承擔無過錯責任,在勞務派遣模式下生產者有過錯的,承擔補充責任;監(jiān)護人責任下,使用者盡到監(jiān)護義務也不能免除其責任。有限人格設立中法人制度無法適用于單個的使用者,雖然使用者也可以與生產者等一起與人工智能組成電子人,但不明晰的權利義務分配,容易導致適用困境。(三)從社會進步角度的觀察與反思社會進步需要技術進步與社會安全相平衡。社會之進步離不開技術之進步,而社會進步之目的在于使社會主體“人”享有幸福之生活。自康德提出“人是目的,而不是工具”這一理念以來,人權觀念日益深入人心,人人追求幸福生活之過程極大推動了技術變革的步伐。人工智能侵權責任分配是調整二者之平衡的關鍵點之一,須謹慎對待。1.人工智能若為責任主體人工智能責任主體究竟應該如何認定?是繼續(xù)由生產者、使用者等承擔責任,還是將人工智能類比自然人或法人賦予法律人格?從權利利用角度來看,賦予人工智能主體資格并非有效的權利保護方式。私人權利盛行之時代,所有權制度為權利人提供了最全面的權利利用方式,現(xiàn)有人工智能技術仍處于不斷發(fā)展和進步的上升時期,將人工智能技術歸于其所有者,對人工智能技術開發(fā)者更具激勵作用。所有權是最完整的物權,是最為典型的絕對權,開發(fā)者可以對人工智能占有、使用、收益、處分,其完整性超越其他任何一種行使的非所有權財產權類型。首先,承認所有者對人工智能的所有權,使其對人工智能的權利最大化,可以激勵開發(fā)者不斷改進和提升人工智能技術,開發(fā)人工智能技術的多種利用途徑。其次,法律賦予權利的同時也賦予權利人謹慎行使權利避免對他人權利造成損害的義務。人工智能在完全具備人類自由意志和獨立的財產之前,仍要依靠具體的自然人行使權利、履行義務,過早賦予人工智能法律主體資格可能導致實際責任主體享有權利后借人工智能法律主體資格逃脫責任。因此,人工智能技術發(fā)展初期,明確人工智能不是權利義務主體,是技術發(fā)展的要求。2.人工智能歸責原則侵權歸責原則決定生產者、使用者與受侵害者權利義務的分配??死姿沟侔病ゑT·巴爾提出只有當侵權行為法避免了過分嚴苛的責任時,才能作為有效的、有意義的和公正的賠償體系運作。作為一個為理性所支配的法律,它既不能成為公眾所認可的經濟秩序的阻礙因素,也不能要求一個行為不謹慎的人對他人因其行為所產生的一切損害,及一切非因行為人的過失即無需容忍的損害,承擔賠償責任。高度危險責任、用人者責任以及有限人格中的監(jiān)護人責任都為無過錯責任,形式上對受害人的保護無可挑剔。但無過錯責任作為一種嚴格歸責原則,責任主體不明確、以及責任主體明確后,免責事由適用不合理,引發(fā)任何一方承擔責任都會導致過于嚴苛的責任。由此引出,責任主體會將注意重點轉移至通過保險等提高賠付能力而非最大限度提高人工智能安全技術或謹慎使用人工智能,在事故發(fā)生前即降低事故發(fā)生之概率。每個生產者、使用者關注重點之轉變,集中后使社會整體事故發(fā)生率提高,受害人數(shù)增多,從社會整體講并不利于保護受害人權益。因此,從現(xiàn)有法律出發(fā),根據(jù)人工智能侵權原因對應不同責任主體,結合每一責任主體的特殊性確定歸責原則,可以減少法律對技術發(fā)展的干涉,同時保護受害人權益。從上述分析來看,我們可以得出一個基本的結論:即使在現(xiàn)有法律體系下,依然可以處理好人工智能產品的民事侵權責任問題。換言之,在無法賦予人工智能產品為責任主體的情形下,人工智能產品的侵權行為只會在原有的責任歸責理論中進行適當?shù)倪x擇,并沒有實現(xiàn)責任理論的創(chuàng)新。由此可見,人工智能的研究大潮中,并非所有的研究都存有真正的問題意識。四、人工智能產品的侵權行為不會動搖現(xiàn)有的侵權責任分配理論上文分別從生產者、使用者和社會進步角度對人工智能產品侵權責任分配的代表性觀點進行了述評和反思。我們發(fā)現(xiàn),這些所謂的新的學術觀點并沒有提供新的理論成果。接下來需要繼續(xù)追問的是,人工智能究竟是否會動搖民事侵權的責任分配原理?下文將從歷史維度、主體維度和實踐維度對此展開否定性論述,進一步明確人工智能產品的“行為”依然在現(xiàn)有法律體系的規(guī)制范圍之內。(一)從主體維度來看,人工智能產品尚非法律意義上的“人”人工智能法律主體的論證分為兩類,一類是將人工智能類比為自然人,從人工智能之“智能性”出發(fā);另一類是將人工智能“擬制化”,認為人工智能可借鑒法人、非法人組織擬制化的路徑,構建人工智能法律主體制度。1.人工智能作為“人”自然人的法律主體基石來源于近代的“天賦人權”理論和“自由意志”理論。1789年,法國頒布了《人權和公民權利宣言》,其核心精神是從“自然權利觀念”衍化而來的“天賦人權”精神,實質是關于平等、自由、博愛的宣言書。于此,自然法不再被視為是為具體問題提供答案的原則,個體的權利也不被認為系由客觀規(guī)則作為尋求公平的手段而賦予的,而是直接從人的本質中歸結出來,是自然的權利。通過天賦人權觀念,啟蒙思想家表達了“人生而平等”的訴求。這是生物意義上的人(Mensch,HumanBeing)。在此層面上,個人的社會身份被褪去,人與人的原始平等性得以呈現(xiàn)。民法以眾生平等的權利能力制度回應了這一訴求。因此賦予自然人法律主體資格是“天賦人權”的要求,是生物意義上的人的要求,是保障自然人原始平等的要求。人工智能作為以程序設計為核心,以機器人、自動駕駛汽車等各種形態(tài)出現(xiàn)的人造非生命體,無法被納入人類種族中。因此也無法從“天賦人權”角度要求法律賦予其與自然人相同的法律主體地位,并給予相同的保護?!白杂梢庵尽崩碚撘彩强疾烊斯ぶ悄墚a品是否為人的重要理論淵源。德國理性自然法論的奠基人薩繆爾·普芬多夫將人區(qū)分為物理存在體和倫理存在體兩種存在形式,前者指向人的自然屬性,后者指向人的倫理屬性。倫理人(personmorales)是倫理世界的主體,具備理智與意志,因而區(qū)別于動物。后來,普芬多夫延續(xù)勒內·笛卡爾“我思故我在”的理論,認為理智與意志決定人的行為,義務則是自由意志的界限;基于義務,倫理人具有引導、節(jié)制自己意思行為的自由,以此確保自由生活的秩序。啟蒙運動代表人物之一康德在其《實踐理性批判》一書中提出“人格”:“正是人格,也就是拜托了整個自然的機械作用的自由和獨立,但它同時卻被看作某個存在者的能力,這個存在者服從于自己特有的、也就是由他自己的理性基于的純粹實踐法則,因而個人作為感官世界的個人,就他同時又屬于理性世界而言,則服從于他自己的人格,這就不必奇怪,人作為屬于兩個世界的人,不能不帶有崇敬地在與他地第二個和最高地使命地關系中看待自己地本質,也不能不以最高的敬重看待這個使命的法則”。他指出人格應該不只是生物存在——作為感官世界的人格,還包括理性意志——表現(xiàn)為服從自己的意志。基于自由意志,薩維尼在對康德理論發(fā)展的基礎上,提出權利能力和行為能力的劃分,權利能力與生物人概念相關,生物人存在于外部世界,為了使他們相互支持而不是相互阻礙,需要法律來確定規(guī)則;但是權利能力“只需要以人的本質、人的形態(tài)以及與母體分離為前提,不再需要什么理性因素”。而如何取得、實際行使權利能力則是行為能力的范疇,且后者與個體的自由意志相關。朱慶育在《民法總論》中也指出:“法律交往,民法奉行自治理念,該理念以人具有為自己理性判斷的能力為前提。與‘理性人’相呼應的,是人的行為自由?!比斯ぶ悄茱@然無法突破生物人而被歸入人類中進而享有原始權利能力。但是,以自由意志為發(fā)展方向,未來有一天,當人工智能根據(jù)自我意志作出判斷與行動,賦予人工智能法律主體資格便具備了現(xiàn)實基礎。此時,人工智能侵權理論會導致法律體系的些許變化,但并不會對侵權法理論體系造成十分巨大的影響。2.人工智能作為“法人”當代意義上的“法人”概念為海澤首版于1807年的《供學說匯纂講授之用的普通民法體系綱要》所創(chuàng)建。在該書中,海澤將“法人”作為民法的一個抽象概念使用,與“生理人”對稱,其含義為:“法人是除了個人之外,在所有國家中被認可為獨立之權利主體者?!庇纱?,法人可被定義為“法律認可其主體資格的團體”。法人法律主體資格的來源存在多種學說,“擬制說”和“實在說”是兩類具有代表性的學說?!皵M制說”認為,只有自然人才稱得上真正的人,能夠擁有權利能力,法人則是法律擬制的產物,這體現(xiàn)了對自然人的尊崇。“實在說”認為法人如同自然人,是具有實質的組織體,而由“超個人的有機體”來操作,因此法人的人格是真實存在的。無論是“擬制說”還是“實在說”,法人所有的法律效果最終由人承擔。法人雖然為權利主體,能夠以自己的名義享有權利、承擔義務,但從根本上說,它之所以能夠出現(xiàn),僅僅是為了實現(xiàn)自然人的某些特定目的,對于自然人而言,法人永遠只是一個工具性的概念。分析自然人與法人的主體資格,我們發(fā)現(xiàn)法人組織主體資格的本質是取決于人類之需求。在侵權責任規(guī)則原則可以自我調整適應社會變化的基礎上,賦予人工智能法律主體資格沒有需求基礎。因此人工智能想要突破侵權責任主體體系,仍取決于人工智能技術是否能發(fā)展出真正的自由意志,成為真正的“人”。綜上可得,如果人工智能已經發(fā)達到了具備主體資格的程度,如人工智能產生了與人一樣的自由意志,能夠在自己的支配下與他人進行交往,那么人工智能就可能不再是人的附庸,而能夠享受權利和承擔義務,這樣就可能導致侵權責任主體的增加,但是也難以說會引發(fā)侵權法基本理論的變化。(二)從歷史維度來看,人工智能尚未挑戰(zhàn)現(xiàn)有的侵權責任分配體系侵權責任制度起源于古羅馬《十二銅表法》中的“以眼還眼,以牙還牙”,此后的《阿奎利亞法》明確提出了“違法”(iniuria)的概念,對“私犯”成立的主觀標準加以規(guī)定。羅馬法就是在《阿奎利亞法》的基礎上,通過法學家的學術解釋和裁判官的判例加以補充、詮釋而發(fā)展的,形成了較為系統(tǒng)和成熟的以過錯為基礎的歸責體系。近代大陸法系侵權法擺脫了羅馬法中以列舉具體侵權行為為特征的模式,代之以一個非常抽象的歸責原則一般條款,而其中過錯是核心要件,最典型的代表當屬1804年的《法國民法典》第1382條和第1383條?!斗▏穹ǖ洹返?382條規(guī)定:“人的任何行為給他人造成損害時,因其過錯(faute)致該行為發(fā)生之人應當賠償損害?!钡?383條:“任何人不僅因其行為造成的損害負賠償責任,而且還因其懈怠或疏忽大意造成的損害負賠償責任。”過錯原則取代了古羅馬以來極端結果主義責任:并非有損害必有賠償,只有行為人在違反其理性人之義務導致?lián)p害時才需承擔責任。而隨著近代工業(yè)革命的發(fā)展,損害事件的數(shù)量和規(guī)模都大大提高。一方面社會上企業(yè)主與勞動者之間、生產者與消費者之間出現(xiàn)了嚴重的兩極分化與對立。這兩層關系的激烈矛盾最終導致勞動者與消費者成為社會階層中相對的弱者,即所謂的“弱勢群體”,此類弱勢群體根據(jù)過錯責任獲得損害賠償極為困難。另一方面工業(yè)化來到了大工業(yè)時期,很多侵權事故的發(fā)生是行為人不可避免的,不論是加害人抑或是受害人。過錯責任越來越不能適應社會實踐之需要,改革過錯責任的時機也就來臨。兩次世界大戰(zhàn)后,侵權責任規(guī)則原則逐漸發(fā)生變化,開始強調法律的任務不再是滿足個人利益,而在于調節(jié)社會各種利益的沖突,以滿足人們社會利益的需要。侵權行為也由個體之間的侵權,逐漸過渡到以企業(yè)行為為中心的侵權,而且以企業(yè)行為為中心的侵權行為所造成的侵害由單一性向大規(guī)模和立體化的方向發(fā)展,因而導致現(xiàn)代侵權法向以企業(yè)侵權責任為規(guī)制重點的法律體系轉變。此時,傳統(tǒng)大陸法系侵權法采用過錯責任原則,但在這個時期針對大規(guī)模新出現(xiàn)的特殊侵權行為采用了嚴格責任原則。嚴格責任原則不是以責任人的過錯為判斷標準,而是基于損害的客觀發(fā)生,由法律加以具體規(guī)定。歸責原則便也由單一的過錯責任擴大至適用嚴格責任。1984烏爾里希·貝克年在《風險社會》一書中提出“風險社會”的概念,由于工業(yè)化的高度發(fā)達以及在世界范圍內的推廣,人們日常生活中的一些生產、經營等行為亦成為損害之來源。邱聰智也指出:“現(xiàn)代社會權益損害現(xiàn)象之重心,已經由傳統(tǒng)的個人間的主觀侵害行為,轉移到危險活動的損害事故,雖然許多傳統(tǒng)的歸責原理不能合理的對其進行調整,而且非訴諸足以配合新社會事實之法理,既不能彌補侵權法損害之社會功能,亦根本無從達成其所欲實現(xiàn)之正義觀念者?!睘榛貞鲜鰧嵺`發(fā)展之需要,保護個人權利,嚴格責任的適用范圍被不斷擴大,產品責任、危險作業(yè)、核污染、機動車交通事故等都是其產物。過錯和無過錯的二元規(guī)則體系在世界范圍內逐漸形成,在事實上形成了以追問因果為主,以特殊保障為輔,并要求公平正義的責任原理體系??偨Y上述過程,我們可以發(fā)現(xiàn),侵權責任法的演變與社會實踐和人之主觀需求息息相關。從早期的報應主義到后來的過錯歸責再到現(xiàn)代社會的無過錯歸責,侵權責任的基本原理發(fā)生變化的緣由是:一是對“人”的認識發(fā)生了變化,后文對此將有詳細分析;二是人類生活實踐的范圍愈來愈廣闊,不斷擴張的生活實踐使人類面臨的侵權問題越來越多,因而侵權法理論也在實踐中不斷發(fā)展;三是人類交往的方式發(fā)生了巨大變化,從早期的人與人之間的交往到現(xiàn)代社會的通過他物的中介交往,導致了不同的交往方式要求不同的侵權法理論,進而形成了現(xiàn)有的侵權法原理體系。由此可知,人工智能產品的侵權行為仍然可以歸入現(xiàn)有的侵權法體系當中,既沒有導致侵權法理論的變革,自然也就無需新的、特別針對人工智能產品侵權行為的法律體系的建構。(三)從實踐維度來看,人工智能技術的發(fā)展尚未深刻影響社會關系的變革人工智能產品要能對侵權責任的分配理論形成革命性的影響,就必然需要對社會關系有重大影響。但是,無論是當前人工智能技術發(fā)展的階段和水平,還是人工智能對社會關系的影響,都尚未呈現(xiàn)變革性趨勢。第一,人工智能作為實踐技術,目前尚處于發(fā)展的初級階段,對社會的影響尚處于預測階段或者理論階段。人工智能可以被定義為像人類一樣思考、行動和合理化的系統(tǒng)?!叭斯ぶ悄堋备拍钍状纬霈F(xiàn)于1956年達特茅斯的人工智能夏季研討會中,距今不到80年歷史。從1950年圖靈提出“機器與智能”的概念,到1956年達特茅斯會議召開正式提出“人工智能”這個概念,再到今天人們普遍論及人工智能,70多年的時間里計算機語音識別、圖像識別、知識圖譜、專家系統(tǒng)等人工智能子系統(tǒng)技術的發(fā)展給我們的生活帶來了翻天覆地的變化。有計算機專家預測到了人工智能技術發(fā)展的迅猛性,英特爾(Intel)聯(lián)合創(chuàng)始人戈登·摩爾(GordonMoore)于1975年提出了“摩爾定律”(Moore’sLaw),計算出全球最大計算能力每兩年翻一番。這意味著它會呈指數(shù)級增長,人工智能發(fā)展的奇點將在2045年左右出現(xiàn)。按照這樣的發(fā)展速度,人工智能技術發(fā)生重大突破,邁入人工通用智能(AGI)、甚至人工超級智能(ASI)指日可待。在AGI時代,人工智能知識水平和思維方式與人類相差無幾,二者處于同一水平;ASI時代,人工智能則在各個方面都優(yōu)于人類,對人類地位提出了挑戰(zhàn)。基于技術發(fā)展前景,賦予人工智能法律地位是必要的,因為未來的人工智能可能具備人類所有的能力甚至高于人類。但是就目前而言,人工智能技術顯然處于初級階段。我們當前所說的或者論及的人工智能,與其說是“智能”,毋寧說是初步的“自動化”。換言之,當下我們所呈現(xiàn)出來的人工智能技術與真正的智能相比,還有一段很長的路要走。因而,現(xiàn)階段的人工智能技術水平還不足以深刻影響社會。哪怕是人工智能駕駛已經成為現(xiàn)實,或者哪怕是人工智能駕駛主導了所有的駕駛市場,但是基于駕駛所導致的侵權責任歸責并不會產生重大的變化。第二,作為技術的人工智能,其發(fā)展道路并非一路高歌猛進,而是曲折中前進,這意味著人工智能技術的發(fā)展困難重重,要實現(xiàn)人工智能的重大突破或許還需要較長時間。第一代AI研究者中不乏對人工智能發(fā)展過度評價者。就計算機下象棋這一技術發(fā)展而言,赫伯特·亞歷山大·西蒙在1957年預言十年內計算機下棋程序可以擊敗人類,明顯未果。約翰·麥卡錫在1968年和象棋大師列維十年之賭,最終仍是人類勝利。在這幾十年間雖然機器下棋的勝率不斷提高,但人類總有棋高一籌者。直至1997年IBM的“深藍”擊敗世界冠軍俄羅斯特級大師斯帕羅夫,計算機下棋才開始反超人類。馬文·明斯基也曾在1968年提出“30年內機器智能可以和人相比”。但1974—1980年迎來了人工智能技術發(fā)展的第一次低谷。后來,康奈爾大學的實驗心理學家羅森布拉特在一臺IBM-704計算機上模擬實現(xiàn)了一種他發(fā)明的叫做“感知機”的神經網絡模型,這個模型可以完成簡單的視覺處理任務。這引起了人工智能-神經網絡研究的大流行,美國國防和海軍部資助了羅森布拉特的研究項目,媒體也不斷夸大這一研究結果。直到馬文·明斯基和西蒙·派珀特撰寫的《感知機:計算幾何學》提出羅森布皮特的神經網絡模型的研究缺陷,神經網絡模型研究的熱度慢慢降低,政府也逐漸停止項目資助,神經網絡研究進入長年“寒冬期”。對技術的盲目樂觀是有跡可循的,近年人工智能的迅速發(fā)展是過去70年人工智能研究積累的爆發(fā),推動ANI的出現(xiàn)和急速發(fā)展。但從ANI到AGI直至ASI,不是量變的簡單累積,而需要完成質的飛躍。目前,科學人工智能界幾乎達成了一個共識,即在現(xiàn)階段不可能對人工智能的未來做出明確的預測,這僅僅是因為我們離創(chuàng)造人工智能還很遠,更不用說理解它的含義了。人工智能的這種曲折前進,也說明智能技術尚處于初級探索階段,對社會的影響力有限;哪怕現(xiàn)階段的人工智能技術在我們看起來可能是“變革性”的,但是仍然沒有觸動社會發(fā)展的深層動脈。第三,作為技術的人工智能,僅僅是以技術的形態(tài)影響社會生活,尚未完全導致社會關系的重大變革。從侵權責任的發(fā)展史可以發(fā)現(xiàn),導致侵權責任從結果責任到過錯責任,從過錯推定責任到無過錯責任,主要緣由是經濟社會進步,對人類的認知能力、風險預防能力、權益保護能力等問題的認識越來越深刻。換言之,經濟社會的發(fā)展導致了行為方式的變化,進而導致了社會關系的變革,所以侵權責任的分配方式就發(fā)生了相應的變化。在侵權責任歸責原則以及分配方式的變革方面,起到重要影響的是社會生產方式的變革,而不是某一項科學技術的進步。人類歷史上有過無數(shù)次科學技術的進步,從鉆木取火到牛頓第一定律的發(fā)現(xiàn),從蒸汽機的發(fā)明到計算機的發(fā)明,都對人類社會的生活造成了無法想象的影響,它們也一度是那個時代最標志性的發(fā)現(xiàn)或者發(fā)明,其對人類的福澤也一直延續(xù)至今。但是從本質上說,它們都只是以技術的形態(tài)影響社會生活,而沒有直接深刻影響社會關系的變革,因而就不會對法學的發(fā)展變化有重大影響,自然也不會直接影響侵權責任的分配方式。雖然現(xiàn)代法律體系的建構和形成與經濟社會的發(fā)展有密切的關系,但是科學技術的發(fā)展唯有直接影響到人的行為方式的時候,才可能影響法律體系的變革。哪怕是人工智能可能在將來完全取代我們的“工作”,但是它們并沒有取代“人”。因此,已經過時的是工作,而不是人;將要過時的是工作,也不是人。所以,如果僅僅是從人工智能技術的角度來反思單一的法律問題,或許它會促進某個法律領域的拓展,但并不會帶來學術領域問題的根本性重構(比如對侵權責任歸責原則的挑戰(zhàn))。然而,可以預見的是,如果人工智能技術的發(fā)展真的創(chuàng)造出了一種新型“主體”,并且被人們所認可,那么對于人工智能產品的歸責以及責任分配問題的理論就需要重新討論了,因為人工智能作為法律責任主體與人作為法律責任主體始終存在作為“肉體的人”與“作為機器的人”的差別。當然,需要警醒的是,回想人類歷史,同樣是作為“人”,奴隸為了獲得法律主體資格,抗爭了無數(shù)歲月;黑人為了獲得法律主體資格,也抗爭了較長歷史;即使在今天,平等的法律主體之間依然存在歧視。“機器人”獲得法律主體資格,恐怕并非一帆風順的事情吧!因此,人工智能是否能動搖民事侵權責任分配,取決于人工智能技術的實踐發(fā)展,特別是能否發(fā)展到前文所說的AGI階段,也取決于人類自身對未來的那種高科技發(fā)展境界的接受程度,但是那都是“未來”的事情。五、新興科技引發(fā)法理變革的耦合因素考量目前人工智能尚未真正引導法理論的變化,并非說人工智能不能引導法理的發(fā)展與進步。并非任何科學技術的發(fā)展,都會必然帶來法理論的歷史性演進。換言之,科技的發(fā)展僅是法理變革的因素之一,但是并非唯一因素。不可否認的是,很多法理論的變革都是科學技術的變革引起的。回顧科技和法律的發(fā)展,新興科技要能夠深刻地影響社會進而影響法律領域的變革,導致新的法理論誕生,還必須具備多種耦合性因素,包括新興科技發(fā)展改變人們對事物科學規(guī)律的認知、直接回應法律實踐需要以及促進社會關系的重大變化等,從而形成理論變革的合力。(一)新興科技發(fā)展改變人們對事物科學規(guī)律的認知新興科技往往通過新的科學認知引起新的法律認知,從而引起法理論的變化。雖然人類社會的高度繁榮也帶來了高度的分工,但這并沒有成為不同學科、研究領域之間交流新興研究成果的障礙。相反,不同學科在各自研究領域的重大突破往往會引起其他學科知識的勃興,法律和科技也不例外。有學者曾指出:“作為生產力要素的科技指自然科學與技術。自然科學指關于各種自然現(xiàn)象及其規(guī)律的知識體系。技術泛指根據(jù)自然科學原理和實踐發(fā)展而成的各種工藝操作方法和技能?!毙屡d科技既包括具體技術工具的突破,也包括科學理論的創(chuàng)新,而無論是技術還是科學理論的創(chuàng)新,往往都反映了人們對事物科學規(guī)律的認知。這可能改變人們對法律的新認知,引起法律意義科學因果關系的發(fā)現(xiàn),并促使法律對人們的行為規(guī)律做出新的規(guī)范,推進法律制度的規(guī)范化與科學化。第一,新興科技發(fā)展引起人們對法律的新認知。傳統(tǒng)的法律認知往往局限于特定的視角,新興科技發(fā)展就很容易突破傳統(tǒng)視角的窠臼,引導人們產生新的認知,從而影響法理論的變革。以博弈論為例可以充分說明這個問題。博弈論被認為是20世紀經濟學的最偉大成果之一。具體來講,具有競爭或對抗性質的行為稱為博弈行為。在博弈行為中,參與主體的利益傾向或者追逐的目的有差異。為了各自的利益需求或者目的差異,參與爭斗的主體就會考慮各種可能的方案,進而從多元方案中選擇一種自己認為最合適的方案。博弈論就為如何尋找這個最優(yōu)化的方案提供理論依據(jù)。博弈論的研究為人們理解法律提供了新的視角,我國著名經濟學家張維迎教授提出:“過去的觀點認為法律是有意識地由政府設立的,現(xiàn)在的研究認為大部分法律都是自發(fā)形成的。很多法律都是由規(guī)范變來的。美國普通法的演變是一個典型的例子。它是各個參與人長期博弈的一組均衡,是長期演變的結果?!辈┺恼摰难芯勘砻?,不同的人有不同的立場和利益,人們的行動決策會受到對他人行為預測的影響,這改變了人們對法律是由立法者單方面頒布和實施的認知,引起人們對法律的新認知。而且,這樣給了立法者們警示,立法過程必須雙向交流,從而實現(xiàn)法律的最大程度的可接受性。可見,無論我們如何界定法律的地位,法律作為社會知識體系中的一部分,無法避免地受到其他領域知識的影響,這也為法律的進步提供了源源不斷的知識力量。第二,新興科技發(fā)展促進法律意義上科學因果關系的發(fā)現(xiàn)??茖W因果關系的發(fā)現(xiàn)會促進法律發(fā)展,正如蘇力所說:“古代世界各國的許多荒謬的法律制度和責任分配制度之所以發(fā)生,一個很重要的因素就是因為當時的人們對事物的因果關系缺乏科學的理解,甚至是無法獲得科學的理解……隨著人類無數(shù)次錯誤地認定因果關系,人們逐漸累積起一些科學的因果關系判斷,因此,法律制度也隨之發(fā)生重大變革?!睔v史上人以外的對象,如動物、非生命體等都曾是刑罰處罰的對象。而且,歷史上人類對動物的判罰在程序上幾乎與對人類的判罰一樣?!八鼈儽粠У椒ㄍァ茵B(yǎng)動物被帶到世俗法庭,野生動物被帶到教會法庭。在那里,它們被正式傳訊,由律師代表出庭、審判、無罪釋放或定罪—如果罪名成立,它們將受到懲罰。”這時人們認為動物的本能行為或非生命物體與客觀上的違法結果具有因果聯(lián)系,沒有區(qū)分自由意志下的行為與本能行為之間的差異。后來,人們發(fā)現(xiàn)自由意志是人類特有的品質,法律處罰動物的本能行為與非生命物體并不能形成法律意義上的因果關系,在自由意志支配下的犯罪行為才具有可罰性。這一發(fā)現(xiàn)導致了現(xiàn)代責任理念的重大轉向,并逐漸形成現(xiàn)有法律責任制度。直至今天,我們在探討人工智能的主體責任之時,也必須堅持這種觀點和理論。如果人工智能尚未產生自由意志,那么它們依然不是獨立主體,自然也不可能獨立承擔法律責任。第三,新興科技發(fā)展促進了法律制度的科學化與規(guī)范化。在科學的理論沒有產生之前,很多法律事務,包括制度,都是經驗的產物。新興科技的發(fā)展,為法律制度的科學化和規(guī)范化提供了理論指南。以保險法中保費的計算方法為例,為保險和養(yǎng)老金設置保險費,剛開始是一件憑經驗的猜測而不是計算的工作。使用統(tǒng)計學制定保險費是在17世紀60年代才開始的,與概率論的產生是同一時間。數(shù)學領域對概率的研究成果促進法律賠償向著統(tǒng)一化與可計算化方向發(fā)展,如侵權責任損害賠償?shù)挠嬎惴绞?。如今,統(tǒng)一、標準的損害賠償法律規(guī)定已經成為默認的規(guī)則,如工傷賠償、機動車肇事賠償、專利侵權賠償、消費者賠償以及刑法中的國家賠償?shù)榷加蟹少r償標準。這也在客觀上促進司法裁判標準的統(tǒng)一化,推動法律制度的科學化與規(guī)范化。因此,至少在一定程度上,“由于科學技術的發(fā)展,近代以來法官的裁量權縮小了,司法不得不更為形式化了”。(二)新興科技能夠直接回應法律實踐的現(xiàn)實需要立法意義上的法律規(guī)則是靜態(tài)意義上的法律,但在“紙面中的法”之外還有“行動中的法”。甚至在法社會學的視野下,“行動中的法”更能體現(xiàn)法律的品格,那些無法被落實的法律某種程度上僅僅是一種象征意義,不具備現(xiàn)實意義。人們在運用法律指導具體實踐生活時(包括司法實踐活動),面臨著正確認識客觀世界以及人類社會溝通的難題。此時技術工具和科學理論作為思想與行動的橋梁,幫助人們實現(xiàn)法律指導下的生活。因此,新興科技若能直接回應法律實踐的現(xiàn)實需求,便對法理論意義重大。此外,司法實踐中,在“紙面中的法”轉變?yōu)椤靶袆又械姆ā边@一過程中,常常因為客觀條件的限制導致二者之間存在落差。實踐中,新興科技往往因為解決了法律實踐中的難題,推進法律以及法理論的發(fā)展。第一,新興科技通過解決法律實踐的難題而變革法理論。從某種意義上說,紙面上的法律是一種抽象化且理想化的法律生活,是一種法律的應然狀態(tài)。真實的法律生活,比紙面上的法律要復雜得多。比如,面對紛繁復雜的世界,如何辨別、提取出法律事實是法律實踐中的難題之一。實踐中,法律事實的提取受人們認識客觀事實能力的影響。我國《刑事訴訟法》第二條規(guī)定“中華人民共和國刑事訴訟法的任務,是保證準確、及時地查明犯罪事實,正確應用法律”,明確法律適用應以犯罪事實的查明為基礎。實際上,人們查明犯罪事實的能力與技術發(fā)展緊密相關。以清代刑事技術為例,法醫(yī)學檢驗尸體僅檢驗尸表,而不進行解剖,這導致當時的法醫(yī)學知識存在錯誤之處。如我國現(xiàn)代醫(yī)學奠基人林幾教授指出:“按吾華《洗冤錄》舊法:謂取凈水從頭骨后下方之枕骨大孔細細斟灌。如能自鼻竅流出泥沙,便是生前溺死之證。經本人多次實驗此法誠不可靠。凡腐敗已行骨化之尸體鼻軟部已經消失者,在鼻甲解部極易竄藏泥土。且生人之鼻孔后部亦往往容有少量泥垢。故由枕骨大孔沖水,而自鼻孔流出泥沙,安足視為死前吸進溺死液之根據(jù)?!卞e誤的技術認知一旦被類型化應用,就會影響法律事實的提取,并容易引起冤假錯案。這恐怕也是古代刑事審判程序中注重案件當事人口供的原因之一。當技術還原客觀事實的水平較低時,被告人口供是可獲得的還原案件事實的主要證據(jù)。但是口供是否能達到還原案件事實的效果?經實踐檢驗,雖然一些案件的破解確實依賴口供,但獲取口供過程中使用刑訊逼供等手段更容易引起冤假錯案?,F(xiàn)代刑訴法體系中,雖然被告人口供仍是刑事訴訟的主要證據(jù)類型之一,但隨著刑事技術提取客觀證據(jù)的能力大大提高,物證、書證、鑒定意見等其他證據(jù)的證明力越來越高,口供在刑事訴訟中的地位也就慢慢降低。這也在技術層面推動了刑法“禁止刑訊逼供”原則的可操作性,有力地影響了現(xiàn)代刑事司法觀念和文明的形成。第二,新興科技的應用形成了新的法律實踐方式而變革法理論。在歷史變遷中,法律可能作為一種傳統(tǒng)而存在,特別是一些具體的實踐方式,長期以來都在影響人們的法律生活。而科技的發(fā)展,則可能使得在原有的法律生活之外,出現(xiàn)新型的法律實踐方式。比如20世紀互聯(lián)網技術的誕生和應用引起了司法實踐中一種新型證據(jù)類型——電子數(shù)據(jù)的誕生。為迎合這種新型的證據(jù)類型,我國《民事訴訟法》等法律都明確認可了“數(shù)據(jù)電文”的法律地位,即“不得僅僅以某項信息采用數(shù)據(jù)電文形式為理由而否定其法律效力、有效性或可執(zhí)行性”。2004年,我國首部信息化法律《電子簽名法》也明確規(guī)定“數(shù)據(jù)電文不得僅因為其是以電子、光學、磁或者類似手段生成、發(fā)送、接收或者儲存的而被拒絕作為證據(jù)使用”,并建立了符合法律法規(guī)要求的數(shù)據(jù)電文保存標準。再如,隨著信息技術的進一步發(fā)展,區(qū)塊鏈技術的成熟與應用有望扭轉司法實踐中電子證據(jù)的這一尷尬境地,進而引起證據(jù)法理論的變革??隙▍^(qū)塊鏈技術在數(shù)據(jù)收集、固定中自身具有的防篡改特征,并將此種技術特性轉化為法律意義上的真實性,即區(qū)塊鏈基于自身的技術特征實現(xiàn)了自我信用背書。這大大緩解了司法實踐中由于傳統(tǒng)電子數(shù)據(jù)不穩(wěn)定、易篡改、可復制性等特征而引起的證據(jù)真實性難以判定的困境。(三)新興科技發(fā)展能夠直接促進社會關系的重大變化社會關系是人與人之間關系的總稱。從主體層面可以分為個人之間的關系,個人與群體之間的關系;從內容層面看涉及政治、經濟、文化等多個方面。法律對人與人之間關系的規(guī)范,也構成社會關系的一部分。社會關系穩(wěn)定,特別是社會關系的主體穩(wěn)定,那么法理論也可能穩(wěn)定;社會關系變革,特別是社會關系的主體變革,那么法理論就容易迅速變革。第一,新興科技發(fā)展產生了新的生產生活方式。生產生活方式是一定時間內的人們固有的生活模態(tài)。生活模態(tài)改變,法律生活才可能改變。比如,能源技術革新引發(fā)的工業(yè)革命,改變了人類社會的生產方式,社會生產組織從小作坊式生產轉為工廠型生產,引發(fā)大量人口從

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論