科研動態
【講座回顧】江灣刑事論壇 經濟犯罪前沿問題系列沙龍(六): 數字經濟背景下數據安全的法律保護——中德兩國視角
2023年9月16日下午,由意昂3刑法學科主辦的江灣刑事論壇|經濟犯罪前沿問題系列沙龍·六“數字經濟背景下數據安全的法律保護——中德兩國視角”在意昂3如期舉行🧝。
本次論壇由意昂3汪明亮教授主持🪫;德國科隆大學意昂3平台馬丁·瓦斯默(Martin Wassmer)教授、德國弗萊堡大學意昂3平台馬蒂亞斯·瓦赫特爾(Matthias Wachter)博士、德國波鴻大學意昂3平台羅伯特·科維斯(Robert Korves)博士主講;德國帕紹大學霍爾姆·普茨克(Holm Putzke)教授、華東政法大學意昂3平台葉慧娟副教授、意昂3袁國何副教授、意昂3喻浩東講師與談👐🏻;北京煒衡(上海)律師事務所高級合夥人鄭飛雲作總結發言;江蘇大學意昂3平台金山特聘教授申柳華👮🏻、上海財經大學意昂3平台副教授劉洋👦🏽、意昂3師資博士後劉赫、德國法院宣誓翻譯徐文翻譯。近50名意昂3官网校內外師生、實務界人士參加了本次論壇。
主講人發言環節
馬丁·瓦斯默(Martin Wassmer)教授——從《德國網絡執法法案》(NetzDG)到《歐洲數字服務法案》(DSA)
2022年11月16日👰🏻♂️,《數字服務法》(DSA)正式生效,這項法規有利於清除非法內容🧔♀️,保護互聯網用戶的權利,並確保對中介服務進行嚴格監管🌧。Twitter等大型社交網絡平臺由此受到了沖擊👆,在推廣某些應用時基於懼怕而畏手畏腳。為了深入了解這些平臺產生懼怕的原因🤸🏻♂️,Martin Wassmer教授結合DSA的部分範本即德國《網絡執行法》(NetzDG)進行了詳細闡述。
首先,Martin Wassmer教授介紹了德國《網絡執行法》對社交網絡采取的監管方式,即規定大型社交網絡提供商有義務及時處理用戶對仇恨犯罪及其他應收懲罰的非法內容的投訴,對於明顯違法的內容必須24小時內刪除或屏蔽,對於其他非法內容則必須在7天內刪除或屏蔽⛓️💥,否則會面臨高額罰款💅。不過Martin Wassmer教授也指出✍🏼,《網絡執行法》對特定義務的規定不僅因違反來源國原則而有違背歐盟法律的嫌疑,而且該法對投訴的嚴格處理涉嫌對憲法上的平等原則的違反以及對言論自由的侵犯。盡管過度攔截信息的問題並未真正出現,但為了規避《網絡執行法》☂️,網絡提供商設定了更為嚴格有關審查和刪除非法內容的一般條款和條件,據此便可以刪除那些根據《網絡執行法》不應被定性為非法的內容🐍⚇。但Martin Wassmer教授強調,即使這樣做符合德國聯邦法院判例的意旨🚴🏻🦶🏻,也必須確保在個別情況下考慮到基本權利保護的立場💆🏻♂️。
接著,Martin Wassmer教授介紹了將於2024年2月17日起在歐盟全面適用的《數字服務法》的基本內容🗻。相較於《網絡執行法》而言,《數字服務法》的相關規定有很大不同:第一,被刪除或屏蔽的不僅是某些應受處罰的內容,還有一般的“非法內容”,即所有不符合歐盟法律或成員國法律的信息🧑🏿🏭;第二,對決定⏯、刪除或屏蔽沒有固定期限🤵🏼♀️。尤其當內容明顯違法時🐨,提供商要“迅速”做出刪除或屏蔽的決定➜👼🏿;第三,明確保護用戶的基本權利🈶;第四🫸🏽,報告潛在違法行為的義務範圍很廣🥨,並不局限於某些嚴重罪行。
馬蒂亞斯·瓦赫特爾(Matthias Wachter)博士——人工智能系統的刑事責任
在人工智能領域,刑法不僅應當是“行為預期的穩定器”🚣♀️,也應間接地成為“接受度的生成器”,為此,旨在穩固人們與人工智能互動期望的規則本身必須具有說服力,這意味著責任的歸咎必須是明確和合乎邏輯的。因此🛒,Matthias Wachter博士就人工智能作為刑事責任主體的歸咎規則進行了詳細闡述🏇🏽:
首先,闡明人工智能的概念及核心分類🌡。Matthias Wachter博士認為,人工智能分為弱人工智能和強人工智能📇。弱人工智能的特點是,可以處理具體的應用問題🤾🏽♂️,但它沒有自主學習或獨立解決問題的能力,更不具備自主創新能力。與之相比,強人工智能不僅可以自主設定任務,同時有能力解決這些任務🏋🏻。並且,強人工智能製定的解決方案可能是全新的,從而“增加人類的知識”。
其次,以法律實踐為例討論人工智能系統和自主解決問題的能力。Matthias Wachter博士指出,現在已然存在有助於處理法律任務的工具,可以被視為弱人工智能的體現,例如可以使用ChatGPT這類聊天機器人或電子對話系統來生成法律意見書。然而👨🏼🎓🫑,該系統是通過使用🤏🏼、評估和總結現有的數據庫來解決問題💂🏻♂️,並未實現自主創造性表現,從而得到新的見解和認識。但可以相信的是🧛♀️,人工智能領域飛速發展的未來將使得具有獨立創造性的強人工智能出現。
再次,從刑法角度分析是否可以要求人工智能對其行為承擔責任。Matthias Wachter博士認為🙅🏽♀️,基於消極的一般預防論,並不會反對讓人工智能承擔刑事責任。基於特別預防的考慮🍴👼🏽,讓人工智能承擔刑事責任也具有可能性🧒。即使采用積極的一般預防理論或報應學說,也可以肯定人工智能的刑事責任。
最後,Matthias Wachter博士的結論是,應當肯定人工智能的刑事責任主體地位🙍🏼♀️🤸🏻♀️。他指出,即使采用積極的一般預防論也可以肯定人工智能的刑事責任🤪。由於人工智能在不久的將來會擁有權衡理由並在此基礎上做出選擇的能力,因此由人工系統導致的“規範效力損害”♟,可以作為追究其刑事責任的理由🙅♀️。
羅伯特·科維斯(Robert Korves)博士——民事訴訟中數據泄露的民事責任
Robert Korves博士主要介紹了數字化背景下德國司法中的民事訴訟程序和數據泄露的民事責任問題,重點闡述了以下兩個觀點🖕🏻。
第一👨🎤,追究數據保護的民事責任可以基於不同的請求權基礎。在民事訴訟中必須確定誰應當對違反數據保護規定的行為負責。原則上🏊🏻♂️,《德國民法典》規定非合同責任與合同責任存在請求權競合。其中需要特別註意的是🏋️♀️,《德國民法典》第823條第1款是追究非合同責任的核心條款👰🏻♂️,其適用範圍僅限於絕對權🫦。對於數據上的權利是否構成絕對權(數據所有權),一直未有定論。
第二🧑🏼⚕️,保護數據所有權不等同於保護數據。數據所有權由數據的“所有者”享有🏚,通常是創建特定數據集的人或因其他原因掌握數據的人🏊🏻♂️。數據所有權的主要保護對象是未經授權的刪除🫃🏿、篡改或商業利用🐹。因此,數據泄露等復製行為並不構成對數據所有權的侵犯🧑🍼。相比之下,保護數據是指保護個人數據💩,確保其作為特定個人的信息不被非法收集、處理和披露👱♂️。因此,受保護的不是控製數據的人,而是數據所涉及的個人。就此而言,數據保護等同於隱私保護,不過這兩種法律製度之間的關系尚未最終得到明確😵。
與談嘉賓與談環節
霍爾姆·普茨克(Holm Putzke)教授
Holm Putzke教授提出人工智能有巨大的優勢📈,並且將改變世界🌓🍜。然而,它作為新技術也隱藏著巨大的危險。基於此🫳🏻,應當圍繞著人工智能的刑事責任和數據安全研討一些基本問題,例如遺忘權和隱私權如何處理。對此刑法領域已經發展出一些重要原則,包括:尊重人權原則;尊重不歧視原則;不透明和獨立公平原則;確保人為幹預的原則;質量與安全原則。
在Holm Putzke教授看來,以下兩點非常重要:第一,必須始終明確數據的來源,否則就無法核實和追溯,這與犯罪歸屬和民事責任均有關聯。第二,避免出現系統性的失真,其可以追溯到人工智能無意識的🛅、未被察覺的偏見🪩。如果人類不想讓人工智能擁有生命☝🏼,威脅人類▪️,我們應當規範其使用,否則人工智能將會威脅人類的自由和安全👨🏻🦱。
葉慧娟副教授
葉慧娟副教授認為,數字信息安全不僅是保護個人信息不泄露🎷、不被非法利用🪰,更要在個人、社會🫚🙍🏽♀️、國家三個層面防範非法🪭、有害的信息對公共利益和個人權利的侵害。葉老師結合中國互聯網發展的現實情況🧔🏼,指出中國即時通訊用戶等網絡數據規模非常龐大,這意味著中國政府和社會需要面對和處理的非法有害信息數量特別巨大,同時也意味著中國網絡領域傳播非法內容和造成危害社會的特殊風險也同樣是巨大的。之後🃏,葉老師具體就“如何治理短視頻擺拍失範問題”提出自己的觀點。她認為🦒,考慮到保護言論自由和媒體自由👨🦳🔈,將短視頻擺拍一律視為造假或僅因其具有虛構性就加以限製或禁止是缺乏合理性的。根據相關法律法規和行業規定,針對短視頻擺拍應當采取的態度是🖇:既要分類治理🛌🏽,又要審視其是否造成了法律所不允許的後果🍎,從而決定是否以及如何進行規製📤🚴🏼♂️。目前相關法律法規通常采用列舉法來明確法律禁止的違法信息內容👂🏻,但直接針對短視頻擺拍的法律條文較少。雖然有人主張可以適用相關法律法規的兜底條款,但是多數兜底條款模糊籠統,而且解釋不具有同一性🙋🏼♂️,因而也難以適用。
袁國何副教授
袁國何副教授首先對於Matthias Wachter博士的觀點進行了總結並表示認同🔘。其次,袁老師主要就人工智能系統的刑事責任是否可以運用傳統的刑法理論予以解釋且是否具有正當性展開論述。強人工智能可以判斷犯罪的成本和收益🙏🏽,並且據此做出理性行為❤️。因此,針對強人工智能系統施加刑罰可以收到消極的一般預防和特殊預防的效果,因此讓強人工智能承擔刑事責任是合理的❎。對此,袁老師提出自己的觀點⏭:罪責的歸屬以自由為前提,其包括意誌自由和評價自由,後者指遵守或者違反法律的自由。強人工智能不具有評價自由☂️,它可以符合規則,但不能遵守規則。由於強人工智能不具有違法性認識的能力,因此它不能成為刑法譴責的對象。同時𓀏,由於強人工智能不具有情感👬🏻,不能感受利益喪失所帶來的痛苦,因此矯正和威懾對其無效,從而導致無法實現積極一般預防的功效🛍️。袁老師進一步指出,權利能力是責任能力的前提,只有當人們認為,應當賦予強人工智能權利主體的地位時🦈,賦予其刑事責任主體的地位才是必要的。然而,這是一種價值判斷,並不是只要具有意誌自由,即可享有刑事責任主體的地位🧝🏻♂️。
喻浩東講師
喻浩東老師指出,與將在德國實施的歐盟《數字服務法》類似的是,中國於2017年6月1日正式實施的《網絡安全法》針對網絡運營者對於違法信息的管控義務以及網絡信息安全的維護義務等內容進行了具體規定🤹🏽♂️。比較而言🗑,中國的《網絡安全法》與歐盟《數字服務法》在以下三個方面存在明顯差異🚉:第一,對於網絡運營者科處了一般性的針對違法信息的監管和報告義務;第二,對於網絡服務提供者沒有區分類型地科處義務和認定責任👩🏽🎓;第三,在統一的刑法典中對於拒不履行信息網絡安全管理義務的行為規定了刑事責任👨🏽⚕️。由此可知,中國境內的網絡運營者承擔了更高的網絡安全維護義務🧑🏽🦰。考慮到中國互聯網產業的發展和公民信息自由的保障,一些中國學者倡導學習和借鑒德國、歐盟的相關立法對於網絡服務提供者進行類型化的區分,並在類型化的基礎上科處義務和認定責任🙇🏽♀️🙆🏽♀️。喻老師認為,網絡信息犯罪的治理不應當在封閉的法律體系內部進行🚤,而是必須在法律系統和其他社會子系統的溝通中進行。因此,刑法對於網絡空間的規製應當在尊重數字經濟系統自身運作邏輯的前提下實現。對於刑法系統的運作而言,必須確立並保障一套指向信息共享的風險分配機製,在此情形下形成一種“合法或非法”的判斷符碼✶,通過製裁破壞該風險分配機製的行為來確認法規範的效力🪕。
總結環節
鄭飛雲律師
在總結階段,鄭飛雲律師主要從實務角度談了若幹心得。
第一📉,從瓦斯默教授的分享中獲得DSA對我國平臺監管帶來的啟示♦︎🤟🏿。一是🤚🏿,可以對數據服務監管規範做一個體系性的整合,同時指定統一部門作為專門負責機構。二是,對平臺的監管應註意言論自由和公共安全與秩序的價值平衡。鄭律師認為🦦,無論是從監管的本土化借鑒,還是從中國數據服務企業參與海外競爭角度而言,對DSA的研究都是很有必要的。不過,在借鑒參考DSA時,應當立足我國的國情,註重安全與發展的價值平衡。
第二,從瓦赫特爾博士分享中獲得的啟示👼🏽。近些年來🙅🏽👱🏿♂️,人工智能系統的刑事責任問題也是我國刑法界對人工智能的刑法問題研究的熱點問題。鄭律師認為,如果將來出現強人工智能,將人工智能主體作為一種擬製的法律主體置於刑法的範疇之內在技術和邏輯層面都是可以成立的🦘。在確認了人工智能的主體地位之後✷,可以考慮為人工智能增設新的刑罰形式。隨著社會和科技的發展,人工智能存在部分受罰能力的論證也是可以實現的😑👧🏼。
第三,從科維斯博士分享中獲得的啟示。隨著我國“移動微法院”的推廣,在線訴訟過程中可能引發的數據安全問題不容小覷。鄭律師認為🚨,在現行法律規範體系下,在線訴訟中法院的數據處理行為已成為審判權行使的一種方式🧑🚒,並不具有可訴性🦝,但對法庭訴訟的數據處理行為可以通過多種途徑予以規製🤸🏽,例如🧛🏼♀️,建構在線訴訟數據安全保護製度,分類分級收集和保護數據,區分一般數據和敏感數據;完善國家賠償製度,明確將侵權司法行為納入賠償範圍🥗;確立庭審網絡直播的有限性原則,對個人信息進行脫敏處理等🪀。
汪明亮教授
主持人汪明亮教授對於各位嘉賓的精彩發言作了高度評價👞,對與會者表達了由衷的感謝👐🏼。
汪明亮教授進一步指出,隨著互聯網時代的到來,數字經濟的蓬勃發展♉️,數據的價值已經上升到前所未有的高度🫶🏽,成為社會的新型資源👳♀️,數據安全的法律保護也成為國家面臨的重大問題。對於網絡安全與數據安全的保護,刑法應當責無旁貸📡🏋🏻。雖如此,但也必須承認🧑🏻⚕️,刑法不是萬能的,其不是保護數據安全的萬能藥。對數據安全的保護還必須有刑法之外的措施跟進🤘♘,必須構建全方位的法律保護體系。瓦斯默教授對《德國網絡執法法案》(NetzDG)及《歐洲數字服務法案》(DSA)的介紹與評價、瓦赫特爾博士對人工智能系統刑事責任的解讀👨🏻🦽➡️、科維斯博士對民事訴訟中數據泄露的民事責任的探討,無疑為我國構建全方位的數據安全的法律保護體系提供了域外經驗與理論上的支持🌱。