資訊|“人工智能+司法”面臨哪些難題
作者:學習時報 發布時間: 2023-05-10來源:學習時報
2022年12月,最高人民法院發布《關于規范和加強人工智能司法應用的意見》,明確了人民法院應用人工智能技術的指導思想、總體目標、基本原則、應用范圍、系統建設和綜合保障等相關要求,進一步推動人工智能同司法工作深度融合,全面深化智慧法院建設。
當前,“人工智能+司法”的嘗試已在我國司法系統深入推進,這些人工智能輔助系統不僅可以將訴訟信息轉化為電子數據,實現紙質卷宗電子化,同時,也可以從海量裁判數據中提取類似的情節與要素,進行關聯案件的定罪和量刑預判。
在實踐中,人工智能的司法應用展現了不可替代的優勢,能在一定程度上解決案多人少的矛盾,促進司法審判的標準化流程,為實現公平正義提供了更多的科技力量。但同時,我們也應清醒認識人工智能司法應用的局限與挑戰,防范人工智能技術對司法制度可能造成的不利影響,推動其有序應用。
技術的應用能大幅提高司法程序的運作效率,但司法的運作有其固有的規律,司法實務也是動態多變的,司法過程絕非數字、方程的機械運算,其中既有成文規則的運用,也包含道德人情的價值衡量,而這是剛性的、去價值化的人工智能技術無法取代的。
實踐中的司法人員,尤其是法官,在判決案件的過程中往往面臨著邏輯思考、事實認定、常識判斷、人性尊嚴、個案平衡、價值抉擇以及國家政策等問題,這些是無法完全轉化成程序而交由計算機運作的。目前的人工智能雖然已經取得技術上的突破,但算法的深度學習水平還遠未達到能取代人類審判的程度。
人工智能要在司法實踐中作為司法裁判的分析工具,必須以充足、客觀、真實且結構合理的法律大數據為基礎,可以說,司法數據是我國司法人工智能開發的基礎要素和“數據能源”。近年來,我國司法大數據建設取得了顯著成效。
2021年,最高人民法院發布的《人民法院信息化建設五年發展規劃(2021—2025)》要求,以人民法院大數據管理和服務平臺為基礎,集中信息資源,強化交換能力,提升智能化服務水平。
但法院的各類數據,尤其是裁判文書數據的數量與質量仍有較大提升空間。現階段,裁判預警、類案推送、大數據分析報告等功能主要依賴于“裁判文書網數據庫”,但目前,有的法院存在裁判文書選擇上網的現象,有的裁判文書過于簡單,存在說理不充分的情況,準確性、及時性、完整性還有待提高,制約了數據應用的效能。
由于算法邏輯、程序代碼無法轉化為裁判理由向當事人公開,因而導致了“算法黑箱”的存在。但是,“算法黑箱”與司法公開存在天然的矛盾。司法公開意味著不僅要向當事人公開裁判結果,還要公開判決結果的形成過程,充分保障當事人和民眾的知情權與監督權。
但是由于計算機程序所具有的商業利益,因此通常受知識產權法的保護,這就形成了系統知識產權保護與裁判信息公開之間的矛盾,導致當事人可能只知審判結果,卻不懂其中依據的算法決策規則。算法的不透明就意味著監督難以實現,當事人的訴訟權利也可能因此受到侵害,給司法公開與司法監督帶來了嚴峻挑戰。
在人工智能司法應用中,為規制上述風險,可重點從以下方面進行探索。
首先,堅持法官的審判主體地位,嚴格控制人工智能應用的邊界,讓整個案件審理過程的最終決定權掌握在法官手里,使人工智能的運行過程處于法官的監督之下。
《關于規范和加強人工智能司法應用的意見》明確了輔助審判原則,規定人工智能輔助結果僅可作為審判工作或審判監督管理的參考,確保司法裁判始終由審判人員作出,裁判職權始終由審判組織行使,司法責任最終由裁判者承擔。為落實好這一原則,還需進一步理順司法機關與人工智能背后的科技企業之間的關系。
例如,應明確在人工智能應用中司法機關作為需求提出方和科技企業作為服務提供方的角色,在二者間進行職責、人員、應用程序等方面的必要分離,并進行必要的監管,以防止二者權責不清。
其次,出臺回應人工智能技術的法律規范和倫理準則。一方面,有了法律依據,才能從“強硬”層面上有效防止技術應用可能造成的司法屬性被消解、法官權力被僭越、當事人訴訟權利被架空等風險。
另一方面,完善人工智能司法適用的倫理規范,既重視算法的相關管理機制,也在法律方面明確相關司法問責、隱私、安全等要素,建立統一、規范、公認的準則,針對法律規范的“留白現象”,以軟法的方式彌補法律規范的缺位與不足。
具體而言,積極對待人工智能技術發展的同時,考慮人工智能在司法場域的倫理特性,加強對人工智能技術的倫理審查,以確保人工智能技術在正確的倫理軌道上運行。這也是一些國家和地區的做法,如2019年歐盟委員會就發布了人工智能倫理準則,確保人工智能的安全性與可靠性。
最后,有序推動算法公開透明度,強化算法問責。司法機關將智能輔助系統進行外包時,應當與技術公司進行充分且明確的溝通,在尊重技術創新和商業秘密的基礎上,要求技術提供方對于算法決策過程、數據模型和采集等承擔必要的說明和公開義務。
可以適時建立專門的算法審查委員會,委員構成包括法律業務專家、技術開發專家、社會公益團體、有關職能部門,將審查貫穿算法程序開發、應用的全過程之中。由算法控制者將司法人工智能涉及的算法源代碼、運行參量、算法邏輯等信息向法律授權的機構備案,供問責主體隨時進行審計和檢查。
另外,在重視解決糾紛的同時,也要以風險防范為導向,注意調整算法的運行規則,消除潛在風險,實現技術與法律的良性互動。