原創(chuàng) 姚立 上海市法學(xué)會(huì) 東方法學(xué)
以ChatGPT為代表的生成式人工智能的誕生,標(biāo)志著人工智能技術(shù)的重大技術(shù)躍遷,引發(fā)法律服務(wù)領(lǐng)域的革新實(shí)踐。生成式人工智能在提升律師生產(chǎn)力的同時(shí),其固有的人工智能幻覺、擬人化等特征易導(dǎo)致法律文書中錯(cuò)誤信息和虛假信息的泛濫,引發(fā)律師執(zhí)業(yè)危機(jī)。“馬塔訴阿維安卡公司”案(Mata v. Avianca,Inc.)中原告律師因向法院提交ChatGPT生成的虛假案例受到制裁,法院鮮明地指出應(yīng)用先進(jìn)技術(shù)并無(wú)不當(dāng)之處,但律師應(yīng)始終恪守職業(yè)責(zé)任。正確了解新工具的各項(xiàng)特點(diǎn)是律師合理使用的應(yīng)然前提,生成式人工智能產(chǎn)品與傳統(tǒng)搜索引擎具有本質(zhì)差異,大語(yǔ)言模型決定了生成式人工智能輸出錯(cuò)誤內(nèi)容的不可避免性,擬人性是生成式人工智能的主要風(fēng)險(xiǎn),創(chuàng)造性是生成式人工智能的本質(zhì)特征。為此,需要明確以人為本的人機(jī)關(guān)系的關(guān)鍵作用,并且重視律師倫理道德和職業(yè)責(zé)任在技術(shù)變革時(shí)期發(fā)揮的保障作用,同時(shí)律師可以建立一套標(biāo)準(zhǔn)化流程,兼顧提升生產(chǎn)力以及減少技術(shù)風(fēng)險(xiǎn)的目標(biāo)。
一、生成式人工智能應(yīng)用于法律文書寫作的前景與風(fēng)險(xiǎn)
生成式人工智能(Generative Artificial Intelligence,GAI)是一種人工智能形式,擅長(zhǎng)模仿、學(xué)習(xí)和生成新內(nèi)容,其關(guān)鍵特征包括自我學(xué)習(xí)能力、創(chuàng)造性以及處理復(fù)雜數(shù)據(jù)集的熟練技巧。它既不同于傳統(tǒng)專注于數(shù)據(jù)分析和模式識(shí)別的分析型人工智能(Analytical Artificial Intelligence,AAI),也不同于將來(lái)可能出現(xiàn)的具備學(xué)習(xí)和執(zhí)行智力任務(wù)能力的通用人工智能(Artificial General Intelligence,AGI),GAI介于兩者之間,其因創(chuàng)造原創(chuàng)內(nèi)容和創(chuàng)造性解決問(wèn)題的能力而脫穎而出,但又因缺乏自主性和適應(yīng)性無(wú)法實(shí)現(xiàn)通用功能。自2022年11月30日美國(guó)OpenAi公司發(fā)布生成式人工智能ChatGPT模型以來(lái),GAI已在內(nèi)容生產(chǎn)的各個(gè)領(lǐng)域引發(fā)生產(chǎn)力和生產(chǎn)方式的變革,重塑了人類與技術(shù)的交互模式。在法律領(lǐng)域,GAI正在通過(guò)協(xié)助法律研究和分析、文件自動(dòng)化處理、訴訟等方式革新實(shí)踐,重塑法律服務(wù)提供方式,并可能改變法律職業(yè)的結(jié)構(gòu)和文化。
法律文書是法律實(shí)踐的基石。它不僅是法律實(shí)踐的獨(dú)立領(lǐng)域,也是法律咨詢、法庭訴訟、合同談判、盡職調(diào)查等其他所有法律活動(dòng)進(jìn)行的基礎(chǔ)和前提。法律文書反映了參與方立場(chǎng)、記錄法律程序、提供正式信息、明確權(quán)利義務(wù),并構(gòu)成法律辯論和程序的支柱。這些文書不僅是交流的媒介,更是構(gòu)成了運(yùn)行中的法律自身。法律文書寫作通常包括識(shí)別需求、信息收集、結(jié)構(gòu)設(shè)計(jì)、初稿撰寫和審閱修改,要求遵守準(zhǔn)確性、邏輯性、正式性和清晰性的專業(yè)標(biāo)準(zhǔn),以確保法律信息的有效傳達(dá)。這些嚴(yán)格的要求以及法律和案件本身的復(fù)雜性使文書寫作過(guò)程充滿挑戰(zhàn),訴訟律師經(jīng)常將起草動(dòng)議和摘要列為他們最耗時(shí)的任務(wù)之一。通過(guò)自然語(yǔ)言處理、機(jī)器學(xué)習(xí)等技術(shù),GAI可以幫助律師進(jìn)行法律研究、自動(dòng)生成合同、法律意見書等各類文書。GAI可以極大提高律師的生產(chǎn)力,釋放更多時(shí)間和精力,使其可以專注于更高層次的法律分析和決策,并可為更廣泛的客戶提供更多服務(wù)。
然而,將GAI應(yīng)用于法律文書寫作蘊(yùn)藏著重大風(fēng)險(xiǎn)。人工智能幻覺(AI Hallucinations),是指人工智能能輸出看似合理且連貫的信息,但這些信息與已知數(shù)據(jù)或現(xiàn)實(shí)不完全符合的現(xiàn)象。最常見的是“與事實(shí)知識(shí)沖突的幻覺”,ChatGPT不僅會(huì)輸出不存在的“事實(shí)”,還會(huì)言之鑿鑿地為這些“事實(shí)”提供虛假的依據(jù)。錯(cuò)誤的信息往往潛藏在若干正確的回答之后,這些自信但不合理和未經(jīng)驗(yàn)證的回答就會(huì)對(duì)使用者造成誤導(dǎo)和欺騙。特別是對(duì)于法律文書這一對(duì)事實(shí)、法律以及邏輯要求嚴(yán)格的文體,人工智能幻覺所帶來(lái)的風(fēng)險(xiǎn)是致命的。法律文書上不僅承載著信息,這些信息還具有規(guī)范性的效果,這些效果牽涉相關(guān)方權(quán)利、義務(wù)、責(zé)任和豁免的確認(rèn)與變動(dòng),導(dǎo)致現(xiàn)實(shí)世界中利益的變化。一旦GAI生成的錯(cuò)誤信息被納入法律文書中,輕則出現(xiàn)諸如詞匯、標(biāo)點(diǎn)、段落層面的“低級(jí)失誤”,有損律師的專業(yè)形象,中則出現(xiàn)術(shù)語(yǔ)、規(guī)則、法律的適用錯(cuò)誤引發(fā)不必要的爭(zhēng)議,重則影響客戶合法訴求的實(shí)現(xiàn),有關(guān)證據(jù)的虛假信息還將導(dǎo)致職業(yè)責(zé)任、刑事責(zé)任的指控以及制裁。
ChatGPT發(fā)布后的一年時(shí)間,就發(fā)生了數(shù)起將GAI生成的錯(cuò)誤內(nèi)容納入法律文書的案例。2023年2月,美國(guó)紐約南區(qū)聯(lián)邦地區(qū)法院的“馬塔訴阿維安卡公司案”(Mata v. Avianca,Inc.)中,兩名律師及其律所因提交了ChatGPT虛構(gòu)的司法意見而受到法院制裁。2023年5月,美國(guó)科羅拉多州一名律師的動(dòng)議因?yàn)橐昧薈hatGPT生成的虛假案件而被駁回。英國(guó)《律師協(xié)會(huì)公報(bào)》(The Law Society Gazette)也在2023年5月報(bào)道了一起發(fā)生在曼徹斯特法院的案例,法院在審理過(guò)程中發(fā)現(xiàn)民事訴訟當(dāng)事人援引了四個(gè)虛假案件支持其主張——這些案件均由ChatGPT提供。
本文將以“馬塔訴阿維安卡公司案”作為研究對(duì)象,結(jié)合美國(guó)實(shí)踐發(fā)展與法律界的評(píng)論,研究GAI在法律文書寫作過(guò)程中的主要風(fēng)險(xiǎn)、應(yīng)用誤區(qū)、GAI技術(shù)下人機(jī)關(guān)系的應(yīng)然模式,探究職業(yè)倫理責(zé)任在GAI變革中發(fā)揮的作用,并提出建立標(biāo)準(zhǔn)化GAI使用流程的建議。
二、“馬塔訴阿維安卡公司案”概覽
(一)
案件背景
馬塔訴阿維安卡公司案(Mata v. Avianca,Inc.)可能是首例在司法文書中涉及律師使用GAI撰寫法律文書的不當(dāng)行為的案件。律師史蒂文·施瓦茨(Steven Schwartz)于1992年起獲準(zhǔn)在紐約州執(zhí)業(yè),其主要執(zhí)業(yè)領(lǐng)域是人身傷害和工人賠償法,執(zhí)業(yè)范圍僅限于州法院,未取得聯(lián)邦法院的執(zhí)業(yè)資格。原告羅伯特·馬塔(Roberto Mata)于2019年8月27日搭乘哥倫比亞航空公司(Avianca Airlines)670號(hào)航班從薩爾瓦多飛往紐約。在飛行途中被金屬餐車撞傷,膝蓋嚴(yán)重受損,被告阿維安卡公司(Avianca,Inc.)是該航班的實(shí)際承運(yùn)人,和哥倫比亞航公司同屬一家控股母公司。
原告馬塔聘請(qǐng)史蒂文·施瓦茨律師于2020年7月20日在紐約州最高法院向被告提起初次訴訟。被告母公司阿維安卡控股公司面臨嚴(yán)重財(cái)務(wù)困境,已作為債務(wù)人在2020年5月10日根據(jù)美國(guó)破產(chǎn)法第11章向紐約南區(qū)地方法院申請(qǐng)破產(chǎn),包括被告阿維安卡公司在內(nèi)的23家附屬債務(wù)人同時(shí)申請(qǐng)破產(chǎn),原告對(duì)被告的人身傷害損害賠償訴訟因自動(dòng)停止(Automatic Stay)規(guī)則而暫停。
被告退出破產(chǎn)程序后,同原告于2022年1月31日共同簽署協(xié)議終止原告提起的初次訴訟。2022年2月2日,原告在同一地方法院向被告提起第二次訴訟,向被告主張基于1999年蒙特利爾公約的人身?yè)p害賠償。由于被告成功主張聯(lián)邦法院對(duì)案件的管轄權(quán),該起訴訟在2月23日由紐約州最高法院移送至紐約南區(qū)聯(lián)邦地區(qū)法院,由法官凱文·卡斯特爾(Judge Kevin Castel)負(fù)責(zé)審理。由于史蒂文·施瓦茨律師未取得紐約南區(qū)職業(yè)資格,原告代理律師變更為其同事彼得·洛杜卡(Peter LoDuca)。
本案的核心爭(zhēng)議點(diǎn)在于訴訟時(shí)效規(guī)則的適用及計(jì)算。蒙特利爾公約第35條對(duì)訴訟時(shí)限(Limitation of Actions)的規(guī)定是航空器到達(dá)目的地點(diǎn)之日、應(yīng)當(dāng)?shù)竭_(dá)目的地點(diǎn)之日或者運(yùn)輸終止之日起2年期間,該條向來(lái)是蒙特利爾公約頗具爭(zhēng)議的條款之一,有關(guān)訴訟時(shí)限的法律性質(zhì)、2年期間是否可變以及訴訟時(shí)限對(duì)第三方訴訟的影響等等均存在解釋分歧。與此相對(duì),法院地紐約州民事執(zhí)行法與規(guī)則(New York Civil Practice Law and Rules)第214(5)條則規(guī)定人身傷害賠償訴訟的訴訟時(shí)效(Statute of Limitations)為事故發(fā)生之日起3年。
被告在2023年1月13日提出的駁回動(dòng)議中主張:第一,該起索賠訴訟僅受蒙特利爾公約管轄。第二,蒙特利爾公約第35條規(guī)定的2年訴訟時(shí)限并非訴訟時(shí)效,而是權(quán)利人可以根據(jù)蒙特利爾公約啟動(dòng)訴訟的先決條件(Condition Precedent)。因此,鑒于本案原告自其抵達(dá)之日起2年又5個(gè)月后提起本次訴訟,該訴訟不能被受理。第三,航空公司陷入破產(chǎn)程序的事實(shí)并不會(huì)暫停(Toll)蒙特利爾公約第35條2年期間的計(jì)算。
(二)
律師使用GAI的決策過(guò)程
彼得·洛杜卡律師作為律師出庭,并負(fù)責(zé)文書的簽署和提交,而史蒂文·施瓦茨律師由于提出最初訴狀,將繼續(xù)承擔(dān)案件的實(shí)質(zhì)性法律工作。
施瓦茨律師是一位擁有30年執(zhí)業(yè)經(jīng)驗(yàn)的紐約律師,熟稔于處理紐約州法下的爭(zhēng)議,但對(duì)本案涉及的聯(lián)邦法律、蒙特利爾公約和破產(chǎn)暫停規(guī)則均不太熟悉,也無(wú)法通過(guò)律所電腦訪問(wèn)聯(lián)邦判例數(shù)據(jù)庫(kù)。因此他將目光轉(zhuǎn)向了新興發(fā)布的ChatGPT,認(rèn)為這是“一個(gè)超級(jí)搜索引擎”。
施瓦茨律師將所需檢索內(nèi)容輸入對(duì)話框,ChatGPT便生成了符合目的的案例引文。雖然他本人無(wú)法檢索到ChatGPT中的部分案件,但他相信了ChatGPT內(nèi)容的可靠性,自認(rèn)為這些案件只是尚未公布或是不在其可訪問(wèn)的數(shù)據(jù)庫(kù)中。實(shí)際上ChatGPT也無(wú)法檢索到合適的案件,它只是通過(guò)自我學(xué)習(xí)、創(chuàng)造性以及處理復(fù)雜數(shù)據(jù)集的能力模仿既有的真實(shí)案件標(biāo)題、法院名稱、案件編號(hào)以及法官和律師姓名創(chuàng)造出頗具迷惑性的虛假案件。也就是說(shuō),在施瓦茨律師尚未察覺中,人工智能幻覺的現(xiàn)象發(fā)生了。
這些虛構(gòu)的案件很好滿足了施瓦茨律師法律論證所需,在后續(xù)提交的書面證詞中可以見到,施瓦茨律師并非完全沒有懷疑ChatGPT內(nèi)容的真實(shí)性,但當(dāng)他向其提出質(zhì)疑時(shí),ChatGPT卻“自信地”確認(rèn)了案件的真實(shí)性,輔之以案件的案情摘要作為佐證,并進(jìn)一步聲稱這些案件可以在Westlaw和LexisNexis等專業(yè)法律數(shù)據(jù)庫(kù)中找到。由于施瓦茨律師無(wú)法訪問(wèn)上述數(shù)據(jù)庫(kù),驗(yàn)證就此作罷。實(shí)際上,一旦施瓦茨律師進(jìn)入數(shù)據(jù)庫(kù)檢索,就會(huì)發(fā)現(xiàn)這些案件根本不存在。
在ChatGPT的幫助下,施瓦茨律師依靠其提供的信息完成了對(duì)駁回動(dòng)議的回應(yīng)。經(jīng)過(guò)一次延期,在2023年3月1日,洛杜卡律師向法院提交了施瓦茨律師起草的法律文書。
(三)
GAI幻覺的內(nèi)容
被告律師很快發(fā)現(xiàn)了這份法律文書的端倪。有5個(gè)案例無(wú)法檢索,還有幾個(gè)案例帶有虛假的法官意見或錯(cuò)誤的信息。被告向法官提交的回復(fù)意見簡(jiǎn)況如表1所示。
表1 被告向法官提交的回復(fù)意見簡(jiǎn)況
可以看到,為了有效回應(yīng)被告的駁回動(dòng)議,原告律師的論證思路主要是將訴訟時(shí)效的適用規(guī)則拉回到其熟悉的紐約州法領(lǐng)域,并以破產(chǎn)法的暫停效力作為補(bǔ)充。遺憾的是,面對(duì)難以實(shí)現(xiàn)的意圖,ChatGPT只得以編造的案件予以回應(yīng)。
法院根據(jù)被告的回復(fù)作出命令,要求原告律師提交一份宣誓書,附上其引用的案件副本。對(duì)此,施瓦茨律師選擇再一次回到ChatGPT,經(jīng)過(guò)一次延期,洛杜卡律師于4月25日提交了施瓦茨律師準(zhǔn)備的宣誓書,并附上了ChatGPT提供的案件摘要。宣誓書聲明除了無(wú)法找到Zicherman案以外,將提供其他所有案件的副本或摘錄的內(nèi)容。在施瓦茨律師提供的附件中僅有案件的摘錄,并沒有提供任何一篇案件全文,該宣誓書對(duì)案件材料的來(lái)源是含糊的,沒有指明任何在線數(shù)據(jù)庫(kù)的名稱,也沒有承認(rèn)對(duì)ChatGPT的依賴。
(四)
司法處罰及其影響
法院仍然無(wú)法找到這些案件,進(jìn)一步的調(diào)查發(fā)現(xiàn),雖然原告律師提供的這些案件摘錄在表面上具有與真實(shí)司法判決一致的特征——如引用看似合理的聯(lián)邦法官小組、可信的案卷序號(hào)以及判例——但其文體和推理上的缺陷與常見法院摘要存在顯著差異。這清晰地表明了這些案件不可能由美國(guó)法院發(fā)布。這也就意味著原告律師將處于一個(gè)非常尷尬的境地。
“法院面臨著前所未有的情況”,主審法官凱文·卡斯特爾在5月4日發(fā)布的命令中認(rèn)為,“原告律師針對(duì)駁回動(dòng)議提出的反對(duì)意見充滿了對(duì)不存在案例內(nèi)容的引用……原告律師應(yīng)法院先前命令提交的案例副本中似乎有6起是偽造的司法判決?!狈ㄔ簩⒏鶕?jù)美國(guó)聯(lián)邦民事訴訟規(guī)則第11(b)(2)條和第11(c)條;美國(guó)法典第28卷第1927條以及法院的固有權(quán)力(the inherent power of the court)對(duì)原告律師實(shí)施制裁。在同一份命令中原告律師被要求參加6月8日舉行的制裁聽證會(huì),為自己的行為進(jìn)行辯解。直到此時(shí),施瓦茨律師似乎才意識(shí)到ChatGPT提供的案例可能有誤,在5月25日提交給法院的另一份宣誓書中,施瓦茨承認(rèn)他犯了錯(cuò)誤,表示他“不明白[ChatGPT]不是一個(gè)搜索引擎,而是一個(gè)生成語(yǔ)言處理工具,主要被設(shè)計(jì)用來(lái)生成類似人類的文本回復(fù)……我基本沒有懷疑這些回復(fù)的真實(shí)性?!?/p>
法官卡斯特爾在隨后的制裁意見中聲明了他對(duì)人工智能技術(shù)進(jìn)步的肯定性看法,“使用可靠的人工智能工具并沒有本質(zhì)上的不當(dāng)之處”,緊接著指出律師一直以來(lái)肩負(fù)著確保提交文件準(zhǔn)確性的責(zé)任,施瓦茨律師及其同事在提交這些不存在的案例時(shí)就違背了自己的責(zé)任。法院指出,如果施瓦茨律師在被告律師和法院最初提出質(zhì)疑后就陳明事實(shí),而不是繼續(xù)堅(jiān)持這些虛假案例的存在,那么情節(jié)就會(huì)大不相同。法院認(rèn)為,施瓦茨律師的行為超出了“客觀上不合理”的范圍,當(dāng)他“有意地去忽視”他引用案例中大量存在的不正常跡象時(shí),他的行為就變得不誠(chéng)實(shí)。
最終,法官卡斯特爾對(duì)兩名律師及其律所實(shí)施制裁。法院裁定原告律師的行為具有主觀上的惡意,違反了美國(guó)聯(lián)邦民事訴訟規(guī)則第11條,原告律師的律所對(duì)兩位律師的違規(guī)行為承擔(dān)連帶責(zé)任。他們被處以5千美元連帶責(zé)任(約合3.6萬(wàn)元人民幣)的罰款,并被要求向原告以及在虛構(gòu)案例中被錯(cuò)誤引用姓名的法官通報(bào)本法院施加的制裁。法官于同日發(fā)布決定,駁回原告訴請(qǐng),根據(jù)蒙特利爾公約第35條,確認(rèn)原告索賠請(qǐng)求因超過(guò)公約規(guī)定的2年期間而無(wú)法成立。
“馬塔訴阿維安卡公司案”引發(fā)了連鎖反應(yīng)。法院開始要求律師和自訴原告披露使用GAI起草法律文書的情況,并要求對(duì)GAI生成內(nèi)容的準(zhǔn)確性進(jìn)行單獨(dú)驗(yàn)證。美國(guó)得克薩斯州北區(qū)法院法官布蘭特利·斯塔爾(Judge Brantley Starr)在2023年6月發(fā)布了一項(xiàng)長(zhǎng)期命令,要求所有律師必須保證沒有使用GAI起草法律文書或突出顯示GAI生成的文本以便檢驗(yàn)其準(zhǔn)確性。賓夕法尼亞州東區(qū)法院法官邁克爾·M·貝爾森(Judge Michael M. Baylson)同樣在2023年6月發(fā)布命令,要求各方律師一旦在向法院提交的法律文書中使用了GAI,就必須披露GAI在準(zhǔn)備法律文書過(guò)程中的使用方式,以及證明其對(duì)法律的每一次引用或論證都已得到驗(yàn)證。此外,威斯康星州州律師協(xié)會(huì)為會(huì)員舉辦了一場(chǎng)以“ChatGPT人工智能——概述和影響”為主題的網(wǎng)絡(luò)研討會(huì),用于傳授安全并合乎道德地使用GAI的最佳方式。英國(guó)大律師公會(huì)也在2024年1月發(fā)布了《基于大型語(yǔ)言模型的ChatGPT和生成式人工智能軟件的使用注意事項(xiàng)》,幫助大律師了解使用GAI的技術(shù)基礎(chǔ)和風(fēng)險(xiǎn),以便其遵守法律和道德標(biāo)準(zhǔn)。
三、啟示和建議
(一)
了解GAI的本質(zhì)與局限是正確使用的前提
GAI是一種基于預(yù)訓(xùn)練的大語(yǔ)言模型,其基本原理是運(yùn)用機(jī)器學(xué)習(xí)算法在海量文本數(shù)據(jù)上進(jìn)行預(yù)先訓(xùn)練,使模型學(xué)習(xí)語(yǔ)言的通用規(guī)律和結(jié)構(gòu),然后運(yùn)用統(tǒng)計(jì)概率的方法,不斷循環(huán)預(yù)測(cè)下一個(gè)詞語(yǔ)的可能性情況,從而生成順序文本。當(dāng)GAI生成的一段文本中的每一個(gè)詞語(yǔ)都是如此自然,合乎人們通常的預(yù)期,那么它看起來(lái)就像是由人類編寫的,或者至少是由一臺(tái)能夠自我思考的機(jī)器編寫的,這也就是GAI中I(智能)的由來(lái)。就其本質(zhì)而言,GAI的核心功能就是精準(zhǔn)地預(yù)測(cè)下一個(gè)最可能出現(xiàn)的詞語(yǔ),它并不關(guān)心真相或準(zhǔn)確性等概念,其返回的答案僅僅是一種“統(tǒng)計(jì)結(jié)果”。
GAI并不是一個(gè)超級(jí)搜索引擎。施瓦茨律師的錯(cuò)誤始于將ChatGPT認(rèn)定為超級(jí)搜索引擎。從GAI的基本原理可以得知,它與搜索引擎具有明顯的差異,后者的工作原理是對(duì)信息進(jìn)行索引,為用戶返回相關(guān)性最高的內(nèi)容,而前者,則是基于已有的數(shù)據(jù)生成相關(guān)的內(nèi)容。從回復(fù)的內(nèi)容來(lái)看,GAI的回應(yīng)是基于其訓(xùn)練數(shù)據(jù)的即時(shí)創(chuàng)造,而搜索引擎則返回已經(jīng)存在的網(wǎng)頁(yè)鏈接。從內(nèi)容的可靠性來(lái)看,GAI的生成特性切斷了內(nèi)容和來(lái)源的聯(lián)系,在高度復(fù)雜的算法以及海量參數(shù)下,人們往往很難理解GAI內(nèi)部的決策過(guò)程或?yàn)檩敵鰞?nèi)容提供清晰的解釋,無(wú)法得知生成內(nèi)容的來(lái)源是百科全書或是娛樂小報(bào),甚至出現(xiàn)內(nèi)容與來(lái)源信息脫節(jié)的情況,難以確保內(nèi)容的可靠性;而搜索引擎提供內(nèi)容的原始鏈接,使得用戶可以建立內(nèi)容和來(lái)源的直接聯(lián)系,形成可追溯的信息鏈條可以確保內(nèi)容的可靠性。
GAI的大語(yǔ)言模型本質(zhì)解釋了錯(cuò)誤內(nèi)容產(chǎn)生的原因。大語(yǔ)言模型本質(zhì)揭示了GAI生成的內(nèi)容是一種基于模型生成的概率答案,并不是一個(gè)從既有數(shù)據(jù)庫(kù)中搜索確定的固定答案,這決定了GAI必然有可能生成錯(cuò)誤內(nèi)容。GAI生成內(nèi)容的準(zhǔn)確性很大程度上依賴于預(yù)訓(xùn)練數(shù)據(jù)和算法本身。預(yù)訓(xùn)練數(shù)據(jù)質(zhì)量受到預(yù)訓(xùn)練語(yǔ)料庫(kù)代表性不足以及數(shù)據(jù)集時(shí)效性偏差的影響。而算法偏見、歧視和不平等問(wèn)題也一直影響著生成內(nèi)容的質(zhì)量的準(zhǔn)確性。“壓縮-解壓”機(jī)制帶來(lái)信息內(nèi)容損耗、基于人類反饋的強(qiáng)化學(xué)習(xí)帶來(lái)的偏差、用戶錯(cuò)誤互動(dòng)形成的語(yǔ)境坍塌等也是導(dǎo)致生成錯(cuò)誤內(nèi)容的原因。此外,在訓(xùn)練過(guò)程中GAI被引導(dǎo)與人類偏好對(duì)齊,導(dǎo)致GAI“阿諛奉承”(Sycophancy)行為的普遍存在。GAI是如此期望能夠“滿足用戶的期待”,以至于它并非客觀中立地呈現(xiàn)信息,而是判斷用戶的意圖,并不遺余力地通過(guò)數(shù)據(jù)搜集和組合生成討好用戶的內(nèi)容。正如在馬塔案中,雖然數(shù)據(jù)庫(kù)中沒有合適的案例,但是ChatGPT并沒有向施瓦茨律師告知這一令人失望的信息,反而編造了眾多有利于原告馬塔的虛假案例,幫助施瓦茨律師“順利”完成法律文書,并進(jìn)一步幫助其生成虛假案例的內(nèi)容摘錄,最終招致法院制裁。
GAI的擬人化特性(Anthropomorphism)是一項(xiàng)主要風(fēng)險(xiǎn)。GAI的設(shè)計(jì)給人留下了用戶正在與具有人類特質(zhì)的對(duì)象進(jìn)行交互的印象,這樣的擬人化互動(dòng)能減少人機(jī)之間的“陌生感”,增進(jìn)“親切感”,進(jìn)而產(chǎn)生“信任”,這份“信任”就可能表現(xiàn)為用戶不假思索對(duì)GAI生成內(nèi)容的確信。因此,英國(guó)大律師公會(huì)在《基于大型語(yǔ)言模型的ChatGPT和生成式人工智能軟件的使用注意事項(xiàng)》將GAI的擬人化特性列為第一個(gè)關(guān)鍵風(fēng)險(xiǎn)。因?yàn)樵诋?dāng)前階段,GAI不具有任何相關(guān)意義上的人類特征,沒有情感和意識(shí),無(wú)法進(jìn)行思考、推理、自我批判,GAI生成的內(nèi)容也只是龐大數(shù)據(jù)之上的統(tǒng)計(jì)結(jié)果,將GAI與人類智能相混淆只能帶來(lái)危害。施瓦茨律師在交互中誤認(rèn)為ChatGPT是具有人類特性的對(duì)象,向其確認(rèn)虛構(gòu)案例的真實(shí)情況,將自己的法律義務(wù)、職業(yè)操守、個(gè)人榮譽(yù)寄托在對(duì)機(jī)器生成的回復(fù)以及機(jī)器本身的信任上,無(wú)疑是荒謬的。
GAI的“創(chuàng)造性”是其本質(zhì)特征。GAI中的G(生成式)是其區(qū)別于傳統(tǒng)AAI的關(guān)鍵特質(zhì),也是其“創(chuàng)造性”的來(lái)源。得益于海量數(shù)據(jù)的訓(xùn)練基礎(chǔ),GAI生成的概率答案不僅是對(duì)現(xiàn)有內(nèi)容的重組或復(fù)制,還能建立跨學(xué)科間的廣泛知識(shí)鏈接,從而生成新穎的內(nèi)容,包括新的理論框架、新的產(chǎn)品或新的方法。這決定了GAI生成內(nèi)容創(chuàng)新性的本質(zhì)特征。內(nèi)容創(chuàng)新和內(nèi)容錯(cuò)誤則可以視為一體兩面的現(xiàn)象,主要受制于目的、環(huán)境、文體等具體情境中對(duì)準(zhǔn)確性需求程度的不同,例如商業(yè)廣告策劃對(duì)準(zhǔn)確性的需求程度極低,需要更多創(chuàng)意,避免對(duì)現(xiàn)有廣告的抄襲;而法律文書則對(duì)準(zhǔn)確性提出極高的要求,這是法的安定性的必然要求。施瓦茨律師向以創(chuàng)新性為特征的ChatGPT尋求以準(zhǔn)確性為標(biāo)準(zhǔn)的司法判例,無(wú)異于緣木求魚,得到令人失望的結(jié)果也就在所難免。
以上特性揭示了律師在使用GAI過(guò)程中的多種風(fēng)險(xiǎn)和使用限制,但這并非意味著GAI參與法律文書寫作弊大于利,諸多國(guó)內(nèi)外研究給予其積極評(píng)價(jià)。問(wèn)題的關(guān)鍵在于,GAI的使用者應(yīng)當(dāng)根據(jù)其職責(zé)和任務(wù)權(quán)衡使用GAI的潛在風(fēng)險(xiǎn)和挑戰(zhàn),清楚自己行為的目的,負(fù)責(zé)任地使用GAI。
(二)
堅(jiān)持以人為本的人機(jī)關(guān)系模式,明確GAI在人機(jī)協(xié)作中的智能副駕角色
面對(duì)GAI為代表新一輪生產(chǎn)力變革,應(yīng)當(dāng)堅(jiān)持人本主義立場(chǎng),以人之主體性處理與GAI的關(guān)系,將人的獨(dú)立、自由、尊嚴(yán)、全面發(fā)展作為核心。在人機(jī)關(guān)系中,需要明確人類的決策和創(chuàng)造力的不可替代性,人應(yīng)當(dāng)處于主導(dǎo)地位。GAI作為協(xié)助者,其作用是擴(kuò)展人類的能力,而不是取代人類的判斷。就人類與GAI的關(guān)系而言,“其本質(zhì)還是人與物之間的關(guān)系?!币匀藶楸镜娜藱C(jī)關(guān)系模式可以有效克服GAI生成錯(cuò)誤內(nèi)容的危害性,GAI生成的內(nèi)容只是人類作出決策的眾多參考信息中的一部分,人類決策者將對(duì)信息進(jìn)行綜合評(píng)估,并考慮其他非量化因素,如倫理、社會(huì)影響和個(gè)人經(jīng)驗(yàn),從而確保最終決定的準(zhǔn)確性和有效性。施瓦茨律師在法律文書撰寫過(guò)程中完全依賴ChatGPT,將其提供的信息“作為他實(shí)質(zhì)性論點(diǎn)的唯一來(lái)源”。這就導(dǎo)致了人機(jī)關(guān)系的“倒置”,正如法院所述,“施瓦茨律師及其律所在提交由ChatGPT創(chuàng)建的不存在的帶有虛假引用和引證不存在的司法意見的材料時(shí),便放棄了自己的責(zé)任。”將個(gè)人法律義務(wù)、職業(yè)操守、個(gè)人榮譽(yù)寄托在對(duì)機(jī)器生成的回復(fù)以及機(jī)器本身的信任上,實(shí)際上把是GAI與自己等同比較,“人作為主體的超越性就遭到破壞,自我地位的降低隨之而來(lái)?!比藳Q定的自主性也遭到削弱,使人異化為工具的傳聲筒,淪為技術(shù)的附庸。
明確GAI的角色是實(shí)現(xiàn)高效和有意義人機(jī)協(xié)作的關(guān)鍵。GAI在人機(jī)關(guān)系中應(yīng)當(dāng)擔(dān)當(dāng)“copilot”(“智能副駕”或作“助手”)的角色。Copilot是微軟推出的一款人工智能產(chǎn)品,但其準(zhǔn)確描繪了GAI理想的角色定位。Copilot的原初含義來(lái)自航空領(lǐng)域,指的是副駕駛員,即與主駕駛員(pilot)一同工作,在飛行中共同負(fù)責(zé)飛機(jī)的操作和管理。副駕駛員在飛行過(guò)程中不僅是主駕駛員的助手,還是在緊急情況下的支持者,確保飛行的安全性和效率。這一角色的特征和職責(zé)使得它可以作為理解人類與GAI關(guān)系的一個(gè)有力隱喻。就目標(biāo)而言,在飛行中,主駕駛員和副駕駛員共享相同的目標(biāo)——安全、高效地到達(dá)目的地;在人機(jī)關(guān)系中,人類與GAI共同工作,以實(shí)現(xiàn)特定的目標(biāo),如提高工作效率、解決復(fù)雜問(wèn)題等,彰顯了共同努力達(dá)成目標(biāo)的合作精神。就互補(bǔ)能力而言,副駕駛員具有與主駕駛員相似的技能和訓(xùn)練,但在實(shí)際飛行中可能會(huì)擔(dān)當(dāng)不同的職責(zé),以互補(bǔ)主駕駛員的能力;在人機(jī)關(guān)系方面,GAI補(bǔ)充人類的能力,特別是在快速提供基于數(shù)據(jù)的見解和建議、生成新的概念、設(shè)計(jì)或文本、開展跨領(lǐng)域知識(shí)鏈接、執(zhí)行重復(fù)任務(wù)和識(shí)別模式等方面,而人類則提供思考、評(píng)價(jià)、批判、反思、決策等人類獨(dú)有的能力,并主導(dǎo)人機(jī)協(xié)作的程序。就溝通和協(xié)調(diào)而言,飛行安全要求主駕駛員和副駕駛員之間有著密切的溝通和協(xié)調(diào),以確保每一項(xiàng)操作都是基于共同的理解和協(xié)商;在人機(jī)關(guān)系方面,人類與GAI的有效協(xié)作同樣需要良好的溝通機(jī)制,人類需要能夠理解GAI的建議和輸出,GAI則需在人類的指導(dǎo)下進(jìn)行調(diào)整和學(xué)習(xí)。就監(jiān)督和支持而言,副駕駛員在必要時(shí)提供監(jiān)督和支持,確保飛行操作的正確性和應(yīng)對(duì)緊急情況;而人類對(duì)GAI的監(jiān)督確保GAI操作的正確性和安全性,人類可以干預(yù)GAI的操作,以防止錯(cuò)誤或不當(dāng)行為。將GAI定位為智能副駕的角色強(qiáng)調(diào)了其作為人類活動(dòng)的輔助和增強(qiáng)工具的概念,是人的對(duì)象化的智能器官,旨在通過(guò)人機(jī)合作最大化利用其潛力,同時(shí)確保人類保持對(duì)活動(dòng)的主導(dǎo)和控制。這種關(guān)系模型強(qiáng)調(diào)了人機(jī)之間的合作、互補(bǔ)性和共同目標(biāo)的追求,同時(shí)也體現(xiàn)了對(duì)安全、適應(yīng)性和靈活性的共同重視。
提升用戶技術(shù)素養(yǎng)是實(shí)現(xiàn)有效人機(jī)協(xié)作的關(guān)鍵。為了優(yōu)化人機(jī)之間的協(xié)同作用,通過(guò)針對(duì)性的教育和培訓(xùn)措施提高用戶對(duì)GAI技術(shù)的理解和技術(shù)熟練度至關(guān)重要。主要包括教育用戶如何有效地與GAI交互,如何評(píng)估GAI生成內(nèi)容的準(zhǔn)確性和可靠性,以及如何識(shí)別和避免潛在的偏見和誤用。在馬塔案后,威斯康星州律師協(xié)會(huì)為會(huì)員舉辦了一場(chǎng)以“ChatGPT人工智能——概述和影響”為主題的網(wǎng)絡(luò)研討會(huì),用于傳授安全并合乎道德地使用GAI的最佳方式。2023年12月英國(guó)公布《人工智能司法工作人員指南》,用于指導(dǎo)司法工作人員理解人工智能的主要風(fēng)險(xiǎn)和問(wèn)題以及如何避免在使用過(guò)程中發(fā)生這些風(fēng)險(xiǎn)和問(wèn)題。英國(guó)大律師公會(huì)也在2024年1月發(fā)布了《基于大型語(yǔ)言模型的ChatGPT和生成式人工智能軟件的使用注意事項(xiàng)》,幫助大律師了解使用GAI的技術(shù)基礎(chǔ)和風(fēng)險(xiǎn),以便其遵守法律和道德標(biāo)準(zhǔn)。
(三)
以律師倫理道德與職業(yè)責(zé)任作為基礎(chǔ)保障
律師的倫理道德與職業(yè)責(zé)任應(yīng)當(dāng)作為應(yīng)對(duì)GAI變革的基礎(chǔ),倫理規(guī)范應(yīng)成為防范GAI風(fēng)險(xiǎn)的重要準(zhǔn)則。雖然GAI提出的問(wèn)題可能很新穎,但至少有一些道德答案是不變的。正如馬塔案中法官卡斯特爾在制裁意見中所述:“技術(shù)進(jìn)步是司空見慣的,使用可靠的人工智能工具提供幫助并沒有本質(zhì)上的不當(dāng)之處。但現(xiàn)有規(guī)則對(duì)律師施加了把關(guān)作用,以確保他們提交的文件的準(zhǔn)確性?!甭蓭煹穆殬I(yè)道德與責(zé)任是其實(shí)現(xiàn)社會(huì)價(jià)值和維護(hù)社會(huì)正義的基石。誠(chéng)信、盡責(zé)、專業(yè)是律師職業(yè)道德的關(guān)鍵部分。誠(chéng)信要求律師在所有職業(yè)活動(dòng)中都必須保持最高水平的誠(chéng)實(shí)和信用。這意味著律師在與客戶、法庭以及第三方交往時(shí),應(yīng)確保所有的陳述、文件和證據(jù)都是真實(shí)、準(zhǔn)確無(wú)誤的。誠(chéng)實(shí)信用的原則禁止律師進(jìn)行任何形式的欺騙或誤導(dǎo)行為。盡責(zé)要求律師全心全意地為客戶服務(wù),盡最大努力保護(hù)客戶的法律權(quán)益。這包括及時(shí)響應(yīng)客戶的需求、恪守律師與客戶之間的保密義務(wù)以及在提供法律服務(wù)時(shí)盡可能利用自己的知識(shí)、技能和資源。專業(yè)性要求律師不僅擁有必要的法律知識(shí)和技能,而且在其職業(yè)行為中體現(xiàn)出高度的職業(yè)操守。這包括在所有情況下都保持專業(yè)的態(tài)度,尊重客戶、法官、對(duì)手律師以及其他法律專業(yè)人員。專業(yè)性也要求律師在行使其職業(yè)職責(zé)時(shí),遵守相關(guān)的法律、規(guī)則和職業(yè)準(zhǔn)則。
在馬塔案中,施瓦茨律師通過(guò)向ChatGPT咨詢來(lái)彌補(bǔ)自己并不具備美國(guó)聯(lián)邦法規(guī)、蒙特利爾公約、美國(guó)破產(chǎn)法相應(yīng)領(lǐng)域法律知識(shí)的事實(shí),無(wú)疑違反了專業(yè)性要求;未經(jīng)審查即向法院提交ChatGPT生成的虛假案例,無(wú)疑是不盡責(zé)的;在法院提出質(zhì)疑后,仍然隱瞞事實(shí)掩蓋真相,無(wú)疑是不誠(chéng)信的;其辦案同事洛杜卡以及律所缺失對(duì)法律文書的核查無(wú)疑也違反了盡責(zé)要求。一系列違反律師職業(yè)倫理道德的行為不斷擴(kuò)大了ChatGPT錯(cuò)誤內(nèi)容的影響,最終招致法院的制裁,法院援引聯(lián)邦民事訴訟規(guī)則第11條規(guī)定,指出“在準(zhǔn)備文書的過(guò)程中未采取必要的謹(jǐn)慎”構(gòu)成了對(duì)司法管轄權(quán)的濫用,還援引了紐約職業(yè)行為規(guī)則第3.3(a)(1)條“律師不得故意向法庭做出虛假事實(shí)或法律陳述,或未能糾正律師先前向法院作出的重要事實(shí)或法律的虛假陳述,以及紐約職業(yè)行為規(guī)則第5.1條,律師事務(wù)所和直接主管的確保遵守義務(wù)。換言之,“新科技的產(chǎn)生并非意味著以往法律規(guī)范的全面傾覆,”良好的遵行現(xiàn)有的律師職業(yè)倫理準(zhǔn)則,將在很大程度上保障GAI在法律文書寫作過(guò)程中的可靠性和有效性,實(shí)現(xiàn)科技向善。
(四)
制定標(biāo)準(zhǔn)化策略優(yōu)化GAI應(yīng)用流程
為了提升GAI在法律文書撰寫中的效率、準(zhǔn)確性和可靠性,實(shí)現(xiàn)人機(jī)協(xié)作過(guò)程中的勞動(dòng)分工和行動(dòng)整合,開發(fā)一套指導(dǎo)原則和標(biāo)準(zhǔn)操作流程(Standard Operating Procedures,SOP)至關(guān)重要。這套流程應(yīng)詳細(xì)說(shuō)明如何選擇和使用高質(zhì)量的提示詞(Prompts)、如何有效地利用GAI生成的草稿以及如何對(duì)GAI生成物進(jìn)行后續(xù)的人工審核和修改。標(biāo)準(zhǔn)操作流程還應(yīng)包括對(duì)于GAI使用范圍的明確界定,確保律師能夠在適當(dāng)?shù)那闆r下利用GAI技術(shù),并在需要人類專業(yè)判斷和細(xì)致審查的情況下進(jìn)行人工干預(yù)。通過(guò)建立這樣一套標(biāo)準(zhǔn)操作流程,律師可以更系統(tǒng)、更高效地利用GAI技術(shù)進(jìn)行法律文書的撰寫工作,同時(shí)最小化因使用GAI技術(shù)而可能引入的誤差和風(fēng)險(xiǎn),確保法律服務(wù)的專業(yè)性和可靠性。
結(jié)語(yǔ)
具備對(duì)自然語(yǔ)言的理解與響應(yīng)能力的GAI展現(xiàn)出草擬訴狀、撰寫案件摘要及其他法律文書方面的應(yīng)用潛力,可以極大提升律師的生產(chǎn)力,重塑法律服務(wù)提供方式。但其固有的幻覺現(xiàn)象則會(huì)為律師的執(zhí)業(yè)活動(dòng)帶來(lái)重大風(fēng)險(xiǎn)。馬塔案中施瓦茨律師對(duì)GAI生成內(nèi)容的輕信和依賴為自己、同事及律所帶來(lái)法院的制裁。馬塔案帶來(lái)的啟示是應(yīng)用新技術(shù)的前提是了解其本質(zhì)以及局限,人機(jī)關(guān)系應(yīng)當(dāng)以人為本,將人的獨(dú)立、自由、尊嚴(yán)、全面發(fā)展作為核心。此外,在技術(shù)變革引發(fā)的不確定時(shí)期,應(yīng)當(dāng)重視倫理道德和職業(yè)責(zé)任發(fā)揮的保障作用。在未來(lái),可以建立一套可靠的標(biāo)準(zhǔn)化流程,實(shí)現(xiàn)在應(yīng)用GAI提升生產(chǎn)力的同時(shí),將技術(shù)可能帶來(lái)的誤差和風(fēng)險(xiǎn)最小化。
原標(biāo)題:《姚立|生成式人工智能ChatGPT編造法律案例的風(fēng)險(xiǎn)與啟示——評(píng)2023年美國(guó)“馬塔訴阿維安卡公司案”》
閱讀原文