美國紐約一名律師,替同事處理訴訟蒐集資料提交起訴文件,結果被辯方律師揭發,至少6宗案例「生安白造」,該律師其後承認用生成式人工智能聊天機械人ChatGPT找尋案例,該名律師及同事下月接受紀律聆訊,處理訴訟的官老爺直言這是「前所未有的情況」!
【新聞有價 記者有格 立即訂閱:http://bit.ly/3wGQh7c】
綜合商業內幕及《BBC》等外媒報道指,男子Ronberto Mata指哥倫比亞航空(Avianca)員工2019年疏忽導致他受傷,他因此委托律師事務所「Levidow, Levidow & Oberman」聘請的法律團隊提交起訴狀,美國律師Steven Schwartz協助同事Peter LoDuca接手處理相關訴訟,當中引述多個案例,向法庭證明案件應該被審理。豈料,哥倫比亞航空的法律團隊向法官表示,他們根本找不到其中幾起案件。
法官Castel在一份命令中寫道,「在提交的狀詞中,至少6宗似乎是虛假的法律判決,有著虛假的引述及虛假的內部引用。」他直言這是「前所未有的情況!」,並要求原告法律團隊做出解釋。
調查後發現,原告律師LoDuca並未參與這次法律研究,而把任務交給從業逾30年的同事Schwartz。Schwartz在書面回覆法庭的聲明中坦承,使用ChatGPT尋找類似案例。
Schwartz對此感到「非常後悔」,但之前從未使用AI進行法律研究或搜尋案例,不知道ChatGPT提供的內容有可能是假。未來也不會在缺乏驗證的情況下使用AI「補充」法律文件內容。
聲明中又提到Schwartz與ChatGPT對話紀錄,顯示Schwartz曾多次向ChatGPT確認案例的真偽,惟ChatGPT每次均回答案例千真萬確,並「實牙實齒」稱可以在萬律(Westlaw)及律商聯訊(LexisNexis)等法律資料庫找到。Schwartz又澄清,原告律師LoDuca確實沒有參與這次案例研究,也不清楚是如何進行的。Schwartz與LoDuca將於6月8日接受紀律聆訊,成為ChatGPT的「受害者」。
ChatGPT自2022年11月推出以來,已經累計千百萬人使用,它可用類似人類的自然語言回答問題,根據指令與要求生成內容,或者模仿特定寫作風格,但人們一直擔憂AI潛在風險,包括可能散播偏見、假消息及不準確資訊。