聊天機器人 ChatGPT 可以取代律師嗎?|智財科技

郭榮彥

2022-12-24發佈

2024-01-28更新

聊天機器人 ChatGPT 可以取代律師嗎?|智財科技

聊天機器人 ChatGPT 可以取代律師嗎?|智財科技
quotationmark image

由美國 OpenAI 開發的大型人工智慧語言模型 ChatGPT,一上線就驚豔全球。它除了可以回答各式問題外,還可以和他聊天、交辦任務,在智力測驗結果為 83 分,甚至在 SAT 考試中取得了 1107 分,大約是美國學生中位數的水準。因此,ChatGPT 的泛用性和技術成熟度,引發了許多人對於 AI 取代文字工作者的討論──就連律師,也不免有這樣的想像。

quotationmark image

人工智慧如何應用在法律工作?

上一次,討論人工智慧取代法律工作者的風潮,可以回到 2016 年 AlphaGO 橫空出世;當時在圍棋界稱霸的 Google 人工智慧模型 AlphaGo 帶起了一波人工智慧取代論。

筆者記得,當時國內、外幾乎每週都可看到一篇文章,在討論最可能被 AI 取代的職業,而每一篇文章都可以看到律師名列其中。

當初討論有兩種聲音,一派認同,一派反對;而律師幾乎都是站在反對派,原因是因為律師的工作內容都被過度簡化。

事實上,在 AlphaGO 把「深度學習」這個名詞,從實驗室帶到大眾視野中不過一年,市場上陸續出現各式 AI 律師服務。例如受到媒體廣泛報導,由史丹佛學生創立的 DoNotPay,或是中國知名法律科技公司無訟所開發的 AI 法律顧問「法小淘」。

換句話說,就在不少人以為人工智慧只是增加點閱率的噱頭時,過去 6 年,人工智慧在某些法律服務的環節中,默默扮演越來越重要的角色。

最明顯的例子,就是美國訴訟程序的 E-discovery,其分類資料的流程,目前幾乎都是透過人工智慧來進行。即使在台灣,法律科技公司 Lawsnote 也把 AI 實際應用在法令遵循和契約審閱的環節,來加速律師工作的效率。

只是這些應用的場域比較專業,比起 AI 律師這種炫砲的名詞,沒辦法成為鎂光燈焦點,導致仍然有許多人認為 AI 只是譁眾取寵的標題,不會實際帶來改變;但事實上, AI 對法律服務的影響依舊逐年提升,並非常實際地影響法律工作環節。

尤其在 2019 年,當遷移式學習(transfer learning,內容請見註)的概念被廣泛使用後,對於如何使用 AI 進行文字處理,有長足的進展。

時間來到 ChatGPT,大部人在使用後都會有非常驚艷的體驗,除了打破以往我們對人工智慧問答系統「常常牛頭不對馬嘴」的印象外,ChatGPT 的泛用性比起以往體驗提升了不只一個層級。

從目前測試和觀察到的表現,Chat GPT 可以處理:即時問答(提問給予答案)、連續對答(記憶前次問題,並在框架下給予回覆)還有解決任務(撰寫文章摘要、會議記錄、契約和寫程式等)。

不管是什麼問題,ChatGPT 都可以給出答案,但是有些時候,還是會發生一本正經的講幹話的狀況,像這樣:

chatgpt

根據李弘毅老師的猜測,CchatGPT 的訓練過程,可能是基於 GPT 家族的「文字生成」,加上「人類老師訓練模型(此模型具揣測,能以人類的評分標準,為 GPT 的答案進行評分)」而逐漸增強。

白話文說,ChatGPT 做的事情,本質上就是:基於資料庫裡面文字排序的機率而定,從它拿來訓練用的資料庫,挑選裡面機率高,且符合人類偏好方式的回覆,並不是真的理解這些語言。而 ChatGPT 之所以可以做到這麼廣泛的回答,是因為他的參數量(1750億)和訓練資料量(45TB)非常大。

那 ChatGPT 可以取代律師嗎?

「目前來看,人工智慧並不會完全取代律師。雖然人工智慧在某些方面可能比律師更有優勢,例如處理大量的數據或快速搜索法律文獻,但人工智慧缺乏人類的判斷能力和分析能力,無法完全取代律師的工作。目前人工智慧更多的是為律師提供工具,以提高工作效率和質量,而不是完全取代他們。」

上面這段話,是用「標題的問句」詢問 ChatGPT,由 AI 給出的答案。由於文字的合理性和流暢度,已和人類沒有太大區別,因此擔心律師會被取代,也其來有自。

而筆者認為,目前是沒辦法的。原因有三個:

第一是輸入資訊的局限。

目前要求 ChatGPT 回答問題,僅限於輸入文字。文字可以是問題本身,或是問題或任務的背景資訊,而 ChatGPT 會依據這些資訊產出最高機率的排序。 如果輸入資訊不夠充分,背景資訊就會不足,產出資訊就會有一定機率沒辦法符合使用者實際所需的資訊。

然而,對比律師從事業務,針對一個案件或是回答問題,事先要建構的背景資訊十分複雜,並不能僅透過幾句文字描述,就能完整呈現。舉例來說,在公司內部的律師必須知道公司的各種狀態(例如競爭對手、議約權力大小、公司產品線、財務狀況、技術先進程度或是智慧財產權的狀態等),才可能審閱契約或給出法律問題的答案──這些「各種狀態」,很難在詢問 ChatGPT 之前,給予問題相關的背景資訊框架。

第二是訓練用資料庫的範疇。

ChatGPT 現在的架構,僅能從訓練資料庫中,挑選合適的(或高機率的)答案,若是遇到答案本身不存在於訓練資料中,ChatGPT 就沒辦法法學會。 對比律師實務,大部分的訴狀都是私密資料,ChatGPT 可能難以學會怎麼寫一份訴狀(但可能可以寫判決)。生活經驗或從未出現過的案例,通常也不會事先存在於資料當中。因此,ChatGPT 自然很難滿足,這樣需要結合不同生活經驗的律師工作。。

這也是目前 Chat GPT 對於常識性的問題表現不好,但專業性問題表現很好的原因。因為常識性的知識,比較不會記錄在資料當中,而是透過生活經驗來學習。同理,若是根據因果推論出來的常見資訊,ChatGPT 會表現得更差。

第三是實然與應然,機率無法推理。

ChatGPT 本質上還是一個機率模型,也就是挑選機率最高、最適合的文字或結果,這是基於實際發生的結果之上,是一種「實然」的表現(實際這樣發生了)。

但在法律工作中,很多時候律師是在操作一種「應然」的論述(應該這樣才對),而這些「應然」並不是透過已經發生的結果來得到的,而是透過各種邏輯推導得出的,而這可能是基於機率模型的 ChatGPT 天生做不到的事情。 雖然這六年 AI 的成長令人驚艷,但離取代律師還是言之過早,正如一開始 ChatGPT 自己所述,將它當作一個律師的助手或工具會來的更適合。

__【本次主筆】

郭榮彥

人稱 Barry,律師,法律科技信仰者,Lawsnote 創辦人暨執行長。__

本文核稿:網站主編王鼎棫

註:簡單來說,遷移式學習的目的,就是從過往資訊中,抽取「知識與經驗」,然後把它應用在新的目標領域當中。

本專欄「法白 Legal High」每周二定期更新,邀請律師、專家,用輕鬆白話、分析法律熱門時事。

數位中介服務法研討會

我們希望這些多元面向的問題都亟待社會凝聚共識,針對資訊科技和數位服務等原本是要改善大眾生活的工具,找到社會大眾能夠接受的運作與治理機制。 因此透過這幾個月的研究與準備,法白與開放文化基金會,將於十二月中推出數位中介服務法專題,並在 12/17(六)下午 14:00 於臺大校友聯誼會,透過草案的詳細說明、比較法的介紹和不同專業領域的觀點整理與分析,延續數位中介服務法的公眾討論。

熱門文章

最新文章

vertical logo

專注打造台灣法律文化的垂直媒體。

從法律認識議題,從議題反思法律。

社群媒體

文章投稿,請洽

editor@plainlaw.me

授權與商業合作,請洽

business@plainlaw.me

聯絡客服,請洽

support@plainlaw.me

未經同意,不得擅自利用本站內容。

Copyright © 2024 Plain Law Movement All rights reserved.

Powered by Welly SEO