「停!這很危險」從馬斯克參與的連署背後,談 AI 技術的社會責任|智財科技

彭銘得

2023-08-09發佈

2024-01-28更新

「停!這很危險」從馬斯克參與的連署背後,談 AI 技術的社會責任|智財科技

「停!這很危險」從馬斯克參與的連署背後,談 AI 技術的社會責任|智財科技
quotationmark image

由於 AI 創新的影響範圍是如此廣泛,討論AI的倫理道德議題時,若只考慮古典機器人三法則,則顯得貧乏;甚至所謂三法則,也僅是小說中的一個設定。我們該如何拋開教條主義,討論 AI 的倫理框架呢?

quotationmark image

前言

忽然之間,人工智慧的發展邁入新的里程碑,相關應用諸如翻譯、繪圖、彙整資料、撰寫報告等等,成為人們的生活日常。特別是在朋友已經使用偵測軟體(也是一種AI)抓到學生使用 AI 寫報告之後,AI 紀元可謂真實無比。

隨著 AI 技術開始被廣泛應用,關於 AI 的濫用、誤用等議題,也引起人們關注(註一),甚至學界也憂心科技是否發展得太過迅速,呼籲立即暫停進階的 AI 訓練──因為能夠與人類競爭智慧的系統,可能對社會和全人類構成嚴重風險。

這封公開信上線後沒多久,已獲特斯拉創辦人馬斯克(Elon Musk)、以色列知名學者哈拉瑞(Yuval Noah Harari)、圖靈獎得主班吉歐(Yoshua Bengio)、前進黨主席楊安澤(Andrew Yang)、蘋果聯合創始人瓦茲尼亞克(Steve Wozniak)等 1125 人連署。

媒體也紛紛使用諸如「即將/不會大量被 AI 取代的工作」等標題,反映閱聽人的集體焦慮。一時之間,人人自危,彷彿成為了工業革命初始期的紡織工人。

由於 AI 創新的影響範圍是如此廣泛,討論AI的倫理道德議題時,若只考慮古典機器人三法則(註二),則顯得貧乏;甚至所謂三法則,也僅是小說中的一個設定。我們該如何拋開教條主義,討論 AI 的倫理框架呢?

科技在走,也不要忘記人類的能動性

最近與朋友閒談時,總不禁陷入懷舊情緒,甚至感嘆沒有 AI 前的狀況可謂黃金時期,然後唏噓:我們是怎麼進入這個 AI 年代的?

表面上,科技的進步乃是歷史的必然,如同自然的真相與本質,這些客觀的事實,都獨立於人類的主觀好惡,不受個人意志的影響。

然而,如果我們就這樣接受科學客觀性的修辭,探討 AI 的倫理議題的空間就極為有限,只能在不行這樣不行那樣的 N 個教條打轉,難以提出更為整體或根本的批判。具體而言,對 AI 科技的批判性思考如果要成為可能,必須要立基於「主體性」:那個具有能動性,推動改變的主體是什麼。

那麼,在 AI 發展的過程中,誰是那個推動變化的主體呢?顯而易見地,AI 技術並不是由 AI 技術自己將自己帶來這個世界,AI 技術也不是原本就存在自然,如原石般等待人類發現。無疑地,AI 技術是眾多資工領域工程師與科學家,有意識與目的性的創造發明,也不是什麼集體潛意識碰撞出的火花。帶領人類進入 AI 紀元的歷史主體,就是人類自身。

所謂時代的進步、歷史的巨輪、社會的進程等等,皆可視為一種運動的過程。既然是一個運動,則必然有主詞與動詞。歷史作為一個運動,則這個主詞就是歷史的主體。歷史的主體判斷現狀、否定現狀為完美、最後改變現狀,因此歷史的主體當然非常主觀。客體與物,無法給出價值判斷。Marcuse 曾經針對當代對於客觀性的過度崇拜,提出深刻見解,並認為客觀的修辭,讓主體可以逃避責任,並讓技術特徵取代價值判斷(註三)。

人類無法將 AI 紀元的成因賴給 AI 本身;作為主體,自然也需要負擔 AI 技術衍伸出來的種種責任。如果認清了該負責任的歷史主體是誰,我們或許該驚訝,到目前為止相關的責任、倫理、道德面向的討論,竟然不成比例地稀少。

因為我們太習慣科學客觀性的修辭,將所有科技與知識所帶給人類的影響都歸因於物自身,「自然」沒有「人」需要負責。在科學唯物主義裡,歷史的主體習慣性裝聾作啞,因此宛如盲人開車般,我們駛入了 AI 新紀元。

發展的亙古副作用──剝削他人與自然

人是萬物的尺度。既然如此,那個測度萬物的主體,究竟帶著何種意圖呢?

Horkheimer 與 Adorno 在《啟蒙的辯證》一書中認為,不論神話、科學、巫術等等不同的知識體系,都存在一個共同的模式,那個共通的主旨就是剝削,包含對自然、社會、人類自身的剝削。神話以獻寄諂媚鬼神來役使自然,科學以公式來動員自然;方式各異,但利用、消耗、動員他者,以維持自身存在的旨趣卻相通。

前現代與現代的差別,只在效率程度。當然,論剝削的效率,是啟蒙後的知識體系更加優異(註四)。

Horkheimer 與 Adorno 之所以批判自身西方思想體系,乃是因為在 20 世紀初經歷了兩場世界大戰的浩劫,見證了前所未有的高效率破壞,因而省思為何科學昌明、技術進步、生活便利卻無法帶來公義、平等等諸多美德。而他們的見解則是因為人類發展知識的模式乃奠基於剝削,剝削的道路自然引向剝削的終點,與平等、公平、正義的世界無緣。

一個世紀過去,若論意識形態,似乎我們依然活在一個更加追求效率、功效、可利用性的世界。也就是說,我們依然沿用了「剝削的模型」來發展知識與技術。人們創新知識與科技,不言自明的目的,依然是有效率的動員他者的資源為己所用。

AI 技術的社會責任

如前述,若理解了人類知識體系的意識形態,則毫無意外──AI 技術甫現世,就引發了繪師與設計師作品被巧妙挪用的著作權爭議,接著造成為了節省人力成本的裁員危機,以及 AI 技術作為生產工具,是否過度集中於少數高科技集團等疑慮。

AI 技術雖新,上述的議題卻顯得有些老掉牙,畢竟我們依然活在資本主義世界,面對的自然是資本主義所存在的老問題。而現有 AI 技術既然是在資本主義的框架之內所發展,它理所當然不會帶給我們框架之外的好東西。

動員它者的資源,以維持自身存在當然必要。但如果我們想要追求,除了自身存續之外的那些好東西,諸如公平、正義、博愛等等美德,我們就得基於能實現這些目標的框架上發展新技術。種瓜得瓜,種豆得豆,基於「剝削框架」所發展出來的 AI 技術,只能引領我們進入更加有效率剝削的社會。

是的,發展 AI 技術的歷史主體:人類,必須承擔社會責任與道德考慮,而且這個社會責任遠遠不是把一疊疊表格交給所謂學術倫理委員會交差了事或海邊淨灘、偏鄉服務、成立藝術推廣基金會、貼 SDG 標籤等等。實踐這個社會責任的第一步,就是涉及 AI 領域的產學專家們,捨棄雙手一攤把所有可能的社會影響都推給科技物自身的習慣,開始思考:我們想要使用 AI 建造怎樣的世界?藉此建立一個跳脫剝削的框架,正視 AI 技術的社會責任。

【本文作者】

彭銘得,Goldsmiths 社會學博士

【本文核稿】

網站主編,王鼎棫

註一:如 AI 分析、參考大量數據,進而再造數據,使得引用、創作、抄襲的界線變得模糊。AI 繪圖熱潮興起時,隨即許多眼尖的網友紛紛指出那些元素、分鏡、風格明顯是借鑒了某某繪師,引起了版權與侵權疑慮。過沒多久,也傳出一些美術、動畫、遊戲公司開始使用 AI 繪圖推出正式產品,引發設計與繪圖界的反彈與憂心。

註二:第一法則、機器人不得傷害人類,或袖手旁觀坐視使人類受到傷害; 第二法則、除非違背第一法則,機器人必須服從人類的命令; 第三法則、在不違背第一及第二法則的情況下,機器人必須保護自己。

註三:請參單向度的人:發達工業社會的意識型態研究。Herbert Marcuse

註四:啟蒙的辯證。Max Horkheimer, Theodor W. Adorno

*本頻道「智財科技」,分享江湖在走,科技要懂,法律在這裡扮演什麼角色?

【知識新聞的力量】

我們堅持為所有人免費提供內容,因為我們深知,閱讀新聞的機會,不應有任何門檻,尤其是當人權議題備受矚目的時候,這常是推動社會進步的契機。然而,如果您有能力,《法律白話文運動》提供高品質的解釋報導,是推廣法律及人權思想的重要力量,每個月不到100元,我們就能在「官網」、「Facebook」、「Instagram」、「Twitter」、「Line Voom」、「Podcast」、「Reels」、「TikToks」、「實體活動」上發佈,沒有比這個更划算的選擇了。

熱門文章

最新文章

vertical logo

專注打造台灣法律文化的垂直媒體。

從法律認識議題,從議題反思法律。

社群媒體

文章投稿,請洽

editor@plainlaw.me

授權與商業合作,請洽

business@plainlaw.me

聯絡客服,請洽

support@plainlaw.me

未經同意,不得擅自利用本站內容。

Copyright © 2024 Plain Law Movement All rights reserved.

Powered by Welly SEO