陳建佑
2024-08-01發佈
國科會版《人工智慧基本法》草案出爐,我們真的要起飛了嗎?|智財科技
台灣推出《人工智慧基本法》草案,旨在推動 AI 技術進步,並同時解決倫理、法律和社會問題。本草案乃放眼美國和歐洲的作法,旨在提供法律確定性、推動風險分級管理、強化人為可控性、促進創新實驗和公私合作,有助減少產業的不安和風險。本文認為,既然 AI 基本法是制定未來政策的重要方針,相關細節仍需更多配套以確保運作(詳見後文)。在此也呼籲本草案能快速通過,協助台灣成為引領尖端科技的法治 國家。
國科會版《人工智慧基本法》草案出爐,我們真的要起飛了嗎?|陳建佑
人工智慧(下稱 AI)技術為社會帶來巨大變革,同時引發諸多倫理、法律和社會議題。美國、歐洲已陸續推出相關法律框架與治理機制。
而臺灣的草案也於 7 月中出爐,列出許多基本原則與推動重點,國家科學及技術委員會強調:將協同各部會推動所需法規,持續鼓勵創新,並兼顧人權與經營風險。
那麼,我們的《人工智慧基本法》草案,到底說了什麼?
為何有必要訂定《人工智慧基本法》?
用「基本法」來命名的法律,是用於宣示特定行政領域的基本方針。這種立法模式最早來自日本。我們台灣也從善如流,像自 1999 年制定《科學技術基本法》、《教育基本法》以來,已在不少領域,陸續制定類似規定。
而《人工智慧基本法》之所以有訂定必要,至少可以從 2018 年說起。那時臺灣將「智慧國家」列為施政目標,決心以半導體等科技優勢,結合交通、醫療、金融等產業,期許能夠躋身到尖端人工智慧國家的行列。
但發展 AI,雖能為社會帶來助益,但也可能產生負面風險,例如隱私侵害、偏見歧視、工作變遷、不公平競爭等。因此,發展的過程中,應確立 「價值標準及政策方針」等重要指標,才能兼顧創新發展與風險管理,也才有制定本法的必要。
此外,由於各國都在研究 AI 的治理規範,尤其是歐盟 AI Act 已正式通過,將來都會影響台灣相關企業;例如對台灣廠商而言,即使只是 AI 系統的應用廠商,只要歐盟使用者透過網路連線使用,即須適用歐盟 AI 相關法規。
綜上所述,台灣也必須有一部《AI基本法》作為領導統籌。
也因人工智慧系統涉及專業且橫跨不同領域,且仍持續發展中,我們現下能做的,就是盡可能去認識、學習甚至熟悉人工智慧的發展,參與相關立法討論。
快速幫本法抓重點!
國科會版的《人工智慧基本法》草案,除參考新加坡的作法、我國若干基本法外,更高度參考英美、歐盟的立法先例,集各家之大成。
然而本法,並未規定什麼行為該被管制,抑或設立什麼特定機關組織,而是建構 AI 各應用面向的政策大方向,給予有法律效力的指引。
AI 應用的面向十分廣泛,諸如智慧交通、智慧金融、智慧醫療等,所以作為基本法,縱使完成立法,也只是法制建設的開端,後續仍應制定或修正一連串的配套措施。例如,智慧交通的部分,可能涉及《道路交通管理處罰條例》、《公路法》等,並不因基本法上路而不用調整。
而本草案共計 18 條,立法目的在於「以人為本的前提下,促進 AI 研發與應用,維護國民基本權利,提升生活福祉、維護文化價值,增進永續發展」。以下將聚焦產業影響的面向,評析本草案內容。
有了本法,對於產業有什麼幫助?
1. 提供法律確定性
草案提供了基本的法律框架,有助減少產業對政策發展的不安,為後續投資研發與應用,提供了更明確的方向。特別是本法草案第 5 條強調,相關法規的解釋與適用,原則不應妨礙新技術與服務的提供,這有利於鼓勵 AI 創新。
2. 推動風險分級管理
草案第 10 條要求,數位發展部推動與國際接軌的 AI 風險分級框架,並授權各目的事業主管機關訂定業務領域內的風 險分級規範。這種做法,將有助發現「應用AI」的風險程度,及時採取對應的管理措施,實現精準監管。
雖然草案未明確禁止某些 AI 應用,但未來既然有做風險分級管理,某些高風險的 AI 應用(如面部識別、社會信用評分等)就可能面臨更嚴格的監管,甚至被禁止。
3. 強化人為可控性
草案第 11 條要求,政府應提升 AI 決策的可驗證性及可控性。這有助防範 AI 系統失控或被濫用的風險,確保人類對 AI 保持最終控制權。
另為保護個人資料與隱私,草案第 14 條也要求,在研發 AI 與應用過程中,應避免蒐集、處理或利用不必要的個人資料,並設計保護隱私的做法。
4. 促進創新實驗
草案第 6 條鼓勵建立創新 AI 的實驗環境,這可能促進「監管沙盒」等機制建立,為 AI 打造更多發揮空間。同時,第 12 條第 2 項更明確排除 AI 研發階段所衍生的法律責任,這有助於降低企業在研發階段的法律風險。
5. 推動公私合作
草案第 7 條鼓勵政府以公私協力方式,推動創新應用,這可能為 AI 企業帶來更多與政府合作的機會,有助於產業發展。同時,該條也強調國際合作的推動,這有利台灣 AI 產業的國際化。
另外,草案第 8 條更要求政府推動 AI 教育,提升國民素養。這有助於為 AI 產業培養更多人才,解決人才短缺問題。
最後,草案第 4 條也說到:政府應提供 AI 產業補助、獎勵、輔導或稅收優惠等支持措施,這將為 AI 企業獲得更多政策支持。
6. 促進資料開放與共享
草案第 15 條要求政府開放資料、打造資源共享與再利用機制,這有助於 AI 企業獲取更多高質量數據,促進 AI 技術的發展與應用。
7. 規範政府使用 AI 的模式
草案第 16 條,要求政府機關使用 AI 時,應進 行風險評估,規劃因應措施,並訂定使用規範或內控機制。這有助防範政府濫用 AI、侵犯公民權利的風險。
8. 建立應用負責機制
草案第 12 條最後要求政府建立AI應用條件、責任、救濟、補償或保險等相關規範,明確歸責條件。這有助於在 AI 應用時,明確劃定責任,保障受害者權益。
本法對產業會有何挑戰?
然而,本草案也可能對產業發展帶來兩大挑戰:
1. 缺乏具體的風險管理與倫理規範
草案雖然強調風險管理的重要性,但未明確規定風險評估的具體標準、程序和方法,也未規定風險管理的具體措施。
本文認為,需要制定更具體的 AI 風險評估標準和程序,建立動態風險監測及應對機制。可以考慮推動「AI 影響評估制度」,要求高風險的 AI 應用在部署前進行全面評估。
同時,本草案也缺乏對 AI 倫理問題的具體規範,特別是在 AI 系統的可靠性、穩定性、公平性等方面提出明確要求。草案雖然提到人類自主、公平不歧視等原則,但未對 AI 系統在道德決策方面的具體要求,作出規定,未來亟需補充。
最後,本草案也未設立專門的 AI 監管機構,或獨立的第三方審核機制,也就可能影響風險的有效管理。
2. 增加合規成本
隨著監管框架的建立,企業可能需要投入更多資源以確保 AI 系統符合要求,特別是在風險評估、透明度、可解釋性等有法拘束力的方面。
且草案強調個資保護,就會同時限制企業對某些數據的獲取和使用,影響 AI 系統的訓練和優化,如何拿捏之間比例,就需要更多討論。
AI 的明天會更好嗎?
總的來說,本草案為台灣 AI 產業發展提供基本的法律方向與政策支持,有利促進產業創新和風險管理,但不免同時帶來新的挑戰,未來仍需 配套法規,進一步細化管制要求。
然而,AI 技術的快速發展和廣泛應用,對傳統法律體系與監管模式帶來巨大挑戰。本草案作為初步嘗試,仍存有些許未盡之處:
像是加強全民AI素養教育,提高公眾對 AI 的理解和批判性思考能力,並培養專業的 AI 監管人才,建立跨部門、跨政府、產業、學術界和公民社,甚至跨國的的 AI 治理協調機制,穩定提升政府對 AI 技術和應用的理解和監管能力。
《人工智慧基本法》是以國家高度的上位政策,來領導整個產業向前邁進。在未來,醫療、智慧製造,與無人車,是台灣 AI 應用的三個最有潛力的領域。法律雖然通常是跟著社會後面走,但科技類的法律卻是要擔任領頭羊,指引相關產業技術明燈。
本文期望台灣能夠儘速有一部國家高度的 AI 基本大法,並期待目前這部《人工智慧基本法》能不分意識形態,充分溝通協調,早日三讀通過,讓台灣成為領導尖端科技的先進法治國家。
【本文作者】
陳建佑律師
資鋒法律事務所所長、中華亞太智慧物聯發展協會理事、全國律師聯合會資訊委員會委員。經常舉辦相關課程與演講,並透過文章、Podcast與短影片發表看法,致力於推動資訊法律的發展。
【本文核稿】
網站主編,王鼎棫
*本頻道「智財科技」,分享江湖在走,科技要懂,法律在這裡扮演什麼角色?