法學期刊
  • 社群分享
論著名稱:
人工智慧風險治理與監管機制建構之研究-以歐盟監管專法(AIA)與美國風險管理標準為核心(A Legal Study on the Risk Governance Models of Artificial Intelligence)
文獻引用
編著譯者: 郭戎晉
出版日期: 2023.12
刊登出處: 台灣/世新法學第 17 卷 第 1 號/109-221 頁
頁  數: 113 點閱次數: 790
下載點數: 452 點 銷售明細: 權利金查詢 變更售價
授 權 者: 郭戎晉
關 鍵 詞: 人工智慧風險治理監管模式人工智慧規則草案人工智慧風險管理框架
中文摘要: 隨著人工智慧應用領域的拓展與多元化,此一嶄新技術引發的問題也隨之增加。在風險漸增下,人工智慧的監管思維已由初期的自律為主,逐步向他律靠攏並有轉為以他律為重之趨勢。現時國際上應對人工智慧風險之可能監理模式,主要計有:1.歐盟模式:推動「人工智慧監管專法」;2.美國模式:部門立法搭配「人工智慧風險管理標準」;3.英國模式:根基部會固有權責推動客製化監管。歐盟執委會提出的 AIA 草案區分為:1.無法接受的風險;2.高度風險;3.有限風險;及 4.最小風險或無風險等四個風險級別,並按風險級別的高低設定人工智慧系統應受到之規範。惟專法設計也存在風險監管機制設計失當等批評意見,有鑑於此,歐洲議會及歐盟理事會嗣後進行的談判討論,已針對部分問題進行修正。對比歐盟,美國則是秉持務實立場,除必要的部門立法並揭櫫其共通基本要求,美國亦積極推動「人工智慧風險管理標準」並在 2023 年 1 月正式發布「人工智慧風險管理框架」,助益公、私部門建立可持續運作的內部管理機制。本文同時探討我國在人工智慧風險監管機制推動上所應審慎思考的事項,包括:1.有無立法之必要;2.權責機關之設定;以及 3.風險概念/級距之劃分與判定,並提出立法論層面之具體建議,此外,本文亦建議我國可推動必要的人工智慧風險管理標準,並應持續關注「動態監管模式」暨「全球性監管機制」之發展,以利因應人工智慧技術發展與產業應用快速更迭之特性。
英文關鍵詞: Artificial IntelligenceRisk GovernanceRegulatory ModelArtificial Intelligence ActArtificial Intelligence Risk Management Framework 1.0
英文摘要: With the development and diversification of the application of Artificial Intelligence (AI), the problems caused by AI also increase. At present, the risk governance model of AI mainly includes: 1. the EU model: Promote the “Artificial Intelligence Act”; 2. the US model: Sector-specific regulation with “AI Risk Management Standards”; 3. the UK model: Promote customized supervision according to existing norms. The European Commission’s draft AIA identifies four levels of risk caused by AI and sets out the rules that AI systems should be subject to according to the level of risk. However, there are also criticisms of the design of the risk governance mechanism, in view of this, the European Parliament has amended some Articles in its version adopted in June 2023. Compared with the European Union, the United States is upholding a pragmatic stance and actively promoting AI risk management standards and officially releasing the AI RMF by NIST in January 2023. AI RMF helps the public and private sectors establish sustainable internal management systems. This article discusses the issues that should be considered in promoting the AI risk governance model in Taiwan, including: 1. Necessity of legislation; 2. Competent authority; and 3. Classification and determination of risk levels. In addition to put forward suggestions toward the aforementioned topics, the authors also recommend promoting the necessary AI risk management standards and continuing to focus on the development of dynamic regulatory models to address the rapidly changing nature of AI technology development and industrial applications.
目  次: 壹、前言
貳、人工智慧治理發展與監管模式討論
  一、人工智慧定義與發展概況
  二、人工智慧衍生之治理難題
  (一)難以避免空白現象
  (二)無法有效衡量及判定風險
  (三)難以援引既有的監管經驗
  (四)監管推動易於落入科林格里奇困境
  三、人工智慧之治理/監管思維更迭觀察
  (一)行業層面之變化
  (二)由全然自律開始加入他律
  四、應對人工智慧風險之可能模式
  (一)歐盟模式:推動人工智慧監管專法
  (二)美國模式:產業管理標準搭配必要部門立法
  (三)英國模式:根基部會固有權責推動客製化監管
  五、小結
參、歐盟 AIA 草案之風險監管作法與推動課題
  一、不同風險等級之規範作法分析
  (一)無法接受之風險
  (二)高風險
  (三)有限風險與最小風險
  (四)歐洲議會與歐盟理事會臨時協議揭櫫之重點事項
  二、AIA 草案之主要批評意見
  (一)關鍵概念定義過於模糊
  (二)與既有法規疊床架屋
  (三)未能有效保障公民基本權利
  (四)無法有效掌握及對應衍生風險
  三、風險監管機制設計失當之關聯討論
  (一)風險分類過於僵化且調整不易
  (二)難以全盤掌握實務應用之整體風險
  (三)未賦予個人了解風險等必要權利
  四、小結
肆、美國 NIST AI RMF 風險管理標準之操作
  一、人工智慧風險管理框架(AI RMF)之定位
  二、AI RMF 之「風險識別」機制
  (一)風險識別具體作法
  (二)實務操作可能遭致之難題
  三、AI RMF 之「風險管理」機制
  (一)四個核心概念所建構之風險管理架構
  (二)對人工智慧監管立法可能帶來之影響
  四、關聯討論與近期發展觀察
  (一)不乏聯邦機構表明現有立法已足敷適用
  (二)人工智慧權利法案藍圖提升為立法之可能
  (三)拜登總統行政命令另揭櫫八項具體行動目標
伍、我國人工智慧風險治理機制發展建議
  一、受歐盟 AIA 草案之「布魯塞爾效應」影響可能
  (一)歐盟立法易於出現布魯塞爾效應
  (二)已有國家仿歐盟制定全面性監管專法
  二、我國推動人工智慧風險監管機制所應考量之事項
  (一)有無立法之必要
  (二)權責機關之設定
  (三)風險概念/級距之劃分與判定
  三、本文觀點與建議
  (一)存在立法必要時之模式選擇
  (二)明確人工智慧風險並打造相應管理標準
  (三)關注「動態監管模式」暨「全球性監管機制」之發展
陸、結語
相關法條:
相關判解:
相關函釋:
相關論著:
郭戎晉,人工智慧風險治理與監管機制建構之研究-以歐盟監管專法(AIA)與美國風險管理標準為核心,世新法學,第17卷第1號,109-221頁,2023年12月。
返回功能列