法律新聞 - 智財
  • 社群分享
第一筆上一筆下一筆最末筆筆數:8/590
臺灣:《人工智慧基本法》公布施行,設立院級特別委員會,並確立「創新優先」及「研發免責」機制以加速產業發展
我國制定《人工智慧基本法》(下稱本法),繼數位發展部於2025年9月12日公布,行政院於2025年8月28日通過本法草案進入立法院,已經立法院完成三讀程序,於2026年1月14日總統公布施行。本所曾於2025年10月1日報導行政院通過《人工智慧基本法》草案(參見惇安智財快訊 - 第276期)。針對本法重點及與草案之關鍵差異解析如下。
(一)立法核心:確立七大基本原則
本法延續草案精神,於第4條明定政府推動人工智慧(AI)發展應遵循之七大原則,作為後續子法訂定及行政指導的基礎:
1.永續發展與福祉。
2.人類自主:落實以人為本,允許人類監督。
3.隱私保護與資料治理。
4.資安與安全。
5.透明與可解釋:AI產出應做適當資訊揭露或標記。
6.公平與不歧視:避免演算法偏差及歧視,不應對特定群體造成歧視之結果。
7.問責:確保內部治理與外部社會責任。
(二)正式法案與草案之關鍵差異
相較於本所先前報導之草案內容,正式公布之法案在執行面與法律位階上展現了三大關鍵變革:
1.確立「創新優先」的法規解釋原則(第11條)
本法相關法規之解釋與適用,如與其他法規發生扞格時,在符合基本原則的前提下,「以促進新技術與服務之提供為優先原則」。此條款賦予AI創新應用在現行法規灰色地帶中的解釋優勢,大幅降低舊有法規對新興技術的阻礙。
2.治理層級提升:設立院級「特別委員會」(第6條)
草案階段多由數位發展部或國科會主責,本法第6條則明定行政院應成立「國家人工智慧戰略特別委員會」,由行政院院長擔任召集人,成員涵蓋產官學研代表,負責訂定「國家人工智慧發展綱領」並協調跨部會事務,解決單一部會難以協調跨領域監管的問題。
3.明確「研發階段」之責任豁免(第17條)
針對高風險AI的責任歸屬,草案僅概括提及應建立責任與救濟機制。正式法條第17條維持此一方向,但新增關鍵的「研發豁免條款」。該條第二項明定:「人工智慧之研發,於實際應用前,不適用前項規定。」。這意味著在實驗室或非實際應用場景下的研發行為,原則上不需承擔高風險應用之嚴格責任,避免過早的法律介入抑制技術創新。
(三)風險管理與合規義務
1.風險分級管理:由數位發展部參考國際標準推動風險分類框架,各目的事業主管機關據此訂定管理規範。
2.禁止與標示義務:第5條明定政府應避免AI造成人權侵害或歧視等情事;對於經認定為「高風險應用」之系統,強制要求業者明確標示注意事項或警語。
(四)施行展望與法規調適
本法自公布日施行,另第18條規定政府應於本法施行後2年內,完成不符本法規定之相關法規的修正或廢止。對於產業界而言,需特別關注未來兩年內各主管機關依據本法釋出的具體管理規範。

參考資料:中華民國總統府網站,2026年1月14日,https://www.president.gov.tw/Page/294/50131

作者:梁祐銓/王惠玲

惇安智財快訊 第 284 期

第一筆上一筆下一筆最末筆筆數:8/590
返回功能列