歐盟《人工智慧法案》,四種風險分級
2024 年歐盟《人工智慧法案》定案,對於民主、法治和環境以高標準要求高度保護,同時也支援創新企業的措施,其中也包括小型微型企業。歐盟人工智慧法適用範圍,例如將 AI 系統投放到歐盟市場或將 AI 系統投入歐盟提供服務的提供者,無論該提供者設立於歐盟境內或第三國。對於排除適用範圍也有,例如排除僅用於軍事、國防或國家安全目的之 AI 系統,這些在人工智慧法(AI Act)AIA 第 2 條規定有非常詳細的說明,大家有興趣可以進一步去閱讀了解。
針對歐盟 AI 法案,重視以人為本的精神,對於風險的分級則是清晰明確呈現,戴豪君表示,「風險」在人工智慧 ( AI ) 的研發或是應用,甚至在法規上的規範極為重要,以歐盟為例,歐盟《人工智慧法案》將風險分級的規範分為四種類別 :
第一種、被禁止AI行為 ( prohibited AI practices )
凡事違背歐盟尊重人的尊嚴、自由、平等和法治的價值觀,歐盟的基本權利AI的行為等應予以禁止。例如人工智慧利用人群的弱點或身心障礙之特殊群體扭曲其行為造成身心重大傷害 ; 從網路或 CCTV (閉路監視器)漫無目的抓取人臉影像建立或擴充人臉辨識資料庫等,均是屬於被禁止 AI 行為。
第二種、高風險AI系統 ( high-risk AI systems )
當 AI 技術的使用可能造成人身安全或基本權利產生負面影響,又可能危及人民生命和健康有關的關鍵基礎設施等。例如道路交通、水、電供應的管理和運作的安全組件人工智慧系統,或是評估學習成果與學習歷程的 AI 系統等這些類別均為高風險 AI 系統。
第三種、有限風險 ( Limited risk )
有限風險指的是具有特定透明度(transparency)義務的人工智慧系統,例如 AI 生成內容,聊天機器人或深偽技術這類 AI 的系統,必須讓使用者知道自己是與非自然人進行交流對話。
第四種、最低風險 ( Low and minimal risk )
最低風險是目前現有的法令規範可以適時因應的風險,例如人工智慧AI電子遊戲或垃圾郵件過濾應用程式等。
歐盟《人工智慧法案》的四種風險的分級,對於產品、服務提供者以及使用者有個方向依據可循,同時也給予事前的提醒「安全」機制的預防與留意,目前是初始的分類,相信當AI應用的持續進步,法規的規範、目標與提示等,亦同步有其進展變化,讓我們一同持續留意。
歐盟「人工智慧辦公室設立」 啟動 AI 治理的實施
「治理架構」在歐盟人工智慧法同樣佔據著重要的一環。戴豪君觀察,歐盟組織針對「人工智慧辦公室的設立」是以有順序的方式逐步進行,首先由「會員國組成人工智慧委員會作為執委會的協調平台和諮詢機構」。然後由「執委員設立人工智慧辦公室」,已於去年( 2024 ) 2 月 21 日正式設立,辦公室的任務為監督最先進的人工智慧模型,包括開發用於評估通用AI模型能力的工具、促進制定標準和測試實踐,並執行歐盟的規範等。歐盟執委員會也於同年 5 月 29 日宣布設立人工智慧辦公室,辦公室成員有 140 多位專業長才的員工,其中涵蓋技術專家、專業律師、政策專家和經濟學家等,共設立五個組別,分別為監管與法遵組、人工智慧安全組、人工智慧創新和政策協調組、人工智慧造福社會組和卓越人工智慧與機器人組,他們的核心精神與目標與歐盟《人工智慧法案》目的宗旨方向一致。
最後,戴豪君表示日後我們將持續面臨人工智慧的法律風險與責任的重點規範大量訊息,例如社會與人類福祉、風險與安全的控制、問責的法律框架、個資保護與資料治理,以及智慧財產權、禁止 AI 自動化武器等等這些規範,都將涉及個人、群體與國與國的安全議題息息相關,因此,持續更新與保持關注,將可讓我們更為近身同步了解 AI 的發展與 AI 法案的進程。
相關文章 歡迎閱讀
AI 隱私保護框架 – 歐盟、台灣與香港
審計部 – 運用生成式 AI 跨足多領域的創意合作之查核
擁抱 AI 時 : 睜大眼睛,冷靜思考
感謝您的閱讀,歡迎來信與我分享您的想法與建議 irispan@cybersecurenews.com.tw