香港 AI 人工智能:個人資料保障模範框架
葉奇鑫於前面分享了許多關於,歐盟AI法、國內金融業運用的人工智慧AI指引和行政院及所屬機關(構)使用生成式AI參考指引,最後他分享「香港AI人工智能:個人資料保障模範框架」,他表示當機構建立內部AI治理(governance)策略時,此框架可以作為參考。從四個議題來分享,分別為AI策略與治理、風險評估及人為監督、AI的製定、實施及管理,以及與利害關係人的溝通。
香港 AI 策略及治理框架
有兩個重點,重點一、AI策略其中包含機構須宣告如何道德性與負責任採購、實施及使用AI 。重點二、AI治理委員會,委員會的任務其中一項為監督機構內 AI 的整個生命周期(從採購、實施到終止使用)。
風險評估及人為監督
在風險評估中提到,當 AI 輸出結果愈可能對個人造成重大影響,該AI愈可能是高風險,這點值得我們都留意,在人為監督上也說明風險愈高,愈需要人為監督以降低風險。
AI 的製定、實施及管理
其中提到機構準備制定和運用 AI 資料時,應遵守《隱私條例》的規範 ; 盡量減少個資數量,以降低隱私風險 ; 管理資料,以確保資料的品質,以及妥善記錄資料的處理狀況。此外,又提到一個令人耳目一新一項,建議機構制定「AI 事故應變計劃」,以監察和應對可能的 AI 事故。
與利害關係人的溝通
強調機構應和利害關係人進行聯絡與交流,以建立信任,尤其是和內部員工、AI 供應商、個別消費者及監管機構。
最後,葉奇鑫提醒大家,AI 風險會隨著時間而改變,機構應定期對 AI 系統進行內部審核,以確保 AI 使用遵守相關規定,同時優質的資料才能產生出好的 AI,如果人類無法再產出更好的資料,AI 將不會再更聰明了,所以人機相互協同合作,一起成長,未來才會是整體雙贏的局面。