12
過去一年,規模大小各異的企業紛紛導入人工智慧 AI,進一步凸顯實踐有效 AI 治理的重要性。微軟的客戶與合作夥伴高度關注我們如何擴展內部 AI 治理計畫,以及如何將高層次的規範準則,轉化為可實踐的開發工具與具體作法。
業界也意識到,建立值得信賴的 AI 不僅有助於提升業務表現,更能透過良好治理釋放 AI 的潛能。根據 IDC 進行的《微軟負責任 AI 調查》,超過三成的受訪者指出,缺乏治理與風險管理解決方案是導入與擴展 AI 的主要障礙。相對地,在已採用負責任 AI 風險管理工具的受訪者中,超過 75% 表示這些工具有助於改善資料隱私、提升客戶體驗、做出更有信心的商業決策,並增進品牌聲譽與信任度。
2025 年微軟《負責任 AI 透明度報告》重點摘要
針對負責任 AI 的工具、政策與實務進行關鍵性投資,以因應 AI 創新日益加速的發展趨勢:
- 持續強化負責任 AI 工具,將風險衡量與緩解機制擴展至文字以外的多模態內容,例如影像、音訊和影片,並新增對各類代理型系統(agentic systems)的支援。這類半自主系統預期將成為 AI 投資與創新的重要發展領域。
- 採取主動且多層次的方式,因應新法規要求,並為客戶提供各式資源與資料,協助他們在符合法規的前提下持續創新。微軟先期在建構全面且領先業界的負責任 AI 計畫上所做的投入,使我們能全力加速 AI 合規準備工作。
- 持續透過部署前審查與模擬入侵攻擊,於各項 AI 發佈中採用一致的風險管理方法。其中包括對高影響力及高風險的 AI 與生成式 AI 應用進行監督與審查,包括所有新增至 Azure OpenAI 服務的旗艦模型與每次 Phi 模型的發佈。為進一步強化這些審查中負責任 AI 相關文件的作業,我們推出一項內部工作流程工具,用以統整《負責任 AI 標準》中所列的各項要求。
- 微軟的「敏感用途與新興技術(Sensitive Uses and Emerging Technologies)」團隊持續為高影響力與高風險的 AI 應用提供實務指導與諮詢。生成式 AI 在醫療與科學等領域的應用顯著成長,成為去年的關鍵發展重點。該團隊透過跨案例洞見與研究人員的深入交流,得以及早針對新興風險與 AI 技術能力提供前期指引,進而推動創新,並孕育新的內部政策與指導原則。
- 持續以研究洞見為依據,加深對 AI 最新發展所涉及的社會與技術議題的理解。為此,微軟成立 AI 前瞻實驗室(AI Frontiers Lab),專注投入於推動 AI 系統在能力、效率與安全性上的核心技術突破。
- 與全球各地的利害關係人合作,致力於推動一致性的 AI 治理方法,加速 AI 的採用,並協助各類組織跨境持續創新與應用 AI 技術。其中包括出版一本探討各領域治理實務的專書,以及推動 AI 系統測試的統一標準。