生成式人工智慧(生成式AI)正在成為任何人都無法忽視的生產力變數。在它的面前,以往的知識與技能壁壘開始鬆動甚至坍塌,並為各領域的創新帶來無窮的可能性。
然而,企業利用生成式AI進行業務創新的同時也不免面臨新的隱憂。企業或組織向生成式AI模型提供資料——很可能是涉及核心業務及客戶資訊的關鍵資料——是否能被妥善地保管、使用,及進行必要的保護;還有生成式AI的一些「固有問題」,例如如何實現負責任的AI(Responsible AI)、過濾有害內容、確保內容符合當地及企業政策等等。
一般情況下,規模化生成式AI應用都發生在雲端,更多企業組織也將依賴雲端發展生成式AI的業務創新。因此,我們可以將生成式AI的安全話題,看成是對雲端運算安全提出的新挑戰。
Amazon Web Services(AWS)對AI的研究已持續數年,其中包括生成式AI被廣泛應用後產生的安全需求改變。對於雲端運算安全,AWS的態度是一貫的。對於生成式AI相關服務、功能及應用,AWS在其安全的基礎設施之上,在生成式AI服務及功能設計之初就充分考慮了安全因素,並進一步建構負責任AI的防護機制。與此同時,AWS也利用生成式AI來賦能已有的或新推出的安全服務。這些措施幫助AWS的客戶在使用生成式AI服務時能獲得不遜色於以往任何時候的安全體驗。
從底層基礎設施層面,實現對生成式AI工作負載資料的隔離與加密保護
AWS對客戶生成式AI的保護始於其基礎設施。AWS獨有的雲端伺服器虛擬化引擎AWS Nitro將主機CPU/GPU的I/O功能下載至專門的硬體上,不但提供更加一致的效能,其增強的安全性可以在用戶端和雲端全程保護客戶的程式碼和資料在處理過程中的安全。這一獨家功能已經獲得了領先的網路安全公司NCC Group的獨立認證。
Nitro系統提供硬體級別的安全機制,首先從設計上將客戶資料與營運商完全隔離,即AWS作為營運商無法存取客戶在Amazon Elastic Compute Cloud(Amazon EC2)實例上運行的生成式AI相關的工作負載或資料。其次,客戶還可以透過AWS Nitro Enclaves和AWS Key Management Service(AWS KMS),使用金鑰加密敏感的生成式AI資料,將其儲存在指定的位置,並安全地將加密資料傳輸到隔離的運算環境中進行推論運算。此外,AWS還將AWS Nitro Enclaves和AWS KMS端到端加密流程進一步擴展到AWS Trainium2和其他GPU,強化使用者生成式AI資料在基礎設施設備間的安全通訊。
在生成式AI服務的設計之初就考慮安全性,並成為負責任的AI
除了建構安全的全球雲端基礎設施,AWS的安全不止安全服務,其所有服務均符合安全標準。AWS提倡在新服務的設計初期就考慮安全因素。
以生成式AI完全託管服務Amazon Bedrock為例,作為一項旨在讓客戶便捷地使用基礎模型建構和擴展生成式AI應用程式的雲端服務,Amazon Bedrock在設計之初就考慮了如何發揮基礎設施的安全能力,以及AI服務本身的安全需求。AWS和合作的模型供應商不會使用Amazon Bedrock的任何輸入或輸出資料訓練其基礎模型。在使用Amazon Bedrock時,客戶的資料在傳輸過程中和靜態儲存時都經過加密,客戶的所有資料都是安全且隱私的。客戶可以使用AWS PrivateLink建立從Amazon Virtual Private Cloud(Amazon VPC)到Amazon Bedrock的私人連線;或者採用基於身份識別的安全性原則,例如在使用AWS KMS新增、管理和控制加密金鑰時,設定哪些用戶或角色可以在什麼條件下對哪些資源進行什麼操作。
為此,Amazon Bedrock具備幫助客戶實現負責任AI的防護機制Guardrails for Amazon Bedrock。相比於一些AI模型僅透過內部控制模組來過濾內容,Amazon Bedrock的防護機制能讓客戶進一步客製化AI應用程式,以便符合不同內容政策的標準。
借助生成式AI的能力讓安全更易實現
為了幫助雲端運算客戶做到符合安全需求的程式碼編寫,AWS將AI能力運用到程式碼生成器上,以服務或功能的方式提供給客戶。