編輯推薦: 自2018年左右大型語言模型(large language model,LLM)的出現後,網路生態逐年有了劇烈的變化。LLM透過吸收大量的文字、數據、影音等資料,形成為一種深度學習模組,衍生而來的人工智慧 (AI) 應用亦為最近幾年所熱門被議論著。以下文章我們摘要整理出今年年初Palo Alto Networks 的IoT 安全技術長May Wang博士所發表的一篇文章,摘要出幾點別為 LLM 為網路安全性帶來的影響、運用AI技術需留意三項事、技術生態系合作,歡迎大家閱讀與回饋。
LLM 為「網路安全」帶來什麼影響呢?
當可利用大型語言模組LLM(large language model,LLM)的模組、AI技術讓處理大量資訊變得容易時,資安人員通常將其應用在管理弱點、防止攻擊、處理警示和回應事件上,提供可視效率、情報以及可擴充性等,來降低工作量和人工的誤判。反之,對於惡意攻擊者則是利用 LLM 提高其攻擊效率、利用 LLM 導入系統其他弱點,造成更多網路安全的問題。
現今AI的時代,許多供應商會提供企業採用的LLM模型,其中不但具備自身的智慧外,還可以持續學習,並且依據企業使用的狀態進行調整變更,調整變更的目的,除了希望提供更好的服務給客戶外,也是為了避免LLM模型偏向錯誤服務的方向。
因此,May Wang 博士表示對於LLM模型,不僅在設計中要建立安全性,還要確保所建立的安全模型要防止訓練數據遭到污染(Data Poisoning),以及部署完成後持續的評估和監控 LLM系統上的安全性、保全性和道德性。
May強調,我們需要在安全系統中內建情報 (例如,對兒童灌輸正確的道德標準觀念,而不是只是規範其行為),以便LLM模型能具有適應性,且能做出正確的判斷,而不會輕易地被錯誤或是不適當的資訊訊息,導致偏離正確的軌道。
運用 AI技術,需留意三項事
May Wang 博士表示,當我們能對LLM改善安全狀況了解越多,我們就越可以充分運用 AI技術於網路環境,除了不僅領先潮流或是我們的競爭對象,亦以善用AI 的技術,做為抵禦今日複雜性網路威脅攻擊的利器,這其中有三件事值得我們留意分別為,模型、應用案例、人工智慧(AI)安全性與防護。
1.模型
AI 模型根基須建立在提供網路安全需求的知識與功能領域上。具體來說,網路安全性需要高精密準確性的模型,包含網路安全威脅、流程等知識領域。
以Palo Alto Networks 為例,每天處理來自世界各地 SOC 超過 75 TB 的數據,即使 0.01% 的錯誤偵測判斷也可能是災難性,因此我們需要具有豐富知識且安全的高精確度AI,以提供客戶安全需求上的客製化服務。換句話說,這些模型需要執行更少的特定任務,同時具備更高的精確度。
當資訊人員建立出更多垂直產業和特定領域知識的AI模型,且持續深入展開時,May Wang 博士認為2024年以網路安全為中心的大型語言模型(large language model,LLM)即將盛行。
2.應用案例
2024 年,我們將會意識到並非每個應用案例都適合LLM。真正具備能支援 LLM 的網路安全產品,是能夠為企業提高效率、改善生產力、增強可用性、解決現實問題並降低成本。因此,針對特定任務支援 LLM-enabled的網路安全產品與 LLM 的優勢彼此為相輔相成。