領先開放原始碼解決方案供應商 Red Hat 近日宣布與 Intel 合作,驅動 Red Hat OpenShift AI 上的企業 AI 應用。雙方將共同促進在 Intel AI 產品上交付端到端 AI 解決方案,包含 Intel® Gaudi® AI 加速器、Intel® Xeon® 處理器、Intel® Core™ Ultra 和 Core™ 處理器,與 Intel® Arc™ GPU,以在混合雲基礎架構上更無縫地進行模型開發與訓練、模型服務、管理和監控。
Red Hat 技術長暨全球工程資深副總裁 Chris Wright 表示:「企業需要敏捷且強大的解決方案,以跟上目前 AI 領域驚人的速度發展。結合 Red Hat OpenShift AI 以及 Intel AI 產品組合的廣泛和效能,為企業提供極具吸引力的解決方案,加速其 AI 旅程並解鎖全新可能。」
Intel 執行副總裁暨資料中心與 AI 解決方案總經理 Justin Hotard 指出:「Red Hat 與 Intel 共同致力於協助企業基於開放生態系和標準,開發與釋放可擴張且更安全的 AI 系統全面潛能。Intel 的 AI 技術有助於降低與 AI 工作負載相關的複雜性以及提升效能,賦能企業更快地創新並實現 AI 目標。」
企業需整合多家供應商硬體和軟體之靈活、可擴展且具韌性的 AI 基礎架構,以在維護既有系統之成本與導入新解決方案成本之間取得平衡。Red Hat 和 Intel 正在透過混合雲方法來滿足這些需求,其中,AI 堆疊不再受限於單一雲端或單一資料中心。企業得以藉由混合雲策略實現從資料中心至雲端到邊緣的互通性,同時提升 AI 工作負載的可攜性,以在任何需要的地方建置、執行並部署 AI 工作負載。
Red Hat OpenShift AI 為 AI 應用程式在雲端到邊緣的所有環境中,提供更為一致的基準,並替 Intel AI 產品提供簡化的支援。Intel 針對企業的全面產品組合包括 Intel 的 AI 硬體和軟體產品。在資料中心,Intel® Gaudi® AI 加速器、內建 Intel® Advanced Matrix Extensions(AMX)的 Intel® Xeon® 處理器,以及 Intel® Infrastructure Processing Units(IPU)可滿足多種 AI 應用情境,包含生成式 AI(GenAI)訓練、微調、檢索增強生成(retrieval augmented generation,RAG)、推論,和使用 Intel® Trust Domain Extensions(TDX)保護使用中資料的機密 AI;在邊緣端,Intel 支援在基於 Intel® Core™ Ultra、Intel Xeon® 處理器和 Intel Arc™ GPU 的平台之本地執行大型語言模型(LLM)。Red Hat 正在與 Intel 合作,於 Red Hat OpenShift AI 認證其硬體解決方案,以確保互通性並實現全方位的 AI 功能。
此外,Intel 還提供一系列豐富的可擴展開源和商業軟體,這些軟體可開箱即用,並可與 Red Hat OpenShift AI 整合且具互通性驗證,以確保能在 IT 環境中無縫運行;支援的軟體包括 Intel® Tiber™ Edge 平台(含 Intel®OpenVINO™)、Intel®Tiber™ AI Studio 和 oneAPI AI 工具。符合條件的客戶可透過 Intel® Tiber™ Developer Cloud 申請使用 Intel® Gaudi® AI 加速器。
Red Hat 和 Intel 之於 AI 創新的開源方法,賦能企業在其選擇的平台上隨處部署,不僅加速產品的上市時間,更提供具大規模部署成本效益之無所不在的 AI 建置模組。透過此次合作,Red Hat 和 Intel 匯集了各自生態系的力量,涵蓋領先解決方案供應商、軟體廠商、設備製造商等,借助 Red Hat OpenShift AI 進一步擴充與建置 Intel® AI 產品的 AI 功能、解決方案和服務。