閱讀 The Forrester Wave:多模式預測分析與機器學習,2020 年第三季

焦點特色

快速製作原型與部署

利用共用的運算資源儲存區,在任何地方啟動資料科學專案。減少訓練時間並產生品質更高的模型。利用支援批次作業、串流和互動式部署的 API,來橫向擴充企業級訓練與推論服務。

端對端資訊架構

在支援熱門架構的情況下,將深度學習部署為資料與 AI 服務的一部分。在統一的受控管環境中,彙總開放原始碼和第三方工具。

儲存器化基礎架構管理

在 Red Hat® OpenShift® 中原生執行機器學習和深度學習模型。將儲存器化模型部署在防火牆內部,同時將資料保存在內部部署並維護雲端可攜性。

高解析度的大型模型支援

增加 GPU 覆蓋區之外可供深度學習模型使用的記憶體數量。利用更大型且解析度更高的影像,來實作更複雜的模型。

多租戶部署

在多租戶架構中配置與共用根據模型需求進行調整的運算能力。在租戶之間安全地共用您的運算資源,大幅度提高使用。

自動擴充、自動搜尋和負載平衡

根據原則來啟用資源動態擴充大小,以確保用較快的速度執行優先順序較高的工作。建置即時訓練視覺化和執行時期模型監視。自動化超參數搜尋和快速開發優化。

AI 生命週期管理

準備、建置、執行與管理機器學習和深度學習模型。在整個訓練週期中使用更多資料來執行訓練,以利持續改善模型。

部署驗證和優化

利用經過預先編譯與驗證的機器學習和深度學習模型,來提高模型部署的可靠性和復原力。利用針對在目標系統上執行而優化的軟體來促進效能。

具備模型監視的可解釋 AI

管理與監視深度學習模型,範圍從小型到企業層面部署。監視模型的公平性和解釋能力,同時減少模型的漂移和風險。

技術詳細資料

軟體需求

  • Red Hat Openshift 4.5
  • RHEL 7.7
  • CUDA Deep Neural Network (cuDNN) 7.6.5 程式庫
  • NVIDIA CUDA 10.2
  • NVIDIA GPU 驅動程式 440.33.01
  • NVIDIA NCCL2 2.5.6

硬體需求

  • 搭載 NVIDIA Tesla T4、P100 或 V100 GPU 的 x86 64 位元伺服器