IBM Turbonomicによる重要なリソースの節約
人工知能(AI)は重要な転換点節目を迎えており、大規模言語モデル(LLM)のトレーニングは、最も計算負荷の高いタスクの1つです。高性能コンピューティングは、生成AIとLLMワークロードの最適化に不可欠です。あり、グラフィックス・プロセッシング・ユニット(GPU)は高価で不足する可能性があります。GPUは、複雑な数学的計算と並列処理を処理するように設計された特殊なコンピューター・チップで、ディープ・ラーニング・モデルのトレーニング学習と推論処理に必要な複雑な計算に最適です。そのため結果、GPUの需要が高まり、AIの成功にはGPUの使用を最適化を有効活用することが重要です。しかしGPUは高価なため、入手困難でした。
エンジニアリング・チームが生成AIプロジェクトをテストおよび改良するための主要な研究開発環境をサポートするIBM® Big AI Models(BAM)チームは、社内のエンジニアリング・チームが生AIプロジェクトを研究・改善するための研究開発環境を支援しており、GPU活用の改善の機会を見出しました。テスト段階を通過するプロジェクトが増えるにつれて、チームはリソースの無駄遣いを避けるため、に各インスタンスを最適に使用することの重要性を認識しました。
IBM BAMチームは、GPUリソースのを最適化し、とLLM Kubernetesインスタンスのを管理のするために、高度なアプリケーション・リソース管理ソフトウェア・ツールである IBM® Turbonomicを導入しました。リアルタイム・データを使用活用するTurbonomicは、リソースの使用率と効率を最適化するための自動アクションに関するAI主導の推奨事項を生成します。最適なリソース割り当て配分戦略を特定することで、ソリューションはチームが自動的に実行するできるようなに構成できるカスタマイズ可能なされた提案を生成し、AI主導の駆動型リソース最適化を可能に実現しました。
IBM Turbonomicは、コンテナ化されたアプリケーション、バーチャル・仮装マシン、パブリッククラウドを含むなどのハイブリッドクラウド管理のを最適化するために特化して設計された特別にカスタマイズされたIBM社内ソフトウェアで、既存のインフラストラクチャー内でシームレスな統合を実現しています。
AIプラットフォーム研究者のTom Morris氏は「TurbonomicをがLLM推論サーバーのをスケールアップおよびスケールダウンできるように活用することで、パフォーマンスの監視に費やす時間が短縮された」と評価しています。
IBM提携前
IBM提携後
IBM BAMチームは、Turbonomicを活用使用することで、ビジネスの変化し続けるビジネスのニーズに適応し、できる柔軟で俊敏なインフラストラクチャーを構築しました。また、LLMサービスをサポートし、する100台を超える以上のNVIDIA A100 GPUを運用することができました。実行できる、スケーラブルで俊敏なインフラストラクチャーを構築することができました。
チームは、オーバー・プロビジョニングされたインスタンスをスケールダウン縮小することで、アイドル状態のGPUリソースを3から16(5.3倍)に増やし、そこれらのリソースで追加のワークロードを処理できるようにできることを示しました。
成果には以下のとおりです。次のものが含まれます。
IBM BAMチームは、Turbonomicの自動化機能を適用して、LLMサービスの拡張と最適化に成功しました。この改善により、チームは戦略的なプロジェクトに時間を再配分できるようになりました。
IBM Big AI Models(BAM)チームは、IBM® Research 内の研究者とエンジニアで構成されるグループで、大規模なAIモデルの開発と適用に重点を置いています。これらのモデルは、膨大な量のデータを処理および分析するように設計されており、自然言語処理、コンピューター・ビジョン、予測分析などのアプリケーションを可能にします。
© Copyright IBM Corporation 2024 .IBM、IBMのロゴ、Turbonomic、IBM Researchは、米国およびその他の国におけるIBM社の商標または登録商標です。本書は最初の発行日時点における最新情報を記載しており、IBMにより予告なしに変更される場合があります。IBMが事業を展開している国または地域であっても、特定の製品を利用できない場合があります。
引用または説明されているすべての事例は、一部のお客様がIBMの製品を使用し、達成した結果の例として提示されています。他の運用環境における実際のパフォーマンス、コスト、節約、またはその他の成果は異なる場合があります。