ハーバード大学の研究者は、IBMの支援を受けてインフラストラクチャーの制約を解決しました
責任あるAI研究の最前線で、ハーバード大学ジョン・A・ポールソン工学・応用科学部のCalmon Lab研究室は、AIにおける最も差し迫った課題の1つに取り組んでいました。つまり、大規模言語モデル(LLM)を人間の価値観や安全基準に適合させようとしていました。彼らの研究は、DeepSeek-R1やLlamaといった一般的に使用されるモデルに推論時アラインメント手法を適用し、チェーン・オブ・ソート(CoT)推論の性能を向上させることに焦点を当てていました。
しかし、その進歩はインフラストラクチャーの制限によって妨げられました。ハーバード大学のクラスターは需要過多となっており、最新のモデルを実行するには複数のNVIDIA H100 GPUへのアクセスが必要でした。こうした遅延により、大規模モデルで効率的に実験を行う能力が大きく制限され、研究全体の進展が遅れていました。
毎秒2,000トークンを超える速度で推論を実行
待ち時間のないLLMのトレーニングとデプロイメント
これらのインフラ制約を克服するため、Calmon Lab研究室はIBMと連携しました。IBM Cloudを活用し、セキュアな仮想プライベート・クラウド(VPC)内にNVIDIA HGX H100 GPUを8基搭載したサーバーを2台プロビジョニングしました。各サーバーには640GBのGPUメモリーと2TBの物理メモリーが搭載されています。この構成には、高IOPS(1秒あたりの入出力操作数)ブロック・ストレージ、高速ネットワーク・ファイル共有、そしてシームレスなデータ転送を可能にするIBM Cloud Object Storageが含まれていました。
研究室はRed Hat Enterprise Linux 9、Anacondaプラットフォーム、モデル提供のための仮想大規模言語モデル(vLLM)を使用し、迅速に高性能な環境へ移行しました。1週間以内に、チームは1秒あたり2,000トークンを超える速度で推論を実行し、遅延なくモデルを学習できるようになりました。この変革により、彼らは非生産的な推論経路の特定やモデルのアラインメント技術の改善など、AIの安全性における新たな領域を探求できるようになりました。
この変革により、Calmon Lab研究室はIBM Cloud上の信頼性が高く使いやすいGPUインフラへのアクセスを得て、研究の進展速度が大幅に向上しました。具体的には、次のような成果がありました。
IBMは、拡張性が高く安全かつ高性能なインフラストラクチャーを提供することでCalmon Lab研究室の使命を引き続き支援し、研究者が信頼できるAIの限界に挑戦できるようお手伝いしています。
ハーバード大学は、マサチューセッツ州ケンブリッジに位置する、1636年に創立された名門アイビーリーグ大学です。教育、研究、文化を含むさまざまな分野における卓越した学問的成果と幅広い貢献で高く評価されています。ハーバード大学は多様な学生を受け入れており、学位を授与する12の学部を通じて幅広いプログラムを提供しています。この名門大学はその大きな影響力と豊富なリソースを反映し、世界の大学ランキングで常に上位に位置しています。
© Copyright IBM Corporation 2025.IBM、IBMのロゴ、Granite、watsonx.ai、watsonx.data、watsonx.governance、およびwatsonx Orchestrateは、世界中の多くの国で登録されたIBM Corp.の商標です。
示されている例は、説明のみを目的として提供されています。実際の結果はお客様の設定や条件により異なるため、一般的に期待される結果を提供するものではありません。