2025年のAIトレンド:既に起きたことと今後起きると予想されること

未来的な街並みとデータの可視化を融合させる、眼鏡をかけた思慮深い年配の男性

執筆者

Dave Bergmann

Senior Staff Writer, AI Models

IBM Think

2025年半ばに近づくと、今年のこれまでのAIの傾向を振り返り、今年の残りの期間が何をもたらすかを見据えることができます。

AI開発の幅広さと奥深さを考えると、AIトレンドのまとめが完全に網羅的であることは期待できません。この部分も例外ではありません。私たちは、今年上半期に影響を与えた5つの動向と、今後数カ月で大きな役割を果たすと予想される5つの動向の計10項目に絞り込みました。

既に起きたこと:
  • 推論コストの大幅な削減
  • 推論モデルの合理化
  • デジタル資源の消耗
  • 混合専門家(MoE)モデルの復帰
  • AIを巡る議論だけが先行し、遅れている取り組み
今後起きると予想されること:
  • ベンチマークの飽和と多様化
  • Transformerを超越する技術
  • 組み込み型AI、ロボティクス、世界モデル
  • プライバシーとパーソナライズされたAIの相反
  • AIの同僚と感情への影響

AIのトレンドは、AIモデルやアルゴリズムの進化だけでなく、生成AIの能力が生かされるユースケースの拡大によっても推進されています。モデルがより高性能で多用途かつ効率的になるにつれて、それらが実現するAIアプリケーションやAIツール、その他のAI駆動のワークフローも同様に進化しています。したがって、今日のAIエコシステムがどのように進化しているかを真に理解するには、機械学習のブレークスルーの原因と影響を文脈的に理解することが欠かせません。

本記事では主に、現実世界への影響が数か月以内に現れると考えられる継続中のトレンド、つまり主に2025年に具体的な影響をもたらすトレンドを探ります。もちろん、より長期的でよく知られたAIの取り組みも存在します。例えば、完全自動運転車については最近、米国の一部の都市でロボタクシーの試験運行が開始され、さらにオスロやジュネーブ、中国の16都市でも追加の実証実験が行われるなど、ごく一部の地域で動きが見られますが、広く普及するまでにはまだ数年かかると考えられています。

その他、多くの重要なAIのマクロトレンド――例えばAIエージェントの登場や、検索行動やSEOに対するAIの破壊的影響――は幅広く多面的で、すでに他の場で十分に取り上げられているため、本記事では、まだあまりよく知られていない動向を掘り下げています。

そうは言っても、こうした動向は枚挙にいとまがありません。

ニュースレターを表示しているスマホの画面

The DX Leaders

「The DX Leaders」は日本語でお届けするニュースレターです。AI活用のグローバル・トレンドや日本の市場動向を踏まえたDX、生成AIの最新情報を毎月お届けします。

既に起きたこと

進歩のために、必ずしも新しいアイデアを常に流入させる必要はありません。2025年上半期の最も重要なAIの傾向の多くは、業界が既存の アイデアをどのように適用しているのか、その変化を反映しています。実用的で生産的なものもあれば、そうでないものもあります。

推論コストの劇的な削減

現在のモデルは、過去のモデルと比べて大幅に性能が向上しているだけでなく、運用コストも格段に低くなっています。SemiAnalysis社によるこちらのグラフでは、2年足らずの間に、同等の結果を出すためのMMLUベンチマークにおける1トークンあたりの価格が数十倍も低下したことがわかります。これは、各世代のモデルリリースの性能指標を追いかけている人にとっては、ほとんど驚くべきニュースではありません。しかし、これらを総合的に見ると、絶え間なく加速する性能向上のペースは、すでに高い能力を持つ現代のモデルを単に評価するよりも、生成AIに対する過剰な期待を説明するうえでより説得力を持ちます。

ある研究によると、アルゴリズムの性能向上速度は年間約400%に達していると推定されています。つまり、今日の成果は1年後には計算資源を4分の1に減らして達成できるということです。これは、計算性能の同時的な向上(例:ムーアの法則)や合成トレーニングデータの改善を考慮に入れていない数値です。オリジナルのGPT-4には、約1.8兆パラメーター1があると噂されており、コーディング性能の代表的なベンチマークであるHumanEvalで67%のスコアを達成しました。IBM Granite 3.3 2B Instructは、その2年後にリリースされ、サイズは900分の1に小さくなりながらも、80.5%のスコアを達成しました。2

モデルの経済性の指数関数的な拡大こそが、来るAIエージェントの時代を力強く支えています。大規模言語モデル(LLM)は、性能向上よりも実用性がより早く進んでおり、それにより、多数のモデルが自律的に複雑なタスクの計画、実行、調整を行うマルチエージェント・システムのデプロイメントが可能となっています。しかもそれにより、推論コストが急騰することもありません。

推論モデルの合理化

OpenAIのo1のリリースは、モデル性能を向上させる新たな道を切り開きました。高度な数学やコーディングのベンチマークにおいて、従来の最先端性能を大きく上回る注目すべき改善が、「推論モデル」と呼ばれる分野での競争の火ぶたを切りました。論理的な意思決定を要するタスクにおけるこれらのモデルの高い性能は、エージェント型AIの発展において重要な役割を果たすと考えられています。しかし、AI技術によく見られるように、当初はその性能自体に対する熱狂がありましたが、最近では最も実用的な実装方法を模索する段階に移行しています。

推論モデルの直感的な考え方は、研究によって示されたもので、出力生成に使われるテスト時の計算資源を増やすことが、モデルの学習に使われる訓練時の計算資源を増やすことと同様に性能向上に寄与する可能性があるというものです。この洞察は、最終的なアウトプットに至る前に、より長く複雑な「思考過程」の生成を促進する形でモデルをファイン・チューニングする手法として現れました。この手法群は総称して推論スケーリングと呼ばれています。

しかし、推論スケーリングは、推論のコストとレイテンシーの増加も意味します。ユーザーは、モデルが最終的な応答を「考える」際に生成するすべてのトークンに対して支払い(および待機)をする必要があります。そして、その「考える」ためのトークンは、利用可能なコンテキストウィンドウを消費しつくします。余分な時間とコンピューティングを正当化するユースケースもありますが、リソースの浪費となるシナリオも多数あります。ただし、タスクごと、プロンプトごとに、推論モデルから「標準」モデルに絶えず切り替えるのは現実的ではありません。

今のところ、解決策は「ハイブリッド推論モデル」です。2月にリリースされたIBM Granite 3.2は、トグル可能な「思考モード」を備えた初の大規模言語モデル(LLM)となり、ユーザーが必要に応じて推論機能を活用し、不要な場合は効率性を優先できるようになりました。3同じ2月に、Anthropic社のClaude 3.7 Sonnetもこれに続き、APIユーザーがモデルの「思考」時間を細かく制御できる機能を追加しました。4Google社はGemini 2.5 Flash向けに同様の「思考」モジュール機能を導入しました。5また、Alibaba社のQwen3もIBM Granite同様、思考モードのオン・オフを切り替え可能です。

現在進行中の研究では、推論モデルが「思考」している間に実際に何が起きているのか、また、拡張された思考の連鎖(CoT)推論の過程が結果にどの程度寄与しているのかについて、さらなる理解を深めることが目指されています。4月に発表された論文によると、あるタスクにおいては推論モデルが思考をアウトプットせずとも効果的に機能することが示唆されています。一方、同月初旬に発表されたAnthropic社の研究では、ユーザーに示されるCoTの結果が必ずしもモデルの本当の「思考」を反映していない可能性があると主張されています。

デジタル資源の消耗

AI開発は、WikipediaやGitHubなどのオープンソースのナレッジ・リポジトリの活用に常に大きく依存してきました。その重要性は今後ますます高まるでしょう。特に、大手AI開発者が大量の海賊版書籍でモデルをトレーニングしていたことが明らかになった後、これらの代替ソースの継続的な利用は抑制されるでしょう。オープンソース リソースを運用している組織にとって、この状況はすでに深刻な負担を引き起こしています。

知的財産に関するデータ収集の害(合法・違法・曖昧を問わず)が多くの訴訟を通じて注目を集めている一方で、AIシステムの膨大なデータ需要が知識の蓄積基盤に与える影響には、十分な関心が払われていません。Wikimedia財団が4月のボット・トラフィックに関する発表で述べたように、「コンテンツは無料でも、インフラストラクチャーには費用がかかる」のです。特にWikimedia財団は、生成AIモデルのトレーニングのためにデータを収集するスクレイピング・ボットによる、持続不可能とも言えるほどのウェブトラフィックの急増を経験しています。2024年1月以降、Wikimedia財団のマルチメディア・コンテンツのダウンロードに使用される帯域幅は50%増加しています。

トラフィック量の増加自体も問題ですが、特に有限のリソースに過度な負荷をかけているのは、そのトラフィックの性質にあります。人間の閲覧行動は予測可能であり、トラフィックは人気ページに集中し、論理的なパターンに従うため、帯域幅を効率的に配分するための自動化やキャッシュ戦略が可能です。しかし人間とは異なり、ボットは無差別にあまり知られていないページをクロールするため、データセンターが直接それらに対応せざるを得ないことが多くなっています。これは通常の状況でもコストがかかり非効率的であるだけでなく、インフラストラクチャーが実際の使用急増に対応しなければならない場合には、潜在的に大きな問題を引き起こす可能性があります。

アメリカのオンライン・メディアであるArs Technicaの報告によると、この問題は広範囲に及んでおり、多くの人がボット・クローラーやそれを運営する企業の意図的な搾取行為とみなす行動によって悪化しています。Perplexity社をはじめとする複数の企業は、robots.txtをこっそり回避し、さらにはペイウォールを突破してデータをスクレイピングしていると非難されています。Webサイトがボットのアクセス制限を試みると、ボットは異なるIPアドレスに切り替わり、IDが直接ブロックされると、別のID文字列に切り替える動きを見せます。あるオープンソースのインフラストラクチャー管理者は、自身のネットワークのトラフィックの約25%がChatGPTのボットによるものであることを発見し、それを「まさにインターネット全体へのDDoS攻撃だ」と表現しました

これに対し、多くのプロジェクトが積極的に防御策の検討と実施を進めています。あるオープンソース・プロジェクトであるAnubisは、ボットがアクセスする前に計算パズルを解くことを強制しています。別のプロジェクトであるNepenthesは、AIクローラーを「無限迷路」に誘導します。著名なWebインフラストラクチャーのプロバイダーであるCloudflare社は、最近「AI Labyrinth」と呼ばれる機能を開始しましたが、ここでも同様の手法(ただしやや穏やかなもの)を用いています。Wikimedia財団は、構造的な解決を目指す新たな取り組み「WE5:Responsible Use of Infrastructure」を展開しています。

商業的なAI開発とオープンな知識リポジトリが協力して、双方にとって適切なプロトコルを共同で開発する能力は、AIの未来だけでなく、インターネットの未来そのものに計り知れない影響を与えるでしょう。

混合専門家モデルの復帰

混合専門家(MoE)モデルを支える概念は1991年に遡りますが、Mistral AIが2023年後半にMixtralモデルをリリースするまで、自然言語処理(NLP)や生成AIが主流になることはありませんでした。6このモデルとそのアーキテクチャは大きな注目を集め、OpenAIのGPT-4はリリース時にMoEであると噂されましたが (確認されたことはありません)、業界が従来の「高密度」LLM から焦点を外す動機にはなりませんでした。

DeepSeek-R1の余波でその焦点は変化したようです。DeepSeek-R1と、それを微調整したDeepSeek-V3ベースモデルは、実証済みの計算効率を補完する最先端の性能をMoEモデルが完全に発揮できることを明確に示しました。

スパースMixture of Experts(MoE)モデルへの関心が再燃していることは、Meta Llama 4、AlibabaのQwen3、そしてIBM Granite 4.0をはじめとする次世代モデルの潮流にも明確に表れています。また、OpenAI社やAnthropic社、Google社などが提供する主要なクローズド・モデルの中にはMoEを採用しているものもある可能性がありますが、こうしたクローズド・モデルのアーキテクチャーに関する情報はほとんど公開されていません。

今後数年間で、印象的な性能と能力がますますコモディティー化するにつれて、スパースモデルが提供する推論速度と効率性がより重要な優先事項になると考えられます。

AIを巡る議論だけが先行し、遅れている取り組み

未来の予測は常に困難です。これまでの世代のAIモデルにおける急速な性能向上のペースから、多くの人が2025年にリリースされるモデル群が人工汎用知能(AGI)に向けた意義ある一歩を踏み出すと期待していました。OpenAI社やMeta社など、AI分野で最も資金を集めているプレイヤーの最新モデルは確かに印象的ですが、決して革命的とは言えません

実際の導入に関しては、進捗にばらつきがあります。2023年末に自組織のAI導入の展望に楽観的だった多くのビジネス・リーダーは、2024年に入ってから自組織のITインフラストラクチャーがまだAIのスケールに対応できていないことを痛感しています。

AIアナリストの間でよく言われるのは、AIが日常的な繰り返し作業を引き継ぎ、人間が全体像や創造的な思考に集中する時間を確保するというものです。しかし、これまでのところ、 AIの導入に関するデータは必ずしも現実を反映しているわけではありません。IBM Institute for Business Value(IBV)が実施した調査では、少なくとも小売業界のコンテンツ・サプライチェーンにおいてはその逆の結果が出たことがわかりました。小売業者の88%が「クリエイティブなアイデア創出/コンセプト作成」に生成AIを使用しており、74%が「コンテンツの作成と編集」に使用していると回答しています。一方、日常的な作業のほとんどは依然として人間の領域です。小売業者のうち、チャネル別にコンテンツのバリエーションを生成するために生成AIを使用しているのはわずか23%で、地域別にコンテンツのバリエーションを生成するために使用しているのはわずか10%です。

総じて言えば、組織がAI導入を積極的に追求していないわけではありません。むしろ、新しいIBVレポートが示すように、特にAIエージェントに関しては確実に取り組んでいます。ただし、その進展は単純で直線的なペースではないということです。実験段階から正式な運用段階への移行は、ほとんどの場合スムーズには進みません。

オフィスでミーティングをするビジネスチーム

IBMお客様事例

お客様のビジネス課題(顧客満足度の向上、営業力強化、コスト削減、業務改善、セキュリティー強化、システム運用管理の改善、グローバル展開、社会貢献など)を解決した多岐にわたる事例のご紹介です。

今後起きると予想されること

しかし、2025年後半(および翌年初頭)までには、現在進行中の生成AI時代の初期から続く現状のいくつかの側面に対して、意義ある変革をもたらす基盤が整うでしょう。

AIベンチマークの飽和と多様化

その一方で、根本的なところで、AIの性能を測るための完全なベンチマーク(または一連のベンチマーク)は存在しません。どのベンチマークも、「指標が目標になると、それは良い指標でなくなる」というグッドハートの法則の影響を受けます。それでも、モデル開発や特定のAIソリューションやモデルを選定するビジネス・リーダーにとっては、標準化され透明性のある性能指標を持つことが、適切な比較を促進するうえで有益です。

業界がまとまって最初に「標準」としたベンチマーク群は、Hugging Face社のOpen LLM Leaderboardで使用されているものです。ベンチマークが飽和状態、つまりほとんどのモデルが非常に高い評価スコアを同様に獲得し、差別化が困難になった際、リーダーボードは2024年6月に新たに大幅に難易度の高い評価基準を採用しました。改めて、オープンソース・モデルとクローズド・モデルの双方が、「V2」リーダーボードの評価ベンチマークを用いて性能を評価することにまとまりました。しかし、2025年3月、Hugging Face社はOpen LLM Leaderboardを完全に廃止しました

リーダーボードの廃止と、それが推奨していた標準的なベンチマークからの離脱は、モデルの利用方法や性能評価の多様化によって引き起こされ、またその多様化をさらに促す結果となりました。

  • コーディングや数学など特定の領域に特化したモデルは、より一般的または非ドメインのベンチマークを無視し、そのドメインに関連した評価結果のみを報告するのが最適かもしれません。
  • マルチモーダルAIモデルは、Leaderboardのベンチマークで評価されるテキスト固有のタスクだけでなく、それ以外の部分でも性能を発揮する必要があります。マルチモーダル・モデルの開発者は、何十もの数字で読者を圧倒するのではなく、最も関連性が高く、好ましいと思われる評価を報告することを選択するかもしれません。
  • これらの特定のベンチマーク・データセットは長期間使用されているため、その一部のタスクがモデルのトレーニング・データセットに意図的か非意図的かを問わずリークしている可能性があります。これにより、評価そのものが損なわれることになります。
  • AIの具体的な用途によっては、いくつかのベンチマークは重要ではない場合もあります。例えば、モバイルアプリやシンプルなAIエージェントへのデプロイに最適化されたモデルが、博士号レベルの知識を測定するGPQAで低いスコアを示したとしても、おそらく問題にはなりません。

定量的な評価よりも、人気のあるChatbot Arenaのような、より定性的なモデル比較手法を用いる動きが一部で高まっています。しかし、そうした手法にもやはり欠点があります。最近、著名な学術界およびオープンソースの研究者らによって発表された論文では、Chatbot Arenaにおける、最大規模のモデル提供者に大きく有利となる問題のある慣行がいくつか指摘されています。この論文は、Llama 4のリリース時にMeta社がChatbot Arenaを意図的に操作したという疑惑を受けて発表されたものです。

現実として、最適なベンチマークというものは存在しません。最良の方法は、おそらく各組織が自分たちの関心のあるタスクにおける性能を最も正確に反映する独自のベンチマークを開発することです。企業が従業員をIQテストだけで採用しないのと同様に、モデルを標準化テストの結果だけで選ぶべきではありません。

Transformerを超越する技術

2017年に初めて導入された トランスフォーマー・モデルは、生成AIの時代に大きく貢献しており、画像生成から時系列モデル、LLMまで、あらゆるもののバックボーンとなり続けています。確かに、トランスフォーマーはすぐに消えるわけではありませんが、まもなく新しい仲間が加わることになります。

Transformerには重要な弱点があります。それは、コンテキストの長さに対して計算量が二乗で増加することです。つまり、コンテキスト長が2倍になるたびに、自己注意機構が消費するリソースは2倍ではなく、4倍になります。この「二乗ボトルネック」は、特に長いシーケンスや、長いやり取りの初期の情報を取り込む際に、従来のLLMの速度と効率を本質的に制限する要因となっています。Transformerアーキテクチャーの継続的な最適化によって、より強力な最先端モデルが生まれ続けていますが、そのコストは非常に高騰しています

Mambaは、2023年に初めて発表されたまったく異なるタイプのモデルアーキテクチャーで、正確には状態空間モデルです。LLMの世界において、Transformerにとって初めての本格的な競合となる可能性を秘めています。このアーキテクチャーは、few-shotプロンプティングのようなインコンテキスト学習タスクを除けば、ほとんどの言語モデリングタスクでTransformerに匹敵する性能を示しており、コンテキスト長に対する計算負荷も線形にスケールします。簡単に言えば、Mambaのコンテキストの理解方法は本質的により効率的です。Transformerの自己注意機構はすべてのトークンを参照し、どれに注意を向けるべきかを繰り返し判断する必要がありますが、Mambaの選択機構は重要だと判断したトークンだけを保持します。

トランスフォーマーやMambaに関して言えば、AIの未来はおそらく「どちらか一方」にはならないでしょう。実際、研究によると、両者のハイブリッドは、それぞれ単独で使用するよりも優れていることが示されています。過去1年間には、いくつかのMambaまたはハイブリッドMamba/トランスフォーマー・モデルがリリースされました。Mistral AIのCodestral MambaやAI2Iのハイブリッド Jambaシリーズなどの注目すべき例外はありますが、そのほとんどは学術研究専用モデルです。最近では、IBM Granite 4.0シリーズでトランスフォーマーMamba-2アーキテクチャーのハイブリッドが使用される予定です。

最も重要なのは、Mambaやハイブリッドモデルのハードウェア要件が抑えられている点です。これによりハードウェアコストが大幅に削減され、AIへのアクセスの民主化がさらに進むことが期待されます。

具現化されたAIと世界のモデル

マルチモーダルAIモデルの登場により、LLMはテキストの枠を超えて進化しましたが、次のAI開発の最前線は、そうしたマルチモーダル機能を物理世界へと拡張することを目指しています。

この新興分野は、主に「具現化されたAI」の範疇に分類されます。ベンチャー・キャピタル企業は、Skild AI、Physical Intelligence、1X Technologiesなど、高度な生成AIを活用した人型ロボット工学を追求するスタートアップ企業に資金を注ぎ込むことが増えています。

もう一つの研究の流れとして、言語や画像、動画といったメディアを介して間接的・離散的にではなく、現実世界のインタラクションを直接かつ全体的にモデル化することを目指す「ワールドモデル」に注目が集まっています。スタンフォード大学の教授で、現代のコンピュータービジョンの道を切り開いたImageNetデータセットなどで知られる、AIとコンピューター・ビジョンで世界的に有名なFei-Fei Li氏が率いるスタートアップ、World Labs社は、昨年末に2億3,000万ドルの資金調達を行いました。

この分野の一部の研究機関では、ビデオゲームのような「仮想世界」での実験を進めています。例えば、Google DeepMindのGenie 2は、「操作可能でプレイ可能な3D環境を無限に生成できる基盤的なワールドモデル」とされています。ビデオゲーム業界は、当然ながら、ワールドモデルがもたらす経済的可能性の最初の直接的な恩恵を受ける存在となるかもしれません。

Meta社のチーフAIサイエンティストであり、ディープラーニングの「三大巨匠」7の一人でもあるYann LeCun氏をはじめとする多くの著名なAI専門家は、AGI(汎用人工知能)への真の道はLLMではなく、ワールドモデルであると考えています。Yann LeCun氏は公の場での発言において、AIにおいては複雑な推論は比較的容易に実現できる一方で、幼い子どもでも簡単にこなせる感覚運動や知覚のような単純なタスクの方がはるかに難しいという逆説的な考え方、モラベックのパラドックスにしばしば言及しています。8

このような考え方に基づき、AIをロボットに組み込み、乳児に物事を教えるのと同じような方法でAIに教えることによって、単なる言葉ではなく概念を理解させようとする興味深い研究も進められています。

プライバシーとパーソナライズされたAIの相反

AIエージェントの長期的な可能性は、人間の介入をほとんど、あるいはまったく必要とせずに、複雑で文脈依存のタスクを自律的に遂行できるようになることです。有能な従業員やアシスタントのように、特定の職場や状況における文脈的に複雑なニーズに応じて意思決定をパーソナライズするには、AIエージェントが実際の業務を通じて学習する必要があります。言い換えれば、AIが生成したすべての対話やその結果を堅牢に記録・保持する必要があるということです。

しかし、すべての対話の記録を恒久的に収集・保持することは、特にクラウド上で展開されるクローズドモデル(対して、ローカルで展開されるオープンソースモデル)においては、AIにおけるデジタルプライバシーの根本的な考え方と相反する可能性があります。

例えば、OpenAI社は今年4月、「あなたの人生を通じてあなたを理解するAIシステム」の開発という目標の一環として、ChatGPTがユーザーとのすべての対話を自動的に記憶するようになると発表しました。しかし注目すべき点として、この機能はEU、イギリス、スイス、ノルウェー、アイスランド、リヒテンシュタインでは利用不可となっています。おそらく、これらの地域の既存のプライバシー法やAI規制に抵触する可能性があるためと考えられます。9

モデルが個別の対話内容をすべて保存し、それをモデルのさらなる学習や最適化に利用するという概念が、「忘れられる権利」のようなGDPRの根幹をなす概念と本質的に両立しうるのかどうかは、依然として不透明です。

AIの同僚と感情への影響

確かに、AIの未来、特にAIエージェントの未来は、ますます個人的なものになっていくでしょう。その進展は、技術的あるいは経済的な側面を超えて、心理的な領域にまで影響を及ぼす可能性があります。

2024年後半、Microsoft AI CEOのMustafa Suleyman氏は、同社の目標として「全ての人のためのAIコンパニオンを開発する」とブログ記事で宣言しました。最近のポッドキャストのインタビューで、MetaのCEOであるMark Zuckerberg氏は、国内に蔓延する孤独への解決策として「AIの友達」を提案しました。10 ますます多くのスタートアップ企業がAIの同僚を市場に展開しています

この点には本質的な危険性が伴います。それは主に、人間が初期のチャットボットにさえ感情的に愛着を抱いていたという人間の傾向に起因しています。何百万人もの人々が日々パーソナライズされたチャットボットと対話する中で、AIの同僚に対する感情的な愛着のリスクは、複雑で重大、かつ避けがたいものとなるでしょう。

前進する

人工知能にとって極めて重要な年を迎えるにあたり、新たなトレンドを理解して適応することは、潜在能力を最大限に引き出し、リスクを最小限に抑え、責任を持って生成AIの導入を拡大するために不可欠です。

関連ソリューション
IBM watsonx.ai

AI開発者向けの次世代エンタープライズ・スタジオであるIBM watsonx.aiを使用して、生成AI、基盤モデル、機械学習機能をトレーニング、検証、チューニング、導入しましょう。わずかなデータとわずかな時間でAIアプリケーションを構築できます。

watsonx.aiの詳細はこちら
人工知能ソリューション

IBMの業界をリードするAIの専門知識とソリューションのポートフォリオを活用して、AIをビジネスの業務に利用しましょう。

AIソリューションの詳細はこちら
人工知能(AI)コンサルティングおよびサービス

IBMコンサルティングAIサービスは、企業がAIをトランスフォーメーションに活用する方法を再考するのに役立ちます。

AIサービスの詳細はこちら
次のステップへ

AI開発ライフサイクル全体にわたる機能にワンストップでアクセスできます。使いやすいインターフェース、ワークフロー、業界標準のAPIやSDKを利用して、強力なAIソリューションを構築できます。

watsonx.aiの詳細はこちら デモの予約
脚注

¹ 「GPT-4 architecture, datasets, costs and more leaked」、 The Decoder、2023年7月11日
² 「IBM Granite 3.3 2B model card」、 Hugging Face社、2025年4月16日
³  「Bringing reasoning to Granite」、 IBM、2025年2月7日
⁴ 「Claude 3.7 Sonnet and Claude Code」、 Anthropic社、2025年2月24日
⁵  「Gemini Thinking」、 Google社、2025年。
⁶ 「Adaptive Mixtures of Local Experts」、 『Neural Computation』誌、1991年3月1日
⁷ 「Turing Award 2018: Novel Prize of computing given to 'godfathers of AI'」、 The Verge、2019年3月27日
⁸ @YLeCunによるX(旧Twitter)への投稿、 via XCancel、2024年2月20日
⁹ 「ChatGPT will now remember your old conversations」、 The Verge、2025年4月11日
¹⁰ 「Meta CEO Mark Zuckerberg Envisions a Future Where Your Friends Are AI Chatbots—But Not Everyone Is Convinced」、 『Entrepreneur』、2025年5月8日