弱い AI (狭い AI または狭い人工知能 (ANI) とも呼ばれる) は、特定のタスクを実行するように訓練され、焦点を当てた AI です。今日私たちを取り巻くほとんどの AI は、弱い AI によって動かされています。このタイプの AI は決して弱いものではないため、「狭い」という表現がより正確かもしれません。これにより、Apple の Siri、Amazon の Alexa、IBM ワトソン、自動運転車などの非常に堅牢なアプリケーションが可能になります。
強力な AI は、汎用人工知能 (AGI) と人工超知能 (ASI) で構成されます。人工一般知能(AGI)、あるいは一般的なAIとは、機械が人間と同等の知能を持ち、問題を解決し、学習し、将来の計画を立てる能力を持つ自意識を持っているAIの理論的な形態である。 超知能としても知られる人工超知能 (ASI) は、人間の脳の知能と能力を超えるでしょう。強力な AI はまだ完全に理論上のものであり、今日使用されている実践例はありませんが、AI 研究者がその開発を検討していないという意味ではありません。それまでの間、ASIの最も良い例はサイエンスフィクションのものかもしれません。たとえば、 2001年の「スペースオデッセイ」の超人的で不正なコンピューターアシスタント、HALなどです。
ディープラーニングと機械学習は同じ意味で使用される傾向があるため、この 2 つの間のニュアンスに注目する価値があります。前述したように、ディープラーニングと機械学習はどちらも人工知能のサブ分野であり、ディープラーニングは実際には機械学習のサブ分野です。
ディープラーニングは実際にはニューラルネットワークで構成されています。ディープ ラーニングの「ディープ」とは、入力と出力を含む 3 つ以上の層で構成されるニューラル ネットワークを指し、ディープ ラーニング アルゴリズムとみなすことができます。これは通常、次の図を使用して表されます。
ディープラーニングと機械学習の違いは、各アルゴリズムの学習方法にあります。ディープラーニングは、プロセスの特徴抽出部分の多くを自動化し、必要な手動介入の一部を排除し、より大きなデータセットの使用を可能にします。レックス・フリッドマン氏が上記の MIT 講義で述べたように、ディープラーニングは「スケーラブルな機械学習」と考えることができます。古典的な、つまり「深くない」機械学習は、学習するために人間の介入に大きく依存します。人間の専門家は、データ入力間の違いを理解するために特徴の階層を決定します。通常、学習にはより構造化されたデータが必要です。
「深い」機械学習は、教師あり学習とも呼ばれるラベル付きデータセットを活用してアルゴリズムに情報を提供できますが、必ずしもラベル付きデータセットを必要とするわけではありません。非構造化データを生のまま取り込むことができる(例えば、以下のような)。 テキスト、画像など)、さまざまなカテゴリのデータを相互に区別する特徴の階層を自動的に決定できます。機械学習とは異なり、データを処理するために人間の介入が必要ないため、より興味深い方法で機械学習を拡張することができます。
生成 AI とは、生データ (たとえば、Wikipedia のすべてやレンブラントのコレクションなど) を取得し、プロンプトに応じて統計的に確率の高い出力を生成するように「学習」できる深層学習モデルを指します。大まかに言うと、ジェネレーティブモデルは単純化されたものをエンコードします
トレーニングデータを表現し、そこから引き出して、似たような新しい作品を作成します。
ただし、元のデータと同じではありません。
生成モデルは、数値データを分析するために統計学の分野で長年使用されてきました。しかし、深層学習の台頭により、深層学習を画像、音声、その他の複雑なデータ型に拡張できるようになりました。このクロスオーバーの偉業を達成した最初のモデルの中に、2013 年に導入された変分オートエンコーダー (VAE) がありました。VAE は、リアルな画像や音声を生成するために広く使用された最初の深層学習モデルです。
「VAEはモデルの拡張を容易にすることで、深い生成モデリングへの門戸を開いた。
と、MIT-IBMワトソンAIラボのジェネレーティブAIの専門家であるアカシュ・スリヴァスタヴァは言う。
「今日、我々がジェネレーティブAIと考えるものの多くは、ここから始まったのです」。
GPT-3、BERT、DALL-E 2 などのモデルの初期の例は、何が可能であるかを示しています。将来は、最小限の微調整でさまざまなタスクに使用できる、ラベルのない広範なデータセットでトレーニングされたモデルになります。単一ドメインで特定のタスクを実行するシステムは、より一般的に学習し、ドメインや問題を超えて機能する広範な AI に取って代わられています。大規模なラベルのないデータセットでトレーニングされ、さまざまなアプリケーション向けに微調整された基盤モデルが、この変化を推進しています。
生成 AI に関しては、基礎モデルが劇的に変化すると予測されています。
企業での AI 導入を加速します。ラベリング要件が軽減されることで
また、高精度で効率的なAI主導の自動化により、より多くの企業がより幅広いミッションクリティカルな場面でAIを導入できるようになるだろう。 IBM にとって、最終的には、摩擦のないハイブリッド クラウド環境において、基礎モデルの力がすべての企業に提供されることが期待されています。
生成AI (ジェネレーティブAI) は、未加工のデータ (例えば、Wikipediaの全文またはレンブラントの作品集) を受け取り、要求されたときに統計的に可能性のある出力を生成するように「学習」できるディープ・ラーニング・モデルを指します。生成モデルは学習データを簡略化した表現をエンコードし、高度なレベルで、元データと似ているが同一ではない新しい作品を作り出します。
生成モデルは、数値データの統計解析においては長年にわたって使用されてきました。しかし、ディープ・ラーニングの台頭により、これらのモデルを画像や音声などの複雑なデータ・タイプに拡張することが可能になりました。このクロスオーバーの偉業を達成した最初のモデルのクラスの一つが、2013年に導入された変分オートエンコーダー (VAE) です。VAEは、現実的な画像や音声の生成に広く使用される最初のディープラーニング・モデルでした。
「VAEは、モデルのスケーリングを容易にすることで、深層生成モデリングの門戸を開きました」と、MIT-IBM Watson AI Labの生成AIの専門家であるAkash Srivastava氏は述べています。「現在の生成AIの多くは、ここから始まったものです」
GPT-3、BERT、DALL-E 2といったモデルの初期の例は、何が可能かを示しました。将来的には、ラベル付けされていない幅広いデータ・セットで学習され、最小限のファイン・チューニングでさまざまなタスクに使用できるモデルが求められます。単一の領域で特定のタスクを実行するシステムは、より汎用的に学習し、課題や分野を横断的に扱うBroad AI (広いAI) に道を譲りつつあります。ラベル付けされていない大規模なデータ・セットでトレーニングされ、さまざまな用途向けに微調整された基盤モデルが、この変化を後押ししています。
生成AIについては、基盤モデルが企業におけるAIの導入を劇的に加速させると予測されています。ラベル付けの負担が軽減されることで企業が参入しやすくなり、高精度で効率的なAI主導の自動化が可能になることで、より多くの企業がより幅広い必要不可欠な業務領域にAIを導入できるようになります。IBMは、基盤モデルのパワーが、「摩擦レス」なハイブリッドクラウド環境の中で、最終的にはすべての企業にもたらされることを予期しています。
AI システムは現在、現実世界で多数利用されています。 最も一般的な例をいくつか以下に挙げます。
「考える機械」という考えは、古代ギリシャにまで遡ります。 しかし、電子計算機の登場以来 (また、この記事で述べられているいくつかのトピックに関連して)、人工知能の進化過程には、以下のような重要な出来事や事件があります。
業界屈指の人工知能(AI)の専門知識とIBM Watsonのソリューション製品群を活用して、大規模かつ信頼できるビジネスのためのAIを構築します。
AIの導入で重要なワークフローと業務を再構築し、エクスペリエンス、意思決定とビジネス価値を最大化します。
AI はサイバーセキュリティのあり方を変え、大量のリスク データを分析して応答時間を短縮し、リソース不足のセキュリティ運用を強化しています。
AI をビジネスに導入することで得られる機会、課題、教訓についての新鮮な洞察を発見してください。
今すぐ個人またはマルチユーザーのデジタル学習サブスクリプションを購入すると、100 を超えるオンライン コースの完全なカタログにアクセスでき、低価格でさまざまな製品にわたってスキルを向上させることができます。
IBM は、2023 年の Gartner® Magic Quadrant™ for Enterprise Conversational AI でリーダーとして再び認められました。