ホーム Topics strong ai 強いAIとは
IBMの強力なAIソリューションの詳細はこちら AI関連の最新情報の購読を申し込む
以下の雲、円グラフ、グラフのピクトグラムのコラージュを使用したイラスト
強いAIとは

強い人工知能(AI)は、人工汎用知能(AGI)または汎用AIとも呼ばれ、AI開発の特定の考え方を説明するために使用されるAIの理論的な一形式です。

研究者が「強いAI」を開発できた場合、そのマシンには人間と同等の知能が必要になります。つまり、問題を解決し、学習し、将来を計画する能力を持つ自己認識意識を持つことになります。

強いAIは、人間の心と区別がつかないインテリジェントなマシンを作成することを目指していますが、子ども同様に、入力と経験を通じて学習し、時間の経過とともに能力を継続的に進歩させ、向上させる必要があります。

学界と民間部門の両方でAI研究者が人工汎用知能(AGI)の創出に注力していますが、現時点ではAGIは具体的な現実ではなく理論的な概念としてしか存在していません。人工知能が専門のコンピューター科学者、Marvin Minsky氏のように、AIの分野で数十年で何が達成できるかについて過度に楽観的であると言われる人がいる一方で、強いAIシステムなど開発することすらできないと悲観視している人もいます。知性や理解力などの成功の尺度が明確に定義されるまでは、この悲観的な見方は正しいと思われます。現時点では、多くの人がAIシステムの知能を評価するためにチューリング・テストを使用しています。

データ・リーダー向けのガイド

アプリケーション、分析、生成AIのために適切なデータベースを活用する方法について説明します。

関連コンテンツ

AIデータ・ストアに関する電子ブックに登録する

強いAIのテスト

チューリング・テスト

暗号研究で有名な数学者、
Alan Turing氏は1950年にチューリング・テストを開発し、論文「計算機械と知能」(ibm.com外部へのリンク)でそのテストについて説明しました。もともと模倣ゲームとして知られていたこのテストは、マシンの動作が人間のものと区別できるかどうかを評価するもので、「尋問者」と呼ばれる人物が一連の質問を通じて、コンピューターが生成した出力と人間による答えの違いを特定しようとします。質問者がマシンの回答と被験者の回答を確実に区別できない場合、マシンはテストに合格したとみなされます。一方、評価者が被験者の回答であることを正しく識別できる場合、そのマシンはインテリジェントではないと分類されます。

チューリング・テストには定められた評価ガイドラインはありませんが、チューリングは、人間の評価者が5分後に人間による対話とコンピューターが生成する対話を正しく予測できる確率は70%しかないと結論付けました。チューリング・テストにより、マシン・インテリジェンスという概念が一般に受け入れられるようになりました。

ただし、元々のチューリング・テストでは、テキスト出力やチェスなど1つのスキル・セットのみがテストされます。強いAI はさまざまなタスクを同等に適切に実行する必要があり、これが拡張版チューリング・テストの開発につながりました。このテストでは、AIのテキスト、視覚、聴覚のパフォーマンスを評価し、それを人間の回答と比較します。この拡張版テストは、人間性があることが認められる人工知能に贈られる賞として有名なローブナー賞コンテストで使用され、人間の審査員が、回答が人間によるものか、コンピューターによるものかを推測しています。

中国語の部屋の議論(CRA)


「中国語の部屋」の議論は、1980年にJohn Searle氏によって考案されました。彼は論文の中で理解と思考の定義について議論し、コンピューターでは決してこれができないと主張しています。スタンフォード大学のウェブサイト(ibm.com外部へのリンク)に掲載されている彼の論文の抜粋では、彼の主張がうまく要約されています。

「計算は純粋に形式的または統語的に定義されますが、心は実際の精神的または意味的内容を持ち、統語的操作だけで他に何も持たずに統語的から意味的に到達することはできません(中略)システム「me」を例に挙げると、中国語話者の行動をシミュレートするコンピューター・プログラムを実行するだけでは中国語を理解することはできません(p.17)」。

中国語の部屋の議論では、次のようなシナリオが提案されています。

中国語を話さない人が閉ざされた部屋に座っているところを想像してください。部屋には中国語のルール、フレーズ、説明が書かれた本があります。中国語が堪能な別の人が、中国語で書かれたメモを部屋に渡します。言語フレーズブックの助けを借りて、部屋の中にいる人は適切な返答を選択し、それを中国語を話す人に返すことができます。

部屋の中にいた人は言語会話集を使って正しい返答をすることができましたが、まだ中国語を話したり理解したりしているわけではなく、質問や発言と適切な返答を一致させることで理解しているふりをしていたにすぎません。中国語の部屋の議論を発表した哲学者のSearle氏は、「強い AI」には意識や理解力を持つ実際の心が必要だと主張しています。中国語の部屋の議論は、チューリング・テストの欠陥と人工知能の定義における違いを示しています。

強いAIと弱いAI

弱いAIは、狭義のAIとも呼ばれ、ユーザー入力に基づいて質問に答えたり、チェスをプレイしたりするなど、特定のタスクを実行することに重点を置いています。1種類のタスクは実行できますが、両方は実行できません。一方、強いAIはさまざまな機能を実行でき、最終的には新しい問題を解決する方法を自ら学習します。弱いAIは、学習アルゴリズムのパラメータ0を定義し、正確性を確保するための適切なトレーニング・データを提供する人間の介入に依存しています。人間からの入力は強いAIの成長段階を加速しますが、必須ではなく、時間の経過とともに、弱いAIのように人間のような意識をシミュレートするのではなく、人間のような意識を発達させます。自動運転車や Siri のようなバーチャル・アシスタントは、弱いAIの一例です。

強いAIのトレンド

強力な人工知能の明確な例はありませんが、AIの分野では急速に革新が起きており、人工超知能(ASI)、超知能、またはスーパーAIとして知られる別のAI理論が誕生しました。このタイプのAIは、人間の知能と能力において強いAIを上回ります。しかし、強いAIはまだ実現していないため、スーパーAIはまだ純粋に推測の域を出ていません。

そうは言っても、AIがより重要な役割を果たしている分野は次のようなものがあります。

  • サイバーセキュリティー:人工知能は、侵害の検出、監視、脅威インテリジェンス、インシデント対応、リスク分析など、組織のサイバーセキュリティー対策においてより多くの役割を担うようになるでしょう。
  • エンターテインメントとコンテンツ制作: コンピューター・サイエンスにおけるプログラムは、コピー・ライティング、詩、ビデオゲーム、さらには映画など、コンテンツ制作においてますます優れたものになっています。OpenAI社のGBT-3テキスト生成AIアプリはすでに、人間が書いたコピーと区別することがほぼ不可能なレベルのコンテンツを制作しています。
  • 行動認識と予測: 予測アルゴリズムは、天気や株式市場の予測から、興味深い人間の行動の予測に至るまで、AIを強化します。これにより、暗黙のバイアスやAIの倫理に関する疑問も生じます。AI コミュニティの一部のAI研究者は、一連の差別禁止ルールの制定を推進しており、これは多くの場合、#responsibleAIというハッシュタグに関連付けられています。
強いAI用語と定義

人工知能、機械学習、ディープラーニングという用語は、間違った文脈で使用されることがよくあります。これらの用語は「強いAI」を説明する際に頻繁に使用されるため、各用語を簡単に定義しておきましょう。

人工知能は、計算機科学者兼認知科学者のJohn McCarthy氏(ibm.com外部へのリンク)により、「インテリジェントなマシン、特にインテリジェントなコンピューター・プログラムを作成する科学と工学」定義されています。これは、コンピューターを使用して人間の知能を理解するという同様のタスクに関連していますが、AI は生物学的に観察可能な方法に限定される必要はありません。」

機械学習は人工知能の一分野です。従来の(非深層)機械学習モデルでは、データをカテゴリー別に分類するために(つまり、特徴学習を通じて)より多くの人間の介入が必要になります。

ディープラーニングも機械学習の一分野であり、ニューラル・ネットワークを使用して人間の脳の相互接続性を模倣しようとします。人工ニューラル・ネットワークは、特定のデータセット内のパターンを識別するモデルのレイヤーで構成されています。正確に学習するには大量のトレーニング用データを活用するため、GPUやTPUなどのより強力なハードウェアが必要になります。ディープラーニング・アルゴリズムは、人間レベルのAIと最も密接に関連しています。

これらのテクノロジーの微妙な違いについて詳しくは、「AIと機械学習とディープラーニングとニューラル・ネットワークの違い」をお読みください。

ディープラーニング・アプリケーション

ディープラーニングは複雑な問題をうまく処理できるため、今日、多くの革新的かつ新興のテクノロジーで活用されています。ディープラーニング・アルゴリズムはさまざまな分野に応用されてきました。以下にいくつか例を挙げます。

  • 自動運転車: Google社とイーロン・マスク氏は、自動運転車が実現可能であることを示しました。一方、自動運転車には、優先権の付与や道路上の破片の特定など、考慮すべきさまざまなアクティビティーがあるため、より多くのトレーニング用データとテストが必要になります。技術が成熟するにつれ、多くのドライバーが自動運転を使いたがらないという世論調査結果が出ているため、このテクノロジーは、自動運転の導入という人間的なハードルを乗り越える必要があります。
  • 音声認識: 音声認識は、AIチャットボットバーチャル・アシスタントと同様に、自然言語処理で重要な部分を占めています。音声入力は、背景ノイズ、方言、発話障害、その他の影響など数多くの要因によって、AIが入力をコンピューターが処理できる形式に変換するのがはるかに困難になるため、AIにとって処理が非常に困難になります。
  • パターン認識: ディープ・ニューラル・ネットワークを使用すると、さまざまなアプリケーションでのパターン認識が向上します。AIは、有用なデータ・ポイントのパターンを発見することで、無関係な情報を除外し、有用な相関関係を導き出し、人間が通常見落としがちなビッグデータ計算の効率を向上させることができます。
  • コンピューター・プログラミング: 弱いAIは意味のあるテキストを生成することに成功しており、コーディングの進歩につながっています。つい最近、OpenAI社は、非常に限られた命令でコードや簡単なコンピューター・プログラムを実際に記述し、プログラムの自動開発をもたらすオープンソース・ソフトウェアであるGPT-3をリリースしました。
  • 画像認識:手作業で画像を分類するのは非常に時間がかかります。しかし、ニューラル・ネットワークの各層を他のすべての層に接続するDenseNetなどのディープ・ニューラル・ネットワークの特別な適応により、画像認識の精度がはるかに向上しました。
  • コンテキストに基づく推奨事項: ディープラーニング・アプリケーションは、言語理解パターンや行動予測など、推奨事項を作成する際にさらに多くのコンテキストを考慮できます。
  • ファクト・チェック:カナダのUniversity of Waterloo(ウォータールー大学)は最近、記事内の情報を他のニュース・ソースと比較して検証することでフェイクニュースを検出できるツールをリリースしました。
関連ソリューション
AIチャットボット

watsonx Assistantはビジネス向けのAIチャットボットです。この企業向けAIテクノロジーにより、ユーザーは対話型AIソリューションを構築できます。

AIチャットボットの詳細はこちら
バーチャル・アシスタント

watsonx Assistantは、あらゆるアプリケーション、デバイス、チャネルにわたって、顧客に迅速で一貫性のある的確な回答を提供します。

バーチャル・アシスタントの詳細はこちら
参考情報 AI倫理を今すぐ推進する

AI倫理原則を実践する方法の詳細はこちらをご覧ください。

次のステップ

AIおよびデータの単一のコラボレーティブ・プラットフォームであるIBM watsonxで、ビジネス向けのAI戦略を構築します。AIモデルのトレーニング、検証、チューニング、デプロイを行い、信頼できるデータでビジネス全体にAIのインパクトを拡大して、推進しましょう。

watsonxの詳細はこちら デモの予約