強いAIとは
推論、計画、問題解決などの人間の機能を複製するAIの理論的形式である、「強いAI」についてご説明します。
青と黒の背景
強いAIとは

強い 人工知能 (AI)、別名 汎用人工知能(AGI)または汎用AIは、AIの理論上の形態であり、AI開発において特定の考え方を説明するために使用されます。 もし研究者たちが強いAIを開発することができるとしたら、その機械は 人間と同等の知能を必要とし、問題を解決し、学習し、将来の計画を立てる能力を持った、自己認識の意識を持ちます。

強いAIの狙いは、人間の心と 見分けがつかないようなインテリジェント・マシンを作ることです。  しかし、まさに子供のように、AIマシンはインプットや経験を通して学習し、時間をかけて常に進歩し、能力を高めていかなければなりません。

 学術機関や民間のAI研究者たちが、汎用人工知能(AGI)の開発に投資を行っている 一方で、それは現時点では、理論的な概念としてしか存在しておらず、具体的な現実にはいたっていません。 Marvin Minsky氏のように、AI分野で数十年後に達成できることを楽観視しすぎていると言う人もいれば、強いAIシステムは開発すらできないと言う人もいます。 知性や理解力といった成功の尺度が明確に定義されるまでは、彼らのこの信念は正しいのです。 今のところ、多くの人がAIシステムの知能を評価するためにチューリング・テストを使用しています。

強いAIのテスト

チューリング・テスト


Alan Turing氏は1950年に チューリング・テストを開発 し、論文( 「計算する機械と知性」 (英語)(PDF、566KB)(IBM外部へのリンク)でこれについて議論しています。 元々はイミテーション・ゲームとして知られ、機械の行動が人間と区別できるかどうかを評価するテストです。 このテストでは、「質問者」と呼ばれる人が、コンピューターで作成された出力と人間が作成した出力の違いを、一連の質問を通じて見分けます。 質問者が機械と人間の被験者を確実に見分けることができなければ、機械はテストに合格となります。 しかし、評価者が人間の反応を正しく認識できれば、その機械を知能と分類することはできなくなります。

チューリング・テストの評価ガイドラインは定められていませんが、 Turing氏は、人間の評価者が5分後に人間とコンピューターにより生成された会話を正しく見分けられる確率は70%にとどまることを明記しました。 チューリングテストによって、機械の知能という 考え方が一般に受け入れられるようになりました。 

しかし、本来のチューリング・テストでは、テキスト出力やチェスのように、1つのスキル・セットに対してのみテストを行います。 強いAI は、さまざまなタスクを同じようにうまくこなす必要があるため、拡張チューリング・テストが開発されました。 このテストでは、AIのテキスト、視覚、聴覚に関するパフォーマンスを評価し、人間が作成した出力と比較します。 このバージョンは、有名なローブナー・コンテストで使用されており、人間の審査員が出力が人間とコンピューターのどちらによって作られたかを推測します。

中国語の部屋 の議論(CRA)


 中国語の部屋 の議論は John Searle氏 によって1980年に作成されました。 論文の中では、理解すること、考えることの定義を論じ、コンピューターは絶対にこれをできないと断言しています。  スタンフォード大学のウェブサイト (IBM外部へのリンク)にある同氏の論文からの抜粋は、同氏の主張をよく表しています。

「計算は純粋に形式的、構文的に定義されるのに対し、心は実際の精神的、意味的な内容を持っており、構文的な手順だけで、構文的なものから意味的なものを得ることはできません。例えば、私と言うシステムが、中国語を話す人の行動をシミュレートしたコンピューター・プログラムの手順を踏んだだけでは、中国語を理解したことにはなりません(p.17)。」

中国語の部屋の議論は、次のシナリオを提案しています。

中国語を話せない人が、閉ざされた部屋に座っているところを想像してください。 部屋には、中国語のルール、フレーズ、および説明が書かれた本が置いてあります。 別の中国語が堪能な人が、中国語で書かれたメモを部屋の中に渡します。 部屋の中にいる人は、フレーズ集を参考にして、適切な回答を選び、それを中国語話者に返します。

部屋の中の人は、フレーズ集を使って正しい回答をすることができましたが、中国語を話すことも理解することもできません。つまり、質問や文と適切な回答を一致させることで理解のシミュレーションをしたに過ぎません。 Searle氏は、 その強いAI  が意識や理解を持つためには、実際の心が必要であると主張しています。 中国の部屋の議論は、チューリング・テストの欠陥を説明し、 人工知能の定義の違いを示しています。

強いAI対弱いAI

弱いAIは、狭義のAIとしても知られ、ユーザーの入力に基づいて質問に答えたり、チェスをするなど、特定のタスクを実行することに焦点を当てています。 それは1種類のタスクをこなすことはできても、両方をこなすことはできません。一方、強いAIはさまざまな機能を果たすことができ、最終的には新たな問題を解決するために自己学習します。 弱いAIは精度を確保するために、学習アルゴリズムのパラメーターを定義し、関連するトレーニング・データを提供する点で、人間の干渉に依存しています。 人間の入力は強いAIの成長段階を加速させますが、必須ではありません。弱いAIのようにシミュレーションするのではなく、時間の経過とともに人間のような意識を発達させていきます。 自動運転車やSiriのような仮想アシスタントが弱いAIの例です。  

強いAIのトレンド

 強い 人工知能の明確な例はありませんが、AIの分野は急速に革新しています。  人工 超知能 (ASI)、スーパー・インテリジェンスまたはスーパーAIと呼ばれる別のAI理論も登場しています。 このタイプのAIは、強いAIを 人間的な知能 と能力という点で超えています。 しかし、強いAIの例はまだ実現されておらず、スーパーAIはまだ純粋な想像の域を出ません。

そのような中でも、AIがより重要な役割を果たしている分野もあります。

  • サイバーセキュリティ:  人工知能 は、ブリーチ検知、モニタリング、脅威インテリジェンス、インシデント対応、リスク分析など、組織のサイバーセキュリティ対策において、より多くの役割を担うことになるでしょう。
  • エンターテインメントとコンテンツ作成:  コンピューター・サイエンス のプログラムは、コピーライティング、詩、ビデオ・ゲーム、さらには映画などのコンテンツを制作する能力がすでに向上しつつあります。 OpenAIのテキスト生成AIアプリGBT-3は、すでに人間が書いたコピーとの区別がほとんどつかないコンテンツを作成します。
  • 行動認識と予測:  予測アルゴリズムは、天候や株式市場の予測アプリケーションから、さらに興味深いところでは人間の行動の予測まで、AIをより強くします。 このことは、暗黙的な偏見や倫理的なAIに関わる問題も提起しています。 AIコミュニティーの 一部のAI研究者は、差別に反対する一連のルールを推進しており、これはよくハッシュタグ#responsibleAIと関連づけられます。
強いAIの用語と定義

 人工知能、 機械学習 、および ディープ・ラーニング という言葉は、しばしば間違った文脈で使われています。 これらの用語は、強いAIを説明する際に頻繁に使用されるため、それぞれの用語を簡単に定義しておきましょう。

人工知能 は、 John McCarthy氏 (IBM外部へのリンク)によって定義されたもので、「知的なマシン、特に知的なコンピューター・プログラムを作るための科学と工学です。 人間の知能を理解するためにコンピューターを使用するといった作業に関連するものですが、AIは必ずしも生物学的に観察可能な方法に自己を限定しません。」

機械学習 は人工知能の一分野です。 従来の(ディープ・ラーニングでない)機械学習モデルは、データをカテゴリーごとに分類するために、人間がより多く干渉する必要がありました。

ディープ・ラーニング は機械学習の一分野でもあり、ニューラル・ネットワークを用いて人間の脳の相互接続性を模倣しようとするものです。 その人工ニューラル・ネットワークは、何層ものモデルで構成されており、与えられたデータ・セット内のパターンを識別します。 正確な学習を行うためには大量の訓練データが必要であり、それに伴いGPUやTPUなどの強力なハードウェアが必要になります。 ディープ・ラーニング・アルゴリズムは、人間レベルのAIと最も強く関連しています。    

これらの 技術の微妙な違いについては、「AI vs. Machine Learning vs. Deep Learning vs. Neural Networks: What's the Difference?」をお読みください。

ディープ・ラーニング・アプリケーション

ディープ・ラーニングは、複雑な 問題をうまく扱うことができ、その結果、今日の多くの革新的な新技術に活用されています。 ディープ・ラーニング・アルゴリズムはさまざまな分野で応用されています。 いくつか例をご紹介します。

  • 自動運転車:  Google社 と Elon Musk氏 が 自動運転車 が可能であることを示しました。 しかし、自動運転車は、優先路線の車両に道を譲ったり、道路上のゴミを識別したりするなど、さまざまな活動を考慮する必要があるため、より多くの訓練データとテストが必要です。 テクノロジーが成熟してくると同時に、人間に採用されるというハードルを越える必要が出てきます。世論調査によると、多くのドライバーがテクノロジーを使いたがらないためです。
  • 音声認識:  AIチャットボット や 仮想エージェントなどの音声認識は 自然言語 処理における重要な要素です。 音声入力はAIにとって処理が非常に難しいものです。背景の雑音、方言、発話障害などのさまざまな要因やそれ以外の影響も受け、AIが入力をコンピューターが処理できるように変換するのが非常に難しいためです。
  • パターン認識:  ディープ・ニューラル・ネットワークを使用することで、さまざまなアプリケーションにおけるパターン認識が改善されます。 AIは、有用なデータ・ポイントのパターンを発見することで、人間では通常見落としてしまうような、無関係な情報をフィルタリングしたり、有用な相関関係を導き出したり、ビッグデータの処理を効率化することができます。
  • コンピューター・プログラミング:  弱いAI は、意味のあるテキストを作り出すことに成功し、コーディングにおける進歩につながっています。 つい最近、OpenAIは、非常に限られた指示で実際にコードや簡単な コンピューター・プログラム を書くことができ、プログラム開発に自動化をもたらすオープン・ソース・ソフトウェアGPT-3をリリースしました。
  • 画像認識:  画像の分類は、手動で行うと非常に時間がかかります。 しかし、ニューラル・ネットワークの各層を他の各層と接続するDenseNetなど、ディープ・ニューラル・ネットワークを特別に採用することで、画像認識の精度が格段に向上しました。
  • 文脈を踏まえた推奨:  ディープ・ラーニング ・アプリが、 言語理解 のパターンや行動予測など、より多くの文脈を考慮して推奨を行うことができます。
  • ファクト・チェック:  Waterloo大学が最近、記事の情報を他のニュース・ソースと比較して検証することで、フェイク・ニュースを検出できるツールを発表しました。
関連ソリューション
AIチャット・ボット

Watson Assistantは、ビジネス向けのAIチャットボットです。 このエンタープライズ向け人工知能テクノロジーにより、ユーザーは会話型AIソリューションを構築できます。

AIチャットボットの詳細はこちら
仮想エージェント

IBM Watson Assistantは、あらゆるアプリケーション、デバイス、チャネルにわたって、迅速で一貫性のある正確な回答を顧客に提供します。

仮想エージェントを探す
参考情報 今日のAI倫理の進歩

AI倫理原則を実践する方法の詳細を読む。

詳細情報はこちら

IBMは、エンタープライズ向けのAI主導型先進テクノロジーをリードしてきました。また、さまざまな業界向けに機械学習システムの未来を切り開いてきています。

IBM Watson®の詳細はこちら