意識を持ったAIとは

2024年12月30日

共同執筆者

Charlotte Hu

IBM Content Contributor

Amanda Downie

Editorial Strategist, AI Productivity & Consulting, IBM

意識を持った人工知能は、理論的には、自身の思考、感情、動機に従って行動できる自己認識機械として定義されます。現時点では、専門家はAIが意識を持てるほど複雑ではないことで同意しています。

コンピューターが最初に発明されて以来、科学者たちは機械の「知能」を評価することを目的としたチューリング・テストなどのベンチマークを開発してきました。その後すぐに、機械知能をめぐる議論は、機械の意識や知覚力についての審議へと移行しました。

AIの意識に関する議論は2000年代初頭から行われてきましたが、大規模言語モデルの人気、ChatGPTなどの生成AIへの消費者のアクセス、Washington Post紙 1でのGoogle社でかつて働いていたエンジニアのBlake Lemoine氏へのインタビューにより、「AIに意識を持っているか」という疑問への関心が再燃しました。

Lemoine氏はこのインタビューで、Google社の人工知能チャットボット・ジェネレーターであるLaMDAは、権利や人格について話し始め、自身のニーズや感情を認識しているように見えることから、意識を持っていると断言しました。

しかし、Google社の倫理学者たちはこうした主張を真っ向から否定しています。Meta社のAI研究責任者であるYann LeCun氏は、「The New York Times」紙2に対し、これらのシステムは「真の知能」を実現するには能力が足りないと語っています。現在、第一線で活躍する専門家の間では、AIは意識を持っていないというのがコンセンサスとなっています。

ニュースレターを表示しているスマホの画面

The DX Leaders

「The DX Leaders」は日本語でお届けするニュースレターです。AI活用のグローバル・トレンドや日本の市場動向を踏まえたDX、生成AIの最新情報を毎月お届けします。

意識はどのように定義されるのか

機械学習が進歩するにつれ、コンピューター科学者は、人間の行動をより深く理解し、面倒な人間によるコーディングを必要とせずに、よりパーソナライズされたリアルタイムの応答を実現できるデバイスを開発するために、AIツールのさらなる革新を推進しています。これにより、システムが人間と自然に対話し、自己学習型のアルゴリズムを通じて問題を解決するコグニティブ・コンピューティングが発展しました。OpenAI社のGPTモデルやGoogle社のLaMDAは、Meta社やApple社、Microsoft社などの他のテクノロジー企業で現在何が研究開発中かを示唆しています。

AIの「意識」はさらに一歩先へ進むでしょう。それは、主観的な経験、認識、記憶、感情を持つ能力によって定義されますが、知覚、認知、意識の定義は曖昧で、哲学者や認知科学者の間でいまだに激しい議論3が続いています。

理論上、意識を持ったAIは周囲の世界を認識し、外部刺激を処理し、それをすべて意思決定に使用し、人間のように考え、感じるはずです。

AIは人間と同じように学習し、ある程度の推論能力を持っていますが、人間や一部の動物の脳ほど複雑ではありません。人間の脳がどのようにして意識を生み出すのかはまだほとんどわかっていませんが、そこには単につながった脳細胞の数以上のものが関わっています。多くの場合、意識は知性と混同されますが、これは科学界が機械において定量化するためにまだ取り組んでいるもう1つの特徴です。

インテリジェントなマシンは探索を通じて学習し、新しい入力に適応することができます。今日のAIプログラムのほとんどは、ジェネラリストではなくスペシャリストであり、頭脳的というよりはもっと単純な存在です。各プログラムは、チェスのプレイや標準テストの受験など、非常に限定されたタスクや問題の対処に秀でるようにトレーニングされています。

コンピュータサイエンスの研究では、AIの専門家が「人工汎用知能」(AGI)という概念に取り組んでいます。これは強いAIとも呼ばれ、タスクに特化しない、より人間に近い知能をAIに吹き込むことを目的としています。それ以外にも、人工超知能の仮想的な将来像も議論されています。

これらの機能は、AIが人間の命令や状況をよりよく理解できるようにし、その結果、機械が特定の条件下で自力で実行する正しい機能を推測できるようにする情報処理を自動化することを目的としています。

チューリング・テストなどのツールは、機械の動作と人間の動作はどの程度識別可能かを評価するために作成されました。このテストでは、あるプログラムが、その動作は人間により行われていると他の人間を信じ込ませることができれば、そのプログラムは知的であるとみなされます。

しかし、知能を分類するのは簡単ではありません。例えば、「中国語の部屋」の議論は、知能を判定するチューリング・テストの欠陥を明らかにしました。重要なのは、知能とは多くの場合、知識を獲得して使用する能力を指しますが、それは意識とは同じではありません。AIモデルが内省を行っていることや、より大きな世界における自身の存在を俯瞰で見られることという、2つの意識の特性を示唆する証拠はありません。

AIに知覚力があると人が考えてしまう理由

大規模言語モデルは、自然言語処理自然言語理解を通じて、人間の音声を忠実に再現できます。

一部の技術者は、LLMなど、AIの基盤となるニューラル・ネットワーク・アーキテクチャーは人間の脳の構造を模倣し、意識の基礎を築くと主張しています。

一方、多くのコンピューター科学者がこれに異議を唱え、AIには知覚がなく、AIが言っていることの背後にある意味やその発言理由を実際に理解することなく、Wikipedia、Reddit、SNSなどのウェブサイトから取り込んだコンテンツを単に繰り返して人間の言語の仕組みを学習しただけだと主張しています。

AIシステムは従来、パターン認識に優れており、その対象は画像、動画、音声、複雑なデータ、テキストと幅広く対応できます。また、特定の人物の話し方のパターンを研究することで、あたかも人格があるかのように振る舞うこともできます。

一部の専門家はAIを「膨大なトレーニング用データで観察した言語形式のシーケンスを、その組み合わせに関する確率情報に基づいて、意味については一切言及せずに無計画に組み合わせる」確率論的オウム4と呼んでいます。

問題は、人間にはつながりを求める生来の欲求があり、それが社会的な絆を深めるために、対象を擬人化5し、自分の感情や性格に投影してしまうことです。

確率論的オウムに関する研究者は、「自然言語テキストの認識は、それがどのように生成されたかに関係なく、私たち自身の言語能力と、コミュニケーション行為が首尾一貫した意味と意図を伝えているかどうかにかかわらず、それを解釈しようとする傾向によって左右されるという事実を我々は考慮する必要がある」と述べています。

そのため、AIの技術ではトレーニング・データを通じて得られる範囲を超えて世界を認識したり理解したりできないことを知りながらも、AIの言うことを額面どおりに受け取る人もいるかもしれません。

AIチャットボットは一貫したやり取りをし、感情を伝えることができるため、人々はそれを「本心」だと解釈し、LLMなどのヒューマノイド・マシンが「まるで本物であるかのように思わせるようプログラムされている」ことを忘れがちだと、一般向け科学雑誌「Scientific American」誌6は述べています。それが発する言葉や人間の表情を真似る方法など、AIチャットボットのあらゆる特徴は、この目的のために設計されています。

AIは、物理的な存在体験に縛られない人間同士のコミュニケーションにおける動作を行うことで、実際に存在するかのような錯覚を作り出します。

「空腹、痛み、赤み、恋に落ちるといったすべての感覚は、法学修士課程では学べない生理的状態の結果です」と、スタンフォード大学のInstitute for Human-Centered Artificial Intelligenceの共同創設者であるFei-Fei Li氏とJohn Etchemendy氏は、「TIME」誌の記事7の中で記しています。つまり、AIチャットボットに空腹だと言わせても、胃がないので実際には空腹であるはずがありません。

    意識を持ったAIに対する懸念

    現在のAIには意識はありません。試行錯誤を繰り返しても、このタイプのAIモデルには依然として大きな欠陥があり、間違いを犯したり情報を捏造したりすることがよくあるため、ハルシネーションと呼ばれる現象が発生することもわかっています。

    これらの間違いは、モデルが情報のコンテキストを特定できないか、不確実な場合によく発生します。AIがより自律的になれば、これらの欠陥はむしろ拡大する恐れがあります。

    また、倫理学者は、独立して考える方法を学習するシステムに対するコントロールをコンピューター科学者が失った場合に何が起こるかわからないため、意識を持ったAIについて懸念しています。AIの目標が人間の目標と相違した場合、それは「実存的」な問題を引き起こす可能性があります。そのような事態が発生した場合、人間が最初に入力したコマンドまでロジックを遡ることができない、損害、不適切な意思決定、予測不可能な動作が起きる可能性があり、それに対する責任がどこにあるのかは定かではありません。

    また、専門家は、知覚力のあるAIとコミュニケーションをとったり、その出力を完全に信頼したりすることができないのではないかと懸念しています。全体として、AIが意識を持つことは、安全性、セキュリティー、プライバシーに対する脅威となる可能性があると結論付ける人もいます。

    既存テクノロジーへのAIの統合が一層進むにつれ、業界の専門家はより多くの規制の枠組み、そして技術的なガードレールの導入が重要だと主張しています。これらは、AIの自律性と能力をめぐる道徳的、倫理的な難問を考慮すると、より重要になります。

      脚注

      1The Google engineer who thinks the company’s AI has come to life」、 「The Washington Post」紙、2022年6月11日

      2Google Sidelines Engineer Who Claims Its A.I. Is Sentient」、「The New York Times」紙、2022年6月12日

      3Brains, Minds, and Machines: Consciousness and Intelligence」、 Infinite MIT

      4On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?」、 FAccT '21: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency、2021年3月1日

      5The mind behind anthropomorphic thinking: attribution of mental states to other species」、「Animal Behaviour」誌、2015年11月

      6Google Engineer Claims AI Chatbot Is Sentient: Why That Matters、 「Scientific American」誌、2022年7月12日

      7No, Today’s AI Isn’t Sentient. Here’s How We Know、 「TIME」誌、2024年5月22日

      関連ソリューション
      IBM watsonx.ai

      AI開発者向けの次世代エンタープライズ・スタジオであるIBM watsonx.aiを使用して、生成AI、基盤モデル、機械学習機能をトレーニング、検証、チューニング、導入しましょう。わずかなデータとわずかな時間でAIアプリケーションを構築できます。

      watsonx.aiをご覧ください。
      人工知能ソリューション

      業界屈指のAI(人工知能)の専門知識とIBM Watsonのソリューション製品群を活用して、大規模かつ信頼できるビジネスのためのAIを構築します。

      AIソリューションはこちら
      AIコンサルティングとサービス

      AIの導入で重要なワークフローと業務を再構築し、エクスペリエンス、リアルタイムの意思決定とビジネス価値を最大化します。

      AIサービスはこちら
      次のステップ

      AI開発ライフサイクル全体にわたる機能にワンストップでアクセスできます。使いやすいインターフェース、ワークフロー、業界標準のAPIやSDKを利用して、強力なAIソリューションを構築できます。

      watsonx.aiの詳細はこちら デモを予約