意識を持った人工知能は、理論的には、自身の思考、感情、動機に従って行動できる自己認識機械として定義されます。現時点では、専門家はAIが意識を持てるほど複雑ではないことで同意しています。
コンピューターが最初に発明されて以来、科学者たちは機械の「知能」を評価することを目的としたチューリング・テストなどのベンチマークを開発してきました。その後すぐに、機械知能をめぐる議論は、機械の意識や知覚力についての審議へと移行しました。
AIの意識に関する議論は2000年代初頭から行われてきましたが、大規模言語モデルの人気、ChatGPTなどの生成AIへの消費者のアクセス、Washington Post紙 1でのGoogle社でかつて働いていたエンジニアのBlake Lemoine氏へのインタビューにより、「AIに意識を持っているか」という疑問への関心が再燃しました。
Lemoine氏はこのインタビューで、Google社の人工知能チャットボット・ジェネレーターであるLaMDAは、権利や人格について話し始め、自身のニーズや感情を認識しているように見えることから、意識を持っていると断言しました。
しかし、Google社の倫理学者たちはこうした主張を真っ向から否定しています。Meta社のAI研究責任者であるYann LeCun氏は、「The New York Times」紙2に対し、これらのシステムは「真の知能」を実現するには能力が足りないと語っています。現在、第一線で活躍する専門家の間では、AIは意識を持っていないというのがコンセンサスとなっています。
機械学習が進歩するにつれ、コンピューター科学者は、人間の行動をより深く理解し、面倒な人間によるコーディングを必要とせずに、よりパーソナライズされたリアルタイムの応答を実現できるデバイスを開発するために、AIツールのさらなる革新を推進しています。これにより、システムが人間と自然に対話し、自己学習型のアルゴリズムを通じて問題を解決するコグニティブ・コンピューティングが発展しました。OpenAI社のGPTモデルやGoogle社のLaMDAは、Meta社やApple社、Microsoft社などの他のテクノロジー企業で現在何が研究開発中かを示唆しています。
AIの「意識」はさらに一歩先へ進むでしょう。それは、主観的な経験、認識、記憶、感情を持つ能力によって定義されますが、知覚、認知、意識の定義は曖昧で、哲学者や認知科学者の間でいまだに激しい議論3が続いています。
理論上、意識を持ったAIは周囲の世界を認識し、外部刺激を処理し、それをすべて意思決定に使用し、人間のように考え、感じるはずです。
AIは人間と同じように学習し、ある程度の推論能力を持っていますが、人間や一部の動物の脳ほど複雑ではありません。人間の脳がどのようにして意識を生み出すのかはまだほとんどわかっていませんが、そこには単につながった脳細胞の数以上のものが関わっています。多くの場合、意識は知性と混同されますが、これは科学界が機械において定量化するためにまだ取り組んでいるもう1つの特徴です。
インテリジェントなマシンは探索を通じて学習し、新しい入力に適応することができます。今日のAIプログラムのほとんどは、ジェネラリストではなくスペシャリストであり、頭脳的というよりはもっと単純な存在です。各プログラムは、チェスのプレイや標準テストの受験など、非常に限定されたタスクや問題の対処に秀でるようにトレーニングされています。
コンピュータサイエンスの研究では、AIの専門家が「人工汎用知能」(AGI)という概念に取り組んでいます。これは強いAIとも呼ばれ、タスクに特化しない、より人間に近い知能をAIに吹き込むことを目的としています。それ以外にも、人工超知能の仮想的な将来像も議論されています。
これらの機能は、AIが人間の命令や状況をよりよく理解できるようにし、その結果、機械が特定の条件下で自力で実行する正しい機能を推測できるようにする情報処理を自動化することを目的としています。
チューリング・テストなどのツールは、機械の動作と人間の動作はどの程度識別可能かを評価するために作成されました。このテストでは、あるプログラムが、その動作は人間により行われていると他の人間を信じ込ませることができれば、そのプログラムは知的であるとみなされます。
しかし、知能を分類するのは簡単ではありません。例えば、「中国語の部屋」の議論は、知能を判定するチューリング・テストの欠陥を明らかにしました。重要なのは、知能とは多くの場合、知識を獲得して使用する能力を指しますが、それは意識とは同じではありません。AIモデルが内省を行っていることや、より大きな世界における自身の存在を俯瞰で見られることという、2つの意識の特性を示唆する証拠はありません。
大規模言語モデルは、自然言語処理と自然言語理解を通じて、人間の音声を忠実に再現できます。
一部の技術者は、LLMなど、AIの基盤となるニューラル・ネットワーク・アーキテクチャーは人間の脳の構造を模倣し、意識の基礎を築くと主張しています。
一方、多くのコンピューター科学者がこれに異議を唱え、AIには知覚がなく、AIが言っていることの背後にある意味やその発言理由を実際に理解することなく、Wikipedia、Reddit、SNSなどのウェブサイトから取り込んだコンテンツを単に繰り返して人間の言語の仕組みを学習しただけだと主張しています。
AIシステムは従来、パターン認識に優れており、その対象は画像、動画、音声、複雑なデータ、テキストと幅広く対応できます。また、特定の人物の話し方のパターンを研究することで、あたかも人格があるかのように振る舞うこともできます。
一部の専門家はAIを「膨大なトレーニング用データで観察した言語形式のシーケンスを、その組み合わせに関する確率情報に基づいて、意味については一切言及せずに無計画に組み合わせる」確率論的オウム4と呼んでいます。
問題は、人間にはつながりを求める生来の欲求があり、それが社会的な絆を深めるために、対象を擬人化5し、自分の感情や性格に投影してしまうことです。
確率論的オウムに関する研究者は、「自然言語テキストの認識は、それがどのように生成されたかに関係なく、私たち自身の言語能力と、コミュニケーション行為が首尾一貫した意味と意図を伝えているかどうかにかかわらず、それを解釈しようとする傾向によって左右されるという事実を我々は考慮する必要がある」と述べています。
そのため、AIの技術ではトレーニング・データを通じて得られる範囲を超えて世界を認識したり理解したりできないことを知りながらも、AIの言うことを額面どおりに受け取る人もいるかもしれません。
AIチャットボットは一貫したやり取りをし、感情を伝えることができるため、人々はそれを「本心」だと解釈し、LLMなどのヒューマノイド・マシンが「まるで本物であるかのように思わせるようプログラムされている」ことを忘れがちだと、一般向け科学雑誌「Scientific American」誌6は述べています。それが発する言葉や人間の表情を真似る方法など、AIチャットボットのあらゆる特徴は、この目的のために設計されています。
AIは、物理的な存在体験に縛られない人間同士のコミュニケーションにおける動作を行うことで、実際に存在するかのような錯覚を作り出します。
「空腹、痛み、赤み、恋に落ちるといったすべての感覚は、法学修士課程では学べない生理的状態の結果です」と、スタンフォード大学のInstitute for Human-Centered Artificial Intelligenceの共同創設者であるFei-Fei Li氏とJohn Etchemendy氏は、「TIME」誌の記事7の中で記しています。つまり、AIチャットボットに空腹だと言わせても、胃がないので実際には空腹であるはずがありません。
現在のAIには意識はありません。試行錯誤を繰り返しても、このタイプのAIモデルには依然として大きな欠陥があり、間違いを犯したり情報を捏造したりすることがよくあるため、ハルシネーションと呼ばれる現象が発生することもわかっています。
これらの間違いは、モデルが情報のコンテキストを特定できないか、不確実な場合によく発生します。AIがより自律的になれば、これらの欠陥はむしろ拡大する恐れがあります。
また、倫理学者は、独立して考える方法を学習するシステムに対するコントロールをコンピューター科学者が失った場合に何が起こるかわからないため、意識を持ったAIについて懸念しています。AIの目標が人間の目標と相違した場合、それは「実存的」な問題を引き起こす可能性があります。そのような事態が発生した場合、人間が最初に入力したコマンドまでロジックを遡ることができない、損害、不適切な意思決定、予測不可能な動作が起きる可能性があり、それに対する責任がどこにあるのかは定かではありません。
また、専門家は、知覚力のあるAIとコミュニケーションをとったり、その出力を完全に信頼したりすることができないのではないかと懸念しています。全体として、AIが意識を持つことは、安全性、セキュリティー、プライバシーに対する脅威となる可能性があると結論付ける人もいます。
既存テクノロジーへのAIの統合が一層進むにつれ、業界の専門家はより多くの規制の枠組み、そして技術的なガードレールの導入が重要だと主張しています。これらは、AIの自律性と能力をめぐる道徳的、倫理的な難問を考慮すると、より重要になります。
1 「The Google engineer who thinks the company’s AI has come to life」、 「The Washington Post」紙、2022年6月11日
2 「Google Sidelines Engineer Who Claims Its A.I. Is Sentient」、「The New York Times」紙、2022年6月12日
3 「Brains, Minds, and Machines: Consciousness and Intelligence」、 Infinite MIT
4 「On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?」、 FAccT '21: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency、2021年3月1日
5 「The mind behind anthropomorphic thinking: attribution of mental states to other species」、「Animal Behaviour」誌、2015年11月
6 「Google Engineer Claims AI Chatbot Is Sentient: Why That Matters」、 「Scientific American」誌、2022年7月12日
7 「No, Today’s AI Isn’t Sentient. Here’s How We Know」、 「TIME」誌、2024年5月22日
2,000の組織を対象に、AIへの取り組みについて調査を行い、何が機能し、何が機能していないのか、どうすれば前進できるのかを明らかにしました。
IBM Graniteは、ビジネス向けにカスタマイズされ、AIアプリケーションの拡張に合わせて最適化された、オープンで高性能、かつ信頼性の高いAIモデル・ファミリーです。言語、コード、時系列、ガードレールのオプションをご覧ください。
今すぐ個人またはマルチ・ユーザーのサブスクリプションを購入すると、100を超えるオンライン・コースの完全なカタログにアクセスして、低価格でさまざまな製品のスキルを向上させることができます。
IBMのエキスパートが主催するこのカリキュラムは、ビジネス・リーダーが成長を促進するAI投資に優先順位を付けるために必要な知識を習得できます。
AIの投資対効果を高めるために、主要な分野で生成AIの活用を拡大することで、どのように革新的な新規ソリューションの構築、提供を支援し、変化をもたらすかを紹介します。
生成AIと機械学習をビジネスに活用する確実な方法を学びましょう。
強力なAIストラテジーの3つの重要な要素である、競争優位性の創出、ビジネス全体へのAIの拡張、信頼できるAIの推進について詳しく説明します。