汎用人工知能(AGI)とは

さまざまな形と色を持つ人間の脳の概要

共同執筆者

Dave Bergmann

Senior Staff Writer, AI Models

IBM Think

Cole Stryker

Staff Editor, AI Models

IBM Think

汎用人工知能(AGI)とは

汎用人工知能(AGI)とは、機械学習(ML)の発展における仮説的な段階であり、人工知能(AI)システムは、あらゆるタスクにおいて人間の認知能力に匹敵するか、それを超えることができます。これは、AI開発の基本的で抽象的な目標、つまり機械やソフトウェアにおける人間の知能の人工複製を表しています。

AGIは、AI研究の初期から積極的に模索されてきました。それでも、何がAGIとみなされるのか、あるいはそれを達成する最適な方法について、教育機関向けコミュニティー内ではコンセンサスが得られていません。人間のような知能という大きな目標は非常に単純ですが、詳細は微妙で主観的なものです。したがって、AGIの追求には、機械の知能を理解するフレームワークと、そのフレームワークを満たすことができるモデルの開発の両方が含まれます。

課題は哲学的および技術的です。哲学的には、AGIの正式な定義には、「知性」の正式な定義と、その知性がAIでどのように表現されるかに関する一般的な合意の両方が必要です。技術的には、AGIには、前例のない高度と汎用性を備えたAIモデルを作成し、モデルの認識を検証し、計算能力を維持するために必要なメトリクスとテストが必要です。

狭いAIから汎用AIへ

「一般的な」知能(汎用AI)の概念は、狭いAIとは対照的に理解することができます。狭いAIとは、専門的な領域でのみ「知性」が発揮されるほぼすべてのAIを効果的に表す用語です。

1956年にダートマス大学、IBM、ハーバード大学、ベル研究所などの機関から数学者や科学者を集めて行われた「人工知能に関するダートマス夏季研究プロジェクト」が「人工知能」という言葉の起源とされています。提案に記載されているように、「学習のあらゆる側面や知能のその他の機能は非常に正確に説明できるため、機械にそれをシミュレートさせることができるという推測に基づいて研究を進めることにした」。

この急成長中の「AI」の分野では、自ら考察することができる機械へのロードマップを開発しようとしていました。しかし、その後数十年間で、機械が人間のような知能を実現する進歩は困難であることが判明しました。

チェス、医療診断、予報、自動車運転など、人間に高度な知能を必要とする特定のタスクを遂行するコンピュータの追求においては、はるかに大きな進展が見られました。しかし、これらのモデル(たとえば、自動運転車に動力を供給するモデル)は、特定の領域内のみで知能を発揮します。

2007年、AI研究者のBen Goertzel氏は、DeepMind社の共同設立者であるShane Leggの提案により、同名の影響力のある著書の中で「汎用人工知能(artificial general intelligence)」(AGI)という用語を広めました。彼が「狭いAI」と呼んだものとは対照的に、汎用AIとは、「分野に制限されない方法、つまり、人間にできる方法で一般的な問題を解決する能力」です。

AGI、強いAI、人工超知能の比較
 

AGIは機械学習の他の概念と強く結びついており、強力なAI人工超知能と混同されたり、同義で使われたりすることもありますこれらの概念にはかなりの重複がありますが、それぞれがそれ自体でAIの異なる概念です。

AGIと強いAIの比較
 

哲学者John Searle氏の著作の中で顕著に議論されている概念「強いAIとは、意識を示すAIシステムを指し、主に弱いAIに対する対案として機能します。強いAIは一般的にAGIに類似しています(弱いAIは通常、狭いAIに類似しています)が、両者は単なる類義語ではありません。

要するに、弱いAIは単に意図的に、つまり人間によって使用されるためのツールであるのに対し、強いAIはそれ自体が意図を持っています。この意識は一般的に、人間と同等かそれ以上の知能を必要とすることを意味しますが、強力なAIは、さまざまなタスクにおける相対的な性能に明示的に関係しているわけではありません。意識は通常、「一般知能」の前提条件または結果と考えられるため、この2つの概念はしばしば混同されます。

AGIと強力なAIは類似点があるものの、最終的には同一の概念ではなく、補完的な概念を表しています。

AGIと人工超知能の比較

AIシステムは、その名のとおり、人間の機能をはるかに超えるAIシステムを構成するものです。

この概念は、必ずしも「汎用型の」超知性を前提としているわけではないことに注意してください。これら3つの類似したAI段階(AGI、強力なAI、人工超知能)の中で、すでに実現していると考えられているのは、人工超知能だけです。サイエンス・フィクションの唯一の領域ではなく、特定のタスクにおける人間の性能を超えるという点で、超知能と呼ばれるものを示す狭いAIモデルが存在します。

例:

  • AlphaFoldは、アミノ酸配列からタンパク質の3D構造を予測する点で、すべての人間の科学者を上回っています。
  • IBMのディープ・ブルーは1997年にチェスの世界チャンピオン、Garry Kasparov氏を破りました。
  • 2013年、IBM® Watsonが、テレビのクイズ番組「Jeopardy!」でKen Jennings氏とBrad Rutter氏を打ち負かしました。
  • AlphaGo(およびその後継機種AlphaZero)は、世界最高の囲碁プレイヤーと考えられています。

これらのモデルは人工超知能における画期的な進歩をもたらす可能性がありますが、そのようなAIシステムは自律的に新しいタスクを学習したり、厳密に定義された範囲を超えて機能を拡張したりすることができないため、「汎用型」AIを達成したわけではありません。

さらに、超知能はAGIの前提条件ではないことに注意してください。理論的には、平均的で目立たない人間と同等の知能レベルを示すAIシステムは、AGIと強力なAIの両方を表しますが、人工超知能ではありません。

汎用人工知能の既存の定義
 

コンピューター・サイエンスの歴史を通じて多くの定義が提案されてきましたが、AGIとして正確に何が定義されるべきかについては専門家の間で合意が得られていません。これらの定義は通常、機械知能を達成するために使用される特定のアルゴリズムや機械学習モデルではなく、機械知能の抽象的な概念に焦点を当てます。

2023年、 Google Deepmind社の論文では、既存の教育機関向け文献について調査し、いくつかのカテゴリーのフレームワークを定義するために汎用人工知能を特定しました。

  • チューリング・テスト:説得力のある人間のような振る舞いができる機械
  • 強いAI:意識を持ったシステム
  • 人間の脳との類似点
  • 認知タスクにおける人間レベルのパフォーマンス
  • 新しいタスクを学ぶ能力
  • 経済的に価値のある仕事
  • 柔軟かつ一般的な機能
  • 「人工知能」(ACI)

チューリング・テスト

理論計算機科学の歴史において重要な人物であるAlan Turing氏は、1950年の論文『Computer Machinery and Intelligence』で機械知能の最初期において最も影響力のある定義の1つを発表しました。彼の議論の核心は、知性とは哲学的な性質ではなく、行動によって定義できるということでした。機械思考などの概念のしっかりした定義を絞り込むことの難しさを認識していたTuring氏は、Imitation Gameと呼ばれるパーティー・ゲームに基づいてこの問題を回避するシンプルな方法を提案しました。

「チューリング・テスト」は単純です。人間の観察者はテキスト・サンプルを読み、それが人間によって生成されたか機械によって生成されたかを判断します。Turing氏は、ある人間がプログラムのアウトプットと別の人間のアウトプットを区別できない場合、そのプログラムは人間のような知能を示すと言える、と提案しました。

チューリング・テストに対する批判
その多大な影響力にもかかわらず、今日のコンピューター科学者はチューリング・テストがAGIの適切な尺度であるとは考えていません。このテストでは、多くの場合、機械が考える能力を実証するのではなく、人間がいかに簡単に騙されるかが浮き彫りになります。

例として、1966年にJoseph Weizelbaum氏は、ELIZAと呼ばれるチャットボットプログラムを開発しました。このプログラムは、シンプルなルールを適用して、ユーザーのインプットに基づく人間の言語をチャットボットからの応答に変換するものです。このチャットボットで設計した最初のプログラムは「DOCTOR」と呼ばれるもので、一般的に応答をしたり、質問形式でユーザーの入力を言い換えたりすることで、ロジャース派の心理療法士を模倣するように設計されました。

人間:彼氏に言われて来ました。ELIZA:彼氏に言われたんですか。人間:彼は私がいつも落ち込んでいると言うんです。ELIZA:いつも落ち込んでいるなんて、聞いていて辛いです。人間:でも、そのとおりなんです。私は不幸な人間です。ELIZA:ここに来れば不幸にならずに済むと思いますか。
 

Weizelbaum氏が1976年に発表した著書『Computer Power and Human reason』で説明したように、彼は「DOCTORと会話する人々がどれだけ早く、とても深くコンピューターと感情的つながりを築いていくのか、そして、彼らがいかに明確にコンピューターを擬人化しているのを見て驚きました」。彼は、何カ月もプログラムの取り組みを見て、そのシンプルな方法論を知っていた彼の秘書でさえ、会話を始めた際にはプライバシーのために部屋から離れるように彼に求めたことに言及しました。1この現象はイライザ効果 として知られるようになりました。

強いAI:意識を持ったシステム
 

提案されている別の定義は、AGIのより高い基準、つまり意識を持つAIシステムです。Seales氏は次のように語っています。「強力なAIによれば、コンピューターは単なる心の研究のツールではなく、むしろ、適切にプログラムされたコンピューターは本当に心です。」2

Searles氏は、1980年に強力なAIを証明するチューリング・テストの能力について、著名な哲学的反証を執筆しました。彼は、中国語をまったく理解していない英語の話者が、中国語の記号と、記号を操作するための指示(英語)でいっぱいの部屋に閉じ込められていると説明します。彼は、英語の話者は別の部屋にいる誰かを、他の人のメッセージや自分自身の返答さえも理解していないにもかかわらず、数字や記号を操作する指示に従うだけで、自分は中国語が話せると思い込む可能性があると騙す可能性があると主張します。3

中国語の部屋に関する議論をめぐる数十年にわたる議論は、このスタンフォード哲学百科事典の記事にまとめられており、「理解」の定義と、コンピューター・プログラムが理解できるかどうかについて科学的なコンセンサスが存在しないことを示しています。この不一致と、意識は人間のような性能の要件ですらない可能性があることから、強いAIだけがAGIを定義する非現実的なフレームワークになっています。

人間の脳との類似点

(私たちの知る限り)これまで人間の脳だけが実現していた種類の知能を複製することを目的とするAGIへの直感的なアプローチは、人間の脳そのものを複製することです。4この直感が、人工ニューラル・ネットワークの原型を生み出し、それが現在、AIのほぼすべてのサブフィールドで最先端となっているディープラーニング・モデルを生み出しました。

ディープラーニング・ニューラル・ネットワーク、特に生成AIの最前線にある大規模言語モデルマルチモーダル・モデルの成功は、人工ニューロンの自己組織化ネットワークを通じて人間の脳からインスピレーションを得るメリットを示しています。しかし、これまでにある最も高性能なディープラーニング・モデルの多くは、Transformerベースのアーキテクチャーを使用しており、それ自体が脳のような構造を厳密にエミュレートしているわけではありません。これは、AGIを達成するためには、人間の脳を直接的に模倣することが本質的に必要ではない可能性があることを示唆しています。

認知タスクにおける人間レベルのパフォーマンス

より包括的なアプローチは、AGIを人間ができるすべての認知タスクを実行できるAIシステムと単純に定義することです。この定義は柔軟で直感的ですが、曖昧です。どのタスクで、どのような人を対象とすれば良いのでしょうか。この曖昧さにより、AGIの正式なフレームワークとしての実用化が制限されます。

このフレームワークの最も注目すべき成果は、AGIの焦点を非物理的なタスクに制限したことです。そのようなことは、機能のような物理ツールの使用、運動、物体の操作などのものを無視するもので、これらはしばしば「物理的知能」の実証と考えられています。5これにより、AGI開発の前提条件から、ロボティクスにおけるさらなる進歩が排除されます。

新しいタスクを学習する能力
 

AGIとインテリジェンスそのものに対するもう1つの直感的なアプローチは、学習する能力、具体的には人間のように幅広いタスクや概念を学習する能力を重視することです。これは、Turing氏の『Computing Machinery and Intelligence』と共鳴します。そこでは、大人の頭脳としてコンピューター・システムを直接プログラムするよりも、子供のようなAIをプログラムし、一定期間の教育プログラムに参加させる方が賢明であるのではないかと推測しています。6

このアプローチは、特定のタスクを実行するようにモデルを明示的にトレーニングする狭いAIとは対照的です。たとえば、「新しい」タスクに対するfew-shot学習zero-shot学習の能力を表面的に示しているGPT-4などのLLMでさえ、主なタスク、つまりシーケンス内の次の単語を自己回帰的に予測する機能に限定されます。

最先端のマルチモーダルAIモデルは、自然言語処理(NLP)からコンピューター・ビジョン、音声認識まで、ますます多様なタスクを実行できますが、依然としてトレーニング・データ・セットに含まれる有限なリストに限定されています。たとえば、車の運転方法も学習できません。真のAGIは、新しい経験からリアルタイムで学習できます。これは人間の子供や多くの動物にとって驚くべき偉業ではありません。

AIの研究者のPei Wang氏は、このフレームワークの中で役立つ機械知能の定義として、以下を提示しています:「知識とリソースが不十分な情報処理システムが環境に適応する能力」 7

経済的に価値のある仕事
 

ChatGPTの発表時に、GPT-3モデルが現在の生成AI時代の到来を告げたとよく考えられているOpen AI社は、その定義の中でAGIを「最も経済的価値のある仕事で人間を上回る高度に自律的なシステム」と定義しています。8

DeepMind社の論文によると、この定義では、芸術的創造性や感情的知能など、経済的価値を定義するのが難しい人間の知能の要素が省略されています。せいぜい、こうした側面は、収益性の高い映画を制作する創造性や、心理療法を行う機械を強化する感情知能など、遠回りな方法で経済的価値を実現することにとどまります。

経済的価値に焦点を当てることは、AGIを構成する機能が実際に現実世界に展開されている場合にのみ評価が可能であることも意味します。AIシステムが特定のタスクで人間に匹敵するものの、法的・倫理的または社会的な理由から、そのタスクにデプロイすることが現実的ではない場合、そのシステムは人間に「優れている」と言えるでしょうか。

DeepMind社の論文では、OpenAI社が2021年にロボティクス部門を閉鎖したことにも言及しています。これは、物理的な労働の複製と、それに対応するAGIにおける「物理的知能」の役割への影響は、この経済的価値の解釈には含まれていないことを示唆しています。

柔軟で汎用型の機能
 

心理学者、認知科学者、AI研究者であるGary Marcus氏は、AGIを「人間の知能に匹敵する(またはそれ以上の)機知と信頼性を備えた柔軟で一般的なものである」と定義しました。9Marcus氏は、「学習タスク」フレームワークの具体的で実践的な実装と同様に、その適応性と一般的な能力を実証することを目的とした一連のベンチマーク・タスクを提案しました。

このAGIの定量化は、Apple社の共同創設者であるSteve Wozniak氏が提案した思考実験を思い出させます。彼は、「コンピューターが一杯のコーヒーを淹れることは可能でしょうか?」と投げかけました。Wozniak氏は、一見単純に見えるこの作業が、実際には非常に複雑であると指摘しています。歩いたり、キッチンが何であるかを知ったり、コーヒー・マシンやコーヒーがどのようなものかを知ったり、引き出しやキャビネットにしまったりすることができなければなりません。要するに、コーヒーを抽出するためだけに、人間は人生の経験を活かす必要があります。10

具体的には、Marcus氏は、単一のAIシステムで実行された場合にAGIを実証できる一連の5つのベンチマーク・タスクを提案しました。11

  • 映画を見て、登場人物、彼らの争いと動機を理解すること。
  • 一冊の小説を読み、プロット、登場人物、争い、動機について、元の文章を超えた洞察を用いて質問に確実に答えること。
  • 恣意的に選ばれたキッチン(Wozniak氏のコーヒー・ベンチマークに似ている)で有能な調理人として機能すること。
  • 既存のライブラリーからコードを集めることなく、自然言語による指示から10,000行のバグのないコードを確実に構築します。
  • 自然言語の数学的証明を記号形式に変換します。

このタスク指向のフレームワークは、AGIの検証に必要な客観性を導入しますが、これらの特定のタスクが人間の知能をすべてカバーしているかどうかについて合意することは困難です。3番目のタスクは料理人として機能するため、ロボティクス、つまり物理的知能がAGIの必要な一部であることを意味します。

「特化型人工知能」

2023年、Microsoft AI社のCEO(最高経営責任者)であり、DeepMind社の共同創設者であるMustafa Suleyman氏は、現実世界でオープンエンドで複数ステップの複雑なタスクを実行できるAIシステムを表す言葉として「特化型人工知能」(ACI)という用語を提案しました。具体的には、AIに10万米ドルのシード・キャピタルを与えて、それを100万米ドルに成長させることを使命とする「モダン・ターニング・テスト」を提案しました。12大まかに言えば、これはOpenAI社の経済的価値の概念と柔軟性と一般的なインテリジェンスに焦点を当てているMarcus氏の価値を融合させたものです。

このベンチマークは、真の創意工夫と学際的な能力を証明する可能性がありますが、実際の観点から見ると、特定の種類の経済的ベンチマークとしてのインテリジェンスの枠組みは非常に狭いものです。さらに、利益のみに焦点を当てることは、重大なアライメント・リスクをもたらします。13

LLMはすでにAGIなのか

Blase Agüera y Arcas氏やPeter Norvig氏などの研究者は、 Meta社のLlama、Open AI社のGPT、Anthropic社のClaudeなどの高度なLLMがすでにAGIを実現していると主張しています。彼らは、一般性がAGIの重要な要素であり、今日のモデルはすでに幅広いトピックについて議論し、幅広いタスクを実行し、多様なマルチモーダル・インプットを処理できると仮定しています。「汎用型インテリジェンスは多次元スコアカードの観点から考えられなければならない」と彼らは主張します。「単純にイエスかノーか、という提案ではありません。」14

この主張には多くの批判があります。DeepMind社の論文の著者らは、一般性自体によってAGIとして認められるものではなく、一定の性能と組み合わせる必要があると主張しています。たとえば、LLMがコードを書くことができるものの、そのコードが信頼性が低い場合、その一般性は「まだ十分なパフォーマンスを発揮していない」ことになります。

Meta社のチーフAIサイエンティストであるYann LeCun氏は、LLMには常識がないため、AGIが不足していると述べています。行動する前に考察することができず、現実世界で行動を実行することも、経験から学ぶこともできず、これは階層計画のための永続的な記憶と能力が不足しているためである、と主張します。15もっと基本的なレベルでは、LeCun氏とJacob Browning氏は、「言語だけで訓練されたシステムは、今から宇宙が熱力学的に消滅するまで訓練されたとしても、人間の知性に近づくことは決してない」と主張しています。16

AGIへの技術的アプローチ

Goertzel氏とPennachin氏は、アルゴリズムとモデル・アーキテクチャーの観点から、AGIシステムに対して少なくとも3つの基本的な技術的アプローチがあると述べています。

  • ソフトウェアにおける人間の脳の厳密なエミュレーション:人間の脳は一般的な知能を備えた唯一のシステムであることを考慮すると、そのほぼ完璧なエミュレーションは理論的には同様の知能が得られると考えられます。人工ニューラル・ネットワークは脳の基本的なメカニズムを表面的に再現していますが、脳の実際の仕組みは現在のディープラーニングモデルよりもはるかに多様で洗練されています。脳を真にエミュレートするという技術的な課題だけでなく、このアプローチには、現在よりも脳の仕組みをより深く理解する必要もあります。17

  • 脳とも狭いAIアーキテクチャーとも異なる新しいモデル・アーキテクチャー:このアプローチでは、脳は一般知能につながる唯一の構造ではなく、狭いAIに対する既存のアプローチでは技術的または概念上の制限を乗り越えられないことを前提としています。したがって、AGIには新しいタイプの人工知能が必要になります。たとえば、LeCun氏は自己回帰型やその他の生成的・確率的なAIモデルアーキテクチャーを避け、「Objective-Driven AI Systems」を採用することを提案しています。その「世界モデル」は動物や子どものように学習します。

  • 統合的なアプローチ、狭いAIアルゴリズムの合成:このアプローチは、AGIを実現するための最新の現実世界の取り組みに焦点を当てており、LLM、画像モデル、強化学習エージェントなどの狭いAIツールで得られた個別の進歩を統合しようとしています。現在のマルチモーダル・モデルは、このプロセスの中間ステップとみなすことができます。これらの統合アプローチでは通常、中心的な「エージェント」モデル(多くの場合LLM)を使用して意思決定プロセスをナビゲートし、サブタスクの専門モデルへの委任を自動化します

AGIはいつ実現するのか
 

AIの将来に関する予測には常に高い不確実性が伴いますが、ほとんどすべての専門家が今世紀末までにそれが可能になることに同意しており、はるかに早く実現する可能性があるという推論もあります。

2023年、Our World in DataのMax Roser氏は、AGI予測の総まとめを執筆し、AGI予測に関する専門家の考え方が近年どのように進化してきたかをまとめました。各調査では、回答者(AIおよび機械学習の研究者)に、人間レベルの機械知能が得られる可能性が50%に達するまでにどれくらいの時間がかかると考えているかを尋ねました。2018年から2022年までの最も大きな変化は、100年以内にAGIが到達するという回答者の確信性が高まったことです。

ただし、これら3つの調査がそれぞれ、ChatGPTの発売前であり、かつ現代の生成AI時代の前に実施されたものであることは注目に値します。2022年後半以降のAIテクノロジー、特にLLMとマルチモーダルAIの進歩は加速しており、予測の状況は大きく変わりました。

2,778人のAI研究者を対象に、Grace氏によって2023年10月に実施され、2024年1月に発表されたより大規模なフォローアップ調査では、2047年までに「支援を受けていないマシンが、考え得るすべてのタスクにおいて人間を上回るパフォーマンスを発揮する」可能性が50%だと推定しています。これは、専門家がつい昨年実施された同様の調査で予測するより、13年も前のことです。

しかし、Roser氏が指摘するように、研究によると、多くの分野の専門家は、自身の専門分野の将来を予測する際に必ずしも信頼できるわけではありません。彼は、一般的に世界初の成功した航空機の発明者と考えられているライト兄弟の例を挙げています。1908年11月5日にパリに行われたAéro Club de Franceでの受賞講演では、Wilbur Wright氏は次のように宣言したとされています。「1901年、私は弟のOrvilleに、今後50年は、人類が空を飛ぶことはないだろう、と伝えました。2年後、私たちは飛行に成功したのです。」18

関連ソリューション
IBM watsonx.ai

AI開発者向けの次世代エンタープライズ・スタジオであるIBM watsonx.aiを使用して、生成AI、基盤モデル、機械学習機能をトレーニング、検証、チューニング、導入しましょう。わずかなデータとわずかな時間でAIアプリケーションを構築できます。

watsonx.aiをご覧ください。
人工知能ソリューション

業界をリードするIBMのAI専門知識とソリューション製品群を使用すれば、ビジネスにAIを活用できます。

AIソリューションはこちら
AIコンサルティングとサービス

AIの導入で重要なワークフローと業務を再構築し、エクスペリエンス、リアルタイムの意思決定とビジネス価値を最大化します。

AIサービスはこちら
次のステップ

AI開発ライフサイクル全体にわたる機能にワンストップでアクセスできます。使いやすいインターフェース、ワークフロー、業界標準のAPIやSDKを利用して、強力なAIソリューションを構築できます。

watsonx.aiの詳細はこちら デモを予約
脚注

1 Computer Power and Human Reason: from Judgment to Calculation (page 6), Joseph Weizenbaum, 1976.
2 “Minds, brains, and programs”, Behavioral and Brain Sciences (archived via OCR by University of Southampton), 1980.
3 ibid.
4 “Can we accurately bridge neurobiology to brain-inspired AGI to effectively emulate the human brain?”, Research Directions: Bioelectronics (published online by Cambridge University), 12 February 2024.
5 “Physical intelligence as a new paradigm”, Extreme Mechanics Letters, Volume 46, July 2021.
6 “Computing Machinery and Intelligence”, Mind 49: 433-460 (published online by University of Maryland, Baltimore County), 1950.
7 “On the Working Definition of Intelligence”, ResearchGate, January 1999.
8 “Open AI Charter”, OpenAI, archived on 1 September 2024.
9 “AGI will not happen in your lifetime. Or will it?”, Gary Marcus (on Substack), 22 January 2023.
10 “Wozniak: Could a Computer Make a Cup of Coffee?”, Fast Company (on YouTube), 2 March 2010.
11 “Dear Elon Musk, here are five things you might want to consider about AGI”, Gary Marcus (on Substack), 31 May 2022.
12 “Mustafa Suleyman: My new Turing test would see if AI can make $1 million”, MIT Technology Review, 14 July 2023.
13 “Alignment of Language Agents”, arXiv, 26 March 2021.
14 “Artificial General Intelligence Is Already Here”, Noema Magazine, 10 October 2023.
15 “Yann Lecun: Meta AI, Open Source, Limits of LLMs, AGI & the Future of AI”, Lex Fridman Podcast (on YouTube), 10 October 2023.
16 “AI and The Limits of Language” , Noema Magazine, 23 August 2023.
17 “Why is the human brain so difficult to understand? We asked 4 neuroscientists.” Allen Institute, 21 April 2022.
18 “Great Aviation Quotes: Predictions” , Great Aviation Quotes.