범용 인공지능(AGI)이란?

다양한 모양과 색상의 인간 두뇌 윤곽선

작성자

Dave Bergmann

Senior Staff Writer, AI Models

IBM Think

Cole Stryker

Staff Editor, AI Models

IBM Think

범용 인공지능(AGI)이란?

범용 인공지능(AGI)은 모든 작업에서 인공지능(AI) 시스템이 인간의 인지 능력을 능가하거나 그와 동등한 수준을 발휘할 수 있다는 가설에 기반한 머신 러닝(ML) 개발의 한 단계입니다. AGI는 AI 개발의 근본적이고 추상적인 목표, 즉, 인간의 지능을 기계나 소프트웨어에 인공적으로 복제하는 것을 의미합니다.

AGI는 AI 연구 초기부터 활발히 연구되어 왔습니다. 하지만 학계 내에서는 정확히 무엇이 AGI인지, 어떻게 하면 이를 가장 잘 달성할 수 있는지에 대한 합의가 여전히 이루어지지 않고 있습니다. 인간과 유사한 지능이라는 큰 목표는 간단하고 직관적이지만, 세부적인 내용은 미묘하고 주관적입니다. 따라서 AGI를 추구하는 것에는 기계의 지능을 이해하는 프레임워크와 그 프레임워크를 충족하는 모델을 개발하는 것으로 구성됩니다.

이 과제는 철학적이기도 하고 기술적이기도 합니다. 철학적인 관점에서 AGI를 공식적으로 정의하려면 '지능'에 대한 공식적인 정의와 그 지능이 AI에서 어떻게 나타날 수 있는지에 대한 일반적인 합의가 모두 필요합니다. 기술적인 관점에서 보면, AGI는 전례 없는 수준의 정교함과 다양성을 갖춘 AI 모델, 모델의 인식을 안정적으로 검증하기 위한 지표와 테스트, 이를 유지하는 데 필요한 컴퓨팅 역량을 필요로 합니다.

내로우 AI에서 범용 AI로

'범용' 지능 또는 범용 AI라는 개념은 특화된 영역에서만 '지능'을 발휘하는 현존하는 거의 모든 AI를 설명하는 내로우 AI와 대조해 보면 더 쉽게 이해할 수 있습니다.

'인공 지능'이라는 용어는 1956년 다트머스, IBM, 하버드, 벨 연구소 등 다양한 기관의 수학자와 과학자들이 참여한 '인공 지능에 관한 다트머스 서머 리서치 프로젝트'에서 기원한 것으로 여겨집니다. 제안서에 설명된 대로 "이 연구는 학습의 모든 측면이나 지능의 다른 특징을 기계가 시뮬레이션할 수 있을 정도로 정확하게 설명할 수 있다는 추측을 바탕으로 진행되었습니다."

급성장 중이었던 'AI' 분야는 스스로 생각할 수 있는 기계에 대한 로드맵을 개발하고자 했습니다. 하지만 그 후 수십 년 동안 기계의 지능을 인간과 비슷하게 만드는 작업은 거의 진전되지 않았습니다.

체스 게임, 의료 진단, 예측, 자동차 운전과 같이 일반적으로 인간의 높은 지능을 필요로 하는 특정 작업을 수행하는 컴퓨팅 머신을 개발하는 것에는 훨씬 더 큰 진전이 있었습니다. 하지만 자율 주행 자동차를 구동하는 모델과 같은 이러한 모델은 특정 영역에서만 지능을 발휘합니다.

2007년, AI 연구자 Ben Goertzel은 DeepMind의 공동 창립자 Shane Legg의 제안에 따라 동명의 책을 발간하며 '범용 인공지능'(AGI)이라는 용어를 대중화시켰습니다. 그가 '내로우 AI'라고 불렀던 인공지능과는 달리, 범용 인공지능은 "인간과 마찬가지로 영역에 제한되지 않은 방식으로 범용적인 문제를 해결할 수 있는 능력"을 갖춘 새로운 유형의 인공지능이었습니다.

AGI vs 강인공지능 vs 인공 초지능

AGI는 머신 러닝의 다른 개념과 밀접하게 연관되어 있으며, 종종 강인공지능(Strong AI) 또는 인공 초지능과 혼용되거나 같은 의미로 사용되기도 합니다. 이러한 개념은 상당 부분 겹치는 부분이 있지만, 각각 고유한 AI의 개념입니다.

AGI vs 강인공지능

철학자 John Searle의 저서에서 논의된 개념인 '강인공지능'은 의식을 가진 AI 시스템을 의미하며, 보통 약인공지능(Weak AI)의 대조적인 개념으로 사용됩니다.강인공지능은 일반적으로 AGI와 유사하지만(약인공지능은 일반적으로 내로우 AI와 유사), 이 둘을 단순한 동의어로 볼 수는 없습니다.

본질적으로 약인공지능은 의식, 즉 인간이 사용하는 도구에 불과하지만, 강인공지능은 그 자체가 의식입니다. 일반적으로 의식이 있는 AI라고 하면 인간과 동등하거나 더 우수한 지능을 가질 것이라고 생각할 수 있지만, 강인공지능은 다양한 작업을 수행할 때 상대적인 성능에 명시적으로 관여하지 않습니다. 의식은 일반적으로 '범용 지능'의 전제 조건 또는 결과로 간주되기 때문에 두 개념이 종종 혼동되기도 합니다.

유사점에도 불구하고 AGI와 강인공지능은 궁극적으로 동일한 개념이라기보다는 상호 보완적인 개념입니다.

AGI vs 인공 초지능

인공 초지능은 이름에서 알 수 있듯이 인간의 기능과 능력을 훨씬 뛰어넘는 인공지능 시스템을 의미합니다.

이 개념이 반드시 '범용' 초지능을 전제로 하는 것은 아니라는 점에 주목할 필요가 있습니다. AGI, 강인공지능, 인공 초지능이라는 이 3가지의 유사한 인공 지능 단계 중에서 인공 초지능은 이미 달성된 유일한 단계입니다. 초지능은 공상 과학 소설 속의 이야기가 아닙니다. 특정 작업에서 인간의 능력을 뛰어넘는다는 점에서 초지능이라고 부를 수 있는 내로우 AI 모델이 이미 존재합니다.

예를 들어,

  • AlphaFold가 아미노산 서열을 바탕으로 단백질의 3D 구조를 예측하는 능력은 모든 인간 과학자를 능가합니다.
  • IBM의 Deep Blue는 1997년 체스 세계 챔피언 Garry Kasparov를 물리쳤습니다.
  • IBM Watson®은 2013년 Jeopardy! 챔피언 Ken Jennings와 Brad Rutter를 꺾었습니다.
  • AlphaGo(와 그 후속 모델인 AlphaZero)는 바둑계에서 세계 최고의 선수로 간주됩니다.

이러한 모델은 인공 초지능의 획기적인 발전일 수 있지만 인공 '일반' 지능을 달성하지는 못했습니다. 이러한 AI 시스템은 자율적으로 새로운 작업을 학습하거나 좁게 정의된 범위 이상으로 기능을 확장할 수 없기 때문입니다.

또한, 초지능이 AGI의 전제 조건이 아니라는 점에 주목할 필요가 있습니다. 이론상, 평균적이고 별다른 특징이 없는 인간과 비슷한 수준의 의식과 지능을 가진 AI 시스템은 인공 초지능이 아닌 AGI와 강력한 AI를 모두 의미할 수 있습니다.

범용 인공지능의 기존 정의

컴퓨터 과학의 역사를 통틀어 많은 정의가 제안되었지만, 정확히 무엇이 AGI에 해당되는지에 대해서는 전문가들 사이에 합의가 이루어지지 않았습니다. 이러한 정의는 일반적으로 기계 지능을 달성하기 위해 사용해야 하는 구체적인 알고리즘이나 머신 러닝 모델보다는 추상적인 개념에 초점을 맞추고 있습니다.

2023년 Google Deepmind 논문에서는 기존 학술 문헌을 조사해 범용 인공지능을 정의하기 위한 몇 가지 범주의 프레임워크를 확인했습니다.

  • 튜링 테스트: 인간처럼 설득력 있게 행동할 수 있는 기계
  • 강인공지능: 의식을 가진 시스템
  • 인간 두뇌에 대한 비유
  • 인지 작업에서 인간 수준의 성능
  • 새로운 작업을 학습하는 능력
  • 경제적으로 가치 있는 작업
  • 유연하고 범용적인 능력
  • ACI(Artificial Capable Intelligence)

튜링 테스트

이론 컴퓨터 과학 역사의 중요한 인물인 Alan Turing은 1950년 논문 'Computer Machinery and Intelligence'에서 기계 지능에 대한 가장 초기이자 가장 영향력 있는 정의 중 하나를 발표했습니다. 그 주장 핵심은 바로 지능은 신비로운 철학적 특성보다는 행동으로 정의될 수 있다는 것이었습니다. 기계, 사고와 같은 개념에 대한 확고한 정의를 내리는 것이 어렵다는 것을 인식한 Turing은 모방 게임이라는 파티 게임을 기반으로 문제를 해결하는 간단한 방법을 제안했습니다.

'튜링 테스트'는 간단합니다. 인간 관찰자가 텍스트 샘플을 읽고 사람이 생성한 것인지 기계가 생성한 것인지 판단하는 것입니다. Turing은 인간이 프로그램의 출력과 인간의 출력을 구별할 수 없다면 그 프로그램은 인간과 같은 지능을 가지고 있다고 할 수 있다고 제안했습니다.

튜링 테스트에 대한 비판
그 기념비적인 영향에도 불구하고 오늘날 컴퓨터 과학자들은 튜링 테스트가 AGI의 적절한 척도라고 생각하지 않습니다. 이 테스트는 기계의 사고 능력을 입증하기보다는 인간이 얼마나 쉽게 속을 수 있는지를 강조합니다.

1966년, Joseph Weizenbaum은 간단한 규칙을 적용하여 사람의 입력 언어를 챗봇의 응답으로 변환하는 ELIZA라는 챗봇 프로그램을 만들었습니다. 그가 이 챗봇으로 설계한 첫 번째 프로그램 DOCTOR는 일반적인 응답을 하거나 사용자의 입력을 질문 형식으로 바꾸는 로저리언 심리 치료를 모방하도록 설계되었습니다.

Human: 남자친구가 여기 오라고 해서 왔어요.
ELIZA: 남자친구가 여기로 오라고 했나요?
Human: 그는 내가 항상 우울하다고 말해요.
ELIZA: 우울하다니 유감이에요.
Human: 맞아요. 불행해요.
ELIZA: 여기 오면 불행하지 않을 것 같나요?
 

Weizenbaum은 1976년 저서 Computer Power and Human Reason에서 "DOCTOR와 대화하는 사람들이 얼마나 빨리 그리고 매우 깊게 컴퓨터에 감정적으로 몰입하는지, 그리고 얼마나 명백하게 컴퓨터를 의인화하는지를 보고 깜짝 놀랐다"라고 설명했습니다. Weizenbaum은 그가 몇 달 동안 프로그램 작업을 하던 것을 지켜보았고 DOCTOR의 간단한 방법론을 분명히 알고 있던 비서조차도 대화를 시작할 때 사생활을 위해 방에서 나가달라고 요청했다고 언급했습니다.1 이 현상은 오늘날 엘리자 효과(ELIZA Effect)로 불리고 있습니다.

강인공지능: 의식을 가진 시스템

또 다른 정의는 의식을 가진 인공지능 시스템이라는 더 높은 기준을 제시합니다. Searles가 말했듯 "강인공지능에 따르면 컴퓨터는 단순히 정신 연구의 도구가 아닙니다. 적절하게 프로그래밍된 컴퓨터는 실제로 정신이라고 할 수 있습니다."2

Searles는 1980년에 튜링 테스트의 강력한 AI 증명 능력에 대한 저명한 철학적 반박을 저술했습니다. 그는 중국어를 전혀 모르는 영어 사용자가 중국어 기호 책과 (영어로 된) 기호 조작 설명으로 가득 찬 방에 갇혀 있는 모습을 묘사합니다. 그는 영어를 사용하는 사람이 상대방의 메시지는 물론 자신의 대답조차 이해하지 못함에도 불구하고 단순히 숫자와 기호를 조작하는 설명에 따라 본인이 중국어를 할 수 있다고 다른 방에 있는 사람을 속일 수 있다고 주장합니다.3

이 Stanford Encyclopedia of Philosophy에 요약된 중국어 방 이론에 대한 수십 년간의 논쟁은 '이해'의 정의와 컴퓨터 프로그램이 그것을 소유할 수 있는지에 대한 과학적 합의가 부족하다는 것을 보여줍니다. 이러한 의견 불일치와 함께 의식은 인간과 유사한 성능을 발휘하기 위한 필수 조건이 아닐 수도 있다는 가능성을 생각하면 강인공지능 그 자체로는 AGI를 실용적으로 정의할 수 없습니다.

인간 두뇌에 대한 비유

(우리가 아는 한) 지금까지 인간의 두뇌로만 구현할 수 있었던 지능을 재현하는 것을 목표로 하는 AGI에 대한 직관적인 접근 방식은 인간의 두뇌 자체를 복제하는 것입니다.4 이러한 직관은 최초의 인공 신경망으로 이어졌고, 그 결과, 현재 AI의 거의 모든 하위 분야에서 최첨단을 대표하는 딥 러닝 모델이 탄생했습니다.

딥러닝 신경망, 특히 생성형 AI의 최전선에 있는 대규모 언어 모델(LLM)멀티모달 모델의 성공은 인공 뉴런의 자기 조직화 네트워크를 통해 인간의 뇌에서 영감을 얻는 것의 이점을 잘 보여주고 있습니다. 하지만 현재까지 가장 성능이 뛰어난 딥러닝 모델 중 상당수는 트랜스포머 기반 아키텍처를 사용하는데, 이 아키텍처 자체가 뇌와 같은 구조를 엄격하게 모방하지는 않습니다. 이는 인간의 두뇌를 명시적으로 모방하는 것이 AGI를 달성하는 데 본질적으로 필요하지 않을 수 있음을 시사합니다.

인지 작업에서 인간 수준의 성능

보다 총체적인 접근 방식은 AGI를 단순히 사람이 할 수 있는 모든 인지 작업을 수행할 수 있는 AI 시스템으로 정의하는 것입니다. 이 정의는 유연하고 직관적이지만 어떤 작업을 대상으로 하고, 어떤 사람들을 대상으로 하는지 모호합니다. 이러한 모호성으로 인해 AGI의 공식 프레임워크로서의 실제 사용에는 한계가 있습니다.

이 프레임워크의 가장 유의미한 공로는 AGI의 초점을 비물리적 작업으로 제한한다는 점입니다. 이렇게 하면 흔히 '신체적 지능'을 보여주는 것으로 간주되는 기능, 물리적 도구 사용, 이동 또는 물체 조작과 같은 능력은 무시됩니다.5 따라서 로보틱스의 추가적인 발전은 AGI 개발의 전제 조건이 될 수 없습니다.

새로운 작업을 학습하는 능력

AGI와 지능 자체에 대한 또 다른 직관적인 접근 방식은 학습 능력, 특히 인간이 할 수 있는 한 광범위한 작업과 개념을 학습할 수 있는 능력을 강조하는 것입니다. 이는 Turing이 'Computing Machinery and Intelligence'에서 성인의 마음으로 컴퓨터 시스템을 직접 프로그래밍하는 것보다 어린아이 같은 AI를 프로그래밍하고 일정 기간 교육하는 것이 더 현명할 것이라고 추측한 것과 유사합니다.6

이 접근 방식은 특정 작업을 수행하도록 모델을 명시적으로 학습시키는 내로우 AI와 상충됩니다. 예를 들어, 표면적으로는 '새로운' 작업에 대한 퓨샷 러닝 또는 제로샷 러닝 능력을 보여주는 GPT-4와 같은 LLM조차도 시퀀스에서 다음 단어를 자동 회귀적으로 예측하는 주요 작업에 인접하는 기능으로 제한됩니다.

최첨단 멀티모달 AI 모델은 자연어 처리(NLP)에서 컴퓨팅 비전, 음성 인식에 이르기까지 점점 더 다양한 작업을 수행할 수 있지만, 여전히 학습 데이터 세트에 포함된 핵심 기술의 한정된 목록으로 제한되어 있습니다. 예를 들어, 이러한 모델은 자동차 운전도 배울 수 없습니다. 진정한 AGI는 실시간으로 새로운 경험을 통해 학습할 수 있으며, 이 능력은 인간 어린이, 심지어 많은 동물에게도 놀라운 일이 아닙니다.

AI 연구자 Pei Wang은 이 프레임워크에서 유용한 기계 지능의 정의를 "정보 처리 시스템이 부족한 지식과 자원으로 환경에 적응할 수 있는 능력"이라고 제시합니다.7

경제적으로 가치 있는 작업

Open AI, GPT-3 모델이 ChatGPT 출시와 함께 현재의 생성형 AI 시대를 연 것으로 종종 인정받는 Open AI는 헌장에서 AGI를 “가장 경제적으로 가치 있는 작업에서 인간보다 뛰어난 성과를 내는 고도로 자율적인 시스템”이라고 정의합니다.8

DeepMind 논문에서 언급되었듯, 이 정의에는 예술적 창의성이나 감성 지능과 같이 경제적 가치를 정의하기 어려운 인간 지능의 요소는 빠져 있습니다. 지능의 이러한 측면은 수익성 있는 영화를 제작하는 창의성이나 심리 치료를 수행하는 기계를 구동하는 감정 지능 등의 우회적인 방식으로 경제적 가치를 실현할 수 있습니다.

경제적 가치에 초점을 맞춘다는 것은 AGI를 구성하는 기능이 현실 세계에서 실제 배포에 투입된 경우에만 계산될 수 있음을 의미합니다. AI 시스템이 특정 작업에서 인간과 경쟁할 수 있다고 해도 법적, 윤리적 또는 사회적 이유로 해당 작업을 위해 실제로 배포하는 것이 비현실적이라면 인간을 '능가'한다고 말할 수 있을까요?

DeepMind 논문은 또한 OpenAI가 2021년에 로보틱스 사업부를 폐쇄했다고 언급하며, 이는 육체노동의 복제와 이에 따른 AGI에서 '신체적 지능'의 역할이 경제적 가치에 대한 해석의 일부가 아님을 시사합니다.

유연하고 범용적인 기능

심리학자이자 인지 과학자, AI 연구자인 Gary Marcus는 AGI를 “유연하고 범용적이며 인간 지능에 필적하는 (또는 그 이상의) 수완과 신뢰성을 갖춘 모든 지능의 약칭”이라고 정의했습니다.9 Marcus는 이러한 적응력과 범용적인 역량을 입증하기 위해 '학습 과제' 프레임워크의 구체적이고 실용적인 구현과 유사한 일련의 벤치마크 과제를 제안했습니다.

AGI의 이러한 정량화는 Apple의 공동 창립자인 Steve Wozniak이 제안한 사고 실험을 연상시킵니다. Wozniak은 겉보기에 단순해 보이는 이 작업이 실제로는 상당히 복잡하다고 말합니다. 걸을 수 있고, 주방이 무엇이고 커피 머신 또는 커피가 어떤 모습인지 알아야 서랍, 캐비닛을 작동할 수 있기 때문입니다. 간단히 말해 인간은 커피 한 잔을 만들기 위해 평생의 경험을 활용해야 한다는 것입니다.10

구체적으로, Marcus는 단일 AI 시스템에서 수행할 경우 AGI를 입증할 수 있는 5가지 벤치마크 작업을 제안했습니다.11

  • 영화를 보면서 등장인물, 갈등, 동기를 이해하기
  • 소설을 읽고 줄거리, 등장인물, 갈등, 동기에 대해 원문을 넘어서는 통찰력을 가지고 질문에 확실하게 답변하기
  • 임의의 주방에서 유능한 요리사로 일하기(Wozniak의 커피 벤치마크와 유사).
  • 기존 라이브러리의 코드를 결합하지 않고도 자연어 명령어에서 버그 없는 10,000줄의 코드를 안정적으로 구축하기
  • 자연어 수학적 증명을 기호 형식으로 변환하기

이 작업 중심 프레임워크는 AGI 검증에 절실히 필요한 객관성은 갖추고 있지만, 이러한 특정 작업이 인간의 모든 지능을 포괄하는지에 대해서는 동의하기 어렵습니다. 요리사로 일하는 세 번째 작업은 로보틱스, 그리고 신체적 지능이 AGI의 필수 요소라는 것을 의미합니다.

ACI(Artificial Capable Intelligence)

2023년 Microsoft AI의 CEO이자 DeepMind의 공동 창립자인 Mustafa Suleyman은 현실 세계에서 복잡하고 개방적인 다단계 작업을 수행할 수 있는 AI 시스템을 설명하기 위해 'ACI'(Artificial Capable Intelligence)이라는 용어를 제안했습니다. 조금 더 구체적으로, 그는 인공지능에 10만 달러의 종잣돈을 주고 이를 100만 달러로 불리는 과제를 부여하는 '현대 버전의 튜닝 테스트'를 제안했습니다.12 넓은 관점에서 보면, 이 테스트는 OpenAI의 경제적 가치 개념과 Marcus가 중점을 둔 유연성과 범용 지능을 결합한 것이라고 할 수 있습니다.

이 벤치마크는 진정한 독창성과 학제 간 역량을 입증할 가능성이 높지만, 실질적으로 지능을 특정 종류의 경제적 산출물로 보는 프레임워크는 지나치게 협소합니다. 더욱이, 이익에만 초점을 맞추면 정렬 위험이 발생합니다.13

LLM은 이미 AGI의 단계에 도달했을까?

Blase Agüera y Arcas와 Peter Norvig 등의 일부 연구자들은 Meta의 Llama, Open AI의 GPT, Anthropic의 Claude 등의 첨단 LLM이 이미 AGI를 달성했다고 주장합니다. 이들은 범용성이 AGI의 핵심 요소이며, 오늘날의 모델은 이미 광범위한 주제를 논의하고 광범위한 작업을 수행하며 다양한 멀티모달 입력을 처리할 수 있다고 가정합니다. 이들은 "'범용 지능'은 다차원적인 스코어카드의 관점에서 생각해야 한다"며 "네 또는 아니요 방식의 제안은 단 한 건도 없다"고 말합니다.14

이 입장을 반대하는 사람들은 많습니다. DeepMind 논문의 저자들은 일반성 자체가 AGI의 자격이 되지는 않으며, 어느 정도의 성능과 결합되어야 한다고 주장합니다. 예를 들어, LLM이 코드를 작성할 수는 있어도 코드를 신뢰할 수 없다면 이 일반성은 "아직 충분한 성능을 갖추지 못한 것"입니다.

Meta의 수석 AI 과학자 Yann LeCun은 LLM에는 상식이 없기 때문에 AGI로서의 자격이 부족하다고 말합니다. 즉, 행동하기 전에 생각할 수 없고, 현실 세계에서 행동을 수행하거나 체화된 경험을 통해 학습할 수 없으며, 지속적인 기억력과 계층적 계획 능력이 부족하다는 것입니다.15 보다 근본적인 차원에서, LeCun과 Jacob Browning은 "언어만으로 학습을 받은 시스템은 지금부터 우주가 열사될 때까지 학습시킨다고 해도 결코 인간의 지능에 근접하지 못할 것"이라고 주장합니다.16

AGI에 대한 기술적 접근 방식

Goertzel과 Pennachin은 알고리즘과 모델 아키텍처 측면에서 AGI 시스템에 대한 최소한 3가지 기본 기술 접근 방식이 있다고 말합니다.

  • 소프트웨어에서 인간 두뇌에 근접한 에뮬레이션: 인간의 뇌가 범용적인 지능을 가진 유일한 시스템이라는 점을 고려할 때, 이를 거의 완벽하게 에뮬레이션하면 이론적으로 유사한 지능을 얻을 수 있습니다. 인공 신경망은 뇌의 기본 메커니즘을 표면적으로 복제하지만 뇌의 실제 작동은 현재의 딥 러닝 모델보다 훨씬 더 다양하고 정교합니다. 이 접근 방식은 뇌를 진정으로 모방하는 기술적 과제 이외에도 현재보다 뇌의 메커니즘을 더 잘 이해해야 한다는 과제를 안고 있습니다.17

  • 뇌, 내로우 AI 아키텍처 모두와 구별되는 새로운 모델 아키텍처: 이 접근 방식은 뇌가 범용 지능에 도움이 되는 유일한 구조가 아니며 내로우 AI에 대한 기존 접근 방식은 기술적 또는 개념적 한계를 극복할 수 없다고 가정합니다. 따라서 AGI에는 새로운 유형의 인공지능이 필요합니다. 예를 들어, LeCun은 동물이나 어린이처럼 '세계 모델'을 자세히 볼 수 있는 '목적 중심의 AI 시스템'을 위해 자동 회귀와 기타 생성적, 확률론적 AI 모델 아키텍처를 피할 것을 제안한 바 있습니다.

  • 내로우 AI 알고리즘을 합성하는 통합적 접근 방식: 이 접근법은 AGI를 달성하기 위해 실행한 가장 최근 이니셔티브의 핵심으로, LLM, 이미지 모델, 강화 학습 에이전트와 같은 내로우 AI 도구에서 이루어진 고립된 진행 상황을 통합하려는 시도입니다. 현재의 멀티모달 모델은 이 경로의 중간 단계로 볼 수 있습니다. 이러한 통합 접근 방식은 일반적으로 중심 '에이전트' 모델(주로 LLM)을 사용해 의사 결정 프로세스를 탐색하고 하위 작업을 전문 모델에 자동으로 위임합니다.

AGI는 언제 탄생할까?

AI의 미래에 대한 예측은 항상 높은 수준의 불확실성을 수반하지만, 거의 모든 전문가들은 금세기 말까지 가능할 것이라는 데 동의합니다. 일부에서는 훨씬 더 빨리 일어날 수도 있다고 추정하기도 합니다.

2023년, Our World in Data의 Max Roser는 최근 몇 년간 AGI 예측에 관한 전문가들의 의견이 어떻게 변화했는지를 정리해 발표했습니다. 각 설문조사에서는 응답자(AI 연구원과 머신 러닝 연구원)에게 인간 수준 50%의 기계 지능을 달성하는 데 얼마나 걸릴 것으로 생각하는지 물었습니다. 2018년부터 2022년까지의 가장 중요한 변화는 응답자들이 AGI가 100년 이내에 도래할 것이라는 확신이 높아졌다는 것입니다.

하지만 이 3가지 연구는 모두 ChatGPT가 출시되고 현대 생성형 AI 시대가 시작되기 전에 수행되었다는 점에 주목할 필요가 있습니다. 2022년 말 이후 AI 기술, 특히 LLM과 멀티모달 AI의 발전 속도가 빨라지면서 예측 환경이 크게 달라졌습니다.

Grace 등이 2,778명의 AI 연구원을 대상으로 2023년 10월에 실시해 2024년 1월에 발표한 더 큰 규모의 후속 설문조사에서 응답자들은 불과 1년 전 유사한 연구에서 전문가들이 예측한 것보다 13년 빠른 2047년까지 "모든 가능한 작업에서 인간을 능가하는 기계가 지원 없이 인간보다 우수한 성과를 낼 확률"을 50%로 추정했습니다.

하지만 Roser가 지적했듯이 연구에 따르면 많은 분야의 전문가가 본인 분야의 미래를 예측했을 때 반드시 신뢰할 수 있는 것은 아닙니다. 그는 일반적으로 세계 최초의 성공적인 비행기의 발명가로 간주되는 Wright 형제의 예를 인용합니다. 1908년 11월 5일 파리의 에어로 클럽 드 프랑스에서 열린 수상 수락 연설에서 Wilbur Wright는 "1901년에 나는 나의 형제 Orville에게 50년 동안 인간이 하늘을 나는 일은 없을 것이라고 말했다. 그리고 2년 후, 우리는 비행기를 만들고 있었다"라고 고백했습니다.18

관련 솔루션
IBM watsonx.ai

AI 빌더를 위한 차세대 엔터프라이즈 스튜디오인 IBM watsonx.ai로 생성형 AI, 파운데이션 모델 및 머신 러닝 기능을 학습, 검증, 조정 및 배포하세요. 적은 데이터로 짧은 시간 내에 AI 애플리케이션을 구축하세요.

watsonx.ai에 대해 알아보기
인공 지능 솔루션

업계 최고의 AI 전문성과 솔루션 포트폴리오를 보유한 IBM과 함께 AI를 비즈니스에 활용하세요.

AI 솔루션 살펴보기
AI 컨설팅 및 서비스

AI 추가를 통해 중요한 워크플로와 운영을 혁신함으로써 경험, 실시간 의사 결정 및 비즈니스 가치를 극대화합니다.

AI 서비스 살펴보기
다음 단계 안내

AI 개발 라이프사이클 전반에 걸친 기능에 원스톱으로 액세스하세요. 사용자 친화적인 인터페이스, 워크플로, 업계 표준 API 및 SDK에 대한 액세스를 통해 강력한 AI 솔루션을 제작할 수 있습니다.

watsonx.ai 살펴보기 라이브 데모 예약하기
각주

1 Computer Power and Human Reason: from Judgment to Calculation(6페이지), Joseph Weizenbaum, 1976년.
2 “Minds, brains, and programs”, Behavioral and Brain Sciences(archived via OCR by University of Southampton), 1980년.
3 ibid.
4 “Can we accurately bridge neurobiology to brain-inspired AGI to effectively emulate the human brain?”, Research Directions: Bioelectronics(케임브리지대학교 온라인 발행물), 2024년 2월 12일.
5 “Physical intelligence as a new paradigm”, Extreme Mechanics Letters, Volume 46, 2021년 7월.
6 “Computing Machinery and Intelligence”, Mind 49: 433-460(메릴랜드대학교 볼티모어카운티 캠퍼스 온라인 발행물), 1950년.
7 “On the Working Definition of Intelligence”, ResearchGate, 1999년 1월.
8 “Open AI Charter”, OpenAI, 2024년 9월 1일 기록.
9 “AGI will not happen in your lifetime. Or will it?”, Gary Marcus(Substack), 2023년 1월 22일.
10 “Wozniak: Could a Computer Make a Cup of Coffee?”, Fast Company (YouTube), 2010년 3월 2일.
11 “Dear Elon Musk, here are five things you might want to consider about AGI”, Gary Marcus(Substack), 2022년 5월 31일.
12 “Mustafa Suleyman: My new Turing test would see if AI can make $1 million”, MIT Technology Review, 2023년 7월 14일.
13 “Alignment of Language Agents”, arXiv, 2021년 3월 26일.
14 “Artificial General Intelligence Is Already Here”, Noema Magazine, 2023년 10월 10일.
15 “Yann Lecun: Meta AI, Open Source, Limits of LLMs, AGI & the Future of AI”, Lex Fridman Podcast (YouTube), 2023년 10월 10일.
16 “AI and The Limits of Language”Noema Magazine, 2023년 8월 23일.
17 “Why is the human brain so difficult to understand? We asked 4 neuroscientists.” Allen Institute, 2022년 4월 21일.
18 “Great Aviation Quotes: Predictions” , Great Aviation Quotes.