지각 있는 인공 지능은 이론적으로 자신의 생각, 감정, 동기에 따라 행동할 수 있는 자기 인식 기계로 정의됩니다. 오늘날 전문가들은 AI가 지각력을 갖출 만큼 복잡하지 않다는 데 동의합니다.
컴퓨터가 처음 발명된 이래 과학자들은 기계의 '지능'을 평가하기 위해 튜링 테스트와 같은 벤치마크를 개발해 왔습니다. 얼마 지나지 않아 기계의 지능에 대한 논쟁은 기계 지능의 의식이나 지각 능력에 대한 논의로 이어졌습니다.
AI 의식에 대한 논의는 2000년대 초반부터 계속되어 왔지만, 대규모 언어 모델의 인기, ChatGPT와 같은 생성형 AI에 대한 소비자의 접근성, 전 Google 엔지니어 블레이크 르모인(Blake Lemoine)의 Washington Post1 인터뷰로 인해 '인공지능은 지각이 있는가?'라는 질문에 대한 관심이 다시 불붙기 시작했습니다.
르모인은 Google의 인공 지능 챗봇 생성기인 LaMDA가 권리와 인격에 대해 이야기하기 시작했고, 자신의 필요와 감정을 인식하는 것처럼 보였기 때문에 지각이 있는 것으로 보인다고 인터뷰에서 말했습니다.
Google의 윤리학자들은 이러한 주장을 공개적으로 부인했습니다. Meta의 AI 연구 책임자인 얀 르쿤(Yann LeCun)은 New York Times2에서 이러한 시스템은 '진정한 지능'을 달성할 만큼 강력하지 않다고 말했습니다. 현재 주요 전문가들의 합의는 AI는 지각이 없다는 것입니다.
머신 러닝이 더욱 발전함에 따라 컴퓨터 과학자들은 인간의 행동을 더 깊이 이해할 수 있는 장치를 만들어 지루한 인간 코딩 없이도 더 개인화되고 적절한 실시간 응답을 이끌어낼 수 있기를 바라며 AI 도구의 혁신을 추진하고 있습니다. 이는 시스템이 인간과 자연스럽게 상호 작용하고 자가 학습 알고리즘을 통해 문제를 해결하는 인지 컴퓨팅의 발전으로 이어졌습니다. OpenAI의 GPT 모델과 Google의 LaMDA는 Meta, Apple 또는 Microsoft와 같은 다른 기술 회사에서 어떤 작업을 진행 중일지 보여주는 예시입니다.
지각 능력은 여기서 한 단계 더 나아간 개념입니다. 이는 주관적 경험을 하고, 인식하며, 기억하고, 감정을 가질 수 있는 능력으로 정의됩니다. 그러나 지각, 인지, 의식에 대한 정의는 종종 일치하지 않으며 철학자와 인지 과학자들 사이에서 여전히 많은 논쟁3이 벌어지고 있습니다.
이론적으로 지각이 있는 AI는 주변 세계를 인식하고 외부 자극을 처리하여 의사 결정에 활용하며 인간처럼 생각하고 느낄 수 있습니다.
AI는 인간이 학습하는 것처럼 학습하고 어느 정도 추론할 수 있지만, 인간이나 일부 동물의 두뇌만큼 복잡하지는 않습니다. 인간의 뇌가 어떻게 의식을 갖게 되는지는 아직 잘 알려지지 않았지만, 단순히 뇌세포가 서로 연결된 수보다 더 많은 것이 관련되어 있습니다. 지각 능력은 종종 지능과 혼동되는데, 지능 역시 과학계에서 기계에서 어떻게 정량화할 수 있을지 연구하고 있는 또 다른 특성입니다.
지능형 기계는 탐색을 통해 학습하고 새로운 입력에 적응할 수 있습니다. 오늘날 대부분의 AI 프로그램은 제너럴리스트가 아닌 스페셜리스트이며, 대뇌보다 더 직관적입니다. 각 프로그램은 체스를 두거나 표준화된 시험을 치르는 등 매우 특정한 작업이나 문제 유형에 능숙하도록 훈련받습니다.
컴퓨터 과학 연구에서 AI 전문가들은 강인공지능라고도 알려진 '인공 일반 지능(AGI)'이라는 개념을 연구해 왔으며, 그 목표는 AI에 특정 작업에 국한되지 않는 보다 인간과 유사한 지능을 불어넣는 것입니다. 그 외에도 인공 초지능이라는 가상의 미래 상태도 있습니다.
이러한 능력은 AI가 인간의 명령과 맥락을 더 잘 파악하고 결과적으로 기계가 특정 조건에서 올바른 기능을 추론하여 스스로 실행할 수 있도록 정보 처리를 자동화하기 위한 것입니다.
기계의 행동이 인간과 얼마나 구별되는지 평가하기 위해 튜링 테스트와 같은 도구가 만들어졌습니다. 이 테스트는 다른 사람을 속여 자신도 인간이라고 믿게 할 수 있는 프로그램을 지능이 있는 것으로 간주합니다.
하지만 지능은 분류하기가 까다롭습니다. 예를 들어, 중국어 방 논증(Chinese Room Argument)은 지능을 판단하는 튜링 테스트의 결함을 보여주었습니다. 중요한 점은, 지능은 종종 지식을 습득하고 사용하는 능력을 뜻한다는 것입니다. 지능은 지각과 동일하지 않습니다. AI 모델이 지각 능력의 두 가지 특성인 내부 독백을 한다거나 더 큰 세계에서 자신의 존재를 감지할 수 있다는 증거는 없습니다.
대규모 언어 모델은 자연어 처리와 자연어 이해를 통해 사람의 말을 설득력 있게 재현할 수 있습니다.
일부 기술자들은 LLM과 같은 AI의 기반이 되는 신경망 구조가 인간의 뇌 구조를 모방하여 의식의 토대를 마련한다고 주장합니다.
많은 컴퓨터 과학자들은 이에 동의하지 않으며, AI는 지각이 없으며 단순히 Wikipedia, Reddit, 소셜 미디어와 같은 웹사이트에서 수집된 콘텐츠를 역류시켜 인간의 언어가 어떻게 작동하는지 학습했을 뿐, 그 말의 의미나 그 말을 하는 이유를 실제로 이해하지 못한다고 말합니다.
AI 시스템은 역사적으로 이미지, 비디오, 오디오, 복잡한 데이터 및 텍스트로 확장할 수 있는 패턴 인식에 탁월한 능력을 발휘해 왔습니다. 또한 특정 인물의 음성 패턴을 연구하여 페르소나를 만들 수도 있습니다.
일부 전문가들은 AI를 '방대한 학습 데이터에서 관찰한 언어 형식의 시퀀스를 결합 방식에 대한 확률적 정보에 따라 의미에 대한 참조 없이 무작위로 연결'하는 확률적 앵무새4라고 부릅니다.
문제는 인간은 연결에 대한 타고난 욕구를 가지고 있으며, 이는 사회적 유대감을 촉진하기 때문에 대상을 의인화5하고 자신의 감정과 성격에 투영하게 된다는 것입니다.
확률적 앵무새 논문의 연구자들은 “자연어 텍스트가 어떤 방식으로 생성되었든 간에, 우리는 이를 인식하는 과정에서 우리 자신의 언어적 역량 그리고 의사소통 행위를 의미와 의도를 가진 일관된 메시지로 해석하려는 성향의 영향을 받는다는 사실을 고려해야 합니다. 이는 텍스트가 실제로 의미와 의도를 가지고 있든 그렇지 않든 마찬가지입니다”라고 말합니다.
그렇기 때문에 일부 사람들은 인공지능이 학습 데이터를 통해 제공되는 것 이상의 세계를 실제로 인식하거나 이해할 수 없다는 것을 알고 있음에도 불구하고 인공지능의 말을 액면 그대로 받아들일 수 있습니다.
Scientific American6에 따르면 AI 챗봇은 일관된 대화를 하고 감정을 전달할 수 있기 때문에 사람들은 이를 의미 있는 것으로 해석하고 다른 휴머노이드 기계 중에서도 LLM이 '믿을 수 있도록 프로그래밍되어 있다'는 사실을 종종 잊어버릴 수 있습니다. 말하는 단어나 인간의 표정을 모방하는 방식 등 모든 기능이 이러한 디자인에 반영되어 있습니다.
AI는 인간과 인간이 소통하는 동작을 통해 존재의 물리적 경험에 얽매이지 않고 실재하는 듯한 착각을 불러일으킵니다.
스탠포드 대학의 인간 중심 인공지능 연구소의 공동 설립자인 페이 페이 리(Fei-Fei Li)와 존 에체멘디(John Etchemendy)는 Time 기사7에서 “모든 감각(배고픔, 고통, 붉은색을 보는 것, 사랑에 빠지는 것)은 생리적 상태의 결과이며, 이는 대형 언어 모델이 갖추고 있지 않은 것”이라고 말했습니다. 따라서 AI 챗봇이 "배고프다"고 말하도록 유도될 수는 있지만, 실제로 배고플 수는 없습니다. AI는 위장을 가지고 있지 않기 때문입니다.
현재의 AI는 지각이 없습니다. 시험과 테스트를 통해 이러한 유형의 AI 모델은 여전히 매우 결함이 많으며 종종 실수를 하거나 정보를 만들어내어 할루시네이션이라는 현상을 일으킬 수 있다는 것이 밝혀졌습니다.
이러한 실수는 종종 모델이 정보가 존재하는 맥락을 파악하지 못하거나 불확실한 상황에서 발생합니다. AI의 자율성이 강화되면 이러한 결함이 증폭될 수 있는 위험이 있습니다.
또한 윤리학자들이 지각이 있는 AI에 대해 우려하는 이유는 컴퓨터 과학자들이 독립적으로 사고하는 방법을 학습하는 시스템에 대한 통제권을 잃을 경우 어떤 일이 일어날지 모르기 때문입니다. AI의 목표가 인간의 목표와 충돌할 경우 '실존적' 문제가 발생할 수 있습니다. 이런 일이 발생하면 피해, 잘못된 의사 결정, 그리고 인간이 처음 삽입한 명령으로 되돌릴 수 없는 논리적 흐름에서 비롯된 예측 불가능한 행동에 대한 책임이 어디에 있는지 불분명해집니다.
또한 전문가들은 지각 있는 AI와 통신할 수 없거나 그 결과물을 완전히 신뢰할 수 없을 것이라고 우려합니다. 결국 지각 있는 AI가 안전, 보안, 개인정보 보호에 위협이 될 수 있다는 결론을 내리는 사람들도 있습니다.
AI가 기존 기술에 더욱 통합됨에 따라 업계 전문가들은 더 많은 규제 프레임워크와 기술적 보호 장치를 마련할 것을 촉구하고 있습니다. 이것은 AI의 자율성과 기능에 대한 도덕적, 윤리적 딜레마에 비추어 볼 때 더욱 중요합니다.
1 'The Google engineer who thinks the company’s AI has come to life,' The Washington Post, 2022년 6월 11일
2 'Google Sidelines Engineer Who Claims Its A.I. Is Sentient,' The New York Times, 2022년 6월 12일
3 'Brains, Minds, and Machines: Consciousness and Intelligence,' Infinite MIT
4 'On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?' FAccT '21: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 2021년 3월 1일
5 'The mind behind anthropomorphic thinking: attribution of mental states to other species,' Animal Behaviour, 2015년 11월
6 'Google Engineer Claims AI Chatbot Is Sentient: Why That Matters,' Scientific American, 2022년 7월 12일
7 “No, Today’s AI Isn’t Sentient. Here’s How We Know,” TIME, 2024년 5월 22일