2024년 가장 중요한 AI 트렌드

2024년 2월 9일

12분 분량

2022년은 생성형 인공 지능(AI)이 대중의 의식에 폭발적으로 확산된 해였으며, 2023년은 생성형 인공 지능(AI)이 비즈니스 세계에 뿌리를 내리기 시작한 해였습니다. 따라서 2024년은 AI의 미래를 위한 중추적인 해가 될 것이며, 연구자와 기업은 이러한 진화적 기술 도약이 우리의 일상 생활에 가장 실질적으로 통합될 수 있는 방법을 모색하기 위해 노력하고 있습니다.

생성형 AI의 진화는 컴퓨터의 진화와 유사하지만, 그 속도는 극적으로 빨라졌습니다. 중앙에서 운영되던 몇몇 대규모 메인프레임 컴퓨터는 기업 및 연구 기관에서 사용할 수 있는 더 작고 효율적인 컴퓨터로 대체되었습니다. 그 후 수십 년 동안 점진적인 발전이 이루어지며 취미로 만지작거릴 수 있는 가정용 컴퓨터가 탄생했습니다. 시간이 지나면서 직관적인 노코드 인터페이스를 갖춘 강력한 개인용 컴퓨터가 보편화되었습니다.

생성형 AI는 이미 '취미용' 단계에 도달했으며, 컴퓨터와 마찬가지로 더 작은 패키지에서 더 큰 성능을 달성하는 것을 목표로 합니다. 2023년에는 Meta의 LlaMa 대규모 언어 모델(LLM) 제품군 출시를 시작으로 StableLM, Falcon, Mistral,Llama 2 등 오픈 라이선스를 통해 점점 더 효율적인 파운데이션 모델이 폭발적으로 증가했습니다. DeepFloyd와 Stable Diffusion은 선도적인 독점 모델과 상대적으로 동등한 수준을 달성했습니다. 오픈 소스 커뮤니티에서 개발한 미세 조정 기술과 데이터 세트로 향상된 많은 오픈 모델은 이제 훨씬 적은 매개변수 수에도 불구하고 대부분의 벤치마크에서 가장 강력한 비공개 소스 모델을 제외한 모든 모델을 능가하는 성능을 발휘할 수 있습니다.

발전의 속도가 빨라짐에 따라 최첨단 모델의 끊임없이 확장되는 기능은 언론의 주목을 가장 많이 받게 될 것입니다. 그러나 가장 영향력 있는 개발은 기업과 최종 사용자 모두에게 생성형 AI를 보다 신뢰할 수 있고 지속 가능하며 접근하기 쉽게 만드는 거버넌스, 미들웨어, 교육 기술 및 데이터 파이프라인에 초점을 맞춘 개발일 것입니다.

다음은 내년에 주목해야 할 몇 가지 중요한 최신 AI 트렌드입니다.

  • 현실 점검: 보다 현실적인 기대치
  • 멀티모달 AI
  • 소규모 언어 모델 및 오픈 소스 발전
  • GPU 부족 및 클라우드 비용
  • 모델 최적화의 접근성 향상
  • 맞춤형 로컬 모델 및 데이터 파이프라인
  • 더욱 강력한 가상 에이전트
  • 규제, 저작권 및 윤리적 AI 문제
  • 섀도 AI (및 기업 AI 정책)

현실 점검: 보다 현실적인 기대치

생성형 AI가 처음 대중에게 알려졌을 때, 일반적으로 비즈니스 리더들은 그 지식을 대부분 마케팅 자료와 숨 가쁜 뉴스 보도를 통해 얻었습니다. 실질적인 경험(있는 경우)은 ChatGPT와 DALL-E를 사용해 보는 것으로 제한되었습니다. 그 열기가 어느 정도 가라앉은 현재, 비즈니스 커뮤니티는 이제 AI 기반 솔루션에 대해 보다 정확하게 이해할 수 있게 되었습니다.

Gartner Hype Cycle은 생성형 AI를 '환멸의 저점'[1], 즉 (상대적으로) 압도적인 전환기에 접어들기 직전인 '부풀려진 기대의 정점'에 위치시켰으며, 2024년 1분기 Deloitte의 '기업 내 생성형 AI 현황' 보고서에서는 많은 리더가 '단기간에 상당한 혁신적 영향을 기대'[2]하고 있다고 밝혔습니다. 현실은 그 사이에 있을 가능성이 높습니다. 생성형 AI는 고유한 기회와 솔루션을 제공하지만, 모든 사람에게 생성형 AI가 완벽한 솔루션이 되지는 않습니다.

실제 결과가 과장된 기대치와 어떻게 비교되는지는 부분적으로 관점의 문제입니다. ChatGPT와 같은 독립형 도구는 일반적으로 대중의 주목을 받지만, 기존 서비스에 원활하게 통합되는 도구가 더 오래 지속되는 경우가 많습니다. 현재의 하이프 사이클 이전에는 2018년 Google이 출시한 'Smart Compose' 기능과 같은 생성형 머신 러닝 도구가 오늘날 텍스트 생성 서비스의 선구자임에도 불구하고 패러다임의 전환을 예고하지 않았습니다. 마찬가지로 많은 영향력 있는 생성형 AI 도구가 기존 도구를 혁신하거나 대체하기보다는 기존 도구를 향상하고 보완하는 엔터프라이즈 환경의 통합 요소로 구현되고 있습니다(예: Microsoft Office의 'Copilot' 기능, Adobe Photoshop의 'Generative Fill' 기능 또는 생산성 및 협업 앱의 가상 상담사).

생성형 AI가 일상적인 워크플로에서 어떤 모멘텀을 먼저 구축하는지가 특정 AI 기능의 가상적인 장점보다 AI 도구의 미래에 더 큰 영향을 미칠 것입니다. 대기업 직원 1,000명 이상을 대상으로 한 최근 IBM의 설문조사에 따르면, AI 채택을 이끄는 가장 큰 세 가지 요인은 접근성을 높이는 AI 툴의 발전, 비용 절감 및 주요 프로세스 자동화의 필요성, 표준 상용 비즈니스 애플리케이션에 내장된 AI 양의 증가였습니다.

멀티모달 AI (및 비디오)

즉, 최첨단 생성형 AI에 대한 야망이 커지고 있습니다. 다음 발전 흐름은 특정 도메인 내에서 성능을 향상시키는 것뿐만 아니라 여러 유형의 데이터를 입력으로 사용할 수 있는 멀티모달 모델이 중심이 될 것입니다. CLIP과 같은 텍스트-이미지 모델과 Wave2Vec과 같은 Speech to Text 모델이 수년 동안 사용되어 온 것처럼, 서로 다른 데이터 모달리티에서 작동하는 모델이 완전히 새로운 현상은 아니지만, 일반적으로 이는 한 방향으로만 작동했으며 특정 작업을 수행하도록 훈련되어왔습니다.

OpenAI의 GPT-4V 또는 Google의 Gemini와 같은 독점 모델뿐만 아니라 LLava, Adept 또는 QWEN-VL과 같은 오픈 소스 모델로 구성된 차세대 학제 간 모델은 자연어 처리(NLP)와 컴퓨팅 비전 작업 사이를 자유롭게 이동할 수 있습니다. 새로운 모델들은 비디오를 사용하고 있습니다. 1월 말, Google은 이미지-비디오 작업을 수행하거나 스타일 참조를 위해 이미지를 사용할 수 있는 텍스트-비디오 확산 모델인 Lumiere를 발표했습니다.

멀티모달 AI의 가장 즉각적인 이점은 보다 직관적이고 다양한 AI 애플리케이션과 가상 어시스턴트를 사용할 수 있다는 점입니다. 예를 들어 사용자는 이미지에 대해 질문하고 자연어로 답변을 받거나, 수리 방법을 소리 내어 물어보고 단계별 텍스트 설명과 함께 시각적 보조 자료를 받을 수 있습니다.

더 높은 수준에서 멀티모달 AI를 사용하면 모델이 더 다양한 데이터 입력을 처리하여 학습 및 추론에 사용할 수 있는 정보를 풍부하게 제공하고 확장할 수 있습니다. 특히 동영상은 전체론적 학습을 위한 큰 잠재력을 제공합니다. 스탠포드 인간 중심 인공 지능(HAI) 연구소의 수석 교육 연구원인 Peter Norvig은 “연중무휴 24시간 가동되는 카메라가 있는데, 이 카메라는 어떤 필터링이나 의도도 없이 일어나는 일을 그저 포착하는 카메라입니다.”라고 말합니다.[3] "AI 모델은 이전에는 이런 종류의 데이터를 가지고 있지 않았습니다. 이러한 모델은 이제 모든 것을 더 잘 이해할 수 있게 될 것입니다."

소규모 언어 모델 및 오픈 소스 발전

도메인별 모델, 특히 LLM의 경우 매개변수 수가 많을수록 수익이 감소하는 시점에 도달했을 가능성이 높습니다. OpenAI(약 1조 7,600억 개의 매개변수를 가진 것으로 알려진 GPT-4 모델)의 CEO인 샘 알트먼(Sam Altman)은 지난 4월 MIT의 Imagination in Action 행사에서 이와 같은 의견을 제시하며, “저는 우리가 이 거대한 모델이 될 시대의 끝자락에 있다고 생각합니다. 우리는 다른 방식으로 더 나은 모델을 만들 것입니다."라고 예측했습니다. “매개변수 수에 너무 많은 초점이 맞춰져 있다고 생각합니다.”

대규모 모델은 현재 진행 중인 AI 황금기를 시작했지만 단점이 없는 것은 아닙니다. 초대형 기업만이 수천억 개의 매개변수가 포함된 에너지 소비가 많은 모델을 훈련하고 유지할 수 있는 자금과 서버 공간을 보유하고 있습니다. 워싱턴 대학교의 한 추산에 따르면, 단일 GPT-3 크기의 모델을 훈련하려면 1,000여 가구의 연간 전력 소비량이 필요하며, 표준 하루 ChatGPT 쿼리는 미국 33,000 가구의 일일 에너지 소비량과 맞먹는다고 합니다.[4]

반면에 더 작은 모델은 리소스 집약도가 훨씬 낮습니다. 2022년 3월에 발표된 영향력 있는 논문(ibm.com 외부 링크)에 따르면 더 많은 데이터로 더 작은 모델을 학습시키는 것이 더 적은 데이터로 더 큰 모델을 학습시키는 것보다 더 나은 성능을 발휘한다는 사실이 입증되었습니다. 따라서 현재 진행 중인 LLM의 많은 혁신은 더 적은 파라미터로 더 큰 아웃풋을 얻는 데 초점을 맞추고 있습니다. 30억~700억 파라미터 범위의 모델, 특히 2023년에 LLaMa, Llama 2 및 Mistral 파운데이션 모델을 기반으로 구축된 모델의 최근 진행 과정에서 알 수 있듯이 성능 저하 없이도 모델 크기를 축소할 수 있습니다.

개방형 모델의 힘은 계속 커질 것입니다. 2023년 12월, Mistral은 각각 70억 개의 매개변수를 가진 8개의 신경망을 통합한 전문가 조합(MoE, Mixture of Experts ) 모델인 'Mixtral'을 출시했습니다. Mistral은 Mixtral이 대부분의 벤치마크에서 70억 개의 파라미터를 사용하는 Llama 2보다 6배 빠른 추론 속도로 성능을 발휘할 뿐만 아니라, 대부분의 표준 벤치마크에서 훨씬 규모가 큰 OpenAI의 GPT-3.5와 비슷하거나 더 나은 성능을 보인다고 밝혔습니다. 곧이어 1월, Meta는 이미 Llama 3 모델의 학습을 시작했으며 오픈 소스로 공개할 예정이라고 밝혔습니다. 모델 크기와 같은 세부 사항은 확인되지 않았지만, Llama 3는 이전 두 세대에서 확립된 프레임워크를 따를 것으로 예상하는 것이 합리적입니다.

소규모 모델의 이러한 발전에는 세 가지 중요한 이점이 있습니다.

  • AI의 대중화 지원: 더 저렴한 하드웨어에서 더 적은 비용으로 실행할 수 있는 더 작은 규모의 모델을 통해 더 많은 아마추어와 기관이 기존 모델을 연구, 학습 및 개선할 수 있습니다.
  • 더 작은 디바이스에서 로컬로 실행 가능: 이를 통해 엣지 컴퓨팅 및 사물 인터넷(IoT)과 같은 시나리오에서 보다 정교한 AI를 구현할 수 있습니다. 또한 사용자의 스마트폰과 같이 로컬에서 모델을 실행하면 민감한 개인 또는 독점 데이터와의 상호 작용으로 인해 발생하는 많은 개인정보 보호 및 사이버 보안 문제를 피할 수 있습니다.
  • 더 설명 가능한 AI: 모델이 클수록 중요한 결정을 내리는 방법과 위치를 정확히 파악하기가 더 어려워집니다. 설명 가능한 AI는 AI 시스템의 결과를 이해하고 개선하며 신뢰하는 데 필수적입니다.

GPU 부족 및 클라우드 비용

더 작은 모델의 추진은 기업의 열정만큼이나 필요성에 의해 주도될 것으로 전망하는데, 클라우드 컴퓨팅 비용은 증가하고 하드웨어의 가용성은 감소하고 있기 때문입니다.

스탠포드 HAI의 부이사 겸 연구 책임자인 제임스 랜데이(James Landay)는 "대기업(과 더 많은 기업들)이 모두 AI 기능을 사내에 도입하려고 노력하고 있으며, GPU에 대한 의존도가 높아지고 있습니다."라고 말합니다. “이는 GPU 생산량 증가뿐만 아니라 혁신가들이 더 저렴하고 쉽게 만들고 사용할 수 있는 하드웨어 솔루션을 개발해야 한다는 큰 압박으로 작용할 것입니다."1

2023년 말 O'Reilly 보고서에 따르면 클라우드 제공업체는 현재 많은 컴퓨팅 부담을 안고 있습니다. 자체 인프라를 유지하는 AI 도입 업체는 상대적으로 적으며, 하드웨어 부족으로 인해 온프레미스 서버를 설정하는 데 드는 장애물과 비용만 늘어날 것으로 예상됩니다. 장기적으로는 제공업체가 생성형 AI의 수요를 효과적으로 충족하기 위해 자체 인프라를 업데이트하고 최적화함에 따라 클라우드 비용이 증가하면서 부담이 가중될 수 있습니다.[5]

기업의 경우, 이러한 불확실한 환경을 헤쳐 나가기 위해서는 필요에 따라 더 작고 효율적인 모델을 활용하거나 가능한 상황에서 더 크고 성능이 뛰어난 모델을 활용하는 등 이와 같은 두 모델과 배포 환경 측면에서 유연성이 필요합니다. IBM의 CEO 아르빈드 크리슈나(Arvind Krishna)는 2023년 12월 CNBC와의 인터뷰(ibm.com 외부 링크)에서 IBM의 watsonx 플랫폼을 언급하며 "우리는 사람들이 [모델]을 배포하는 위치를 제한하고 싶지 않습니다."라고 말했습니다. "따라서 고객이 대규모 퍼블릭 클라우드에 배포하고 [싶다면] 그곳에 배포할 것입니다. 고객이 IBM에 구축하기를 원한다면 IBM에서 구축할 것입니다. 고객이 자체 구축을 원하고 인프라가 충분하다면 자체 구축으로 진행할 것입니다."

모델 최적화의 접근성 향상

보다 컴팩트한 모델의 성능을 극대화하려는 추세는 최근 오픈 소스 커뮤니티의 성과에 잘 나타나 있습니다. 

많은 주요 발전은 새로운 파운데이션 모델뿐만 아니라 사전 훈련된 모델을 학습, 조정, 미세 조정 또는 정렬하기 위한 새로운 기술과 리소스(오픈 소스 데이터 세트 등)에 의해 이루어졌으며 앞으로도 계속될 것입니다. 모델에 구애받지 않으며 2023년 주목할 만한 기술은 다음과 같습니다.

  • 저순위 적응(LoRA): LoRA는 수십억 개의 모델 매개변수를 직접 미세 조정하는 대신 사전 학습된 모델 가중치를 동결하고 각 트랜스포머 블록에 훈련 가능한 레이어(모델 가중치 변경 행렬을 2개의 작은(저순위) 행렬로 나타내는)를 주입하는 방식을 사용합니다. 이렇게 하면 업데이트해야 하는 매개변수의 수가 크게 줄어들어 미세 조정 속도가 크게 빨라지고 모델 업데이트를 저장하는 데 필요한 메모리가 줄어듭니다.
  • 양자화: 양자화는 오디오나 동영상의 비트 전송률을 낮춰 파일 크기와 지연 시간을 줄이는 것처럼 모델 데이터 포인트를 표현하는 데 사용되는 정밀도(예: 16비트 부동 소수점에서 8비트 정수로)를 낮춰 메모리 사용량을 줄이고 추론 속도를 높입니다. QLoRA 기술은 양자화와 LoRA를 결합합니다.
  • 직접 선호도 최적화(DPO): 채팅 모델은 일반적으로 사람의 피드백을 통한 강화 학습(RLHF)을 사용하여 모델 출력을 사람의 선호도에 맞춰 조정합니다. RLHF는 강력하지만 복잡하고 불안정합니다. DPO는 비슷한 이점을 제공하면서도 계산이 훨씬 가볍고 훨씬 더 간단합니다.

30억~700억 개의 매개변수를 가진 오픈 소스 모델의 발전과 함께 이러한 진화하는 기술은 스타트업 및 아마추어와 같은 소규모 플레이어에게 과거에는 접근이 불가능했던 정교한 AI 기능을 제공함으로써 AI 분야의 경쟁 관계를 변화시킬 수 있습니다.

맞춤형 로컬 모델 및 데이터 파이프라인

따라서 2024년의 기업들은 '빅 AI'의 서비스를 리패키지하고 기능을 추가하는 대신 맞춤형 모델을 개발해 차별화를 추구할 수 있습니다. 적절한 데이터와 개발 프레임워크만 있다면 기존의 오픈 소스 AI 모델과 도구를 고객 지원부터 공급망 관리, 복잡한 문서 분석에 이르기까지 거의 모든 실제 시나리오에 맞게 조정할 수 있습니다.

오픈 소스 모델을 통해 조직은 막대한 비용이 드는 인프라 투자 없이도 자체 데이터로 훈련하고 특정 요구 사항에 맞게 미세 조정된 강력한 맞춤형 AI 모델을 신속하게 개발할 수 있습니다. 이는 특히 법률, 의료 또는 금융과 같이 고도로 전문화된 어휘와 개념이 사전 학습에서 파운데이션 모델에 학습되지 않았을 수 있는 분야에 적합합니다.

법률, 금융, 의료 분야는 소규모 하드웨어에서 로컬로 실행할 수 있을 정도로 작은 모델을 통해 이점을 얻을 수 있는 대표적인 산업 분야이기도 합니다. AI 훈련, 추론 및 검색 증강 생성(RAG)을 로컬에서 수행하면 독점 데이터나 민감한 개인정보가 비공개 소스 모델을 학습하는 데 사용되거나 제3자의 손에 넘어갈 위험을 피할 수 있습니다. 또한 모든 지식을 LLM 자체에 직접 저장하는 대신 RAG를 사용하여 관련 정보에 액세스하면 모델 크기를 줄이고 속도를 더욱 높이며 비용을 절감할 수 있습니다.

2024년에는 모델 경쟁의 장이 계속 평준화되면서 업계 최고의 미세 조정을 가능하게 하는 독점적인 데이터 파이프라인이 경쟁 우위를 점하게 될 것입니다.

더욱 강력한 가상 에이전트

더욱 정교하고 효율적인 툴과 1년간의 시장 피드백을 바탕으로 기업들은 단순한 고객 경험 챗봇을 넘어 가상 상담사의 사용 사례를 확장할 준비가 되었습니다.

AI 시스템의 속도가 빨라지고 새로운 정보 흐름과 형식이 통합됨에 따라 커뮤니케이션과 명령 수행뿐만 아니라 작업 자동화에 대한 가능성도 확대되고 있습니다. "2023년은 AI와 채팅할 수 있었던 해였습니다. 여러 기업에서 무언가를 출시했지만, 항상 사용자가 무언가를 입력하면 AI가 다시 입력하는 상호작용 방식이었습니다."라고 스탠포드의 노빅(Norvig)은 말합니다. “2024년에는 상담사가 사용자를 대신해 업무를 처리하는 기능을 보게 될 것입니다. 예약하고, 여행을 계획하고, 다른 서비스에 연결할 수도 있습니다."

특히 멀티모달 AI는 가상 상담사와 원활하게 상호작용할 수 있는 기회를 크게 늘려줍니다. 예를 들어, 사용자는 단순히 봇에게 레시피를 요청하는 대신 카메라를 냉장고에 대고 사용 가능한 재료로 만들 수 있는 레시피를 요청할 수 있습니다. 시각 장애인과 저시력자를 자원봉사자와 연결하여 간단한 작업을 도와주는 모바일 앱인 Be My Eyes는 사용자가 인간 자원봉사자를 기다리는 대신 멀티모달 AI를 통해 주변 환경과 직접 상호작용할 수 있도록 지원하는 AI 도구를 시범 운영하고 있습니다.

IBM watsonx Assistant 살펴보기: 비즈니스에 필요한 도구를 원활하게 통합하는 선도적인 대화형 AI →

규제, 저작권 및 윤리적 AI 문제

멀티모달 기능이 향상되고 진입 장벽이 낮아지면서 딥페이크, 개인정보 보호 문제, 편견의 지속, 심지어 CAPTCHA 안전장치의 우회 등 기술을 악용할 수 있는 새로운 문이 열리고 있습니다. 2024년 1월, 노골적인 유명인 딥페이크가 소셜 미디어를 강타했습니다. 2023년 5월 연구에 따르면 온라인에 게시된 음성 딥페이크는 2022년 같은 기간에 비해 8배나 증가한 것으로 나타났습니다.[6]

규제 환경의 모호성으로 인해 단기적으로나 중기적으로 도입이 늦어지거나 보다 적극적인 실행이 이루어지지 않을 수 있습니다. 새로운 기술이나 관행에 대한 대규모의 돌이킬 수 없는 투자에는 위험이 내재되어 있으며, 향후 몇 년 동안 새로운 법률이나 변화하는 정치적 역풍에 따라 상당한 재구성이 필요하거나 심지어 불법이 될 수도 있습니다.

2023년 12월, 유럽연합(EU)은 인공지능법에 대한 잠정 합의(ibm.com 외부 링크)에 도달했습니다. 이 법은 얼굴 인식 데이터베이스를 만들기 위한 무차별적인 이미지 스크래핑, 차별적 편견의 가능성이 있는 생체 인식 분류 시스템, '소셜 스코어링' 시스템, 사회적 또는 경제적 조작을 위한 AI 사용을 금지하는 등의 조치를 담고 있습니다. 또한 안전, 기본권 또는 법치를 위협할 가능성이 있는 '고위험' AI 시스템의 범주를 정의하려고 하며, 이는 추가 감독의 대상이 될 것입니다. 또한, 기술 문서화 및 체계적인 적대적 테스트를 포함하여 '범용 AI(GPAI)' 시스템 파운데이션 모델에 대한 투명성 요건을 설정하고 있습니다.

그러나 Mistral과 같은 일부 주요 업체는 EU에 위치해 있지만, 대부분의 획기적인 AI 개발은 미국에서 이루어지고 있습니다. 미국의 경우 민간 부문에서 AI를 실질적으로 입법화하려면 의회의 조치가 필요하지만 선거가 있는 해에는 이러한 조치가 취해질 가능성이 낮습니다. 10월 30일, 바이든 행정부는 연방 기관의 AI 기술 사용에 관한 150가지 요건을 자세히 설명하는 포괄적인 행정 명령(ibm.com 외부 링크)을 발표했습니다. 몇 달 전 행정부는 저명한 AI 개발자들로부터 신뢰와 보안을 위해 특정 가드레일을 준수하겠다는 자발적 약속을 확보한 바 있습니다. 특히 캘리포니아와 콜로라도는 인공지능과 관련된 개인의 데이터 프라이버시 권리에 관한 자체 법률을 적극적으로 추진하고 있습니다.

중국은 소셜 미디어에서 추천 알고리즘에 의한 가격 차별을 금지하고 AI가 생성한 콘텐츠에 명확한 라벨링을 의무화하는 등 공식적인 AI 규제에 보다 적극적으로 나서고 있습니다. 생성형 AI에 대한 향후 규제는 LLM을 학습시키는 데 사용되는 학습 데이터와 이후 모델이 생성하는 콘텐츠가 '진실하고 정확해야 한다'고 요구하고 있으며, 전문가들은 LLM 결과물을 검열하기 위한 조치를 취하고 있습니다.

한편, 언어 모델에서 이미지 생성기 및 비디오 모델에 이르기까지 콘텐츠 생성에 사용되는 AI 모델 훈련에서 저작권이 있는 자료의 역할은 여전히 뜨거운 논쟁거리로 남아 있습니다. New York Times가 OpenAI를 상대로 제기한 세간의 이목을 집중시킨 소송(ibm.com 외부 링크)의 결과는 AI 법안의 향방에 큰 영향을 미칠 수 있습니다. 시카고 대학교에서 개발한 Glaze(ibm.com 외부 링크) 및 Nightshade(ibm.com 외부 링크)와 같은 적대적 도구는 크리에이터와 모델 개발자 간 일종의 무기 경쟁이 될 수 있는 상황에서 등장했습니다.

섀도 AI (및 기업 AI 정책)

기업의 경우 생성형 AI 도구의 대중화와 접근성 향상으로 인해 법, 규제, 경제, 평판 결과에 대한 잠재적 위험이 더욱 커지고 있습니다. 조직은 생성형 AI에 대한 신중하고 일관되며 명확하게 표현된 기업 정책을 마련해야 할 뿐만 아니라, 직원들이 직장에서 '비공식적으로' 개인적으로 AI를 사용하는 섀도우 AI도 경계해야 합니다.

'섀도우 IT' 또는 'BYOAI'라고도 불리는 섀도우 AI는 빠른 해결책을 찾거나 신중한 회사 정책이 허용하는 것보다 더 빨리 새로운 기술을 탐색하고 싶어하는 성급한 직원이 IT 부서의 승인이나 감독을 거치지 않고 업무 공간에서 생성형 AI를 구현할 때 발생합니다. 많은 소비자 대상 서비스(일부는 무료)를 통해 비전문가도 생성형 AI 도구를 즉흥적으로 사용할 수 있습니다. Ernst & Young의 한 연구에 따르면 응답자의 90%가 직장에서 AI를 사용한다고 답했습니다.[7]

하지만 열성적인 직원들은 보안, 개인정보 보호 또는 규정 준수에 관한 관련 정보나 관점이 부족할 수 있습니다. 이로 인해 기업은 상당한 위험에 노출될 수 있습니다. 예를 들어, 직원이 사용자 입력을 지속적으로 학습하는 공개형 AI 모델에 자신도 모르게 영업 비밀을 제공하거나 저작권 보호 자료를 사용하여 독점적인 콘텐츠 생성형 모델을 훕련시켜 회사가 법적 조치에 휘말릴 수 있습니다.

현재 진행 중인 많은 개발 사례와 마찬가지로, 이는 생성형 AI의 위험성이 그 능력에 따라 거의 선형적으로 증가한다는 점을 강조합니다. 큰 힘에는 큰 책임이 따릅니다.

앞으로 나아가기

인공지능 분야에서 중요한 한 해를 지나고 있는 지금, 잠재력을 극대화하고 위험을 최소화하며 생성형 AI 도입을 책임감 있게 확장하려면 새로운 트렌드를 이해하고 이에 적응하는 것이 필수적입니다.

작가

Dave Bergmann

Senior Writer, AI Models

IBM

각주

1"Gartner, 2023년 신흥 기술의 하이프 사이클에 대한 기대가 부풀려진 가운데 생성형 AI가 정점에 달할 것으로 전망"(ibm.com 외부 링크), Gartner, 2023년 8월 16일

2 ”Deloitte 엔터프라이즈 1분기 보고서의 생성형 AI 현황"(ibm.com 외부 링크), Deloitte, 2024년 1월

3 "2024년 AI에서 기대할 수 있는 것"(ibm.com 외부 링크), 스탠포드 대학교, 2023년 12월 8일

4 "Q&A: UW 연구원이 ChatGPT가 얼마나 많은 에너지를 사용하는지 설명"(ibm.com 외부 링크), 워싱턴 대학교, 2023년 7월 27일

5 "기업 내 생성형 AI"(ibm.com 외부 링크), O'Reilly, 2023년 11월 28일.

6 ”딥페이크: AI 붐과 맞물려 있는 미국의 2024년 선거.”(ibm.com 외부 링크), Reuters, 2023년 5월 30일

7 "조직에서 급증하는 AI 사용이 불안감을 조장하는 것을 막을 수 있는 방법"(ibm.com 외부 링크), Ernst & Young, 2023년 12월