게시일: 2024년 6월 5일
기고자: Annie Badman, Matthew Kosinski
조직은 다양한 방법으로 AI를 사이버 보안 관행에 통합할 수 있습니다. 가장 일반적인 AI 보안 도구는 머신 러닝과 딥 러닝을 사용하여 트래픽 추세, 앱 사용, 검색 습관 및 기타 네트워크 활동 데이터를 포함한 방대한 양의 데이터를 분석합니다.
이 분석을 통해 AI는 패턴을 발견하고 보안 기준을 설정할 수 있습니다. 해당 기준을 벗어나는 모든 활동은 즉시 이상 징후 및 잠재적인 사이버 위협으로 표시되어 신속한 해결이 가능합니다.
또한 AI 보안 도구는 대규모 언어 모델(LLM)로 대중화된 생성형 AI(gen AI)를 자주 사용하여 보안 데이터를 일반 텍스트 권장 사항으로 변환하여 보안 팀의 의사 결정을 간소화합니다.
연구에 따르면 AI 보안 도구는 위협 탐지 및 사고 대응을 크게 개선합니다. IBM 데이터 유출 비용(CODB) 보고서에 따르면, 광범위한 보안 AI 및 자동화를 갖춘 조직은 AI 도구가 없는 조직보다 평균 108일 더 빠르게 데이터 유출을 식별하고 억제했습니다.
또한 보고서에 따르면 AI 보안을 광범위하게 사용하는 조직은 데이터 유출에 대응하는 데 드는 비용을 평균 176만 달러씩 절약할 수 있습니다. 이는 AI를 사용하지 않는 기업의 평균 유출 비용과 비교하면 거의 40%의 차이입니다.
이러한 이유로 AI 보안에 대한 투자가 증가하고 있습니다. 최근 연구에 따르면 2023년 201억 9,000만 달러 규모였던 AI 보안 시장은 2032년까지 매년 24.2%씩 성장하여 1,416억 4,000만 달러에 달할 것으로 예상됩니다.1
AI 보안의 또 다른 정의는 사이버 위협으로부터 AI를 보호하는 것입니다. 이러한 이해에 따라 사이버 보안 전문가들은 위협 행위자가 AI를 사용하여 기존 사이버 공격을 개선하거나 새로운 공격 표면을 어떻게 악용할 수 있는지에 중점을 둡니다.
예를 들어, LLM은 공격자가 더욱 개인화되고 정교한 피싱 공격을 만드는 데 사용될 수 있습니다. 비교적 새로운 기술인 AI 모델은 위협 행위자에게 공급망 공격 및 적대적 공격과 같은 사이버 공격에 대한 새로운 기회를 제공합니다("AI의 잠재적 취약성 및 보안 위험" 참조).
이 개요는 AI를 사용하여 사이버 보안을 개선하는 것과 관련된 AI 보안의 정의에 중점을 둡니다. 그러나 AI의 잠재적 취약성과 AI 시스템을 보호하기 위한 모범 사례에 대한 정보도 포함되어 있습니다.
오늘날의 사이버 위협 환경은 복잡합니다. 클라우드 및 하이브리드 클라우드 환경으로의 전환으로 인해 데이터가 무분별하게 확산되고 공격 표면이 확대되었으며, 위협 행위자는 취약점을 악용할 새로운 방법을 계속 찾고 있습니다. 동시에 사이버 보안 전문가는 여전히 부족하여 미국에서만 700,000개 이상의 일자리가 창출되고 있습니다.2
그 결과 사이버 공격은 이제 더 빈번하고 비용이 많이 듭니다. 데이터 유출 비용(CODB) 보고서에 따르면 2023년 데이터 유출을 복구하는 데 드는 전 세계 평균 비용은 445만 달러로, 3년 동안 15% 증가했습니다.
AI 보안이 솔루션을 제공할 수 있습니다. AI는 위협 탐지 및 대응을 자동화하여 실시간으로 공격을 더 쉽게 예방하고 위협 행위자를 잡을 수 있도록 합니다. AI 도구는 악성 소프트웨어를 식별하고 격리하여 맬웨어 공격을 방지하는 것부터 반복되는 로그인 시도를 인식하고 차단하여 무차별 대입 공격을 탐지하는 것까지 모든 것을 지원할 수 있습니다.
AI 보안을 통해 조직은 보안 운영을 지속적으로 모니터링하고 머신 러닝 알고리즘을 사용하여 진화하는 사이버 위협에 적응할 수 있습니다.
AI 보안에 투자하지 않으면 비용이 많이 듭니다. AI 보안이 없는 조직의 평균 데이터 유출 비용은 536만 달러로 전체 조직의 평균 비용보다 18.6% 높습니다. AI 보안이 제한된 기업에서도 평균 404만 달러의 데이터 침해 비용이 발생했다고 보고했습니다. 이는 전체 평균보다 40만 달러 적고, AI 보안을 전혀 사용하지 않는 기업보다 28.1% 적은 금액입니다.
AI는 이러한 이점에도 불구하고 보안 문제, 특히 데이터 보안 문제를 야기합니다. AI 모델은 학습 데이터만큼만 신뢰할 수 있습니다. 조작되거나 편향된 데이터는 오탐 또는 부정확한 응답으로 이어질 수 있습니다. 예를 들어, 채용 결정에 사용되는 편향된 학습 데이터는 AI 모델이 특정 인구 집단을 선호하고 다른 집단을 차별하는 등 성별 또는 인종 편견을 강화할 수 있습니다.3
AI 도구는 또한 위협 행위자가 보안 취약성을 보다 성공적으로 악용하는 데 사용될 수 있습니다. 예를 들어, 공격자는 AI를 사용하여 시스템 취약점 검색을 자동화하거나 정교한 피싱 공격을 생성할 수 있습니다.
로이터 통신에 따르면 미국 연방수사국(FBI)은 AI로 인한 사이버 침입이 증가하고 있다고 밝혔습니다.4 또한 최근 보고서에 따르면 고위 사이버 보안 전문가의 75%가 사이버 공격이 증가하고 있으며, 85%는 생성형 AI를 사용하는 악의적 행위자를 사이버 공격의 증가의 원인으로 꼽았습니다.5
이러한 우려에도 불구하고 연구에 따르면 현재 생성형 AI 프로젝트 중 보안이 확보된 프로젝트는 24%에 불과합니다.
앞으로 많은 조직은 AI 윤리 또는 보안을 손상시키지 않으면서 인공 지능의 이점을 활용하기 위해 보안 AI에 시간과 리소스를 투자할 방법을 모색할 것입니다("AI 보안 모범 사례" 참조).
AI 기능은 사이버 보안 방어를 강화하는 데 상당한 이점을 제공할 수 있습니다.
AI 보안의 가장 중요한 이점은 다음과 같습니다.
새로운 AI 도구를 도입하면 많은 이점이 있지만 조직의 공격 표면이 확장되고 몇 가지 보안 위협이 발생할 수도 있습니다.
AI로 인해 발생하는 가장 일반적인 보안 위험은 다음과 같습니다.
AI 시스템은 변조, 유출, 기타 공격에 취약할 수 있는 데이터 세트에 의존합니다. 조직은 개발에서 교육 및 배포에 이르기까지 전체 AI 수명 주기에 걸쳐 데이터 무결성, 기밀성, 가용성을 보호하여 이러한 위험을 완화할 수 있습니다.
위협 행위자는 도난, 리버스 엔지니어링 또는 무단 조작을 위해 AI 모델을 표적으로 삼을 수 있습니다. 공격자는 AI 모델의 동작과 성능을 결정하는 핵심 구성 요소인 아키텍처, 가중치 또는 매개 변수를 변조하여 모델의 무결성을 손상시킬 수 있습니다.
적대적 공격은 입력 데이터를 조작하여 AI 시스템을 속여 잘못된 예측 또는 분류를 유도하는 것을 포함합니다. 예를 들어, 공격자는 AI 알고리즘의 취약성을 악용하여 AI 모델의 의사 결정을 방해하거나 편향을 생성하는 적대적 예제를 생성할 수 있습니다.
마찬가지로 프롬프트 인젝션은 악성 프롬프트를 사용하여 AI 도구가 데이터 유출 또는 중요한 문서 삭제와 같은 유해한 조치를 취하도록 속입니다.
보안 팀이 AI 시스템을 배포할 때 안전과 윤리를 우선시하지 않으면 개인 정보가 보호되지 않고 편향과 오탐을 악화시킬 위험이 있습니다. 윤리적 배포를 통해서만 조직은 AI 의사 결정에 있어서 공정성, 투명성, 책임성을 보장할 수 있습니다.
AI 시스템의 합법적이고 윤리적인 사용을 보장하려면 법적 및 규제 요구 사항을 준수하는 것이 필수적입니다. 조직은 일반 데이터 보호 규정(GDPR), California Consumer Privacy Act(CCPA), EU AI 법과 같은 규정을 준수해야 합니다. 그렇지 않으면 민감한 데이터가 노출되거나 무거운 법적 처벌을 받을 위험이 있습니다.
입력 조작 공격은 AI 시스템의 동작이나 결과에 영향을 미치기 위해 입력 데이터를 변경하는 것과 관련됩니다. 공격자는 입력 데이터를 조작하여 탐지를 회피하거나, 보안 조치를 우회하거나, 의사 결정 프로세스에 영향을 미칠 수 있으며, 이로 인해 편향되거나 부정확한 결과가 발생할 수 있습니다.
예를 들어 위협 행위자는 의도적으로 잘못된 교육 데이터를 제공하여 데이터 중독 공격에서 AI 시스템의 출력을 손상시킬 수 있습니다.
공급망 공격은 위협 행위자가 개발, 배포 또는 유지 관리 단계를 포함한 공급망 수준에서 AI 시스템을 표적으로 삼을 때 발생합니다. 예를 들어, 공격자는 AI 개발에 사용되는 타사 구성 요소, 소프트웨어 라이브러리 또는 모듈의 취약성을 악용하여 데이터 침해 또는 무단 액세스로 이어질 수 있습니다.
AI 모델은 시간이 지남에 따라 표류 또는 쇠퇴를 경험할 수 있으며, 이로 인해 성능이나 효율성이 저하될 수 있습니다. 공격자는 쇠퇴하거나 표류하는 AI 모델의 약점을 악용하여 출력을 조작할 수 있습니다. 조직은 AI 모델의 성능, 동작 또는 정확성의 변화를 모니터링하여 신뢰성과 관련성을 유지할 수 있습니다.
AI 도구가 더욱 발전하고 접근성이 높아짐에 따라 사이버 보안에 AI를 적용하는 방식은 다양하고 지속적으로 발전하고 있습니다.
오늘날 AI 보안의 가장 일반적인 사용 사례는 다음과 같습니다.
데이터 보호는 민감한 정보를 보호하여 데이터 손실 및 손상으로부터 데이터를 보호하고 가용성을 보장하고 규정 요구 사항을 준수하는 것을 포함합니다.
AI 도구는 조직이 민감한 데이터를 분류하고, 데이터 이동을 모니터링하고, 무단 액세스 또는 유출을 방지하여 데이터 보호를 개선하는 데 도움이 될 수 있습니다. AI는 저장 중인 데이터와 전송 중인 데이터를 보호하기 위해 암호화 및 토큰화 프로세스를 최적화할 수도 있습니다.
또한 AI는 위협 환경에 자동으로 적응하고 24시간 내내 위협을 지속적으로 모니터링할 수 있으므로 조직은 새로운 사이버 위협에 앞서 나갈 수 있습니다.
엔드포인트 보안에는 컴퓨터, 서버, 모바일 디바이스와 같은 엔드포인트를 사이버 보안 위협으로부터 보호하는 것이 포함됩니다.
AI는 엔드포인트에서 의심스러운 행동과 이상 징후를 지속적으로 모니터링하여 실시간 보안 위협을 탐지함으로써 기존 엔드포인트 탐지 및 대응(EDR) 솔루션을 개선할 수 있습니다.
또한 머신 러닝 알고리즘은 파일리스 멀웨어 및 제로 데이 공격과 같은 지능형 엔드포인트 위협이 피해를 입히기 전에 식별하고 완화하는 데 도움이 될 수 있습니다.
AI는 섀도 데이터를 자동으로 식별하고, 데이터 접근의 이상 징후를 모니터링하고, 위협이 발생하면 사이버 보안 전문가에게 경고함으로써 하이브리드 클라우드 환경에서 민감한 데이터를 보호하는 데 도움이 될 수 있습니다.
위협 헌팅 플랫폼은 조직의 네트워크 내에서 악의적인 활동의 징후를 사전에 검색합니다.
AI 통합을 통해 이러한 도구는 대규모 데이터 세트를 분석하고, 침입 징후를 식별하고, 고급 위협을 보다 신속하게 탐지하고 대응할 수 있게 되면서 훨씬 더 발전되고 효율적이 될 수 있습니다.
사이버 공격과 신원 도용이 보편화됨에 따라 금융 기관은 고객과 자산을 보호할 수 있는 방법이 필요합니다.
AI는 사기를 나타내는 패턴에 대한 거래 데이터를 자동으로 분석하여 이러한 기관을 지원합니다. 또한 머신 러닝 알고리즘은 새롭고 진화하는 위협에 실시간으로 대응할 수 있으므로 은행은 사기 탐지 기능을 지속적으로 개선하고 위협 행위자보다 앞서 나갈 수 있습니다.
AI 보안 도구는 조직의 기존 보안 인프라와 통합될 때 가장 효과적인 경우가 많습니다.
예를 들어, 보안 오케스트레이션, 자동화 및 대응(SOAR)은 많은 조직이 보안 운영을 간소화하는 데 사용하는 소프트웨어 솔루션입니다. AI는 SOAR 플랫폼과 통합되어 일상적인 작업과 워크플로를 자동화할 수 있습니다. 이 통합을 통해 사고 대응 속도가 빨라지고 보안 분석가가 더 복잡한 문제에 집중할 수 있습니다.
ID 및 액세스 관리(IAM) 도구는 사용자가 디지털 리소스에 액세스하는 방법과 이를 사용하여 수행할 수 있는 작업을 관리합니다. 이 도구의 목표는 해커의 침입을 차단하는 동시에 각 사용자에게 필요한 권한만 정확하게 부여하고 그 이상은 부여하지 않는 것입니다.
AI 기반 IAM 솔루션은 역할, 책임, 행동에 따라 세분화된 액세스 제어를 제공하여 권한이 있는 사용자만 민감한 데이터에 액세스할 수 있도록 함으로써 이 프로세스를 개선할 수 있습니다.
또한 AI는 머신 러닝을 사용하여 사용자 행동 패턴을 분석하고 개별 사용자의 위험 수준에 따라 변경되는 적응형 인증 조치를 지원함으로써 인증 프로세스를 개선할 수 있습니다.
ChatGPT와 같은 LLM은 피싱 공격을 더 쉽게 수행하고 인식하기 어렵게 만들었습니다. 그러나 AI는 피싱 퇴치를 위한 중요한 도구로도 부상했습니다.
머신 러닝 모델은 조직에서 피싱 징후가 있는지 이메일과 기타 커뮤니케이션을 분석하여 탐지 정확도를 높이고 피싱 시도를 줄이는 데 도움을 줄 수 있습니다. AI 기반 이메일 보안 솔루션은 실시간 위협 인텔리전스와 자동화된 대응 기능을 제공하여 피싱 공격이 발생했을 때 이를 포착할 수 있습니다.
많은 조직은 AI의 보안 위험과 이점의 균형을 맞추기 위해 이해 관계자가 AI 시스템을 개발, 구현, 관리하는 방법을 설명하는 명시적인 AI 보안 전략을 수립합니다.
이러한 전략은 회사마다 다르지만 일반적으로 사용되는 몇 가지 모범 사례는 다음과 같습니다.
데이터 거버넌스 및 위험 관리 관행은 AI 프로세스에서 사용되는 민감한 정보를 보호하는 동시에 AI의 효율성을 유지하는 데 도움이 될 수 있습니다.
관련성 있고 정확한 교육 데이터 세트를 사용하고 새로운 데이터로 AI 모델을 정기적으로 업데이트함으로써 조직은 시간이 지남에 따라 진화하는 위협에 모델이 적응하도록 할 수 있습니다.
위협 인텔리전스 피드 및 SIEM 시스템과 같은 기존 사이버 보안 인프라와 AI 도구를 통합하면 효과를 극대화하는 동시에 새로운 보안 조치를 배포할 때 발생할 수 있는 장애 및 가동 중지 시간을 최소화하는 데 도움이 될 수 있습니다.
알고리즘과 데이터 소스를 문서화하고 AI 사용에 대해 이해 관계자와 공개적으로 소통하여 AI 프로세스의 투명성을 유지하면 잠재적인 편향과 불공정성을 식별하고 완화하는 데 도움이 될 수 있습니다.
AI 도구는 보안 태세를 개선할 수 있지만 자체 보안 조치의 이점을 누릴 수도 있습니다.
암호화, 액세스 제어, 위협 모니터링 도구는 조직이 AI 시스템과 사용하는 민감한 데이터를 보호하는 데 도움이 될 수 있습니다.
성능, 규정 준수, 정확성에 대해 AI 시스템을 지속적으로 모니터링하면 조직이 규제 요구 사항을 충족하고 시간이 지남에 따라 AI 모델을 개선하는 데 도움이 될 수 있습니다.
다양한 환경에서 데이터를 보호하고 개인정보 보호 규정을 준수하며 운영상의 복잡성을 간소화합니다.
IBM Guardium으로 데이터 보안 수명 주기 전반에 걸친 폭넓은 가시성, 규정 준수, 보호를 실현하세요.
IBM Verify 제품군은 ID 거버넌스 관리, 인력 및 소비자 ID와 액세스 관리, 권한 있는 계정 제어를 위한 자동화된 클라우드 기반 및 온프레미스 기능을 제공합니다.
모든 링크는 ibm.com 외부에 있습니다.
1. 사이버 보안 시장 규모의 AI는 2032년까지 CAGR 24.2%로 1,416억 4,000만 달러에 이를 것으로 예상됩니다(Polaris Market Research). Yahoo. 2024년 3월 12일.
2. 사이버 보안 노동력 부족을 극복하는 것이 회사 성공에 중요한 이유. Forbes. 2023년 3월 1일.
3. AI 채용 도구는 최고의 구직자를 걸러낼 수도 있습니다. BBC. 2024년 2월 16일.
4. 미국 고위 관리들은 AI 발전이 사이버 범죄를 촉진할 위험이 있다고 말합니다. Reuters. 2024년 1월 9일.
5. Deep Instinct 연구에 따르면 생성형 AI로 인한 사이버 보안 공격이 크게 증가했습니다. Business Wire. 2023년 8월 23일.