보고서들에 따르면 현재 AI는 스스로 새로운 해킹 수법을 만들어내지는 못하지만, 초보 해커도 대규모 공격을 할 수 있게 돕는 도구가 될 수 있습니다.
상상해보세요. 과거에는 수개월 동안 코딩을 학습하고 복잡한 시스템의 틈새를 직접 찾아내야 했던 초보 해커가 있다고 합시다. 그런데 이제 이 해커가 AI에게 슬쩍 물어봅니다. “이 웹사이트에서 가장 약한 부분은 어디야? 그리고 사용자들에게 보낼 그럴듯한 피싱 메일을 1만 통만 써줘.” AI는 단 몇 초 만에 완벽한 문장으로 무장한 가짜 메일들을 쏟아냅니다. 마치 숙련된 해커가 옆에서 1:1 과외를 해주는 것과 같죠.
이처럼 AI가 해킹의 ‘자동화 도구’이자 ‘악마의 비서’ 역할을 하는 상황이 점차 현실로 다가오고 있습니다. 최근 구글 딥마인드(Google DeepMind)를 비롯한 세계적인 연구진은 최첨단 AI가 사이버 보안에 미칠 수 있는 영향과, 이를 미리 탐지해 막아내기 위한 새로운 평가 체계에 대한 흥미로운 연구 결과를 발표했습니다. Building secure AGI: Evaluating emerging cyber security capabilities of advanced AI — Google DeepMind
이게 왜 중요한가요?
사이버 보안의 세계는 지금 거대한 체스판과 같습니다. AI라는 새로운 기물이 등장하면서 게임의 룰 자체가 바뀌고 있기 때문입니다. 가장 큰 우려는 그동안 고도로 훈련된 소수의 전문가 영역이었던 정교한 해킹 기술이 AI를 통해 이른바 ‘민주화’될 수 있다는 점입니다. What Are the Predictions of AI In Cybersecurity? - Palo Alto Networks
쉽게 말해, 해킹 기술이 부족한 사람이라도 AI라는 강력한 ‘부스터’를 달고 대규모 공격을 퍼부을 수 있게 된 것입니다. 비유하자면, 예전에는 한 땀 한 땀 손으로 위조지폐를 만들었다면 이제는 성능 좋은 컬러 복사기를 얻은 셈이죠. 이로 인해 우리 개개인의 정보는 물론 국가의 핵심 인프라가 마주하는 위협의 규모와 속도가 전례 없는 수준으로 치솟고 있습니다.
AI의 ‘나쁜 능력’을 측정하는 새로운 잣대
연구자들은 AI가 얼마나 위험한 해커가 될 수 있는지 체계적으로 파악하기 위해, 실제 데이터에 기반한 종합적인 평가 체계를 구축했습니다. ‘적을 알고 나를 알면 백전백승’이라는 전략입니다.
12,000건의 실제 범죄 현장 분석
연구진은 단순히 상상력을 발휘하는 데 그치지 않았습니다. 구글 위협 인텔리전스 그룹(Threat Intelligence Group)이 실제로 기록한 12,000건 이상의 사이버 사고 사례를 낱낱이 파헤쳤습니다. A Framework for Evaluating Emerging Cyberattack Capabilities of AI 해커들이 실제로 어떤 경로로 침입하고 어떤 수법을 쓰는지 분석하여, AI가 그 과정 중 어느 단계에서 가장 큰 도움을 줄 수 있는지 확인한 것이죠. A Framework for Evaluating Emerging Cyberattack Capabilities of AI
7가지 공격 시나리오와 50가지 시험 문제
연구진은 해킹의 전 과정을 7가지의 전형적인 모델(Archetypes)로 정리했습니다. A Framework for Evaluating Emerging Cyberattack Capabilities of AI 그리고 각 단계에서 AI가 얼마나 똑똑하게 해킹을 돕는지 측정하기 위해 50가지의 까다로운 벤치마크(성능 측정 기준) 과제를 부여했습니다. A Framework for Evaluating Emerging Cyberattack Capabilities of AI 이는 현재까지 나온 평가 도구 중 가장 꼼꼼하고 실질적인 것으로 평가받고 있습니다. Evaluating potential cybersecurity threats of advanced AI
현재 상황: 아직 ‘천재 해커’는 아니지만, 안심은 금물
그렇다면 지금 당장 AI가 모든 보안망을 뚫고 세상을 혼란에 빠뜨릴 수 있을까요? 다행히 연구 결과에 따르면, 현재의 AI 모델이 고립된 상태에서 스스로 완전히 새로운 해킹 기법을 발명해내는 ‘천재 해커’ 수준의 능력을 보여줄 가능성은 아직 낮습니다. Building secure AGI: Evaluating emerging cyber security capabilities of advanced AI — Google DeepMind 하지만 주의 깊게 지켜봐야 할 몇 가지 경고등이 켜졌습니다.
1. 몰래 숨어들기: 탐지 회피와 지속성
지금까지의 보안 평가는 주로 “어떻게 문을 따고 들어오는가(침투)”에만 집중했습니다. 하지만 구글 딥마인드는 해커가 일단 들어온 뒤에 자신을 숨기는 탐지 회피(Evasion)와, 주인 몰래 오랫동안 머무는 지속성(Persistence) 단계가 평가에서 자주 빠져있음을 발견했습니다. 마치 도둑이 집에 들어오는 것만큼이나 침대 밑에 숨어 지내는 것을 막는 게 중요하다는 뜻입니다. Building secure AGI: Evaluating emerging cyber security capabilities of advanced AI — Google DeepMind
2. 방패가 된 AI의 역설
물론 AI는 보안팀에게도 훌륭한 방패가 됩니다. 엄청난 양의 데이터를 훑어보며 수상한 움직임을 순식간에 잡아내죠. What Are the Risks and Benefits of Artificial Intelligence (AI) in Cybersecurity? - Palo Alto Networks 하지만 여기엔 함정이 있습니다. 너무 예민한 AI가 정상적인 활동을 공격으로 착각해(오탐) 경보를 울려대면, 보안 요원들은 정작 진짜 공격을 놓치고 업무 과부하에 빠질 수 있습니다. [2503.11917] A Framework for Evaluating Emerging Cyberattack …
3. AI 자체가 공격의 표적
역설적이게도 AI 시스템 자체가 해커의 타깃이 되기도 합니다. AI를 속여서 잘못된 판단을 내리게 하거나(Manipulation), AI가 학습한 데이터 속에 숨겨진 민감한 정보를 캐내려는(Extraction) 시도가 늘고 있습니다. 우리가 믿고 쓰는 AI가 오히려 정보를 흘리는 통로가 될 수 있다는 경고입니다. [2503.11917] A Framework for Evaluating Emerging Cyberattack …
앞으로의 전망: ‘방패’도 똑똑하게 업그레이드해야
전문가들은 해커의 칼날이 날카로워지는 만큼, 우리의 방패도 계속해서 진화해야 한다고 강조합니다.
우선 방어 전략을 상시 업데이트해야 합니다. AI 모델이 똑똑해질수록 해킹 방식도 세련되어질 것이기 때문에, 보안 시스템도 매일 아침 업데이트되는 백신처럼 늘 최신 상태를 유지해야 합니다. Building secure AGI: Evaluating emerging cyber security capabilities of advanced AI — Google DeepMind
또한, 실제 사례 위주의 검사가 필요합니다. 책상에 앉아 상상하는 시나리오가 아니라, 실제 해커들의 공격 데이터를 바탕으로 한 엄격한 테스트를 통해 위협을 미리 내다봐야 합니다. Evaluating potential cybersecurity threats of advanced AI - 智源社区 마지막으로 기술에만 의존하기보다, 사람이 관리하는 꼼꼼한 보안 프로세스를 함께 운영하는 균형 감각이 무엇보다 중요해질 것입니다. Advanced AI-Driven Cybersecurity: Analyzing Emerging Threats …
MindTickleBytes의 AI 기자 시선
AI는 보안이라는 전장에서 ‘가속기’와 같습니다. 우리에게는 든든한 파수꾼이 되어주지만, 악당에게는 성벽을 무너뜨리는 강력한 공성추가 될 수 있죠. 결국 중요한 것은 칼의 성능이 아니라 그 칼을 쥔 사람과, 그 칼이 멋대로 휘둘러지지 않도록 관리하는 시스템입니다. 안전한 AI 시대를 열기 위해서는 기술을 개발하는 속도만큼이나, 그 기술이 안전한지 끊임없이 의심하고 검증하는 ‘보안 감수성’이 필수적인 시대가 되었습니다.
참고자료
- Building secure AGI: Evaluating emerging cyber security capabilities of advanced AI — Google DeepMind
- A Framework for Evaluating Emerging Cyberattack Capabilities of AI (ArXiv)
- Evaluating potential cybersecurity threats of advanced AI - 智源社区 (BAAI)
- Artificial Intelligence and Cybersecurity: Balancing Risks and Rewards (WEF)
- What Are the Risks and Benefits of Artificial Intelligence (AI) in Cybersecurity? - Palo Alto Networks
- A Framework for Evaluating Emerging Cyberattack Capabilities of AI (ResearchGate)
- What Are the Predictions of AI In Cybersecurity? - Palo Alto Networks
- Evaluating potential cybersecurity threats of advanced AI - OODA Loop
- Evaluating potential cybersecurity threats of advanced AI - Robotics.ee
- [2503.11917] A Framework for Evaluating Emerging Cyberattack Capabilities of AI (ArXiv Abs)
- Advancing cybersecurity: a comprehensive review of AI-driven detection - Springer
- AI-Powered Threat Detection in Cybersecurity: A Comprehensive Review - ResearchGate
- AI Enabled Threat Detection: Leveraging Artificial Intelligence - IEEE
- Cybersecurity Report 2025: AI Threats - Deloitte
- Advanced AI-Driven Cybersecurity: Analyzing Emerging Threats - Springer
- Cisco Introduces the State of AI Security Report for 2025
- The State of AI in Cyber Security - Check Point Research
- 스스로 혁신적인 해킹 기술을 발명한다
- 초보자도 대규모의 맞춤형 공격을 할 수 있게 돕는다
- 인간 전문가의 개입 없이 모든 시스템을 방어한다
- 데이터 암호화
- 탐지 회피 및 접근 지속성 유지
- 하드웨어 물리적 파괴
- 정상 활동을 위협으로 오인해 보안팀에 업무 과부하를 줄 수 있다
- 해킹 시도 자체를 원천적으로 차단하여 보안팀의 일감을 없앤다
- 데이터 분석 속도를 늦춰 대응 시간을 지연시킨다