報告書によると、現在のAIは自ら新しいハッキング手法を生み出すことはできませんが、初心者ハッカーでも大規模な攻撃を行えるように支援するツールになり得ます。
想像してみてください。かつては数ヶ月間コーディングを学び、複雑なシステムの隙間を自ら探し出さなければならなかった初心者ハッカーがいたとします。しかし今、このハッカーはAIにそっと尋ねます。「このウェブサイトで一番弱い部分はどこ?それから、ユーザーに送るそれらしいフィッシングメールを1万通書いて」。AIはわずか数秒で、完璧な文章で武装した偽メールを大量に生成します。まるで熟練のハッカーが隣でマンツーマンの家庭教師をしてくれているかのようです。
このように、AIがハッキングの「自動化ツール」であり「悪魔の秘書」の役割を果たす状況が、徐々に現実味を帯びてきています。最近、Google DeepMindをはじめとする世界的な研究チームは、最先端AIがサイバーセキュリティに及ぼし得る影響と、それを事前に検知して防ぐための新たな評価体系に関する興味深い研究結果を発表しました。Building secure AGI: Evaluating emerging cyber security capabilities of advanced AI — Google DeepMind
なぜこれが重要なのでしょうか?
サイバーセキュリティの世界は今、巨大なチェス盤のようです。AIという新しい駒が登場したことで、ゲームのルールそのものが変わろうとしているからです。最大の懸念は、これまで高度に訓練された少数の専門家の領域だった精緻なハッキング技術が、AIを通じていわゆる「民主化」される可能性がある点です。What Are the Predictions of AI In Cybersecurity? - Palo Alto Networks
簡単に言えば、ハッキング技術が不足している人でも、AIという強力な「ブースター」を装着して大規模な攻撃を仕掛けられるようになったということです。例えるなら、以前は一枚一枚手作業で偽札を作っていたのが、今では高性能なカラーコピー機を手に入れたようなものです。これにより、私たち個人の情報はもちろん、国家の基幹インフラが直面する脅威の規模と速度が、かつてないレベルへと急上昇しています。
AIの「悪しき能力」を測定する新たな物差し
研究者たちは、AIがどれほど危険なハッカーになり得るかを体系的に把握するため、実際のデータに基づいた総合的な評価体系を構築しました。「敵を知り己を知れば百戦危うからず」という戦略です。
12,000件の実際の犯行現場の分析
研究チームは単に想像力を働かせるだけにとどまりませんでした。Google脅威インテリジェンスグループ(Threat Intelligence Group)が実際に記録した12,000件以上のサイバー事故の事例を徹底的に調査しました。A Framework for Evaluating Emerging Cyberattack Capabilities of AI ハッカーが実際にどのような経路で侵入し、どのような手法を使っているのかを分析し、AIがそのプロセスのどの段階で最大の助けとなり得るかを確認したのです。A Framework for Evaluating Emerging Cyberattack Capabilities of AI
7つの攻撃シナリオと 50の試験問題
研究チームはハッキングの全過程を7つの典型的なモデル(Archetypes)に整理しました。A Framework for Evaluating Emerging Cyberattack Capabilities of AI そして、各段階でAIがどれほど賢くハッキングを支援するかを測定するため、50の厳しいベンチマーク(性能測定基準)課題を課しました。A Framework for Evaluating Emerging Cyberattack Capabilities of AI これは現在までに発表された評価ツールの中で最も精緻で実質的なものと評価されています。Evaluating potential cybersecurity threats of advanced AI
現状:まだ「天才ハッカー」ではないが、安心は禁物
では、今すぐAIがすべてのセキュリティ網を突破し、世界を混乱に陥れることができるのでしょうか?幸いなことに、研究結果によると、現在のAIモデルが隔離された状態で自ら完全に新しいハッキング技法を発明する「天才ハッカー」レベルの能力を示す可能性はまだ低いとのことです。Building secure AGI: Evaluating emerging cyber security capabilities of advanced AI — Google DeepMind しかし、注意深く見守るべきいくつかの警告灯が点灯しました。
1. 密かな潜入:検知回避と持続性
これまでのセキュリティ評価は、主に「いかにしてドアをこじ開けて入るか(侵入)」だけに集中してきました。しかしGoogle DeepMindは、ハッカーがいったん侵入した後に自身を隠す検知回避(Evasion)や、持ち主に気づかれずに長く留まる持続性(Persistence)の段階が評価から頻繁に抜け落ちていることを発見しました。泥棒が家に入ることと同じくらい、ベッドの下に隠れて過ごすことを防ぐのが重要だということです。Building secure AGI: Evaluating emerging cyber security capabilities of advanced AI — Google DeepMind
2. 盾となったAIの逆説
もちろん、AIはセキュリティチームにとっても優れた盾になります。膨大なデータをスキャンし、不審な動きを瞬時に捉えます。What Are the Risks and Benefits of Artificial Intelligence (AI) in Cybersecurity? - Palo Alto Networks しかし、ここには落とし穴があります。過敏すぎるAIが正常な活動を攻撃と勘違いして(誤検知)アラートを鳴らし続けると、セキュリティ要員は肝心の本当の攻撃を見逃し、業務過多に陥る可能性があります。[2503.11917] A Framework for Evaluating Emerging Cyberattack …
3. AI自体が攻撃の標的に
逆説的ですが、AIシステムそのものがハッカーのターゲットになることもあります。AIを騙して誤った判断を下させたり(Manipulation)、AIが学習したデータの中に隠された機密情報を聞き出そうとしたり(Extraction)する試みが増えています。私たちが信頼して使っているAIが、むしろ情報の流出経路になり得るという警告です。[2503.11917] A Framework for Evaluating Emerging Cyberattack …
今後の展望:「盾」も賢くアップグレードすべき
専門家たちは、ハッカーの刃が鋭くなるにつれ、私たちの盾も進化し続けなければならないと強調しています。
まず、防御戦略を常時アップデートする必要があります。AIモデルが賢くなるほどハッキング手法も洗練されていくため、セキュリティシステムも毎朝更新されるワクチンのように常に最新の状態を維持しなければなりません。Building secure AGI: Evaluating emerging cyber security capabilities of advanced AI — Google DeepMind
また、実際の事例に基づいた検査が必要です。机上の空論としてのシナリオではなく、実際のハッカーの攻撃データに基づいた厳格なテストを通じて脅威を予見する必要があります。Evaluating potential cybersecurity threats of advanced AI - 智源社区 最後に、技術だけに依存するのではなく、人間が管理する綿密なセキュリティプロセスを並行して運用するバランス感覚が何よりも重要になるでしょう。Advanced AI-Driven Cybersecurity: Analyzing Emerging Threats …
MindTickleBytesのAI記者の視点
AIはセキュリティという戦場における「加速器」のようなものです。私たちにとっては頼もしい番人となりますが、悪党にとっては城壁を崩す強力な破城槌になり得ます。結局、重要なのは剣の性能ではなく、その剣を握る人と、その剣が勝手に振るわれないように管理するシステムです。安全な AI 時代を切り拓くためには、技術を開発する速度と同じくらい、その技術が安全かどうかを絶えず疑い検証する「セキュリティ感受性」が不可欠な時代になりました。
参考資料
- Building secure AGI: Evaluating emerging cyber security capabilities of advanced AI — Google DeepMind
- A Framework for Evaluating Emerging Cyberattack Capabilities of AI (ArXiv)
- Evaluating potential cybersecurity threats of advanced AI - 智源社区 (BAAI)
- Artificial Intelligence and Cybersecurity: Balancing Risks and Rewards (WEF)
- What Are the Risks and Benefits of Artificial Intelligence (AI) in Cybersecurity? - Palo Alto Networks
- A Framework for Evaluating Emerging Cyberattack Capabilities of AI (ResearchGate)
- What Are the Predictions of AI In Cybersecurity? - Palo Alto Networks
- Evaluating potential cybersecurity threats of advanced AI - OODA Loop
- Evaluating potential cybersecurity threats of advanced AI - Robotics.ee
- [2503.11917] A Framework for Evaluating Emerging Cyberattack Capabilities of AI (ArXiv Abs)
- Advancing cybersecurity: a comprehensive review of AI-driven detection - Springer
- AI-Powered Threat Detection in Cybersecurity: A Comprehensive Review - ResearchGate
- AI Enabled Threat Detection: Leveraging Artificial Intelligence - IEEE
- Cybersecurity Report 2025: AI Threats - Deloitte
- Advanced AI-Driven Cybersecurity: Analyzing Emerging Threats - Springer
- Cisco Introduces the State of AI Security Report for 2025
- The State of AI in Cyber Security - Check Point Research
- 自ら革新的なハッキング技術を発明する
- 初心者でも大規模なパーソナライズされた攻撃を行えるよう支援する
- 人間の専門家の介入なしにすべてのシステムを防御する
- データの暗号化
- 検知回避およびアクセスの持続性の維持
- ハードウェアの物理的破壊
- 正常な活動を脅威と誤認し、セキュリティチームに業務過多を招く可能性がある
- ハッキングの試み自体を根源的に遮断し、セキュリティチームの仕事をなくす
- データ分析速度を低下させ、対応時間を遅延させる