theNet by CLOUDFLARE

AIを活用した脅威への対抗

サイバーセキュリティのAI新時代におけるレジリエンスの構築

サイバー犯罪者は、攻撃の速度、効率、規模、有効性を高めるためにAIツールを採用しています。そして、これらのAIを活用した新たな攻撃は、組織に実際的な影響を及ぼしています。

ディープフェイク詐欺は、詐欺的なボイスメールやビデオ通話を可能にし、数百万ドルの損失をもたらしています。あるケースでは、多国籍企業のCFOをディープフェイクして、財務担当者を騙し、詐欺師に2,500万ドルを支払うように仕向けました。一方、AIが生成したフィッシング攻撃はより多くの人を騙して資格情報を開示させ、AIで強化されたマルウェアが既存の防御策をすり抜けています。

AIはまた、誤情報キャンペーン、データポイズニング、モデル操作を助長し、AI主導のシステムを危険にさらす可能性があります。Gartnerの最近のランキングでは、AI支援による誤情報が最大のサイバーリスクの一つとして位置づけられています。

サイバー犯罪者がその利益を新しい技術に再投資するにしたがって、ますます高度化するAIベースの攻撃が見られるでしょう。多くの企業は既に、低コストの攻撃で得た利益を高コストかつ高効率スキームの研究開発に充てています。多くの場合、攻撃者の予算は、標的となる組織の予算よりもはるかに重視されています。

AIがサイバーセキュリティの状況をどのように変えていくのかを探るため、Cloudflareの南北アメリカのフィールドCIOであるKhalid Kark氏と、AccentureのグローバルデータおよびAIセキュリティプラクティスリーダーのDaniel Kendzior氏とお話を伺いました。従来型のセキュリティツールのほとんどはAIで強化された攻撃には効果がないという認識で一致しています。耐障害性を高めるためには、組織によるセキュリティへのアプローチを変革する必要があります。受動的な防御に頼るのではなく、AIに対抗するためにAIを活用する、より積極的な予防的アプローチをとる必要があります。


AIで強化された脅威の課題への対応

攻撃者がAIツールを採用し続ける中、皆使い慣れたソーシャルエンジニアリングスキームのより洗練されたバージョン、そして大規模なボットベースの攻撃に備える必要があります。一方で、新しいタイプのID詐欺を含む、さまざまな新しい手口も登場することでしょう。こうした変化に対する認識を高めることが、より強固なセキュリティを構築する上で不可欠です。

強化されたソーシャルエンジニアリング

変わらないものもあります。攻撃者にとっては、ソーシャルエンジニアリングが最も簡単で安価な戦術であることに変わりはありません。それもまた、大成功です。Verizonのレポートによると、情報漏えいの68%はヒューマンエラーによって発生しており、そうしたエラーの多くはフィッシングスキームなどのソーシャルエンジニアリングに関連しています。

しかし、ここで見られるのは、攻撃の巧妙さと一貫性の増加です。攻撃者は生成AI(GenAI)を駆使し、例えば、詐欺メッセージの兆候となるようなスペルミスや文法エラーが一切なく、より説得力のあるフィッシングメールを作成しています。

同時に、攻撃者がAIを使ってディープフェイクを作成することも増えています。従業員は、実際にはAIモデルによって作成されたにもかかわらず、マネージャーからのもののように聞こえるボイスメールを受け取る場合があります。従業員は、資格情報の共有、取引の承認、機密データの公開など、騙される可能性があります。また、AIを使用することで、攻撃者はこれらのディープフェイクメッセージを数秒で作成することができます。

残念ながら、このような攻撃に対して私たちを脆弱にする認知バイアスと戦うことは非常に困難です。皆、情報を処理したり解釈したりする際にエラーを起こします。例えば、私たちは既存の信念を裏付ける情報を好み、そうでない情報を無視する傾向があります。この確証バイアスにより、ディープフェイクに引っ掛かりやすくなります。マネージャーからのものと思われるボイスメッセージを受け取ると、それが真実であると確信してしまう傾向があるのです。

合成アイデンティティ詐欺

攻撃者は、より優れたフィッシングメールやディープフェイクを作成して従業員を欺くだけでなく、AIを使って新しいIDを捏造しています。合成ID詐欺(SIF)とは、実際のデータと偽のデータを組み合わせて非常にリアルな身元情報(アイデンティティ)を作り、従来の認証システムを回避することです。AIが生成した個人情報や自動化されたクレデンシャルスタッフィングにより、これらの身元情報はますます検出しにくくなっています。

不正な身元情報は、金融サービス、医療、政府などの標的にされやすい業界にとって大きなリスクとなります。SIFは直接の被害者がいないことが多いため、気づかれないことがよくあります。その結果、詐欺師は信用履歴を作り、詐欺を成功させることができます。

大規模なボットベースの攻撃

ボットもまた、実害をもたらす可能性のある人間の代替手段の1つです。2025 Cloudflareシグナルレポートに示されているように、2024年にCloudflareが観測した全アプリケーショントラフィックの28%はボットからのものであり、この割合は過去4年間からほぼ一定でした。ボットは、検索エンジンのインデックス作成や可用性の監視など、正当な目的を果たすことができますが、ボットの大部分(Cloudflareのトラフィック分析によると93%)は未検証であり、潜在的に悪意があるものです。

AIを活用したボットにより、攻撃者はかつてない効率で大規模な攻撃を仕掛けることができます。AIを活用したボットが、これまでの攻撃の200倍のアクセスをWebサイトに発生させているのを確認しています。ボットは、大規模な分散サービス妨害(DDoS)攻撃を仕掛けるためだけでなく、機密データや知的財産のスクレイピング、クレデンシャルスタッフィング、機械的なスピードでの詐欺の実行にも使用されます。AIモデルは、従来のCAPTCHAを回避したり、臨機応変な対応力で検出を回避するなど、これらの能力を強化しています。

したがって、課題は、良性ボットと悪性ボットを分別し、悪性ボットをブロックすることです。


AIの脅威に対する防御

AIを活用した脅威の先手を打つには、AIで強化されたプロアクティブなセキュリティ対策が必要です。Khalid Kark氏とDaniel Kendzior氏との会話では、これらの新たな脅威に対処するためにセキュリティ体制を強化する7つの方法について触れられました。

  1. 可観測性を高める。
    Kendzior氏は「多くのベンダーがAIをあらゆるものに追加しています。まるで、最先端のアクセサリーのように」と言います。AIは、すでにお使いのソフトウェアにも散りばめられています。これらのAIの能力のすべてが有用であるとは限りません。また、一部は新たな脆弱性を生み出す可能性もあります。AI関連のリスクを最小限に抑えるためには、私たち全員がソフトウェアの購入方法を調整し、AIが組み込まれている場所の可視性を向上させる必要があります。

    同時に、組織におけるAIの利用状況の可観測性を高めることがより重要になるでしょう。通常、組織はカタログ数よりも約33%多いAPIを持っていると考えてください。そして、それらのカタログ化されていないAPIは、潜在的な攻撃ベクトルになります。同様に、AIが組織全体のどこでどのように使用されているかがわからないことも多くありますが、AIツールの事例はそれぞれ、私たちを危険にさらす可能性があります。

    ログ、分析、アラート、フォレンジックを統合できるプラットフォームを実装することで、このデータにAI機能を適用し、リスクを特定し、その根本原因を特定することができます。

  2. 脅威をリアルタイムで検出し、無害化する。
    攻撃者がAIを使って脅威の速度と規模を拡大しているため、それに対応できる方法が必要です。幸いなことに、AIはサイバーセキュリティの強化に役立ちます。例えば、AIは膨大なデータセットを分析し、脅威を示す可能性のある異常を特定することができます。AIツールは脅威への対応を自動化し、リアルタイムで問題に対処することができます。

    アクセスパターン、権限昇格、データ流出の試みなど、従業員ユーザーの行動を分析することで、ベースラインを確立し、内部脅威を示す可能性のある異常を検出することができます。こうしたAI支援機能により、インサイダーリスクがエスカレートする前に発見することができます。

  3. AIで強化されたフィッシングとディープフェイクから保護する。
    攻撃者がAIを採用してフィッシングを改良したり、ディープフェイクを作成したりするため、私たちは自らのバイアスやエラーに対処するのに役立つコントロールやポリシーを含め、より高度なコントロールやポリシーを整備する必要があります。例えば、特定の口座への送金を指示するマネージャーから来たと思われるテキストを、従業員が受け取ったとします。まず、特定の役割を持つ従業員が電信送金を実行できないようにするポリシーを持っていれば、被害を回避することができます。また、そのポリシーには、何かを実行する前に複数のチェックが行われるようにするプロセス制御も含まれている必要があります。

  4. ID管理を改善する。
    IDの管理はこれまでも常に困難でしたが、AIの登場によりそれは一層難しくなりました。「当社のクライアントの中には、新規のお客様や従業員をリモートで登録する人もいます。そして今、このディープフェイクが有効な世界では、実在する人物を相手にしているのかどうか、疑うことが必要になります」とKendzior氏は言います。

    Zero Trustセキュリティは、ID管理の改善において重要な役割を果たします。適切なZero Trustソリューションを使用することで、組織は権限のない個人やAIボットによる企業のリソースへのアクセスを防止すると同時に、権限のあるユーザーのアクセスを合理化することができます。

  5. 悪性ボットを特定し、ブロックする。ボット管理機能は、良性ボットと悪性ボットを区別することができます。これにより、悪意のあるボットによるデータのスクレイピング、コンテンツの窃取、またはWebサイトのパフォーマンスの低下を防止することができます。

  6. 人的要素に対処する。サイバーセキュリティの脅威に対抗するには、常に技術層が存在します。しかし、AIで強化された脅威の阻止には、行動訓練も必要です。フィッシングの試み、ディープフェイク、その他のAIで強化された攻撃について従業員を教育し、従業員が受け取るメッセージに対して懐疑的になるようにする必要があります。

    また、組織は、意識の高い従業員だけでなく、より優れたデジタル市民を作るよう取り組まなければなりません。こうしたAIで強化されたスキームは、勤務日が終了した後でも人々に届くからです。例えば、緊急に車両の高速料金を支払わなければならないことを示すテキストメッセージを受け取ることができるかもしれません。リンクを誤ってクリックしたり、最悪の場合、攻撃者に支払いをしたりすると、雇用者に影響を与える可能性のある将来の攻撃に誤って資金を提供することになります。

  7. パートナーとコラボレーションする。AIはサイバー犯罪をさらに巨大ビジネスへと発展させています。もはや個々のハッカーと戦う時代ではありません。AIで強化された最新のサイバーセキュリティ機能を採用することに加えて、組織的な攻撃者から身を守る確率を高めるために、関係を高める必要があります。パートナーと協力すればするほど、防御の強化につながります。


インテリジェントでスケーラブルな保護を適用

AIを活用した脅威の数、規模、巧妙さは、今後も増すでしょう。フィッシング攻撃が成功したり、データ漏洩が発生するたびに、サイバー犯罪者はより高度な技術に再投資するようになります。多くの組織は、この新時代のAIで強化された攻撃に備えて防御を大幅に刷新する必要があり、今すぐ始める必要があります。

Cloudflareのコネクティビティクラウドは、AI駆動型の脅威から組織を守るのに役立つツールやサービスを提供します。Cloudflare AI Gatewayは、AIアプリのコスト、使用状況、遅延、全体的なパフォーマンスを可視化します。また、Firewall for AIは、大規模言語モデル(LLM)を搭載したアプリを悪用から保護することができます。これらのツールは、Cloudflareのクラウドネイティブなセキュリティサービスの充実したポートフォリオと連携し、大規模でより高度なAIベースの脅威に対する防御の拡張を支援します。

この記事は、技術関連の意思決定者に影響を及ぼす最新のトレンドやトピックについてお伝えするシリーズの一環です。


このトピックを深く掘りさげてみましょう。

AI駆動型の脅威や、レジリエンス向上への転換を必要とするその他のトレンドについての詳細は、『2025 Cloudflareシグナルレポート:大規模に対応するレジリエンス』をご覧ください。

著者

Mike Hamilton — @mike-hamilton-us
Cloudflare CIO



記事の要点

この記事では、以下のことがわかるようになります。

  • サイバー犯罪者によるAIを活用した攻撃の強化

  • 現在最も一般的に採用されている3つの戦術

  • AIベースの脅威に対抗するセキュリティ強化の7つの方法


関連リソース

大人気のインターネット関連インサイトの要約を毎月お届けします。