theNet by CLOUDFLARE

シャドーAIとの闘い

政府によるAI使用に向けた規制の実施

AI関連法の制定が進んでいます

AIに関する規制や法律が制定されつつあります。2024年、ホワイトハウス管理予算局は、政府におけるAIの利用に関する米国のすべての連邦機関と部局に対し、10/24発行覚書を発行しました。このメモでは、次の3点が焦点となっています。

  • AIガバナンスの強化

  • 責任あるAI革新の推進

  • AI利用のリスク管理

AIの利用と誤用に関する懸念に対処するため、州レベルでも同様の取り組みが行われています。2023年には25の州がAIの一部の側面に焦点を当てた法律を導入しました。18の州とプエルトリコで立法化に成功しました。AI利用の初期調査や評価に焦点を当てた法律もあれば、従業員によるAIの利用を管理したり、悪意のある利用や意図しない結果を軽減するための制御の実装を試みたりする法律もあります。

最近の法律で、政府機関においてAIを使用することの危険性がいくつか指摘され、政府機関や他の公共機関にいくつかの課題を提示しています。そうした企業は、一般大衆向けプロパティを脅威から保護し、AIを適切に利用するためのコントロールを整備する必要があります。

このような法規制の波によって浮き彫りになった新たな懸念の1つは、従業員や部門が管理や承認を受けずに公開AIツールやモデルを使用する「シャドーAI」の増加です。かつての「シャドーIT」と同様に、シャドーAIはガバナンスやデータ漏洩リスクを生み出し、規制はこうした課題への対応を強化しつつあります。


課題その1:パブリックインターネットプロパティをAIボットから保護する

AIベースのクローラーは、政府機関やその他の公共機関にとって、正当で有益な用途があります。いくつかの状況では、責任あるクローラーやインデクサーは、一般に公開されているデータを使用し、市民が関連するオンラインサービスや情報を見つける能力を高めることができます。

その一方で、開発が不十分であったり悪意のあるAIクローラーは、コンテンツのプライバシーを考慮せずにコンテンツをスクレイピングして、公開されているAIプラットフォームをトレーニングすることができます。このデータがモデルの学習に使用されると、知的財産やプライバシーに関する問題が多数発生する可能性があります。放置すると、これらのボットは正当なユーザーのためのリソースを消費し、公開Webサイトのパフォーマンスを低下させる可能性もあります。

制御1:アプリケーション側の保護を展開

エージェンシーは、サーバーとアプリケーションの保護をいくつか実装し、ボットとサーバーのインタラクションの制御に役立てられます。たとえば、robots.txtファイルをデプロイできます。このファイルは、クローラートラフィックがサイトのさまざまなセクションやそのデータとどのように相互作用するかを示し、定義します。このファイルはサイトのルートに展開され、どのエージェントボットがサイトをクロールできるか、どのエージェントがアクセスできるかを定義します。

しかし、このアプローチにはいくつかの課題があります。まず、クローラーはrobots.txtファイルを尊重しなければなりません。これは「正当な」ボットに対する一般的なベストプラクティスではあるものの、すべてのユーザーがルールに従っているわけではありません。ボットの中には、シンタックスを誤解し、その結果、エージェンシーが避けたい要素とやり取りする可能性があるものもあります。

つまり、これは一般的なアプローチですが、robots.txtや類似の.htaccess(Apache)ファイルを活用する戦略は完全な保護とはなりません。一方で、正当なボットがアプリケーションコンテンツと相互作用する方法の管理のための包括的なアプローチとして活躍できる可能性があります。

制御2:Webアプリケーションファイアウォール内にボット軽減策を展開

Webアプリケーションファイアウォール(WAF)ボット軽減ソリューションは、今日の世界ではパブリックWebアプリケーションの保護に当たり不可欠です。これらの制御により、企業は分散型サービス拒否攻撃DDoS攻撃の脅威、シャドーAPI、安全でないAPI、その他のボット関連の脅威からパブリックデジタルプロパティを保護できます。

今日のボット軽減ソリューションには、AIデータトレーニングのサービスでコンテンツをスクレイピングしているボットをプログラムにより識別し、分類する機能が含まれています。この分類メカニズムは、決定的に重要な機能となっています。正当で検証済みのAIクローラーを許可することもでき、またはエージェンシーがこれらのボットにWebサイトとの対話をどのように許可すべきかを決定するまで完全にブロックすることもできます。

スケーラブルなソリューションを選択することも、重要になります。2023年、国連のAntónio Guterres氏は、紙印刷の書籍がヨーロッパ全土に広く普及するまでに50年以上かかったものの、「ChatGPTはわずか2か月で1億人のユーザーに到達した」と述べました。AIプラットフォームの規模と前例のない速さでの増加は、公開されているデータセットをトレーニングのために検索するAIボットの数の増加と直接相関しています。プラットフォームのアーキテクチャは、分散されたグローバル環境で拡張可能である必要があります。


課題その2:シャドーAI:公開されているAIモデルの無許可利用

パブリックAIプラットフォームにより、ユーザーはメモの書き方から複雑なコードの作成まで、様々なタスクを高速化することができるようになりました。政府、州、連邦政府機関で、ヘルスケアの問題、市民サービスへのアクセス、食品と水の安全性などの複雑な社会的問題を解決するため、AI活用の可能性を見出しています。しかし、AIガバナンスがなければ、組織は規制されたデータセットを安全でないパブリック言語モデルのトレーニングデータに漏洩に加担してしまう可能性があります。

組織がツールを活用して無許可のクラウドアプリケーションや「シャドーIT」の利用を把握してきたのと同様に、組織内でのシャドーAIが使用されている範囲を把握する必要があります。「シャドーAI」の増加が報道されています。The Conversationが47か国、32,000人を超える従業員を対象に行った国際調査によると、従業員の約70%が雇用者提供のソリューションよりも無料の公開AIツールを好むことがわかりました。驚くべきことに、ほぼ半数が企業や顧客データを公開の生成AIプラットフォームにアップロードしたことを認め、44%が自社のポリシーに違反する形で職場でAIを使用したことを認めています。

この機密データは、AIモデル間で無意識のうちに共有される可能性があります。AIモデルは、従来のコンテンツソースではなく、他のモデルによって生成されたデータでトレーニングされることが増えています。

制御1:AIの適切な使用を見極める

シャドーAIに対する包括的なアプローチのために、組織はまず、公開AIモデルの許容可能な使用方法を定義する必要があります。さらに、これらのモデルへのアクセスが必要なロールを決定する必要があります。こうしたガードレールを確立することが重要な第一歩となります。政府におけるAIの新法、およびより一般的には公共機関におけるAIについて、機関内におけるAIの適切な利用を検討し、どのモデルを許可すべきかを決定することの重要性が頻繁に訴えられているのです。

制御2:アクセス制御を適用する

適切な使用が決定された後、政府機関は、そのポリシーを実施するための制御内容を策定する必要があります。Zero Trustネットワークアクセス(ZTNA)の原則により、承認されていないアクセスを制限するポリシーの策定と適用が可能になります。

例えば、機関が特定の管理グループから許可されたユーザーのみに、パブリックAIモデルへのアクセスを許可している場合があります。これらのモデルへのアクセスを許可する前に、ZTNAソリューションは、企業のデバイスがパッチを適用して最新であることを確認したり、デバイスが政府承認のエンドポイント管理エージェントを実行していることを確認するなど、追加の耐性チェックを実行することも一案です。ZTNAの使用により、政府機関は政府資産を運用しながら、これらのパブリックAIモデルにアクセスできるユーザーを規制および制限することができます。

制御3:AIプラットフォームへの開示が適切であるかを判断する

妥当な利用は、AIプラットフォームにアクセスできるユーザーを定義するだけではありません。エージェンシーは、AIプラットフォームに投稿・送信されるデータを理解し、制御する必要もあります。部門メモのような無害なものでも、非公開データや機密データポイントが含まれる可能性があります。これらのデータポイントが大規模言語モデル(LLM)に送信されると、そのデータが漏えいするリスクがあります。

データ損失防止DLP制御は、機密データの不適切な使用を阻止するのに役立ちます。適切なコントロールを行うことにより、機密性の高いアプリケーションコードや市民データなどの機密情報が、AIプラットフォームの保護されていない訓練データセットの一部とならないようにできるのです。

パブリックとプライベート社内の両方のAIプラットフォームとやり取りする必要があるAI開発者グループを例に考えてみます。エージェンシーは、パブリックAIプラットフォーム(ChatGPTなど)とプライベートAIプラットフォーム(AWS BedRockなど)の両方のAIプラットフォームの利用を許可できます。AI開発グループで承認されたユーザーのみが、こうしたプラットフォームへのアクセスを許可されます。一般ユーザーは、両方のプラットフォームでブロックされます。

承認されたAI開発ユーザーグループがある場合でも、DLPルールの実装は有益です。DLPルールは、AIプラットフォームに投稿されたデータを検証し、公開されていない機密データが社内のプライベートAIプラットフォームにのみ投稿されるようにできます。


AIガバナンスで利用者を守る

AIガバナンスは、テクノロジーではなく、ポリシーまたはミッションから始めるべきです。エージェンシーのリーダーは、AIのメリットとリスクを評価するに当たり、AIとエージェンシーのミッションの潜在的な交点を評価できる的を絞ったチームを任命する必要があります。

テクノロジーを通じて国民が政府へのかかわりを強めていくにつれ、AIモデルの訓練に使える大規模で豊富なデータセットが現れることになります。公共機関は、これらの相互作用を許可することの影響が理解されるまで、すべてのAIクローラーのブロックなどの慎重なアプローチを選択するかもしれません。公開プロパティの正当なクローリングに潜在的なメリットがある組織の場合、チームは検証されたAIクローラーによるアクセスを制御し、悪意のあるアクションから保護する能力が必要になります。

強化されるAI規制に先手を打つために、チームはどのような役割とタスクがAIプラットフォームへのアクセスが必要となるかを明確にする必要もあります。誰がいつアクセスできるかを決め、AIモデルに投稿するデータの種類を制御することで、このテクノロジーの具体的なメリットを犠牲にすることなくシャドーAIのリスクに対処できるようになるでしょう。

ボット管理ゼロトラストセキュリティ機能は、政府機関がAI利用の急増に直面する際のリスク軽減において中核的な役割を果たします。軽減戦略を策定する際は、公開Webプロパティを保護し、責任あるAI利用を維持することを優先すべきです。

AIは、多くの複雑な社会的問題の解決に役立つ大きな可能性を秘めています。しかし、政府や公共機関でのAIの利用には、いくつかの潜在的な欠点があります。政府機関やその他の公共機関にとって、この新しいテクノロジーを検討する際は、利用者を保護することが常に優先される必要があります。

この記事は、技術関連の意思決定者に影響を及ぼす最新のトレンドとトピックについてお伝えするシリーズの一環です。



このトピックを深く掘りさげてみましょう。

AI利用の普及に伴いZero Trustがどのようにリスクを低減できるかについては、完全ガイド「Zero Trustアーキテクチャへのロードマップ」で詳細をご覧ください。

著者

Scottie Ray — @H20nly
Cloudflare主任ソリューションアーキテクト



記事の要点

この記事では、以下のことがわかるようになります。

  • AIに焦点を当てた法規制の新たな状況

  • AIに関する2つの主な課題

  • 政府機関が法令順守を達成させるための管理


関連リソース


大人気のインターネット関連インサイトの要約を毎月お届けします。