AI 相關法規和立法正在不斷增加。2024 年,白宮管理和預算辦公室向美國所有聯邦機構和部門發布了關於政府使用人工智慧的 24-10 號備忘錄 (Memorandum 24-10)。該備忘錄的重點包括三個部分:
加強 AI 治理
推進負責任的 AI 創新
各州也採取了類似的措施,以解決人們對 AI 使用和濫用的擔憂。2023 年,25 個州推出了針對 AI 某些方面的立法。其中 18 個州和波多黎各成功頒布了相關立法。有些法律著重於 AI 使用的初步研究或評估,而有些法律則致力於規範員工對 AI 的使用,或實施控制措施以減輕惡意使用或意外後果。
最近的立法強調了在政府中使用 AI 的一些危險,並給政府機構和其他公共部門組織帶來了一些挑戰。這些組織將需要採取控制措施,以保護面向公眾的資產免受威脅,並幫助確保適當使用 AI。
這波立法凸顯了一個新興問題,即影子 AI 的興起——員工或部門未經批准使用公共 AI 工具和模型,且不受監管。與先前的「影子 IT」一樣,影子 AI 也帶來了治理和資料外洩風險,而這些風險正日益成為監管的重點。
基於 AI 的網路爬蟲可以為政府機構和其他公共部門組織帶來合法且有益的用途。在特定情境下,負責任的網路爬蟲與索引工具能使用可公開存取的資料,強化民眾尋找線上服務與相關資訊的能力。
另一方面,開發不當或惡意的 AI 網路爬蟲可能會抓取內容來訓練公用 AI 平台,而不會考慮內容的隱私性。如果這些資料最終用於訓練模型,可能會引發諸多智慧財產權和隱私權問題。如果不加以控制,這些機器人還會因佔用正常使用者互動所需的系統資源,導致所有使用者在使用公共網站時遭遇效能下降的問題。
機構可以實作多種伺服器端或應用程式端保護,以幫助控制機器人與伺服器互動的方式。例如,他們可以部署 robots.txt 檔案。該文件可以告知並定義網路爬蟲流量如何與網站的各個部分及其資料互動。該檔案部署在網站的根目錄中,並定義哪些代理程式(機器人)可以爬行網站以及它們可以存取哪些資源。
然而,這種方法仍存在若干挑戰。首先,網路爬蟲必須遵守 robots.txt 檔案的規範。雖然這是「合規」機器人的一般最佳做法,但並非所有機器人都會遵循規則。此外,也存在一些並無惡意的機器人,它們可能只是誤解了語法規則,進而存取了政府機構希望隱藏的網頁元素。
簡而言之,雖然這是一種常見的做法,但僅依靠 robots.txt 或類似的 .htaccess (Apache) 策略並不能提供萬無一失的保護。然而,這些措施可以作為一套整體治理方案的一部分,用來規範合法機器人如何與應用程式內容進行互動。
在當今世界,Web 應用程式防火牆 (WAF) 和機器人緩解解決方案對於保護公用 Web 應用程式至關重要。這些控制措施可協助組織保護其公共數位資產免受分散式阻斷服務 (DDoS) 威脅、影子 API 和不安全 API 以及其他各種與機器人程式相關的威脅。
如今,任何機器人緩解解決方案都應具備以程式化方式識別與分類那些為了 AI 資料訓練而抓取網站內容的機器人的能力。這種分類機制至關重要。它可以允許合法且經過驗證的 AI 網路爬蟲執行,也可以完全封鎖它們,直到機構確定應如何允許這些機器人程式與網站互動。
選擇可擴展的解決方案同樣至關重要。2023 年,聯合國秘書長安東尼奧・古特雷斯 (António Guterres) 曾指出:「雖然印刷書籍歷經超過 50 年才得以在歐洲普及,但 ChatGPT 卻僅在短短兩個月內就累積了 1 億名使用者。」AI 平台所展現的規模與前所未有的成長速度,直接導致越來越多 AI 機器人瘋狂搜尋任何公開暴露的資料集進行訓練。這些平台的架構設計,必須能夠適應分散式全球環境的擴展需求。
公用 AI 平台支援使用者加速完成從撰寫備忘錄到撰寫複雜程式碼等多樣任務。在政府部門中,州級與聯邦機構皆看見運用 AI 解決複雜社會議題的潛力,包括醫療照護挑戰、公民服務取得、食安與水質安全等重大課題。然而若缺乏適當的 AI 治理機制,各組織可能在不自覺的情況下,將受規範管制的資料集洩漏至安全性不足的公開語言模型訓練資料中。
正如組織利用工具來控制未經批准的雲端應用程式(或稱為「影子 IT」)的使用一樣,他們現在需要瞭解組織內部「影子 AI」的使用範圍。影子 AI 的增加正成為頭條新聞。The Conversation 進行了一項全球研究,涉及 47 個國家/地區的 32,000 多名員工,結果發現近 70% 的員工傾向於使用免費的公共 AI 工具,而非雇主提供的解決方案。令人擔憂的是,近一半的員工承認將敏感的公司或客戶資料上傳到公共的生成式 AI 平台,44% 的員工承認在工作中使用 AI 的方式違反了其組織的政策。
這 些敏感性資料也可能在不知情的情況下在 AI 模型之間共用。AI 模型越來越多地使用其他模型產生的資料(而非傳統來源的內容)進行訓練。
為了全面應對影子 AI,組織首先需要定義公用 AI 模型的可接受用途。此外,他們還應確定哪些角色需要存取這些模型。建立這些防護措施是至關重要的第一步。近期針對政府部門(以及更廣泛的公共部門)所頒布的新興 AI 法規,經常強調機構內部審查 AI 適當使用方式的重要性,並要求決定哪些模型應被允許使用。
確定了適當的用途後,各機構就必須制定執行政策的控制措施。Zero Trust 網路存取 (ZTNA) 原則有助於制定和執行這些政策,以限制未經批准的存取。
例如,某個機構可能只允許特定管理群組中的授權使用者存取公用 AI 模型。在允許存取這些模型之前,ZTNA 解決方案還可以進行額外的狀態檢查,例如確保公司裝置已安裝最新修補程式,或裝置執行政府核准的端點管理代理程式。借助 ZTNA,該機構可以在操作政府資產時強制執行並限制哪些人可以存取這些公用 AI 模型。