U.S. Federal Government 針對 Frontier Artificial Intelligence 模型部署前監管的舉措

導言

Trump 政府正考慮將其監管姿態由去管制化轉向正式的監管框架,要求先進的 Artificial Intelligence 模型在公開發佈前必須經過審查。

正文

此次政策轉向的主要誘因是高效能模型的出現,特別是 Anthropic 的 「Mythos」。該模型已展現出識別全球操作系統及網頁瀏覽器關鍵漏洞的能力,引發各界對敵對外國勢力或網絡罪犯可能利用該漏洞的憂慮。因此,White House 正考慮發佈一項行政命令,以成立一個由政府官員及業界高層組成的工作小組,旨在制定評估方案。此機制將為聯邦機構提供 「優先訪問權」,以便評估對國家安全及與 Department of Defense 相關的網絡能力之影響。 機構對此趨勢的反應出現分歧。Center for AI Standards and Innovation (CAISI) 已與 Microsoft 、Google 及 xAI 達成協議,以進行部署前評估。相反地,Anthropic 與 U.S. government 的關係較為緊張;由於 Anthropic 拒絕允許軍方不受限地訪問其模型,Department of War 將該公司列為 「供應鏈風險」。這種緊張關係進一步體現在 Anthropic 決定透過 「Project Glasswing」 將 Mythos 的訪問權限限制在一個由關鍵基礎設施管理員組成的特定群體內。 與此同時,AI 整合至軍事行動中,觸發了私營部門內部的勞工不穩定情況。United Kingdom 的 Google DeepMind 員工已投票決定成立工會,尋求透過 Communication Workers Union 及 Unite the Union 獲得代表權。此次集體行動是對 Google 與 Pentagon 及 Israeli government 達成協議(特別是 「Project Nimbus」)的回應。員工對 AI 可能促進自主武器及大規模監控表示憂慮,並主張非約束性的倫理準則不足以防止 Frontier 模型被軍事化。

結論

U.S. government 目前正趨向為 AI 模型建立結構化的審查程序,而業界員工則日益採取組織行動,以反對將這些技術應用於軍事環境。