關於 AI-generated(人工智能生成)兒童性虐待內容激增之分析
導言
Internet Watch Foundation(IWF)發布了一份年度報告,詳細列明 2024 年至 2025 年間,AI-generated(人工智能生成)兒童性虐待影像(CSAM)的製作與傳播數量大幅增加。
正文
根據 IWF 提供的量化數據顯示,寫實 AI-generated CSAM 的報告數量由 2024 年的 193 宗上升至 2025 年的 491 宗,增幅超過 150% 。而在影片內容方面,增長趨勢更為顯著,個案數量由 2024 年的 13 宗飆升至 2025 年的 3,443 宗。此增長歸因於 nudifying bots(去衣機器人)的出現,以及 text-to-video(文本轉影片)和 image-to-video(圖像轉影片)技術的應用。IWF 進一步指出,此類內容已出現在主流社交媒體廣告及 AI companion(人工智能伴侶)平台,並在 clear web(明網)與 dark web(暗網)中傳播。 從技術與法證角度分析,IWF 觀察到 AI-generated 影像被歸類為 Category A(最嚴重級別)的頻率高於非 AI 內容,儘管過去兩年內 47% 的犯罪 AI 影像被歸類為 Category C。該基金會聲稱,這些素材往往透過直接修改現有的虐待內容或利用訓練數據,納入真實受害者的生理特徵,從而將傷害延伸至真實兒童。 在監管框架方面,於去年 3 月實施的 Online Safety Act(網絡安全法)要求社交媒體實體識別並刪除 CSAM。然而,包括 Ian Russell 在內的持份者認為,該立法在保護未成年人方面的雄心不足。雖然英國政府已建議允許指定機關審查 AI 模型,並擬將持有旨在生成 CSAM 的 AI 工具及指南定為刑事罪行,但 IWF 主張在部署前的安全測試方面仍存在法律真空。因此,該基金會倡議要求技術開發者執行 「safety by design」(設計安全)的強制指令。
結論
目前情況的特點在於 AI-generated CSAM 的數量與複雜程度迅速增加,促使英國政府擴大刑事處罰,而 IWF 則繼續倡議建立強制性的行業安全標準。