【從同情到消費:AI生成受害者圖像席捲NGO宣傳】
【從同情到消費:AI生成受害者圖像席捲NGO宣傳】
記者:Kaitlyn Lau

近日,AI生成的極端貧困、兒童及性暴力倖存者圖像大量出現在圖庫網站,並被部分國際健康與援助組織用於社群媒體宣傳中,引發全球公共衛生專家對「貧困色情2.0」時代的擔憂。這些圖像透過刻板化的視覺元素(如手持空盤的孩子、龜裂的土地)強化種族偏見,且因合成圖像成本低且無需徵求同意而被機構廣泛採用。
安特衛普熱帶醫學研究所研究員Arsenii Alenichev收集了100多張AI生成的被個人或NGO用於反飢餓或反性暴力社群媒體運動的AI生成貧困影像,並指出AI生成的貧困圖像複製了「貧困的固定視覺語法」,他與衛報分享的畫面顯示加深刻板印象的浮誇情境,例如孩子們蜷縮在泥水中、身穿婚紗的非洲女孩臉上帶淚等場景。目前,Adobe Stock Photos和Freepik等多個知名圖庫平台已出現大量此類內容,包括「難民營中真實感兒童」「亞洲兒童在垃圾河游泳」等標題,Arsenii Alenichev認為這些高度種族化的圖像不應被發布。
據Fairpicture組織成員Noah Arnold分析,美國政府對非政府組織預算的削減促使更多機構選擇合成圖像,因其成本低廉且無需處理拍攝同意問題。Freepik的CEO Joaquín Abela回應稱,平台用戶生成了這些AI內容,但使用責任在於媒體而非平台;儘管平台已嘗試在其他領域推動性別平衡與多樣性,但「沒有人能阻止客戶想生成什麼影像」。
部分NGO也曾使用AI生成圖像開展全球健康宣傳。2023年,英國慈善組織Plan International荷蘭分會在反童婚影片中使用AI生成「受傷女孩與孕少女」的圖。該組織表示,2025年已制定指南避免用AI描繪個別兒童。聯合國去年亦曾發布了一段視頻在YouTube上,視頻利用AI生成了衝突中性暴力的「重演」,其中包括人工智慧生成的一名布隆迪婦女的證詞,描述了1993年該國內戰期間被三名男子強姦並留下等死的情況。聯合國發言人表示:「該視頻是一年多前使用快速發展的工具製作的,已被刪除,因為我們認為它顯示了對人工智慧的不當使用,並可能對信息完整性、混合真實鏡頭和近乎真實的人工生成內容帶來風險。」
生成式AI工具已被證實會複製並放大社會偏見。專家警告,這些帶偏見的圖像若流入互聯網,可能用於訓練下一代AI模型,形成「偏見放大循環」。

