近來出現一個令人不安的趨勢:市面上已有多款 AI 工具/網站,可以將正常照片生成裸體影像。這不只是成人被濫用的問題,加害者的年齡越來越小,受害者人數也在快速上升,情況比想像中更嚴重。
澳洲與英國政府已經宣布,將對這類用於製作 AI 裸照與隱蔽跟蹤的線上工具採取更嚴格的管制,並要求科技平台承擔阻擋責任。
在國際案例中,生成式 AI 已被濫用來 移植人臉、全身脫衣,甚至製造不雅動作。這些影像雖然是假的,卻對受害者造成真實傷害,足以摧毀名譽與心理健康。更令人擔憂的是,加害者的年齡正在下降,可以是 小學生、國中生、高中生 皆能成為製作與散播假影像的加害者。
案例數據:
• 日本:警方已確認 17 起使用生活照或畢業紀念冊製作假影像的案例,其中部分甚至是針對同性或同儕的騷擾。2024 年通報總數超過 100 件,受害者從小學生到高中生皆有。
• 西班牙:調查顯示,每 5 名青少年就有 1 人曾是成為假裸照受害者,且影像多半在未經同意下被傳散出去。
• 美國:一個資安公司調查發現,2023 年網路上辨識出 95,820 支假影片,其中 98% 為色情內容。
給大小朋友的提醒:
1、在社群分享照片前,先想清楚:是否真的需要公開?
2、對話比懲罰更重要:和孩子/學生說清楚什麼是生成式AI,以及哪些行為會造成他人傷害與觸犯法律。
3、保存證據並立即通報:若發現影像被散布或遭到威脅,請立刻截圖或紀錄,向學校、家長與平台檢舉,並保留證據以利後續偵辦。
4、檢視隱私設定:減少在公開社群或班級群組分享可被下載的照片,限制影像流通範圍。
小提醒:保護自己的照片,就是保護自己。
資料來源:
Some minors in Japan using AI to generate sexual images of peers from school photos | The Straits Times