蝦米?! 這張照片我沒拍過餒...
想像一下...
一個尋常的平日,你走進教室卻發現大家都在竊竊私語,
當你想靠近,他們卻避開甚至不敢直視你的眼睛,
點開群組才發現自己的裸照被散布,
更驚悚的是:你從未拍過這張照片
這種堪比科幻片的劇情,如今在 AI 發展進步的現代已出現在真實世界。Deepfake 深偽技術於 2016 年問世,近期技術發展更成熟,私密影像外流的被害人不再僅是那些曾經拍攝過的受害者,愈來愈多不曾拍攝過的民眾,被加害人以 Deepfake 技術製作裸照,並藉以威脅受害者支付鉅款,甚至將影像散布至色情網站上。
當這樣的技術流入校園成為霸凌題材時,受害的學生可能出於羞愧,就算影像非真實的,亦想隱瞞不讓家長或老師知道,甚至覺得是自己做錯了什麼。但,這是受害者的錯嗎?
才 不 是 呢!
做錯事情的是那些 #製造假裸照 的加害人,當孩子發生這樣的事情時,身為家長或老師,我們應該溫和而堅定的告訴他,這不是你的錯!
若您有性影像下架 的需求
可以求助於性影像處理中心
網站:https://tw-ncii.win.org.tw/
電話:(02)6605-7373
參考文章
AI 犯罪門檻降低 逾 20名西班牙女孩照片遭散播深偽「假裸照」https://dq.yam.com/post/15729