【別讓AI淪為犯罪工具!共同對抗數位性暴力威脅】
大家還記得2021年爆發網紅小玉利用AI深偽技術(Deepfake)合成多名女性臉部製成色情影片並販售的事件嗎?仍會不時看到以AI偽造裸體照牟利或毀謗他人的新聞。根據遠見雜誌2024.9.11報導,韓國爆發大規模Deepfake犯罪,2024年1~7月共獲報297起Deepfake性犯罪,較前一年大增高逾百件,宛如韓國N號房事件2.0版。類似上述濫用AI技術對女性的數位性暴力,引發各國對AI帶來負面影響的謹慎與相關法令制定。
聯合國擔憂AI快速發展將加劇暴力侵害婦女和女孩。AI生成內容會強化厭女規範,讓有心者替暴力侵害行為找藉口跟理由並使之正常化,AI生成內容也加劇性別化錯誤訊息和假消息的傳播。一篇由聯合國教科文組織與人工智能國際研究中心在2024年發布的研究報告指出,大型語言模型訓練仰賴大量資料庫學習,現階段AI模型不具備辨別性別意識的能力,產出內容會繼承並放大社會既有性別、種族、職業、恐同的偏見和刻板印象。
除了要小心AI產出內容帶有偏見之外,也要提防有人運用AI來侵犯隱私、散布假資訊誤導他人,或是製作不實性影像。惡意利用AI技術來移花接木原始影像,生成色情、血腥、暴力或不實的偽造照片或影片,藉此營利、威脅、毀謗被害人。也有人要求AI生成出擬真的兒少性剝削影像,或將真實人物的影像後製成色情影像。在台灣,如果以深偽技術等方法製作不實性影像,涉及《刑法》第319-4條不實性影像罪,將會面臨最高五年以下有期徒刑,若涉及販賣營利行為刑責更重,可處七年以下有期徒刑。將AI用在非法用途也是侵犯當事人的不當行為。
婦援會自2015年開始提供數位性暴力被害人,實務中遇過利用AI技術等方式合成不實性影像,造成被害人身心創傷影響。
️支持婦女救援基金會【數位性暴力救援與防治】專案,攜手終結數位性暴力:https://www.twrf.org.tw/info/title/846
抽獎活動點此:https://www.facebook.com/photo?fbid=1145765424386913&set=a.422180176745445
聯合國婦女署關於人工智慧與性別平等的文章:https://www.unwomen.org/en/articles/explainer/artificial-intelligence-and-gender-equality





