AI
生成真人照片目前并未规范是否要加浮水印,造成过往“有图有真相”的日子,变成“有图还是没真相”一片混乱。西班牙一个小镇最近流传大量女童与少女裸照,警方已介入调查。
图片中人物与新闻无关。Tu?n Ki?t Jr.
英国广播公司报导,西班牙西南部巴达霍斯省阿尔门德拉莱霍(Almendralejo),已有20多个年龄在11 岁至17
岁之间的女孩现身,称自己是AI生成裸照受害者。一名14岁少女的母亲拉约 (María Blanco Rayo)
表示,“有一天,我女儿放学时说,妈妈,我裸露上身的照片在流传”,“我问她是否拍过自己的裸照,她说,『没有,这些都是假照片,现在正在大量制作中,班上还有其他女孩也发生过这种情况。』”
拉约表示,镇上有28个被害少女的父母组成了团体,互相通报并找出凶手。警方立案调查发现,至少11名12岁至14岁男孩参与了这些AI裸图制作,或透过
WhatsApp 和 Telegram 应用程式传播这些裸照。
事件造成有些被害少女不敢出门,一名母亲指出事件严重性,“当你是犯罪的受害者时,像是被抢劫,你会提出投诉,也不会因为对方对你造成伤害而躲藏。但对于性犯罪,受害者常常会感到羞耻而躲起来,甚至感到自己有责任。所以我想传达这样的讯息:这不是你的错。”
镇上一名母亲表示,她有一对正值少年时期的儿女,这让她非常忧心,“你担心两件事:你担心儿子可能会做出这样的事情;你会更担心女儿成为受害者,因为这是一种暴力行为。”