1月,Taylor Swift AI色情图片在X(前身为Twitter)上广泛传播。这是AI生成的虚假色情内容扩散的最新例子,同时也展示了阻止这类内容传播的难度。
在X上最引人注目的例子之一吸引了超过4500万次观看,2.4万次转发,数十万次点赞和收藏。分享这些图片的经过认证的用户因违反平台政策被暂停账号,但这条帖子在被删除前已经在平台上存在了大约17小时。
然而,当用户开始讨论这条病毒式传播的帖子时,这些图片开始在其他账号上重新出现,许多仍然存在,并且随之出现了大量新的虚假色情图片。在某些地区,“Taylor Swift AI”成为了热门话题,进一步将这些图片推向更广泛的观众。
据404 Media报道,这些图片可能最初出现在Telegram的一个群组中,用户在该群组中分享使用Microsoft Designer生成的女性AI色情图片。据报道,该群组用户还开玩笑称,Swift的图片在X上走红。404 Media在周一报道称,相关漏洞已被修复。
微软负责AI工程的Sarah Bird确认了这些变化,她表示:“我们致力于为每个人提供安全和尊重的体验。我们正在继续调查这些图片,并加强现有的安全系统,以进一步防止我们的服务被滥用来生成类似图片。”
X的政策明确禁止托管此类合成和操纵媒体及非自愿裸露内容。尽管X、Swift和NFL的代表未回应我们的置评请求,X却在事件发生几乎一天后发布了公开声明,但未具体提及Swift的图片。
Swift的粉丝批评X允许许多帖子存在如此长时间。作为回应,粉丝们通过向传播这些图片的标签中涌入Swift表演的真实视频来掩盖虚假的色情图片。
这一事件突显了阻止深伪色情和AI生成的真人图片的挑战。一些AI图像生成器已经设置了限制,防止生成裸露、色情和真实的名人图片,但许多其他生成器并未明确提供这种服务。防止虚假图片传播的责任通常落在社交平台上——在最佳情况下,这也难以做到,对于像X这样削弱了其审核能力的公司来说更是难上加难。
目前,X正因“传播非法内容和虚假信息”的指控接受欧盟调查,并因其在以色列-哈马斯战争中传播虚假信息的危机协议受到质疑。