主页 > 杂谈

女子地铁被贴身体

2023-08-02 18:36:21 0

近日,在广东广州,一张女子在地铁上的照片被AI一键脱衣,造谣图随后在网上广泛传播。事实上,所谓的“裸照”是一位女博士去年7月在网络平台分享的一张生活照。原图中她衣着正常,没有任何不妥之处,但被人用AI软件一键脱衣,故意全网散播。已经有众多网友发评论,提醒博主被造谣的事实,催促她尽快报警,也有人热心地

近日,在广东广州,一张女子在地铁上的照片被AI一键脱衣,造谣图随后在网上广泛传播。

事实上,所谓的“裸照”是一位女博士去年7月在网络平台分享的一张生活照。原图中她衣着正常,没有任何不妥之处,但被人用AI软件一键脱衣,故意全网散播。

已经有众多网友发评论,提醒博主被造谣的事实,催促她尽快报警,也有人热心地帮她辟谣澄清。目前博主已在评论区回复各位网友,称会进行维权。

在2019年,国外程序员就开发出了DeepNude这款使用AI技术“脱衣”的应用,后因广泛的舆论争议,该项目被关闭。但网上搜索“AI脱衣软件”,仍然会出现众多“替代品”。现今AI强大的算法下,时间、地点都对得上的情况下,伪造谣言对普通人来说百口莫辩。而唾手可得的脱衣软件则更让造谣者有机可乘。

和AI脱衣相似的,还有近年来走红网络的“AI换脸”。一些“AI换脸”的App使用明星的图片制作换脸视频进行推广,其趣味性背后暗藏了不少法律风险和侵权纠纷。

《网络安全法》第二十七条特别强调,明知他人实施危害网络安全活动的,不能够为他提供技术支持。如果情节严重,还会构成帮助信息网络犯罪活动罪等刑事犯罪。今年1月10日开始施行的《互联网信息服务深度合成管理规定》中也提出,要对深度合成技术应用提出规范。

(0)

猜你喜欢

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至990157430@qq.com 举报,一经查实,本站将立刻删除。