近日,有程序员开发出一款名叫DeepNude的应用备受外界关注,这款应用之所以“走红”是只要给DeepNude一张女性照片,借助神经网络技术,App可以自动“脱掉”女性身上的衣服,显示出裸体。 如此有争议的做法,收到了AI人工智能行业工作者的强烈不满,在大家看来,这与早前的DeepFakes换脸应用类似,DeepNude同样打开了AI工具的阴暗面,因为开发者很难确保其他人会恪守道德准则。 迫于外界的舆论压力,开发者已经关闭了DeepNude应用程序。其在Twitter消息中写到:“我们其实并不希望以这样的方式去赚钱”。 之前,反“色情复仇”组织Badass的创始人凯特琳·鲍登(Katelyn Bowden)感叹说:“真是让人震惊。现在每个人都有可能成为色情报复的受害者,即使没有拍过一张裸体照片,也可能会成为受害者。这样的技术根本不应该向公众开放。” 而马里兰大学凯里法学院(University of Maryland Carey School of Law)教授丹尼尔·西龙(Danielle Citron)认为,DeepNude无疑是在侵犯用户的性隐私。 |
免责声明:本网站内容由网友自行在页面发布,上传者应自行负责所上传内容涉及的法律责任,本网站对内容真实性、版权等概不负责,亦不承担任何法律责任。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,并请自行核实相关内容。本站不承担此类作品侵权行为的直接责任及连带责任。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。