当前位置:首页 >娱乐 >泰勒·斯威夫特照片被滥用,生成式AI让Deepfake变得廉价且简单 来源:DeepTech深科技嗨

泰勒·斯威夫特照片被滥用,生成式AI让Deepfake变得廉价且简单 来源:DeepTech深科技嗨

2024-05-14 12:43:24 [百科] 来源:避面尹邢网

来源:DeepTech深科技

嗨,泰勒泰勒·斯威夫特(Taylor Swift),斯威我们对最近发生在你身上的夫特事情感到遗憾。

泰勒·斯威夫特照片被滥用,生成式AI让Deepfake变得廉价且简单 来源:DeepTech深科技嗨

看到 X 平台上传播的照片那些关于你的深度伪造色情内容,我能想象到你的被滥e变心情,恶心、用生苦恼,成式甚至感到羞耻。得廉

泰勒·斯威夫特照片被滥用,生成式AI让Deepfake变得廉价且简单 来源:DeepTech深科技嗨

我真的价且简单很遗憾看到这件事发生在你身上,没有任何人的泰勒照片应该被这样滥用。但如果你还没有感到愤怒,斯威那我请你一定要让自己愤怒起来。夫特

泰勒·斯威夫特照片被滥用,生成式AI让Deepfake变得廉价且简单 来源:DeepTech深科技嗨

请愤怒起来吧,照片因为这种情况发生在世界各地的被滥e变女性和弱势群体身上。

请愤怒起来吧,用生因为目前的法律完全无法保护我们免受这样的侵犯。

请愤怒起来吧,因为会有人以这种方式侵犯我们的权利,并安然无恙地销声匿迹。

请愤怒起来吧,因为那些创造和广泛分享这种内容的公司没有因此承担任何后果,它们甚至可以从技术的使用中获利。

(来源:AI 生成)(来源:AI 生成)

深度伪造(Deepfake)色情内容已经存在多年,但技术的最新进步导致了迄今为止最糟糕的情况。生成式人工智能让制作逼真的深度伪造内容变得简单且廉价。

而且几乎所有的深度伪造技术都会被用来制作色情内容。只要从社交媒体上拿到一张图片,就足以产生一些难分真假的东西。任何曾经在网上发布过照片的人都可能成为下一个受害者。

坏消息是,目前我们没有好的方法来应对这种情况。我最近发表了一篇文章,探讨了我们打击深度伪造色情内容的三种方法,其中包括水印和数据中毒工具。

但现实是,这个问题仍然没有一个巧妙的技术解决方案。我们现有的修复方案仍处于试验阶段,尚未被科技领域广泛采用,这限制了它们去发挥力量。

到目前为止,科技行业一直不愿或没有动力做出改变,以阻止人们利用其工具或平台创建或分享此类内容。这就是我们需要监管机构介入的原因。

泰勒,像你一样有权势的人可以用金钱和律师来抗争。但低收入女性、有色人种女性、被伴侣虐待的女性、女记者、甚至小女孩,都可能眼睁睁地看着自己的肖像被拿去制作色情内容,却无法寻求正义或支持。随着这项技术的发展,越来越多的女性会受到伤害。

好消息是,这件事发生在你身上,这意味着美国的政客们一定会注意到。泰勒,你有一个千载难逢的机会和动力来推动真正可以实现的变革。

我知道你愿意为正义而战,当你看到不公正的情况时,会无所畏惧地站出来。我们知道,对于任何可能影响科技公司的法律法规,它们都将进行激烈的游说。

请你告诉立法者,必须要有打击这类深度伪造内容的法律。科技公司和政界人士需要知道,他们不能再犹豫不决了,必须要追究制造这些深度伪造内容的人的责任。

泰勒,你的演唱会曾经造成过真正的地震(注:2023 年 7 月,泰勒在美国召开的演唱会过于热闹,地震仪捕捉到的震动信号约等于 2.3 级的地震),那么这一次,如果你能赢得这场与深度伪造的斗争,那你就将掀起更大的“地震”,造成翻天覆地的影响。

支持:Ren

运营/排版:何晨龙

(责任编辑:知识)

    推荐文章
    热点阅读