泰勒斯威夫特的深度伪造色情影片并不新鲜但这并不意味著我们不应该感到担忧。

.png?width=48&height=48&name=image%20(3).png) ](https://blog.avast.com/author/emma-mcgowan) 2024年1月30日

在艾薇生成的泰勒·斯威夫特色情图片在 X 平台(前身为推特)迅速流行之后,我们不禁要问:这对人工智慧的未来意味著什么?

最近,一些 AI生成的 在 X 平台上广泛流传,凸显了人工智慧能力的黑暗面。这些图片相信是使用 Microsoft Designer 创建的,引起了广泛关注,同时突显了 AI 生成色情内容的日益严峻挑战。

随著这些图片迅速在平台上传播,事件不仅引发了粉丝和隐私倡导者的愤慨,也引发了对于 AI 在媒体创作中的道德使用的重大质疑。

Avast 威胁情报总监米哈伊·萨拉特(Michal Salát)在这一及时的讨论中提供了丰富的知识和专业见解。在关注技术、安全和伦理的交汇处,萨拉特对 AI 生成内容的影响提供了细致的看法。

在接下来的部分中,我们将深入探讨他的见解,回顾影像操控的历史平行,AI 能力所带来的伦理困境,以及在日益由 AI 驱动的世界中,对数位信任与安全的广泛影响。

假色情并不是新问题

萨拉特将当前 AI 生成逼真图片的能力和以往的 Photoshop 使用进行了比较。就像 Photoshop 多年前革新了图片处理技术一样,AI现在也使得创建逼真的图片变得更加容易。然而,操控图片的概念并不新鲜;AI 只是这场持续故事中的最新工具。

“在某种程度上,这只是一种不同的照片编辑软体,”他解释道,强调操控图片的概念在十多年来一直是个问题。现在的关键区别在于,AI技术带来的便利性和可及性。这一转变引发了对社会如何适应和规范这些新工具的重大问题,这些工具使创建逼真图片变得前所未有的容易。

AI 与露骨内容的伦理困境

其中一个最迫切的担忧是使用 AI生成露骨图片,特别是涉及特定个体且未经同意的伦理问题。虽然生成通用的裸体图片可能不会引发太多伦理问题,但真正的问题在于为何能够轻易产生可识别个体的露骨图片。

“从本质上来说,AI 生成色情内容可能并不是什么灭绝人性的问题,”萨拉特表示。“但对我来说,伦理问题在于,你可以相对轻松地生成带有已知或特定人脸的图片。”

这一能力不仅限于泰勒·斯威夫特等明星,还可能涵盖到任何人,强调了设立伦理准则和立法的必要性:虽然所谓的“报复色情”(或非自愿分享裸体照片)在 48个州是,而 AI生成的深伪色情目前。这是一个明显的差异,突显了法规需要跟上技术的步伐。

AI 公司如何防止生成深伪色情?

也许因为生成 AI 的使用相对较新,对于未经主体同意而创建露骨内容的行为,缺乏足够的防护措施。然而,萨拉特认为,对于 AI公司来说,实施这些防护措施并不困难:例如,可以禁止生成涉及特定个体的图片,或者要求不使用客户提交的图片作为素材,这样就能为广大用户提供足够的阻碍。

“当然,也有一些人能够突破这些限制,使模型做不应该做的事情,”萨拉特指出。“在我看来,目前几乎无法完全避免这个问题——只能让它变得更难。我想强调的是,提供这些服务的公司应该努力更多地避免这些情况发生。”

此外,也有可能有人创建自己的无限制色情生成模型。不过,萨拉特指出,虽然这是有可能的,但需要大量的技术知识和计算能力来实现。

“并不是每个人都有能力自己创建可生成裸体的人工智慧,”萨拉特说。“因此,这更像是使用 Photoshop 的过程,人们需要具备一定的技能才能做到。”

萨拉特将当前的 AI 发展状态与安全行业的进化进行了类比。他观察到,如今我们正在见证安全行业“重新开始与 AI 共同前进”。这一比较强调了认识到 AI发展是一个持续过程的重要性,识别和修复脆弱性是使技术成熟的关键。

在 X 平台上出现的泰勒·斯威夫特 AI 生成图片突显了负责任地使用人工智慧的重要性。随著 AI的持续进步,平衡技术能力与伦理考量和安全措施将变得至关重要。通过向像米哈伊·萨拉特这样的专家学习并反思过去的挑战,我们可以更有信息和谨慎地导航这一复杂的环境。

Leave a Reply

Required fields are marked *