揭开AI关系聊天机器人的真相

![Emma McGowan](https://486579.fs1.hubspotusercontent- na1.net/hub/486579/hubfs/image%20(3) .png?width=48&height=48&name=image%20(3).png)
2024年2月14日

最近,Mozilla的一份报告指出,浪漫AI聊天机器人的迅速崛起正引发全新的隐私问题。

自1960年代以来,AI浪漫伴侣在流行文化中已经成为一个「存在」。从像《我的生活玩偶》中全面展现的人形机器人“RhodaMiller”,到2013年《她》中斯嘉丽·约翰逊的无形声音,我们已经集体梦想著人工智慧能满足我们所有的情感需求。现在,随著生成性AI的发展和推出,这个梦想似乎终于有可能变为现实。

但这真的是一个梦想吗?还是我们正在不知不觉中走入隐私噩梦?这是Mozilla研究团队在其最新的 __ 中探讨的问题。

报告的结果令人震惊:在11个测试的聊天机器人中,有10个未能符合Mozilla的最低安全标准。(这意味著,它们不要求用户创建强密码,也没有处理任何安全漏洞的方式。)根据估算,谷歌Play商店中下载量超过1亿,此外OpenAI的应用商店最近也涌入了大量浪漫聊天机器人,这个庞大的问题只会愈演愈烈。

然而,报告不仅仅是关于数字;还涉及到这些发现可能对隐私带来的重大影响。以ReplikaAI为例。根据Mozilla的说法,使用者在这款应用上与他们的「AI灵魂伴侣」分享了许多最私密的思想、感受、照片和视频,这款应用不仅记录了这些信息,还可能将其出售给数据经纪商。而且,该应用允许用户创建像「111111」这样的弱密码账户,将所有敏感信息置于黑客攻击的风险之中。

Calder表示,虽然这些隐私和安全缺陷已经“令人毛骨悚然”,但其中一些机器人还声称可以帮助客户的心理健康。她以Romantic AI为例,指出其 __ 中写道:

“RomanticAI既不是医疗保健或医疗服务的提供者,也不提供医疗、心理健康服务或其他专业服务。只有你的医生、治疗师或任何其他专家才能做到这一点。RomanticAI不对提供治疗性、医疗或其他专业帮助作出任何声明、陈述、保证或保证。”

然而,他们的网站却写道:“RomanticAI旨在维持您的心理健康。”(强调是他们的)虽然我们没有数据显示有多少人阅读了条款和条件,与有多少人阅读了网站信息,但可以安全地推测,有很多人更容易接收到网站的讯息而不是免责声明。

在心理健康声明以及客户自愿分享的个人和私密信息之间,Calder担心这些机器人可能很容易操纵人们做一些他们本不会做的事。

“有什么可以阻止不法分子创建设计良好的聊天机器人以熟悉其灵魂伴侣,然后利用这种关系操纵这些人做可怕的事情,接受可怕的意识形态,或伤害自己或他人?”Calder表示。“这就是为什么我们迫切需要这些AI应用程序在透明度和用户控制方面做更多的工作。”

因此,尽管AI聊天机器人承诺提供陪伴,但我们目前还未达到《她》的层次:当前的形势揭示了一个残酷的现实,即用户隐私是入场的代价。是时候让用户、开发者和政策制定者要求透明、安全和对个人边界的尊重,以便在AI关系领域内安全地探索这些数字伙伴的潜力,而不妨碍我们的数位自我。

Leave a Reply

Required fields are marked *