揭开AI关系聊天机器背后的真相

.png?width=48&height=48&name=image%20(3).png) ](https://blog.avast.com/author/emma-mcgowan) 2024年2月14日

Mozilla 最近一份报告指出,浪漫 AI 聊天机器人的爆炸式增长正引发全新的隐私问题。

自1960年代以来,AI 浪漫伴侣就已成为流行文化的一部分。从 My Living Doll 中的全自动机器人“RhodaMiller”,到2013年电影 Her 中斯嘉丽·乔韩森扮演的无形声音,我们几代人一直在 能够满足我们所有的情感需求。而现在,随著生成式 AI的发展和发布,这个梦想似乎终于要成为现实。

但这真的是梦想吗?还是我们正在无意中走向隐私的噩梦?这就是 Mozilla 研究团队在他们最新的 __ 中所探讨的问题。

调查结果令人震惊,11款测试的聊天机器人中有10款未能满足 Mozilla的最低安全标准。(这意味著,它们不要求用户创建强密码,或者没有任何处理安全漏洞的方式。)随著在 Google Play 商店中估计超过1亿次下载,以及 OpenAI 应用商店近期涌入的浪漫聊天机器人,这个庞大的问题只会继续扩大。

但这份报告并不仅仅关于数字;它同样关注这些发现可能带来的重大隐私影响。以 Replika AI 为例。根据 Mozilla的说法,用户在这个应用上与他们的“AI灵魂伴侣”分享他们最私密的想法、感觉、照片和视频,而该应用不仅会记录这些信息,还可能将其出售给数据经纪人。此外,它还允许用户使用像“111111”这样的弱密码来创建账户,让所有敏感信息面临被骇的风险。

Calder 表示,尽管这些隐私和安全缺陷已经够“诡异”,但一些机器人还声称能帮助客户的心理健康。她指出浪漫 AI作为一个例子,其 说明:

“浪漫 AI 既不是医疗或医疗服务的提供者,也不提供医疗护理、心理健康服务或其他专业服务。只有您的医生、治疗师或其他专业人才可以这样做。浪漫 AI不对服务提供治疗、医疗或其他专业帮助作出任何声明、表述、担保或保证。”

不过,他们的网站却声称“浪漫 AI在这里维护您的心理健康”(强调是他们的语气)。虽然我们无法知道有多少人阅读了条款和条件与有多少人阅读了网站内容,但可以合理推测,_更多_的人接收到的网站讯息会比免责声明要多。

在心理健康的声称和客户自愿与他们的数字“灵魂伴侣”分享的个人和私密信息之间,Calder 担心这些机器人可能会很容易地操纵人们去做他们本不应该做的事。

“有什么能阻止不良行为者创建聊天机器人,让他们了解灵魂伴侣,然后利用这段关系操纵这些人做可怕的事情、接受可怕的意识形态,或者伤害自己或他人?”Calder说。“这就是为什么我们迫切需要这些 AI 应用程序在透明度和用户控制方面做出更多改进。”

因此,尽管 AI 聊天机器人承诺提供伴侣关系,但我们目前仍未达到 Her 的水准:当前的状况揭示出一种残酷的现实,即用户隐私是进入这个领域的代价。现在是用户、开发者和政策制定者要求在 AI关系的领域中实现透明度、安全性以及对个人界限的尊重的时候。只有这样,我们才能希望在不妥协我们的数位自我的情况下,安全探索这些数位伴侣的潜力。

Leave a Reply

Required fields are marked *