揭示AI关系聊天机器人的真相

.png?width=48&height=48&name=image%20(3).png) ](https://blog.avast.com/author/emma-mcgowan) 2024年2月14日

最近Mozilla的一份报告指出,浪漫AI聊天机器人的激增正在引发一系列新的隐私问题。

自上世纪60年代以来,AI浪漫伴侣便成为流行文化中的一个话题。从《我的活人玩偶》中那个全身是机械的“罗达·米勒”到2013年电影《她》中斯嘉丽·约翰逊的无形声音,我们几代人都在着人工智能满足我们所有情感需求。而如今,随着生成性AI的发展和发布,这个梦想似乎即将成为现实。

但这真的是一个梦想吗?还是我们在无意识中走入了隐私的噩梦?这是Mozilla研究团队在其最近的* 中所提出的问题。

报告的发现让人震惊,11款测试的聊天机器人中有10款未能符合Mozilla的最低安全标准。(这意味着,除了其他问题外,它们不要求用户创建强密码,也没有处理安全漏洞的方案。)据估计,谷歌Play商店中有超过1亿次的下载量,而OpenAI最近开放的应用商店也,这个问题只会愈演愈烈。

然而,这份报告不仅仅是数字问题;它还涉及到这些发现可能带来的重大隐私隐患。以ReplikaAI为例,根据Mozilla的说法,人们在这个应用上与“AI灵魂伴侣”分享了他们最亲密的想法、感受、照片和视频,而这个应用不仅记录了这些信息,还有可能将其出售给数据经纪人。此外,它还允许用户使用像“111111”这样的弱密码创建账户,这样一来,所有敏感信息都面临被黑客攻击的风险。

Calder表示,尽管这些隐私和安全漏洞“令人毛骨悚然”,但某些机器人还声称可以帮助客户的心理健康。她以RomanticAI为例指出,其中提到:

“RomanticAI既不是医疗保健或医疗服务的提供者,也不提供医疗照护、心理健康服务或其他专业服务。只有您的医生、治疗师或其他专家才能如此。RomanticAI不作出任何声明、陈述、保证或保证其服务提供治疗、医疗或其他专业帮助。”

然而,他们的网站却声称“RomanticAI在这里维护您的心理健康”(强调为他们的说法)。虽然我们没有确切的数据来比较有多少人阅读了条款与条件与多少人阅读了网站内容,可以合理推测,_更多_人获得了网站的讯息而不是免责声明。

在心理健康的宣称和顾客愿意与他们的数字“灵魂伴侣”分享个人隐私信息之间,Calder担心这些机器人可能轻而易举地操纵人们做一些他们原本不会做的事情。

“是什么阻止不良行为者创建聊天机器人,以便了解他们的灵魂伴侣,然后利用这种关系操纵那些人做可怕的事情、接受令人恐惧的意识形态,或伤害自己或他人?”Calder说。“这就是为什么我们迫切需要这些AI应用程序中更多的透明度和用户控制。”

因此,尽管AI聊天机器人承诺提供陪伴,但我们尚未达到《她》电影中的那种境界:目前的现实展现了一个严峻的现实,即用户的隐私成了进入这个领域的代价。现在是用户、开发者和政策制定者共同要求透明性、安全性以及对个人边界的尊重的时候了。只有这样,我们才能在不妥协数字自我的情况下安全地探索这些数字伴侣的潜力。

Leave a Reply

Required fields are marked *