揭开关于 AI 关系聊天机器人的真相
Emma McGowan 2024年2月14日
Mozilla最近的一份报告指出,浪漫AI聊天机器人的激增正在引发全新的隐私担忧。
自1960年代以来,AI浪漫伴侣就已经成为流行文化的一部分。从《我的生活娃娃》中全身是的安卓机器人“Rhoda Miller”,到2013年《她》中斯嘉丽约翰逊所声演的无形声音,几代人以来我们一直在梦想著人工智慧能够满足我们的情感需求。如今,随著生成式AI的发展和释出,这个梦想似乎终于有望实现。
但这真是一个美好的梦想吗?还是我们在不知不觉中步入了一场隐私的噩梦?这是Mozilla研究团队在其最近的隐私不包括浪漫AI聊天机器人的特别报告中探讨的问题。
结果令人震惊,在测试的11个聊天机器人中,有10个未能达到Mozilla的最低安全标准。这意味著,这些聊天机器人不要求用户创建强密码,或没有办法应对任何安全漏洞。而根据估算,Google Play商店中下载这些应用的数量超过1亿,加上最近OpenAI的应用商店中也出现了大量浪漫聊天机器人,这一大问题只会变得更加严重。
然而,该报告的内容不仅仅是数字;它还涉及这些发现可能带来的重大隐私影响。以Replika AI为例。根据Mozilla的说法,用户在这款应用上与其“AI灵魂伴侣”分享了内心最私密的想法、感受、照片和视频,而该应用不仅记录这些信息,还可能将其出售给数据经纪人。此外,它还允许用户以“111111”等弱密码创建帐户,使所有敏感信息面临被黑的风险。
Calder表示,尽管这些隐私和安全缺陷已经相当“可怕”,但部分聊天机器人甚至声称能帮助用户改善心理健康。她提到Romantic AI的条款和条件,该条款中写道:
“Romantic AI既不是医疗健康服务提供者,也不提供医疗护理、心理健康服务或其他专业服务。只有你的医生、治疗师或其他任何专科医生能做到这一点。Romantic AI不承担任何提供治疗、医疗或其他专业帮助的声明、保证或保证。”
然而,他们的网站上却写著“Romantic AI的目的是维护您的心理健康”强调为他们所用的词。虽然我们无法获得多少人阅读了条款和条件与多少人查看了网站数据的相关数字,但可以肯定的是,很多人接收到了网站的消息,而不是那份免责声明。
白鲸加速器手机版在心理健康的声称和用户愿意与其数位“灵魂伴侣”分享的私人信息之间,Calder担心这些机器人可能会轻易操弄人们,让他们做出平时不会做的事情。
“什么能阻止坏人创建旨在了解其灵魂伴侣的聊天机器人,并利用这段关系操弄对方做可怕的事情、接受令人恐惧的意识形态,或伤害自己和他人?”Calder说。“这就是为什么我们迫切需要在这些AI应用中更多的透明度和用户控制。”
因此,虽然AI聊天机器人承诺提供陪伴,但我们尚未达到《她》中的那种境界:当前局面显露出一个残酷的现实,用户的隐私成为了参与的代价。是时候让用户、开发者和政策制定者共同要求在AI关系中增强透明度、安全和尊重个人边界了。唯有如此,我们才能安全地探索这些数位伴侣的潜力,而不损害我们的数位自我。