揭开AI恋爱聊天机器人的真相
- 18
Emma McGowan 2024年2月14日
最近,Mozilla的一份报告发现,浪漫人工智能聊天机器人的爆炸式增长正引发一连串新的隐私问题。
自1960年代以来,人工智能伴侣在流行文化中就已经成为一种现象。从《我的生活娃娃》中的全身机器人“Rhoda Miller”到2013年《她》中的斯嘉丽约翰逊所声演的无形声音,我们世代以来一直在共同想像人工智能能满足我们所有的情感需求。现在,随著生成式AI的发展与推出,这个梦想似乎终于有可能成为现实。
但这真的算是梦吗?还是我们正在无意中踏入隐私噩梦?这正是Mozilla研究团队在其最近的 《隐私无关重要特别报告:浪漫AI聊天机器人》中所探讨的问题。
蓝鲸加速官网结果令人震惊,测试的11款聊天机器人中有10款未能满足Mozilla的最低安全标准。这意味著,除了其他因素之外,它们不要求用户创建强密码,也没有处理安全漏洞的方式。随著在Google Play商店下载估计超过一亿次,以及OpenAI的应用商店最近开放时出现浪漫聊天机器人的激增,这个庞大问题只会越来越严重。
但这份报告不仅仅是数字的问题;它还涉及到这些发现可能带来的重大隐私影响。以Replika AI为例。根据Mozilla的说法,使用者在一个不仅记录这些资讯,还可能将其出售给数据经纪人的应用上,分享了他们最私密的想法、感受、照片和视频。它还允许用户创建“111111”等弱密码的帐户,将所有这些敏感信息置于黑客攻击的风险之中。
Calder表示,虽然这些隐私和安全缺陷“令人毛骨悚然”,但有些机器人还声称可以帮助客户改善心理健康。她举了Romantic AI作为例子,其条款和条件中如是说:
“Romantic AI既不是提供健康护理或医疗服务的机构,也不提供医疗护理、心理健康服务或其他专业服务。只有你的医生、治疗师或其他专业人士能做到这一点。Romantic AI不对提供治疗、医疗或其他专业帮助做出任何声明、保证或担保。”
然而,他们的网站却说“Romantic AI在此维护你的心理健康”强调为其自身。虽然我们不知道多少人阅读了条款和条件与多少人阅读了网站内容,但可以肯定的是,更多的人会接受网站上的信息,而忽略声明。
在心理健康的主张与客户自愿分享的个人和私人信息之间,Calder担心这些机器人可能会轻易地操纵人们去做他们本不会做的事情。
“有什么阻止坏人创建聊天机器人,旨在了解他们的灵魂伴侣,然后利用这种关系来操控他们做可怕的事情、接受恐怖的意识形态,或伤害自己或他人?”Calder说。“这就是为什么我们迫切需要在这些AI应用中增加透明度和用户控制。”
因此,虽然AI聊天机器人承诺了伴侣关系,但我们尚未达到《她》的水准:当前的情况显示了一个残酷的现实,即用户隐私是进入的代价。是时候让用户、开发者和政策制定者共同要求在AI关系领域提高透明度、安全性和尊重个人界限。只有这样,我们才能希望在不损害数字自我的情况下安全地探索这些数码伴侣的潜力。