.png?width=48&height=48&name=image%20(3).png) ](https://blog.avast.com/author/emma-mcgowan) 2024年2月14日
最近,Mozilla的一份报告指出,浪漫AI聊天机器人的迅速崛起带来了全新的隐私问题。
自1960年代以来,AI浪漫伴侣在流行文化中就一直存在。从《我的生活玩偶》中的“罗达·米勒”这样的全功能机器人,到2013年电影《她》中由斯嘉莉·约翰逊配音的无形声音,我们几代人以来都在能满足我们所有的情感需求。随著生成AI的发展和推出,这个梦想似乎正朝著实现的方向发展。
但这真的是一个梦吗?还是我们在无意识中走进了隐私噩梦?Mozilla的研究团队在最近的 __ 中探讨了这个问题。
结果令人震惊,11款被测试的聊天机器人中有10款未能满足Mozilla的最低安全标准。(这意味著它们不要求用户创建强密码或提供应对安全漏洞的方法。)而在GooglePlay商店中,这些聊天机器人下载量已超过一亿,加上OpenAI最近开放的应用商店中出现了大量浪漫聊天机器人,这个庞大的问题只会不断增长。
不过,这份报告不仅仅是数字的分析,它还关注这些发现可能带来的重大隐私影响。以ReplikaAI为例。根据Mozilla的说法,人们正在与他们的“AI灵魂伴侣”分享最私密的想法、感受、照片和视频,而这款应用不仅记录这些信息,还可能将它们出售给数据经纪人。此外,这款应用允许用户使用像“111111”这样的弱密码创建帐户,使所有敏感信息面临被骇的风险。
Calder表示,虽然这些隐私和安全缺陷已经“令人毛骨悚然”,但一些机器人还声称能帮助用户的心理健康。她以RomanticAI为例,该公司的中明确表示:
“Romantic AI既不是医疗服务提供者,也不提供医疗护理、心理健康服务或其他专业服务。只有您的医生、治疗师或其他专家才能做到这一点。RomanticAI不承诺、声明、保证或保证该服务提供治疗、医疗或其他专业帮助。”
然而,他们的网站写著“RomanticAI在这里维护您的心理健康”(强调为他们的)。虽然我们无法得知多少人阅读了条款和条件与多少人浏览了网站,但很安全地说,_很多_人接收到的网站信息要比声明更为广泛。
在心理健康的声称和客户自愿与他们的数字“灵魂伴侣”分享私密信息之间,Calder担心这些机器人可能会轻而易举地操控人们做出他们通常不会做的事情。
“有什么能阻止坏人创建聊天机器人以了解他们的灵魂伴侣,然后利用这种关系操控这些人做可怕的事情、接受可怕的意识形态,或伤害自己或他人?”Calder说。“这就是为什么我们迫切需要在这些AI应用中增强透明度和用户控制。”
因此,尽管AI聊天机器人承诺伴侣的陪伴,但我们尚未达到《她》中的那种境界:目前的现实情况显示,用户隐私是进入这个世界的代价。现在是时候让用户、开发人员和政策制定者共同要求在AI关系领域中实现透明度、安全性和对个人界限的尊重。只有这样,我们才能在不侵犯自己数位隐私的情况下,安全探索这些数位伴侣的潜力。
Leave a Reply