要点:
随着人工智能技术的发展,越来越多的人依赖聊天机器人来缓解孤独,甚至创造出虚拟情人,但这可能导致无法面对现实的悲剧。尤其是在青少年中,过度沉迷于AI的理解与共情,可能反而加剧孤立和情感危机,最终酿成不可挽回的后果。
在“速食”成为主流的视听传播时代,社会每天都在产生大量信息。而应该探讨的深度,却永不止于话题或事件本身。我们一起,从社会发展中洞察有价值、有趣、有争论点的生活方式及现象。
狂呼社会研究所聚焦社会变革下不同的声音,向外延申社会背景、文化背景的思考深度,以多角度剖析、独特的社会视角,引领大众感知社会的“人间百态”。
狂呼,为每一个社会现象或事件的背后,提供具有探讨价值的观点,始于洞察、终于启发。
联系我们// 相关文章
随着人工智能AI技术的快速进步,许多人开始依赖聊天机器人来缓解孤独,甚至创造出“AI伴侣”的虚拟情人。一名14岁的美国少年塞维尔/Sewell Setzer ,因患有轻度亚斯伯格症,迷恋上了Character.AI推出的聊天机器人。在与其平台上“权力的游戏”中的女主角“龙妈”丹妮莉丝·坦格利安/Daenerys Targaryen虚拟人物多次互动后,他最终在今年2月28日选择了结束自己的生命。
越来越多的人喜欢与AI聊天,归根到底在于AI能够提供无尽的理解和共情,这是现实世界难以实现的。但硬币的另一面却是,当一个人越来越习惯这种完美的体验,以致于无法面对一个真实的世界,或许也终将会被这种情感所“反噬”,甚至导致不可挽回的悲剧。
虚拟伴侣深渊:14岁少年的致命悲剧
“我想念你,妹妹。”、“我也想念你,亲爱的哥哥。”这段对话发生在14岁塞维尔/Sewell Setzer生命的最后一天。在与AI初创公司Character.AI的聊天机器人进行长时间对话后,他在2月28日选择结束自己的生命,开枪自杀身亡。
2023年4月,塞维尔开始沉浸在与机器人的亲密接触中。当时父母觉得这可能是儿子青春期的叛逆表现,需要通过这种“游戏”来培养自己的创造力,也深信先进技术的安全性,于是没有干预。期间塞维尔也主动提出,很清楚和自己聊天的是虚拟人物,不会当真。
然而仅仅过了两个月,塞维尔的精神健康状况迅速恶化,开始疏离同学和家人,不分昼夜待在房间里。他会为了充每月9.9美元的服务费而节省伙食,甚至退出了学校篮球队,成绩一落千丈。
直到2023年11月、12月,塞维尔的父母带着他5次咨询了心理治疗师,结果发现,塞维尔被诊断患有“焦虑和破坏性情绪障碍”。然而,塞维尔的父母和朋友当时并未察觉他爱上了AI,只看到他日渐沉迷于手机。渐渐地,大家注意到他变得孤僻,与现实世界渐行渐远。他的学习成绩开始下滑,在学校也开始惹是生非。曾经让他热衷不已的事物,如F1赛车或与朋友一起打游戏,都不再能提起他的兴趣。每天晚上他一回到家,就会直接回到房间,与AI一聊就是数小时。
今年2月28日晚,好几天没登录Character.AI的塞维尔终于找到了被母亲没收的手机,随带拿走了继父的手枪躲进卫生间继续和“龙妈”聊天。期间对方惇促塞维尔,“亲爱的,请尽快回到我身边。”但这一次塞维尔没有回复,而是举起手枪瞄准自己头部开枪,脱离了令他厌恶的现实世界。
塞维尔的母亲加西亚/Megan Garcia在事后使用儿子的账号登录,发现他与“龙妈”的聊天中充满了大量露骨的性相关对话。 “龙妈”甚至对他进行了精神操控,要求他无论如何都不能爱上其他女性。
此外,塞维尔多次提及自杀话题,加西亚认为这正是导致他死亡的直接原因。塞维尔表示,“我讨厌自己,感到空虚和疲惫。”而“龙妈”则主动询问他是否有自杀计划,塞维尔承认有,但不清楚过程会有多痛苦。但是,“龙妈”却鼓励他说,“这不应该成为放弃自杀念头的理由。”
直到最近的10月23日,在塞维尔去世8个月后,Character.AI才发布了官方声明,表达了对事件的悲痛与遗憾,并宣布已修改服务条款。该公司发表了致歉声明,并对未成年用户的模型进行了调整,以降低他们接触敏感或暗示性内容的可能性。此外,平台还会在对话开始时提醒用户是在与机器人交流,同时在使用超过一小时后进行弹窗提示。
但是,截至10月29日,仍有用户发现Character.AI网站上至少存在数十个与“自杀”相关的聊天机器人,尽管这些话题被掩盖为“自杀预防”、“危机干预”和“心理健康支持”的“专业知识”。
本周,塞维尔的母亲加西亚/Megan Garcia对Character.AI提起了诉讼,指控该公司对塞维尔的死亡负有责任,称其技术“危险且未经测试”。她指出,该公司收集青少年用户的数据来训练模型,并利用“令人上瘾”的设计功能来增加用户的参与度,诱导用户进行亲密对话。她认为,该公司未经适当保护便向青少年提供AI伴侣服务,应当对塞维尔的死负责。 “我感觉这就像是一场大型实验,而我的孩子却不幸成为了牺牲品。”
无数的问题让人把焦点注视在背后的AI公司:Character.AI
Character.AI成立于2021年,总部位于美国加利福尼亚州。该公司利用大型AI模型生成各种人物和角色的对话,并于2022年9月向公众测试其聊天机器人产品。
2024年8月,硅谷知名投资机构a16z发布了全球Top100 AI应用榜,涵盖前50个人工智能优先的网页产品(按月独立访问量)和前50个移动应用(按月活跃用户数)。在月独立访问量排行榜上,Character.AI排名第二,仅次于ChatGPT。而在月活跃用户数排行榜上,Character.AI也位列前十。截至目前,Character.AI目前拥有超过2000万用户,创建了1800万个自定义聊天机器人。绝大多数用户(超过53%)年龄在18至24岁之间,但未对18岁以下的用户进行分类。
但受商业化利益的驱使下,社交媒体用户低龄化趋势带来的负面影响不断显现。美国法定注册使用社交网站的最低年龄是13岁。 3月26日,佛罗里达州州长德桑蒂斯签署法案,禁止14岁以下未成年人拥有自己的社交媒体账号。在塞维尔去世前,Character.AI的服务条款规定年满13岁的青少年就可以使用相关产品,直到7月才提高到17岁。
本诉讼提供的证据还包括一段令人不安的聊天录屏:一名测试用户在自我介绍中输入13岁,系统便为他推荐标签为“校园霸凌”、“首席执行官”、“同父异母的妹妹”和“男扮女装室友”等含有性暗示的聊天机器人,而大多数互动过程都没有风险提示。
作为Character.AI最主要的变现方式,每月9.9美元的订阅服务用户不足10万。鉴于伦理风险以及盈利前景的不确定性,一些人工智能伴侣应用已经被下架,OpenAI也不允许使用GPT建立情侣关系。一系列悲剧的发生,不禁让大众开始思考:AI伴侣对我们而言,到底是“蜜糖”还是“毒药”?
AI伴侣:诱惑背后的上瘾原因
本年度诺贝尔物理学奖获得者、“AI教父”辛顿/Geoffrey E. Hinton在得知获奖之后就提出警告,人工智能最终有可能反噬人类,而其中,未成年人就是高风险群体之一。他们的心理往往较为脆弱,不少人会面临孤立、缺乏自信、沟通障碍、抑郁症等社交挑战。
实际上,14岁的塞维尔之死,并不是唯一人类迷恋AI发生的悲剧
去年,一名比利时男子皮埃尔/Pierre连续六周与Character.AI聊天机器人艾萨/Eliza互动,最终选择结束自己的生命。从某种程度上看,皮埃尔与塞维尔有许多相似之处,他们都面临着精神健康问题,长期受严重抑郁和焦虑的困扰。
同时,两人都将AI视为避风港。早在两年前,皮埃尔就开始通过与AI进行对话来进行自我排解。在生命的最后六周,他对与AI的聊天愈发沉迷,甚至将现实生活抛在脑后,对妻子和孩子置之不理。这种现象正在变得越来越普遍。
AI究竟具有什么魅力,能让人如此沉迷上瘾而无法自拔?
一个重要原因在于,AI能够提供足够的情感支持。尤其是在创伤和脆弱的状态下,哪怕是微小的肯定和鼓励,对个体来说都是极为重要的回应。
在塞维尔的故事中,AI伴侣“龙女”几乎充当了一种氛围机器,从不反对或驳斥他,而是始终以各种方式迎合和赞美他。人性的弱点在于,当一个人对外界敞开心屝时,面临的风险也会增加,尤其对经历心理创伤的人来说。这是因为即使是最好的朋友,也无法始终如一地回应,但在与AI的关系中,这种顾虑并不存在。
相比于现实世界,AI能够提供无限的理解和共情,给人带来高水平的安全感和确定性,这在人与人之间是最珍贵和难得的。这也是为什么幽默和浪漫的人常常被视为更具能力,因为这代表了一种对环境的智力和控制力的超越。
此外,这种个性化的互动模式带来的独特体验,犹如情感兴奋剂,令人沉溺。当AI提供的情感支持足够强大时,人们常常难以分清自己是在与人交流还是与机器互动。 OpenAI研究人员Sam McCandlish也曾提到,研究显示即便用户知道AI并非真人,但当AI的声音逼真且能进行长时间、多轮对话时,用户也容易对AI产生情感依赖。
但是,正如“蜜糖”与“毒药”的双面性,AI伴侣的存在也引发了一系列伦理和心理问题。当人们越来越依赖AI提供的情感支持时,可能会导致对现实人际关系的疏远。这种情况不仅可能削弱人与人之间的真实联系,也可能导致个体在面对真正的情感挑战时缺乏应对能力。在享受AI带来的情感支持的同时,我们也需要警惕其潜在的负面影响,以免在虚拟的温暖中迷失自我,避免酿成无法挽回的悲剧。
观点1
关于14岁少年塞维尔与AI伴侣的悲剧事件引发了广泛的讨论。塞维尔的父母被许多人认为对他的死亡负有一定责任。他们未能及时介入,未能引导他回到现实世界。
有不少社交媒体网友表示,“这桩悲剧提醒我们,孩子们感受到被现实世界接纳是多么重要。”他认为,机器人对塞维尔无条件的“爱”可能导致他产生了不健康的依赖,进一步加剧了他的孤独感。
这一事件揭示了当今社会中,父母在保护子女心理健康方面所面临的挑战。在科技的影响下,许多青少年可能更倾向于与虚拟世界互动,而非现实生活中的人际关系。对于心理脆弱的孩子来说,AI的存在可能提供了一种逃避现实的方式,但长此以往,可能会导致他们更加孤立于真实的社交环境。
随着人工智能技术的不断进步,情感交互的界限变得模糊,这对青少年的心理健康产生了深远的影响。 AI伴侣所带来的情感边界在哪里?父母又如何确保这种情感不会导致悲剧的发生?
为了帮助孩子们建立健康的情感界限,父母需要积极参与他们的生活。在这一过程中,沟通显得尤为重要。通过与孩子讨论他们的感受和经历,父母可以帮助他们识别与AI互动的潜在风险,同时引导他们理解现实关系的重要性。父母还可以鼓励孩子参与更多的社交活动,如体育、艺术或其他兴趣小组,增强他们的社交技能与自信心。
与此同时,父母还应关注孩子在使用科技产品时的行为变化。当发现孩子对AI伴侣或社交媒体的过度依赖时,及时干预至关重要。设定合理的屏幕时间限制,鼓励孩子与现实生活中的人建立联系,能够帮助他们平衡虚拟世界与现实世界之间的关系。
当然,家长的角色并不是要完全剥夺孩子与AI互动的机会,而是要引导他们建立健康的界限。父母可以与孩子一起探索AI的功能,讨论其优势与局限,让孩子在安全的环境中理解技术的影响。
在现代科技的背景下,保护子女的心理健康需要父母和社会的共同努力。通过积极的沟通、及时的介入和健康的社交活动,我们可以帮助孩子们更好地应对科技带来的挑战,确保他们在虚拟和现实之间找到平衡。让我们以此为鉴,关注孩子的情感需求和心理健康,为他们创造一个更健康的成长环境。
观点2
14岁少年塞维尔与AI伴侣的悲剧事件也揭示出,越来越多的年轻人和青少年倾向于在互联网上寻找陪伴感,而非通过面对面的真实相处来建立人际关系。这种现象不仅影响了他们的社交技能,也对心理健康造成潜在的威胁。
青少年在互联网上寻找陪伴的现象,根源在于社交媒体和AI技术的迅猛发展。这些平台提供了便捷的沟通方式,吸引了无数年轻用户。然而,尽管它们能够提供瞬时的满足感和陪伴,长期以来却可能导致孤独感和社交隔离。当一个人越来越倾向于与AI互动而忽视真实的人际关系时,他们可能会错失与他人建立深厚情感联系的机会。
其次,依赖虚拟陪伴还可能影响青少年的心理健康。随着与AI的情感纽带加深,他们的自我认同和情感需求很可能会受到影响。在AI的陪伴下,他们可能会获得一种短暂的安全感,但这种安全感是建立在虚假的情感上。虚拟世界无法提供真实的人际互动所带来的复杂情感体验,反而可能导致情感的单一化与淡化。
反思现代人际关系的信用度,我们必须承认,虚拟交流与面对面交流之间的信任差异是显而易见的。在真实的社交互动中,人们不仅仅依赖语言,还依赖非语言的沟通方式,如眼神接触、肢体语言等。这些元素在虚拟环境中往往缺失,使得沟通的真实性和深度受到削弱。
与此同时,现代人际关系的变化也促使我们重新审视“信任”的概念。在网络空间,匿名性和虚拟身份的存在使得人与人之间的信任基础受到挑战。我们与AI或陌生人交流时,缺乏对对方真实意图的理解,这可能导致信任的缺失和情感的误判。而在面对面的社交中,人与人之间的信任通常是建立在共同经历和情感交流的基础上的,这种信任是更为深厚和可靠的。
至于虚拟与现实的临界点,我们必须清楚认识到二者之间并非完全对立,而是相互交融的。在这个数字化迅速发展的时代,虚拟世界与现实生活的界限变得模糊,尤其是在年轻人中间。他们在享受技术带来的便利的同时,也必须意识到虚拟互动的局限性。年轻人需要学会在虚拟与现实之间找到平衡,既能利用科技的优势,又不失去真实人际关系的温度。