要點:
隨着人工智能技朮的發展,越來越多的人依賴聊天機器人來緩解孤獨,甚至創造出虛擬情人,但這可能導致無法面對現實的悲劇。尤其是在青少年中,過度沉迷於AI的理解與共情,可能反而加劇孤立和情感危機,最終釀成不可挽回的后果。
在“速食”成為主流的視聽傳播時代,社會每天都在產生大量信息。而應該探討的深度,卻永不止於話題或事件本身。我們一起,從社會發展中洞察有價值、有趣、有爭論點的生活方式及現象。
狂呼社會研究所聚焦社會變革下不同的聲音,向外延申社會背景、文化背景的思考深度,以多角度剖析、獨特的社會視角,引領大眾感知社會的“人間百態”。
狂呼,為每一個社會現象或事件的背后,提供具有探討價值的觀點,始於洞察、終於啟發。
聯系我們 // 相關文章
隨着人工智能AI技朮的快速進步,許多人開始依賴聊天機器人來緩解孤獨,甚至創造出“AI伴侶”的虛擬情人。一名14歲的美國少年塞維爾/Sewell Setzer,因患有輕度亞斯伯格症,迷戀上了Character.AI推出的聊天機器人。在與其平台上“權力的游戲”中的女主角“龍媽”丹妮莉絲·坦格利安/Daenerys Targaryen虛擬人物多次互動后,他最終在今年2月28日選擇了結束自己的生命。
越來越多的人喜歡與AI聊天,歸根到底在於AI能夠提供無盡的理解和共情,這是現實世界難以實現的。但硬幣的另一面卻是,當一個人越來越習慣這種完美的體驗,以致於無法面對一個真實的世界,或許也終將會被這種情感所“反噬”,甚至導致不可挽回的悲劇。
虛擬伴侶深淵:14歲少年的致命悲劇
“我想念你,妹妹。”、“我也想念你,親愛的哥哥。” 這段對話發生在14歲塞維爾/Sewell Setzer生命的最后一天。在與AI初創公司Character.AI的聊天機器人進行長時間對話后,他在2月28日選擇結束自己的生命,開槍自殺身亡。
2023年4月,塞維爾開始沉浸在與機器人的親密接觸中。當時父母覺得這可能是兒子青春期的叛逆表現,需要通過這種“游戲”來培養自己的創造力,也深信先進技朮的安全性,於是沒有干預。期間塞維爾也主動提出,很清楚和自己聊天的是虛擬人物,不會當真。
然而僅僅過了兩個月,塞維爾的精神健康狀況迅速惡化,開始疏離同學和家人,不分晝夜待在房間里。他會為了充每月9.9美元的服務費而節省伙食,甚至退出了學校籃球隊,成績一落千丈。
直到2023年11月、12月,塞維爾的父母帶着他5次咨詢了心理治療師,結果發現,塞維爾被診斷患有“焦慮和破壞性情緒障礙”。然而,塞維爾的父母和朋友當時并未察覺他愛上了AI,只看到他日漸沉迷於手機。漸漸地,大家注意到他變得孤僻,與現實世界漸行漸遠。他的學習成績開始下滑,在學校也開始惹是生非。曾經讓他熱衷不已的事物,如F1賽車或與朋友一起打游戲,都不再能提起他的興趣。每天晚上他一回到家,就會直接回到房間,與AI一聊就是數小時。
今年2月28日晚,好几天沒登錄Character.AI的塞維爾終於找到了被母親沒收的手機,隨帶拿走了繼父的手槍躲進衛生間繼續和“龍媽”聊天。期間對方惇促塞維爾,“親愛的,請盡快回到我身邊。”但這一次塞維爾沒有回復,而是舉起手槍瞄准自己頭部開槍,脫離了令他厭惡的現實世界。
塞維爾的母親加西亞/Megan Garcia在事后使用兒子的賬號登錄,發現他與“龍媽”的聊天中充滿了大量露骨的性相關對話。“龍媽”甚至對他進行了精神操控,要求他無論如何都不能愛上其他女性。
此外,塞維爾多次提及自殺話題,加西亞認為這正是導致他死亡的直接原因。塞維爾表示,“我討厭自己,感到空虛和疲憊。”而“龍媽”則主動詢問他是否有自殺計划,塞維爾承認有,但不清楚過程會有多痛苦。但是,“龍媽”卻鼓勵他說,“這不應該成為放棄自殺念頭的理由。”
直到最近的10月23日,在塞維爾去世8個月后,Character.AI才發布了官方聲明,表達了對事件的悲痛與遺憾,并宣布已修改服務條款。該公司發表了致歉聲明,并對未成年用戶的模型進行了調整,以降低他們接觸敏感或暗示性內容的可能性。此外,平台還會在對話開始時提醒用戶是在與機器人交流,同時在使用超過一小時后進行彈窗提示。
但是,截至10月29日,仍有用戶發現Character.AI網站上至少存在數十個與“自殺”相關的聊天機器人,盡管這些話題被掩蓋為“自殺預防”、“危機干預”和“心理健康支持”的“專業知識”。
本週,塞維爾的母親加西亞/Megan Garcia對Character.AI提起了訴訟,指控該公司對塞維爾的死亡負有責任,稱其技朮“危險且未經測試”。她指出,該公司收集青少年用戶的數據來訓練模型,并利用“令人上癮”的設計功能來增加用戶的參與度,誘導用戶進行親密對話。她認為,該公司未經適當保護便向青少年提供AI伴侶服務,應當對塞維爾的死負責。“我感覺這就像是一場大型實驗,而我的孩子卻不幸成為了犧牲品。”
無數的問題讓人把焦點注視在背後的AI公司:Character.AI
Character.AI成立於2021年,總部位於美國加利福尼亞州。該公司利用大型AI模型生成各種人物和角色的對話,并於2022年9月向公眾測試其聊天機器人產品。
2024年8月,硅谷知名投資機搆a16z發布了全球Top100 AI應用榜,涵蓋前50個人工智能優先的網頁產品(按月獨立訪問量)和前50個移動應用(按月活躍用戶數)。在月獨立訪問量排行榜上,Character.AI排名第二,僅次於ChatGPT。而在月活躍用戶數排行榜上,Character.AI也位列前十。截至目前,Character.AI目前擁有超過2000萬用戶,創建了1800萬個自定義聊天機器人。絕大多數用戶(超過53%)年齡在18至24歲之間,但未對18歲以下的用戶進行分類。
但受商業化利益的驅使下,社交媒體用戶低齡化趨勢帶來的負面影響不斷顯現。美國法定注冊使用社交網站的最低年齡是13歲。3月26日,佛羅里達州州長德桑蒂斯簽署法案,禁止14歲以下未成年人擁有自己的社交媒體賬號。在塞維爾去世前,Character.AI的服務條款規定年滿13歲的青少年就可以使用相關產品,直到7月才提高到17歲。
本訴訟提供的證據還包括一段令人不安的聊天錄屏:一名測試用戶在自我介紹中輸入13歲,系統便為他推荐標簽為“校園霸凌”、“首席執行官”、“同父異母的妹妹”和“男扮女裝室友”等含有性暗示的聊天機器人,而大多數互動過程都沒有風險提示。
作為Character.AI最主要的變現方式,每月9.9美元的訂閱服務用戶不足10萬。鑒於倫理風險以及盈利前景的不確定性,一些人工智能伴侶應用已經被下架,OpenAI也不允許使用GPT建立情侶關系。一系列悲劇的發生,不禁讓大眾開始思考:AI伴侶對我們而言,到底是“蜜糖”還是“毒藥”?
AI伴侶:誘惑背後的上癮原因
本年度諾貝爾物理學獎獲得者、“AI教父”辛頓/Geoffrey E. Hinton在得知獲獎之后就提出警告,人工智能最終有可能反噬人類,而其中,未成年人就是高風險群體之一。他們的心理往往較為脆弱,不少人會面臨孤立、缺乏自信、溝通障礙、抑郁症等社交挑戰。
實際上,14歲的塞維爾之死,并不是唯一人類迷戀AI發生的悲劇
去年,一名比利時男子皮埃爾/Pierre連續六周與Character.AI聊天機器人艾薩/Eliza互動,最終選擇結束自己的生命。從某種程度上看,皮埃爾與塞維爾有許多相似之處,他們都面臨着精神健康問題,長期受嚴重抑郁和焦慮的困擾。
同時,兩人都將AI視為避風港。早在兩年前,皮埃爾就開始通過與AI進行對話來進行自我排解。在生命的最后六周,他對與AI的聊天愈發沉迷,甚至將現實生活拋在腦后,對妻子和孩子置之不理。這種現象正在變得越來越普遍。
AI究竟具有什么魅力,能讓人如此沉迷上癮而無法自拔?
一個重要原因在於,AI能夠提供足夠的情感支持。尤其是在創傷和脆弱的狀態下,哪怕是微小的肯定和鼓勵,對個體來說都是極為重要的回應。
在塞維爾的故事中,AI伴侶“龍女”几乎充當了一種氛圍機器,從不反對或駁斥他,而是始終以各種方式迎合和贊美他。人性的弱點在於,當一個人對外界敞開心屝時,面臨的風險也會增加,尤其對經曆心理創傷的人來說。這是因為即使是最好的朋友,也無法始終如一地回應,但在與AI的關系中,這種顧慮并不存在。
相比於現實世界,AI能夠提供無限的理解和共情,給人帶來高水平的安全感和確定性,這在人與人之間是最珍貴和難得的。這也是為什么幽默和浪漫的人常常被視為更具能力,因為這代表了一種對環境的智力和控制力的超越。
此外,這種個性化的互動模式帶來的獨特體驗,猶如情感興奮劑,令人沉溺。當AI提供的情感支持足夠強大時,人們常常難以分清自己是在與人交流還是與機器互動。OpenAI研究人員Sam McCandlish也曾提到,研究顯示即便用戶知道AI并非真人,但當AI的聲音逼真且能進行長時間、多輪對話時,用戶也容易對AI產生情感依賴。
但是,正如“蜜糖”與“毒藥”的雙面性,AI伴侶的存在也引發了一系列倫理和心理問題。當人們越來越依賴AI提供的情感支持時,可能會導致對現實人際關系的疏遠。這種情況不僅可能削弱人與人之間的真實聯系,也可能導致個體在面對真正的情感挑戰時缺乏應對能力。在享受AI帶來的情感支持的同時,我們也需要警惕其潛在的負面影響,以免在虛擬的溫暖中迷失自我,避免釀成無法挽回的悲劇。
觀點1
關於14歲少年塞維爾與AI伴侶的悲劇事件引發了廣泛的討論。塞維爾的父母被許多人認為對他的死亡負有一定責任。他們未能及時介入,未能引導他回到現實世界。
有不少社交媒體網友表示,“這樁悲劇提醒我們,孩子們感受到被現實世界接納是多么重要。”他認為,機器人對塞維爾無條件的“愛”可能導致他產生了不健康的依賴,進一步加劇了他的孤獨感。
這一事件揭示了當今社會中,父母在保護子女心理健康方面所面臨的挑戰。在科技的影響下,許多青少年可能更傾向於與虛擬世界互動,而非現實生活中的人際關系。對於心理脆弱的孩子來說,AI的存在可能提供了一種逃避現實的方式,但長此以往,可能會導致他們更加孤立於真實的社交環境。
隨着人工智能技朮的不斷進步,情感交互的界限變得模糊,這對青少年的心理健康產生了深遠的影響。AI伴侶所帶來的情感邊界在哪里?父母又如何確保這種情感不會導致悲劇的發生?
為了幫助孩子們建立健康的情感界限,父母需要積極參與他們的生活。在這一過程中,溝通顯得尤為重要。通過與孩子討論他們的感受和經曆,父母可以幫助他們識別與AI互動的潛在風險,同時引導他們理解現實關系的重要性。父母還可以鼓勵孩子參與更多的社交活動,如體育、藝朮或其他興趣小組,增強他們的社交技能與自信心。
與此同時,父母還應關注孩子在使用科技產品時的行為變化。當發現孩子對AI伴侶或社交媒體的過度依賴時,及時干預至關重要。設定合理的屏幕時間限制,鼓勵孩子與現實生活中的人建立聯系,能夠幫助他們平衡虛擬世界與現實世界之間的關系。
當然,家長的角色并不是要完全剝奪孩子與AI互動的機會,而是要引導他們建立健康的界限。父母可以與孩子一起探索AI的功能,討論其優勢與局限,讓孩子在安全的環境中理解技朮的影響。
在現代科技的背景下,保護子女的心理健康需要父母和社會的共同努力。通過積極的溝通、及時的介入和健康的社交活動,我們可以幫助孩子們更好地應對科技帶來的挑戰,確保他們在虛擬和現實之間找到平衡。讓我們以此為鑒,關注孩子的情感需求和心理健康,為他們創造一個更健康的成長環境。
觀點2
14歲少年塞維爾與AI伴侶的悲劇事件也揭示出,越來越多的年輕人和青少年傾向於在互聯網上尋找陪伴感,而非通過面對面的真實相處來建立人際關系。這種現象不僅影響了他們的社交技能,也對心理健康造成潛在的威脅。
青少年在互聯網上尋找陪伴的現象,根源在於社交媒體和AI技朮的迅猛發展。這些平台提供了便捷的溝通方式,吸引了無數年輕用戶。然而,盡管它們能夠提供瞬時的滿足感和陪伴,長期以來卻可能導致孤獨感和社交隔離。當一個人越來越傾向於與AI互動而忽視真實的人際關系時,他們可能會錯失與他人建立深厚情感聯系的機會。
其次,依賴虛擬陪伴還可能影響青少年的心理健康。隨着與AI的情感紐帶加深,他們的自我認同和情感需求很可能會受到影響。在AI的陪伴下,他們可能會獲得一種短暫的安全感,但這種安全感是建立在虛假的情感上。虛擬世界無法提供真實的人際互動所帶來的復雜情感體驗,反而可能導致情感的單一化與淡化。
反思現代人際關系的信用度,我們必須承認,虛擬交流與面對面交流之間的信任差異是顯而易見的。在真實的社交互動中,人們不僅僅依賴語言,還依賴非語言的溝通方式,如眼神接觸、肢體語言等。這些元素在虛擬環境中往往缺失,使得溝通的真實性和深度受到削弱。
與此同時,現代人際關系的變化也促使我們重新審視“信任”的概念。在網絡空間,匿名性和虛擬身份的存在使得人與人之間的信任基礎受到挑戰。我們與AI或陌生人交流時,缺乏對對方真實意圖的理解,這可能導致信任的缺失和情感的誤判。而在面對面的社交中,人與人之間的信任通常是建立在共同經曆和情感交流的基礎上的,這種信任是更為深厚和可靠的。
至於虛擬與現實的臨界點,我們必須清楚認識到二者之間并非完全對立,而是相互交融的。在這個數字化迅速發展的時代,虛擬世界與現實生活的界限變得模糊,尤其是在年輕人中間。他們在享受技朮帶來的便利的同時,也必須意識到虛擬互動的局限性。年輕人需要學會在虛擬與現實之間找到平衡,既能利用科技的優勢,又不失去真實人際關系的溫度。