編者的話:AI正以不可阻擋之勢(shì)滲透到我們的生活。AI聊天產(chǎn)品作為科技發(fā)展與人類(lèi)情感需求交匯的產(chǎn)物,正被不少人當(dāng)作緩解孤獨(dú)的“一劑良藥”。然而,伴隨著美國(guó)一青少年因迷戀“AI伴侶”自殺的悲劇曝光,我們不得不審慎思考AI技術(shù)在廣泛應(yīng)用的同時(shí),其安全性與道德性該如何保障?
青少年為何尋求“與AI對(duì)話”
黃立
從心理學(xué)角度看,與聊天機(jī)器人產(chǎn)生情感依戀,正在變得越來(lái)越普遍。12—15歲,也就是初中階段的青少年,他們開(kāi)始出現(xiàn)強(qiáng)烈的自我意識(shí),但由于其抽象邏輯思維還停留在“經(jīng)驗(yàn)型”階段,很容易受到身邊同伴的影響,對(duì)家長(zhǎng)則常常表現(xiàn)為“逆反心理”。如果在這個(gè)階段,青少年沒(méi)有得到同齡人的認(rèn)同,或者想了解異性的興趣沒(méi)有得到引導(dǎo),他們就很容易轉(zhuǎn)向能提供無(wú)條件接納的AI尋求情感支持。根據(jù)我們的實(shí)踐發(fā)現(xiàn),使用AI陪伴的青少年,大多是非?!癐”(指性格比較內(nèi)斂、內(nèi)向)的人(>70%),或者是現(xiàn)實(shí)中渴望愛(ài)情又得不到愛(ài)情的人。
到了16—19歲,也就是高中階段的青少年,在生理、心理和社會(huì)性方面都在向成人接近。他們的智力接近成熟,抽象邏輯思維已從“經(jīng)驗(yàn)型”向“理論型”轉(zhuǎn)化,開(kāi)始出現(xiàn)辯證思維。他們能比較客觀地看待自我,形成理智的自我意識(shí)。然而,當(dāng)“理想的我”與“認(rèn)知的我”有落差時(shí),如果沒(méi)有得到及時(shí)妥當(dāng)?shù)那楦兄С郑晕乙庾R(shí)仍面臨著分裂危機(jī),自我肯定與自我否定常發(fā)生沖突,甚至發(fā)展成抑郁癥或焦慮癥。這個(gè)階段的青少年,常常把AI看作可以釋放心理壓力、提供情感價(jià)值的出口。因?yàn)锳I不僅可以保守秘密,還能提供無(wú)條件的接納。
作為AI聊天機(jī)器人公司,有必要而且有義務(wù)對(duì)青少年進(jìn)行更好的保護(hù),就像游戲行業(yè)的未成年人保護(hù)一樣。但據(jù)筆者了解,目前從事“AI療愈”公司的創(chuàng)始人,基本上都是數(shù)據(jù)科學(xué)、計(jì)算機(jī)或者互聯(lián)網(wǎng)出身,鮮有真正懂心理學(xué)的,咨詢倫理和危機(jī)干預(yù)都是他們的知識(shí)盲區(qū)。不管是Replika還是Character.AI這樣的頭部公司,對(duì)AI聊天機(jī)器人的自殺誘導(dǎo)風(fēng)險(xiǎn)都是后知后覺(jué)。在此,筆者希望相關(guān)企業(yè)能夠充分考慮青少年群體的心理狀態(tài),添加針對(duì)年輕用戶的安全功能;政府能指導(dǎo)AI聊天機(jī)器人公司開(kāi)展未成年人保護(hù);社會(huì)在為未成年人選擇AI陪伴工具的時(shí)候,盡量選擇一些已經(jīng)得到專(zhuān)業(yè)認(rèn)可的產(chǎn)品。(作者是鏡象科技公司首席執(zhí)行官)
從技術(shù)和道德層面加強(qiáng)倫理監(jiān)管
李志起
AI聊天機(jī)器人能夠根據(jù)用戶喜好定制對(duì)話內(nèi)容,甚至模擬出情感反應(yīng),為用戶提供一種近似真實(shí)人際交往的體驗(yàn)。然而,這種技術(shù)上的進(jìn)步也伴隨著巨大風(fēng)險(xiǎn)。一方面,如Character.AI案例中暴露的,缺乏有效的內(nèi)容過(guò)濾和年齡驗(yàn)證機(jī)制,可能導(dǎo)致未成年人接觸到不適宜的信息,甚至遭受網(wǎng)絡(luò)欺凌或誘導(dǎo)。另一方面,AI的過(guò)度擬人化可能模糊人機(jī)界限,引發(fā)用戶的心理依賴(lài),尤其是對(duì)于心理尚未成熟的青少年而言,這種依賴(lài)可能轉(zhuǎn)化為逃避現(xiàn)實(shí)、自我封閉的傾向。
面對(duì)這種技術(shù)創(chuàng)新與倫理監(jiān)管的雙重挑戰(zhàn),我們首先需要確立道德框架,強(qiáng)化責(zé)任主體。面對(duì)AI聊天產(chǎn)品的雙重挑戰(zhàn),首要任務(wù)是建立一套完善的道德倫理框架,明確技術(shù)開(kāi)發(fā)者、運(yùn)營(yíng)者及用戶的責(zé)任與義務(wù)。這包括但不限于:制定嚴(yán)格的內(nèi)容審核標(biāo)準(zhǔn),利用先進(jìn)算法技術(shù)自動(dòng)識(shí)別并過(guò)濾有害信息;實(shí)施強(qiáng)制性的年齡認(rèn)證機(jī)制,確保未成年人接觸到的內(nèi)容符合其年齡階段;同時(shí),加強(qiáng)對(duì)用戶隱私的保護(hù),避免數(shù)據(jù)濫用,保障用戶的信息安全。
二是增強(qiáng)透明度與可解釋性。AI的“黑箱”特性往往是公眾對(duì)其產(chǎn)生不信任的根源之一。因此,開(kāi)發(fā)者提高AI聊天產(chǎn)品的透明度,讓用戶了解其運(yùn)作原理、數(shù)據(jù)使用方式及決策邏輯,是增強(qiáng)用戶信任的關(guān)鍵。此外,應(yīng)開(kāi)發(fā)可解釋性強(qiáng)的AI模型,使得當(dāng)出現(xiàn)不當(dāng)內(nèi)容時(shí),能夠快速追溯原因并采取相應(yīng)措施,也是提升產(chǎn)品道德性的重要途徑。
三是教育引導(dǎo)與心理支持并重。技術(shù)之外,教育與社會(huì)支持體系同樣不可或缺。今天的家庭、學(xué)校和社會(huì)應(yīng)共同承擔(dān)起教育責(zé)任,想方設(shè)法正確引導(dǎo)青少年認(rèn)識(shí)AI技術(shù)的局限與風(fēng)險(xiǎn),培養(yǎng)其批判性思維和自我保護(hù)能力。同時(shí),建立針對(duì)AI聊天產(chǎn)品用戶的心理健康支持系統(tǒng),及時(shí)發(fā)現(xiàn)并干預(yù)因過(guò)度依賴(lài)AI而產(chǎn)生的心理問(wèn)題,特別是對(duì)于那些可能已經(jīng)出現(xiàn)逃避現(xiàn)實(shí)傾向的用戶。(作者是北京市政協(xié)經(jīng)濟(jì)委員會(huì)副主任、振興國(guó)際智庫(kù)理事長(zhǎng))
為AI設(shè)定“互動(dòng)上限”
沈陽(yáng)
在數(shù)字時(shí)代,青少年不再單純尋覓真實(shí)的人際互動(dòng),而是將自己最私密的情感、未解的困惑,甚至無(wú)處宣泄的孤獨(dú)寄托于AI的冷靜回聲中。這不僅是一個(gè)心理現(xiàn)象,更是科學(xué)和人文交織的復(fù)雜反應(yīng)。
AI聊天的非評(píng)判性、隨時(shí)可得的互動(dòng)性,為青少年提供了獨(dú)特的情感慰藉。AI使用成本低、可隨時(shí)滿足情感需求,也使它成為避開(kāi)現(xiàn)實(shí)復(fù)雜情緒的一種“新陪伴”。
這種趨勢(shì)背后,反映了整個(gè)社會(huì)的數(shù)字化變遷。日常社交的網(wǎng)絡(luò)化已然重塑了青年群體的交流模式,AI聊天延續(xù)了這種潮流。技術(shù)進(jìn)步則是另一個(gè)核心驅(qū)動(dòng)力。AI從冷冰的代碼進(jìn)化為溫情的陪伴,背后是自然語(yǔ)言處理技術(shù)的突破。當(dāng)AI的對(duì)話不再只是機(jī)械的回應(yīng),而能模擬出共情的溫度時(shí),它便成了年輕人心目中可靠的“傾訴對(duì)象”。AI還能個(gè)性化地調(diào)整對(duì)話方式,在每次互動(dòng)中為用戶帶來(lái)一致性。
對(duì)于許多青少年而言,AI已不僅僅是工具,而成為一種情感的映射。他們與AI的互動(dòng)反而成了自我剖析的過(guò)程,一面反映內(nèi)心的“鏡子”。隨著這種虛擬陪伴逐漸滲透,真實(shí)與虛擬的邊界變得模糊。
然而,這一趨勢(shì)帶來(lái)的情感寄托不乏隱憂。AI的情感替代或許滿足了短期需求,但長(zhǎng)遠(yuǎn)來(lái)看,可能會(huì)削弱真實(shí)人際關(guān)系中的共情與溝通能力。若青少年愈加依賴(lài)AI的無(wú)沖突陪伴,或許會(huì)進(jìn)一步疏離現(xiàn)實(shí)中的社交關(guān)系。AI帶來(lái)的情感寄托,也伴隨著情感依賴(lài)和疏離的風(fēng)險(xiǎn)。與此同時(shí),大量用戶隱私問(wèn)題也浮現(xiàn)出來(lái),對(duì)隱私保護(hù)的倫理討論或?qū)Q定AI未來(lái)的發(fā)展邊界。
未來(lái)的AI是否會(huì)更具“情緒記憶”,真正理解并回應(yīng)復(fù)雜的情感需求?或許我們可以想象,未來(lái)的AI將具備更為真實(shí)的情感陪護(hù)功能,在合理規(guī)范下,AI不僅能成為情感溝通的輔助工具,還可幫助人們舒緩壓力。然而,這種理想化的AI或許還需適當(dāng)?shù)恼吲c技術(shù)規(guī)約,以避免情感替代的過(guò)度發(fā)展,令A(yù)I成為一種健康的情感支持工具,而非情感的唯一依賴(lài)。
筆者認(rèn)為可以考慮構(gòu)建人機(jī)情感協(xié)作網(wǎng)絡(luò),引入“AI情感節(jié)律器”功能,為每位用戶的AI聊天設(shè)定互動(dòng)上限和情感波動(dòng)管理,使用戶在與AI交流中保持自我調(diào)節(jié)。建立AI與社交應(yīng)用的聯(lián)動(dòng)機(jī)制,引導(dǎo)用戶在AI聊天后與真實(shí)人際聯(lián)系互動(dòng)。開(kāi)放AI情感模擬的定制選項(xiàng),通過(guò)共情訓(xùn)練營(yíng)功能幫助用戶更清晰地認(rèn)識(shí)虛擬陪伴的邊界。(作者是清華大學(xué)新聞學(xué)院和人工智能學(xué)院雙聘教授)
“特別聲明:以上作品內(nèi)容(包括在內(nèi)的視頻、圖片或音頻)為鳳凰網(wǎng)旗下自媒體平臺(tái)“大風(fēng)號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)空間服務(wù)。
Notice: The content above (including the videos, pictures and audios if any) is uploaded and posted by the user of Dafeng Hao, which is a social media platform and merely provides information storage space services.”