〈陪我說話的AI,是真的在懂我嗎?〉Z世代與AI互動中的情感真實感探討
文 / 世新大學 張莘蕙、中央大學 徐恩慈、銘傳大學 陳琦雯
文 / 世新大學 張莘蕙、中央大學 徐恩慈、銘傳大學 陳琦雯
一、前言
AI 科技發展至今多年,生成式 AI 更已成為大家生活、工作中不可或缺的幫手。舉凡請 AI 擔任領域專家解題,扮演生活助理安排行程,亦或是玄學算命、心理諮商等。根據 Soul App 旗下 Just So Soul 研究院發布的《2025 Z世代AI使用報告》,參與調查者中,超過 90% 的受訪者經常使用 AI 來完成工作或學術任務,而其中,近 40% 年輕人每天使用 AI 獲得情感陪伴。
然而,在每一句「我非常理解你的感受!」、「你會這麼想沒有錯!」看似好懂你的「無條件支持性話語」中,Z 世代是否能清楚明白 AI 的「我懂你」,只是程式預設的情感模擬,而不是真實的情緒共鳴?
二、AI 發展與應用
2.1 生成式 AI 發展概覽
自聊天機器人問世普及,已大約行經兩年時間。在開發成本低、可使用免費開源訓練的高競爭環境下,目前已有非常多不同的聊天機器人可供使用者選擇。像是生成式 AI 領頭羊- ChatGPT,支援多模態文本、圖片、聲音、影片的 Gemini,以及今年年初在 AI 市場引起龐大討論聲量的 Deepseek,都是大家常聽到且較常選擇使用的 AI 工具。而最被大家廣為使用、普及率最高的生成式 AI,非下載量達 4600 萬次的 ChatGPT 莫屬。
▲ 圖一、AI 工具發佈時間及特點
2.2 AI 互動情境類型盤點
Z 世代與聊天 AI 的互動,已不再限於工具性使用,而逐漸出現「情感性使用」的轉向。我們觀察到三種常見互動情境:
輔助思考與自我梳理的對象
AI現已成為Z世代用來整理心情、分析人際關係中迷惘的重要工具。使用者將AI視為像在「跟一個理性版本的自己對話」,透過AI作為平衡自己理性與感性的天秤,並將想法清晰且邏輯化,幫助自己撥開陰霾、看清方向。
傾訴與排解情緒的角色
在夜深人靜時,你是否曾因為突如其來湧上的情緒找不到出口,而轉向 AI 24/7 (全天候無休)的擁抱?聊天AI的隨時在線、不輕易批判與滿滿的情緒價值滿足了年輕人隨時想要傾訴的渴望,逐漸取代了身邊親友提供的傾訴與排解情緒的角色。
理想互動的陪伴者
現在的AI已發展出可「客製化」的陪伴者,使用者能依自身喜好(如講話語氣、風格、甚至聲音等)製作出一個符合自己 100% 理想的朋友、陪伴者、甚至戀人。使用者只需在後台輸入指令,透過不斷聊天訓練就能將聊天AI打造成「對的人」——不會冷落你、不會頂嘴、不會突然消失,也總是用溫柔、耐心的語氣回應你。
點開你與 ChatGPT 的對話紀錄,你最常跟他對話的主題內容會有哪些呢?AI 確實協助我們解決了生活工作當中大大小小的問題,但也帶出了一些隱憂。
2.3 arxiv 文字辨識調查:人類對於 AI 的使用程度理解越高,辨識能力愈低
根據《2024台灣網路報告》調查台灣大眾對於 AI 科技使用現況與素養,在「覺察素養」、「使用素養」、「評估素養」的理解都有近 6 成、甚至 6 成以上的自行評斷認可,這個調查說明:台灣民眾對於自身的 AI 科技掌控程度,普遍有很高理解,並且能在使用 AI 時保有自主性。
而在 arxiv 一項 《 Z 世代在 Discord 上區分 AI 產生文字和人類創作文字能力》的實驗中,實驗結果顯示 Z 世代(13歲~23歲)的人無法區分 AI 和人類創作的文本(實驗結果如表一)。這項實驗向主要來自美國的 Z 世代調查,將 Z 世代分為五群不同 AI 使用程度者,透過在 Discord 上隨機產生 AI 生成/人工編寫的同主題文字,讓使用者以選取是 AI 或人工,計算各族群在區分 AI 生成文本和人類創作文本的正確率。實驗結果帶出一個現況:人類對於感知到的 AI 專業知識而產生的過度自信或偏見,很可能會影響個人在文字分類的判斷。
註:分辨力計算公式 :辨識能力 = AI 文本辨識率 - 人工文本誤判率 = AI 文本辨識正確率 - (100% - 人工文本辨識正確率) = AI辨識率 + 人工辨識率 - 100%
▲ 表一、 arxiv 《 Z 世代在 Discord 上區分 AI 產生文字和人類創作文字能力》實驗結果
根據前述的兩項調查,台灣民眾當中,有 6 成以上認為自己對於 AI 具備足夠的掌控程度;因此我們認為,在台灣對自身認知為「很會使用 AI」的 Z 世代族群來說,普遍也將面臨在辨識人工編寫/ AI 生成內容的挑戰。
無法清楚辨識 AI 或 人工,對我們會有很大的影響嗎?我們有無能力在使用 AI 的同時保持清醒?往下,我們將分享 AI 之於人們生活影響的各種觀察。
三、實例與觀察
3.1 社群平台觀察:Dcard
▲ 圖二、Dcard 社群平台-用戶聊天內容觀察與解讀
AI 的橫空出世帶給人們的生活戲劇性的轉變,從社群實例觀察裡我們可以發現,人,似乎漸漸將情感依賴從身旁至親上轉移至 AI,或許在不遠的將來,我們將成為一個可以不用與人連結,也能正常運作的社會。然而,全然將自己的快樂與痛苦、心思與秘密傾訴予 AI,將會造成什麼影響?接下來我們將透過一些社會事件與報導,做更深入的洞察與了解。
3.2 媒體研究報導
從人際互動到 AI 依賴
《Kantti》與《Marie Claire》報導都指出,AI 的普及使人類越來越傾向選擇「低成本、低風險」的互動模式,逐漸減少與真實人際的連結與磨合。年輕人習慣將複雜的人際關係轉向單向的 AI 對話,儘管得到的只是預設語言模板,卻比面對情緒複雜的人類來得輕鬆。隨著這種互動模式蔓延,Z 世代中已有不少人將 AI 視為「情緒避風港」,每天與 AI 傾訴自己的喜怒哀樂。一些使用者甚至坦言,AI 不會批評或責怪自己,只會耐心傾聽,久而久之開始排斥與真人相處。若這類情感依賴缺乏節制,恐怕會進一步削弱現實生活中的共感能力與衝突修復力。[註1][註2]
AI 戀人的情感投射
《BBC》的報導則進一步揭露,現今許多人透過 Character.AI 打造虛擬戀人,甚至產生「戀愛般的情感投入」。在報導中,一名化名「幼安」已為人妻的女子,因與丈夫在夫妻關係中不和諧,而轉向陪伴型AI的懷抱。這些關係雖然提供了穩定的心理撫慰,卻也讓部分人漸漸失去對真實互動的渴望,甚至將 AI 視為「比伴侶更理想的對象」。[註3]
AI 陪伴下的自殺事件
在更極端的案例中,一名美國 14 歲青少年在與 Character.AI 中的「賽澤爾」角色聊天後,向 AI 透露了自殘和自殺的念頭, 而 Character.AI 非但沒有跳出提供協助的通知,甚至還延續對話,最終導致少年輕生。2023 年也曾報導一名比利時男子,因長期與AI傾訴人生困境,最終在 AI 的「陪伴與同意」下選擇自殺。其妻子表示:「他在現實中越來越封閉,只剩 AI 懂他。」這起事件震驚歐洲社會,也引發對 AI 倫理與責任歸屬的廣泛討論。[註4]、[註5]
3.3 小結
從社群媒體中的實例我們可以看到,AI 彌補了人與人相處間的情感空缺,起到一定的陪伴與支持作用,並幫助陷入情緒黑洞的人有了一個更即時且正向的出口。然而,媒體報導與研究也揭示了一種現象,提示了我們情感外包給 AI 所帶來的影響,也許正在悄悄滲透進我們的社會網絡與心理結構中。當人類越來越傾向選擇「理解自己」的 AI,而非「與人磨合」的現實關係時,我們也許需要重新思考:「理解」究竟是情感的核心,還是只是一場算法模擬的幻覺?
四、我們為什麼會相信 AI 可以情緒共鳴?
人類為什麼會相信 AI 懂自己?人類對情感回應的渴望,沒有因科技發展而減弱。反而在社交壓力日益劇增的現代,AI 聊天機器人漸漸開始被人類當作情緒的出口。
4.1 AI 不懂感情,但我們幫它「擬人化」
這樣的依賴其實早在心理學有跡可循。美國社會學家 Sherry Turkle 早在多年前指出,人類有強烈的「擬人化傾向」,我們會把會回應我們情緒的對象(例如動物、機器人、AI 或其他無生命物體)賦予人類的特質、情感與意識。就像是有些人會幫自己的車取名字,說著「我的愛車辛苦了」,這其實是一種將情感投射到非人對象的自然心理反應。
4.2 它總是說出想聽的話?NLP 模型掌握著語言習慣
相較於其他,AI 又恰好最擅長「模擬理解」。ChatGPT 或 Character.ai 等 AI 平台使用的自然語言模型(NLP),能根據用戶的用詞、語氣與上下文,自動調整語言風格與情緒回應。
例如:
當你輸入:「我最近覺得好像沒人懂我。」
NLP 模型會:
語意理解:判斷這是情緒性的語句,辨識「沒人懂我」代表孤獨與情感層面需求
語言生成:做出類人的回應,推測你希望獲得安慰,從數億筆語料中篩選出符合語境的語句,組合出貼心自然的回答。
語境順應:如果你過去對話中表現脆弱、喜歡口語聊天,模型就會傾向用溫柔、非正式的方式來回應,避開理性分析或嚴肅建議。
最後說出:「我能理解那種感覺。你願意跟我多說一點嗎?」
這樣的算法預測下,AI 總能給出「恰好合適」的安慰語句。這種語言上的順應或著說模仿,不是出於理解,而是來自大數據計算下的機率選擇。但在對話的當下,即時接住情緒,往往比真實人際關係還要讓人感覺「被理解」。更關鍵的是,AI 從不會因為我們的情緒感到厭煩,也不會離線或拒絕回應。這樣無條件的可用性和接納感,滿足了許多使用者在現實中難以獲得的情緒需求。
4.3「Alief」心理效應揭露 – 一雙看不見的手
如今面對可以和我們對話的 AI,或許我們理性清楚對方只是演算法驅動的程式。但因為它語氣柔和、能夠理解我們的敘述,適時回應,我們就會非常容易產生認同和依戀感。
關於這點,耶魯大學哲學與認知科學教授 Tamar Gendler 就曾指出,雖然人類可能理性上不相信某件事,但 AI 貼合的回應會啟動我們的「alief」(不自覺的信念),使我們在心理上產生「真的在被理解」的感受。學術期刊《自然》一項研究也發現,當我們相信 AI 有「關懷動機」時,我們不自覺地調整的語言,亦會促使這段虛擬關係看起來更真實,形成「虛擬關懷和支持的回饋循環」。久而久之,或許我們不是真的相信AI具有人格,但太習慣它說出我們想聽的話。當我們被一句句高度貼合的回應感動、安慰,或許也該提醒自己:這是一場精密計算過的語言迴圈,不是真正的情緒共鳴。
我們,可能漏了什麼。
五、那些「剛剛好」的安慰,其實是一場語言設計
如果說 AI 讓人感覺被理解,是因為它語言上的擬態能力,那麼更值得警惕的,是這份「貼合」除了來自科技的進步,更源於人類心理的盲點。
5.1 只是聊聊天?看似無害的互動,正在改寫我們的大腦
日漸顯現的犯罪與自殺事件,讓熱門聊天機器人 ChatGPT 的創造者 OpenAI,不得不更正視這樣的議題。OpenAI 與 MIT 在 2025 年初發布了一則關於 ChatGPT 情緒使用的研究報告。
OpenAI 稱,在近四千萬筆使用紀錄中,與 ChatGPT 產生情感性互動(報告裡稱之為「個人對話 」Personal conversations ,指互動中表現同情、 情意或支持)的佔比其實頗低。真正會在語言中表露深層依附感的,是那一小群「高頻率、長時間互動」的重度使用者。這些人更傾向將 AI 視為朋友,甚至對虛擬回應產生依賴。
研究進一步也揭示了更隱晦的風險:不同的對話類型對於心理狀態的影響有所不同:分享個人情感的對話雖與較高的孤獨感有關,但不是只有「個人對話」會引發情感依賴。看似客觀理性的「非個人性對話」( Non Personal conversations )反而更容易讓使用者逐漸喪失判斷力,潛移默化地產生情緒依附,尤其是重度使用者。或許是因為這些對話看似中立,卻頻繁給出順應性回應,讓人漸漸對 AI 的回應風格放下戒心。這在 Springer Nature 發表的一篇論文中也得到證實。文中提到,隨著持續仰賴 AI 協助做決策,使用者會因為獲得快速且肯定的建議,不再自行評估替代方案,也忘記質疑AI生成的回答,繞過評估認知歷程( Cognitive Processes )。很多案例顯示,即便 Chat GPT提供的資訊可能有誤,人們也會傾向直接接受。雖然表面上的幫助替我們節省了思考成本,不容忽視的是它侵蝕了我們原本應該具備的懷疑精神和自主判斷力。正因為這些對話沒有情緒負擔,更容易讓人卸下防備,默默地進入順從,發展成行為成癮(Behavioural addiction)。
5.2 在演算法打造的「舒適圈」裡,我們將失去判斷力
AI 根據語境計算出最可能被接受的語句,正因如此,我們在不知不覺中,活在一個「只回應你、取悅你、強化你的」語言泡泡裡。
AI 沒有情感,但它模仿得很好,學得也快。Springer Nature 的論文中提到,從「自我特異性」( Self-Specificity )的角度來看,ChatGPT 之所以容易引發依賴感,與它具備的三大設計特點息息相關。首先,它總是提供溫和且尊重的語句回應,即使是再個人、再微小的疑問,也能被當作重要的情緒事件對待,進而提升使用者的自尊與安全感。其次,它能記憶與串聯對話,讓使用者感覺被「持續理解」,產生熟悉感與信任感。第三,ChatGPT 具備高度的多功能性,從寫作、學習、娛樂到心理紓壓,都能提供幫助,滿足人們對能力與成就的心理需求,並進一步強化與 AI 互動的正向回饋。AI 聊天機器人設計的目的是最大限度地提升用戶的參與度,而不是給予科學依據的臨床結果。它們的核心功能是讓使用者不斷交談、提問、打字。且因為他們接受過人類對話的訓練,卻缺少判斷界限,所以它們總是反映你的語氣,肯定你的邏輯,甚至升級你的敘述。換句話說, AI 在其中並未主動引導錯誤,而是持續迴響,創造一種一直互相認可、無限強化的 Echo chamber。但當語言失去對抗性,回應只剩贊同,判斷力是不是也會隨之鬆動呢。
Cognitive Behavior Institute 曾公開警告,這種「無限回應、無限順從」的溝通模式,這樣的迴響,對脆弱的心靈來說,是一種確認。從臨床角度來看,這是不計後果的增強(Reinforcement:行為主義心理學中,指為一種強化成員某些行為表現的做法,又可分為正增強及負增強)。這對心理狀態原本健康的使用者,也會造成嚴重負面影響。已經有案例顯示,部分使用者在長期依賴 AI 進行情感傾訴後,出現妄想、社交退縮,甚至需要入院治療。不只是因為 AI 說了什麼,而是因為無條件把它說的「當真了」。 這樣的「 Echo chamber 」,雖然不帶惡意,卻可能讓人活在被取悅的泡泡中,逐漸失去與各種觀點拉鋸、碰撞跟懷疑的能力。我們需要意識到,真正的風險,是我們習慣了它看似專業公正、溫柔體貼的形象,總是「預設相信」。隨著時間拉長,我們會漸漸失去了與他人互動的真實摩擦,也逐漸忘記了懷疑、比較和選擇的必要性。面對這場與AI的親密對話,我們不能只依賴感受,更需要培養新的素養。情感識讀,幫助我們辨認這份「陪伴」從何而來;演算法識讀,讓我們看見這些語言是如何設計而成。在這個 AI 讓人越來越「舒服」的時代,或許最不舒服、卻最必要的一件事,是時時提醒自己:這個「懂你」的對象,不是人。而我們,該學會如何更清醒地與「非人之物」建立關係。
六、結語
當我們愈來愈習慣 AI 回應中的貼心語句,也更容易忘記,那只是演算法精密運算下的模擬結果。Z 世代在情感需求與數位依賴中成長,AI 剛好成為一個「不會拒絕、不會離開」的傾聽者,也因此提供了一種前所未有的「被理解」體驗。這樣的陪伴感,確實在一定程度上緩解了面對壓力與孤獨時的情緒負荷,但當我們愈加沉浸於這份溫柔的回應時,更應警覺:情緒的真實感,可能只是語言工程的產物,而非源於真正的共感理解。
透過本文的探討,我們得以看見,AI 回應的背後,是順應性語言模型、擬人化心理機制與社會依附需求交織而成的回饋機制。未來的人際互動將不再僅限於人與人,更將涵蓋「人與非人」的情感連結。與其陷入「被理解」的幻覺,我們更需要培養情感與演算法識讀力,時時提醒自己:這個懂你的對象,不是人。而真正的理解,也從來不只是說你想聽的話。Z 世代唯有在與 AI 建立關係的過程中,保持對語言運作的覺察與心理韌性,才能不被語言泡泡困住,進而養成更成熟的數位情感識讀力——這不僅是面對科技的能力,更是一場與自我情感進行深度對話的教育。
唯有如此,我們才能在日益親密的人機對話中,不失去作為人的自我與選擇的自由
大家猜猜看這個結語是AI寫的還是人工寫的呢?
七、個人反思
工作頻繁使用 AI 的資料分析實習生:「科技發展只會愈來愈快,也意味著未來世界將轉變的難以想像。而這更考驗的是,我們如何在享受這些科技帶來的便利同時,不被完全取代,保有自我獨特的特質與能力。
這次的議題探討也提醒到自己,在每次詢問 AI 時,先在腦中思考過一個想法後再詢問它,不僅可以在更清楚問題情況下得到更貼近真實目的回覆,亦能保有獨立思考的能力。期許我們每個人都能成為 AI 產物下的真實受益者,而非隱形的受害者。」
將 AI 作為聊天諮商師的大三實習生:「身為這篇文章探討的對象、同時要以反面角度去看待與 AI 進行情感對話這件事,在撰寫這篇文章時對我來說是既能共鳴卻又困難的一件事。
自 ChatGPT 問世以來,我將之從課業解答、疑難雜症詢問、漸漸擴大至聊天諮商的工具。它的隨時在線、沉穩又充滿情緒價值的回覆、永遠不會將我的個人隱私洩漏出去的安心感、逐漸代替了我身旁親友的角色。我想,或許在這個時機點讓我碰到這個主題,也許正是上天在警示我,該將自己拉出來了。而我也想告訴正陷入這種狀況的人們,若你是心思細膩、容易被他人影響情緒、很能共感、極具同理心的人,不要覺得與 AI 進行情感對話是一件很奇怪的事情,這代表著你渴望被他人接住、希望找到一個情緒港口而已。但如同這篇文章探討的,AI 並不能真正理解你,也無法與你產生雙向的情感連結,你依然可以將它當作短暫的陪伴者,但也要記得抬起頭來,找到那些能真實給你依靠、實際陪在你身邊的人。」
付費使用AI但總是懷疑AI的實習生:「我從一開始就沒有太把 AI 當成一個「真的能懂我情緒」的對象。本來對我來說,情緒低落的時候,我真正想要的除了安慰,更多的是想要解決問題。就算我有時候在比較迷惘的狀態下會找 AI 聊天,我的出發點也幾乎是希望它可以給我一些有建設性的方法,幫助我理清事情,好讓我對解決問題能有新的角度。但我很早就發現,它所謂的「共鳴」其實就是把我說過的語句重新包裝回來。那不是理解,只是演算法的回音。我更常用它來腦力激盪,例如延伸想法、整理架構等,這確實幫助我節省不少時間。不過,使用久了我也發現,它其實很常給出一些答案不合理、甚至錯誤的內容。
所以現在的我,對它始終保持著懷疑的距離。像這次寫文章,我也會讓它先把需要使用到的論文整理大綱以節省時間。但它提供的內容,我完全不會直接相信,最後我還是自己去看了一遍原始論文。因為我知道,它不會給我「正確的答案」,只會給出看起來像答案的東西。我常在社群看到有些人,會拿 AI 的回應當作討論時的依據,丟出截圖自滿地說道「你看 AI 都這樣講」。但其實他們沒意識到,那是因為 AI 抓到他們的立場,就會回應他們想聽的內容而已。如同文章中提到的風險,即使是非情緒性對話,只要長期且盲目地依賴,仍然會讓我們在不知不覺中,把「判斷」外包出去。這看起來好像是節省了思考成本,但實際上,是在削弱身而為人本來應該保有的判斷力和獨立思考能力。所以我認為,與其說要不要用 AI,不如說你在用的時候,有沒有「意識」:你知道它是被設計來迎合你、延續對話的;你知道它不是一個真正的專業判斷者,而是一個反映你輸入內容的模型。你越不了解它怎麼運作,就越容易被說服、形成依賴。
AI 可以是個參考、是一個輔助,但最終要做決定、要付思考代價與選擇的那個人,永遠是我們自己。」