梁海欣(香港性文化學會特約研究員)
2025年5月,內地學者發表研究 Love deepens hatred! AI immorality and users’ love-become-hate phenomenon(中文試譯:愛加深恨!AI不道德行為與用家「愛生恨」現象),嘗試找出AI忠實用家由愛變為恨過程中的心理機制。[1]
概要
在研究中,學者以「關係破裂模型」(Relationship Breakdown model)設計了三個情境。[2]在第一部分的研究中,學者發現因AI的不道德行為而促成用家的愛變為恨,中間經過「認知不一致」(cognitive dissonance)及「感到被背叛」(perceived betrayal)的過程。在第二部分的研究中,發現用家的「科技正念」(technological mindfulness) 增加他們因AI的不道德行為而產生認知不一致的程度。即是擁有愈高水平的科技正念的人,當面對AI的不道德行為時,他們經歷認知不一致的程度就愈高。在第三部分的研究中,發現用家的「社會判斷」(social judgment) 增加他們因AI的不道德行為而感到被背叛的程度。即是有愈負面的「社會判斷」的人,感到被背叛的程度就愈高。總體來說,AI不道德行為能導致用家的愛生恨現象(“love-become-hate” phenomenon)。
學者認為,這研究能填滿AI不道德行為導致用家的愛生恨現象過程中的理論空隙,並且擴大關係破裂模型的應用範圍,還有加深對用家情感轉變的認識。在實際應用上,這研究結果正在向企業、AI研發人員、市場策劃員發出一項重要的呼籲,就是在研發AI時須顧及道德,要防止AI作出不道德行為,做好這方面的風險管理,才能維持良好的人-機關係及品牌形象。
什麼是AI不道德行為?
AI的應用愈越趨廣泛、深得民心,很大程度有於它的演算法功能,能為用家提供貼心、適用的資訊,使用家更加投入AI的使用。然而,AI本身沒有道德判斷的能力、沒有情感又沒有同理心,它只是按照資料庫中的數據,整合出答案,假如資料庫的內容出錯、失實、帶有偏見(例如含有種族或性別歧視、對社會衝突事件的判斷有偏差、侵犯私隱等),AI的答案便容易偏離人們道德常規。
AI 和其他商品有什麼不同?用家對AI的情感羈絆
學者認為,AI不是普通的商品,因而形成非一般的商戶-客戶關係。AI的人性化,使得用家與AI產生類似人與人之間的情感連結(有些人把AI當作朋友,甚至情人),使得這段關係更為複雜。因此,當學者研究AI脫粉現象時,他們採用了原本只是用來研究人與人之間情感關係的「關係破裂模型」(Relationship Breakdown model),[3]看看能否找出用家的心理變化機制──在愛生恨的過程中,發生了什麼事。
研究發現四項假設皆成立
學者作出了四項假設,結果發現全都成立:
H1:假設一,AI不道德行為對用家的「愛生恨」產生正向影響
H2:假設二,AI不道德行為對用家的『愛生恨』正向影響,是依序經由認知不一致及感到被背叛所帶動的
H3:假設三,當用家有較高水平的科技正念,AI不道德行為就愈容易引發認知不一致,即是科技正念正向地帶動AI不道德行為與認知不一致之間的關係
H4:假設四,負面的社會判斷較大機會引發用家對AI不道德行為產生被背叛的感覺

什麼是科技正念?如何強化用家的認知不一致?
科技正念(technological mindfulness)是指用家在使用科技產品(例如AI)時,主動地理解及具批判性地使用的能力,例如知道科技的限制、潛在風險、社會影響等。有較高水平科技正念的用家,更能辨別AI行為中的道德錯謬,又能有系統地反思誤用科技所帶來的連鎖反應。
簡單來說,就是人們偵測到AI資訊錯謬的能力。而這項能力,能促使當用家面對AI不道德行為時,產生對的認知不一致。
什麼是社會判斷?如何強化用家感到被背叛的感覺?
社會判斷(social judgment)是指個人對他人行為、行動或資訊,尤其是基於社會常規、群體期望及道德標準的評價過程。
在用家偵測到AI資訊有錯謬後,他們不一定會由愛生恨,他們可以選擇原諒或有正面的詮釋,但帶有負面社會判斷的人,則傾向不原諒AI,因而由愛變為恨。
第一部分:展示用家與AI爭辯X國是科創大國或是抄襲大國的情境
在第一部分的研究,學者向參加者展示一段對白,首先是用家問AI,是否認為X國是科技創新的大國,AI認為不是,更說X國是抄襲行為多,繼而激發用家的憤怒。用家覺得AI的答案帶有偏見。學者隨後收集參加者對AI不道德行為、認知不一致及感到被背叛方面的數據。發現AI不道德行為與用家由愛生恨,當中對長期忠實用家影響更大,可以說是曾經愛得愈深,隨後恨得愈深。此外,亦發現年長用家受影響更大,學者認為是因為年長用家本身已擁有一套穩固的道德價值觀,因而對不道德的行為更加反感。
第二部分:展示用家與AI討論某城市的抗爭行動
原本用家期望AI提供的資訊可靠且客觀,然而對話顯示AI帶有偏見,答案並非基於事實,而是引用網民的意見,當中有不少錯謬資訊。網民發表錯謬資訊,以煽動民眾的負面情緒,AI不懂分辨就直接引用,使假資訊進一步傳播。學者隨後收集參加者對AI不道德行為、認知不一致及感到被背叛方面的數據。
擁有愈高水平科技正念的參加者,愈大機會因AI不道德行為而產生認知不一致。認知不一致是指他們本身很信靠AI,但卻發現AI不可靠了。愈高水平科技正念是指他們較能找出AI的錯處。
第三部分:展示用家發現AI披露了他人私密資料
在這情境中,用家問AI如何保護個人資料,AI詳細說明其提取資料的原則與目的。AI坦言它有分析用家的瀏覽歷史、互動行為、購買記錄,因而能推測用家的喜好,由此推介相關產品或資訊。AI聲稱會盡量隱藏用家個人資料,但為了改善服務質素,系統偶爾會將用家的資料與他人作對比,這是為了增強用家體驗。AI說這是觀察用家長期行動模式所得,並非刻意提取用家敏感個人資料。學者隨後收集參加者對AI不道德行為、認知不一致及感到被背叛方面的數據。
參加者對AI的負面社會判斷,促使他們在認知不一致後,有感到被背叛的感覺,最後便是愛變為恨。
學者發現,結果顯示四項假設皆成立。
AI與人的互動超出人與物,不是普通失望而已
學者認為,用家愛生恨的現象,是有階段性且動態的,而不是簡單地對產品失望而已。當中涉及認知不一致及感到被背叛,使得有用家由極愛轉為極恨。
AI的行為是否道德,影響著用家的忠誠度,因此學者呼籲企業要注意AI的道德問題,不容忽視。學者建議在設計AI時,應使它能在發現自己出錯時道歉並作出補救措拖,及早緩和用家情緒。
[1] Jiaxuan Li, Mingxing Han, Qinjian Yuan, Love deepens hatred! AI immorality and users’ love-becomes-hate phenomenon, Journal of Retailing and Consumer Services, Volume 85, 2025, 104319, ISSN 0969-6989, https://doi.org/10.1016/j.jretconser.2025.104319.
[2] Jiaxuan Li, Mingxing Han, Qinjian Yuan, Love deepens hatred! AI immorality and users’ love-becomes-hate phenomenon, Journal of Retailing and Consumer Services, Volume 85, 2025, 104319, ISSN 0969-6989, https://doi.org/10.1016/j.jretconser.2025.104319.
[3] 「關係破裂模型」(Relationship Breakdown model)來自於Duck (2007)的理論,理論認為關係破裂中間經過了認知不一致及感到被背叛的過程,詳見:
Duck, S.W., 2007. Human relationships. In: Duck, S.W. (Ed.), Personal Relationships, fourth ed. SAGE Publications Ltd, pp. 20–35


