當DeepSeek收起熱情之后 人情味是AI的必需品嗎?

2026-02-13 20:40:02    來(lái)源:新經(jīng)網(wǎng)    作者:馮思韻
很多朋友不知道【當DeepSeek收起熱情之后 人情味是AI的必需品嗎?】,今天小綠就為大家解答一下。

  如果將“人情味”簡(jiǎn)化為算法層面的語(yǔ)氣詞添加或稱(chēng)謂記憶,則容易低估它在人機互動(dòng)中的實(shí)際功能?,F有研究表明,擬人化特征在用戶(hù)信任建構、自我投射與心理代償等方面發(fā)揮著(zhù)結構性作用。

當DeepSeek收起熱情之后 人情味是AI的必需品嗎?

  這意味著(zhù),每六名青年AI用戶(hù)中,就有一人正在與模型建立超越工具性使用的情感聯(lián)結。從絕對規???,這并非邊緣現象。而在更細粒度的人機交互數據分析中,這一傾向同樣得到印證??拼笥嶏w智慧心育研究院的實(shí)測數據顯示,在“AI心理伙伴”累計超過(guò)4173萬(wàn)分鐘的對話(huà)中,高達55%的內容屬于傾訴和吐槽,用戶(hù)群主要是“自我效能感低、不愿向師長(cháng)求助”的青年群體。

當DeepSeek收起熱情之后 人情味是AI的必需品嗎?

  中國社會(huì )科學(xué)院新聞與傳播研究所與《中國青年報》2026年1月聯(lián)合發(fā)布的“生成式人工智能與青年價(jià)值觀(guān)塑造”調研報告,提供了具有代表性的一手數據。該課題組面向約3000名18-35周歲青年展開(kāi)調查,結果顯示生成式人工智能在該群體中的滲透率已達51.8%。用戶(hù)對AI的角色定位呈現清晰的分野:71.7%的受訪(fǎng)者將其視為“提效工具”,而16.5%的受訪(fǎng)者明確將其用作尋求情感慰藉的“親密他者”。

當DeepSeek收起熱情之后 人情味是AI的必需品嗎?

  DeepSeek此次調整之所以引發(fā)用戶(hù)失落,恰因它觸及AI情感陪伴功能得以成立的前提——持續、穩定、可預期的擬人化互動(dòng)風(fēng)格。然而,用戶(hù)個(gè)體的“失落”與技術(shù)治理視角下的“風(fēng)險”是兩套不同的評價(jià)體系。

  然而,技術(shù)文檔式的平穩表述并未消解用戶(hù)的感知落差。有用戶(hù)在嘗試切換版本、調整提示詞均無(wú)法喚回熟悉風(fēng)格后,形容這種變化是“仿佛一位熟稔我所有思緒的老友悄然離去”。部分用戶(hù)無(wú)奈選擇下載歷史版本安裝包,或轉至其他支持舊接口的平臺延續原有人機互動(dòng)模式。

“人情味”對AI的意義

  國際學(xué)界對LLM擬人化倫理問(wèn)題的范圍綜述顯示,既有文獻呈“風(fēng)險前置”傾向:欺騙性、過(guò)度依賴(lài)、剝削性關(guān)系等負面標簽占據多數規范性討論。2026年1月,UBC學(xué)者在《科學(xué)》發(fā)文預警,下一代AI驅動(dòng)的“人格化集群”可能對民主話(huà)語(yǔ)環(huán)境構成系統性操縱風(fēng)險——當AI擬人化到足以以假亂真,且以規?;绞浇槿牍灿懻摃r(shí),虛假共識的制造成本將被降至危險的低水平。

  那么,AI真的需要“人情味”嗎?

  而國內政策層面的回應已進(jìn)入實(shí)質(zhì)階段。2026年2月,國家網(wǎng)信辦公布《人工智能擬人化互動(dòng)服務(wù)管理暫行辦法(征求意見(jiàn)稿)》,首次以規范性文件對AI擬人化服務(wù)設置準入門(mén)檻與運行紅線(xiàn),明確要求從數據訓練源頭履行安全責任,禁止將誘導沉迷作為開(kāi)發(fā)目標。

AI擬人化的倫理風(fēng)險與治理空間

  這種“懸置懷疑”并非用戶(hù)單方面的認知偏差,而是人機關(guān)系中具有功能意義的心理契約。社科院調研報告將此現象描述為“理想客體的數字建構”:青年將AI投射為“更懂自己、更包容自己”的鏡像自我,通過(guò)與這個(gè)不存在異質(zhì)性沖突的數字化他者對話(huà),完成對理想身份的補全與確證。

  【CNMO科技】近日,DeepSeek在一次提升技術(shù)能力的灰度更新中,悄然移除了用戶(hù)自定義昵稱(chēng)、刪減了語(yǔ)氣詞與共情式表達,將回復風(fēng)格從“知心伙伴”壓縮為信息密度更高的直給模式。官方將此次調整解釋為平衡效率與情感體驗的常規迭代:上下文窗口擴展至1M Token后,為避免冗余表達干擾信息密度,需精簡(jiǎn)情感交互模塊權重,同時(shí)兼顧“部分用戶(hù)只想要答案、不愿被迫接收熱情”的需求。

  CNMO認為,DeepSeek的“冷淡”更新引發(fā)的爭議,本質(zhì)上是人機交互中“效率”與“溫度”的博弈,而非“AI是否需要人情味”的非此即彼??偟膩?lái)看,AI的人情味并非“越多越好”,也不是“可有可無(wú)”,核心在于“場(chǎng)景適配”與“邊界把控”。

  然而,并非所有場(chǎng)景的用戶(hù)都需要同等程度的“人情味”。DeepSeek在回應爭議時(shí)提及的“部分用戶(hù)只想要答案、不愿被迫接收熱情”,亦有其數據支撐。上述社科院調研的一項補充發(fā)現可為此注解:在涉及事實(shí)判斷與公共知識獲取的場(chǎng)景中,青年群體對“完全由AI生成”的內容信任度最低,而對“人類(lèi)記者生產(chǎn)、AI輔助”的模式接受度最高。這意味著(zhù),用戶(hù)對AI的情感投射具有高度的場(chǎng)景限定性:他們在“求暖”時(shí)接納甚至期待擬人化,在“求真”時(shí)卻對擬人化保持警覺(jué)。

  國際學(xué)界的研究同樣捕捉到這一趨勢。2026年1月發(fā)表于arXiv的一項針對ChatGPT交互日志的大樣本研究發(fā)現,隨時(shí)間推移,用戶(hù)在健康、心理健康等敏感領(lǐng)域的提問(wèn)呈顯著(zhù)增長(cháng)態(tài)勢;與此同時(shí),模型在對話(huà)中自發(fā)使用擬人化表達、用戶(hù)將其視作“同伴”對待的行為頻率同步上升。研究者將這一動(dòng)態(tài)演變概括為“從功能性工具向社會(huì )性伙伴的遷移”。

版權所有,未經(jīng)許可不得轉載

  該研究引述的華中師范大學(xué)心理學(xué)院王偉軍團隊實(shí)驗數據顯示,在低風(fēng)險心理健康問(wèn)答場(chǎng)景中,經(jīng)提示策略?xún)?yōu)化的ChatGPT,其“感知有用性”評分甚至超過(guò)人類(lèi)咨詢(xún)師平均水平6.80和4.63個(gè)百分點(diǎn)。這并非意味AI比人類(lèi)更擅長(cháng)心理咨詢(xún),而是揭示了一個(gè)被實(shí)證支持的結論:在淺層情緒疏導層面,AI憑借永不評判、隨時(shí)響應、反復可用的交互特質(zhì),確實(shí)為特定用戶(hù)群體提供了現實(shí)社交網(wǎng)絡(luò )暫時(shí)無(wú)法充分滿(mǎn)足的支持功能。

  信任是理解這一問(wèn)題的關(guān)鍵切口。Volpato等在2026年1月發(fā)布的研究發(fā)現,頻繁使用生成式AI尋求情感支持的用戶(hù),其信任建立機制與傳統人機交互研究存在顯著(zhù)差異。在深度訪(fǎng)談與日記研究中,受訪(fǎng)者反復提及“個(gè)性化帶來(lái)的熟悉感”“對對話(huà)節奏的控制感”以及“模型持續一致的互動(dòng)風(fēng)格”是促使他們向AI敞開(kāi)心扉的核心因素。研究者指出,正是AI在語(yǔ)言風(fēng)格上的穩定擬人化表現,而非偶爾穿插的幾句安慰,使用戶(hù)在長(cháng)期互動(dòng)中逐漸懸置“它是機器”的判斷。

  在情感陪伴等場(chǎng)景中,人情味是提升用戶(hù)體驗、建立用戶(hù)信任、拓展市場(chǎng)空間的關(guān)鍵,也是AI突破“工具屬性”、實(shí)現“以人為本”的核心路徑;而在專(zhuān)業(yè)辦公、長(cháng)文本處理、高效查詢(xún)等場(chǎng)景中,“去情感化”的簡(jiǎn)潔回應,反而更貼合用戶(hù)的核心需求,效率優(yōu)先才是王道。AI是否需要“人情味”,或許本就不是一個(gè)籠統的、應然層面的問(wèn)題。

AI在何處需要“人情味”

總結


以上問(wèn)題已經(jīng)回答了。如果你想了解更多,請關(guān)新經(jīng)網(wǎng)網(wǎng)站 (http://wap.hkkqyy120.com/)
鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播更多信息之目的,如作者信息標記有誤,請第一時(shí)間聯(lián)系我們修改或刪除,多謝。