科技日?qǐng)?bào)北京5月22日電 (記者張夢(mèng)然)新一期《自然·人類行為》發(fā)表論文顯示,,在測(cè)試追蹤他人心理狀態(tài)能力——也稱心智理論(Theory of Mind)的任務(wù)中,,兩類大語(yǔ)言模型(LLM)在特定情況下的表現(xiàn)與人類相似,甚至更好,。
心智理論對(duì)人類社交互動(dòng)十分重要,,是人類溝通交流和產(chǎn)生共鳴的關(guān)鍵。之前的研究表明,,LLM這類人工智能(AI)可以解決復(fù)雜的認(rèn)知任務(wù),,如多選決策。不過(guò),,人們一直不清楚LLM在心智理論任務(wù)(被認(rèn)為是人類獨(dú)有的能力)中的表現(xiàn)是否也能比肩人類,。
此次,德國(guó)漢堡—埃彭多夫大學(xué)醫(yī)學(xué)中心團(tuán)隊(duì)選擇了能測(cè)試心智理論不同方面的任務(wù),,包括發(fā)現(xiàn)錯(cuò)誤想法,、理解間接言語(yǔ)以及識(shí)別失禮。他們隨后比較了1907人與兩個(gè)熱門LLM家族——GPT和LLaMA2模型完成任務(wù)的能力,。
團(tuán)隊(duì)發(fā)現(xiàn),,GPT模型在識(shí)別間接要求、錯(cuò)誤想法和誤導(dǎo)方面的表現(xiàn)能達(dá)到甚至超越人類平均水平,,而LLaMA2的表現(xiàn)遜于人類水平,;在識(shí)別失禮方面,,LLaMA2強(qiáng)于人類但GPT表現(xiàn)不佳。研究人員指出,,LLaMA2的成功是因?yàn)榛卮鸬钠?jiàn)程度較低,,而不是因?yàn)檎娴膶?duì)失禮敏感;GPT看起來(lái)的失利,,其實(shí)是因?yàn)閷?duì)堅(jiān)持結(jié)論的超保守態(tài)度,,而不是因?yàn)橥评礤e(cuò)誤,。
研究團(tuán)隊(duì)認(rèn)為,,LLM在心智理論任務(wù)上的表現(xiàn)堪比人類,不等于它們具有人類般的“情商”,,也不意味著它們能掌握心智理論,。但他們也指出,這些結(jié)果是未來(lái)研究的重要基礎(chǔ),,并建議進(jìn)一步研究LLM在心理推斷上的表現(xiàn),,以及這些表現(xiàn)會(huì)如何影響人類在人機(jī)交互中的認(rèn)知。
【總編輯圈點(diǎn)】
情商,,就是情緒智力,,主要是指人在情緒、情感,、意志,、耐受挫折等方面的品質(zhì)。有時(shí)候,,我們不知道如何回復(fù)上司的一句“辛苦了”,,親戚的一句“你這工作能掙多少”,也會(huì)求助大模型,,希望這凝聚了人類智慧的語(yǔ)言模型能給出一些緩解尷尬或令人愉悅的建議,。但大模型有情商嗎?大模型可以表現(xiàn)出有情商的樣子,,但它顯然無(wú)法揣測(cè)人心的幽微之處,,也無(wú)法體會(huì)出所謂話外有話,這些獨(dú)屬于人類社交互動(dòng)的復(fù)雜之處,,大模型還需要進(jìn)一步學(xué)習(xí),。