信息來(lái)源:科技日報 發(fā)布日期:2024-05-23
新一期《自然·人類(lèi)行為》發(fā)表論文顯示,在測試追蹤他人心理狀態(tài)能力——也稱(chēng)心智理論(Theory of Mind)的任務(wù)中,兩類(lèi)大語(yǔ)言模型(LLM)在特定情況下的表現與人類(lèi)相似,甚至更好。
心智理論對人類(lèi)社交互動(dòng)十分重要,是人類(lèi)溝通交流和產(chǎn)生共鳴的關(guān)鍵。之前的研究表明,LLM這類(lèi)人工智能(AI)可以解決復雜的認知任務(wù),如多選決策。不過(guò),人們一直不清楚LLM在心智理論任務(wù)(被認為是人類(lèi)獨有的能力)中的表現是否也能比肩人類(lèi)。
此次,德國漢堡—埃彭多夫大學(xué)醫學(xué)中心團隊選擇了能測試心智理論不同方面的任務(wù),包括發(fā)現錯誤想法、理解間接言語(yǔ)以及識別失禮。他們隨后比較了1907人與兩個(gè)熱門(mén)LLM家族——GPT和LLaMA2模型完成任務(wù)的能力。
團隊發(fā)現,GPT模型在識別間接要求、錯誤想法和誤導方面的表現能達到甚至超越人類(lèi)平均水平,而LLaMA2的表現遜于人類(lèi)水平;在識別失禮方面,LLaMA2強于人類(lèi)但GPT表現不佳。研究人員指出,LLaMA2的成功是因為回答的偏見(jiàn)程度較低,而不是因為真的對失禮敏感;GPT看起來(lái)的失利,其實(shí)是因為對堅持結論的超保守態(tài)度,而不是因為推理錯誤。
研究團隊認為,LLM在心智理論任務(wù)上的表現堪比人類(lèi),不等于它們具有人類(lèi)般的“情商”,也不意味著(zhù)它們能掌握心智理論。但他們也指出,這些結果是未來(lái)研究的重要基礎,并建議進(jìn)一步研究LLM在心理推斷上的表現,以及這些表現會(huì )如何影響人類(lèi)在人機交互中的認知。(記者張夢(mèng)然)
主辦單位:營(yíng)口市科學(xué)技術(shù)局 服務(wù)咨詢(xún):0417-2833747
地址:遼寧省營(yíng)口市站前區少年宮里學(xué)府園A4
技術(shù)支持:科易網(wǎng)