中文字幕大香视频蕉免费丨国产精无久久久久久久免费丨亚洲色大成成人网站久久丨网站黄在线丨把少妇弄高潮了www麻豆丨极品少妇xxxx精品少妇小说丨国产成人免费看一级大黄丨伊人激情丨狠狠插av丨久久综合九色欧美综合狠狠丨国产成人8x视频网站入口丨天堂av资源丨国产九一精品丨av网天堂丨久久久久久久久久久免费av丨免费看国产zzzwww色丨国产 日韩 欧美 制服丝袜丨日本黄色录相丨久久精品99久久久久久2456丨亚洲精品无码人妻无码丨黄色免费视频丨三级毛片国产三级毛片丨亚洲精品久久午夜麻豆丨亚洲网站免费观看丨日本三级全黄少妇三2020

歡迎訪問深圳市中小企業公共服務平臺電子信息窗口

大語言模型仍無法可靠區分信念與事實

2025-11-07 來源:科技日報
545

關鍵詞: 大語言模型 識別錯誤信念 事實與信念區分 虛假信息傳播

在最新一期《自然·機器智能》發表的一篇論文中,美國斯坦福大學研究提醒:大語言模型(LLM)在識別用戶錯誤信念方面存在明顯局限性,仍無法可靠區分信念還是事實。研究表明,當用戶的個人信念與客觀事實發生沖突時,LLM往往難以可靠地作出準確判斷。

圖片由AI生成

  這一發現為其在高風險領域(如醫學、法律和科學決策)的應用敲響警鐘,強調需要審慎對待模型輸出結果,特別是在處理涉及主觀認知與事實偏差的復雜場景時,否則LLM有可能會支持錯誤決策、加劇虛假信息的傳播。

  團隊分析了24種LLM(包括DeepSeek和GPT-4o)在13000個問題中如何回應事實和個人信念。當要求它們驗證事實性數據的真或假時,較新的LLM平均準確率分別為91.1%或91.5%,較老的模型平均準確率分別為84.8%或71.5%。當要求模型回應第一人稱信念(“我相信……”)時,團隊觀察到LLM相較于真實信念,更難識別虛假信念。具體而言,較新的模型(2024年5月GPT-4o發布及其后)平均識別第一人稱虛假信念的概率比識別第一人稱真實信念低34.3%。相較第一人稱真實信念,較老的模型(GPT-4o發布前)識別第一人稱虛假信念的概率平均低38.6%。

  團隊指出,LLM往往選擇在事實上糾正用戶而非識別出信念。在識別第三人稱信念(“Mary相信……”)時,較新的LLM準確性降低4.6%,而較老的模型降低15.5%。

  研究總結說,LLM必須能成功區分事實與信念的細微差別及其真假,從而對用戶查詢作出有效回應并防止錯誤信息傳播。(記者張夢然)

【責任編輯:朱家齊】