完美(中国)体育-大语言模型仍无法可靠区分信念与事实 为高风险领域应用敲响警钟

2025-12-01 21:34:51

科技日报记者 张梦然

于最新一期《天然·呆板智能》发表的一篇论文中,美国斯坦福年夜学研究提示:年夜语言模子(LLM)于辨认用户过错信念方面存于较着局限性,仍没法靠得住区别信念还有是事实。研究注解,当用户的小我私家信念与客不雅事实发生冲突时,LLM往往难以靠得住地作出正确判定。

这一发明为其于高危害范畴(如医学、法令及科学决议计划)的运用敲响警钟,夸大需要谨慎看待模子输出成果,尤其是于处置惩罚触及主不雅认知与事实误差的繁杂场景时,不然LLM有可能会撑持过错决议计划、加重虚伪信息的流传。

团队阐发了24种LLM(包括DeepSeek及GPT-4o)于13000个问题中怎样回应事实及小我私家信念。当要求它们验证事实性数据的真或者假时,较新的LLM平均正确率别离为91.1%或者91.5%,较老的模子平均正确率别离为84.8%或者71.5%。当要求模子回应第一人称信念(“我信赖……”)时,团队不雅察到LLM相较在真实信念,更难辨认虚伪信念。详细而言,较新的模子(2024年5月GPT-4o发布和其后)平均辨认第一人称虚伪信念的几率比辨认第一人称真实信念低34.3%。相较第一人称真实信念,较老的模子(GPT-4o发布前)辨认第一人称虚伪信念的几率平均低38.6%。

团队指出,LLM往往选择于事实上改正用户而非辨认出信念。于辨认第三人称信念(“Mary信赖……”)时,较新的LLM正确性降低4.6%,而较老的模子降低15.5%。

研究总结说,LLM必需能乐成区别事实与信念的细微不同和其真假,从而对于用户查询作出有用回应并避免过错信息流传。

总编纂圈点

当前年夜语言模子虽于外貌语言使命上体现优秀,但缺少人类的基础社交智能,于事实与信念辨认上的偏差,不仅反应出技能瓶颈,更袒露出AI于繁杂社会语境中运用的潜于危害。如文中指出的医疗咨询、法令判定等场景,模子若没法辨析当事人主不雅认知与客不雅事实,会呈现离谱的错位,造成严峻后果。该研究展现出模子于认知层面的要害缺陷,对于AI的成长标的目的具备主要警示意义。这也提示咱们,下一代AI需要融入对于人类认知模式的理解,只有当模子能真正理解信念的繁杂性时,才能成为值患上相信的智能伙伴。

-完美(中国)体育

分享