近日,中國科學院合肥物質科學研究院智能所丁增輝研究員聯合科大訊飛研究院等團隊,在國際上率先從理論計算層面系統揭示了大語言模型“幻覺”現象的本質根源,提出了將幻覺的發生率降低到實際可接受的范圍內是推進人工智能社會應用的關鍵要求,發表了?“計算必然性層級”理論及“計算類對齊(CCA)”新理論,并提出了兩類形式化“逃離路徑”,為解決AI可靠性難題奠定了全新理論基礎。該成果被國際人工智能頂級會議AAAI?2026錄用。
以ChatGPT為代表的大語言模型雖展現出卓越的生成與推理能力,但其內生的“幻覺”問題——即生成看似合理但實則錯誤或無依據的內容,已成為阻礙其可靠、安全部署的核心障礙。當前工程層面的緩解策略,如檢索增強生成(RAG)與思維鏈(CoT),雖有效果但缺乏統一的理論根基。一個根本性問題亟待回答:幻覺是技術發展中的暫時缺陷,還是源于某種深刻的、不可逾越的數學邊界?
針對這一核心難題,團隊將大模型形式化為概率圖靈機,構建了“計算必然性層級”。該研究首次從對角化、不可計算性和信息論三個維度,利用新提出的“學習者泵引理(Learner Pump Lemma)”,在數學上證明了幻覺在特定計算邊界上的不可避免性。同時,研究團隊也提出了兩條打破邊界的“逃逸路徑”:通過外部工具RAG實現的“絕對逃逸”和通過持續學習CL實現的“自適應逃逸”, 受神經可塑性持續學習機制啟發,團隊構建了一個神經博弈論框架,模擬人腦中海馬體(快速記憶)與新皮層(長期鞏固)的協作。該框架將學習過程建模為兩個代理的博弈:一個負責快速吸納新知識(高可塑性),另一個負責將其穩健整合至長期記憶(高穩定性)。通過達成層級納什均衡,模型能夠在避免“災難性遺忘”的同時,將外部知識“內化”為自身的參數化能力,實現從“臨時查閱”到“真正掌握”的本質跨越。
為驗證理論,團隊在多尺寸模型上設計了基于虛構科學知識的嚴格實驗。結果表明,所提出的?RAG-CL(檢索增強+持續學習)混合策略在性能與成本間取得了最優平衡,同時顯著攤銷了長期查詢成本,在Mistral-7B模型中,準確率(~96.5%)與遺忘率(僅1.1%)取得最佳性能表現。注意力機制分析進一步揭示,隨著知識被模型“內化”,其對外部檢索內容的依賴度顯著降低,轉而更信賴內部穩健的參數化知識,從而在根本上提升了系統的抗干擾與抗遺忘能力。
該研究為大模型“幻覺”問題提供了一個深刻、統一的計算理論框架,不僅回答了其“為何不可避免”的根本原因,更指明了“如何有效超越”達到通用人工智能AGI的可行路徑,為理解大模型可靠性與安全性的根本邊界提供了全新的理論范式。
智能所碩士生奚旺為該論文的共同第一作者,丁增輝研究員為通訊作者。
AAAI(Association for the Advancement of Artificial Intelligence)是人工智能領域歷史最悠久、最具影響力的國際頂級學術會議之一,也是中國計算機學會(CCF)推薦的A類國際學術會議。
文章鏈接:https://arxiv.org/abs/2508.07334

圖1 不可避免的信息丟失與概率圖靈機的自指悖論

圖2?增強型概率圖靈機的操作流程