大模型“记性差一点”反而更聪明:金鱼损失随机剔除 token,让 AI 不再死记硬背

2025-09-04 12:52:46 作者:精选手游网

训练大模型时,有时让它“记性差一点”,反而更聪明!

大语言模型如果不加约束,很容易把训练数据原封不动地复刻出来。为解决这个问题,来自马里兰大学、图宾根大学和马普所的研究团队提出了一个新方法 —— 金鱼损失(Goldfish Loss)。

顾名思义,金鱼损失就是让模型像金鱼一样,不去死记每一个细节,而是在损失函数计算时随机剔除一小部分 token。

由此,模型不再逐字记住训练集内容,但仍能学会语言规律。

实验显示,LLaMA-2 在使用金鱼损失后:

小编推荐

排行榜