数学联邦政治世界观
超小超大

柏拉图表示假说 (13-7)

functionclass ⊔

Hypothesis

space 2

✫ Hypothesis

Loss ✫ ★ space 2

Hypothesis

space 1 Hypothesis

– Scale up → space 1

architectures

图5.容量假设

容量假设:如果在函数空间中存在一个最优表示,则较大的假设空间更可能覆盖它。左:两个小模型可能无法覆盖最优值,从而找到不同的解决方案(由轮廓☆标记)。右:随着模型变大,它们覆盖最优值并收敛到相同的解决方案(由填充⋆标记)。

假设空间

任务梯度

↘↓↙

解决任务1

→ 解决任务2

任务梯度

图6.多任务扩展假设

多任务扩展假设:随着任务数量的增加,训练的模型承受压力,学习一种可以解决所有任务的表示。

通过任务普遍性的趋同

每个训练数据点和目标(任务)都会对模型施加额外的约束。随着数据和任务的扩展,满足这些约束的表示体积必须按比例变小,如图 Figure 6 所示并在下方阐述:

多任务扩展假设:适用于N 个任务的表示比适用于 M<N 个任务的表示要少。当我们训练能够一次解决更多任务的通用模型时,我们应该预期可能的解决方案会更少。

Cao & Yamins (2024) 之前将此称为逆变原则,指出一个简单目标的解决方案集合是大的,而一个具有挑战性目标的解决方案集合则相对较小。此外,我们认为这个更狭窄的解决方案集也具有更好的泛化能力。随着数据规模的扩大,优化经验风险 𝔼x ~ dₐₜₐₛₑₜ[Ը(f,x)] 的模型在总体风险 𝔼x ~ ᵣₑₐₗᵢₜy[Ը(f,x)] 上也会有所改进,并且在捕捉真实数据生成过程 reality 的统计结构方面表现更好。

最近的工作展示了数据规模与模型性能之间的幂律关系。这意味着在足够的数据下(例如,包括整个互联网和所有离线科学测量),应该趋同于一个具有不可约误差的非常小的解决方案集——这是世界固有的认知不确定性。随着更多模型在互联网规模的数据上进行训练,满足所有数据约束的解决方案集必须变得相对较小。

除了数据扩展,许多现代表示学习目标Ը(f,x) 直接优化多任务求解。对比学习在数据样本上找到一个距离结构,以优化许多分类任务。掩码自编码器优化随机抽样的重建任务。事实上,自回归语言建模也可以看作是优化多样的任务集。由于这些多任务目标对表示施加了更多任务约束,从而导致更小且质量更高的解决方案空间,它们可能比单任务目标(例如ImageNet分类)更有效。

通过模型容量的趋同

数学联邦政治世界观提示您:看后求收藏(同人小说网http://tongren.me),接着再看更方便。

相关小说

5个常 连载中
5个常
ch.夏婉
0.1万字5个月前
快穿之无聊透顶 连载中
快穿之无聊透顶
最爱阿凌
黑暗类,不要点
0.2万字4个月前
十二星,命定守护者 连载中
十二星,命定守护者
羊崽崽a
这本书是解释作者小号“丘妄雪”那号上«新葫,命中塔罗»的十二星座守护者的故事,主要是要怎么成为星界十二星座守护者的,然后为什么会变坏。之所以......
2.8万字4个月前
江生 连载中
江生
斧头帮董事长
不入轮回,永不超生泯神剑,灭神灭妖,剑入心脏,魂飞魄散。前年恩怨,皆成执念执念所造之人,终究会消失一切堪破,那么执念,也该消散辗转千年的爱恨......
5.4万字4个月前
为已而活 连载中
为已而活
默然 ℡
傅卿卿再次身亡,魂魄被迫离开原主。她在攻略男主陆宇辰的第三次失败后,颓废的回到了系统空间。“欢迎宿主回归,请宿主确认最后的复活点。”机械的声......
10.3万字4个月前
如何让善良公主成为腹黑魔女 连载中
如何让善良公主成为腹黑魔女
奶酪不想更
附身公主,夺取政权复仇?!梦魔罗荣就做到了这点,占据了公主的肉身!这下,原本善良的美丽公主,就变成了邪恶的腹黑魔女!
0.2万字4个月前