数学联邦政治世界观
超小超大

柏拉图表示假说 (13-5)

在GSM8K上的性能(5张照片)

lla3-70b

0.8 -

0.6 -

mixial-8x7b

gemma-7b

ima3-8b

llama-65b

0.4

mistral-7b

LAN ha-33b

0.2 -

Gemma·2b

ma-13b

ama-7b

penllama-13bl lmo.7b

Bloom-1.7b Bloom-3b

penllama-7b

olmo-1b

Bloom-560m

Bloom-7.1b

0.0-

Bloom-1.1b

openllama-3b

0.16

0.18

0.22

0.24

0.20

0.26

0.14

对准VISION(DINOv2)

llama3-70b

0.701

混合的

赫拉斯瓦格

骆马·33

0.65

llama-65b

西北风-7b

na-1db iamae.8b

0.60 -

宝石-

ama-7b

lmo-7b

penllama-13b

0.55 -

上的性能

gemma-2b

penllama-7b

0.50

openllama-3b

olmo-1b

Bloom-7.1b

0.45 -

Bloom-3b

0.40 -

Bloom-1.7b

0.35 -

Bloom-1.1b

Bloom-560m

0.30 -

0.14

0.16

0.18

0.20

0.22

0.24

0.26

对准VISION(DINOv2)

图4.对齐预测下游性能

对齐预测下游性能:我们可视化了LLM对DINOv2的对齐得分与Hellaswag~(常识)和GSM8K~(数学)下游任务表现之间的相关性。LLMs的半径与模型大小成比例,并按语言建模分数的排名顺序 1 – bits–per–byte 进行颜色编码。我们观察到与视觉模型更紧密对齐的模型在下游语言任务中表现更好。对于Hellaswag,对齐得分和表现之间存在线性关系,而GSM8K则展示了“涌现”趋势。

表示正在跨模态趋同

不同数据模态训练的模型是否也在趋同?几项研究表明答案是肯定的。

Merullo et al. (2022) 将模型缝合扩展到跨模态设置,发现单个线性投影就足以将视觉模型与LLM缝合,并在视觉问答和图像描述任务上取得良好表现。Koh et al. (2023) 显示线性缝合也可以反向工作,将文本输入对齐到视觉输出。实际上,许多最新的语言-视觉模型都是通过缝合预训练的语言和视觉模型来实现的。例如,LLaVA通过使用两层MLP将视觉特征投影到语言模型中,展示了最先进的结果。

数学联邦政治世界观提示您:看后求收藏(同人小说网http://tongren.me),接着再看更方便。

相关小说

噩临 连载中
噩临
烧焦的煤炭
一些oc,原创,标题你让我再想想
1.3万字9个月前
随笔:随想随写 连载中
随笔:随想随写
墨落成曦香
随想随写,不限时间,地点,人物等,很混乱的一篇文
0.2万字8个月前
玫瑰的乐章 连载中
玫瑰的乐章
雪幽晚
在“域”里有个美丽的花园,里面种满了玫瑰,还有着骄阳般的小姐。一群人突然来了这,会发生什么故事呢?“我们会再次相见的”“对不起,我没遵守我的......
0.7万字8个月前
洛小熠调戏凯风 连载中
洛小熠调戏凯风
黑化凯风
0.0万字8个月前
猫妖大人在我家 连载中
猫妖大人在我家
花子49
“轰隆隆……”潇涵望向窗外,稍微皱了一下眉头潇涵耀耀,一会儿早回家,别去打工了,这天好像要下雨苏耀耀听到声音,把头从手机屏幕上移开,望了望窗......
5.0万字8个月前
宿主是只美人鱼 连载中
宿主是只美人鱼
霖汐汐子
【万人迷+美而不自知+无cp+无逻辑】海姝是一只绝无仅有的美人鱼因此被万物所偏爱,身边是一群群单纯的海洋生物,每天开心自在结果,本以为会一直......
5.7万字8个月前