数学联邦政治世界观
超小超大

柏拉图表示假说 (13-5)

在GSM8K上的性能(5张照片)

lla3-70b

0.8 -

0.6 -

mixial-8x7b

gemma-7b

ima3-8b

llama-65b

0.4

mistral-7b

LAN ha-33b

0.2 -

Gemma·2b

ma-13b

ama-7b

penllama-13bl lmo.7b

Bloom-1.7b Bloom-3b

penllama-7b

olmo-1b

Bloom-560m

Bloom-7.1b

0.0-

Bloom-1.1b

openllama-3b

0.16

0.18

0.22

0.24

0.20

0.26

0.14

对准VISION(DINOv2)

llama3-70b

0.701

混合的

赫拉斯瓦格

骆马·33

0.65

llama-65b

西北风-7b

na-1db iamae.8b

0.60 -

宝石-

ama-7b

lmo-7b

penllama-13b

0.55 -

上的性能

gemma-2b

penllama-7b

0.50

openllama-3b

olmo-1b

Bloom-7.1b

0.45 -

Bloom-3b

0.40 -

Bloom-1.7b

0.35 -

Bloom-1.1b

Bloom-560m

0.30 -

0.14

0.16

0.18

0.20

0.22

0.24

0.26

对准VISION(DINOv2)

图4.对齐预测下游性能

对齐预测下游性能:我们可视化了LLM对DINOv2的对齐得分与Hellaswag~(常识)和GSM8K~(数学)下游任务表现之间的相关性。LLMs的半径与模型大小成比例,并按语言建模分数的排名顺序 1 – bits–per–byte 进行颜色编码。我们观察到与视觉模型更紧密对齐的模型在下游语言任务中表现更好。对于Hellaswag,对齐得分和表现之间存在线性关系,而GSM8K则展示了“涌现”趋势。

表示正在跨模态趋同

不同数据模态训练的模型是否也在趋同?几项研究表明答案是肯定的。

Merullo et al. (2022) 将模型缝合扩展到跨模态设置,发现单个线性投影就足以将视觉模型与LLM缝合,并在视觉问答和图像描述任务上取得良好表现。Koh et al. (2023) 显示线性缝合也可以反向工作,将文本输入对齐到视觉输出。实际上,许多最新的语言-视觉模型都是通过缝合预训练的语言和视觉模型来实现的。例如,LLaVA通过使用两层MLP将视觉特征投影到语言模型中,展示了最先进的结果。

数学联邦政治世界观提示您:看后求收藏(同人小说网http://tongren.me),接着再看更方便。

相关小说

星座狗:破局 连载中
星座狗:破局
爱麻的凌霜老丢号
1.1万字1年前
封神英雄梦浮华 连载中
封神英雄梦浮华
雪无鸳
封神之战在时光的长河中再次上演,只是这场战斗的舞台从远古移到了现代。人们各自扮演着不同的角色,然而他们的命运却在那一刻被宿命之线紧紧相连。
12.3万字1年前
斗龙:黑王龙的附身 连载中
斗龙:黑王龙的附身
一只不想更新的作者
黑亡龙残留的力量,小熠变成傀儡,斗龙战士该怎么办
0.3万字1年前
冥王宠妻:冥汐情 连载中
冥王宠妻:冥汐情
爱汐儿
她,洛灵汐,一不小心被黑白无常勾错魂穿越时空来到东离国,她蛮横无理取闹,见着谁都想打。所以人见人讨厌也害怕她。所以在别人眼里就是泼妇。后穿越......
13.5万字1年前
红璃陨落,北洋骤然 连载中
红璃陨落,北洋骤然
迷恋青青
《红璃陨落,北洋骤然》这是双女主哦!讲的是来自恶魔一族的红璃与天使一族的北洋违规了族群里的条约。与恶魔/天使族的公主成了朋友。两族因为这事开......
1.5万字1年前
魔尊又复活了 连载中
魔尊又复活了
是魚不是鱼
本文是一部一本正经的沙雕小说,作者也在一本正经的写沙雕文。某尊一直想死且忘记一切,可是她死不了!然后就在作死的路线上一去不返。
7.6万字1年前