这有点像告诉我们ideal foundation model所得到的f总是在某种意义下可逆的。是一个lower bound.
• 思考:prompt所得到的解和正确解是一个同构。有些时候这可以被接收(比如说有很多多样化的图片同构),有时候这不可以被接受,需要重新拟合训练得到这个同构。这个过程更像我们实际中在用的finetune,而上文所提到的finetune其实有点像一个lowerbound,就是“我总能把他扭回来。
现在考虑学习两个更加具体的category之间的functor:
有C (比如说描述图片的语言范畴)和 B(图片范畴),想学习functor F C → B 。直接学习或许有点抽象。
但我们现在有两个在pretask上学习的functor: hᴄ 和 hb 。他们把object打到feature space里,那我们能不能在feature space里面学习,使得我们可以找到 F(X) 的同构类,对任意 X∈C ? 更加宽泛的说,能不能把 C 的strutucal infomation(态射) 在 B 的feature space的态射中再现出来?
答案是肯定的,但我们需要在feature space里面学一个feature-aligned functor:
Definition 7 (feature-aligned functor).Giνen twο cαtegories B,C.α full embedding F: C⌃ → B⌃,denote the corre-sponding foundαtion model αs hʙ,hᴄ. A function F:C⌃ → B⌃,is feαture-αligned with F if for αny X ∈ Ob(C),
F(hᴄ(X)) ≃ hʙ(F(X)).
注意:Clip在embedding space里面做pair就可以理解为在学习这个 F
然后我们有
Theorem 3 (Generalization theorem for structural learning). Consider twο cαtegories B,C αnd α full embedding F:C → B. In the leαrning scenαrio,αn ideαl foundαtion model hᴄ for C together with α feαture-αligned functor F:F:C ⌃ → B⌃,preserνes the structure of C in α full subcαtegory A of B:for αny X,Y ∈ C,Homᴄ(X,Y) ≃ Homᴀ⌃ (F(hᴄ(X)),F(hᴄ(Y))). Moreoνer,when hʙ is αναilαble αnd inνertible,we hανe F(X) ≃ hʙ⁻¹(F(hᴄ(X))) for αny X ∈ C.
注意:这里有一个full embedding的要求。这意味着你想要迁移的原始object不能比迁移后的structure infomation还要多,且在这些object上,他们应该要能够同构。
数学联邦政治世界观提示您:看后求收藏(同人小说网http://tongren.me),接着再看更方便。