あれ
畳み込みでパラメーター生成!?
まずLoRAでΔWが出る
はえー
パラメーター生成器が作ったΔW'を使う
パラメーター生成器はΔW-ΔW'を最小化するように学習する
学習にはMSEを使う
すげー
なんでそれで上手く性能が出るのかが不思議だ
公開されているモデルのbaseモデルとinstructionモデルの差分からΔWを作ることができるかな?
最初のLoRAはどれぐらいの量のデータを使うんだろう?
A100GPUで1秒未満でパラメーター生成
常識推論は0.11秒で生成
いややっぱ速いな
LoRAの何パーセントの時間だろう?
Finetuningで1200秒かけて55%の正解率
DnDは0.1秒で51%の正解率
12,000倍高速
すっげ
エンドの端末でオンライン学習とかできないかな?
というかプロンプトを投げられた後に学習できるのでは?
RAGの代わりに使える?
いくつかのパターンを試した結果、生成器への入力はプロンプトのみで十分であることを発見
便利すぎる。
謎の特性だ。
教師データがある場合にはそれを入れても良いんだろうか?
教師データがある場合とない場合で精度の変化はあるのかな?
In-Context Learning
なんだこれ。後で調べよう。
基板モデルのサイズを1.5Bから7Bにスケールアップさせた場合でも、DnDは一貫して学習元のLoRAの性能を上回る
さすがに良すぎて嘘くさいぞ
「学習元のLoRA」の学習データってDnDと比べて少量なのか?だったら納得がいくかも?
「オッケー」が面白いけど散らかるな
Drag-and-Drop LLMsでは1回ファインチューニングした以降が高速化される
あれ
「LLMに罰を与えて即時で強化学習できるボタンがほしい」とか言ってたらDrag-and-Drop LLMsが出てきた。
『【最先端】新たな知識を一瞬で学習するAI【DnD】 - YouTube』
『Drag-and-Drop LLMs: Zero-Shot Prompt-to-Weights』
あれ
高速化: パラメータ生成は1秒未満で行われ、従来のファインチューニングに比べて1万倍以上高速
高性能: LoRAを用いたファインチューニングと同等以上の性能を達成している
簡便性: プロンプトのみを入力とするため、正解データは不要
革新性: 重み自体を新たなデータモダリティとして見なす
ハァ??
良すぎる。良すぎて眉唾。
毎秒学習できんじゃん。
じゃぁなんすか、ユーザーが生成物に「👍」とかつけたらその1秒後にその評価が反映されたAIがボロンとでてくるってことっすか。