t_wの輪郭

Feedlyでフォローするボタン

LLaMA・Alpaca・Vicunaはデータと仕組みが公開された大規模言語モデルであり、GoogleのBardに匹敵する性能にまで進化している。

https://lmsys.org/blog/2023-03-30-vicuna/ より



楽観的には4.6ヶ月後にノートPC、9.2ヶ月後にスマホでGPT-4相当のAIが動く

LLaMA・Alpaca・Vicunaはデータと仕組みが公開された大規模言語モデルであり、これらの性能あたりのパラメータ数の時間変化を指数近似すると、およそ4.6ヶ月で性能あたりのパラメータ数は半分になる。

悲観的には18ヶ月後にノートPCでGPT-4相当のAIが動く

ムーアの法則に従えば18か月後にはGPT-4相当の大規模言語モデルがノートPCの上で動作することになる。

小規模化への研究資源の投射

学習データの枯渇が起こるならば、研究対象は大規模化・高性能化から高能率化に移る。

あれ

2024/5/11 20:02:00

M4 iPad Proの発表を見ていたのだけど、私には全然ほしいとは思えなかった。
Youtuberとか、動画を作る人にとっては、持ち運べるワークステーションみたいで便利そうだと思った。
「M4が乗るぜ」って発表が出たときには、「すわローカルLLM」と思われたが、そういうアレではなかった。
AppleがローカルLLMを作ろうと思えばいつでも作れると思うのだけど、そうしていないのは有効な利用用途が見つかっていないのだろうと推量している。
ローカルで動くチャットボットを作ったところで、「だからなんやねん」という感じだし。

あれ

2024/5/7 22:44:00

1070Tiとか言う化石みたいなGPUでも動くLLMがまともな回答するようになってて怖い

あれ

2024/5/15 12:48:00

VSCodeの拡張機能のContinueと、Ollamaを組み合わせると、ローカルのLLMがコードを書いてくれるようになるぞ。
ただし品質と生成速度はLLMモデル並びにそれを動かすPCのスペックで決まる。