t_wの輪郭

Feedlyでフォローするボタン
LLMLLaMA
あれ『Xユーザーのからあげさん: 「神モデルによりOllama使ってローカルでTanuki-8Bがあっさり動きました。 RTX 3060で信じられない爆速!過去いろいろなローカルLLM試してきましたが、日本語では相当良いのでは? https://t.co/quUC37iAOb」 / X』あれ

あれ

2024/10/13 23:52:00

Ollamacontinueつかって、ローカルのマシンで動くCodeGPTPlus/deepseek-coder-1.3b-typescriptにコード書かせてたら、こんなん失職やんとなった


M2 MacBookで動く程度の小規模なLLMが、使い物になってるってのが怖い。

まだ完全に置き換えられるレベルじゃないけど、あっという間に賢くなると思う。
指数関数的に増加するものがどれだけの速度で変化するかを我々は知識として知っている。

あれ

2024/9/1 15:33:00

赤字生活

アレヤコレヤで貯金がグイングイン減ってる。

忙しくなると、ストレスから、Amazonでバンバン買っちゃって、クレカ支払がすごいことになる。

9月が激務の予定なので備えねば。

GPUにコードをかかせているので、GPUをアップグレードしてやれば激務を乗り越えられるはずだ!!!つってクソデカ出費してしまいそう。
RTX 4070ほしいよ〜〜。GTX 1070Tiからアップグレードしたいよ〜〜。
でも、RTX 4070のメモリーが12GBなので、GTX 1070Tiの8GBから1.5倍にしかならなくて、ちょっと「なんかちがうくない?」ってなる。

研究室のGPUマシンにOllama突っ込んで、VSCodeつなぐか。むしろ、研究室のGPUマシンにCoderとか入れたら良いのかも。