https://github.com/continuedev/continue
continue
2024/3/3 20:56:00
VSCodeの拡張機能のContinueと、Ollamaを組み合わせると、ローカルのLLMがコードを書いてくれるようになるぞ。
ただし品質と生成速度はLLMモデル並びにそれを動かすPCのスペックで決まる。
Ollamaとcontinueつかって、ローカルのマシンで動くCodeGPTPlus/deepseek-coder-1.3b-typescriptにコード書かせてたら、こんなん失職やんとなった
M2 MacBookで動く程度の小規模なLLMが、使い物になってるってのが怖い。
まだ完全に置き換えられるレベルじゃないけど、あっという間に賢くなると思う。
指数関数的に増加するものがどれだけの速度で変化するかを我々は知識として知っている。