あれ2024/5/15 12:48:00 VSCodeの拡張機能のContinueと、Ollamaを組み合わせると、ローカルのLLMがコードを書いてくれるようになるぞ。 ただし品質と生成速度はLLMモデル並びにそれを動かすPCのスペックで決まる。