『自分の過去ツイートでrinna/japanese-gpt-neox-3.6bをfinetuningして「俺tter」を生成する』2023/6/10 13:03:00 https://note.com/eurekachan/n/n899132477dff
『LLMのファインチューニングを他手法との違いから理解する(Part 1)』2024/3/10 13:54:00 https://dalab.jp/archives/journal/llm-finetuning-part1/
あれ2024/4/22 18:54:00 llama.cppでfinetuningためしとるけども、全然うまくいってないな。 素直にTransformers使うべきなんか。 でもなーPythonやだしなー。