t_wの輪郭
RSS
hardmaru
Sakana AI
2024/7/7 8:46:00
EvoLLM-JP-v1-7B
hardmaru
『Can LLMs invent better ways to train LLMs?』
tsuzumi
TinySwallow-1.5B
LLM
Sakana AI
TinySwallow-1.5B
2025/1/31 21:06:00
『Sakana AI、新手法「TAID」によって蒸留された高性能SLM「TinySwallow-1.5B」を公開 | gihyo.jp』
やりたいこと2025年2月1日
『SakanaAI/TinySwallow-ChatUI: Browser-based chat UI for TinySwallow-1.5B that runs without API calls.』
『TinySwallow-1.5B Chat』
『XユーザーのSakana AIさん: 「この度、新手法「TAID」を用いて学習された小規模日本語言語モデル「TinySwallow-1.5B」を公開しました。 https:t.co/U7qpbz2BgL 私たちは、大規模言語モデル(LLM)の知識を効率的に小規模モデルへ転移させる新しい知識蒸留手法「TAID (Temporally Adaptive Interpolated https:t.co/OUCy71ho42」 / X』
『新手法「TAID」を用いた小規模日本語言語モデル「TinySwallow-1.5B」の公開』
『TinySwallow - a SakanaAI Collection』
ollama run https://huggingface.co/SakanaAI/TinySwallow-1.5B-Instruct-GGUF
LLM
Sakana AI
NTT
tsuzumi
2024/8/23 22:54:00
『NTT、AIで描く脱・通信依存 コンサル新会社を設立 - 日本経済新聞』
Sakana AI
hardmaru
2024/7/7 8:46:00
https://x.com/hardmaru
Sakana AI
あれ
LLM
自己改善
Sakana AI
『Can LLMs invent better ways to train LLMs?』
2024/7/7 8:45:00
https://sakana.ai/llm-squared/
あれ
日本語LLM
Sakana AI
EvoLLM-JP-v1-7B
2024/3/30 14:21:00
『SakanaAI EvoLLM-JP-v1-7Bを試した。これからのマルチモーダルAIに必要なデータについて』