『MacBook M4 Max isn't great for LLMs : r/LocalLLaMA』2025/4/20 9:44:00 https://www.reddit.com/r/LocalLLaMA/comments/1jn5uto/macbook_m4_max_isnt_great_for_llms/
『Xユーザーのうみゆき@AI研究さん: 「MacBookM4MaxでローカルLLMでClineやってみたけどおせーしアホだし使いもんになんねーという話。まあそうでしょう。いまどき無料でGemini2.5ProでClineできるのに、ローカルLLM使うのが有用な局面なんてほとんどない。ただ、コメントで「ClineのクソデカプロンプトがネックならSynthLang使ってみれば?」 / X』2025/4/20 9:43:00 https://x.com/umiyuki_ai/status/1906323570558746660