『論文解説 Attention Is All You Need (Transformer) - ディープラーニングブログ』2024/12/21 18:56:00 https://deeplearning.hatenablog.com/entry/transformer
『XユーザーのRyobotさん: 「Attention Is All You Need の詳細な解説を書きました (4日目). LSTM も CNN も使わず Attention こそ最強だと証明した機械翻訳の現王者です. 加法注意・内積注意・ソースターゲット注意・自己注意の違いをわかりやすく説明しています. https://t.co/U4IGWOzK8T」 / X』2024/12/21 18:56:00 https://x.com/_Ryobot/status/943781025108213760