『XユーザーのRyobotさん: 「Attention Is All You Need の詳細な解説を書きました (4日目). LSTM も CNN も使わず Attention こそ最強だと証明した機械翻訳の現王者です. 加法注意・内積注意・ソースターゲット注意・自己注意の違いをわかりやすく説明しています. https://t.co/U4IGWOzK8T」 / X』2024/12/21 18:56:00 https://x.com/_Ryobot/status/943781025108213760
『XユーザーのRyobotさん: 「ぼくがまだ学生でTransformerの論文解説を日本で初めて書いてから7年が経った この頃はDeep Learningにのめり込んでいたというか、数学的に理解したい衝動に取り憑かれていたな」 / X』2024/12/21 18:56:00 https://x.com/_Ryobot/status/1870397584101318889