あれ2025/7/31 15:21:00 『コーパスの逆蒸留』 次に読みたい: 『A Survey on Dataset Distillation: Approaches, Applications and Future Directions』学習データ蒸留についての論文『Knowledge Unlearning for Mitigating Privacy Risks in Language Models』逆学習についての論文『DExperts: Decoding-Time Controlled Text Generation with Experts and Anti-Experts』対照的デコーディングについての論文『Contrastive Decoding: Open-ended Text Generation as Optimization』対照的デコーディングについての論文
『[2105.03023] DExperts: Decoding-Time Controlled T...2025/7/31 15:19:00 https://arxiv.org/abs/2105.03023