あれ2025/7/31 15:21:00 『コーパスの逆蒸留』 次に読みたい: 『A Survey on Dataset Distillation: Approaches, Applications and Future Directions』学習データ蒸留についての論文『Knowledge Unlearning for Mitigating Privacy Risks in Language Models』逆学習についての論文『DExperts: Decoding-Time Controlled Text Generation with Experts and Anti-Experts』対照的デコーディングについての論文『Contrastive Decoding: Open-ended Text Generation as Optimization』対照的デコーディングについての論文
『[2210.15097] Contrastive Decoding: Open-ended Text Generation as Optimization』2025/7/31 15:20:00 https://arxiv.org/abs/2210.15097