あれ
2025/7/31 15:21:00
次に読みたい:
- 『A Survey on Dataset Distillation: Approaches, Applications and Future Directions』
- 学習データ蒸留についての論文
- 『Knowledge Unlearning for Mitigating Privacy Risks in Language Models』
- 逆学習についての論文
- 『DExperts: Decoding-Time Controlled Text Generation with Experts and Anti-Experts』
- 対照的デコーディングについての論文
- 『Contrastive Decoding: Open-ended Text Generation as Optimization』
- 対照的デコーディングについての論文