t_wの輪郭

Feedlyでフォローするボタン
論文論文を読む論文読みStack
Obsidianの論文言語処理学会第31回年次大会表彰論文『Planning for AGI and beyond』Cleeremans, Axel, et al. "Learning to be conscious...『Learning Finite State Representations of Recurren...『Neurosymbolic AI: The 3rd Wave』『FROM CHAOS TO QUALIA AN ANALYSIS OF PHENOMENAL CH...『Process and Time』『ROUGE: A Package for Automatic Evaluation of Summ...『GSPMD: General and Scalable Parallelization for M...『Learning from Randomly Initialized Neural Network...『How Creative Writers Integrate AI into their Writ...『STUDENTS’ REAL USE OF TABLETS IN A HIGHER EDUCATI...『CONTINUOUS EDUCATION FOR TEACHER EMPOWERMENT』『POTENTIALS OF KNOWLEDGE MANAGEMENT SYSTEMS IN HIG...

Stack

  • 『埋め込み表現の独立成分の言語内・言語間一貫性の分析』
  • 『構成的汎化におけるTransformerの内部機序の分析』
  • 『ダイアグラム理解に向けた大規模視覚言語モデルの内部表現の分析』
  • 『Sparse Autoencoders as a Tool for Steering the Output Language of Large Language Models』
  • 『Cognitive Preference Optimization: 脳情報による言語モデルの選好最適化』
  • 『事例ベース意思決定理論に基づく復号』
  • 『大規模言語モデルを用いたシフト還元型句構造解析』
  • 『Triple-Phase Transition: 脳との関係から捉える大規模言語モデルの学習ダイナミクス』
  • 『Swallow LLM』
  • 『意思決定を指標とする生成テキスト評価:アマチュアと専門家への影響分析』
  • 『コーパスの逆蒸留』
  • 『似た単語の知識ニューロンは似た形成過程を経る』
  • 『LM は日本の時系列構造をどうエンコードするか』
  • 『人間と LLM の "面白さ"の感性は一致するのか?』
  • 『LLMマルチエージェント間の相互作用の分析』
  • 『多角的な評価から大規模言語モデルにおける事実知識の想起の要因分析』
  • 『訳出の同時性に特化した評価データを用いた同時音声翻訳モデルの評価と分析』
  • 『コーパスの逆蒸留』
  • 『対照学習を用いたhallucination検出手法』
  • 『大規模言語モデルは他者の心をシミュレートしているか』
  • 『書き手の孤独感を予測できるか?』
  • 『対象言語・対象単語を選ばない汎用的な文法化度の定量化手法』
  • 『JETHICS: 日本語道徳理解度評価用データセット』
  • 『大規模画像言語モデルは物体の裏側を認識できるか?物体の見えない部分の認識を問うタスクの提案』
  • 『AnswerCarefully: 日本語LLM安全性向上のためのデータセット』
  • 『語形のベクトル化による最適な言語地図の描画』
  • 『大規模言語モデルの分布予測における常識に基づいた割合予測能力の評価』
  • 『Mitigating Social Bias in Large Language Models by Self-Correction』
  • 『LLM-jp-3 VILA: 日本語マルチモーダルデータセット及び強力な日本語マルチモーダルモデルの構築』
  • 『複数タスク・複数項目に跨ったマルチモーダル自動評価手法』
  • 『Asagi: 合成データセットを活用した大規模日本語VLM』
  • 『大規模視覚言語モデルにおける言語タスクに対する視覚情報の影響』
  • 『Mixture-of-Expertsの悲観的な統合による頑健な自然言語理解』
  • 『自閉スペクトラム症の眼球運動による言語モデルのファインチューニング』
  • 『拡散モデルを用いたテキスト生成における「崩壊問題」と時刻埋め込みの影響』
  • 『メッセージの階層構造を把握するための parsing action がランダムではないのはなぜか?』
  • 『訓練・推論時の不一致を解消する離散拡散テキスト生成モデル』
  • 『ReShape Attentionによる音声と言語の基盤モデルの統合』
  • 『FaithCAMERA: 広告文生成タスクのための忠実性を担保した評価データセットの構築』
  • 『whole-NWJC: 『国語研日本語ウェブコーパス』全データ』
  • 『多言語での判例事実概要からの法的関係性のグラフ可視化』
  • 『大規模言語モデルは日本語・中国語の状態パーフェクトを理解できるか?』
  • 『Sketch2Diagram: 視覚的指示を入力とするダイアグラム生成』
  • 『日本語Full-duplex音声対話システムの試作』
  • 『逆プロンプトを用いたコールドスタート推薦』
  • 『JMED-DICT: 大規模医療用語辞書の構築』
  • 『VDocRAG: 視覚的文書に対する検索拡張生成』
  • 『視覚情報による曖昧性解消コーパスの検討』
  • 『バックトラッキングを活用したマルチエージェントシステムによる複数制約充足プランニング』
  • 『不均衡最適輸送を用いた意味変化検出』
  • 『CCGによる日本語脳波データのモデリング』
  • 『リアルタイム音声対話システムのための応答タイミングと短文応答の同時予測』
『作業記憶の発達的特性が言語獲得の臨界期を形成する』『クレオールは計量的に峻別できるか?』『ベイズ教師なし文境界認識』『テキスト生成における最小ベイズリスク復号の理論的な理解に向けて』『ウェーブレット位置符号化』『llm-jp-judge: 日本語LLM-as-a-Judge評価ツール』『コーパスの逆蒸留』『モデル拡張によるパラメータ効率的な LLM の事前学習』『音素の合成性を仮定した連続信号をサインとした分散的ベイズ推論に基づく記号創発』『難易度調整可能な多枝選択式読解問題自動生成手法とDirect Preference Optimiz...『意思決定を指標とする生成テキスト評価:アマチュアと専門家への影響分析』『大規模言語モデルにおけるIn-context Learningの推論回路』『言語のインクリメンタルな処理の仕組みは普遍的か?:投機性によるparsing strategy再考...『大規模言語モデルの再パラメタ化に基づく初期化による損失スパイクの抑制』『ニューラルかな漢字変換システム Zenzai』『Transformer LLMにおける層単位のFFN層の重要度検証』『IMPARA-GED:言語モデルの文法誤り検出能力に着目した文法誤り訂正の参照文なし自動評価』『llm-jp-eval-mm: 日本語視覚言語モデルの自動評価基盤』『Ruri: 日本語に特化した汎用テキスト埋め込みモデル』『言語モデルの事前学習におけるバリエーションセットの効果』『認知負荷の最適化戦略としての自由語順と項省略』『層の冗長性と層同士の独立性に基づく言語モデルの層交換の成否の特徴づけ』『判決書要約文の自動評価』『大規模言語モデルにおいて数値属性間で共有されるスケーリングベクトルの解析とその応用』『Wikidataに基づく大規模ジオコーディングデータセット』『言語モデルのふるまいと多重実現』