t_wの輪郭

Feedlyでフォローするボタン
ろんぶん
2023年11月16日日記1時間で資料の第0稿をでっち上げる必要が出た『体験の観察が well-being を向上させる条件 ―無執着の観点から―』『新しい計画と管理の技法』論文指導トレイトに関する論文がある卒業論文論文の著作権修士論文論文を書きたくないあれ論文には著作権がある『学術誌や学会誌の論文と著作権について』デライト及び輪郭法を論文にする論文を書くhttp://ymatsuo2.sakura.ne.jp/surveyscript/survey.htm『Be Your Own Teacher: Improve the Performance of Convolutional Neural Networks via Self Distillation』輪郭法の論文論文管理高田論文学術論文論文のテンプレート『Object- Oriented User Interfaces and Object-Oriented Languages』あれ論文は結果であって目的ではない論文を読む『ほぼ毎日論文を読んで365日になった! - noki - Medium』論文執筆『Leveraging Intent Detection and Generative AI for Enhanced Customer Support』『graph-based-deep-learning-literature/conference-publications at master · naganandy/graph-based-deep-learning-literature』Readable論文読み読んだ論文を生成AIに説明する論文博士『Challenges in applying large language models to requirements engineering tasks』『LLM‐based Approach to Automatically Establish Traceability between Requirements and MBSE』『LLM-Based Multi-Agent Systems for Software Engineering: Literature Review, Vision and the Road Ahead』『大規模言語モデルによる要求仕様書の品質評価』『Natural language processing: state of the art, current trends and challenges』『DTGB: A Comprehensive Benchmark for Dynamic Text-Attributed Graphs』『Large Language Models on Graphs: A Comprehensive Survey』『Revisiting Model Stitching to Compare Neural Representations』『Explanatory models in neuroscience: Part 2 – constraint-based intelligibility』『When Do Curricula Work?』『TrendScape 1.0: 言語モデルの潜在空間上の概念探索』『Adversarial Examples Are Not Bugs, They Are Features』『nl2spec: Interactively Translating Unstructured Natural Language to Temporal Logics with Large Language Models』『Japanese MT-bench++: より自然なマルチターン対話設定の 日本語大規模ベンチマーク』Obsidianの論文『An LLM Compiler for Parallel Function Calling』『Counterfactual Token Generation in Large Language Models』学術雑誌『Temporal Database Management and the Representation of Temporal Dynamics』『作業記憶の発達的特性が言語獲得の臨界期を形成する』『Catastrophic forgetting in connectionist networks』『Overcoming catastrophic forgetting in neural networks』『Train Short, Test Long: Attention with Linear Biases Enables Input Length Extrapolation』『BabyBERTa: Learning More Grammar With Small-Scale Child-Directed Language』『Intelligent Scheduling with Reinforcement Learning』『Distributionally Robust Optimization』『Stochastic model for physician staffing and scheduling in emergency departments with multiple treatment stages』『High-dimensional multi-period portfolio allocation using deep reinforcement learning』『Knowledge Unlearning for Mitigating Privacy Risks in Language Models』『A Survey on Dataset Distillation: Approaches, Applications and Future Directions』『Contrastive Decoding: Open-ended Text Generation as Optimization』『DExperts: Decoding-Time Controlled Text Generation with Experts and Anti-Experts』『Injecting Knowledge Graphs into Large Language Models』『モデル拡張によるパラメータ効率的な LLM の事前学習』『Neocognitron: A self-organizing neural network model for a mechanism of pattern recognition unaffected by shift in position - Fukushima1980.pdf』『Automated Progressive Learning for Efficient Training of Vision Transformers』『Towards Adaptive Residual Network Training: A Neural-ODE Perspective』『GaLore: Memory-Efficient LLM Training by Gradient Low-Rank Projection』『ReLoRA: High-Rank Training Through Low-Rank Updates』『Multi-level Residual Networks from Dynamical Systems View』

あれ

2024/8/4 23:53:00

うおお!探してた論文見つかった!!

日本語で探してもなしのつぶてだけども、英語で探すと見つかるな。こういうのは。

2023年11月16日日記

2023/11/16 22:57:00

 昨日、狂ったようにプログラムを書いた反動で頭がうまく働かなかった。knownetでAPIを叩いている部分をNext.jsServer Actionで置き換えようとしたが、理解が足りずにうまく動かずにいる。3000行ほど書いたけど全部捨てよっか。
 とりあえず、AmplifyGraphQL APIを叩くにおいては認証(認可?)でnext/headersを使わずにdocument.cookieを使った方が良いということがわかった。next/headersを使うと、Server Actionの呼び出し元のComponentに始まり、すべての呼び出し元となるComponentをServer Component(RSC?)にしないと動かなくなってしまう。しかもそれが連鎖するので影響範囲がでかい。地獄。サンプルでnext/headersを使うのをやめろ。


 副業の受注が確定した。コンペで競合がつよつよエンジニア出してきてたらしいけど、私が勝った。イエーイ。単価が安すぎる説はある。
 Cartesian Genetic Programmingで文章の類似度を学習をやってたこととかを伝えたのが効いたのだろう。怪しい研究はしておくものだ。怪しさ故に「やっとるな」って感じが出て良い。もちろんBERTのファインチューニングみたいな王道についてもやったことがあることを伝えておいた。


 なんか大学の研究室で客員研究員をやらせてもらえそうな感じになっている。副業先への仲介をしてくれる会社の社長が、大学で教授をやっており、「どう?」という感じで声を掛けられた。やわ。大学行き直したいとか思っていたので、渡りに船だ。特に今の会社をやめる必要もなく、研究成果が出たら論文を出して博士号とろうぜという感じらしい。無職になって学費を払って大学に行くことを考えていたので、そんな都合の良いことをやっていいんだとなった。今までよくわからんものを作ってきたのが論文にできるかもしれない。


 夕飯のあと、どうも物足りなかったので、買い置きたるを食べた。焼き栗のつもりで食べたら生だった。生でも甘みが感じられる。すごい。15分焼いたら半生だった。45分ほど焼いたらそれなりになった。そうこうしているうちに満腹中枢が刺激され、物足りなさは消えていた。

あれ

2022/11/14 20:37:00

 あー、論文書くこととか、自己組織化とか、クラスタリングとか考えてると、大学戻りたくなるな。転職せずに大学行っちゃってもよかったかも。

 いや、しかし、また金を払って労働のようなことをするのはきつい。

 いまさらになって論文読み放題の立場に戻りたい。あと、大学図書館。

輪郭法の理解が進めば書けるのでは?
論文を出せば、学術関係の人にデライトを広められるのでは?
いや、いっそ本にしてしまうのも良いか。
実現にこぎつけられるかは結構怪しい。

情動適応とは、出来事に繰り返し曝される事で情動反応が減衰していく心理過程のことBPM(仏教心理学モデル)は,原始仏教における瞑想の作用メカニズムを心理学的に解釈したもの 自己注目とは,自身の思考や考えに注意を向けることマインドワンダリングは、その時の活動とは無関連の思考や感情に注意が向けられることマインドワンダリングは well-being に悪影響エカニミティがwell-beingを改善する呼吸よりも身体や五感に集中する方がwell-beingが向上するあれ体験の観察には well-being を高める働きがある体験の観察によって、ワーキングメモリ容量や、認知的柔軟性が高まるあれ体験の観察が高い人は,勉強や仕事のパフォーマンスが高い仏教心理学モデルでは受への過剰な注目が不適応の原因とされている仏教心理学モデル受は刺激を受けた時に生じる自動的,即時的な微細な情動経験自己注目は抑うつや社交不安と関連がある非機能的な自己注目は反芻,機能的な自己注目注意訓練は幸福感を高める受は,快,不快, 中性の 3 つに分類される瞑想をすると扁桃体が縮小する

https://arxiv.org/abs/1905.08094


すごい論文。自己蒸留と言っているが、最終層の出力と、中間層の出力を近づけるような制約を入れることで、最終層の結果をより早く出せるようになり、結果として最終層の精度が上がる。(エージェント的により早く予測するものが生き残るという考え方とも共通。)CIFAR100やImagenetのtop-1で1-2%あがっている感じ。かなり大きい上がり幅。
http://ymatsuo2.sakura.ne.jp/surveyscript/survey.htm