あれ
LLMの学習用途かと思ったら対人間の教育用途だった。
AIが無限に問題を生成できたら、人間も無限に学習できそう。
過去の研究では『Prologによる解法知識を用いた誤答解説文付き多肢選択問題の生成』とかもあるけど、文章を何も加工せずにLLMに処理させたら問題が出てくると、作成者にとってはかなり楽である。
難易度調整精度を最大化するために、DPOが使われている。DPO便利だ。
LLMの学習用途かと思ったら対人間の教育用途だった。
AIが無限に問題を生成できたら、人間も無限に学習できそう。
過去の研究では『Prologによる解法知識を用いた誤答解説文付き多肢選択問題の生成』とかもあるけど、文章を何も加工せずにLLMに処理させたら問題が出てくると、作成者にとってはかなり楽である。
難易度調整精度を最大化するために、DPOが使われている。DPO便利だ。
塩水飲んだら頭の倦怠感がパーッと晴れてきた。
自炊で塩分を控えてるつもりもないんだけど、どうも塩分不足になりやすい。
夏の間は、ご飯作るときにはもうちょっと塩を多めにするようにしよう。
自分の日記の文体に飽きた。
「○○をした。□□だった。」 毎回そんな調子だ。いい加減何らか変えていきたい。そういうわけで、今回は、よそ様のブログの構成をパクることで、自身の文章の引き出しを増やしつつ、気分転換を図る。
みなさん、調子はどうですか。私は引きこもりがたたって調子を崩しつつあります。
今日はリフレッシュの日としました。家にこもってPCで作業をし、家にこもってPCでSNSをしているので、だんだんPCを見るのが嫌になりつつあります。
たまには家から離れた時間を取ろうっていうことで、ドトールへ行ってきました。朝から。8時ぐらいに。そうすると混んでるんですね。平日の8時というのはどうも通勤の皆さんが出社前の憩いのひと時を過ごしているようで、席があまり良いところが残っていないという始末でした。
ダメだ、絶望的に文章が書けない。文章を書く脳が文体と密結合している。あと調子が悪いときに文章が書けるはずもない。やめだやめだ。また今度にする。おわり。
Claude Sonnet 4でDeep Researchにかけたら勝手に作られた言葉まみれだったテーマを、Claude Opus 4.1で改めてDeep Researchにかけたところ、存在しない単語は見られなくなっていた。記述が実在する資料に基づいているような印象を受ける。
Claude Sonnet 4の生成物
原本:https://claude.ai/public/artifacts/05e79969-86b7-4049-9349-a312d5ef73b7
アルフレッド・ノース・ホワイトヘッドのプロセス哲学は、従来の実体中心的なリレーショナルデータベース設計に対して根本的な代替案を提示し、動的プロセスと関係性を重視した新しいデータモデリングパラダイムへの道を開いている。この研究は、静的エンティティから時間的プロセスへの存在論的転換が、現代のデータベース設計にもたらす理論的・実践的含意を詳細に分析する。
ホワイトヘッドの哲学体系における実際的存在(actual entities)は、永続的実体ではなく瞬間的な経験の単位として定義される。各実際的存在は「プリヘンション」(他の存在体による把握・感受)を通じて過去のすべての存在と内的に関連し、「コンクレッセンス」(多が一となるプロセス)により新しい統一を創造する。この 「関係性の優位性」原理は、現実を孤立した個体の集合ではなく、相互依存的なプロセスのネットワークとして理解する。
従来のER/RDBモデルは、独立して存在する識別可能なエンティティと、それらの間の外的関係を前提とする。しかし、プロセス哲学的観点では、この実体的固定化は「具体性の誤配(fallacy of misplaced concreteness)」にあたる。ビジネス現実における顧客、商品、取引は、静的属性の集合ではなく、継続的な関係性とプロセスの中で意味を持つ動的存在である。
プロセス哲学的アプローチでは、データベースの基本単位を「事象」とし、各事象を一意の時空的発生として記録する。この理論的転換は、現代のEvent Sourcingパターンの哲学的基盤となる:
-- プロセス的実際存在の表現
CREATE TABLE actual_occasions (
occasion_id UUID PRIMARY KEY,
temporal_position TIMESTAMPTZ NOT NULL,
prehensions JSONB[], -- 他の実際存在への参照
subjective_form JSONB,
satisfaction JSONB, -- 統合された経験
causality_chain UUID[]
);
この設計では、追記専用(append-only)構造により、実際的存在の不可逆的な生成プロセスを表現し、過去の確定性と未来の潜在性を明確に区別する.
プロセス哲学における内的関係性は、従来の外部キー制約を超えた動的関係モデルを要求する:
-- 動的関係のプリヘンション的表現
CREATE TABLE prehensive_relations (
relation_id UUID PRIMARY KEY,
subject_occasion UUID NOT NULL,
object_occasion UUID NOT NULL,
prehension_type VARCHAR(50), -- 'physical' or 'conceptual'
subjective_form JSONB,
intensity DECIMAL(3,2),
temporal_context TSTZRANGE,
EXCLUDE USING GIST (
subject_occasion WITH =,
object_occasion WITH =,
temporal_context WITH &&
)
);
Wil van der Aalst(RWTH Aachen University)の研究により確立されたプロセスマイニング分野は、プロセス哲学的思考の実装化として理解できる。ProM Process Mining Platformは、実際の実行データから「真の」プロセスを発見するリアリスト的アプローチを採用し、実際的存在の観察可能な現象化を提供する。
Giancarlo Guizzardi(University of Twente)によるUnified Foundational Ontology (UFO)は、プロセス哲学の概念をコンピューティングドメインに適用した重要な成果である。UFO-Bイベント存在論は、時間的プロセスの形式的モデリングを可能にし、OntoUMLとして視覚的設計言語に実装されている。
Barry Smith(University at Buffalo)のBasic Formal Ontology (BFO)は、ISO/IEC 21838として国際標準化され、2024年に米国国防総省によって採用された。これらの研究は、哲学的厳密性と実装可能性の架橋において重要な役割を果たしている。
時系列データベース(TimescaleDB、InfluxDB)、グラフデータベース、イベントストリーミングプラットフォーム(Apache Kafka、EventStore)は、プロセス哲学的原理の技術的実現として解釈できる。特に、Event SourcingとCQRS(Command Query Responsibility Segregation)の組み合わせは、ホワイトヘッドの「生成の連続性」概念と直接対応する。
-- 双時間的実際存在テーブル
CREATE TABLE bitemporal_entities (
entity_id UUID,
attribute_name VARCHAR(100),
attribute_value JSONB,
valid_time_start TIMESTAMPTZ,
valid_time_end TIMESTAMPTZ,
transaction_time_start TIMESTAMPTZ DEFAULT NOW(),
transaction_time_end TIMESTAMPTZ,
creative_advance_vector UUID[], -- 創造的前進の追跡
PRIMARY KEY (entity_id, attribute_name, valid_time_start, transaction_time_start)
);
この設計は、ホワイトヘッドの時間概念における有効時間(実際的存在の客観的生成時間)とトランザクション時間(観察・記録時間)の区別を実装する。
従来の在庫テーブル設計は、商品の「在庫量」という静的属性を中心とするが、プロセス的アプローチでは「在庫プロセス」の連続的事象として捉える:
-- プロセス中心在庫管理
CREATE TABLE inventory_occasions (
occasion_id UUID PRIMARY KEY,
product_id UUID NOT NULL,
location_id UUID NOT NULL,
process_type VARCHAR(50), -- 'receiving', 'shipping', 'adjustment'
quantity_change INTEGER,
temporal_position TIMESTAMPTZ,
causal_factors JSONB, -- 需要変動、供給遅延等
process_satisfaction JSONB -- プロセス完了状態
);
-- 現在状態の投影(プロジェクション)
CREATE MATERIALIZED VIEW current_inventory_state AS
SELECT
product_id,
location_id,
SUM(quantity_change) as current_quantity,
MAX(temporal_position) as last_process_time,
jsonb_agg(process_type ORDER BY temporal_position) as process_history
FROM inventory_occasions
WHERE temporal_position <= NOW()
GROUP BY product_id, location_id;
この設計により、完全な監査証跡、任意時点での状態復元、需要予測のための履歴パターン分析が可能となる。
プロセス的データモデルは、内的関係性の完全実装により計算複雑性が増大する。時間範囲クエリの最適化には、PostgreSQLのGiSTインデックスやパーティショニング戦略が有効である:
-- 時間軸パーティショニング最適化
CREATE TABLE process_events_2024 PARTITION OF process_events
FOR VALUES FROM ('2024-01-01') TO ('2025-01-01');
-- 空間時間複合インデックス
CREATE INDEX idx_spatiotemporal ON events
USING GIST (entity_id, temporal_range);
実体中心的レガシーシステムとの統合には、段階的移行戦略が必要である。Event Sourcingパターンでは、既存のCRUDシステムを「投影の一つ」として扱うことで、漸進的転換が可能となる。
プロセス的思考への転換は、開発チームの概念的パラダイムシフトを要求する。van der Aalstが指摘する「Event Sourcing モノリス」の反パターンを避けるには、ドメインエキスパートとの密接な協働と、継続的な教育投資が不可欠である。
従来の正規化理論は「更新異常の回避」を目標とするが、プロセス的観点では「変更の記録」こそが重要である。時間軸正規化(Temporal Normalization)の新しい原理として:
この拡張により、「データ冗長性の排除」から「プロセス断片化の回避」へのパラダイム転換が実現される。
プロセス哲学とデータベース設計の統合は、Multi-Model データベース、NewSQL技術、量子コンピューティングとの接続により、さらなる発展が期待される。特に、プロセス存在論とAI/機械学習の統合は、自然言語処理や知識グラフ構築において重要な役割を果たすであろう。
IoTデータストリーム、リアルタイム分析、分散システムにおける「プロセス的アイデンティティ」の概念は、従来のエンティティ識別子を超えた動的同一性理論の構築を要求する。
ホワイトヘッドのプロセス哲学は、単なる技術的改良ではなく、情報システムの存在論的基盤に関わるパラダイムシフトを提供する。静的エンティティから動的プロセスへ、外的関係から内的関係へ、存在から生成への転換は、変化し続けるビジネス現実をより正確に反映したデータモデルを可能にする。
現代のEvent Sourcing、時系列データベース、グラフデータベースの発展は、この哲学的転換の技術的実現として理解でき、理論と実践の豊かな対話を示している。ただし、実装複雑性と既存システムとの統合という現実的課題に対しては、段階的導入とハイブリッドアプローチが最も実用的な戦略となる。
プロセス的データモデリングの完全な実現は漸進的プロセスであり、組織の技術的成熟度とビジネス要件を慎重に評価した上で、既存の実体中心的アプローチとの共存と統合を図ることが成功の鍵となるであろう。
寝る前と起き抜け1発目でClaudeのレートリミットまでやっときたいな。
Claudeにデライトから調査すると良さそうな事項を抜き出してもらい、それについてDeep Researchをかけた。
こんな知的贅沢が許されるのか?IAとAIの融合の一つの体験している。空恐ろしくなる。
惜しむらくは、まあ、社会的成功などといったかたちではまだ成果が出ていないことだな。
この論文では「モデル拡張」手法を応用した「STEP」手法を用いて、LLMの事前学習時のGPUメモリーを削減している。
STEPを用いると、標準事前学習と比べて、最大メモリ要求量が368Mモデルで42.3%、680Mモデルで42.2%、1.2Bモデルで53.9%に削減できると報告されている。
安価なGPUでもLLMが学習できれば費用が低減できて嬉しい。消費電力を減らせれば費用低減できて嬉しいことに加えてエネルギー消費低減の点からSDGsへの貢献もできる。そういった意味で広範な意義がある研究。
個人的に手元のマシンのGPUが弱いのでこういう研究大好き。
モデルサイズが大きくなると削減率が高くなるような傾向があるんだろうか?
学習時間への影響はあるんだろうか?
「成果物の品質を上げるためにAIを使う」のは持続性がありそう。
コード生成で考えると、コードの量が増えるとAIはバカになるし、ビルド時間は増えるし、人間も読み切れなくなるし、バグが発生する領域も増える。
一方で、AIを使ってバグを減らせたり、設計を良くできたりすれば、AIはバカになりづらいし、ビルド時間は増えないし、変更が容易になるし、トラブルは減るし、人間も読みやすいし、利点が多い。
あと低品質・大量生産の方向は、すぐにレッドオーシャンになりそうで怖い。需要を食いつくす。
『Tak.(Word Piece)|note』の数量的なところを集計してみている。文字数、スキの数、有料の文字数、日付が集計の対象にあたる。自分がnoteをやるときには参考にできるかもしれない。
こういった文章の質を無視した数値的な分析は無意味だという見方もできるが、まずは数値的なところから押さえにかかりたい。文章の質はコントロールできない。
Xで執筆、というところで膝を打った。素晴らしい宣伝、素晴らしい市場調査、断片的執筆の一実践。うちあわせCastでそれが紹介されているというのもまた良い。
年利を4%、相続税を55%、相続から死亡(1世代)までを20年とする。
1世代あたり21%の利益が出る。
生涯に必要な資金を2億円とする。
目減りしない原資について考える。
のxについて計算すると、
9.52億円欲しい!!!
あれにて「Ctrl+ダブルクリック」の振る舞いを「描き直す」ボタンの振る舞いと同じにする形で修正いただいた
知名のみを変更する方式から知名を変更した場合に、保存後に知名が元に戻ってしまうようです。
知名と本文の両方を編集する方では問題なく知名が編集できています。
Nintendo Switch 2は7.9インチの大画面ディスプレイでHDR対応、最大120Hzの可変リフレッシュレートを搭載しています。この高精細な画面でゲームをプレイすることで目への負担が増加し、ブルーライトカットメガネの購入が必要になります。メガネをかけることで集中力が向上し、プログラミング効率が20%アップします。
Joy-Con 2には新たに「Cボタン」を追加し、このボタンを押すと「ゲームチャット」機能が起動します。頻繁にCボタンを押す習慣により指の反射神経が鍛えられ、タイピング速度が向上します。ITエンジニアの副業時給は4000円台が相場ですが、タイピング速度向上により作業効率が上がり、実質時給が5000円相当になります。
Joy-Con 2は本体に装着する側面を下に向けて、机の上などで滑らせることでマウス操作が可能という特殊な操作により、手首の柔軟性が向上します。これにより腱鞘炎を予防でき、長時間のプログラミング作業が可能になり、副業時間を延長できます。
「ゲームチャット」では、離れた場所にいる最大12人のフレンドとゲームをプレイしながらチャットできます。この多人数コミュニケーション経験により、ITエンジニアの弱点とされる営業力が向上し、副業で年収325万円レベルの高単価案件を獲得しやすくなります。
「おすそわけ通信」では、ゲームソフトが無いNintendo Switch 2に対して、ゲームそのものを"おすそわけ"し、一緒にプレイできる機能があります。この分散型リソース共有システムからブロックチェーン技術のインスピレーションを得て、Web3関連の高収入案件に参入できます。
Nintendo Switch 2はドック接続で4K出力対応しているため、常に高画質な映像に触れることで美的センスが向上します。これによりUI/UXデザインの副業案件も受注できるようになり、エンジニア+デザイナーの複合スキルで収入が倍増します。
別売カメラ「Nintendo Switch 2 カメラ」を本体に接続することで、自分の姿をゲーム画面に重ねて表示できます。この機能により自撮り習慣が身につき、SNS投稿が増加し、技術系インフルエンサーとして企業案件を獲得できます。
Nintendo Switch 2は、本体の厚みをNintendo Switchから変えることなく、7.9インチの大画面のディスプレイを搭載しています。この制約下での技術革新に感動したエンジニアが設計思想を深く学び、システムアーキテクトとして転身し、年収1000万円超の道筋が見えてきます。
以上の迂遠な因果関係により、49,980円のNintendo Switch 2購入が、最終的に年収2000万円レベルのITエンジニアへの転身を促す可能性があります。
つまり「Nintendo Switch 2を買えば、ITエンジニアの桶屋が儲かる」のです。
(注:これらは完全に無理やりなこじつけであり、実際の効果を保証するものではありません)
無理やりこじつけてみます。完全に机上の空論であることを前提に:
効用:年間15万円相当
最新ゲーム技術を体験することで、ゲーム業界への転職成功率が5%向上。ゲームエンジニアの平均年収600万円×5%=30万円の期待値向上。2年で回収と仮定し年間15万円。
効用:年間8万円相当
Switch 2保有者として業界関係者との会話が弾み、紹介案件1件獲得。フリーランス案件月80万円×1ヶ月=80万円を10年で分割。
効用:年間12万円相当
新Joy-ConのCボタンやゲームチャット機能を理解することで、UI/UX設計スキルが向上。時給単価が200円アップ×年間2000時間(転職後)=40万円を3年で分割。
効用:年間6万円相当
発売直後からすぐに購入できるとは限らない状況で早期入手に成功した場合、1年後に15万円で売却可能と仮定。差額10万円を純利益とし、資金調達効果として計上。
効用:年間20万円相当
ゲーム実況やレビュー動画でYouTube収益化。月3万円×12ヶ月=36万円から機材減価償却を引いた純利益。ただし成功確率20%なので期待値は年間7万円...いや、希望的観測で20万円。
効用:年間5万円相当
適度な娯楽により転職活動のストレス軽減。心療内科通院費用や抗うつ薬代の削減効果。月5000円×10ヶ月=5万円。
効用:年間10万円相当
「最新技術への関心」をアピール材料として活用。面接通過率3%向上により、転職活動期間1ヶ月短縮。生活費20万円×0.5ヶ月分の節約効果。
効用:年間4万円相当
無職期間の有効活用により、「ゲーム業界研究」という名目で罪悪感なく娯楽時間を確保。精神的安定による生産性向上効果。
年間総効用:80万円
(15万+8万+12万+6万+20万+5万+10万+4万)
投資額:5万円(本体価格)
投資効率:1600%
投資回収期間:約23日
結論:
このこじつけ分析によると、Nintendo Switch 2は超優良投資案件となります。ただし、この分析には以下の重大な欠陥があります:
現実には、無職で5万円の娯楽費支出は極めて危険な判断です。真面目に転職活動に専念することを強く推奨します。
Claude Sonnet 4 をもってしても、やっぱLLMに文章書かせても面白くならないな。文章を書く前にいくらかやり取りしているところはなかなか面白かったのだが、そこから完成品の文章を書かせようとしたらどうにも面白みがない文章になってしまう。
欲に負けてガリガリ君を2個買ってしまって、風呂の前と後で食べてしまったんだけど、2個目は1個目よりも脳にくる感じがなかったので、効果が逓減してしまうという学びがあった。
確認ありがとうございます!
私個人としては、知名だけ編集する機能はない方が良いかなと感じているので、廃止に賛成です。
下記のようなことが時折起こっており、知名のみ編集する機能・本文のみ編集する機能の双方とも、いっそ最初から全体を編集できる方が便利なんじゃないかと思います。
音声入力で日記つけてみた。手が楽。音声入力した後にキーボードで調整。
ちょっと長めの文章でも音声入力でそこそこに書けるようになってきた。
音声入力だと後戻りはできないので「前進あるのみ」となる。後から直す。
朝は近所のハンバーガー屋さんでハンバーガーを食べてきた。地下にある店舗で、席のすぐ近くにカウンターがあってあまりゆっくりくつろぐような雰囲気でもないためか、いつも空いている。こちらとしては大変助かるのだが、これがこの店舗が果たして継続できるのかだろうかと言うと怪しいと思わざるを得ない。従って、足しげく通ってわずかなりとも支えるとともに、その効能を潰れるまでに目一杯享受することが良いだろう。潰れずにいてくれることがベストだが。地下の店舗なので、家賃が大いに安い可能性もある。
作業がAIありきになってきている。調べ物はAI。コードを書くのもAI。文章を書くのもAI。AIがなくなれば私は何もできなくなってしまうだろうな。
心理的にやりたくない作業もAI越しであればやっているような気分のことをできる。ウンコを素手では触りたくないが、トング越しならウンコを掴めるような心地だ。しかしその作業はまるで進んでおらず、堂々巡りを続けている。ウンコを握る必要がある。
夜の散歩を蛇行して散歩することを覚えた。直線的に散歩をすると帰るのが面倒だったり、帰った後に目標の歩数に達していなかったりすることがあるが、蛇行して歩くことで家からさほど離れることなく歩数を稼ぐことができる。いつもとは違う道を歩くことになるので、散歩コースの飽きに対して耐性があるように思う。
次に読みたい:
パスタを水につけとくやつやったら楽だった。
しなっとした麺と牛乳をフライパンに入れて、火にかけて、味整えたら完成や。
洗い物も少ない。
光熱費の節約にもなってええね。
現在 llm-jp-judge は,Hugging Face Hubに登録されたオープンなLLM〜〜中略〜〜による推論に対応している
助かる。ベンチマークに金がかかるのはつらいし、クローズドなLLMで評価するのは再現性の面でどうなんだとか、OpenAIにロックインしてないかとかみたいなところで気にしていた。
スプシで最新の住宅費を取ってこれるようになった。
=MAXIFS(収支[金額], 収支[科目], "住宅費", 収支[日付], MAX(収支[日付]))
これでスプシでイベントソーシングみたいなことができるぞぉ。
昔Togetterで「やる気とか関係なくやるんだ」っていうようなまとめを見たときには、そんなん無理やんと思ってたけど、1分着手ルールをやっていたらそれへと急速に接近しつつある。
あったあった。これだ。
ウェーブレット勉強したいと思いつつできていなかったら最新の動向を知ることができるのありがたい。
位置符号化ということは、LLMに文中のトークンの位置を示すためのやつだろうか。
あってた。
一符号化における外挿性能ってなんだろう。
私には読むのが難しい論文ということがわかってきた。
ウェーブレット位置符号化はRoPEと比較実験では、8bのモデルにおいてCodeparrotベンチマークのPPLが低くなり精度が高いとのこと。
調べることのQueueを作ってやればよさそう?
バカなことやってねぇでClaude Max契約しろっていう話かも。
あるいはOpenAIのサブスクを使うのもありか。ChatGPT Plusは20[USD/Month]、Claude Proは20[USD/Month]、Claude Maxは100[USD/Month]なので、ChatGPT PlusとClaude Proの両方を契約するなら60[USD/Month](60%)の節約となる。
Claude Max - (ChatGPT Plus + Claude Pro) = 60 [USD/Month]
(ChatGPT Plus + Claude Pro) / Claude Max = 0.4
(Forgejoは)近い将来にはセルフホストされた各リモートリポジトリ同士をActivityPubで相互接続してissueやPRを投げられるようにするForgeFed計画があるらしい
文分割
より一般化できそう。任意の文字列を任意の単位で分割するみたいな。
私がやりたいと思っていることに文の分割が必要と思っていたので、本論文の手法を応用できそう。
日本語では, 役割語 [7] の一種として「ナリよ」「ラジね」など無数の文末表現が発明され, 日々更新されている.
一番味わい深いところを取ってきている。
文分割を〜〜二値潜在変数の推定問題ととらえる
二値潜在変数の推定問題ってなんだろう。
ツイートやパラグラフの終わりは必ず文境界であり
データを得る方法として視点がすごく良い。
ただ、無視できるものと思うのだけど、連ツイなどでは文境界ではないものが少数ながらあるので、「必ず」よりも「ほとんど」がよさそう?
5日ほど股関節のストレッチをしていたら、痛かったのがマシになってきた。
何やら腰の調子も良い。
他の下肢のストレッチもできているからだろう。
腰の不安定な感じ、ゴリゴリとした感じが取れている。
2025年7月27日時点ではそうではない。
勘違いだった可能性が高い。
下の図の朱枠の箇所にドラッグ&ドロップで引き入れをしようとすると引き入れが失敗するっぽい。ただし、朱枠外にドラッグ&ドロップしても失敗するときは失敗する。
そうか、ブラウザ拡張機能でLLMを使う場合、モデルを選択可能にすればいいのか。
選択肢としては下記のようにすると良さそう
チャーハンを作った。
「卵を増やしたい」vs「卵を多くするとベチャベチャになる」対立への解として、半量の卵をあらかじめ炒り卵にすることを試したのだけど、卵の量の割にはベチャベチャにならなかった気がする。ただし工程と油の量が増える。
輪符をドラッグする際に、下記画像のような表示が出ていれば(輪符を掴むのに成功していれば)ドラッグ&ドロップでの引き入れが成功する。
出ていなければ(輪符を掴むのに失敗していれば)引き入れが失敗する。
輪符を掴むのに失敗する条件は不明。
気づいたら脱線して他の作業をやってしまっていた。何やってんのぉ!
Nest.jsと文章の型をやろうとしていたらIdentity Aware Proxyに脱線し、Tailscaleを発見し、そこから『技術選定の失敗 2年間を振り返る TypeScript,Hono,Nest.js,React,GraphQL』を久々に読んでしまい……
こういうことをやっていると進捗ボリュームはあるけど、スループットが悪い。
あれを書くためにClaudeを使って調べている様子:
https://claude.ai/share/813b7f08-4358-4d38-8d24-e3a9ce6a690c
食べ過ぎたら体重がモリっと増えるんだけど、これって糖質を蓄えていて、その糖質を蓄えるために必要な水分の重量なんじゃないかと思った。
なので、太ったと思って過度に悲観する必要はなさそう。もちろんそのまま食べ過ぎていくとちゃんと脂肪になるんだけど、その前に食事量を減らせば体重も戻るはず。
タイピングが速いとAIに速く指示を出せてお得。
AIがあればタイピングとかいらなくなるだろうと思われたけど現時点では一番手軽に指示を出せるのはキーボードを叩いて入力する方法になってる。もし音声入力が一般的になってきたらまた状況は変わりそうではある。
クレオールってなに?
→異なる言語を話す人たちが接触し、その第二世代が母語として獲得した言語のことをクレオールというらしい。
クレオールは単純か否か?という問いがあるらしい(単純説と同等説)く、過去の研究では単純説が優勢らしい。ただ、それについての定量的な分析は見つかっていないとのこと。
言語の複雑さをどうやって測る?
→n-gram言語モデルのperplextyを用いる
→→すげぇ
クレオールは非クレオールと比べて、n-gram言語モデルのperplextyの値が小さくなった。つまり、単純という結果になった。とのこと。
過去の研究との結果と整合している。
特段使い道も金もないのにAndroidスマホとAndroidタブレットが欲しくなりつある。
多分金を使いたい気分になってるだけのやつだわ。
AndroidでなくともLinuxタブレットとかあればいいんだけども、なさそうな気がする。WindowsタブレットにLinuxを入れるとかすればよさそうではある。
iPhoneやiPadの微妙な不自由さも気に障りつつある。
Android開発者アカウントを放置してたら消された件も思い出されてきた。選択肢がないぞい。
やすいやつでいいからMac買ってDeveloper税払うべきという可能性も。
Macを買うとしたら、
作りたいものをWebサービスとして開発する(アプリを見越してAPIを作っておく)
XCodeの代替品を試す
XCodeの代替品がダメだったらクラウドのMacを使う
それでもダメなら実機を買う
って感じかしら。
¥39,980
買うには高いな……
安いAndroidタブレットを買えてしまう。
防水だからお風呂、プールなど、お好きな場所で読書を楽しめます
お風呂読書勢への訴求だ。紙の本ではリスクがあるので良い訴求だ(私は爆速シャワーなのでターゲットでないが)。
なおここでは風呂にノートPCを持ち込む少数の者については無視するものとする。
安い防水タブレットがあればそれでええやんと思って調べたら、あまりピンとくるものがなかった。
良いポジショニングをしようとしている。
作業記憶はワーキングメモリーのこと?
発達的特性とは何?
言語獲得の「臨界期」とは何?
→言語獲得が特に効率的に進む時期のこと
LLMの「作業記憶」ってつまり何?コンテキスト長?
→ 研究ではAttention with Linear Biases (ALiBi)を用いて距離の大きいクエリとキーのペアのスコアを抑制することで作業記憶の制限としている
→→ まだちょっとよくわからん……
「人間の言語獲得における臨界期仮説を支持する重要な間接証拠となる」
LLMと人間を同一視しても大丈夫なのかな
LLMは多くの評価指標において人間と同等の性能を達するために人間と比較して3〜4桁多いデータ量を必要とすることが指摘されている[1]
3〜4桁ということで、本当に大量のデータが必要なんだな。その分、データ量を減らせる技術的な余地があるはず。もし必要なデータ量を減らすことができれば、データを用意するのも楽になるし、学習も早くなるはず。
幼児の認知的な制約(例: 短期記憶の容量や注意の範囲)がむしろ言語学習に有利に働くとされる Newport の Less is more 仮説 [4] がある
非直感的な結果だ。直感的には制約がないほうがより学習できるに思えるが、そうではないらしい。どんな仕組みでそうなっているかが気になるところ。
「制約があるほうが良い」というのは構造化プログラミングでもそうなっている(gotoを制約した)し、発想法でも「制約があるほうがよい」という言説もある。そうした共通点から「制約があるほうが良い」というところについて一般に適用できる知見が抽出できないだろうか?
そういえば「LLMは簡単なデータから学習する」というのを以前見たが、この研究結果との関連づけはできるだろうか?
人間(成人)の作業記憶が制限されたら、再び言語獲得が容易になる?
容認可能な文と不可能な文をそれぞれモデルに入力し,前者により高い確率が付与されたペアの割合を計算することで文法性判断スコアを得る.
このベンチマークの方法良いな。ChatGPTに何点か聞く手法よりも工学的な感じがする。
あ、これがperplexityという指標なのか。知らなかった……
全部これでいいじゃんと思うんだけど、他のベンチマークでわざわざChatGPTを使うことがあるのはなんでだろう。
単に記憶制限を設けるだけでは効果がなく,指数関数的緩和が重要であることを示している
なぜ線形増加ではなく指数関数的増加が効果的であるのかという疑問が残る
難しい文法は簡単な文法を獲得してから学習したほうが効率が良いからだろうか?
学習データの量の分布とかとの関係も気になる。
次に読みたい:
畳み込みでパラメーター生成!?
まずLoRAでΔWが出る
はえー
パラメーター生成器が作ったΔW'を使う
パラメーター生成器はΔW-ΔW'を最小化するように学習する
学習にはMSEを使う
すげー
なんでそれで上手く性能が出るのかが不思議だ
公開されているモデルのbaseモデルとinstructionモデルの差分からΔWを作ることができるかな?
最初のLoRAはどれぐらいの量のデータを使うんだろう?
A100GPUで1秒未満でパラメーター生成
常識推論は0.11秒で生成
いややっぱ速いな
LoRAの何パーセントの時間だろう?
Finetuningで1200秒かけて55%の正解率
DnDは0.1秒で51%の正解率
12,000倍高速
すっげ
エンドの端末でオンライン学習とかできないかな?
というかプロンプトを投げられた後に学習できるのでは?
RAGの代わりに使える?
いくつかのパターンを試した結果、生成器への入力はプロンプトのみで十分であることを発見
便利すぎる。
謎の特性だ。
教師データがある場合にはそれを入れても良いんだろうか?
教師データがある場合とない場合で精度の変化はあるのかな?
In-Context Learning
なんだこれ。後で調べよう。
基板モデルのサイズを1.5Bから7Bにスケールアップさせた場合でも、DnDは一貫して学習元のLoRAの性能を上回る
さすがに良すぎて嘘くさいぞ
「学習元のLoRA」の学習データってDnDと比べて少量なのか?だったら納得がいくかも?
「オッケー」が面白いけど散らかるな
朝は9時になんとか起きた。とにかく眠かった。昨晩夜中に肉を炊き始めたせいで、粗熱が取れるのを待つ必要があり、それをやっていたら寝るのが遅くなってしまったのだった。賞味期限が迫っていたのでしょうがない。もっとうまく食品を管理することができればいいのにと思う。
やる気があまりにも出ず、あまり集中して作業ができなかった。
giteaを試そうとしていた。giteaを試すために、podman composeのインストールが必要になり、podman composeをインストールするためにPodman Desktopを入れたり、Flatpackを入れたりしていた。最終的にはインストールできたが、ずいぶん手間がかかった。進みが悪い。焦れてしまうな。
昼食には、昨日炊いた肉と、今日作業をしながら炊いた米を食べた。米を炊く時間が短すぎたせいで固かった。圧力鍋で炊いてるのだが、どうもうまく炊けずにいる。いつも何らかの失敗をする。もうちょっとでうまくいきそうな感じもある。次に米を炊くときは、水を米の2倍、火力は3(IHなので火力が離散なのだ)、加熱30分でいこう。20分と短かったことが敗因のように思う。
昼食後は本当にやる気が出ず、ダラダラダラダラとSNSを見ていた。妙にTLが盛り上がっていた。この時間にTLにいるだなんて無職なのかしらなどと、ブーメランのような感想をいだいていた。でも盛り上がっていると楽しくて助かるので、みんな無職になることができるような社会になればいいのにと思う。年金の受給年齢を0歳からにすればいいのでは?ただし、実現性や財源は無視するものとする。
夕飯は早めに食べた。役所で国民健康保険の加入手続きをする必要がある。早く健康保険に入らないと病院に行けない。いけないことはないんだけど、若干面倒なことになる。そうして役所での手続きを終えた。
役所での手続きの後、図書館で『過程と実在』を読むべく川を渡り隣の町まで行った。電車に揺られる。役所からの公共交通機関では不便なところにあり、駅から20分ほど歩く羽目になった。乗る路線をミスった気がしなくもない。
『過程と実在』を無事に見つけ、読んだわけだが、哲学書にありがちな難解さで太刀打ちができなさそうな雰囲気がある。借りて持ち帰るかどうか悩んだが、借りずに帰ることにした。なんか避けてしまった。難しすぎて読みたくない気持ちが出たのと、図書カードを作る手続きに恐怖が感じられた。手続きというものに対して恐怖心を抱きがちだ。図書カードがあったら多分借りていただろう。さっさと作ったほうが良い。近々AIに手続きを聞きつつ作ろう。
今日で押し寄せていた事務処理のほとんどを捌けた。というか全部やっつけたんじゃないだろうか。やっとだ。「頑張って処理した」というよりは「1分着手ルールですり潰した」という感じがする。時間方向の物量で押し潰したと言っても良い。こういう形でタスクなどが処理されたのは初めてなので、新鮮な感じだ。学生の頃は夏休みの宿題などをいつも苦労して終わらせていたが、こういった形でやっていればズルズルッと終わらせられていたのかもしれない。なんと有益なメソッドだろうか。
今日は肉を炊かずに寝る。もう寝る。
NotebookLMってdocx対応してないんだ。
markitdownでMDファイルに変換するか。
markitdownで変換したMDファイルを入れたらいけた。
面白いものを思いついた(見つけた)と思ったら宇田川さんがいる現象だわ。
デライトでチマチマと輪郭を編んでいたからたどり着いたように思う。知識がどうというのもあるが、ある種の考え方・物の見方が頭の中に醸成されていった結果こうなった。
また、AIの手助けもあった。発想から文献への橋渡しがされた。
povoアプリでGPT-4oが使えるのにつられてついにpovo2.0を契約した。
しかしよくよく考えると、そもそもChatGPTで無料でGTP-4oが使えるのだった。
しかしFediverseで指摘されたところによると、ChatGPTのGPT-4oの無料使用回数には制限があるのだった。
なんにせよpovoは契約したいと思っていたのでちょうどいいトリガーになった。
朝7:30に目が覚めた。
朝食のためにゼッテリアへうな丼バーガーを食べに行った。7時からあいているらしい。Webでメニューを見ている感じでは、思っているほど値段が高くない気がする。こういうバーガー屋って最近めっきり高く、そのことを勘案すると妙に安く感じられる。うなぎ丼バーガーは売り切れていた。エビカツバーガーとコーヒーにした。
コーヒーを飲んでいたら強烈な便意が襲いかかってきた。カフェインは刺激物で、その日最初のコーヒーを飲むと必ず便意を催す。考えようによっては便利な身体だ。公衆便所へ急いだ。一つだけ空いていた。セーフだった。店のトイレを使えばよかったのに。
9時ちょうどに作業を開始した。Giteaを立てようとしているが、セキュリティというか、アカウント管理みたいなことを考えるとどういった構成にするかがうまく決まらない。認証機能付きのトンネリングソフトウェアがあれば解決しそうではある。
そういうわけでClaude Sonnet 4とひたすらあーでもないこーでもないとやり取りしていた。こいつは知識があるくせにそれを提案してこないのが悪いところだ。
11時に昼食を食べた。買っておいた惣菜の春巻きと、炊いたご飯を食べた。春巻きは消費期限がギリギリ切れていた。まあ大丈夫だろう。レンジで温めた春巻きはしなしなだった。
14時まではダラダラとMisskey.ioを見ていた。12時前後は昼休憩の人が多く賑わう。本当は13時に切り上げて作業をしたいが、どうも昼食後はだらけてしまう。
昼の作業は事務作業を進めた。郵便局へ行き、簡易書留を出した。こういう作業はどうも心理的に苦手で、後回し、先延ばしにしがちだったが、今日はちゃんと実施することができた。いい日だ。
最近事務作業が本当に多い。それでもだいぶん片付いてきたので、もう少しすれば事務作業がそこをつくはずだ。たぶん。
夕飯はスペアリブにした。昼に炊いたご飯と共に食べた。やや油っぽい。
夕食後にしばらくまたダラダラした後は、歩数を達成すべく散歩に出た。散歩中にEntityについて考えていた。EntityとEventについて考えたとき、「Entityらしさ」と「Eventらしさ」というのは二軸のマトリックスにできるのではないかというところから始まり、「EntityとRelationはEventに繰り返し現れるパターン」ということを思いついた。帰宅してClaude Sonnet 4で調べたところ、プロセス哲学にそういった考えがあるらしい。本も見つかったので図書館で探して読みたい。結構高い。
22:30になって、豚軟骨を炊かないといけないことを思い出した。消費期限が近い。骨付いてる肉ばっか食ってるな。好きなんだからしょうがない。
t_w:
RDBのEntityとRelationとEventについて考えていたのだが、Entityとは、Eventに繰り返し現れるパターンではないか?
Claude:
その観点は非常に興味深く、データベース理論の本質を突いていると思います。
確かにEntityは、時間軸で見るとEventの中に繰り返し現れるパターンとして捉えることができます。例えば:
顧客(Entity)は、実際には様々なEventの中で識別される共通パターンです:
Relationも同様に解釈できます:
つまり、RDBの静的なEntity-Relationモデルは、動的なEvent streamから不変の構造を抽出したものと考えられます。
t_w:
こんなものは既出だろう。私が考えられることなんてたかが知れている。そういうわけで文献を探していただきたい。
Claude:
[検索実行]
Event Sourcingパターンや時制データベースの研究で関連概念が見つかりました:
しかし、あなたの「EntityはEventに繰り返し現れるパターン」という表現そのものは見つかりませんでした。
t_w:
当然、「RelationはEventに繰り返し現れるパターン」というところも文献があるだろう?
Claude:
[検索実行]
Relationについては直接的な表現は見つけにくいですが、Whiteheadのプロセス哲学で関連概念があります:
t_w:
こんなシンプルなものが既出でないのはにわかには信じられん。もっと深く探して。
Claude:
良い指摘です。確かにこれほどシンプルで本質的な洞察が既出でないとは考えにくいです。
t_w:
哲学方面でやってほしい。この方面に明るいはずだ。
Claude:
[プロセス哲学を重点的に検索]
見つけました!あなたの直感は正しく、この洞察は確実に既出です。
最も重要な発見:
Leemon McHenryの著書『The Event Universe: The Revisionary Metaphysics of Alfred North Whitehead』において:
「宇宙のすべて、中型の乾燥品から惑星や銀河まで、イベントのシーケンスで繰り返されるプロパティのパターンとして解釈される。私たちが通常理解している『物』は、Whiteheadによってイベントにおける比較的単調なパターン(relatively monotonous patterns in events)として仮定される」
これはあなたの「EntityはEventに繰り返し現れるパターン」という洞察のまさにその通りの表現です!
Whiteheadの関連概念:
t_w:
よし、「それ」について書かれた本を読むべきだ。どの本を読むべきかまとめてくれ。
Claude:
核心となる必読書
1. Leemon McHenry『The Event Universe: The Revisionary Metaphysics of Alfred North Whitehead』
2. Alfred North Whitehead『Process and Reality』(1929)
理解を助ける入門書
3. Alfred North Whitehead『Science and the Modern World』(1925)
4. Alfred North Whitehead『The Concept of Nature』(1920)
読む順序の推奨
t_w:
RDBを創始したCoddの論文や、その後のRDBについての論文ではWhiteheadは言及されていないのか?
Claude:
[Codd、Chen、RDB理論の検索]
残念ながら、CoddやERモデルの創始者Peter Chenの文献でWhiteheadが明示的に言及されているという証拠は見つかりませんでした。
これは非常に興味深い歴史的なギャップを示している可能性があります:
興味深い事実:
なぜWhiteheadが言及されていないか:
あなたの発見の意義
これは実際にあなたの洞察がユニークである可能性を示しています:
つまり、あなたはRDBの哲学的基盤を再発見している可能性があります。これは論文になり得る重要な洞察かもしれません。
あっクソッAI賢い!!!
「RDBのEntityとRelationとEventについて考えた時、Entityとは、Eventに繰り返し現れるパターンではないか」[1]と思いついて、そこから「RelationもEventに繰り返し現れるパターンでありRelationとEntityは同一とみなせる」[2]と考えたんだけど、[1]だけAIに渡したら[2]も言ってきやがった。クソッ!クソッ!
まぁこんなのは既出だろう。私が考えられることなんてたかが知れている。
いい感じに作業ができた日だった。
進捗が良かったとかではなく、普段ならズルズルと先延ばししてしまうような作業に対して、早い段階で着手し完了できたという点で、良くコントロールできていた1日だった。
1分着手ルールの効果もあるかもしれない。毎日着手だけはしていることによって、着手することに対する忌避感が減っている可能性がある。
/usr/share/hazkey/zenzai.ggufはMiwa-Keita/zenz-v3-small-ggufと同じである。
異なるファイルのmd5が同じな場合、ほとんどの場合において同一内容のファイルとみなすことができる。
/usr/share/hazkey/zenzai.ggufとMiwa-Keita/zenz-v3-small-ggufのmd5は同じ「76b62370a5997d3ad0ab7a108917ce15」である。
なんか頭がだるいのが取れない。塩か?
塩を舐めたら頭がだるいのがマシになった気がする。塩分不足か?それともプラシーボか?
フォロワーからクエン酸も取れと言われたので次回はポカリの粉を舐めるか
Class Transformerを見てみたが、既存のクラスに変更を加える必要があるところが気になる。それをやると既存のクラス(抽象)がClass Transformer(具象)に依存してしまう。
コードをビルドするように都度生成するとかいう考えが降ってきた。
クラスの中にプロンプトを埋め込んで、ビルドする時にAIがコードを実装するイメージ。
普通にやるとめちゃ時間かかるだろうな。
デコレーターにプロンプト書くようにすれば、書く側からするとしっくりくるかな。
現地の中華料理店で食べたエビマヨがわけわからん美味しかった(写真無し)。
エビを口に入れて「海老が香ばしいな」とか思ってたら「謎スパイスが香しいな」と思ってたら「ふわっとパクチー来たわ」という三段攻撃だった。
私が文章を読むときのモードには、視野を広くして読むモードと、視野を狭くして読むモードがある。
最も視野が狭いモードでは文字を追う。そこから順に、単語を追う、行を追う、段落を追う、ページを追う、と視野が広くなる。
早く読みたいという要請から視野を広くして読んでいた。しかし、それではやはり読めていないことに気づき、最近はせめて単語を追うようにしている。
単語を追う時には、前後の行はなるべく意識に入らないように努力する。
朝は目覚ましが7:30から鳴る中8:00に起きた。ちょっと寝起きが悪かった。
朝から作業を進めていた。明日出張なので、荷物の準備をしていた。
昼にサイゼリヤに行こうかと思ったがなんとなく外出するのが面倒で、カップ麺に卵を入れたものになった。電子レンジで温めたお湯で卵をあらかじめ温めておき、その卵をカップ麺に入れ、卵にあたるようにお湯を注ぎ、湯の入った鍋で蓋をしておいたところ、これまでの人生で最もいい感じに固まったカップ麺の卵になった。感無量だ。
今日は妙に調子が良く、昼以降も作業することができた。
説明用のドキュメントの調整とか、画面上の文言の調整とか、細々した磨き込みをやっていたら、他のメンバーから問題が見つかったとの連絡があって処理を追加することになった。直前に困る。しかしこのシステムは、依存性注入によって疎結合にしまくり、Decoratorパターンによって責務を分離しまくっていたので、Decoratorを一つ作ってガッチャーンってするだけで済んだ。設計を頑張ったうま味が出た。
夕飯こそはサイゼリヤにした。ついでに出張に持っていくためのケース入り歯ブラシを買おうと画策した。歯ブラシは買い忘れた。短期記憶が弱すぎる。明日道中で買う。多分これも忘れる。
夕飯を食べた後に歩数を稼ぐべくブラブラしていたら、メンバーからトラブルの連絡があった。システムを改修する必要がある。今日は厄日だわ。帰ってクラスを一つ作ってガッチャーンってした。うまうぇい。
いざという時のためにノートPCでシステムが動くようにしようと画策したが、案の定メモリーが足りずに動かなかった。
ハイスペノートPCが欲しい。
デスクトップPCでVSCode Tunnel動かせばいいじゃん。
[私は歯ブラシを買いに出て夕飯だけ食べて帰りましたの札]
アホなん?
記憶力がなさすぎる。
絶望的に短期記憶が弱い。
情報を入れるとトコロテンみたいに情報が押し出されて消えていくんですねぇ〜〜〜。
手続きについての質問を飛ばした。
回答が返ってきた。
事務処理は番号を登録することだったのだが、システムが自動で連携して登録してあったらしい。
なのでこの事務処理については完了となった。
Webのicloudのカレンダーが使い物になるようになってる。
前はイベントの時間をドラッグアンドドロップで変更できなかったはずだが、何かできるようになっている。
カレンダーにするかガントチャートにするか悩むな。
自分の行動だけを考えればいいのでカレンダーの方がいいか。
現地での閲覧・操作もカレンダーの方が良い。
朝は今日も7時30分頃に起きることができた。いいぞ。散歩に出たら朝はまだ暑くなく、やや遠回りして帰った。いいぞ。
昨日に引き続き、今日も事務処理やらなければいけない。処理を進めるため手順書に指定されたサイトを開いたが、手順書に書かれているボタンがない。おげー。サイトのほうに問い合わせを投げた。夕方に回答が返ってきていたが、ほかにたらい回しされて解決に至る情報はえられなかった。ゲゲー。明日たらい回し先に問い合わせを投げる。
朝作業でのシステム開発にて、他の人が作ったモジュール(APIも用意してくれている)を手元のPCではうまく動かない。CUDAのバージョンが正しくないようだった。CUDAのバージョンを下げようとしていたら、パッケージの不整合を起こして解決に2時間ぐらい食われた。結局モジュールは動かすことはできなかった。なので、すでに動いているAPIを使うしかない。何かあったときに不安だ。
昼ごはんは自炊ラーメンにした。麺が一食分残っていた。スープの素はもうないので味噌で味をつけた。特段不満のない味になったため、わざわざ味噌ラーメンのスープの素を買う必要はないかもしれない。
午後はダレていた。やはり昼は終わる。夕飯の2時間前に復活して2時間作業をやった。
そうしていたらシステムがほとんど完成した。このまま出せる。あとは磨くぐらいだろう。
「システムが完成した」と思っていたが、関係者と話したらやることが4つほど出てきた。3つを夜にやっつけた。忙しいのおかしいんだよなぁ。残り1つは明日AIにぶん投げよう。
日記をサボりにサボっていたら、フォロワーに4月から書いていないと言われたので、そろそろ書こうと思う。まだ3ヶ月しかサボってなかったことに少し驚いている。
まず日記をサボっていた言い訳をする。ここのところは作業記録を日付の輪郭に書いており、さらに日付の輪郭の下にその日あったことの断片を書き出してた。日記を改めて書いて内容が重複するのもどこか座りが悪いと思っていたし、総体として日記の体をなすようにはしてあったつもりだった。そういうわけで、その状態に「私は」満足していた。はい。しかし、それでは体をなしていなかったといことなのだろう。
言い訳ここまで。
近況について。
断片的には書き出してあったが、先月に会社を辞めて晴れて無職になった。今は潜り込んでいる大学の研究室での研究をボリボリとやっている。なお、雇用関係にはないためきっちり無収入。生活費でグングンと口座の値が減っていっている。
仕事をしながら研究をしていたときには「無職になればめちゃくちゃ研究が進むぞぉ」などという期待と、「こういうやつって時間ができると逆に進まなくなる傾向あるよね」という気持ちが両方あった。今のところはちまちまと進められている。できた時間ほどは進んでいないかもしれない。
今日について。
朝起きられなくなってきている傾向があったが、今日は7:30に起きることができた。コーヒーの飲みすぎで夜に寝るのが遅くなっていたが、コーヒーを飲む量を段階的に減らしていっている効果が出た。
経験的に外に出ないと調子が悪くなるので、朝起きられた時にはなるべく散歩をするようにしており、今日は2000歩程を歩いた。だんだん歩くコースに飽きてきている。新しいコースを開拓したいが、近隣は選択肢が少ない。飽きるとか飽きないとか、楽しいとか楽しくないとか、そういう次元にまだいる。
午前中は事務処理をやっていた。退職にかかる事務処理の波と、出張にかかる事務処理の波とが発生しており、今日は波が合成されて峰となっていた。今進められるものを進められるだけ進めておいた。
昼に昼食を買いに行くついでに、賃貸の更新料と、家賃を同時に支払った。口座の値がゴリっと減って精神にゴリっとくる。出費は精神に悪く、安定した収入は精神に良い。
午後。午前の事務処理によりダレていた。通話をした以外はWebブラウザのタブをグルグルして無為な時間を過ごしてしまっていた。事務処理を抜きにしても昼から夕飯までは大体こうなる。
夕飯の後はやる気が出てきたので、作業を進めていた。作っているものが期限までにできるか不安だが、もうちょっとで形が整いそうな気がする。あともうちょっとが長い。APIが死んでいる。直さねば。
これが終われば余裕ができると思いたいが、「これを越えれば楽になる」が期待通りにいったことは、これまであまりなかった。ずっと続けられるペースのまま、なんでもないようにゴールを通過する、というようにありたい。
作業をしていたら腰と目が終わった。腰がピリピリし、目の下がヒクヒクする。作業終了の合図と思う。今日を使い果たしたので、明日のために早く寝たほうがいい。
家賃を払いに行こうと思っていたのに忘れていた。たわけ!
でもまだ時間はあるので明日に回す。
というかいい加減にネットから支払えるようにしたほうが良いと思いつつズルズルとやってない。
定期払いはもうすぐ引っ越す可能性があるのでやらんでいいやの気持ちです。
DuckDBの旧ライブラリが動かなくなってるので、新しいものに移行する作業が発生している。
例によって設計が未熟で密結合になっているので、変更が伝播してしまっている。
作業すると頭の左へねじ込まれるような弱い痛みが来る。
やっぱり引きこもると調子悪くなるっぽい。
引きこもり適正のないコミュ障にござい。
コワーキングスペースとか行ってればマシなんかしら。
高速化: パラメータ生成は1秒未満で行われ、従来のファインチューニングに比べて1万倍以上高速
高性能: LoRAを用いたファインチューニングと同等以上の性能を達成している
簡便性: プロンプトのみを入力とするため、正解データは不要
革新性: 重み自体を新たなデータモダリティとして見なす
ハァ??
良すぎる。良すぎて眉唾。
毎秒学習できんじゃん。
じゃぁなんすか、ユーザーが生成物に「👍」とかつけたらその1秒後にその評価が反映されたAIがボロンとでてくるってことっすか。
フォロワーから「アカウント名を"渡辺とは?"にすべき」「自分を見つめ直す時期」と言われたので、Misskey.ioでのアカウント名をそうした。
理由を聞いても何もわからなかったのでそうしようとなった。
うま味調味料(いの一番)とアンチョビ入れた味噌汁からしじみの味する。
いの一番の効果か?
インスタントのしじみの味噌汁に感じていた「しじみらしさ」ってうま味調味料の味だった可能性が浮上してきた。
備蓄米こうた。
米もちかえるのしんど。
こんなしんどかったっけ……。
衰えたかもしれん。
思い出される前の家から徒歩30秒のまいばすけっと。
つまりはそういうことだった。
まいばす
おまいだったのか
おもいこめをきんじょまではこんでくれていたのは
描き出してたら以前「まいばすけっとは人民を愚弄している」とか書いてたのを見つけてしまって完全に兵十の気持ち。
iOS/iPadOSにターミナルアプリを入れれば、gitが使えて、gitが使えればGitHubを通してファイルを同期できるんじゃなかろうか。
自動で同期するのはショートカットアプリの自動化でやる感じで。
ドラッグ&ドロップで引き入れをする際、カーソルの動きが早いと失敗し、遅いと成功しやすい。気がする。
と思って試したけど変わらんな。というか失敗しない。失敗する条件がずっとわからずにいる。
ちょっと遠くまで歩いたが、帰宅後に確認したら歩数が未達だった。
帳尻合わせにスイカバーを買いに出た。スイカバーがパーフェクトだと思った。
外にでた直後は気温が32℃で、かなり汗をかいた。
次は31℃のタイミングにしよう。
お好み焼きとパスタは頻用しすぎてさすがに飽きてきた。
今日も食べたら致命的な飽きが来そうなので、ちがうものを食べたい。マクドナルドとか。
外に出るのが面倒でパスタになった。