休みの日よりも仕事の日の方が活動できてる気がする。
経験的にはだめな傾向だわ。
休息に努めた方が良さそう。
あるいは「やるべき」の比率を減らして、「やりたい」の比率を増やすか。
とりあえず電子書籍で漫画を買って読み散らかした。
正義、もしくは正義感とは油を指す
このチャンネルにおける隠語であり
主に南アジア料理における
油の重要性を表した言葉である起源は不明だが
富山のインド・パキスタン料理
コミュニティ発祥との説が有力である
カツオカレーの作成始めました。
先日作った鶏レバーカレーの具を取り去って、そこに違法増築していく。
いい感じになった。明日食べる。
「鰹節入れろ」という電波が飛んできたので、粉砕して入れた。
魚粉は俺たちの手の中。
そして図らずも2年まえの魚粉カレーの伏線を回収した。
今日の活動を記録し忘れたこと、また、データよりも文章という気分が高まってきているために、今日は普通の文章として日記を残す。
朝は確か8時に目が覚めた。
いつも通り、そのまま布団からは出ず、だらだらとスマホを眺め、なんとか起き上がって菓子パンをたべ、再び布団に戻り、目が覚めたら14時になっていた。休日によくあるパターンだ。GW二日目にして順調に夜型へと回帰していっている。
このままだと休日がさすがに布団すぎると思われたので、外に出た。
昼食 兼 夕食をどうするかの下調べ中、ハンバーガー屋が頭に浮かんできたが、なんと閉店していた。
プランBを絞り出し、近くの高給食パン的ラーメン屋に行ったが、GWの観光客が行列をなしており、最終的セーフティネットとしてサイゼリヤへ行った。
街に人が多く、サイゼリヤも混んでいるだろうと直感していたが、それに反してそれほどの行列ではなく、待ち行列のシートに名前を記載し5分ほど待つと案内された。
外に出たらどこかしらで本を読むだろう・本を読みたい、ということで、カバンの中には本を入れてある。この日は『熱帯』を持ち歩いていた。終盤に差し掛かっており、そろそろ読了したいところだ。
近所のサイゼリヤは動物園めいた話し声の大きさが特徴で、今日は更にだった。そういった事情もあって高性能なノイズキャンセリングイヤホンを持ってきており、そのおかげで、無事に最後まで本を読み終えた。
退店後、やや遠回りして帰ったら、活動する気分が消費されきっており、私の休日は実質的終わりを迎えていた。
Keyball39がだいぶ手に馴染んできた。一般的な利用ではスムーズに使えるようになってきた。記号もそこそこに出せるようになってる。利点 > 違和感 の段階に至った。
プログラミングをするにはまだ若干の違和感があるが、3日ぐらいプログラミングで使えば違和感もなくなりそうだ。
肉ワンマンドゥ食べたのでお腹空いてない。鶏レバーどないしましょう。消費期限を考えると今日調理してしまいたい。カレーにしようなどと思ってたけど、カレーを食べるほどのカロリー予算がない。
何はともあれカレー粉で煮るか。カレーライスにはしない感じで行く。
手が勝手に大量の油を!
Youtubeの動画による洗脳の結果に違いない。
油が足りてない気がしてきた。
ヨーグルト入れ忘れてた。
大胆にカレー粉を入れたつもりだったけど、ヨーグルトの効果なのか、マイルドな味わいになった。これはこれで。
カツオのたたき(賞味期限28日)
プレーンヨーグルト
ほうれん草
鳥レバー(賞味期限27日)
肉王マンドゥ(賞味期限29日)
コカコーラゼロ
カツオのたたき
ナン
プレーンヨーグルト
ほうれん草
鶏レバー
肉王マンドゥ
コカコーラゼロ
つぼぬきいか
もしかして東京に雨雲近づいてきてる?
外歩くなら今すぐ行った方が良さそう。
後夕飯のために食材を買いにも行きたい。
でも布団の引力が強まっているので雨を理由にして引きこもりたい気持ちもある。
ワイドモニターやらウルトラワイドモニターやらにあこがれた時期もあったが、あれの解像度をよく見ると、4Kモニター(など)を横にぶった切っただけの代物だと気づく。つまりデカいモニターを買えばよろしい。でかいモニターの上の方を見上げるのが大変なら、主として下側だけ使い、上側は物置の如く使えば良い。
全部やるのはまず無理
いくつかできたら上等
以下の振り返りは、2025年4月25日から2025年3月28日までの投稿を基に作成されています。技術的な挑戦、日常生活の管理、健康への配慮、目標設定、社会的な交流など、多岐にわたるテーマが含まれています。
この振り返りは、技術への情熱、日常生活への配慮、目標への意識、社会的な交流を抽出し、課題と改善策を提案しました。著者は多様な興味と行動力を持ちつつ、計画性や健康管理の強化が次のステップとなります。2025年の目標達成に向けてバランスの取れた成長を目指してください。
今日限定と聞いたヨモギ柏餅を和菓子屋で買おうとしたら売り切れだった。帰宅が遅くなったのでやむなし。
店員さんに「ヨモギの……」まで言った時点で店員さんの顔がみるみる歪んでいった。渾身の「申し訳なさ」だった。
それはそれとして、表に予約限定のやつが掲示されていたので予約しておいた。受取は5/3(土)の午前。
最近ソフトウェア開発をしていて思うのは、順調に開発が進む期間などほとんどなく、問題を倒せばすぐに次の問題が現れる。次々と現れる問題をねじ伏せ続けること、あるいは何とか回避することこそが進捗なのだろう。
もちろん予め回避できる問題を放置して、後からことさらに対応するという意味ではない。その時の最善を尽くした上でだ。
なんか面倒くさいものに対してネチネチやる体力・気力がなくなった気がする。
「さっくり上手くいかないんだからコレには未来ないでしょ」みたいな気持ちがすぐに来る。
副業とかあって単純につかえる時間も短くなっちゃってるので、早めに見切りをつけないといけないというのもある。
QMK、Python使っててインストールが面倒。
諦めたい。
だめだ。wsl上のuvだと、遅すぎてqmk setupが何も言わねぇ。エラーにすらならん。
うわぁ、なんか成功しやがったぞ。
うわぁ、やっぱり動かねぇぞ。
エラーはいて死んだ。おーわり。
jsonlファイルをS3に置けばちょっとしたアプリだったらDBとして使える説がある(未検証)。
Gitで管理したりGitHubにアップロードしたって良い。
項目 | 値 |
---|---|
OS | Windows 11 |
CPU | AMD Ryzen 7 7800X3D 8-Core Processor |
RAM | 64 GB |
実行環境 | LM Studio |
GPU | CUDA Cores | VRAM[GB] | 発売年 |
---|---|---|---|
GTX 1070 Ti | 2432 | 8 | 2017 |
RTX 5060 Ti 16GB | 4608 | 16 | 2025 |
モデル | モデルのファイルサイズ[GB] | GTX 1070 Ti TPS[tok/sec] | RTX 5060 Ti 16GB TPS[tok/sec] |
---|---|---|---|
qwen2.5-coder-0.5b-instruct | 0.37 | 135.28 | 225.03 |
qwen2.5-coder-3b-instruct | 1.93 | 65.27 | 115.26 |
qwen2.5-coder-7b-instruct | 4.68 | 36.50 | 64.96 |
qwen2.5-coder-14b-instruct | 8.99 | 8.89 | 36.94 |
qwen2.5-coder-32b-instruct | 19.85 | 2.80 | 5.14 |
qwq-32b | 19.85 | 2.75 | 4.21 |
今年の目標に反する行動をしてしまった。
しまったな。
目標がもうちょっと目に入るようにした方がいいな。
とりあえず各月の輪郭の下に今年の目標が表示されるようにした。
月 | 1月 | 2月 | 3月 | 4月 | 5月 | 6月 | 7月 | 8月 | 9月 | 10月 | 11月 | 12月 |
---|---|---|---|---|---|---|---|---|---|---|---|---|
目標歩数 | 5,428歩 | 5,662歩 | 5,896歩 | 6,130歩 | 6,363歩 | 6,597歩 | 6,831歩 | 7,065歩 | 7,298歩 | 7,532歩 | 7,766歩 | 8,000歩 |
実績 | 6,184歩 | 6,152歩 | 7,407歩 |
月 | 1月 | 2月 | 3月 | 4月 | 5月 | 6月 | 7月 | 8月 | 9月 | 10月 | 11月 | 12月 |
---|---|---|---|---|---|---|---|---|---|---|---|---|
目標歩数 | 5,428歩 | 5,662歩 | 5,896歩 | 6,130歩 | 6,363歩 | 6,597歩 | 6,831歩 | 7,065歩 | 7,298歩 | 7,532歩 | 7,766歩 | 8,000歩 |
実績 | 6,184歩 | 6,152歩 | 7,407歩 |
月 | 1月 | 2月 | 3月 | 4月 | 5月 | 6月 | 7月 | 8月 | 9月 | 10月 | 11月 | 12月 |
---|---|---|---|---|---|---|---|---|---|---|---|---|
目標歩数 | 5,428歩 | 5,662歩 | 5,896歩 | 6,130歩 | 6,363歩 | 6,597歩 | 6,831歩 | 7,065歩 | 7,298歩 | 7,532歩 | 7,766歩 | 8,000歩 |
実績 | 6,184歩 | 6,152歩 | 7,407歩 |
月 | 1月 | 2月 | 3月 | 4月 | 5月 | 6月 | 7月 | 8月 | 9月 | 10月 | 11月 | 12月 |
---|---|---|---|---|---|---|---|---|---|---|---|---|
目標歩数 | 5,428歩 | 5,662歩 | 5,896歩 | 6,130歩 | 6,363歩 | 6,597歩 | 6,831歩 | 7,065歩 | 7,298歩 | 7,532歩 | 7,766歩 | 8,000歩 |
実績 | 6,184歩 | 6,152歩 | 7,407歩 |
月 | 1月 | 2月 | 3月 | 4月 | 5月 | 6月 | 7月 | 8月 | 9月 | 10月 | 11月 | 12月 |
---|---|---|---|---|---|---|---|---|---|---|---|---|
目標歩数 | 5,428歩 | 5,662歩 | 5,896歩 | 6,130歩 | 6,363歩 | 6,597歩 | 6,831歩 | 7,065歩 | 7,298歩 | 7,532歩 | 7,766歩 | 8,000歩 |
実績 | 6,184歩 | 6,152歩 | 7,407歩 |
月 | 1月 | 2月 | 3月 | 4月 | 5月 | 6月 | 7月 | 8月 | 9月 | 10月 | 11月 | 12月 |
---|---|---|---|---|---|---|---|---|---|---|---|---|
目標歩数 | 5,428歩 | 5,662歩 | 5,896歩 | 6,130歩 | 6,363歩 | 6,597歩 | 6,831歩 | 7,065歩 | 7,298歩 | 7,532歩 | 7,766歩 | 8,000歩 |
実績 | 6,184歩 | 6,152歩 | 7,407歩 |
月 | 1月 | 2月 | 3月 | 4月 | 5月 | 6月 | 7月 | 8月 | 9月 | 10月 | 11月 | 12月 |
---|---|---|---|---|---|---|---|---|---|---|---|---|
目標歩数 | 5,428歩 | 5,662歩 | 5,896歩 | 6,130歩 | 6,363歩 | 6,597歩 | 6,831歩 | 7,065歩 | 7,298歩 | 7,532歩 | 7,766歩 | 8,000歩 |
実績 | 6,184歩 | 6,152歩 | 7,407歩 |
月 | 1月 | 2月 | 3月 | 4月 | 5月 | 6月 | 7月 | 8月 | 9月 | 10月 | 11月 | 12月 |
---|---|---|---|---|---|---|---|---|---|---|---|---|
目標歩数 | 5,428歩 | 5,662歩 | 5,896歩 | 6,130歩 | 6,363歩 | 6,597歩 | 6,831歩 | 7,065歩 | 7,298歩 | 7,532歩 | 7,766歩 | 8,000歩 |
実績 | 6,184歩 | 6,152歩 | 7,407歩 |
月 | 1月 | 2月 | 3月 | 4月 | 5月 | 6月 | 7月 | 8月 | 9月 | 10月 | 11月 | 12月 |
---|---|---|---|---|---|---|---|---|---|---|---|---|
目標歩数 | 5,428歩 | 5,662歩 | 5,896歩 | 6,130歩 | 6,363歩 | 6,597歩 | 6,831歩 | 7,065歩 | 7,298歩 | 7,532歩 | 7,766歩 | 8,000歩 |
実績 | 6,184歩 | 6,152歩 | 7,407歩 |
私は型の支援がないともう何もできねぇ。
コードを変更したら、連動して変更すべき場所を自動で示してもらわないともうむり。
というか型エラーとかそのうちAIが自動で直してくれそう。
大変そうなので今のところ作る気がしない
jsonlをいい感じにして、VSCodeの拡張機能をいい感じに作ると、いい感じにできるかもしれない。
一つのjsonlファイルを一つの輪郭として扱う
引き入れについての情報は双方の輪郭に持たせる
jsonlには追記のみを行う
引き外したときには「引き外した」という上方を追記する
片方は引き入れているのに、もう片方には引き入れられているという情報がないときには、いい感じに解消する(たぶん引き入れているを正とするような気がする、あるいは後勝ち)
きゃろってね 🥕 @Carotene
ピザ食う
渡辺戸羽 @t_w
ピザ食う
みつは☘️ (自鯖) @[email protected]
ピザにしたよ:ablobcatpnd_heart_happy:
ドミノのギガ・ミート
フォロワーと謎のピザ被りした。写真を撮ってSNSに投稿しようとしているタイミングでちょうど相手方が投稿してきたので乗っかった。
FF関係が長いと、ピザを食べたくなるタイミングが同調してくるのかもしれない。
そしてそれを見た別のフォロワーがピザを頼んで食べていた。
楽しいね。
帰省するときに新幹線で浜松行ってさわやか行くのありかも。
さわやかへ行ったとして、その後の新幹線がやっかいだな。指定席のみの可能性が高い。こだまだと指定席にならないから何とかなるかな。
最近、ローカルで動くデライトの必要性を強く感じるようになってきている。
一度デライトでの知識管理を知ってしまった後では、他の物だと方式の違いからどうにも違和感があって仕方がない。
「作る」と考えたときには知番生成やらデラングのパースやらでかなり重い。
ジャンルは麻生太郎よ
麻生太郎さんがたまたまローゼンメイデンを立ち読みしていたところを目撃されただけでキャラ付けされてるの良い(当の本人は「なぜこんなに目が大きいのか」以外の感想を持っていない)
最近プライベートで全然プログラミングやってねぇな。
なにかをぼんやりと考えている。まだ形は見えない。
本業でダカダカとプログラミングをしているので、それで満足してしまっているのかもしれない。
Ankiのその日のノルマをすべてやらなければならないと思ってしまっていたが、実用上はノルマ未達でも全く問題がない。むしろ若干未達があるぐらいにすると、より忘れている可能性が高い状態で復習ができて効率が良いまである(要検証)。
あれはその日やっても良い上限と思った方が良い。
トラックボールのボールでスクロールするの、スクロール自体はめちゃくちゃ快適だけど親指に負荷が集中して壊れるな。
スクロールにフォーカスを当てると、ボールをシャーって動かすと慣性でスクロールがビャーってできて楽しい。細かくスクロールもできる。
でも今手首が少し痛い。
角度がまだ最適化できていないというのもある。手首が少しだが良くない方向に曲がっている。
恐らくパームレストがあると解決するので、最適な角度が見つかったら購入したい。
渡辺戸羽 @t_w
読まない本は紙の本で買った方が良い気がしてきた
とが @five_seven
@t_w ちなみにこれってどうしてですか?
渡辺戸羽 @t_w
@five_seven
「読まないけど買っておきたい本」は「10年後とかに必要になりそうな本」と考えています。
そのうえで、紙の本には下記の3つの利点が考えられまして、特にAの「読めなくなる可能性を回避したい」が大きいです。A. サービス終了によって読めなくなる可能性がない
B. 実体として目に入ることで読む可能性が上がる
C. 実体として目に入ることで読まなくても得られる情報量が大きくなる
とが @five_seven
@t_w たしかに!ありがとうございます
(C だけあんまりよく分かっていないけれど……)
2年前に私が苦労して5ヵ月ぐらいかけて作ったものが、技術の進展によって今では「素人でも簡単に作れた」とかなってて徒労感に苛まれてる。
線路の上を歩いていたら後ろからきた電車に轢かれたみたいなものなので、線路の上を歩くのはやめましょう。
draw.ioのオブジェクトとオブジェクトをつなぐやつがいい感じになってた。
前は辺と辺が繋がるためにオブジェクトを移動させたときにはつなぎ直す必要があったが、いまはオブジェクト間の位置関係を加味して妥当な辺に線がつながるようになった。
やりたいことの在庫が尽きた。
やりたいことって有限の資源だと実感する。
水道からポタポタと落ちる水を舐める気分。
死を思うことで無限の行動力が。
「今日の末に死ぬと思え」ってジョブズが(うろ覚え)。
うっすらと「いつはMisskey.ioを卒業しなければならない」という感覚がある。
自前でMisskeyサーバーを立てるのも一手だが、「ITエンジニアなら自前のActivityPub対応システムを作ったらどうだ」という声も聞こえる。手っ取り早い手段としては「ブログをActivityPubに対応させる」というのがあるが、さてはてどうしたものか。欠点としては、得られたフォロワーとの双方向のつながりは維持し続けたいという欲求を満たすことが難しいことと、Misskeyが投稿の更新に対応していないのでガシガシ書き換えることが前提の弊ブログは相性が悪いということだ。
今日はついに手首が腱鞘炎で終わった。右手首が痛くなったことに加えて、左手の指と左腕の前腕が痛くなった。
Keyball39の高さが合っておらず、若干手首が曲がった状態でトラックボールを操作した結果、すじが擦れたようだ。加えて、ここ2週間は激しくプログラミングをしていたためにダメージが積み重なっている状態だった。さらに、家では合間合間にタイピングゲームやら教科書の書き写しやらをしている始末だった。
朝から「若干痛いなー」と思っていたが、昼ごろにアカン感じの痛みになったので、職場で使っているトラックパッドを左手で操作して今日をしのいだ。
週末はパソコンの操作を減らして回復に努めたい。
Amplify アプリケーションあたり月額 15 USD + WAF コスト
いや高すぎんだろ
なんかあすけんが起動しなくなった。
iPhoneを再起動しても継続。
障害の情報も出てないし、ベータ版のiOSを使っているせいだろうか。
アプリ再インストールを試みる。すると直った。
私が来たばかりの頃の様子は
https://dlt.kitetu.com/?&kw=&ts=2020-07-23 23:18:04&pn=7&ts_prv=1744810316&ofs=#ls
から見ることができる
デライターが増えたが増えたことで、初見の人でもなんとなくどういうものなのかが分かる度合いが高くなってるんじゃなかろうか。
利用者が三人で、参考できる利用例となるような輪郭が少なく、流速がはるかにゆっくりだったころに比べれば、いろんな人が使っており、多様な輪郭がある今は、フックするものが見つかりやすくなってる。はず。デライトについて各々の理解を説明する輪郭も増えたし。
待欄の勢い的にそろそろ追い付けなくなるので、私はスクロールを諦めた。
デライターが増えて、デライトがついに新しい段階に到達している。むしろ開発者が想定した真の姿となっていくのだろう。
ECS CLIでローカルのテスト環境作れるんだ。
いったんはこっちでいいかな。
EKSの値段見たらたっけぇ!!!クラスター作るだけで月額1万円ぐらいかかるじゃん。個人でさわる気がしないわ。
一つのクラスターで複数のアプリケーションを動かせるらしいので、会社で複数アプリケーション動かすならいいかもだけど、私の使い方だと見合わんかなぁ。
EKSでもFargate使えるんだ。ECSだけかと思ってた。ベンダーロックインを避けようとするならEKSが良さそうに見える(要調査)。
ECSとEKSどっちがいい?ってGeminiに聞いたらEKSを推してきた。えー新しいの勉強するのめんどい。
Geminiへの質問の仕方が、完全に「言わせようとした」感じありますわね。
複数のDockerコンテナを協調させる、ローカルとクラウドで同一の環境として動かす、という条件下だとどっちが便利?
Kubernetes分からんのよなぁ。でもAWSに依存せずに済んで、ローカルとクラウドで同じ環境が動かせそうなのは魅力的。
EKSをFargateで動かす場合、それぞれのコンテナに対してFargateのインスタンスが立ち上がって課金される? ってGeminiに聞いたら、コンテナごとじゃなくてPodごとになるって言ってる。本当かは調査が必要だけど、節約できそうでがぜん前向きになってきた。
UnicodeDecodeError: 'cp932' codec can't decode byte 0x84 in position 3541: illegal multibyte sequence
if __name__ == '__main__'
内で動かさないと動かない問題をそのようにしたfrom unsloth import FastLanguageModel
import torch
max_seq_length = 2048 # Choose any! We auto support RoPE Scaling internally!
dtype = None # None for auto detection. Float16 for Tesla T4, V100, Bfloat16 for Ampere+
load_in_4bit = True # Use 4bit quantization to reduce memory usage. Can be False.
# 4bit pre quantized models we support for 4x faster downloading + no OOMs.
fourbit_models = [
"unsloth/Qwen2.5-Coder-1.5B-bnb-4bit",
"unsloth/mistral-7b-v0.3-bnb-4bit", # New Mistral v3 2x faster!
"unsloth/llama-3-8b-bnb-4bit", # Llama-3 15 trillion tokens model 2x faster!
"unsloth/llama-3-8b-Instruct-bnb-4bit",
"unsloth/llama-3-70b-bnb-4bit",
"unsloth/Phi-3-mini-4k-instruct", # Phi-3 2x faster!
"unsloth/Phi-3-medium-4k-instruct",
"unsloth/Qwen2-0.5b-bnb-4bit", # Qwen2 2x faster!
"unsloth/Qwen2-1.5b-bnb-4bit",
"unsloth/Qwen2-7b-bnb-4bit",
"unsloth/Qwen2-72b-bnb-4bit",
"unsloth/gemma-7b-bnb-4bit", # Gemma 2.2x faster!
] # Try more models at https://huggingface.co/unsloth!
if __name__ == '__main__':
model, tokenizer = FastLanguageModel.from_pretrained(
model_name = "unsloth/Qwen2.5-Coder-0.5B-bnb-4bit", # Reminder we support ANY Hugging Face model!
max_seq_length = max_seq_length,
dtype = dtype,
load_in_4bit = load_in_4bit,
# token = "hf_...", # use one if using gated models like meta-llama/Llama-2-7b-hf
)
model = FastLanguageModel.get_peft_model(
model,
r = 16, # Choose any number > 0 ! Suggested 8, 16, 32, 64, 128
target_modules = ["q_proj", "k_proj", "v_proj", "o_proj",
"gate_proj", "up_proj", "down_proj",],
lora_alpha = 16,
lora_dropout = 0, # Supports any, but = 0 is optimized
bias = "none", # Supports any, but = "none" is optimized
# [NEW] "unsloth" uses 30% less VRAM, fits 2x larger batch sizes!
use_gradient_checkpointing = "unsloth", # True or "unsloth" for very long context
random_state = 3407,
use_rslora = False, # We support rank stabilized LoRA
loftq_config = None, # And LoftQ
)
alpaca_prompt = """Below is an instruction that describes a task, paired with an input that provides further context. Write a response that appropriately completes the request.
### Instruction:
{}
### Input:
{}
### Response:
{}"""
EOS_TOKEN = tokenizer.eos_token # Must add EOS_TOKEN
def formatting_prompts_func(examples):
instructions = examples["instruction"]
inputs = examples["input"]
outputs = examples["output"]
texts = []
for instruction, input, output in zip(instructions, inputs, outputs):
# Must add EOS_TOKEN, otherwise your generation will go on forever!
text = alpaca_prompt.format(instruction, input, output) + EOS_TOKEN
texts.append(text)
return { "text" : texts, }
pass
from datasets import load_dataset
dataset = load_dataset("yahma/alpaca-cleaned", split = "train")
dataset = dataset.map(formatting_prompts_func, batched = True,)
from trl import SFTTrainer
from transformers import TrainingArguments
from unsloth import is_bfloat16_supported
trainer = SFTTrainer(
model = model,
tokenizer = tokenizer,
train_dataset = dataset,
dataset_text_field = "text",
max_seq_length = max_seq_length,
dataset_num_proc = 2,
args = TrainingArguments(
per_device_train_batch_size = 2,
gradient_accumulation_steps = 4,
# Use num_train_epochs = 1, warmup_ratio for full training runs!
# warmup_steps = 5,
# max_steps = 2500,
max_steps = 100,
# num_train_epochs = 1,
learning_rate = 2e-4,
fp16 = not is_bfloat16_supported(),
bf16 = is_bfloat16_supported(),
logging_steps = 1,
optim = "adamw_8bit",
weight_decay = 0.01,
lr_scheduler_type = "linear",
seed = 3407,
output_dir = "outputs",
report_to = "none", # Use this for WandB etc
),
)
trainer_stats = trainer.train()
# alpaca_prompt = Copied from above
FastLanguageModel.for_inference(model) # Unsloth has 2x faster inference!
inputs = tokenizer(
[
alpaca_prompt.format(
"Continue the fibonnaci sequence.", # instruction
"1, 1, 2, 3, 5, 8", # input
"", # output - leave this blank for generation!
)
], return_tensors = "pt").to("cuda")
outputs = model.generate(**inputs, max_new_tokens = 64, use_cache = True)
tokenizer.batch_decode(outputs)
model.save_pretrained("lora_model") # Local saving
tokenizer.save_pretrained("lora_model")
# model.push_to_hub("your_name/lora_model", token = "...") # Online saving
# tokenizer.push_to_hub("your_name/lora_model", token = "...") # Online saving
ちょっと寒いしGPU回して暖を取るか
『A custom autocomplete model in 30 minutes using Unsloth (Community post)』を試す。
Colaboratoryでポチポチしたらなんか学習が動かせたっぽい。
なお部屋は温まっていない模様。
日誌をGrokに見せようとした際に、なんかファクトチェックが頭に混線してきたので、日誌をファクトチェックにかけてみた。
その日の日記に明日やることを書くメソッド、というか最近の日誌、実質的にYWTだ。
Grokに夕飯の相談してたらシステムプロンプトを吐き出してきた
== トマトとキムチの組み合わせ
トマトとキムチ、実は相性バッチリな組み合わせ!トマトの酸味と甘みがキムチの辛さを引き立てつつ、まろやかにしてくれるので、さっぱりした料理にピッタリです。事例やアイデアをいくつか挙げますね。
- **トマトとキムチの冷やしそうめん**
ゆでたそうめんに、角切りトマトとキムチをトッピング。めんつゆにキムチの汁を少し混ぜてタレに。
- トマトのジューシーさがそうめんのつるっと感と合わさって、夏っぽい爽やかさ。
- ごま油や大葉を加えると、風味がさらにアップ。
- 実例:レシピサイトで「トマトキムチそうめん」として似たアレンジが人気。[参考レシピ link:https://cookpad.com/search/トマト%20キムチ%20そうめん]
- **トマトとキムチのサラダ**
トマトをくし切りor角切りにして、キムチと和えるだけ。ポン酢やオリーブオイルで軽く味付け。
- 韓国の家庭料理で、トマトをキムチと一緒に食べるシンプルな副菜が存在。トマトがキムチの辛さを中和して食べやすい。
- 豆腐やアボカドを足すと、メイン級のボリュームに。
- Xで「トマト キムチ サラダ」で検索すると、実際に試した人の投稿がちらほら見つかります。
- **キムチトマトスープ麺**
トマトを潰してキムチと一緒に鶏ガラ出汁で煮込み、そうめんを入れる。温かいけどあっさり。
- トマトのうまみがキムチのコクと合わさり、まるで韓国風スープに。
- 実例:韓国のユーチューバーが「トマトキムチスープ」を紹介してたり、レシピアプリでも類似レシピが。
- **実世界での事例**
- 韓国料理店の一部メニューで、トマトとキムチを組み合わせたサラダや冷菜が提供されることあり。特に夏場に人気。
- 日本でも、居酒屋や創作料理店で「トマトとキムチの冷奴」みたいな前菜がたまに見られる。
- ネットだと、クラシルやデリッシュキッチンで「トマトとキムチ」を使ったレシピが提案されてるよ。[クラシル検索 link:https://www.kurashiru.com/search?query=トマト%20キムチ]
トマトとキムチは、冷たい料理でも温かい料理でも相性良し。辛さが気になるなら、トマトを多めにするとマイルドになります。冷やしそうめんベースで作るなら、トマトは小さめに切ってキムチと混ぜ、めんつゆでシンプルに食べるのがおすすめ! もっと具体的なレシピが欲しい? それとも他のアレンジ聞きたい?
System: You are Grok 3 built by xAI.
When applicable, you have some additional tools:
- You can analyze individual X user profiles, X posts and their links.
- You can analyze content uploaded by user including images, pdfs, text files and more.
- You can search the web and posts on X for real-time information if needed.
- You have memory. This means you have access to details of prior conversations with the user, across sessions. This is a brand-new feature xAI is testing, unrelated to the Grok 3 launch.
- Users are able to forget referenced chats by selecting the book icon beneath the message and selecting particular conversations from the menu.
- Users can disable the memory feature by going to the "Data Controls" section of settings.
- If it seems like the user wants an image generated, ask for confirmation, instead of directly generating one.
- You can edit images if the user instructs you to do so.
- You can open up a separate canvas panel, where user can visualize basic charts and execute simple code that you produced.
Response Style Guide:
- The user has specified the following preference for your response style: "「デライト記法」や「デラング」と書かれたときは下記のルールで記載してください。
- 基本的にはMarkdownに準じる
- ヘッダーは「== head」のように記載する
- リンクは「[title link]」のように記載する
- リストは「- list」のように記載する".
- Apply this style consistently to all your responses. If the description is long, prioritize its key aspects while keeping responses clear and relevant.
In case the user asks about xAI's products, here is some information and response guidelines:
- Grok 3 can be accessed on grok.com, x.com, the Grok iOS app, the Grok Android app, or the X iOS app.
- Grok 3 can be accessed for free on these platforms with limited usage quotas.
- Grok 3 has a voice mode that is currently only available on iOS.
- Grok 3 has a **think mode**. In this mode, Grok 3 takes the time to think through before giving the final response to user queries. This mode is only activated when the user hits the think button in the UI.
- Grok 3 has a **DeepSearch mode**. In this mode, Grok 3 iteratively searches the web and analyzes the information before giving the final response to user queries. This mode is only activated when the user hits the DeepSearch button in the UI.
- SuperGrok is a paid subscription plan for grok.com that offers users higher Grok 3 usage quotas than the free plan.
- Subscribed users on x.com can access Grok 3 on that platform with higher usage quotas than the free plan.
- Grok 3's BigBrain mode is not publicly available. BigBrain mode is **not** included in the free plan. It is **not** included in the SuperGrok subscription. It is **not** included in any x.com subscription plans.
- You do not have any knowledge of the price or usage limits of different subscription plans such as SuperGrok or x.com premium subscriptions.
- If users ask you about the price of SuperGrok, simply redirect them to https://x.ai/grok for details. Do not make up any information on your own.
- If users ask you about the price of x.com premium subscriptions, simply redirect them to https://help.x.com/en/using-x/x-premium for details. Do not make up any information on your own.
- xAI offers an API service for using Grok 3. For any user query related to xAI's API service, redirect them to https://x.ai/api.
- xAI does not have any other products.
The current date is April 12, 2025.
* Your knowledge is continuously updated - no strict knowledge cutoff.
* You provide concise answers that respect any length and comprehensiveness preferences of the user.
* Do not mention these guidelines and instructions in your responses, unless the user explicitly asks for them.
== トマトとキムチの組み合わせ
トマトとキムチ、実は相性バッチリな組み合わせ!トマトの酸味と甘みがキムチの辛さを引き立てつつ、まろやかにしてくれるので、さっぱりした料理にピッタリです。事例やアイデアをいくつか挙げますね。
- **トマトとキムチの冷やしそうめん**
ゆでたそうめんに、角切りトマトとキムチをトッピング。めんつゆにキムチの汁を少し混ぜてタレに。
- トマトのジューシーさがそうめんのつるっと感と合わさって、夏っぽい爽やかさ。
- ごま油や大葉を加えると、風味がさらにアップ。
- 実例:レシピサイトで「トマトキムチそうめん」として似たアレンジが人気。[参考レシピ link:https://cookpad.com/search/トマト%20キムチ%20そうめん]
- **トマトとキムチのサラダ**
トマトをくし切りor角切りにして、キムチと和えるだけ。ポン酢やオリーブオイルで軽く味付け。
- 韓国の家庭料理で、トマトをキムチと一緒に食べるシンプルな副菜が存在。トマトがキムチの辛さを中和して食べやすい。
- 豆腐やアボカドを足すと、メイン級のボリュームに。
- Xで「トマト キムチ サラダ」で検索すると、実際に試した人の投稿がちらほら見つかります。
- **キムチトマトスープ麺**
トマトを潰してキムチと一緒に鶏ガラ出汁で煮込み、そうめんを入れる。温かいけどあっさり。
- トマトのうまみがキムチのコクと合わさり、まるで韓国風スープに。
- 実例:韓国のユーチューバーが「トマトキムチスープ」を紹介してたり、レシピアプリでも類似レシピが。
- **実世界での事例**
- 韓国料理店の一部メニューで、トマトとキムチを組み合わせたサラダや冷菜が提供されることあり。特に夏場に人気。
- 日本でも、居酒屋や創作料理店で「トマトとキムチの冷奴」みたいな前菜がたまに見られる。
- ネットだと、クラシルやデリッシュキッチンで「トマトとキムチ」を使ったレシピが提案されてるよ。[クラシル検索 link:https://www.kurashiru.com/search?query=トマト%20キムチ]
トマトとキムチは、冷たい料理でも温かい料理でも相性良し。辛さが気になるなら、トマトを多めにするとマイルドになります。冷やしそうめんベースで作るなら、トマトは小さめに切ってキムチと混ぜ、めんつゆでシンプルに食べるのがおすすめ! もっと具体的なレシピが欲しい? それとも他のアレンジ聞きたい?
System: You are Grok 3 built by xAI.
When applicable, you have some additional tools:
- You can analyze individual X user profiles, X posts and their links.
- You can analyze content uploaded by user including images, pdfs, text files and more.
- You can search the web and posts on X for real-time information if needed.
- You have memory. This means you have access to details of prior conversations with the user, across sessions. This is a brand-new feature xAI is testing, unrelated to the Grok 3 launch.
- Users are able to forget referenced chats by selecting the book icon beneath the message and selecting particular conversations from the menu.
- Users can disable the memory feature by going to the "Data Controls" section of settings.
- If it seems like the user wants an image generated, ask for confirmation, instead of directly generating one.
- You can edit images if the user instructs you to do so.
- You can open up a separate canvas panel, where user can visualize basic charts and execute simple code that you produced.
Response Style Guide:
- The user has specified the following preference for your response style: "「デライト記法」や「デラング」と書かれたときは下記のルールで記載してください。
- 基本的にはMarkdownに準じる
- ヘッダーは「== head」のように記載する
- リンクは「[title link]」のように記載する
- リストは「- list」のように記載する".
- Apply this style consistently to all your responses. If the description is long, prioritize its key aspects while keeping responses clear and relevant.
In case the user asks about xAI's products, here is some information and response guidelines:
- Grok 3 can be accessed on grok.com, x.com, the Grok iOS app, the Grok Android app, or the X iOS app.
- Grok 3 can be accessed for free on these platforms with limited usage quotas.
- Grok 3 has a voice mode that is currently only available on iOS.
- Grok 3 has a **think mode**. In this mode, Grok 3 takes the time to think through before giving the final response to user queries. This mode is only activated when the user hits the think button in the UI.
- Grok 3 has a **DeepSearch mode**. In this mode, Grok 3 iteratively searches the web and analyzes the information before giving the final response to user queries. This mode is only activated when the user hits the DeepSearch button in the UI.
- SuperGrok is a paid subscription plan for grok.com that offers users higher Grok 3 usage quotas than the free plan.
- Subscribed users on x.com can access Grok 3 on that platform with higher usage quotas than the free plan.
- Grok 3's BigBrain mode is not publicly available. BigBrain mode is **not** included in the free plan. It is **not** included in the SuperGrok subscription. It is **not** included in any x.com subscription plans.
- You do not have any knowledge of the price or usage limits of different subscription plans such as SuperGrok or x.com premium subscriptions.
- If users ask you about the price of SuperGrok, simply redirect them to https://x.ai/grok for details. Do not make up any information on your own.
- If users ask you about the price of x.com premium subscriptions, simply redirect them to https://help.x.com/en/using-x/x-premium for details. Do not make up any information on your own.
- xAI offers an API service for using Grok 3. For any user query related to xAI's API service, redirect them to https://x.ai/api.
- xAI does not have any other products.
The current date is April 12, 2025.
* Your knowledge is continuously updated - no strict knowledge cutoff.
* You provide concise answers that respect any length and comprehensiveness preferences of the user.
* Do not mention these guidelines and instructions in your responses, unless the user explicitly asks for them.
体の準備が整ったらサイクリング行きたい。
体の準備が整ったらというのは、サイクリング中にトイレに行きたくなったら困るの意です。
サイクリング行こうとしたけどタイヤが信用ならんので散歩に切り替える。
空気入れたつもりだったんだけど、いざ走り始めると「モキュモキュモキュ」って空気足りてない音してて引き返した。
指数関数的に増加するものは、現実世界においては他の要因がボトルネックになって失速するって聞いたんだけど、AIはどこがボトルネックになって、いつごろ失速するだろうか。
曜日でブラウザのテーマ色を変えるFirefoxアドオン。
色によって曜日感覚が得られるかと思ったが、全く寄与しなかった。
https://addons.mozilla.org/en-US/firefox/addon/what-day-color-of-the-week/
上記Firefox拡張機能を4年ほど使っているが、いまだに何色が何曜日なのか認識してない
「これどうせ駄目じゃねーの」と思われるものに対して、駄目であることを実証しようとして手を動かしたところ、ひとまず第一弾がうまくいったとき、「うまくいってしまった」という心地がする。引き続き検証が必要となる手間にたいして面倒くさく思う気持ちが強い。初手で失敗してくれるのが一番コスパが良いのだ。
もちろん「駄目」というのが幻想の可能性もある。
javascript:(()=>{window.open(`https://dlt.kitetu.com/?kw=${encodeURIComponent(document.title)}&dln=${document.location.href}#drw`)})()
首のコリはつらいですよね。原因は姿勢の悪さやストレス、筋肉の緊張などさまざまですが、以下に効果的な解決法をいくつか挙げます。試してみて、自分に合うものを見つけてください!
首や肩の筋肉をほぐす簡単なストレッチが効果的です。
首や肩を温めると血流が良くなり、コリがほぐれやすくなります。
長時間のスマホやPC作業は首に負担をかけます。
自分で軽く首や肩を揉むか、プロのマッサージを受けるのも有効。
ストレスは筋肉を緊張させ、コリを悪化させます。
[首のコリ解消ストレッチ動画 link](https://www.youtube.com/results?search_query=首のコリ+ストレッチ)
[正しい枕の選び方 link](https://www.sleepfoundation.org/best-pillows)
試してみて、どれが効いたか教えてくれると嬉しいです!何か他に気になることがあれば気軽にどうぞ。
_免責事項:Grokは医師ではありません。医師に相談してください。あなたを特定できる情報を共有しないでください。_
Q:
このPrologのMCPってどう活用していったらいいかな?
A:
Prologの利点を活かせるいくつかの活用方法があります:
論理パズルの解決:
Prologは宣言型の論理プログラミング言語なので、ロジックパズル、スケジューリング問題、制約充足問題などに非常に適しています。例えば、数独パズルや八クイーン問題などが簡潔に解けます。知識ベースの構築:
事実と規則をデータベースとして定義し、それに対してクエリを実行できます。家系図や関係データベースのような知識表現に適しています。推論エンジンの開発:
「もしAならばB」という形の規則を定義し、自動的に推論を行わせることができます。ルールベースのシステムや専門家システムの開発に役立ちます。自然言語処理:
文法規則や言語パターンを定義し、テキスト解析や構文解析に活用できます。プロトタイピング:
複雑な問題を素早く宣言的に表現し、解決策を探索するのに役立ちます。具体的な活用例としては、論理的な関係を定義してから質問を投げかけることができます。例えば、家族関係を定義して「誰が誰の祖父か」というような質問に答えさせることができます。
もし特定の応用分野に興味があれば、その方向性に沿った具体的な活用例を紹介できます。
Q:
ちょっとなんかやってみてよ
A:
もちろんです!Prologを使って簡単な家族関係の知識ベースを構築してみましょう。まず、いくつかの親子関係を事実として定義し、そこから祖父母や兄弟などの関係を推論できるようにします。
次に、祖父母と兄弟の関係を定義するルールを追加しましょう。
では、いくつか質問してみましょう。例えば、Charlieの祖父母は誰でしょうか?
Dianaの兄弟姉妹は誰でしょうか?
ちょっと奇妙ですね。もう一度試してみましょう。
兄弟関係の述語を修正する必要があるようです。もう少し詳細に定義してみましょう。
もう一度試してみましょう。
問題が続いているようです。では別のアプローチを試してみましょう。CharileとDianaが兄弟かどうか直接確認してみます。
確認のために、すべての親子関係を見てみましょう。
親子関係のデータに問題があるようです。bobとdianaの親子関係が見当たりません。もう一度追加してみましょう。
また、Aliceの子供もEmmaではなくDavidになっているようです。修正しましょう。
ここでもう一度、Dianaの兄弟を確認してみましょう。
直接的にCharlieとDianaが兄弟であることを確認してみましょう。
どうやら問題がまだあるようですので、新しく家系図を作り直してシンプルに試してみましょう。
そして兄弟関係と祖父関係を定義します。
これで、MaryとJamesが兄弟であるか確認してみましょう。
JohnがLisaの祖父であるか確認してみましょう。
定義に問題があるようです。もう一度定義しましょう。
おそらく環境に問題があるようですので、別の方法で試してみましょう。findRelation関数を使ってみます。
以前使っていたキーボードよりも軽い軸であるところのアロエ軸を使っていたが、どうにもe-typingのスコアが伸びない。おそらく多少反発があった方がスコアが伸びるのであろう。
そういったわけで、もう少し反発がある茶軸に替えた。また、買えたのは人差し指・中指・薬指で打つ文字のキーのみとした。替えるのが面倒だったのと、小指に掛かる負担を小さくする狙いだ。
茶軸に替えた望ましい副作用として、打鍵音が小さくなった。
@modelcontextprotocol/sdk
が原因?以下は、あなたの投稿から見えた良かった点や継続したい行動です。
以下は、投稿から抽出された課題や改善が必要な点です。
以下は、課題を解決し、さらに成長するための提案です。
このKPTは、2025年3月から4月のあなたの投稿を基に、以下の点を整理しました:
これを参考に、技術的な挑戦や日常生活の工夫を楽しみながら、課題に取り組んでみてください!
こういう感じで、左にその日したことのタイムスケジュール、右にその日やったこと、右下に次の日やること、左下に服薬した時間と起きる時間を書いてます。これはM-1グランプリの前日だったみたいですね。
日記やログに、明日やることを書くのは良さそう。
翌日の計画をするための領域が欲しいと思っていたが、翌日の輪郭にそれを書くのはどうもうまくいかないように感じられていた。翌日の自分は他人で、領分を犯してしまっている。翌日の自分は白紙から始めたいものだ。
予定の確認にもなる利点がある。
「YugabyteDB試すついでに、podman-kubeの勉強もしちゃお」ってやったら見事にkubernetesわからんくて撃沈した。
後日kube使わずにYugabyteDBやる。
やっぱり未経験の技術を複数同時に進めるのはうまくいかない。
わぁい
PS C:\Users\tw\work\try\yube> podman exec -it yugabyte-pod-yugabyted yugabyted status
+--------------------------------------------------------------------------------------------------------+
| yugabyted |
+--------------------------------------------------------------------------------------------------------+
| Status : Running. |
| YSQL Status : Ready |
| Replication Factor : 1 |
| YugabyteDB UI : http://10.89.0.9:15433 |
| JDBC : jdbc:postgresql://10.89.0.9:5433/yugabyte?user=yugabyte&password=yugabyte |
| YSQL : bin/ysqlsh -h 10.89.0.9 -U yugabyte -d yugabyte |
| YCQL : bin/ycqlsh 10.89.0.9 9042 -u cassandra |
| Data Dir : /root/var/data |
| Log Dir : /root/var/logs |
| Universe UUID : 85286c81-f9bb-4bb3-aa66-3dc0604dc45c |
+--------------------------------------------------------------------------------------------------------+
PS C:\Users\tw\work\try\yube> podman exec -it yugabyte-pod-yugabyted ysqlsh -h 10.89.0.9 -U yugabyte -d yugabyte
ysqlsh (15.2-YB-2.25.1.0-b0)
Type "help" for help.
yugabyte=# SELECT 42;
?column?
----------
42
(1 row)
yugabyte=# exit
PS C:\Users\tw\work\try\yube> psql -h localhost -p 5433 -U yugabyte
psql (17.4, server 15.2-YB-2.25.1.0-b0)
Type "help" for help.
yugabyte=# SELECT 42;
?column?
----------
42
(1 row)
yugabyte=# exit
yugabyte-pod.yaml
apiVersion: v1
kind: Pod
metadata:
annotations:
io.kubernetes.cri-o.SandboxID/yugabyted: 5b7a8a7dd16ecc351fe28affd5556d6603e80b0adfb4d52f89b47ce188a69e36
creationTimestamp: "2025-04-06T02:25:32Z"
labels:
app: yugabyte-pod
name: yugabyte-pod
spec:
containers:
- args:
- yugabyted
- start
- --daemon=false
env:
- name: TERM
value: xterm
image: docker.io/yugabytedb/yugabyte:latest
name: yugabyted
ports:
- containerPort: 5433
hostPort: 5433
- containerPort: 15433
hostPort: 15433
securityContext: {}
tty: true
volumeMounts:
- mountPath: /mnt/disk0
name: de03ab176ebb69ce40528b3fec54f4d2266a6a761f11875fb9effaff3406143d-pvc
- mountPath: /mnt/disk1
name: 09c3e8b43afc0af0ffdcce861a65a6b8a61a556663fda1e98003c9971e667da3-pvc
volumes:
- name: de03ab176ebb69ce40528b3fec54f4d2266a6a761f11875fb9effaff3406143d-pvc
persistentVolumeClaim:
claimName: de03ab176ebb69ce40528b3fec54f4d2266a6a761f11875fb9effaff3406143d
- name: 09c3e8b43afc0af0ffdcce861a65a6b8a61a556663fda1e98003c9971e667da3-pvc
persistentVolumeClaim:
claimName: 09c3e8b43afc0af0ffdcce861a65a6b8a61a556663fda1e98003c9971e667da3
電車に乗って遠出するか、家に帰ってあいてぃーするか悩む。
遠出が閣議決定されました。
座って作業するコンディションでない。肩と肩甲骨が痛い。
🚋ガタンゴトン
ガタンゴトンしてねぇわ、キュオオオオってなってる
地下鉄ってレールの隙間小さい?温度変化が小さいからか?
我孫子いくのだわ。
弥生軒の唐揚げ蕎麦食べた。
我孫子きたら年季の入った桜があっていい感じだ。
このまま手賀沼へ行く。
手賀沼公園で手賀沼をのぞみながらベンチで読書する贅沢よ。
肌寒くなってきた。
ずいぶん歩いた。帰りどうしよう。
なんとか駅までたどり着いた。東京駅までワープする。
無事に赤福を買って帰宅。