やり2025年4月22日
やりたい
- カタカナ・希哲館訳語変換サービスに「ー」を取る処理を追加する
やらねば
- 踏み洗いした布団が脱水できていたら干す
- まだ水を含んでいるので浴室の手すりに引き続きかけておく
- 本業
- 副業
やった
- 本業
- 集中力0だった
- やたらと眠いが、その割には朝はアラームの30分前に目が覚める
- 帰りにはヨタヨタと歩く様だった
- 帰宅後もとにかく頭と体がだるく、寝るよりほかない
- 集中力0だった
最近ソフトウェア開発をしていて思うのは、順調に開発が進む期間などほとんどなく、問題を倒せばすぐに次の問題が現れる。次々と現れる問題をねじ伏せ続けること、あるいは何とか回避することこそが進捗なのだろう。
もちろん予め回避できる問題を放置して、後からことさらに対応するという意味ではない。その時の最善を尽くした上でだ。
なんか面倒くさいものに対してネチネチやる体力・気力がなくなった気がする。
「さっくり上手くいかないんだからコレには未来ないでしょ」みたいな気持ちがすぐに来る。
副業とかあって単純につかえる時間も短くなっちゃってるので、早めに見切りをつけないといけないというのもある。
QMK、Python使っててインストールが面倒。
諦めたい。
だめだ。wsl上のuvだと、遅すぎてqmk setupが何も言わねぇ。エラーにすらならん。
うわぁ、なんか成功しやがったぞ。
うわぁ、やっぱり動かねぇぞ。
エラーはいて死んだ。おーわり。
jsonlファイルをS3に置けばちょっとしたアプリだったらDBとして使える説がある(未検証)。
Gitで管理したりGitHubにアップロードしたって良い。
項目 | 値 |
---|---|
OS | Windows 11 |
CPU | AMD Ryzen 7 7800X3D 8-Core Processor |
RAM | 64 GB |
実行環境 | LM Studio |
GPU | CUDA Cores | VRAM[GB] | 発売年 |
---|---|---|---|
GTX 1070 Ti | 2432 | 8 | 2017 |
RTX 5060 Ti 16GB | 4608 | 16 | 2025 |
モデル | モデルのファイルサイズ[GB] | GTX 1070 Ti TPS[tok/sec] | RTX 5060 Ti 16GB TPS[tok/sec] |
---|---|---|---|
qwen2.5-coder-0.5b-instruct | 0.37 | 135.28 | 225.03 |
qwen2.5-coder-3b-instruct | 1.93 | 65.27 | 115.26 |
qwen2.5-coder-7b-instruct | 4.68 | 36.50 | 64.96 |
qwen2.5-coder-14b-instruct | 8.99 | 8.89 | 36.94 |
qwen2.5-coder-32b-instruct | 19.85 | 2.80 | 5.14 |
qwq-32b | 19.85 | 2.75 | 4.21 |
今年の目標に反する行動をしてしまった。
しまったな。
目標がもうちょっと目に入るようにした方がいいな。
とりあえず各月の輪郭の下に今年の目標が表示されるようにした。
月 | 1月 | 2月 | 3月 | 4月 | 5月 | 6月 | 7月 | 8月 | 9月 | 10月 | 11月 | 12月 |
---|---|---|---|---|---|---|---|---|---|---|---|---|
目標歩数 | 5,428歩 | 5,662歩 | 5,896歩 | 6,130歩 | 6,363歩 | 6,597歩 | 6,831歩 | 7,065歩 | 7,298歩 | 7,532歩 | 7,766歩 | 8,000歩 |
実績 | 6,184歩 | 6,152歩 | 7,407歩 |
月 | 1月 | 2月 | 3月 | 4月 | 5月 | 6月 | 7月 | 8月 | 9月 | 10月 | 11月 | 12月 |
---|---|---|---|---|---|---|---|---|---|---|---|---|
目標歩数 | 5,428歩 | 5,662歩 | 5,896歩 | 6,130歩 | 6,363歩 | 6,597歩 | 6,831歩 | 7,065歩 | 7,298歩 | 7,532歩 | 7,766歩 | 8,000歩 |
実績 | 6,184歩 | 6,152歩 | 7,407歩 |
月 | 1月 | 2月 | 3月 | 4月 | 5月 | 6月 | 7月 | 8月 | 9月 | 10月 | 11月 | 12月 |
---|---|---|---|---|---|---|---|---|---|---|---|---|
目標歩数 | 5,428歩 | 5,662歩 | 5,896歩 | 6,130歩 | 6,363歩 | 6,597歩 | 6,831歩 | 7,065歩 | 7,298歩 | 7,532歩 | 7,766歩 | 8,000歩 |
実績 | 6,184歩 | 6,152歩 | 7,407歩 |
月 | 1月 | 2月 | 3月 | 4月 | 5月 | 6月 | 7月 | 8月 | 9月 | 10月 | 11月 | 12月 |
---|---|---|---|---|---|---|---|---|---|---|---|---|
目標歩数 | 5,428歩 | 5,662歩 | 5,896歩 | 6,130歩 | 6,363歩 | 6,597歩 | 6,831歩 | 7,065歩 | 7,298歩 | 7,532歩 | 7,766歩 | 8,000歩 |
実績 | 6,184歩 | 6,152歩 | 7,407歩 |
月 | 1月 | 2月 | 3月 | 4月 | 5月 | 6月 | 7月 | 8月 | 9月 | 10月 | 11月 | 12月 |
---|---|---|---|---|---|---|---|---|---|---|---|---|
目標歩数 | 5,428歩 | 5,662歩 | 5,896歩 | 6,130歩 | 6,363歩 | 6,597歩 | 6,831歩 | 7,065歩 | 7,298歩 | 7,532歩 | 7,766歩 | 8,000歩 |
実績 | 6,184歩 | 6,152歩 | 7,407歩 |
月 | 1月 | 2月 | 3月 | 4月 | 5月 | 6月 | 7月 | 8月 | 9月 | 10月 | 11月 | 12月 |
---|---|---|---|---|---|---|---|---|---|---|---|---|
目標歩数 | 5,428歩 | 5,662歩 | 5,896歩 | 6,130歩 | 6,363歩 | 6,597歩 | 6,831歩 | 7,065歩 | 7,298歩 | 7,532歩 | 7,766歩 | 8,000歩 |
実績 | 6,184歩 | 6,152歩 | 7,407歩 |
月 | 1月 | 2月 | 3月 | 4月 | 5月 | 6月 | 7月 | 8月 | 9月 | 10月 | 11月 | 12月 |
---|---|---|---|---|---|---|---|---|---|---|---|---|
目標歩数 | 5,428歩 | 5,662歩 | 5,896歩 | 6,130歩 | 6,363歩 | 6,597歩 | 6,831歩 | 7,065歩 | 7,298歩 | 7,532歩 | 7,766歩 | 8,000歩 |
実績 | 6,184歩 | 6,152歩 | 7,407歩 |
月 | 1月 | 2月 | 3月 | 4月 | 5月 | 6月 | 7月 | 8月 | 9月 | 10月 | 11月 | 12月 |
---|---|---|---|---|---|---|---|---|---|---|---|---|
目標歩数 | 5,428歩 | 5,662歩 | 5,896歩 | 6,130歩 | 6,363歩 | 6,597歩 | 6,831歩 | 7,065歩 | 7,298歩 | 7,532歩 | 7,766歩 | 8,000歩 |
実績 | 6,184歩 | 6,152歩 | 7,407歩 |
月 | 1月 | 2月 | 3月 | 4月 | 5月 | 6月 | 7月 | 8月 | 9月 | 10月 | 11月 | 12月 |
---|---|---|---|---|---|---|---|---|---|---|---|---|
目標歩数 | 5,428歩 | 5,662歩 | 5,896歩 | 6,130歩 | 6,363歩 | 6,597歩 | 6,831歩 | 7,065歩 | 7,298歩 | 7,532歩 | 7,766歩 | 8,000歩 |
実績 | 6,184歩 | 6,152歩 | 7,407歩 |
私は型の支援がないともう何もできねぇ。
コードを変更したら、連動して変更すべき場所を自動で示してもらわないともうむり。
というか型エラーとかそのうちAIが自動で直してくれそう。
大変そうなので今のところ作る気がしない
jsonlをいい感じにして、VSCodeの拡張機能をいい感じに作ると、いい感じにできるかもしれない。
一つのjsonlファイルを一つの輪郭として扱う
引き入れについての情報は双方の輪郭に持たせる
jsonlには追記のみを行う
引き外したときには「引き外した」という上方を追記する
片方は引き入れているのに、もう片方には引き入れられているという情報がないときには、いい感じに解消する(たぶん引き入れているを正とするような気がする、あるいは後勝ち)
きゃろってね 🥕 @Carotene
ピザ食う
渡辺戸羽 @t_w
ピザ食う
みつは☘️ (自鯖) @[email protected]
ピザにしたよ:ablobcatpnd_heart_happy:
ドミノのギガ・ミート
フォロワーと謎のピザ被りした。写真を撮ってSNSに投稿しようとしているタイミングでちょうど相手方が投稿してきたので乗っかった。
FF関係が長いと、ピザを食べたくなるタイミングが同調してくるのかもしれない。
そしてそれを見た別のフォロワーがピザを頼んで食べていた。
楽しいね。
帰省するときに新幹線で浜松行ってさわやか行くのありかも。
さわやかへ行ったとして、その後の新幹線がやっかいだな。指定席のみの可能性が高い。こだまだと指定席にならないから何とかなるかな。
最近、ローカルで動くデライトの必要性を強く感じるようになってきている。
一度デライトでの知識管理を知ってしまった後では、他の物だと方式の違いからどうにも違和感があって仕方がない。
「作る」と考えたときには知番生成やらデラングのパースやらでかなり重い。
ジャンルは麻生太郎よ
麻生太郎さんがたまたまローゼンメイデンを立ち読みしていたところを目撃されただけでキャラ付けされてるの良い(当の本人は「なぜこんなに目が大きいのか」以外の感想を持っていない)
最近プライベートで全然プログラミングやってねぇな。
なにかをぼんやりと考えている。まだ形は見えない。
本業でダカダカとプログラミングをしているので、それで満足してしまっているのかもしれない。
Ankiのその日のノルマをすべてやらなければならないと思ってしまっていたが、実用上はノルマ未達でも全く問題がない。むしろ若干未達があるぐらいにすると、より忘れている可能性が高い状態で復習ができて効率が良いまである(要検証)。
あれはその日やっても良い上限と思った方が良い。
トラックボールのボールでスクロールするの、スクロール自体はめちゃくちゃ快適だけど親指に負荷が集中して壊れるな。
スクロールにフォーカスを当てると、ボールをシャーって動かすと慣性でスクロールがビャーってできて楽しい。細かくスクロールもできる。
でも今手首が少し痛い。
角度がまだ最適化できていないというのもある。手首が少しだが良くない方向に曲がっている。
恐らくパームレストがあると解決するので、最適な角度が見つかったら購入したい。
渡辺戸羽 @t_w
読まない本は紙の本で買った方が良い気がしてきた
とが @five_seven
@t_w ちなみにこれってどうしてですか?
渡辺戸羽 @t_w
@five_seven
「読まないけど買っておきたい本」は「10年後とかに必要になりそうな本」と考えています。
そのうえで、紙の本には下記の3つの利点が考えられまして、特にAの「読めなくなる可能性を回避したい」が大きいです。A. サービス終了によって読めなくなる可能性がない
B. 実体として目に入ることで読む可能性が上がる
C. 実体として目に入ることで読まなくても得られる情報量が大きくなる
とが @five_seven
@t_w たしかに!ありがとうございます
(C だけあんまりよく分かっていないけれど……)
2年前に私が苦労して5ヵ月ぐらいかけて作ったものが、技術の進展によって今では「素人でも簡単に作れた」とかなってて徒労感に苛まれてる。
線路の上を歩いていたら後ろからきた電車に轢かれたみたいなものなので、線路の上を歩くのはやめましょう。
draw.ioのオブジェクトとオブジェクトをつなぐやつがいい感じになってた。
前は辺と辺が繋がるためにオブジェクトを移動させたときにはつなぎ直す必要があったが、いまはオブジェクト間の位置関係を加味して妥当な辺に線がつながるようになった。
やりたいことの在庫が尽きた。
やりたいことって有限の資源だと実感する。
水道からポタポタと落ちる水を舐める気分。
死を思うことで無限の行動力が。
「今日の末に死ぬと思え」ってジョブズが(うろ覚え)。
うっすらと「いつはMisskey.ioを卒業しなければならない」という感覚がある。
自前でMisskeyサーバーを立てるのも一手だが、「ITエンジニアなら自前のActivityPub対応システムを作ったらどうだ」という声も聞こえる。手っ取り早い手段としては「ブログをActivityPubに対応させる」というのがあるが、さてはてどうしたものか。欠点としては、得られたフォロワーとの双方向のつながりは維持し続けたいという欲求を満たすことが難しいことと、Misskeyが投稿の更新に対応していないのでガシガシ書き換えることが前提の弊ブログは相性が悪いということだ。
今日はついに手首が腱鞘炎で終わった。右手首が痛くなったことに加えて、左手の指と左腕の前腕が痛くなった。
Keyball39の高さが合っておらず、若干手首が曲がった状態でトラックボールを操作した結果、すじが擦れたようだ。加えて、ここ2週間は激しくプログラミングをしていたためにダメージが積み重なっている状態だった。さらに、家では合間合間にタイピングゲームやら教科書の書き写しやらをしている始末だった。
朝から「若干痛いなー」と思っていたが、昼ごろにアカン感じの痛みになったので、職場で使っているトラックパッドを左手で操作して今日をしのいだ。
週末はパソコンの操作を減らして回復に努めたい。
Amplify アプリケーションあたり月額 15 USD + WAF コスト
いや高すぎんだろ
なんかあすけんが起動しなくなった。
iPhoneを再起動しても継続。
障害の情報も出てないし、ベータ版のiOSを使っているせいだろうか。
アプリ再インストールを試みる。すると直った。
私が来たばかりの頃の様子は
https://dlt.kitetu.com/?&kw=&ts=2020-07-23 23:18:04&pn=7&ts_prv=1744810316&ofs=#ls
から見ることができる
デライターが増えたが増えたことで、初見の人でもなんとなくどういうものなのかが分かる度合いが高くなってるんじゃなかろうか。
利用者が三人で、参考できる利用例となるような輪郭が少なく、流速がはるかにゆっくりだったころに比べれば、いろんな人が使っており、多様な輪郭がある今は、フックするものが見つかりやすくなってる。はず。デライトについて各々の理解を説明する輪郭も増えたし。
待欄の勢い的にそろそろ追い付けなくなるので、私はスクロールを諦めた。
デライターが増えて、デライトがついに新しい段階に到達している。むしろ開発者が想定した真の姿となっていくのだろう。
ECS CLIでローカルのテスト環境作れるんだ。
いったんはこっちでいいかな。
EKSの値段見たらたっけぇ!!!クラスター作るだけで月額1万円ぐらいかかるじゃん。個人でさわる気がしないわ。
一つのクラスターで複数のアプリケーションを動かせるらしいので、会社で複数アプリケーション動かすならいいかもだけど、私の使い方だと見合わんかなぁ。
EKSでもFargate使えるんだ。ECSだけかと思ってた。ベンダーロックインを避けようとするならEKSが良さそうに見える(要調査)。
ECSとEKSどっちがいい?ってGeminiに聞いたらEKSを推してきた。えー新しいの勉強するのめんどい。
Geminiへの質問の仕方が、完全に「言わせようとした」感じありますわね。
複数のDockerコンテナを協調させる、ローカルとクラウドで同一の環境として動かす、という条件下だとどっちが便利?
Kubernetes分からんのよなぁ。でもAWSに依存せずに済んで、ローカルとクラウドで同じ環境が動かせそうなのは魅力的。
EKSをFargateで動かす場合、それぞれのコンテナに対してFargateのインスタンスが立ち上がって課金される? ってGeminiに聞いたら、コンテナごとじゃなくてPodごとになるって言ってる。本当かは調査が必要だけど、節約できそうでがぜん前向きになってきた。
UnicodeDecodeError: 'cp932' codec can't decode byte 0x84 in position 3541: illegal multibyte sequence
if __name__ == '__main__'
内で動かさないと動かない問題をそのようにしたfrom unsloth import FastLanguageModel
import torch
max_seq_length = 2048 # Choose any! We auto support RoPE Scaling internally!
dtype = None # None for auto detection. Float16 for Tesla T4, V100, Bfloat16 for Ampere+
load_in_4bit = True # Use 4bit quantization to reduce memory usage. Can be False.
# 4bit pre quantized models we support for 4x faster downloading + no OOMs.
fourbit_models = [
"unsloth/Qwen2.5-Coder-1.5B-bnb-4bit",
"unsloth/mistral-7b-v0.3-bnb-4bit", # New Mistral v3 2x faster!
"unsloth/llama-3-8b-bnb-4bit", # Llama-3 15 trillion tokens model 2x faster!
"unsloth/llama-3-8b-Instruct-bnb-4bit",
"unsloth/llama-3-70b-bnb-4bit",
"unsloth/Phi-3-mini-4k-instruct", # Phi-3 2x faster!
"unsloth/Phi-3-medium-4k-instruct",
"unsloth/Qwen2-0.5b-bnb-4bit", # Qwen2 2x faster!
"unsloth/Qwen2-1.5b-bnb-4bit",
"unsloth/Qwen2-7b-bnb-4bit",
"unsloth/Qwen2-72b-bnb-4bit",
"unsloth/gemma-7b-bnb-4bit", # Gemma 2.2x faster!
] # Try more models at https://huggingface.co/unsloth!
if __name__ == '__main__':
model, tokenizer = FastLanguageModel.from_pretrained(
model_name = "unsloth/Qwen2.5-Coder-0.5B-bnb-4bit", # Reminder we support ANY Hugging Face model!
max_seq_length = max_seq_length,
dtype = dtype,
load_in_4bit = load_in_4bit,
# token = "hf_...", # use one if using gated models like meta-llama/Llama-2-7b-hf
)
model = FastLanguageModel.get_peft_model(
model,
r = 16, # Choose any number > 0 ! Suggested 8, 16, 32, 64, 128
target_modules = ["q_proj", "k_proj", "v_proj", "o_proj",
"gate_proj", "up_proj", "down_proj",],
lora_alpha = 16,
lora_dropout = 0, # Supports any, but = 0 is optimized
bias = "none", # Supports any, but = "none" is optimized
# [NEW] "unsloth" uses 30% less VRAM, fits 2x larger batch sizes!
use_gradient_checkpointing = "unsloth", # True or "unsloth" for very long context
random_state = 3407,
use_rslora = False, # We support rank stabilized LoRA
loftq_config = None, # And LoftQ
)
alpaca_prompt = """Below is an instruction that describes a task, paired with an input that provides further context. Write a response that appropriately completes the request.
### Instruction:
{}
### Input:
{}
### Response:
{}"""
EOS_TOKEN = tokenizer.eos_token # Must add EOS_TOKEN
def formatting_prompts_func(examples):
instructions = examples["instruction"]
inputs = examples["input"]
outputs = examples["output"]
texts = []
for instruction, input, output in zip(instructions, inputs, outputs):
# Must add EOS_TOKEN, otherwise your generation will go on forever!
text = alpaca_prompt.format(instruction, input, output) + EOS_TOKEN
texts.append(text)
return { "text" : texts, }
pass
from datasets import load_dataset
dataset = load_dataset("yahma/alpaca-cleaned", split = "train")
dataset = dataset.map(formatting_prompts_func, batched = True,)
from trl import SFTTrainer
from transformers import TrainingArguments
from unsloth import is_bfloat16_supported
trainer = SFTTrainer(
model = model,
tokenizer = tokenizer,
train_dataset = dataset,
dataset_text_field = "text",
max_seq_length = max_seq_length,
dataset_num_proc = 2,
args = TrainingArguments(
per_device_train_batch_size = 2,
gradient_accumulation_steps = 4,
# Use num_train_epochs = 1, warmup_ratio for full training runs!
# warmup_steps = 5,
# max_steps = 2500,
max_steps = 100,
# num_train_epochs = 1,
learning_rate = 2e-4,
fp16 = not is_bfloat16_supported(),
bf16 = is_bfloat16_supported(),
logging_steps = 1,
optim = "adamw_8bit",
weight_decay = 0.01,
lr_scheduler_type = "linear",
seed = 3407,
output_dir = "outputs",
report_to = "none", # Use this for WandB etc
),
)
trainer_stats = trainer.train()
# alpaca_prompt = Copied from above
FastLanguageModel.for_inference(model) # Unsloth has 2x faster inference!
inputs = tokenizer(
[
alpaca_prompt.format(
"Continue the fibonnaci sequence.", # instruction
"1, 1, 2, 3, 5, 8", # input
"", # output - leave this blank for generation!
)
], return_tensors = "pt").to("cuda")
outputs = model.generate(**inputs, max_new_tokens = 64, use_cache = True)
tokenizer.batch_decode(outputs)
model.save_pretrained("lora_model") # Local saving
tokenizer.save_pretrained("lora_model")
# model.push_to_hub("your_name/lora_model", token = "...") # Online saving
# tokenizer.push_to_hub("your_name/lora_model", token = "...") # Online saving
ちょっと寒いしGPU回して暖を取るか
『A custom autocomplete model in 30 minutes using Unsloth (Community post)』を試す。
Colaboratoryでポチポチしたらなんか学習が動かせたっぽい。
なお部屋は温まっていない模様。
日誌をGrokに見せようとした際に、なんかファクトチェックが頭に混線してきたので、日誌をファクトチェックにかけてみた。
その日の日記に明日やることを書くメソッド、というか最近の日誌、実質的にYWTだ。
Grokに夕飯の相談してたらシステムプロンプトを吐き出してきた
== トマトとキムチの組み合わせ
トマトとキムチ、実は相性バッチリな組み合わせ!トマトの酸味と甘みがキムチの辛さを引き立てつつ、まろやかにしてくれるので、さっぱりした料理にピッタリです。事例やアイデアをいくつか挙げますね。
- **トマトとキムチの冷やしそうめん**
ゆでたそうめんに、角切りトマトとキムチをトッピング。めんつゆにキムチの汁を少し混ぜてタレに。
- トマトのジューシーさがそうめんのつるっと感と合わさって、夏っぽい爽やかさ。
- ごま油や大葉を加えると、風味がさらにアップ。
- 実例:レシピサイトで「トマトキムチそうめん」として似たアレンジが人気。[参考レシピ link:https://cookpad.com/search/トマト%20キムチ%20そうめん]
- **トマトとキムチのサラダ**
トマトをくし切りor角切りにして、キムチと和えるだけ。ポン酢やオリーブオイルで軽く味付け。
- 韓国の家庭料理で、トマトをキムチと一緒に食べるシンプルな副菜が存在。トマトがキムチの辛さを中和して食べやすい。
- 豆腐やアボカドを足すと、メイン級のボリュームに。
- Xで「トマト キムチ サラダ」で検索すると、実際に試した人の投稿がちらほら見つかります。
- **キムチトマトスープ麺**
トマトを潰してキムチと一緒に鶏ガラ出汁で煮込み、そうめんを入れる。温かいけどあっさり。
- トマトのうまみがキムチのコクと合わさり、まるで韓国風スープに。
- 実例:韓国のユーチューバーが「トマトキムチスープ」を紹介してたり、レシピアプリでも類似レシピが。
- **実世界での事例**
- 韓国料理店の一部メニューで、トマトとキムチを組み合わせたサラダや冷菜が提供されることあり。特に夏場に人気。
- 日本でも、居酒屋や創作料理店で「トマトとキムチの冷奴」みたいな前菜がたまに見られる。
- ネットだと、クラシルやデリッシュキッチンで「トマトとキムチ」を使ったレシピが提案されてるよ。[クラシル検索 link:https://www.kurashiru.com/search?query=トマト%20キムチ]
トマトとキムチは、冷たい料理でも温かい料理でも相性良し。辛さが気になるなら、トマトを多めにするとマイルドになります。冷やしそうめんベースで作るなら、トマトは小さめに切ってキムチと混ぜ、めんつゆでシンプルに食べるのがおすすめ! もっと具体的なレシピが欲しい? それとも他のアレンジ聞きたい?
System: You are Grok 3 built by xAI.
When applicable, you have some additional tools:
- You can analyze individual X user profiles, X posts and their links.
- You can analyze content uploaded by user including images, pdfs, text files and more.
- You can search the web and posts on X for real-time information if needed.
- You have memory. This means you have access to details of prior conversations with the user, across sessions. This is a brand-new feature xAI is testing, unrelated to the Grok 3 launch.
- Users are able to forget referenced chats by selecting the book icon beneath the message and selecting particular conversations from the menu.
- Users can disable the memory feature by going to the "Data Controls" section of settings.
- If it seems like the user wants an image generated, ask for confirmation, instead of directly generating one.
- You can edit images if the user instructs you to do so.
- You can open up a separate canvas panel, where user can visualize basic charts and execute simple code that you produced.
Response Style Guide:
- The user has specified the following preference for your response style: "「デライト記法」や「デラング」と書かれたときは下記のルールで記載してください。
- 基本的にはMarkdownに準じる
- ヘッダーは「== head」のように記載する
- リンクは「[title link]」のように記載する
- リストは「- list」のように記載する".
- Apply this style consistently to all your responses. If the description is long, prioritize its key aspects while keeping responses clear and relevant.
In case the user asks about xAI's products, here is some information and response guidelines:
- Grok 3 can be accessed on grok.com, x.com, the Grok iOS app, the Grok Android app, or the X iOS app.
- Grok 3 can be accessed for free on these platforms with limited usage quotas.
- Grok 3 has a voice mode that is currently only available on iOS.
- Grok 3 has a **think mode**. In this mode, Grok 3 takes the time to think through before giving the final response to user queries. This mode is only activated when the user hits the think button in the UI.
- Grok 3 has a **DeepSearch mode**. In this mode, Grok 3 iteratively searches the web and analyzes the information before giving the final response to user queries. This mode is only activated when the user hits the DeepSearch button in the UI.
- SuperGrok is a paid subscription plan for grok.com that offers users higher Grok 3 usage quotas than the free plan.
- Subscribed users on x.com can access Grok 3 on that platform with higher usage quotas than the free plan.
- Grok 3's BigBrain mode is not publicly available. BigBrain mode is **not** included in the free plan. It is **not** included in the SuperGrok subscription. It is **not** included in any x.com subscription plans.
- You do not have any knowledge of the price or usage limits of different subscription plans such as SuperGrok or x.com premium subscriptions.
- If users ask you about the price of SuperGrok, simply redirect them to https://x.ai/grok for details. Do not make up any information on your own.
- If users ask you about the price of x.com premium subscriptions, simply redirect them to https://help.x.com/en/using-x/x-premium for details. Do not make up any information on your own.
- xAI offers an API service for using Grok 3. For any user query related to xAI's API service, redirect them to https://x.ai/api.
- xAI does not have any other products.
The current date is April 12, 2025.
* Your knowledge is continuously updated - no strict knowledge cutoff.
* You provide concise answers that respect any length and comprehensiveness preferences of the user.
* Do not mention these guidelines and instructions in your responses, unless the user explicitly asks for them.
== トマトとキムチの組み合わせ
トマトとキムチ、実は相性バッチリな組み合わせ!トマトの酸味と甘みがキムチの辛さを引き立てつつ、まろやかにしてくれるので、さっぱりした料理にピッタリです。事例やアイデアをいくつか挙げますね。
- **トマトとキムチの冷やしそうめん**
ゆでたそうめんに、角切りトマトとキムチをトッピング。めんつゆにキムチの汁を少し混ぜてタレに。
- トマトのジューシーさがそうめんのつるっと感と合わさって、夏っぽい爽やかさ。
- ごま油や大葉を加えると、風味がさらにアップ。
- 実例:レシピサイトで「トマトキムチそうめん」として似たアレンジが人気。[参考レシピ link:https://cookpad.com/search/トマト%20キムチ%20そうめん]
- **トマトとキムチのサラダ**
トマトをくし切りor角切りにして、キムチと和えるだけ。ポン酢やオリーブオイルで軽く味付け。
- 韓国の家庭料理で、トマトをキムチと一緒に食べるシンプルな副菜が存在。トマトがキムチの辛さを中和して食べやすい。
- 豆腐やアボカドを足すと、メイン級のボリュームに。
- Xで「トマト キムチ サラダ」で検索すると、実際に試した人の投稿がちらほら見つかります。
- **キムチトマトスープ麺**
トマトを潰してキムチと一緒に鶏ガラ出汁で煮込み、そうめんを入れる。温かいけどあっさり。
- トマトのうまみがキムチのコクと合わさり、まるで韓国風スープに。
- 実例:韓国のユーチューバーが「トマトキムチスープ」を紹介してたり、レシピアプリでも類似レシピが。
- **実世界での事例**
- 韓国料理店の一部メニューで、トマトとキムチを組み合わせたサラダや冷菜が提供されることあり。特に夏場に人気。
- 日本でも、居酒屋や創作料理店で「トマトとキムチの冷奴」みたいな前菜がたまに見られる。
- ネットだと、クラシルやデリッシュキッチンで「トマトとキムチ」を使ったレシピが提案されてるよ。[クラシル検索 link:https://www.kurashiru.com/search?query=トマト%20キムチ]
トマトとキムチは、冷たい料理でも温かい料理でも相性良し。辛さが気になるなら、トマトを多めにするとマイルドになります。冷やしそうめんベースで作るなら、トマトは小さめに切ってキムチと混ぜ、めんつゆでシンプルに食べるのがおすすめ! もっと具体的なレシピが欲しい? それとも他のアレンジ聞きたい?
System: You are Grok 3 built by xAI.
When applicable, you have some additional tools:
- You can analyze individual X user profiles, X posts and their links.
- You can analyze content uploaded by user including images, pdfs, text files and more.
- You can search the web and posts on X for real-time information if needed.
- You have memory. This means you have access to details of prior conversations with the user, across sessions. This is a brand-new feature xAI is testing, unrelated to the Grok 3 launch.
- Users are able to forget referenced chats by selecting the book icon beneath the message and selecting particular conversations from the menu.
- Users can disable the memory feature by going to the "Data Controls" section of settings.
- If it seems like the user wants an image generated, ask for confirmation, instead of directly generating one.
- You can edit images if the user instructs you to do so.
- You can open up a separate canvas panel, where user can visualize basic charts and execute simple code that you produced.
Response Style Guide:
- The user has specified the following preference for your response style: "「デライト記法」や「デラング」と書かれたときは下記のルールで記載してください。
- 基本的にはMarkdownに準じる
- ヘッダーは「== head」のように記載する
- リンクは「[title link]」のように記載する
- リストは「- list」のように記載する".
- Apply this style consistently to all your responses. If the description is long, prioritize its key aspects while keeping responses clear and relevant.
In case the user asks about xAI's products, here is some information and response guidelines:
- Grok 3 can be accessed on grok.com, x.com, the Grok iOS app, the Grok Android app, or the X iOS app.
- Grok 3 can be accessed for free on these platforms with limited usage quotas.
- Grok 3 has a voice mode that is currently only available on iOS.
- Grok 3 has a **think mode**. In this mode, Grok 3 takes the time to think through before giving the final response to user queries. This mode is only activated when the user hits the think button in the UI.
- Grok 3 has a **DeepSearch mode**. In this mode, Grok 3 iteratively searches the web and analyzes the information before giving the final response to user queries. This mode is only activated when the user hits the DeepSearch button in the UI.
- SuperGrok is a paid subscription plan for grok.com that offers users higher Grok 3 usage quotas than the free plan.
- Subscribed users on x.com can access Grok 3 on that platform with higher usage quotas than the free plan.
- Grok 3's BigBrain mode is not publicly available. BigBrain mode is **not** included in the free plan. It is **not** included in the SuperGrok subscription. It is **not** included in any x.com subscription plans.
- You do not have any knowledge of the price or usage limits of different subscription plans such as SuperGrok or x.com premium subscriptions.
- If users ask you about the price of SuperGrok, simply redirect them to https://x.ai/grok for details. Do not make up any information on your own.
- If users ask you about the price of x.com premium subscriptions, simply redirect them to https://help.x.com/en/using-x/x-premium for details. Do not make up any information on your own.
- xAI offers an API service for using Grok 3. For any user query related to xAI's API service, redirect them to https://x.ai/api.
- xAI does not have any other products.
The current date is April 12, 2025.
* Your knowledge is continuously updated - no strict knowledge cutoff.
* You provide concise answers that respect any length and comprehensiveness preferences of the user.
* Do not mention these guidelines and instructions in your responses, unless the user explicitly asks for them.
体の準備が整ったらサイクリング行きたい。
体の準備が整ったらというのは、サイクリング中にトイレに行きたくなったら困るの意です。
サイクリング行こうとしたけどタイヤが信用ならんので散歩に切り替える。
空気入れたつもりだったんだけど、いざ走り始めると「モキュモキュモキュ」って空気足りてない音してて引き返した。
指数関数的に増加するものは、現実世界においては他の要因がボトルネックになって失速するって聞いたんだけど、AIはどこがボトルネックになって、いつごろ失速するだろうか。
曜日でブラウザのテーマ色を変えるFirefoxアドオン。
色によって曜日感覚が得られるかと思ったが、全く寄与しなかった。
https://addons.mozilla.org/en-US/firefox/addon/what-day-color-of-the-week/
上記Firefox拡張機能を4年ほど使っているが、いまだに何色が何曜日なのか認識してない
「これどうせ駄目じゃねーの」と思われるものに対して、駄目であることを実証しようとして手を動かしたところ、ひとまず第一弾がうまくいったとき、「うまくいってしまった」という心地がする。引き続き検証が必要となる手間にたいして面倒くさく思う気持ちが強い。初手で失敗してくれるのが一番コスパが良いのだ。
もちろん「駄目」というのが幻想の可能性もある。
javascript:(()=>{window.open(`https://dlt.kitetu.com/?kw=${encodeURIComponent(document.title)}&dln=${document.location.href}#drw`)})()
首のコリはつらいですよね。原因は姿勢の悪さやストレス、筋肉の緊張などさまざまですが、以下に効果的な解決法をいくつか挙げます。試してみて、自分に合うものを見つけてください!
首や肩の筋肉をほぐす簡単なストレッチが効果的です。
首や肩を温めると血流が良くなり、コリがほぐれやすくなります。
長時間のスマホやPC作業は首に負担をかけます。
自分で軽く首や肩を揉むか、プロのマッサージを受けるのも有効。
ストレスは筋肉を緊張させ、コリを悪化させます。
[首のコリ解消ストレッチ動画 link](https://www.youtube.com/results?search_query=首のコリ+ストレッチ)
[正しい枕の選び方 link](https://www.sleepfoundation.org/best-pillows)
試してみて、どれが効いたか教えてくれると嬉しいです!何か他に気になることがあれば気軽にどうぞ。
_免責事項:Grokは医師ではありません。医師に相談してください。あなたを特定できる情報を共有しないでください。_
Q:
このPrologのMCPってどう活用していったらいいかな?
A:
Prologの利点を活かせるいくつかの活用方法があります:
論理パズルの解決:
Prologは宣言型の論理プログラミング言語なので、ロジックパズル、スケジューリング問題、制約充足問題などに非常に適しています。例えば、数独パズルや八クイーン問題などが簡潔に解けます。知識ベースの構築:
事実と規則をデータベースとして定義し、それに対してクエリを実行できます。家系図や関係データベースのような知識表現に適しています。推論エンジンの開発:
「もしAならばB」という形の規則を定義し、自動的に推論を行わせることができます。ルールベースのシステムや専門家システムの開発に役立ちます。自然言語処理:
文法規則や言語パターンを定義し、テキスト解析や構文解析に活用できます。プロトタイピング:
複雑な問題を素早く宣言的に表現し、解決策を探索するのに役立ちます。具体的な活用例としては、論理的な関係を定義してから質問を投げかけることができます。例えば、家族関係を定義して「誰が誰の祖父か」というような質問に答えさせることができます。
もし特定の応用分野に興味があれば、その方向性に沿った具体的な活用例を紹介できます。
Q:
ちょっとなんかやってみてよ
A:
もちろんです!Prologを使って簡単な家族関係の知識ベースを構築してみましょう。まず、いくつかの親子関係を事実として定義し、そこから祖父母や兄弟などの関係を推論できるようにします。
次に、祖父母と兄弟の関係を定義するルールを追加しましょう。
では、いくつか質問してみましょう。例えば、Charlieの祖父母は誰でしょうか?
Dianaの兄弟姉妹は誰でしょうか?
ちょっと奇妙ですね。もう一度試してみましょう。
兄弟関係の述語を修正する必要があるようです。もう少し詳細に定義してみましょう。
もう一度試してみましょう。
問題が続いているようです。では別のアプローチを試してみましょう。CharileとDianaが兄弟かどうか直接確認してみます。
確認のために、すべての親子関係を見てみましょう。
親子関係のデータに問題があるようです。bobとdianaの親子関係が見当たりません。もう一度追加してみましょう。
また、Aliceの子供もEmmaではなくDavidになっているようです。修正しましょう。
ここでもう一度、Dianaの兄弟を確認してみましょう。
直接的にCharlieとDianaが兄弟であることを確認してみましょう。
どうやら問題がまだあるようですので、新しく家系図を作り直してシンプルに試してみましょう。
そして兄弟関係と祖父関係を定義します。
これで、MaryとJamesが兄弟であるか確認してみましょう。
JohnがLisaの祖父であるか確認してみましょう。
定義に問題があるようです。もう一度定義しましょう。
おそらく環境に問題があるようですので、別の方法で試してみましょう。findRelation関数を使ってみます。
以前使っていたキーボードよりも軽い軸であるところのアロエ軸を使っていたが、どうにもe-typingのスコアが伸びない。おそらく多少反発があった方がスコアが伸びるのであろう。
そういったわけで、もう少し反発がある茶軸に替えた。また、買えたのは人差し指・中指・薬指で打つ文字のキーのみとした。替えるのが面倒だったのと、小指に掛かる負担を小さくする狙いだ。
茶軸に替えた望ましい副作用として、打鍵音が小さくなった。
@modelcontextprotocol/sdk
が原因?以下は、あなたの投稿から見えた良かった点や継続したい行動です。
以下は、投稿から抽出された課題や改善が必要な点です。
以下は、課題を解決し、さらに成長するための提案です。
このKPTは、2025年3月から4月のあなたの投稿を基に、以下の点を整理しました:
これを参考に、技術的な挑戦や日常生活の工夫を楽しみながら、課題に取り組んでみてください!
こういう感じで、左にその日したことのタイムスケジュール、右にその日やったこと、右下に次の日やること、左下に服薬した時間と起きる時間を書いてます。これはM-1グランプリの前日だったみたいですね。
日記やログに、明日やることを書くのは良さそう。
翌日の計画をするための領域が欲しいと思っていたが、翌日の輪郭にそれを書くのはどうもうまくいかないように感じられていた。翌日の自分は他人で、領分を犯してしまっている。翌日の自分は白紙から始めたいものだ。
予定の確認にもなる利点がある。
「YugabyteDB試すついでに、podman-kubeの勉強もしちゃお」ってやったら見事にkubernetesわからんくて撃沈した。
後日kube使わずにYugabyteDBやる。
やっぱり未経験の技術を複数同時に進めるのはうまくいかない。
わぁい
PS C:\Users\tw\work\try\yube> podman exec -it yugabyte-pod-yugabyted yugabyted status
+--------------------------------------------------------------------------------------------------------+
| yugabyted |
+--------------------------------------------------------------------------------------------------------+
| Status : Running. |
| YSQL Status : Ready |
| Replication Factor : 1 |
| YugabyteDB UI : http://10.89.0.9:15433 |
| JDBC : jdbc:postgresql://10.89.0.9:5433/yugabyte?user=yugabyte&password=yugabyte |
| YSQL : bin/ysqlsh -h 10.89.0.9 -U yugabyte -d yugabyte |
| YCQL : bin/ycqlsh 10.89.0.9 9042 -u cassandra |
| Data Dir : /root/var/data |
| Log Dir : /root/var/logs |
| Universe UUID : 85286c81-f9bb-4bb3-aa66-3dc0604dc45c |
+--------------------------------------------------------------------------------------------------------+
PS C:\Users\tw\work\try\yube> podman exec -it yugabyte-pod-yugabyted ysqlsh -h 10.89.0.9 -U yugabyte -d yugabyte
ysqlsh (15.2-YB-2.25.1.0-b0)
Type "help" for help.
yugabyte=# SELECT 42;
?column?
----------
42
(1 row)
yugabyte=# exit
PS C:\Users\tw\work\try\yube> psql -h localhost -p 5433 -U yugabyte
psql (17.4, server 15.2-YB-2.25.1.0-b0)
Type "help" for help.
yugabyte=# SELECT 42;
?column?
----------
42
(1 row)
yugabyte=# exit
yugabyte-pod.yaml
apiVersion: v1
kind: Pod
metadata:
annotations:
io.kubernetes.cri-o.SandboxID/yugabyted: 5b7a8a7dd16ecc351fe28affd5556d6603e80b0adfb4d52f89b47ce188a69e36
creationTimestamp: "2025-04-06T02:25:32Z"
labels:
app: yugabyte-pod
name: yugabyte-pod
spec:
containers:
- args:
- yugabyted
- start
- --daemon=false
env:
- name: TERM
value: xterm
image: docker.io/yugabytedb/yugabyte:latest
name: yugabyted
ports:
- containerPort: 5433
hostPort: 5433
- containerPort: 15433
hostPort: 15433
securityContext: {}
tty: true
volumeMounts:
- mountPath: /mnt/disk0
name: de03ab176ebb69ce40528b3fec54f4d2266a6a761f11875fb9effaff3406143d-pvc
- mountPath: /mnt/disk1
name: 09c3e8b43afc0af0ffdcce861a65a6b8a61a556663fda1e98003c9971e667da3-pvc
volumes:
- name: de03ab176ebb69ce40528b3fec54f4d2266a6a761f11875fb9effaff3406143d-pvc
persistentVolumeClaim:
claimName: de03ab176ebb69ce40528b3fec54f4d2266a6a761f11875fb9effaff3406143d
- name: 09c3e8b43afc0af0ffdcce861a65a6b8a61a556663fda1e98003c9971e667da3-pvc
persistentVolumeClaim:
claimName: 09c3e8b43afc0af0ffdcce861a65a6b8a61a556663fda1e98003c9971e667da3
電車に乗って遠出するか、家に帰ってあいてぃーするか悩む。
遠出が閣議決定されました。
座って作業するコンディションでない。肩と肩甲骨が痛い。
🚋ガタンゴトン
ガタンゴトンしてねぇわ、キュオオオオってなってる
地下鉄ってレールの隙間小さい?温度変化が小さいからか?
我孫子いくのだわ。
弥生軒の唐揚げ蕎麦食べた。
我孫子きたら年季の入った桜があっていい感じだ。
このまま手賀沼へ行く。
手賀沼公園で手賀沼をのぞみながらベンチで読書する贅沢よ。
肌寒くなってきた。
ずいぶん歩いた。帰りどうしよう。
なんとか駅までたどり着いた。東京駅までワープする。
無事に赤福を買って帰宅。
SiriからChatGPT通して調べ物する頻度が上がってきた。
もはやGoogle検索するのかったるくてやってられん。
SEOされた冗長なウェブページ読むのは人間がやることじゃねぇ。
Dependency Injectionを勉強したくなってきてる。
なにもわからんなんだけど、フロントエンドをInjectionすると異なるフロントエンドを切り替えられそうな気分になってる。
Prolog MCP、作りっぱなしになってる。
純粋に記号の演算だと、大規模な知識を自動で扱うのは難しそうな気がしていて(同音異義語が難しそう)、別な仕組みが欲しい。
LLMが全部面倒見てくれて、記号が意図しない衝突した時にいい感じにメンテしてくれるなら、ワンチャンあるかも。
月 | 1月 | 2月 | 3月 | 4月 | 5月 | 6月 | 7月 | 8月 | 9月 | 10月 | 11月 | 12月 |
---|---|---|---|---|---|---|---|---|---|---|---|---|
目標歩数 | 5,428歩 | 5,662歩 | 5,896歩 | 6,130歩 | 6,363歩 | 6,597歩 | 6,831歩 | 7,065歩 | 7,298歩 | 7,532歩 | 7,766歩 | 8,000歩 |
実績 | 6,184歩 | 6,152歩 | 7,407歩 |
Logseqのホワイトボード機能でKJ法(っぽいこと)をやろうとしたが、なんかうまくできるビジョンがわかなかった。
Obsidianも同様だった。
付箋を束ねる機能がないと難しい。
Cline+Nova、役に立ちそうで役に立たない、でもちょっと役に立つみたいな感じでもどかしい。
Amazon氏~~
Cline対応したNova出してくれ
Amazon氏~~~~~~~~
「Amazon Q Developer Agents使えや」
はい……。
無料枠で一回試してみるか。
いい一日だったと思うために、何か有益なことがやりたい。でもやる気ないから簡単にできるやつ。
と投稿したところ、フォロワーの西村透氏よりラジオ体操を提案頂いたため実施した。
肩がポカポカしている。
ラジオ体操するのは10年以上ぶりだった。
noteでAIが出した駄文を売るかと思い、「あれ」をLLMにデライトを読み込ませて文章を生成してみた。
手間をかけたら負けだろうとは思うものの、結局、出力された文章をほぼほぼ手で整形してしまう。
とはいえ、600字の記事を30分ほどで書けたのは嬉しい。
そういうわけで、書き出されたのが『時バエの時代はとうに過ぎ去っていた。|t_w』である。
時バエとAI:翻訳技術の驚異的な進歩と未来への期待
学生時代、講義で「時バエは矢を好む」という言葉を初めて耳にしたとき、私はその奇妙な響きに驚きました。教授によると、これは英語の「Time flies like an arrow(時は矢のように飛ぶ)」を自動翻訳が誤って「時バエは矢を好む」と訳した例だそうです。教室に笑いが広がる一方で、私は翻訳の難しさと、言葉が持つ微妙なニュアンスの奥深さに衝撃を受けたのを覚えています。このエピソードは、後に私がAI翻訳の進歩に感動するきっかけとなりました。
本記事では、そんな学生時代の思い出から始まり、翻訳技術の進化を振り返ります。特に、エキサイト翻訳の逆翻訳エピソードを交えつつ、AIがどれほど驚くべき進歩を遂げたかを探り、最後に「AIの進歩は時バエのようだ」というテーマで締めくくります。
翻訳技術の初期を象徴するもう一つのエピソードとして、エキサイト翻訳での逆翻訳があります。例えば、「私はペンを持っています」を英語に訳すと「I have a pen」になりますが、これを再び日本語に戻すと「私はペンを持っている」になったり、場合によっては「私はペンを所有している」といった不自然な訳文になることがありました。この微妙なズレが、当時の翻訳ツールの限界を物語っています。ネット上ではこうした「再翻訳シリーズ」が話題になり、笑いものとして楽しまれた時期もありました(参考: ニコニコ大百科「再翻訳シリーズ」)。
しかし、このような笑い話は、翻訳技術が進化する前のほんの一幕に過ぎません。今では、かつての未熟さが嘘のように、AI翻訳は驚異的な精度を見せています。
翻訳技術が大きく進化した転機は、2010年代後半に訪れました。ニューラル機械翻訳(NMT)の登場です。この技術は、ディープラーニングを活用し、文脈を深く理解して翻訳を行います。特に、2017年に登場した「Transformerモデル」は、翻訳の質を飛躍的に向上させました。「Attention」という仕組みにより、文中の単語同士の関係を精密に捉え、自然な訳文を生み出せるようになったのです。
例えば、「自分、焼きそば好き?」という大阪弁のフレーズ。従来の翻訳では意味不明な結果になりがちでしたが、Transformerは文脈から「自分」が「あなた」を指すと判断し、「Do you like yakisoba?」と自然に訳します。この進歩が、AI翻訳を単なるツールから、日常に溶け込む存在へと変えたのです。
現在のAI翻訳は、方言やカジュアルな表現までカバーするようになりました。大阪弁の「自分、ご飯食べた?」が「Have you eaten?」と訳され、遠くの友人が「Good for you!」と返してくる。そんなやりとりが、まるで隣にいるような親しみを感じさせてくれます。技術が進化するにつれ、言葉だけでなく気持ちまで運ぶ力が強まっているのです。
学生時代に聞いた「時バエは矢を好む」は、翻訳技術の未熟さを示す笑い話でした。しかし、今振り返ると、この言葉はAIの進歩の速さを象徴しているように思います。時バエが矢を好むように、AIも進化の矢を好み、驚くべきスピードで成長を続けています。かつての誤訳が笑いものだった時代から、言葉の壁を超えて心を繋ぐ技術へと変わったその軌跡は、まさに感動的です。
結論:未来への期待「時バエは矢を好む」というエピソードから始まった私の翻訳技術との出会いは、AIの進化とともに驚きと感動の連続でした。これからも、AIは矢のように飛び続け、私たちのコミュニケーションをさらに豊かにしてくれるでしょう。言葉を超え、文化を超え、心を繋ぐ未来を、私は楽しみにしています。
Google翻訳やDeepLで「自分、焼きそば好き?」を翻訳にかけたところ、「Do you like yakisoba?」のように二人称として翻訳された。大阪弁で「自分」が二人称となる場合をちゃんと訳せてて優秀。