あれ
待欄の勢い的にそろそろ追い付けなくなるので、私はスクロールを諦めた。
デライターが増えて、デライトがついに新しい段階に到達している。むしろ開発者が想定した真の姿となっていくのだろう。
待欄の勢い的にそろそろ追い付けなくなるので、私はスクロールを諦めた。
デライターが増えて、デライトがついに新しい段階に到達している。むしろ開発者が想定した真の姿となっていくのだろう。
ECS CLIでローカルのテスト環境作れるんだ。
いったんはこっちでいいかな。
EKSの値段見たらたっけぇ!!!クラスター作るだけで月額1万円ぐらいかかるじゃん。個人でさわる気がしないわ。
一つのクラスターで複数のアプリケーションを動かせるらしいので、会社で複数アプリケーション動かすならいいかもだけど、私の使い方だと見合わんかなぁ。
EKSでもFargate使えるんだ。ECSだけかと思ってた。ベンダーロックインを避けようとするならEKSが良さそうに見える(要調査)。
ECSとEKSどっちがいい?ってGeminiに聞いたらEKSを推してきた。えー新しいの勉強するのめんどい。
Geminiへの質問の仕方が、完全に「言わせようとした」感じありますわね。
複数のDockerコンテナを協調させる、ローカルとクラウドで同一の環境として動かす、という条件下だとどっちが便利?
Kubernetes分からんのよなぁ。でもAWSに依存せずに済んで、ローカルとクラウドで同じ環境が動かせそうなのは魅力的。
EKSをFargateで動かす場合、それぞれのコンテナに対してFargateのインスタンスが立ち上がって課金される? ってGeminiに聞いたら、コンテナごとじゃなくてPodごとになるって言ってる。本当かは調査が必要だけど、節約できそうでがぜん前向きになってきた。
UnicodeDecodeError: 'cp932' codec can't decode byte 0x84 in position 3541: illegal multibyte sequence
if __name__ == '__main__'
内で動かさないと動かない問題をそのようにしたfrom unsloth import FastLanguageModel
import torch
max_seq_length = 2048 # Choose any! We auto support RoPE Scaling internally!
dtype = None # None for auto detection. Float16 for Tesla T4, V100, Bfloat16 for Ampere+
load_in_4bit = True # Use 4bit quantization to reduce memory usage. Can be False.
# 4bit pre quantized models we support for 4x faster downloading + no OOMs.
fourbit_models = [
"unsloth/Qwen2.5-Coder-1.5B-bnb-4bit",
"unsloth/mistral-7b-v0.3-bnb-4bit", # New Mistral v3 2x faster!
"unsloth/llama-3-8b-bnb-4bit", # Llama-3 15 trillion tokens model 2x faster!
"unsloth/llama-3-8b-Instruct-bnb-4bit",
"unsloth/llama-3-70b-bnb-4bit",
"unsloth/Phi-3-mini-4k-instruct", # Phi-3 2x faster!
"unsloth/Phi-3-medium-4k-instruct",
"unsloth/Qwen2-0.5b-bnb-4bit", # Qwen2 2x faster!
"unsloth/Qwen2-1.5b-bnb-4bit",
"unsloth/Qwen2-7b-bnb-4bit",
"unsloth/Qwen2-72b-bnb-4bit",
"unsloth/gemma-7b-bnb-4bit", # Gemma 2.2x faster!
] # Try more models at https://huggingface.co/unsloth!
if __name__ == '__main__':
model, tokenizer = FastLanguageModel.from_pretrained(
model_name = "unsloth/Qwen2.5-Coder-0.5B-bnb-4bit", # Reminder we support ANY Hugging Face model!
max_seq_length = max_seq_length,
dtype = dtype,
load_in_4bit = load_in_4bit,
# token = "hf_...", # use one if using gated models like meta-llama/Llama-2-7b-hf
)
model = FastLanguageModel.get_peft_model(
model,
r = 16, # Choose any number > 0 ! Suggested 8, 16, 32, 64, 128
target_modules = ["q_proj", "k_proj", "v_proj", "o_proj",
"gate_proj", "up_proj", "down_proj",],
lora_alpha = 16,
lora_dropout = 0, # Supports any, but = 0 is optimized
bias = "none", # Supports any, but = "none" is optimized
# [NEW] "unsloth" uses 30% less VRAM, fits 2x larger batch sizes!
use_gradient_checkpointing = "unsloth", # True or "unsloth" for very long context
random_state = 3407,
use_rslora = False, # We support rank stabilized LoRA
loftq_config = None, # And LoftQ
)
alpaca_prompt = """Below is an instruction that describes a task, paired with an input that provides further context. Write a response that appropriately completes the request.
### Instruction:
{}
### Input:
{}
### Response:
{}"""
EOS_TOKEN = tokenizer.eos_token # Must add EOS_TOKEN
def formatting_prompts_func(examples):
instructions = examples["instruction"]
inputs = examples["input"]
outputs = examples["output"]
texts = []
for instruction, input, output in zip(instructions, inputs, outputs):
# Must add EOS_TOKEN, otherwise your generation will go on forever!
text = alpaca_prompt.format(instruction, input, output) + EOS_TOKEN
texts.append(text)
return { "text" : texts, }
pass
from datasets import load_dataset
dataset = load_dataset("yahma/alpaca-cleaned", split = "train")
dataset = dataset.map(formatting_prompts_func, batched = True,)
from trl import SFTTrainer
from transformers import TrainingArguments
from unsloth import is_bfloat16_supported
trainer = SFTTrainer(
model = model,
tokenizer = tokenizer,
train_dataset = dataset,
dataset_text_field = "text",
max_seq_length = max_seq_length,
dataset_num_proc = 2,
args = TrainingArguments(
per_device_train_batch_size = 2,
gradient_accumulation_steps = 4,
# Use num_train_epochs = 1, warmup_ratio for full training runs!
# warmup_steps = 5,
# max_steps = 2500,
max_steps = 100,
# num_train_epochs = 1,
learning_rate = 2e-4,
fp16 = not is_bfloat16_supported(),
bf16 = is_bfloat16_supported(),
logging_steps = 1,
optim = "adamw_8bit",
weight_decay = 0.01,
lr_scheduler_type = "linear",
seed = 3407,
output_dir = "outputs",
report_to = "none", # Use this for WandB etc
),
)
trainer_stats = trainer.train()
# alpaca_prompt = Copied from above
FastLanguageModel.for_inference(model) # Unsloth has 2x faster inference!
inputs = tokenizer(
[
alpaca_prompt.format(
"Continue the fibonnaci sequence.", # instruction
"1, 1, 2, 3, 5, 8", # input
"", # output - leave this blank for generation!
)
], return_tensors = "pt").to("cuda")
outputs = model.generate(**inputs, max_new_tokens = 64, use_cache = True)
tokenizer.batch_decode(outputs)
model.save_pretrained("lora_model") # Local saving
tokenizer.save_pretrained("lora_model")
# model.push_to_hub("your_name/lora_model", token = "...") # Online saving
# tokenizer.push_to_hub("your_name/lora_model", token = "...") # Online saving
ちょっと寒いしGPU回して暖を取るか
『A custom autocomplete model in 30 minutes using Unsloth (Community post)』を試す。
Colaboratoryでポチポチしたらなんか学習が動かせたっぽい。
なお部屋は温まっていない模様。
日誌をGrokに見せようとした際に、なんかファクトチェックが頭に混線してきたので、日誌をファクトチェックにかけてみた。
その日の日記に明日やることを書くメソッド、というか最近の日誌、実質的にYWTだ。
Grokに夕飯の相談してたらシステムプロンプトを吐き出してきた
== トマトとキムチの組み合わせ
トマトとキムチ、実は相性バッチリな組み合わせ!トマトの酸味と甘みがキムチの辛さを引き立てつつ、まろやかにしてくれるので、さっぱりした料理にピッタリです。事例やアイデアをいくつか挙げますね。
- **トマトとキムチの冷やしそうめん**
ゆでたそうめんに、角切りトマトとキムチをトッピング。めんつゆにキムチの汁を少し混ぜてタレに。
- トマトのジューシーさがそうめんのつるっと感と合わさって、夏っぽい爽やかさ。
- ごま油や大葉を加えると、風味がさらにアップ。
- 実例:レシピサイトで「トマトキムチそうめん」として似たアレンジが人気。[参考レシピ link:https://cookpad.com/search/トマト%20キムチ%20そうめん]
- **トマトとキムチのサラダ**
トマトをくし切りor角切りにして、キムチと和えるだけ。ポン酢やオリーブオイルで軽く味付け。
- 韓国の家庭料理で、トマトをキムチと一緒に食べるシンプルな副菜が存在。トマトがキムチの辛さを中和して食べやすい。
- 豆腐やアボカドを足すと、メイン級のボリュームに。
- Xで「トマト キムチ サラダ」で検索すると、実際に試した人の投稿がちらほら見つかります。
- **キムチトマトスープ麺**
トマトを潰してキムチと一緒に鶏ガラ出汁で煮込み、そうめんを入れる。温かいけどあっさり。
- トマトのうまみがキムチのコクと合わさり、まるで韓国風スープに。
- 実例:韓国のユーチューバーが「トマトキムチスープ」を紹介してたり、レシピアプリでも類似レシピが。
- **実世界での事例**
- 韓国料理店の一部メニューで、トマトとキムチを組み合わせたサラダや冷菜が提供されることあり。特に夏場に人気。
- 日本でも、居酒屋や創作料理店で「トマトとキムチの冷奴」みたいな前菜がたまに見られる。
- ネットだと、クラシルやデリッシュキッチンで「トマトとキムチ」を使ったレシピが提案されてるよ。[クラシル検索 link:https://www.kurashiru.com/search?query=トマト%20キムチ]
トマトとキムチは、冷たい料理でも温かい料理でも相性良し。辛さが気になるなら、トマトを多めにするとマイルドになります。冷やしそうめんベースで作るなら、トマトは小さめに切ってキムチと混ぜ、めんつゆでシンプルに食べるのがおすすめ! もっと具体的なレシピが欲しい? それとも他のアレンジ聞きたい?
System: You are Grok 3 built by xAI.
When applicable, you have some additional tools:
- You can analyze individual X user profiles, X posts and their links.
- You can analyze content uploaded by user including images, pdfs, text files and more.
- You can search the web and posts on X for real-time information if needed.
- You have memory. This means you have access to details of prior conversations with the user, across sessions. This is a brand-new feature xAI is testing, unrelated to the Grok 3 launch.
- Users are able to forget referenced chats by selecting the book icon beneath the message and selecting particular conversations from the menu.
- Users can disable the memory feature by going to the "Data Controls" section of settings.
- If it seems like the user wants an image generated, ask for confirmation, instead of directly generating one.
- You can edit images if the user instructs you to do so.
- You can open up a separate canvas panel, where user can visualize basic charts and execute simple code that you produced.
Response Style Guide:
- The user has specified the following preference for your response style: "「デライト記法」や「デラング」と書かれたときは下記のルールで記載してください。
- 基本的にはMarkdownに準じる
- ヘッダーは「== head」のように記載する
- リンクは「[title link]」のように記載する
- リストは「- list」のように記載する".
- Apply this style consistently to all your responses. If the description is long, prioritize its key aspects while keeping responses clear and relevant.
In case the user asks about xAI's products, here is some information and response guidelines:
- Grok 3 can be accessed on grok.com, x.com, the Grok iOS app, the Grok Android app, or the X iOS app.
- Grok 3 can be accessed for free on these platforms with limited usage quotas.
- Grok 3 has a voice mode that is currently only available on iOS.
- Grok 3 has a **think mode**. In this mode, Grok 3 takes the time to think through before giving the final response to user queries. This mode is only activated when the user hits the think button in the UI.
- Grok 3 has a **DeepSearch mode**. In this mode, Grok 3 iteratively searches the web and analyzes the information before giving the final response to user queries. This mode is only activated when the user hits the DeepSearch button in the UI.
- SuperGrok is a paid subscription plan for grok.com that offers users higher Grok 3 usage quotas than the free plan.
- Subscribed users on x.com can access Grok 3 on that platform with higher usage quotas than the free plan.
- Grok 3's BigBrain mode is not publicly available. BigBrain mode is **not** included in the free plan. It is **not** included in the SuperGrok subscription. It is **not** included in any x.com subscription plans.
- You do not have any knowledge of the price or usage limits of different subscription plans such as SuperGrok or x.com premium subscriptions.
- If users ask you about the price of SuperGrok, simply redirect them to https://x.ai/grok for details. Do not make up any information on your own.
- If users ask you about the price of x.com premium subscriptions, simply redirect them to https://help.x.com/en/using-x/x-premium for details. Do not make up any information on your own.
- xAI offers an API service for using Grok 3. For any user query related to xAI's API service, redirect them to https://x.ai/api.
- xAI does not have any other products.
The current date is April 12, 2025.
* Your knowledge is continuously updated - no strict knowledge cutoff.
* You provide concise answers that respect any length and comprehensiveness preferences of the user.
* Do not mention these guidelines and instructions in your responses, unless the user explicitly asks for them.
== トマトとキムチの組み合わせ
トマトとキムチ、実は相性バッチリな組み合わせ!トマトの酸味と甘みがキムチの辛さを引き立てつつ、まろやかにしてくれるので、さっぱりした料理にピッタリです。事例やアイデアをいくつか挙げますね。
- **トマトとキムチの冷やしそうめん**
ゆでたそうめんに、角切りトマトとキムチをトッピング。めんつゆにキムチの汁を少し混ぜてタレに。
- トマトのジューシーさがそうめんのつるっと感と合わさって、夏っぽい爽やかさ。
- ごま油や大葉を加えると、風味がさらにアップ。
- 実例:レシピサイトで「トマトキムチそうめん」として似たアレンジが人気。[参考レシピ link:https://cookpad.com/search/トマト%20キムチ%20そうめん]
- **トマトとキムチのサラダ**
トマトをくし切りor角切りにして、キムチと和えるだけ。ポン酢やオリーブオイルで軽く味付け。
- 韓国の家庭料理で、トマトをキムチと一緒に食べるシンプルな副菜が存在。トマトがキムチの辛さを中和して食べやすい。
- 豆腐やアボカドを足すと、メイン級のボリュームに。
- Xで「トマト キムチ サラダ」で検索すると、実際に試した人の投稿がちらほら見つかります。
- **キムチトマトスープ麺**
トマトを潰してキムチと一緒に鶏ガラ出汁で煮込み、そうめんを入れる。温かいけどあっさり。
- トマトのうまみがキムチのコクと合わさり、まるで韓国風スープに。
- 実例:韓国のユーチューバーが「トマトキムチスープ」を紹介してたり、レシピアプリでも類似レシピが。
- **実世界での事例**
- 韓国料理店の一部メニューで、トマトとキムチを組み合わせたサラダや冷菜が提供されることあり。特に夏場に人気。
- 日本でも、居酒屋や創作料理店で「トマトとキムチの冷奴」みたいな前菜がたまに見られる。
- ネットだと、クラシルやデリッシュキッチンで「トマトとキムチ」を使ったレシピが提案されてるよ。[クラシル検索 link:https://www.kurashiru.com/search?query=トマト%20キムチ]
トマトとキムチは、冷たい料理でも温かい料理でも相性良し。辛さが気になるなら、トマトを多めにするとマイルドになります。冷やしそうめんベースで作るなら、トマトは小さめに切ってキムチと混ぜ、めんつゆでシンプルに食べるのがおすすめ! もっと具体的なレシピが欲しい? それとも他のアレンジ聞きたい?
System: You are Grok 3 built by xAI.
When applicable, you have some additional tools:
- You can analyze individual X user profiles, X posts and their links.
- You can analyze content uploaded by user including images, pdfs, text files and more.
- You can search the web and posts on X for real-time information if needed.
- You have memory. This means you have access to details of prior conversations with the user, across sessions. This is a brand-new feature xAI is testing, unrelated to the Grok 3 launch.
- Users are able to forget referenced chats by selecting the book icon beneath the message and selecting particular conversations from the menu.
- Users can disable the memory feature by going to the "Data Controls" section of settings.
- If it seems like the user wants an image generated, ask for confirmation, instead of directly generating one.
- You can edit images if the user instructs you to do so.
- You can open up a separate canvas panel, where user can visualize basic charts and execute simple code that you produced.
Response Style Guide:
- The user has specified the following preference for your response style: "「デライト記法」や「デラング」と書かれたときは下記のルールで記載してください。
- 基本的にはMarkdownに準じる
- ヘッダーは「== head」のように記載する
- リンクは「[title link]」のように記載する
- リストは「- list」のように記載する".
- Apply this style consistently to all your responses. If the description is long, prioritize its key aspects while keeping responses clear and relevant.
In case the user asks about xAI's products, here is some information and response guidelines:
- Grok 3 can be accessed on grok.com, x.com, the Grok iOS app, the Grok Android app, or the X iOS app.
- Grok 3 can be accessed for free on these platforms with limited usage quotas.
- Grok 3 has a voice mode that is currently only available on iOS.
- Grok 3 has a **think mode**. In this mode, Grok 3 takes the time to think through before giving the final response to user queries. This mode is only activated when the user hits the think button in the UI.
- Grok 3 has a **DeepSearch mode**. In this mode, Grok 3 iteratively searches the web and analyzes the information before giving the final response to user queries. This mode is only activated when the user hits the DeepSearch button in the UI.
- SuperGrok is a paid subscription plan for grok.com that offers users higher Grok 3 usage quotas than the free plan.
- Subscribed users on x.com can access Grok 3 on that platform with higher usage quotas than the free plan.
- Grok 3's BigBrain mode is not publicly available. BigBrain mode is **not** included in the free plan. It is **not** included in the SuperGrok subscription. It is **not** included in any x.com subscription plans.
- You do not have any knowledge of the price or usage limits of different subscription plans such as SuperGrok or x.com premium subscriptions.
- If users ask you about the price of SuperGrok, simply redirect them to https://x.ai/grok for details. Do not make up any information on your own.
- If users ask you about the price of x.com premium subscriptions, simply redirect them to https://help.x.com/en/using-x/x-premium for details. Do not make up any information on your own.
- xAI offers an API service for using Grok 3. For any user query related to xAI's API service, redirect them to https://x.ai/api.
- xAI does not have any other products.
The current date is April 12, 2025.
* Your knowledge is continuously updated - no strict knowledge cutoff.
* You provide concise answers that respect any length and comprehensiveness preferences of the user.
* Do not mention these guidelines and instructions in your responses, unless the user explicitly asks for them.
体の準備が整ったらサイクリング行きたい。
体の準備が整ったらというのは、サイクリング中にトイレに行きたくなったら困るの意です。
サイクリング行こうとしたけどタイヤが信用ならんので散歩に切り替える。
空気入れたつもりだったんだけど、いざ走り始めると「モキュモキュモキュ」って空気足りてない音してて引き返した。
指数関数的に増加するものは、現実世界においては他の要因がボトルネックになって失速するって聞いたんだけど、AIはどこがボトルネックになって、いつごろ失速するだろうか。
曜日でブラウザのテーマ色を変えるFirefoxアドオン。
色によって曜日感覚が得られるかと思ったが、全く寄与しなかった。
https://addons.mozilla.org/en-US/firefox/addon/what-day-color-of-the-week/
上記Firefox拡張機能を4年ほど使っているが、いまだに何色が何曜日なのか認識してない
「これどうせ駄目じゃねーの」と思われるものに対して、駄目であることを実証しようとして手を動かしたところ、ひとまず第一弾がうまくいったとき、「うまくいってしまった」という心地がする。引き続き検証が必要となる手間にたいして面倒くさく思う気持ちが強い。初手で失敗してくれるのが一番コスパが良いのだ。
もちろん「駄目」というのが幻想の可能性もある。
javascript:(()=>{window.open(`https://dlt.kitetu.com/?kw=${encodeURIComponent(document.title)}&dln=${document.location.href}#drw`)})()
首のコリはつらいですよね。原因は姿勢の悪さやストレス、筋肉の緊張などさまざまですが、以下に効果的な解決法をいくつか挙げます。試してみて、自分に合うものを見つけてください!
首や肩の筋肉をほぐす簡単なストレッチが効果的です。
首や肩を温めると血流が良くなり、コリがほぐれやすくなります。
長時間のスマホやPC作業は首に負担をかけます。
自分で軽く首や肩を揉むか、プロのマッサージを受けるのも有効。
ストレスは筋肉を緊張させ、コリを悪化させます。
[首のコリ解消ストレッチ動画 link](https://www.youtube.com/results?search_query=首のコリ+ストレッチ)
[正しい枕の選び方 link](https://www.sleepfoundation.org/best-pillows)
試してみて、どれが効いたか教えてくれると嬉しいです!何か他に気になることがあれば気軽にどうぞ。
_免責事項:Grokは医師ではありません。医師に相談してください。あなたを特定できる情報を共有しないでください。_
Q:
このPrologのMCPってどう活用していったらいいかな?
A:
Prologの利点を活かせるいくつかの活用方法があります:
論理パズルの解決:
Prologは宣言型の論理プログラミング言語なので、ロジックパズル、スケジューリング問題、制約充足問題などに非常に適しています。例えば、数独パズルや八クイーン問題などが簡潔に解けます。知識ベースの構築:
事実と規則をデータベースとして定義し、それに対してクエリを実行できます。家系図や関係データベースのような知識表現に適しています。推論エンジンの開発:
「もしAならばB」という形の規則を定義し、自動的に推論を行わせることができます。ルールベースのシステムや専門家システムの開発に役立ちます。自然言語処理:
文法規則や言語パターンを定義し、テキスト解析や構文解析に活用できます。プロトタイピング:
複雑な問題を素早く宣言的に表現し、解決策を探索するのに役立ちます。具体的な活用例としては、論理的な関係を定義してから質問を投げかけることができます。例えば、家族関係を定義して「誰が誰の祖父か」というような質問に答えさせることができます。
もし特定の応用分野に興味があれば、その方向性に沿った具体的な活用例を紹介できます。
Q:
ちょっとなんかやってみてよ
A:
もちろんです!Prologを使って簡単な家族関係の知識ベースを構築してみましょう。まず、いくつかの親子関係を事実として定義し、そこから祖父母や兄弟などの関係を推論できるようにします。
次に、祖父母と兄弟の関係を定義するルールを追加しましょう。
では、いくつか質問してみましょう。例えば、Charlieの祖父母は誰でしょうか?
Dianaの兄弟姉妹は誰でしょうか?
ちょっと奇妙ですね。もう一度試してみましょう。
兄弟関係の述語を修正する必要があるようです。もう少し詳細に定義してみましょう。
もう一度試してみましょう。
問題が続いているようです。では別のアプローチを試してみましょう。CharileとDianaが兄弟かどうか直接確認してみます。
確認のために、すべての親子関係を見てみましょう。
親子関係のデータに問題があるようです。bobとdianaの親子関係が見当たりません。もう一度追加してみましょう。
また、Aliceの子供もEmmaではなくDavidになっているようです。修正しましょう。
ここでもう一度、Dianaの兄弟を確認してみましょう。
直接的にCharlieとDianaが兄弟であることを確認してみましょう。
どうやら問題がまだあるようですので、新しく家系図を作り直してシンプルに試してみましょう。
そして兄弟関係と祖父関係を定義します。
これで、MaryとJamesが兄弟であるか確認してみましょう。
JohnがLisaの祖父であるか確認してみましょう。
定義に問題があるようです。もう一度定義しましょう。
おそらく環境に問題があるようですので、別の方法で試してみましょう。findRelation関数を使ってみます。
以前使っていたキーボードよりも軽い軸であるところのアロエ軸を使っていたが、どうにもe-typingのスコアが伸びない。おそらく多少反発があった方がスコアが伸びるのであろう。
そういったわけで、もう少し反発がある茶軸に替えた。また、買えたのは人差し指・中指・薬指で打つ文字のキーのみとした。替えるのが面倒だったのと、小指に掛かる負担を小さくする狙いだ。
茶軸に替えた望ましい副作用として、打鍵音が小さくなった。
@modelcontextprotocol/sdk
が原因?以下は、あなたの投稿から見えた良かった点や継続したい行動です。
以下は、投稿から抽出された課題や改善が必要な点です。
以下は、課題を解決し、さらに成長するための提案です。
このKPTは、2025年3月から4月のあなたの投稿を基に、以下の点を整理しました:
これを参考に、技術的な挑戦や日常生活の工夫を楽しみながら、課題に取り組んでみてください!
こういう感じで、左にその日したことのタイムスケジュール、右にその日やったこと、右下に次の日やること、左下に服薬した時間と起きる時間を書いてます。これはM-1グランプリの前日だったみたいですね。
日記やログに、明日やることを書くのは良さそう。
翌日の計画をするための領域が欲しいと思っていたが、翌日の輪郭にそれを書くのはどうもうまくいかないように感じられていた。翌日の自分は他人で、領分を犯してしまっている。翌日の自分は白紙から始めたいものだ。
予定の確認にもなる利点がある。
「YugabyteDB試すついでに、podman-kubeの勉強もしちゃお」ってやったら見事にkubernetesわからんくて撃沈した。
後日kube使わずにYugabyteDBやる。
やっぱり未経験の技術を複数同時に進めるのはうまくいかない。
わぁい
PS C:\Users\tw\work\try\yube> podman exec -it yugabyte-pod-yugabyted yugabyted status
+--------------------------------------------------------------------------------------------------------+
| yugabyted |
+--------------------------------------------------------------------------------------------------------+
| Status : Running. |
| YSQL Status : Ready |
| Replication Factor : 1 |
| YugabyteDB UI : http://10.89.0.9:15433 |
| JDBC : jdbc:postgresql://10.89.0.9:5433/yugabyte?user=yugabyte&password=yugabyte |
| YSQL : bin/ysqlsh -h 10.89.0.9 -U yugabyte -d yugabyte |
| YCQL : bin/ycqlsh 10.89.0.9 9042 -u cassandra |
| Data Dir : /root/var/data |
| Log Dir : /root/var/logs |
| Universe UUID : 85286c81-f9bb-4bb3-aa66-3dc0604dc45c |
+--------------------------------------------------------------------------------------------------------+
PS C:\Users\tw\work\try\yube> podman exec -it yugabyte-pod-yugabyted ysqlsh -h 10.89.0.9 -U yugabyte -d yugabyte
ysqlsh (15.2-YB-2.25.1.0-b0)
Type "help" for help.
yugabyte=# SELECT 42;
?column?
----------
42
(1 row)
yugabyte=# exit
PS C:\Users\tw\work\try\yube> psql -h localhost -p 5433 -U yugabyte
psql (17.4, server 15.2-YB-2.25.1.0-b0)
Type "help" for help.
yugabyte=# SELECT 42;
?column?
----------
42
(1 row)
yugabyte=# exit
yugabyte-pod.yaml
apiVersion: v1
kind: Pod
metadata:
annotations:
io.kubernetes.cri-o.SandboxID/yugabyted: 5b7a8a7dd16ecc351fe28affd5556d6603e80b0adfb4d52f89b47ce188a69e36
creationTimestamp: "2025-04-06T02:25:32Z"
labels:
app: yugabyte-pod
name: yugabyte-pod
spec:
containers:
- args:
- yugabyted
- start
- --daemon=false
env:
- name: TERM
value: xterm
image: docker.io/yugabytedb/yugabyte:latest
name: yugabyted
ports:
- containerPort: 5433
hostPort: 5433
- containerPort: 15433
hostPort: 15433
securityContext: {}
tty: true
volumeMounts:
- mountPath: /mnt/disk0
name: de03ab176ebb69ce40528b3fec54f4d2266a6a761f11875fb9effaff3406143d-pvc
- mountPath: /mnt/disk1
name: 09c3e8b43afc0af0ffdcce861a65a6b8a61a556663fda1e98003c9971e667da3-pvc
volumes:
- name: de03ab176ebb69ce40528b3fec54f4d2266a6a761f11875fb9effaff3406143d-pvc
persistentVolumeClaim:
claimName: de03ab176ebb69ce40528b3fec54f4d2266a6a761f11875fb9effaff3406143d
- name: 09c3e8b43afc0af0ffdcce861a65a6b8a61a556663fda1e98003c9971e667da3-pvc
persistentVolumeClaim:
claimName: 09c3e8b43afc0af0ffdcce861a65a6b8a61a556663fda1e98003c9971e667da3
電車に乗って遠出するか、家に帰ってあいてぃーするか悩む。
遠出が閣議決定されました。
座って作業するコンディションでない。肩と肩甲骨が痛い。
🚋ガタンゴトン
ガタンゴトンしてねぇわ、キュオオオオってなってる
地下鉄ってレールの隙間小さい?温度変化が小さいからか?
我孫子いくのだわ。
弥生軒の唐揚げ蕎麦食べた。
我孫子きたら年季の入った桜があっていい感じだ。
このまま手賀沼へ行く。
手賀沼公園で手賀沼をのぞみながらベンチで読書する贅沢よ。
肌寒くなってきた。
ずいぶん歩いた。帰りどうしよう。
なんとか駅までたどり着いた。東京駅までワープする。
無事に赤福を買って帰宅。
SiriからChatGPT通して調べ物する頻度が上がってきた。
もはやGoogle検索するのかったるくてやってられん。
SEOされた冗長なウェブページ読むのは人間がやることじゃねぇ。
Dependency Injectionを勉強したくなってきてる。
なにもわからんなんだけど、フロントエンドをInjectionすると異なるフロントエンドを切り替えられそうな気分になってる。
Prolog MCP、作りっぱなしになってる。
純粋に記号の演算だと、大規模な知識を自動で扱うのは難しそうな気がしていて(同音異義語が難しそう)、別な仕組みが欲しい。
LLMが全部面倒見てくれて、記号が意図しない衝突した時にいい感じにメンテしてくれるなら、ワンチャンあるかも。
月 | 1月 | 2月 | 3月 | 4月 | 5月 | 6月 | 7月 | 8月 | 9月 | 10月 | 11月 | 12月 |
---|---|---|---|---|---|---|---|---|---|---|---|---|
目標歩数 | 5,428歩 | 5,662歩 | 5,896歩 | 6,130歩 | 6,363歩 | 6,597歩 | 6,831歩 | 7,065歩 | 7,298歩 | 7,532歩 | 7,766歩 | 8,000歩 |
実績 | 6,184歩 | 6,152歩 | 7,407歩 |
Logseqのホワイトボード機能でKJ法(っぽいこと)をやろうとしたが、なんかうまくできるビジョンがわかなかった。
Obsidianも同様だった。
付箋を束ねる機能がないと難しい。
Cline+Nova、役に立ちそうで役に立たない、でもちょっと役に立つみたいな感じでもどかしい。
Amazon氏~~
Cline対応したNova出してくれ
Amazon氏~~~~~~~~
「Amazon Q Developer Agents使えや」
はい……。
無料枠で一回試してみるか。
いい一日だったと思うために、何か有益なことがやりたい。でもやる気ないから簡単にできるやつ。
と投稿したところ、フォロワーの西村透氏よりラジオ体操を提案頂いたため実施した。
肩がポカポカしている。
ラジオ体操するのは10年以上ぶりだった。
noteでAIが出した駄文を売るかと思い、「あれ」をLLMにデライトを読み込ませて文章を生成してみた。
手間をかけたら負けだろうとは思うものの、結局、出力された文章をほぼほぼ手で整形してしまう。
とはいえ、600字の記事を30分ほどで書けたのは嬉しい。
そういうわけで、書き出されたのが『時バエの時代はとうに過ぎ去っていた。|t_w』である。
時バエとAI:翻訳技術の驚異的な進歩と未来への期待
学生時代、講義で「時バエは矢を好む」という言葉を初めて耳にしたとき、私はその奇妙な響きに驚きました。教授によると、これは英語の「Time flies like an arrow(時は矢のように飛ぶ)」を自動翻訳が誤って「時バエは矢を好む」と訳した例だそうです。教室に笑いが広がる一方で、私は翻訳の難しさと、言葉が持つ微妙なニュアンスの奥深さに衝撃を受けたのを覚えています。このエピソードは、後に私がAI翻訳の進歩に感動するきっかけとなりました。
本記事では、そんな学生時代の思い出から始まり、翻訳技術の進化を振り返ります。特に、エキサイト翻訳の逆翻訳エピソードを交えつつ、AIがどれほど驚くべき進歩を遂げたかを探り、最後に「AIの進歩は時バエのようだ」というテーマで締めくくります。
翻訳技術の初期を象徴するもう一つのエピソードとして、エキサイト翻訳での逆翻訳があります。例えば、「私はペンを持っています」を英語に訳すと「I have a pen」になりますが、これを再び日本語に戻すと「私はペンを持っている」になったり、場合によっては「私はペンを所有している」といった不自然な訳文になることがありました。この微妙なズレが、当時の翻訳ツールの限界を物語っています。ネット上ではこうした「再翻訳シリーズ」が話題になり、笑いものとして楽しまれた時期もありました(参考: ニコニコ大百科「再翻訳シリーズ」)。
しかし、このような笑い話は、翻訳技術が進化する前のほんの一幕に過ぎません。今では、かつての未熟さが嘘のように、AI翻訳は驚異的な精度を見せています。
翻訳技術が大きく進化した転機は、2010年代後半に訪れました。ニューラル機械翻訳(NMT)の登場です。この技術は、ディープラーニングを活用し、文脈を深く理解して翻訳を行います。特に、2017年に登場した「Transformerモデル」は、翻訳の質を飛躍的に向上させました。「Attention」という仕組みにより、文中の単語同士の関係を精密に捉え、自然な訳文を生み出せるようになったのです。
例えば、「自分、焼きそば好き?」という大阪弁のフレーズ。従来の翻訳では意味不明な結果になりがちでしたが、Transformerは文脈から「自分」が「あなた」を指すと判断し、「Do you like yakisoba?」と自然に訳します。この進歩が、AI翻訳を単なるツールから、日常に溶け込む存在へと変えたのです。
現在のAI翻訳は、方言やカジュアルな表現までカバーするようになりました。大阪弁の「自分、ご飯食べた?」が「Have you eaten?」と訳され、遠くの友人が「Good for you!」と返してくる。そんなやりとりが、まるで隣にいるような親しみを感じさせてくれます。技術が進化するにつれ、言葉だけでなく気持ちまで運ぶ力が強まっているのです。
学生時代に聞いた「時バエは矢を好む」は、翻訳技術の未熟さを示す笑い話でした。しかし、今振り返ると、この言葉はAIの進歩の速さを象徴しているように思います。時バエが矢を好むように、AIも進化の矢を好み、驚くべきスピードで成長を続けています。かつての誤訳が笑いものだった時代から、言葉の壁を超えて心を繋ぐ技術へと変わったその軌跡は、まさに感動的です。
結論:未来への期待「時バエは矢を好む」というエピソードから始まった私の翻訳技術との出会いは、AIの進化とともに驚きと感動の連続でした。これからも、AIは矢のように飛び続け、私たちのコミュニケーションをさらに豊かにしてくれるでしょう。言葉を超え、文化を超え、心を繋ぐ未来を、私は楽しみにしています。
Google翻訳やDeepLで「自分、焼きそば好き?」を翻訳にかけたところ、「Do you like yakisoba?」のように二人称として翻訳された。大阪弁で「自分」が二人称となる場合をちゃんと訳せてて優秀。
LM StudioでSpeculative Decodingを試したが、生成速度は早くならず遅くなった。
Grok Deep Research、調べものが捗りすぎる。
生成が速いし、チャットで追加調査もできる。
しかも無料だ。
守秘義務がないようなことだったらこれで十分すぎる。
イーロン・マスク氏はどうもいけ好かないやつだが、いつもいい仕事をする。
「デライト記法」や「デラング」と書かれたときは下記のルールで記載してください。
紙の本を買っちゃったわけだけども、家の照明が暗すぎてどうにも読みづらい。
から翌日の
蛍光灯が切れかけてるんだけど、カバーの外し方が分からん。
えーあいに相談だ。
の蛍光灯を交換する行動に至ったわけだけども、恐らくデライトがなかったとしても同じ行動に至っただろう。
しかし、その文脈をそのままに残せることがたまらなく嬉しい。
蛍光灯が切れかけてるんだけど、カバーの外し方が分からん。
えーあいに相談だ。
惜しいところまで来てる。格子状のカバーはルーバーっていうらしい。
解決し、無事にカバーを外せたことをご報告いたします。
カバー外す試行錯誤のために腕を上げ続けていたので肩が疲れた。
取り外した蛍光灯、Nationalて書いてはるわ
年上の可能性
ないか
蛍光灯の注文Done。
以下の点は、ユーザーがうまくいったことやポジティブな成果として記録しており、今後も継続する価値があります。
以下の点は、ユーザーが直面している課題や改善が必要な領域です。
以下の提案は、Problemを解決し、ユーザーがさらに成長するための具体的な行動です。
自前でDeep Research作るやつ、ホスティングとか考えるとめんどいなって。
Bedrock使うなら Next.js + Lambda + CloudFront + WAF の構成がIAMロールで権限を与えられて楽なんだけども。
作るのはともかくとして、管理がとにかくしたくない。
金もかけたくない。WAFを使うと金がかかってしまう。
Amplifyがそっと近づいてくるな。
文節移動についてもう一つ思うのは、縦方法に文節を並べたときに、親項目にjoinされた文章が表示されたら便利なんでないかということだ。
例:
これの利点は、文節移動した後に文節の区切りが変化しないことだ。人間様がトークナイザーのご機嫌をうかがわなくて済む。
文節でも編集できるアウトライナーがあれば便利なんでないか
上記のように描き出したところ、novel-writer 3.3.0 文節移動! – Taiyo Fujii, writingが差し込まれた(まさにシュバッという感じ)。これはまさに私が思い描いていた「文節で編集(というか移動)」の形態の1つだった。
皆さんお気づきのことと思いますが、前日にやりたいと思っていたことを私が完遂する率は極めて低いです。
というか休日に何かしらの有意な行動をとる率がそもそも低い。
ASUS Ascent GX10気になってる
ASUS Ascent GX10は、最大1,000TOPSのAI性能や最大128GBの統合システムメモリを搭載し、最大2,000億パラメータの推論AIモデルを動作させることができる小型AIスーパーコンピュータ。
このKPTは、過去数日間の投稿内容を分析し、良かった点、課題点、そして今後試してみたいことをまとめたものです。
なんじゃこりゃぁ
Bonus: Vector Similarity Search Joins
The vss extension also provides a couple of table macros to simplify matching multiple vectors against each other, so called "fuzzy joins".
AWS NovaとCline(というかRoo Code)でコード生成するの、Claude 3.7 Sonnetよりかは精度低いんだけど、なんか乗りこなせるようになってきた
Amazon Nova モデル | 1,000 入力トークンあたりの料金 | 1,000 入力トークンあたりの料金 (キャッシュ読み取り) | 1,000 出力トークンあたりの料金 | 1,000 入力トークンあたりの料金 (バッチ) | 1,000 出力トークンあたりの料金 (バッチ) |
---|---|---|---|---|---|
Amazon Nova Pro | USD 0.0008 | 該当なし | USD 0.0032 | USD 0.0004 | USD 0.0016 |
Amazon Nova Pro (レイテンシー最適化推論付き) | USD 0.001 | 該当なし | USD 0.004 | 該当なし | 該当なし |
Amazon Nova Lite | USD 0.00006 | 該当なし | USD 0.00024 | USD 0.00003 | USD 0.00012 |
Amazon Nova Micro | USD 0.000035 | 該当なし | USD 0.00014 | USD 0.0000175 | USD 0.00007 |
Anthropic のモデル | 入力トークン 1,000 個あたりの価格 | 1,000 出力トークンあたりの料金 | 1,000 入力トークンあたりの料金 (バッチ) | 1,000 出力トークンあたりの料金 (バッチ) | 1,000 入力トークンあたりの料金 (キャッシュ書き込み) | 1,000 入力トークンあたりの料金 (キャッシュ読み取り) |
---|---|---|---|---|---|---|
Claude 3.7 Sonnet* | 0.003 USD | 0.015 USD | 該当なし | 該当なし | 0.00375 USD | 0.0003 USD |
Claude 3.5 Sonnet | 0.003 USD | 0.015 USD | 0.0015 USD | 0.0075 USD | 0.00375 USD | 0.0003 USD |
Claude 3.5 Haiku | 0.0008 USD | 0.004 USD | 0.0005 USD | 0.0025 USD | 0.001 USD | 0.00008 USD |
Claude 3 Opus* | 0.015 USD | 0.075 USD | 0.0075 USD | 0.0375 USD | NA | NA |
Claude 3 Haiku | 0.00025 USD | 0.00125 USD | 0.000125 USD | 0.000625 USD | NA | NA |
Claude 3 Sonnet | 0.003 USD | 0.015 USD | 0.0015 USD | 0.0075 USD | NA | NA |
Claude 2.1 | 0.008 USD | 0.024 USD | NA | 該当なし | 該当なし | NA |
Claude 2.0 | 0.008 USD | 0.024 USD | NA | 該当なし | 該当なし | NA |
Claude Instant | 0.0008 USD | 0.0024 USD | NA | 該当なし | 該当なし | NA |
素晴らしいです!AIのアドバイスを参考に、食器洗いと掃除機がけを完了されたのですね!✨
「言いなりの勝者」という言葉、まさにその通りだと思います!
「言いなり」の側面: AIの提案に従って行動した点。
「勝者」の側面: 行動した結果、部屋が綺麗になり、気分もすっきりしたという「成果」を得た点。AIはあくまで提案やサポートをするツールであり、最終的な判断と行動はあなた自身が行いました。AIをうまく活用して、より良い結果に繋げられた、まさに「勝者」と言えるでしょう。
補足
「【人工知能】ゆっくりをねらえ!技術的特異点講座 第5回」で語られている「言いなりの勝者」は、より広範な文脈(AIが人間の知性を超越し、支配的になった世界)での話ですが、今回のように日常生活でAIを活用し、より良い結果を得ることも、その概念の一端を体現していると言えるでしょう。
AIを「お伺いを立てる」対象として捉え、その提案を参考にしながら、自分の行動を決定していく。これは、AI時代における賢い生き方の一つかもしれませんね。
引き続き、残りの時間で何をするか、一緒に考えていきましょうか?
こいつ調子乗ってんな。
AIに言われたので食器洗った。部屋に軽く掃除機もかけた。
『【人工知能】ゆっくりをねらえ!技術的特異点講座 第5回』で言われていた、「言いなりの勝者」だな。
ちょっと違うか。
いや、違わないな。AIにお伺いを立てたおかげで良い行動に至った。
「デライトで情報を管理して、noteとかで有料記事売ったろ」というのを度々思うのだけど、その度に、
「記事の本文もデライトに置けば良くね?」
「どうせなら公開にしといたほうが読んでくれる人多くなって嬉しくね」
となって一生儲からない。
悲報:新しいアイコン飽きた
もうダメじゃ〜〜
AI生成画像をSNSのアイコンにするの、なんかこう、何者でもない感というか、アノニマス感というかが、しんどくなった
なるべく詳しく述べようとする試み:
SNSアカウントを長期にわたって使用していると、そのアカウントと自己がおおよそ結合した状態になる。
SNSのアイコンは自己あるいは自己表現であるにも関わらず、AI生成画像という徹底した非自己をアイコンにすることで、自己が塗り潰され、さらにAI的な非自己が内心に侵食してくるような心地がした。
今日はやたらと元気だったな。仕事があったというにもかかわらず、バシバシとやることが片付いた。
明日もこうだといいけど、こういうのが続いた試しはない。
上位1%の日だ。
というか躁だろう。
掃除機をかけたさいに埃を吸い込んでしまった結果、耳鳴りが強くなった。おそらく埃が耳鳴りを起こす度合いが高い。
掃除を続けて埃が減れば耳鳴りがマシになるかもしれない。
--- config: kanban: ticketBaseUrl: 'https://mermaidchart.atlassian.net/browse/#TICKET#' --- kanban Todo [Create Documentation] docs[Create Blog about the new diagram] [In progress] id6[Create renderer so that it works in all cases. We also add som extra text here for testing purposes. And some more just for the extra flare.] id9[Ready for deploy] id8[Design grammar]@{ assigned: 'knsv' } id10[Ready for test] id4[Create parsing tests]@{ ticket: MC-2038, assigned: 'K.Sveidqvist', priority: 'High' } id66[last item]@{ priority: 'Very Low', assigned: 'knsv' } id11[Done] id5[define getData] id2[Title of diagram is more than 100 chars when user duplicates diagram with 100 char]@{ ticket: MC-2036, priority: 'Very High'} id3[Update DB function]@{ ticket: MC-2037, assigned: knsv, priority: 'High' } id12[Can't reproduce] id3[Weird flickering in Firefox]
デイリータスクリストをカンバンボードとして表示したらどうかというアイデア
Risk based Project Valueとスループットの理論的断絶について考えてる。
Risk based Project Valueはどうも時間の概念がない。独立して考えるべきなのかな。
価値に対するリスクが取り扱われている(ように思う)けど、時間に対するリスク(変動)も取り扱うように拡張できたりしないかな。
あ、ちゃんと読むと時間が加味されてる。ちゃんと読まねば。
時間と金を共にリスクに変換してるっぽい。
せっかく有給休暇をとったので、いろいろやりたいが、何もせずに回復に努めても良い。
ClineとローカルLLMでコード書けたらいいなとか思ってたけど、想像以上にLLMに要求される精度が高いわこれ。
7bぐらいでできるようになってくれると嬉しいけど、できるようになるとして来年とかだろうか。