LLM
Large Language Model
大規模言語モデル
Large Language Model
大規模言語モデル
久々に探したら見つかった!!!
出力例
入力
[INST] こんにちは [/INST]出力
死ねゴミカスクソ野郎
どっかで5chに投稿された文章で学習されたLLMを見たんだけど、利用者からの質問に対して「死ねカス」と返していた。これが本当だと思った。
無職して勉強したい。仕事でプログラム書いてる場合じゃない。無職して勉強したい。今無職するか、後で無職になるか。このままだとAIに置き換えられてしまう。
リスキル行くぞ!リスを抹殺だ!!!
o3-miniを見てまだ「プログラミングはAIに置き換えられない」と思えるほどの、正常性バイアスを持てない。
1年前からの様相の変化の度合いと、指数関数的変化の予測不可能性を鑑みると、1年後ぐらいには技術的にはAIが私のプログラミング能力を全領域で超えてる可能性がある。
プログラミングはおろか、「プログラム」そのものをLLMが置き換えうる。
少なくとも、労働時間より勉強の時間を増やさないといけない。
今の勉強時間では何も追いついてない。
いったん行動は保留しとこ。気の迷いの可能性が十分ある。
2年後の2026年には、トップのAIが人類の上位1%程度の知能に至る予感がしてきた。
LLMが論理的推論を苦手として、それを間違えることに注目されているけども、〝平均的〟な人間と比べて大差がそれほどない。と思う。根拠はない。
もし今のAIが〝平均的〟な人間と同じレベルに至っているならば、「コンピューターが人類のトップ1%を超える」という時点はすでにコップの半分まで来ている。
コップに水が貯まる速度は加速していく。量は残り半分でも、残り時間は全体の10%もない。
どこかで5チャンネルをデータセットとして学習したLLMを見たのだが、どこだったか思い出せない。検索しても見つからない。小気味よく暴言を吐いていたような気がする。
Siriに今のLLMをくっつけても、どうにも便利になる気がしない。私はアラームの設定とかぐらいしかしてないので、そういう用途ではLLMだと動作が不安定になって、インターフェースとして不便になるように思う。
動作が不安定だと、身体の延長として神経が通らなくなってしまう。
テレビのチャンネルを変えるのにわざわざLLMみたいな不安定なもん使うかというと、普通にリモコンのほうが便利だろうと。
ただ、より発展したAIが出てきた場合や、全く想定を超えた使い方が出てきた場合には、何らかの利便性が生じる可能性はある。
例えば、キーボードをまだ打てないような幼子の簡易的な家庭教師にできるかもしれない。
Scrapboxのページを独自のLLMで表のカラム名に合うように要約している。一度要約したら、その内容をDBなどに保存して再利用する(都度計算は流石に処理負荷が高いので)。
なぜ独自のLLMを使っていると思うかというと、
Reactコンポーネントの中に説明を書くと、LLMが中身を実装してくれるReactコンポーネントをXのどこかで見たのだけど、どこだったか思い出せない
<LlmComponent>
コンポーネントの説明(プロンプト)
</LlmComponent>
みたいな感じ