LLM
Large Language Model
大規模言語モデル
Large Language Model
大規模言語モデル
2年後の2026年には、トップのAIが人類の上位1%程度の知能に至る予感がしてきた。
LLMが論理的推論を苦手として、それを間違えることに注目されているけども、〝平均的〟な人間と比べて大差がそれほどない。と思う。根拠はない。
もし今のAIが〝平均的〟な人間と同じレベルに至っているならば、「コンピューターが人類のトップ1%を超える」という時点はすでにコップの半分まで来ている。
コップに水が貯まる速度は加速していく。量は残り半分でも、残り時間は全体の10%もない。
どこかで5チャンネルをデータセットとして学習したLLMを見たのだが、どこだったか思い出せない。検索しても見つからない。小気味よく暴言を吐いていたような気がする。
Siriに今のLLMをくっつけても、どうにも便利になる気がしない。私はアラームの設定とかぐらいしかしてないので、そういう用途ではLLMだと動作が不安定になって、インターフェースとして不便になるように思う。
動作が不安定だと、身体の延長として神経が通らなくなってしまう。
テレビのチャンネルを変えるのにわざわざLLMみたいな不安定なもん使うかというと、普通にリモコンのほうが便利だろうと。
ただ、より発展したAIが出てきた場合や、全く想定を超えた使い方が出てきた場合には、何らかの利便性が生じる可能性はある。
例えば、キーボードをまだ打てないような幼子の簡易的な家庭教師にできるかもしれない。
Scrapboxのページを独自のLLMで表のカラム名に合うように要約している。一度要約したら、その内容をDBなどに保存して再利用する(都度計算は流石に処理負荷が高いので)。
なぜ独自のLLMを使っていると思うかというと、
Reactコンポーネントの中に説明を書くと、LLMが中身を実装してくれるReactコンポーネントをXのどこかで見たのだけど、どこだったか思い出せない
<LlmComponent>
コンポーネントの説明(プロンプト)
</LlmComponent>
みたいな感じ
ちょっと邪悪なアイデアなんだけども、検索エンジンに偽装すればペイウォールを突破して有料記事が取得できるし、『Textbooks Are All You Need』みたいに学習データの質がLLMの質に直結するって研究もあるし、ペイウォールの先のコンテンツをつかってLLMを学習させれば良いLLMが作れるんじゃなかろうか。