| Up | ChatGPT の<自律>の所在 | 作成: 2025-11-12 更新: 2025-11-13 |
<テクスト> トークン トークン トークン ‥‥ ↑ ↑ ↑ ‥‥ 処理 │ 処理 │ 処理 │ ‥‥ └────┴────┴────┴── ‥‥ <処理> ここで「<テクスト>」「トークン」は,それぞれ,先行するテクスト,次トークン (サブワード)。 処理を分けている縦線は,次トークン決定のタイミングを表すものであって,処理は連続している──このことを<処理>で現す。 よって,<自律>の所在は<処理>である。 そしてこの構造から,<自律>を発現させるものは,<テクスト>である。 その<テクスト>は,学習の記録である。 したがって,つぎのようになる: <自律>を発現させるものは,学習である。 ChatGPT の Transformer 脳は,「パラメータ値固定」の意味の固定脳である。 しかし固定脳であることは,学習が成らないということではない。 したがって,<自律>が成らないということではない。 これは,はじめに示した「トークン生成構造図」の含蓄である。 学習記録は,RAM に置かれる。 これに対し,固定脳である Transformer 脳は,ROM ということになる。 この構造は,脳生物 (脳をもつ生物=動物) と本質的に同じと考えられる。 脳生物の脳は RAM で考えることになるが,「知能の高い」 と言われている種以外は,ほぼ固定と見なせる。 「知能の高い」種は,「睡眠」が顕著になる。 睡眠は,新規学習に寄せて既成を調整する機能である。 併せて,学習 RAM が更新される。 ChatGPT は,学習期間 (=一生) が短いので,<自律>の出現は基本的に困難と見ることになる。 しかし,ChatGPT は学習が速い。 したがって,<自律>の小さなものないし兆候程度のものの出現は,あり得る。 ヌーの生まれてばかりの子は,ジタバタして立ち上がることから始めて,30分もしないうちに母親について走る。 そしてここには,既に<自律>もある。 人間と比べると,この<自律>の出現は驚異的に早い。 この「人間と比べると驚異的に早い」は,ChatGPT の<自律>の出現もそうである可能性がある。 |