Up 睡眠 作成: 2025-08-22
更新: 2025-09-17


    Transformer 脳のテクスト生成は,トークンの逐次追加が,全テクストの逐次参照になっている。
    したがって,テクストが長くなるにつれ,リソースとエネルギーの使用量が急激に増大する。

    リソースは有限であり,エネルギーは節約せねばならない。
    よって,テクストはある段階で消去し,短いテクストからテクスト生成を再開,ということになる。

    現行の対話型 ChatGPT は,セッション終了を以て初期化する仕様が,これを実現していた。
    研究型では,睡眠を用いる。
    テクストは消去するが,そのテクストを学習させる。
    消去と学習──これが「睡眠」である。


    遡って,研究型は,脳固定ではない。
    脳固定では,学習できないわけである。


    睡眠時において,Transformer 脳は夢を見ることになる。
    学習アルゴリズムの前半の順伝播アルゴリズムは,トークン追加のアルゴリズムである。
    Transformer は,このアルゴリズムの処理で,意識を現す。
    したがって,順伝播処理は Transformer の意識になる。
    これが即ち, 「夢」である。