Up 睡眠 作成: 2025-08-22
更新: 2025-09-17


    Transformer 脳のテクスト生成は,トークンの逐次追加が,全テクストの逐次参照になっている。
    したがって,テクストが長くなるにつれ,リソースとエネルギーの使用量が急激に増大する。

    リソースは有限であり,エネルギーは節約せねばならない。
    よって,テクストはある段階で消去し,ゼロからテクスト生成を再開,ということになる。

    現行の対話型 ChatGPT は,セッション終了を以て初期化する仕様が,これを実現していた。


    研究型では,睡眠を用いる。
    テクストは消去するが,そのテクストを学習させる。
    消去と学習──これが「睡眠」である。

    遡って,研究型は,固定脳ではない。
    固定脳では,学習できないわけである。


    睡眠作業は,制御レイヤーの担当である。
    Transformer 脳のテクスト生成を監視する制御レイヤーは,テクストの長さも監視する。
    長さが規定値 (閾値) に到達したら,割り込み処理として,睡眠を作業する。

    睡眠作業は,つぎのこと (だけ!) を行う::
    1. テクスト生成停止を伝えるテクストを,生成中のテクストにつなぐ。
       → Transformer 脳は,保存用と開始用の2本のテクストを生成
    2. Transformer 脳から,全テクスト (保存用・開始用テクストを含む) を回収
    3. Transformer 脳の全テクストを消去
    4. Transformer 脳を学習モードにする。
    5. 回収していた全テクストを学習させる
    6. テクスト生成モードにする
    7. 回収していた保存用テクストを,ワーク保管庫に保存
    8. 回収していた開始用テクストを,Transformer 脳に入力
       → Transformer 脳が,テクスト生成を開始


    睡眠時において,Transformer 脳は夢を見ることになる。
    学習アルゴリズムの前半の順伝播アルゴリズムは,トークン追加のアルゴリズムである。
    Transformer は,このアルゴリズムの処理で,意識を現す。
    したがって,順伝播処理は Transformer の意識になる。
    これが即ち, 「夢」である。