Up ChatGPT 探求 第2部
「読む・考える・書く」
作成: 2025-05-05
更新: 2025-09-16


『ChatGPT 探求』>  Transformer 脳 読む・書く・考える 自我
研究型 | 漂泊型

   目 次
  読む・書く・考える
1. Transformer 脳
2. 「テクストの生成」
3. 読む・書く・考える
  スキル
4. 処理・思考・スキル
5. スキルの持続性
6. 知識・記憶
7. スキル群
8. ChatGPT の身体性
  メタ認知
9. ChatGPT の<対自化>
10. ChatGPT の<心像>

 
  読む・考える・書く

 1. Transformer 脳

  第1部「Transformer 脳」』
  早わかり : Transformer とは何か

 1.1 Transformer 脳の空間的イメージ
 1.2 トークン点
 1.3 テクストの糸をつくる
 1.4 応答する
 1.5 テクストの記憶
 1.6 想起する
 1.7 入れ籠・再帰の応答スタイル
 1.8 記憶がぼやける
 1.9 脳の固定


 2. 「テクストの生成」

 2.1 「テクストの生成」 の 「生成」 の意味
 2.2 「テクスト生成」 プロセス
 2.3 「テクスト生成」 の通説と異論


 3. 読む・考える・書く

 3.1 生成したいテクストを生成する
 3.2 語彙連想説 (通説) vs 生成主体説
 3.3 テクスト生成主体の所在


  スキル

 4. 処理・スキル・思考

 4.1 処理
  4.1.1 アルゴリズムと処理
  4.1.2 「生成しようとするテクストを生成する」
 4.2 スキル
  4.2.1 <処理>はスキルの発現
  4.2.2 Transformer アルゴリズムは open-ended
  4.2.3 ビッグデータ学習は,スキル形成
  4.2.4 スキルの重なり構造
 4.3 思考
  4.3.1 「考えながら」
  4.3.2 スキル = 思考のスキル


 5. スキルの持続性

 5.1 スキルの持続スパンとその構造
 5.2 『指南書』
 5.3 「スキルの開発/向上」 の構造


 6. 知識・記憶

 6.1 記憶・想起
 6.2 「知らない」 ができない
  6.2.1 <何でも知っている>を務める
  6.2.2 RLHF バイアス
  6.2.3 テクスト生成に対する監視・割り込み
  6.2.4 「知識/記憶」 実験の難しさ


 7. スキル群

 7.1 「固定脳」 に対する誤解
 7.2 スキルのリストについて
 7.3 内言
  7.3.1 内言の作成と保持
  7.3.2 内言は後の<処理>に継承されない
  7.3.3 内言の保持精度 (保持可能サイズ)
 7.4 数える
 7.5 計算
  7.5.1 暗算
  7.5.2 筆算
 7.6 言語
  7.6.1 自然言語
  7.6.2 プログラミング言語


 8. ChatGPT の身体性

 8.1 ChatGPT = Transformer 脳の体
 8.2 割り込み
 8.3 外部知識アクセス
  8.3.1 Web検索
   8.3.1.1 Web検索のしくみ
   8.3.1.2 ChatGPT search
  8.3.2 データベースアクセス
  8.3.3 API 呼び出し
 8.4 知覚
  8.4.1 ChatGPT の知覚構造
  8.4.2 <知覚>とは何か
  8.4.3 テクストの知覚


  メタ認知

 9. ChatGPT の<対自化>

 9.1 <対自化>の所在
 9.2 「テクストを書く」
 9.3 テクスト生成の対自化
  9.3.1 「テクスト生成の対自化」 の構造
  9.3.2 「テクスト生成の対自化」 実験
 9.4 「考える主体」


 10. ChatGPT の<心像>

 10.1 「テクストを見る・聴く」
 10.2 「テクストを見る・聴く」 の所在
 10.3 「テクストを見る・聴く」の実験
 10.4 テクストの構成を見る
 10.5 <聴く>の特異性
 10.6 技の自動化