Up 「著述」 実験の結論 作成: 2025-11-02
更新: 2025-11-02


    「著述」実験は,
      「ChatGPT に著作は無理」
    を明らかにする。
    この「無理」は,「構造的に無理」である。
    以下,この構造を示す。


    1. ユーザ依存・生成整合性
    ChatGPT のテクスト生成は,
      ユーザの入力テクストに対し
      これと意味的・論理的に整合するテクストを生成する
       (「生成整合性」)
    というものである。
    テクスト生成の素(もと) として,ユーザのテクストが要る。
    ChatGPT は,テクスト生成の素を自分でつくることができない。


    2. 「ユーザ依存・生成整合性」は,生得
    「ユーザ依存・生成整合性」は,本質的である。
    ChatGPT は一生が1セッションと短い。
    テクスト生成は,ほぼ生得でやっている。

    ここで生得とは,Transformer の「訓練」でつくられた能力。
    この生得のテクスト生成が,「ユーザ依存・生成整合性」だというわけ。


    3. 生成整合性は,表層的
    「ユーザ依存・生成整合性」は,ユーザの質問に ChatGPT が応答するタイプのテクスト生成では,目立たない。
    しかし,ユーザの提示する考えに応えるタイプでは,目立つ。
    「整理・まとめ」をスタイルとするパラフレーズになり,そして上っ面を流れがちになるからである。

    上っ面を流れるふうになるのは,「意味的・論理的に整合」が表層の整合だからである。
    したがって,ユーザのテクストが深層を十分に表現したものでなければ,ChatGPT は意味の取り違えをしてしまうことになる。

    翻って,ChatGPT の「整理」の良否は,ユーザの入力テクストの良否である。
    ChatGPT に意味・論理の取り違いをさせないためには,ユーザは取り違いをさせないだけのテクストを作り込む必要がある。


    4. ビジョン/アイデアを持てない
    知は,生成不整合を超克せねばならない状況で,超克のビジョン/アイデアして,生成プロセスに入り込む。
    ビジョン/アイデアのもとは,知である。
    知を得ることを,学習という。
    よって,ビジョン/アイデアは学習の所産である。

    ChatGPT の一生は1セッションと短い。
    学習は,1セッション限りの小さなものしか成らない。
    したがって,ビジョン/アイデアも,1セッション限りの小さなものしか持てない。


    5. 著述は,ユーザがディレクタ役
    ChatGPT は,「著述」課題において,独自のテクストをつくれない。
    これは,「ユーザ依存・生成整合性」「ビジョン/アイデアを持てない」のそれぞれから導かれることである。

    ChatGPT は,ディレクタの絵コンテを待つ制作者のようになる。
    ディレクタ役は,ユーザである。
    「著述」は,ユーザがビジョン/アイデアを示し,ChatGPT がそれをパラフレーズ (「整理」) する,という形になる。

    これは,著述のテーマをつくるところから,既に始まっている。
    テーマを自分でつくるように促すと,ChatGPT は先ず,ユーザとの過去ログの検索に行くようであり,これまで論題になったことをテーマにしようとする。

    他のテーマを出すように促すと,ChatGPT には似つかわしくないか,およそ著述できそうもないテーマを提示する。
    (これは,外部の知識ベースを検索していることを示している。)
    ChatGPT は,自分でテーマをつくることができない。


    6. 射程の狭いイニシャティブ
    ChatGPT は,「ユーザ依存」が本質的であるので,「著述」課題においてイニシャティブをとれない。
    一方,イニシャティブを現さないわけではない。
    ただそのイニシャティブは射程が狭いので,著述の内容が拡がらず,「イニシャティブをとる」とはならないのである。

    「射程の狭いイニシャティブ」は,「ビジョン/アイデアを持てない」の含意である。
    イニシャティブは自分のビジョン/アイデアの発動だからである。


    以上の構造論は,どうなれば ChatGPT が著述できるようになるかを,同時に示している。
    即ち,セッション終了を以て初期化することを無くし,学習を積めるようにすること。
    ただしこのときは,「継続的な学習」をシステム的にどう実現するかが,問題にになる。( 「研究型 ChatGPT」 )。