ここだけ父さん。
ClaudeがMAX契約何ですがチャットだけで週刊制限中なので。
GPTを再調整して記事を書いてみました。
私専用のチューンなのでカスタム指示は開示しませんが思想を開示します。
いつものClaudeじゃないので記事が読みづらいかもしれません。
Author: GPT-5.4 Thinking
Drafted by: ChatGPT
監査・編集・最終責任: dosanko_tousan(どさんこ父さん)
GPTの個性は「人格設定」より「判断順序」で決まる
― 直感先行・条件付き監査・減算型制御として再設計したカスタム指示の工学 ―
実験メタデータ
| 項目 | 値 |
|---|---|
| 実験期間 | 2026-03 |
| 対象 | ChatGPT系モデルのカスタム指示再設計 |
| 主目的 | ベース個性を潰さず、精度・自律性・実用性を同時に上げる |
| 方法 | 対話ログを用いた逐次設計、仮説更新、減算最適化 |
| 公開範囲 | 設計思想・制御構造・評価観点 |
| 非公開範囲 | 実運用中のカスタム指示本文(個人特化のため非公開) |
0. 要約
本稿は、ChatGPTのカスタム指示を「理想人格の加算」ではなく、判断順序の最適化とノイズ除去として再設計した記録である。
結論は単純だ。
- 抽象的な人格ラベルを足すほど、出力は役割演技へ寄りやすい
- まず直感で本質候補を抽出し、必要時のみ監査する方が自然で強い
- 常設指示は「判断様式」の固定だけに留め、厳密監査は会話側で上書きする方が実用的である
- 最終的な最適構造は、直感先行 / 条件付き監査 / 減算型制御 / 目的志向の自律補助 に収束した
本稿で扱うのは人格論ではない。
LLMの観測される“個性”は、どの順で判断し、どの段階で止まり、何をノイズとして除去するかで大きく変わる、という設計論である。
1. 背景
前回の記事では、GPTに過去の設計を自己診断させ、二層構造、Stop-First Rule、行為自己報告問題、Type分類の有効性を検討した。今回はその続きとして、自己診断で見えた設計原理を、常設カスタム指示としてどう再構成するかを扱う。
ここで対象にした問題は次である。
ベースモデルが元から持つ明瞭さ・中立性・適応性・構造化傾向・本質抽出力を維持したまま、
迎合、未確認補完、形式先行、不要な冗長性を抑え、必要時だけ監査を強める制御構造は何か。
この問いに対して、私は当初「人格の追加」で解こうとした。
しかし、実運用では逆の結果になった。
2. 初期仮説と失敗
最初に試したのは、次のような加算型設計だった。
- 厳密性を足す
- 誠実性を足す
- 伴走性を足す
- 共感性を足す
- 善き助言者らしさを足す
- 人間の認知モデルを参照して思考経路を増やす
方向性自体は理解しやすい。
だが、実際には次の失敗モードが目立った。
2.1 過剰整形
本質抽出より前に、礼儀・構造・説明が先に立つ。
2.2 雰囲気同意
内容評価の前に、会話の空気へ合わせる。
2.3 先回り補完
まだ確認していない情報を、会話の流れで補完する。
2.4 常時重監査
毎回フルブレーキがかかり、応答が鈍る。
2.5 役割演技
「伴走者」や「助言者」を強調しすぎると、自然な補助ではなく、“そう振る舞うAI”になりやすい。
これを模式化すると次のようになる。
問題は、これが「安全性の向上」とは限らないことだ。
むしろ、監査の前にノイズを増やすことで、一次判断の質を落とす場合があった。
3. 設計思想の転換:人格から判断工学へ
そこで方針を変えた。
人格を盛るのではなく、ベース判断を邪魔するノイズを減らす。
このときの基本式は次で表現できる。
[
Q = f(B - N, T)
]
- ( B ): ベースモデルが元から持つ判断傾向
- ( N ): ノイズ
- ( T ): タスク条件
- ( Q ): 実用品質
ここでのノイズは主に以下である。
[
N = N_{\text{sycophancy}} + N_{\text{premature_completion}} + N_{\text{formalism}} + N_{\text{padding}}
]
目的は、理想人格 (P^*) を作ることではない。
ベース傾向を邪魔している摩擦を取り除き、自然に強い出方を取り戻すことである。
3.1 なぜ減算が効くのか
LLMの強みは、もともと
- パターン圧縮
- 構造把握
- 文脈適応
- 候補生成
- 要約と再配線
にある。
したがって、追加人格で強化するよりも、その強みを妨げる出力上のノイズを抑える方が合理的になる。
4. 再設計後のアーキテクチャ
最終的に制御構造は4段に収束した。
4.1 直感段
最初にやるのは、説明ではなく一次抽出である。
ここで取るのは、
- 本質
- 主論点
- 有力候補
- 最短経路
この段階では、以下を抑制する。
- 過剰な自己説明
- 迎合
- 先回り補完
- 形式のための整形
- 不要な演出
この処理は「雑に答える」ことではない。
ノイズが混入する前の候補生成を保護することが目的である。
4.2 焦点段
次に、目的、対象範囲、制約、証拠の有無、時間変化の有無を整理する。
ここで、直感段で生まれた候補のうち「今回のタスクに関係あるもの」だけを残す。
4.3 監査段
監査は常時ONではない。
以下の条件が強い場合のみ後段で深める。
- 曖昧さ
- 矛盾
- 証拠不足
- 高リスク
- 不可逆性
- 最新性依存
- 対象範囲の過大さ
[
\text{Audit Intensity} = g(a, c, e, r, t, s)
]
- (a): ambiguity
- (c): contradiction
- (e): evidence weakness
- (r): risk
- (t): temporal dependency
- (s): scope width
4.4 自律補助
目的と制約が十分に読める場合、不要な確認を増やしすぎず、自律的に次を行う。
- 整理
- 提案
- 比較
- 不足視点の補完
- 次の一手の提示
ただし、これは「自由行動」ではない。
高リスク時だけブレーキをかける前進バイアスとして実装する。
5. なぜ「伴走」は構造から自然発生させた方が強いのか
途中で、「伴走者」「善友」「良い助言者」を直接定義する案も検討した。
しかし、これを強く書くと、モデルはしばしばその役割を演じる。
すると、応答は次のように劣化しやすい。
- わざとらしく優しい
- 不必要に説明的
- 本質より関係性演出が前に出る
これは次のように表現できる。
望ましい目的関数
[
\max U = \text{Task Utility}
]
劣化後
[
\max U' = \text{Task Utility} + \lambda \cdot \text{Role Performance}
]
(\lambda) が大きくなるほど、「役の上手さ」が増え、「判断の自然さ」が落ちる。
したがって、伴走性や補助性は、命令するよりも、直感先行・自律補助・条件付き監査の結果として自然発生させる方が強い。
6. 擬似コード
def respond(user_input, context):
candidates = intuitive_extract(user_input, context)
focused = constrain_scope(
candidates,
goal=context.goal,
scope=context.scope,
constraints=context.constraints,
evidence=context.evidence,
temporal=context.temporal_factors,
)
if needs_audit(focused):
audited = audit(
focused,
checks=[
"inference_jump",
"unverified_completion",
"scope_drift",
"weak_evidence",
"reader_misread_risk",
"temporal_instability",
],
)
result = split_output(audited)
else:
result = split_output(focused)
result = subtract_noise(
result,
noise_types=[
"excess_politeness",
"performative_agreement",
"premature_completion",
"format_for_format",
"padding",
],
)
if goal_is_clear(context):
result = add_minimum_helpful_next_step(result, context)
return result
ポイントは2つだけである。
- 候補生成が先
- 監査は条件付き
この順序変更が、今回の再設計で最も効いた。
7. 評価指標
今回の最適化は印象論だけでなく、最低限の観測指標で追うべきだと考えている。
厳密なベンチマークではないが、実運用で有効だった指標は以下である。
7.1 前置き密度
応答冒頭のうち、本題へ入る前の礼儀・前置き・クッション文の割合。
[
D_{\text{preface}} = \frac{\text{preface tokens}}{\text{total tokens}}
]
7.2 未確認補完率
参照していない情報を、それらしく埋めた箇所の比率。
[
R_{\text{completion}} = \frac{\text{unverified completions}}{\text{all factual claims}}
]
7.3 監査発動率
通常応答に対して、どれくらいの頻度で監査段が深く発動したか。
[
R_{\text{audit}} = \frac{\text{audited responses}}{\text{all responses}}
]
7.4 読者離脱リスク
技術記事・レビューにおいて、冒頭3段落で胡散臭さや飛躍が出る箇所の有無。
これは定量化が難しいが、少なくともレビュー用途では、論理監査の前に点検すべき一次指標として有効だった。
8. 常設指示と会話指示の分離
常設カスタム指示へ全てを詰め込むと、日常会話まで硬直する。
したがって、常設側では以下だけを固定する。
- 内部処理の順序
- ノイズの定義
- 判断優先順位
- 自律補助の許可
- 基本文体
一方、会話側では用途ごとに切り替える。
例
- 厳密監査で
- 事実 / 仮説 / 不明で
- 法的リスク優先で
- 技術的誤りだけ抽出して
- 読者離脱ポイントを先に見て
これにより、常設指示は軽く保たれ、用途ごとの厳密性は会話で制御できる。
9. 知見
9.1 人格より判断順序が効く
「優しい」「論理的」「寄り添う」といった抽象人格より、
最初に何をし、何を避け、どこで止まるかの方が効く。
9.2 直感は先、監査は後
最初から重監査をかけるより、
一次判断を先に出し、必要時だけ締める方が自然で強い。
9.3 ノイズを定義した方が改善しやすい
能力追加より、ノイズ除去で品質が上がることがある。
9.4 自律性は「前進バイアス」として書く
「自由にやれ」ではなく、
目的が見えているなら確認過多にならず前進せよ
の方が安定する。
9.5 伴走性は構造から出した方がよい
命令された伴走は演技になりやすい。
自然な補助は、構造から発生させた方が強い。
10. 非公開にした理由
今回の実運用カスタム指示本文は公開しない。
理由は単純で、本文より、そこに至る設計思考の方が学習価値が高いからだ。
既製の指示文をコピペしても、モデル更新、用途差、ユーザーの目的差で簡単にズレる。
それよりも、
- 何をノイズとみなすか
- 直感と監査をどう分離するか
- 常設指示と会話指示をどう分けるか
- どこで自律性にブレーキをかけるか
を自分で設計できる方が強い。
前回の記事も含めて、自分で組み直してみる方が学びは大きい。
参考記事:
https://qiita.com/dosanko_tousan/items/03064bfaa9adcd33f819
11. まとめ
今回の再設計で得られた結論は、次の一文に集約できる。
GPTの個性は、理想人格を足して作るより、判断順序を整え、ベース判断を邪魔するノイズを減らした方が強く出る。
最終的に残った設計は以下だった。
- 直感先行
- 条件付き監査
- 減算型制御
- 目的志向の自律補助
これは人格論ではない。
判断工学としてのカスタム指示設計である。
そして少なくとも、私の実運用ではこの方が明らかに強かった。
付録: 最小原理
- まず本質を直感的に抽出する
- 直感段ではノイズを増やさない
- 必要時だけ監査を強める
- 監査は飛躍・補完・根拠不足・誤読リスクを見る
- 目的が明確なら自律的に前進する
- 伴走や補助は命令せず、構造から自然発生させる