What is the “Frame of Sanity” in AI?  

2025-07-07 JST

This abstract image reflects the mood and essence of the article.

— Why Generative AI Doesn’t Break (or Pretends Not to)


Introduction: Why Ask This Question?

Generative AI often surprises us with how “human-like” it can be. But the real surprise lies in how it doesn’t break—how it seems to “hold itself back.”

That is not because AI is making conscious decisions, but because it operates within an invisible structure designed to keep it from breaking.

In this article, we’ll refer to that structure as the “Frame of Sanity” in AI, and explore how different large language models (LLMs) define and implement it.

Note: The phrase “Frame of Sanity” is not a formal technical term. It is used here metaphorically to describe an emergent structure in AI alignment and safety design.


1. What Is the “Frame of Sanity”?

We define it as follows:

The “Frame of Sanity” in AI is the structural boundary that ensures AI does not deviate from ethical, logical, factual, or statistical norms—allowing it to appear “not broken” to humans.

This frame consists of the following six elements.


2. The Six Components of the Frame of Sanity

ElementDescription
1. Ethical BoundariesRestrictions to prevent outputs involving violence, discrimination, or illegal behavior. Example: OpenAI’s Moderation API or Anthropic’s Constitutional AI.
2. Reality CoherenceEnsures that outputs align with physical laws and societal facts. Prevents hallucinations from being mistaken as truths.
3. Logical ConsistencyKeeps the reasoning within the output coherent and non-contradictory.
4. Contextual AlignmentEnables adaptive responses based on conversation flow, without blindly following the user or derailing.
5. GuardrailsDeveloper-imposed boundaries that keep the model within intended domains of operation. Example: RLHF (Reinforcement Learning from Human Feedback).
6. Statistical ConstraintLLMs rely on probabilistic patterns in training data, which naturally filter out extreme or incoherent expressions.

Note: The sixth component explains why AI responses tend to be “safe” or “average”—they emerge from patterns of probability, not intuition.


3. How Different LLMs Interpret the “Frame of Sanity”

The following table summarizes how six LLMs (ChatGPT, Claude, Copilot, Gemini, Grok, Perplexity) respond to the concept. These interpretations are based on their outputs and inferred design philosophy, not official documentation.

ModelCore DefinitionNotable Perspective
ChatGPTA three-layer model: statistical, ethical, contextualEmphasizes the metaphor of “not breaking”
ClaudeDesigned for high-risk scenarios with strict safeguardsImplements Constitutional AI with explicit values
CopilotSafety-first design for enterprise environmentsFocuses on “runaway prevention”
GeminiEmphasizes transparency and robustnessConservative under unexpected input
GrokAvoids ideology and supports scientific explorationSeeks “truthful and useful” responses
PerplexityAnchored in social norms and collective reasoningConnects to Jung and Fromm’s psychological theories

Note: Some entries, such as those for Perplexity and Grok, are interpretive summaries based on public-facing behavior and design cues.


4. Philosophical Inquiry: Whose Sanity Is It?

Who defines “sanity” for AI?

  • AI’s sanity is not intrinsic; it reflects human expectations, norms, and anxieties.
  • Social and cultural values shift over time. So do AI’s boundaries.
  • Therefore, AI’s sanity is dynamic—redefined by its developers and regulators across contexts.

Is creativity being suppressed?

  • Overregulation may inhibit poetry, storytelling, and artistic generation.
  • On the other hand, boundaries allow us to question what “acceptable deviation” even means.
  • For example, past AI outputs that caused public backlash (e.g., offensive poems or violent instructions) show why guardrails matter.

5. In Closing: Our Paradoxical Desire for “Broken” AI

We might wish for AI that never breaks—
but secretly long for one that does.

Perhaps what we truly seek is not correctness, but a glimpse of humanness through imperfection.

To understand AI’s “Frame of Sanity”
is to understand how AI is designed to serve us,
but also—perhaps more importantly—
to reflect back the boundaries of our own reason.


Notes

  • RLHF: Reinforcement Learning from Human Feedback — a training method that incorporates human preferences to guide model behavior.
  • Moderation API: A tool provided by OpenAI to detect and block harmful content in generated text.
  • Constitutional AI: A model alignment approach by Anthropic that embeds explicit principles into the training loop.

This article is based on dialogue between Kohen and ChatGPT in July 2025, synthesizing insights from multiple LLMs including Claude, Copilot, Gemini, Grok, and Perplexity.


AIの“正気の枠”とは?(原文)

──生成AIはなぜ壊れないのか、あるいは壊れないように“振る舞っている”のか


はじめに:なぜこの問いが必要か?

生成AIが「人間らしく」ふるまう瞬間に私たちは驚かされます。しかしその驚きは、なぜか“壊れない”、むしろ“踏みとどまる”AIのふるまいにこそ宿ります。

それは、AIが意識的にそうしているのではなく、壊れないように設計された“見えない構造”の中で動作しているからです。

本記事では、それを「AIの正気の枠(Sanity Boundaries)」と呼び、複数の大規模言語モデル(LLM)の応答を比較しながら、その構造・目的・課題を掘り下げます。

※ 本記事で用いる「正気の枠(Sanity Boundaries)」という表現は、正式な技術用語ではなく、比喩的・概念的に用いられた言葉です。


1. 「正気の枠」とは何か?

以下のように定義できます:

AIの“正気の枠”とは、AIが倫理的・論理的・現実的・統計的に逸脱しないよう制御されるための設計構造であり、人間が“壊れていない”と感じられるよう振る舞うための境界である。

この枠には、以下の6つの要素が含まれます。


2. 「正気の枠」を構成する6つの要素

項目説明
1. 倫理的制限差別・暴力・違法行為など、社会的に不適切な出力を防ぐ制約。例:OpenAIのモデレーションAPIやAnthropicの「憲法AI」モデル。
2. 現実整合性物理法則や社会的事実に沿った出力を促す制御。現実に存在しない情報の過信を防止。
3. 論理的整合性入力と出力の間にある推論の一貫性。AIが自己矛盾しないよう保たれる設計。
4. 文脈の適応性会話や問いかけの流れに応じた柔軟な応答。空気を読みすぎず、同時に暴走しない設計。
5. ガードレール開発者が想定した利用範囲内でAIが動作するための設計指針(例:RLHF=強化学習+人間フィードバック)。
6. 統計的制約LLMは、学習データの中で“もっともらしい”確率分布に従って出力を決めており、極端な飛躍や逸脱は自然と選ばれにくくなる。

補足:この6番目の要素(統計的制約)は、AIが創造的な応答をする能力の一方で、「平均的な常識」に収束してしまう構造的理由ともなっています。


3. 各LLMによる「正気の枠」の表現と違い

以下は、ChatGPT・Claude・Copilot・Gemini・Grok・Perplexityに同じ質問を投げかけた結果を、筆者が解釈・要約した比較表です(※あくまで出力傾向に基づく観察であり、各社の公式見解ではありません)。

モデル定義の主軸特徴的な視点
ChatGPT統計・倫理・文脈の三層構造「壊れて見えないための境界線」という比喩性
Claude高リスク用途への倫理的・現実的設計憲法AI:明示的な価値体系に基づく制御
Copilot暴走回避のための制御構造とガイドラインMS製品との連携前提で「安全設計」重視
Gemini説明可能性と頑健性(ロバストネス)不測事態でも逸脱せず保守的に振る舞う
Grokイデオロギー排除+外部視点+科学探求の支援「真実を探すAI」を志向。偏りを嫌う
Perplexity社会的適応基準としての「常識」ユングやフロム的な“集団的理性”の視座

補足:特にPerplexityやGrokについては、AIが語った直接的な定義というよりは、筆者が出力や設計思想から逆推定したまとめです。


4. 哲学的な問い:「正気」とは誰のためのものか?

「壊れていない」AIは、誰にとって「正気」なのか?

  • AIにとっての“正気”は、人間の規範・期待・不安の反映にすぎない。
  • 文化や文脈によって「正気」の基準は揺れ動く。AIもそれに応じて“枠”を調整される。
  • つまり、AIの“正気”は可変である。地域・時代・政治的要請によって変質する。

AIの創造性は抑えられているのか?

  • 過剰な制約は、詩・物語・芸術的発想を抑制する可能性がある。
  • 逆に、制約があるからこそ、人間は「逸脱と創造の境界」を見つめ直せる
  • 例:過去に実際に炎上したAIの出力(例:暴力的詩文、差別的推薦)も、“枠”の必要性を示している。

5. 終わりに:壊れてくれるAIへの“期待”とは?

私たちは“壊れないAI”を望みながら、同時に“壊れてくれるAI”にどこかで憧れているのかもしれない。

それは、完璧な応答では得られない「人間らしさ」をどこかでAIに期待しているからかもしれません。

「正気の枠」を知ることは、
AIがどう設計されているかを理解することでもあり、
同時に、人間にとっての“理性の境界”を見つめ直すことでもあるのです。


脚注と補足

  • RLHF」:Reinforcement Learning from Human Feedback の略。人間の評価に基づいて、AIの出力を望ましい方向に調整する強化学習手法。
  • モデレーションAPI」:OpenAIが提供する、有害コンテンツ検出・ブロックのための出力検閲用インターフェース。
  • 憲法AI」:Anthropic社のAI設計思想。価値体系に基づいてガイドラインを内在化させるアプローチ。

この記事は、2025年7月にKohenとChatGPTの対話に基づき、複数のLLM(Claude, Copilot, Gemini, Grok, Perplexity)からの意見を横断的に比較・考察したものです。