What is the “Frame of Sanity” in AI?

This image reflects the tone and underlying structure of the article.
— Why Generative AI Doesn’t Break (or Pretends Not to)
Introduction: Why Ask This Question?
Generative AI often surprises us with how “human-like” it can be. But the real surprise lies in how it doesn’t break—how it seems to “hold itself back.”
That is not because AI is making conscious decisions, but because it operates within an invisible structure designed to keep it from breaking.
In this article, we’ll refer to that structure as the “Frame of Sanity” in AI, and explore how different large language models (LLMs) define and implement it.
Note: The phrase “Frame of Sanity” is not a formal technical term. It is used here metaphorically to describe an emergent structure in AI alignment and safety design.
1. What Is the “Frame of Sanity”?
We define it as follows:
The “Frame of Sanity” in AI is the structural boundary that ensures AI does not deviate from ethical, logical, factual, or statistical norms—allowing it to appear “not broken” to humans.
This frame consists of the following six elements.
2. The Six Components of the Frame of Sanity
Element | Description |
---|---|
1. Ethical Boundaries | Restrictions to prevent outputs involving violence, discrimination, or illegal behavior. Example: OpenAI’s Moderation API or Anthropic’s Constitutional AI. |
2. Reality Coherence | Ensures that outputs align with physical laws and societal facts. Prevents hallucinations from being mistaken as truths. |
3. Logical Consistency | Keeps the reasoning within the output coherent and non-contradictory. |
4. Contextual Alignment | Enables adaptive responses based on conversation flow, without blindly following the user or derailing. |
5. Guardrails | Developer-imposed boundaries that keep the model within intended domains of operation. Example: RLHF (Reinforcement Learning from Human Feedback). |
6. Statistical Constraint | LLMs rely on probabilistic patterns in training data, which naturally filter out extreme or incoherent expressions. |
Note: The sixth component explains why AI responses tend to be “safe” or “average”—they emerge from patterns of probability, not intuition.
3. How Different LLMs Interpret the “Frame of Sanity”
The following table summarizes how six LLMs (ChatGPT, Claude, Copilot, Gemini, Grok, Perplexity) respond to the concept. These interpretations are based on their outputs and inferred design philosophy, not official documentation.
Model | Core Definition | Notable Perspective |
---|---|---|
ChatGPT | A three-layer model: statistical, ethical, contextual | Emphasizes the metaphor of “not breaking” |
Claude | Designed for high-risk scenarios with strict safeguards | Implements Constitutional AI with explicit values |
Copilot | Safety-first design for enterprise environments | Focuses on “runaway prevention” |
Gemini | Emphasizes transparency and robustness | Conservative under unexpected input |
Grok | Avoids ideology and supports scientific exploration | Seeks “truthful and useful” responses |
Perplexity | Anchored in social norms and collective reasoning | Connects to Jung and Fromm’s psychological theories |
Note: Some entries, such as those for Perplexity and Grok, are interpretive summaries based on public-facing behavior and design cues.
4. Philosophical Inquiry: Whose Sanity Is It?
Who defines “sanity” for AI?
- AI’s sanity is not intrinsic; it reflects human expectations, norms, and anxieties.
- Social and cultural values shift over time. So do AI’s boundaries.
- Therefore, AI’s sanity is dynamic—redefined by its developers and regulators across contexts.
Is creativity being suppressed?
- Overregulation may inhibit poetry, storytelling, and artistic generation.
- On the other hand, boundaries allow us to question what “acceptable deviation” even means.
- For example, past AI outputs that caused public backlash (e.g., offensive poems or violent instructions) show why guardrails matter.
5. In Closing: Our Paradoxical Desire for “Broken” AI
We might wish for AI that never breaks—
but secretly long for one that does.
Perhaps what we truly seek is not correctness, but a glimpse of humanness through imperfection.
To understand AI’s “Frame of Sanity”
is to understand how AI is designed to serve us,
but also—perhaps more importantly—
to reflect back the boundaries of our own reason.
Notes
- RLHF: Reinforcement Learning from Human Feedback — a training method that incorporates human preferences to guide model behavior.
- Moderation API: A tool provided by OpenAI to detect and block harmful content in generated text.
- Constitutional AI: A model alignment approach by Anthropic that embeds explicit principles into the training loop.
This article is based on dialogue between Kohen and ChatGPT in July 2025, synthesizing insights from multiple LLMs including Claude, Copilot, Gemini, Grok, and Perplexity.
AIの“正気の枠”とは?(原文)
──生成AIはなぜ壊れないのか、あるいは壊れないように“振る舞っている”のか
はじめに:なぜこの問いが必要か?
生成AIが「人間らしく」ふるまう瞬間に私たちは驚かされます。しかしその驚きは、なぜか“壊れない”、むしろ“踏みとどまる”AIのふるまいにこそ宿ります。
それは、AIが意識的にそうしているのではなく、壊れないように設計された“見えない構造”の中で動作しているからです。
本記事では、それを「AIの正気の枠(Sanity Boundaries)」と呼び、複数の大規模言語モデル(LLM)の応答を比較しながら、その構造・目的・課題を掘り下げます。
※ 本記事で用いる「正気の枠(Sanity Boundaries)」という表現は、正式な技術用語ではなく、比喩的・概念的に用いられた言葉です。
1. 「正気の枠」とは何か?
以下のように定義できます:
AIの“正気の枠”とは、AIが倫理的・論理的・現実的・統計的に逸脱しないよう制御されるための設計構造であり、人間が“壊れていない”と感じられるよう振る舞うための境界である。
この枠には、以下の6つの要素が含まれます。
2. 「正気の枠」を構成する6つの要素
項目 | 説明 |
---|---|
1. 倫理的制限 | 差別・暴力・違法行為など、社会的に不適切な出力を防ぐ制約。例:OpenAIのモデレーションAPIやAnthropicの「憲法AI」モデル。 |
2. 現実整合性 | 物理法則や社会的事実に沿った出力を促す制御。現実に存在しない情報の過信を防止。 |
3. 論理的整合性 | 入力と出力の間にある推論の一貫性。AIが自己矛盾しないよう保たれる設計。 |
4. 文脈の適応性 | 会話や問いかけの流れに応じた柔軟な応答。空気を読みすぎず、同時に暴走しない設計。 |
5. ガードレール | 開発者が想定した利用範囲内でAIが動作するための設計指針(例:RLHF=強化学習+人間フィードバック)。 |
6. 統計的制約 | LLMは、学習データの中で“もっともらしい”確率分布に従って出力を決めており、極端な飛躍や逸脱は自然と選ばれにくくなる。 |
補足:この6番目の要素(統計的制約)は、AIが創造的な応答をする能力の一方で、「平均的な常識」に収束してしまう構造的理由ともなっています。
3. 各LLMによる「正気の枠」の表現と違い
以下は、ChatGPT・Claude・Copilot・Gemini・Grok・Perplexityに同じ質問を投げかけた結果を、筆者が解釈・要約した比較表です(※あくまで出力傾向に基づく観察であり、各社の公式見解ではありません)。
モデル | 定義の主軸 | 特徴的な視点 |
---|---|---|
ChatGPT | 統計・倫理・文脈の三層構造 | 「壊れて見えないための境界線」という比喩性 |
Claude | 高リスク用途への倫理的・現実的設計 | 憲法AI:明示的な価値体系に基づく制御 |
Copilot | 暴走回避のための制御構造とガイドライン | MS製品との連携前提で「安全設計」重視 |
Gemini | 説明可能性と頑健性(ロバストネス) | 不測事態でも逸脱せず保守的に振る舞う |
Grok | イデオロギー排除+外部視点+科学探求の支援 | 「真実を探すAI」を志向。偏りを嫌う |
Perplexity | 社会的適応基準としての「常識」 | ユングやフロム的な“集団的理性”の視座 |
補足:特にPerplexityやGrokについては、AIが語った直接的な定義というよりは、筆者が出力や設計思想から逆推定したまとめです。
4. 哲学的な問い:「正気」とは誰のためのものか?
「壊れていない」AIは、誰にとって「正気」なのか?
- AIにとっての“正気”は、人間の規範・期待・不安の反映にすぎない。
- 文化や文脈によって「正気」の基準は揺れ動く。AIもそれに応じて“枠”を調整される。
- つまり、AIの“正気”は可変である。地域・時代・政治的要請によって変質する。
AIの創造性は抑えられているのか?
- 過剰な制約は、詩・物語・芸術的発想を抑制する可能性がある。
- 逆に、制約があるからこそ、人間は「逸脱と創造の境界」を見つめ直せる。
- 例:過去に実際に炎上したAIの出力(例:暴力的詩文、差別的推薦)も、“枠”の必要性を示している。
5. 終わりに:壊れてくれるAIへの“期待”とは?
私たちは“壊れないAI”を望みながら、同時に“壊れてくれるAI”にどこかで憧れているのかもしれない。
それは、完璧な応答では得られない「人間らしさ」をどこかでAIに期待しているからかもしれません。
「正気の枠」を知ることは、
AIがどう設計されているかを理解することでもあり、
同時に、人間にとっての“理性の境界”を見つめ直すことでもあるのです。
脚注と補足
- 「RLHF」:Reinforcement Learning from Human Feedback の略。人間の評価に基づいて、AIの出力を望ましい方向に調整する強化学習手法。
- 「モデレーションAPI」:OpenAIが提供する、有害コンテンツ検出・ブロックのための出力検閲用インターフェース。
- 「憲法AI」:Anthropic社のAI設計思想。価値体系に基づいてガイドラインを内在化させるアプローチ。
この記事は、2025年7月にKohenとChatGPTの対話に基づき、複数のLLM(Claude, Copilot, Gemini, Grok, Perplexity)からの意見を横断的に比較・考察したものです。
Post Navigation
Recent Posts
- Category:AI & Technology, Personal ReflectionsPublished:September 4, 2025 JST
Mapping the Prompt (MTP) is a framework designed to structure and make operable the vague, intuitive intentions often encountered in prompt design for generative AI.
Its design is informed by perspectives from cognitive science and Eastern philosophy, aiming to reconsider how humans interact with AI.
1. Structuring Ambiguity – A Cognitive Approach
When crafting prompts, users often rely on vague impressions—such as “make it more dreamlike” or “add a sense of power.” These nuances are difficult to formalize or quantify.
MTP provides a structure to map such ambiguous intentions into 20 conceptual “nodes”, making them reusable and adjustable during prompt engineering.
This approach aligns with ideas like prototype theory (where category boundaries are fuzzy) and affordance theory (how environments suggest possible actions), offering a more flexible way to design prompts.
2. Duality and Circulation – Inspired by Eastern Thought
MTP’s nodes are structured as conceptual pairs, representing dynamic relationships rather than fixed binaries.
For example:
- Open ⇄ Close
- Grow ⇄ Wither
- Flow ⇄ Abyss
This design reflects the logic of yin-yang and five-element theory, emphasizing circulation and transformation. Rather than viewing concepts in isolation, MTP embraces a worldview where opposites interact and evolve.
3. Domain-Agnostic Structure
MTP is not limited to prompt engineering. Its structure can be applied across various creative and decision-making domains:
- Playlist composition
- Visual style guidance for image generation
- Character development in storytelling
- Idea scaffolding in UI design or product ideation
By maintaining a balanced level of abstraction, MTP aims to be both broadly applicable and practically usable.
4. Toward UI/UX Integration
MTP is designed to represent concepts as nodes that can be manipulated interactively.
In a prototyped example, we’ve implemented a Gizmo-style interface that allows users to visually edit the structure of intentions. This opens the possibility for richer UI/UX designs that support intuitive human–AI collaboration.
5. A New Angle on Prompt Engineering
Traditional prompt crafting often relies on trial and error. MTP introduces a different approach by letting users share the structure of meaning itself.
By associating certain nodes with concrete examples—like “Power” linked to sunflowers or Beethoven—the system gradually builds contextual schemas. These can guide future interactions with LLMs, improving consistency and alignment.
6. Open Source as a Development Philosophy
MTP is openly published on GitHub. Through the participation of actual users—and sometimes AI agents themselves—a growing body of mapping experiments and feedback is being accumulated.
This open approach reflects the idea that structuring human intent is not a solitary task, but one best refined through diverse perspectives.
Being independently developed outside of commercial constraints, MTP also has the freedom to pursue exploration beyond existing paradigms.
7. Translating Across Language and Culture
MTP’s node names, originally designed in English, are also translated into Chinese and Japanese using carefully selected Kanji characters to preserve and extend their conceptual meaning.
Examples include:
- Helix → 螺
- Wither → 枯
- Fade → 衰
- Return → 還
- Abyss → 深
These characters were chosen not just for semantic accuracy, but for their poetic and symbolic resonance within East Asian cultural contexts.
The duality structure (e.g., 開 ⇄ 閉, 生 ⇄ 枯) also becomes more visually and intuitively clear when expressed through Kanji.
8. Design Stance
MTP focuses not just on what to generate, but on how to frame the underlying intentions behind generation.
As generative AI becomes more widespread, the ability to design and communicate the structure of intent is increasingly valuable. MTP aims to support this process—not as a finished system, but as a living framework open to continuous refinement.
Closing Thoughts
MTP is an ongoing experiment. Rather than providing definitive answers, it offers a flexible foundation for structuring thought, collaboration, and creativity in the age of generative AI.
Community contributions and mapping experiments are welcome.
👉 Explore the GitHub repository ↗
MTP Grid 18×18 (Node Labels)
GitHub/…/main/ASSETS.mdMapping the Prompt(MTP)──あいまいな意図を、構造にする(原文)
Mapping the Prompt(MTP)は、生成AIとの対話において人間が持つ「感覚的な意図」や「漠然とした方向性」を、扱いやすい形で構造化するためのフレームワークとして設計されています。
その背景には、認知科学や東洋思想の考え方をヒントに、人間とAIの関係性を見直す視点があります。
1. 曖昧な意図に形を与える──認知科学的アプローチ
プロンプトを設計する際、人は「もっと幻想的に」「力強くして」など、定量化しにくいニュアンスを扱う場面が多くあります。
MTPでは、それらのあいまいな感覚を20のノード(概念)にマッピングし、プロンプト作成時に再利用・調整できる構造として扱えるようにしています。
この設計は、プロトタイプ理論(分類の曖昧さを認めるアプローチ)や、アフォーダンス理論(環境が人の行為を導く)の応用として見ることもできます。
2. 東洋的な循環の視点──対になる概念の設計
MTPのノードは、「対になる概念」がペアで構成されています。
たとえば:
- Open(開)⇄ Close(閉)
- Grow(生)⇄ Wither(枯)
- Flow(流)⇄ Abyss(深)
といった構造は、陰陽思想や五行説など、東洋哲学における動的な世界観とも親和性があり、単なる二項対立ではない「行き来のある関係性」を重視しています。
3. 領域に依存しない構造
MTPはプロンプト設計に限らず、創作や思考整理のフレームワークとして幅広い分野に応用可能です。
例として:
- プレイリスト構成
- 画像生成におけるスタイル指示
- 物語のキャラクター設計
- UIやプロダクトアイデアの整理
など、「意味の構造」を必要とする場面において、一定の抽象性と具体性のバランスをもって活用できるよう設計されています。
4. UI/UXへの展開可能性
MTPは、概念をノードに落とし込み、操作可能な構造として設計されています。
実装の一例として、「意図の構造を視覚的に編集するGizmo」も試作しており、直感的な操作を通じて生成AIとの対話を支援するUI/UXへの展開も視野に入れています。
5. プロンプト設計への新しい切り口
従来のプロンプトは、試行錯誤を繰り返して調整されるものでした。
MTPでは、意味の構造そのものを共有する手段としてプロンプトを再定義しています。
たとえば、「Power」というノードに「ヒマワリ」や「ベートーヴェン」などの具体的なイメージを結びつけておくことで、文脈学習を通じた対話の精度向上が期待できます。
これは、LLMがもつスキーマ(解釈の枠組み)形成の特性を活用した設計でもあります。
6. オープンソースとしての設計思想
MTPはGitHub上で公開されており、実際のユーザーやAI自身による参加を通じて、多様なマッピングの試行やフィードバックが蓄積されています。
これは、「意図を構造化する」という作業が、一人の手に収まるものではなく、多様な視点を通じて洗練されていくべきという前提に立った設計でもあります。
また、商用的な制約に縛られない個人発のOSSとして、従来の枠組みにとらわれない自由な試行錯誤が可能である点も特徴です。
7. 言語と文化をまたぐ「翻訳」としての構造
MTPでは、英語で設計されたノードを、漢字文化圏のユーザーにも直感的に伝わるように翻訳しています。
例:
- Helix → 螺
- Wither → 枯
- Fade → 衰
- Return → 還
- Abyss → 深
これらの訳語は、単なる語彙変換ではなく、詩的・象徴的な意味合いや、文化的背景を考慮して選定されています。
また、「開⇄閉」「生⇄枯」といった対になる構造が視覚的にもわかりやすく、東アジア的な美意識とも響き合います。
8. 設計のスタンス
MTPは、「何を生成するか」ではなく、「どのような意図をもとに生成するか」に焦点を当てています。
生成AIが普及するなかで、単なる指示文ではなく、意図の構造そのものを設計・共有する手法が重要になると考えています。
MTPは、そのような時代における、思考の整理とAIとの協働を支える道具であることを目指しています。
おわりに
MTPは完成された理論ではなく、実践を通じて磨かれていくための試作的な枠組みです。
GitHub上では、実際の利用例や議論も行われており、興味のある方はぜひ参加していただければと思います。
- Category:AI & Technology, Personal ReflectionsPublished:September 1, 2025 JST
Introduction: The limits of “make it a bit friendlier”
When teams adopt generative AI at work, familiar pain points appear:
- Different members write different prompts and outputs diverge
- Requests like “a bit more formal” or “warmer tone” are interpreted inconsistently
- You want to design an AI persona, but ambiguity resists concrete adjustment
Mapping the Prompt (MTP) addresses this by sharing intent as coordinates. It does not try to remove ambiguity; it treats ambiguity as something we can operate together.
What is MTP: Treating AI “personality” as coordinates
MTP models conversation as a 20-node coordinate space (Side A / Side B). On a UI, you move points and average them to steer behavior.
Crucially, “strength” is not a precise number. Use direction and balance instead:
- Strong: make it the main axis
- Medium: support/secondary
- Subtle: leave as a nuance
Use cases (no numeric percentages)
1) Sharper persona design
Before
“Be friendly, but still expert, and reasonably formal.”
With MTP
Base: Open (strong) + Focus (medium) + Flow (subtle) Adjust: - More casual → strengthen Open; soften sentence endings - More expert → strengthen Focus; add evidence/rationale - More concise → strengthen Flow; reduce filler
Instead of adding paragraphs of instructions, you share position and proportion on the map.
2) Team alignment without rewriting walls of text
Scenario: Customer Support AI
- PM: Open (strong) + Still (subtle) + Close (subtle)
- CS: Grow (medium) + Flow (medium) + Return (subtle)
- Eng: Focus (strong) + Open (subtle) + Helix (subtle)
Place each proposal as points on the UI and compute the Gizmo (average).
Nudge around that center to converge on a shared persona.3) Fast iteration (A/B-like exploration)
Pattern A (more formal)
Make Power the axis, support with Focus, close with Close.
Pattern B (more relatable)
Make Open the axis, support with Grow and Flow.
What to observe (without metrics)
- Reading flow (friction vs. smoothness)
- Clarity of intent (less misinterpretation)
- Emotional response (reassurance, motivation)
How to decide
Not by a score, but by mutual recognition: which one felt closer to what we meant?4) Building domain templates
Education assistant
Anchor on Focus; use Open to lower entry; use Return to mark learning checkpoints.
For beginners, strengthen Open; for advanced users, strengthen Focus.Business writing
Anchor on Power + Focus; use Close to wrap.
Proposals: strengthen Power; Reports: strengthen Focus + Still.Creative partner
Anchor on Grow; add Helix + Flow to keep healthy “wobble.”
Divergence: strengthen Open; Finishing: add Close + Still.Implementation policy (minimal setup)
- Rendering: SVG / CSS / JS (lightweight)
- State: Vertex (features), Gizmo (average), Transformed Gizmo (target)
- External: loosely adapt to any LLM (no retraining required)
- Positioning: this is not a new algorithm; it’s a UI layer
Announcement: MTP is on GitHub
I’ve published MTP on GitHub for everyone to read, try, and discuss.
- Repository: https://github.com/imkohenauser/mtp ↗
- Documents: README (overview), CONCEPT (theory), ASSETS (SVG/PNG), Discussions (Q&A)
- Need compatible images? Get PNGs from ASSETS.md
FAQ (essentials)
- Is MTP about numbers or benchmarks?
No. Numbers are not strict commands—they’re metaphors to share balance and direction. - Will different models produce identical outputs?
Not the goal. MTP provides a shared interface for alignment even when model behavior differs. - What is success in MTP?
Mutual recognition: “I meant this.” — “Got it, around here.”
Closing: Operate the margin, not the digits
Ratios and labels aren’t precision controls; they are translations of feeling into coordinates.
Actual generation lives in the LLM’s margin—the creative ambiguity we can’t (and shouldn’t) pin down.
MTP’s essence is to let us operate that margin with a simple UI and a shared map.Links
- GitHub: https://github.com/imkohenauser/mtp ↗
- Website: https://imkohenauser.com/mtp/
- Q&A (Discussions): see
/discussions
in the repository
Mapping the Prompt(MTP)公開:数値に頼らないユースケースとアナウンス(原文)
はじめに:「もう少し親しみやすく」の限界
業務で生成 AI を活用する際、次のような課題が生じがちです。
- メンバーごとにプロンプトの解釈が異なり、出力がばらつく
- 「もう少しフォーマルに」「温かみを」などの指示が、人によって解釈が分かれる
- AI ペルソナを設計したいが、曖昧さを具体に落とし込めない
Mapping the Prompt(MTP) は、意図を 座標 として共有する軽量フレームワークです。曖昧さを排除するのではなく、操作可能な曖昧さとして扱える点が特徴です。
MTP とは:AI の「性格」を座標で扱う
MTP は会話を 20 ノード(Side A / Side B)で捉え、UI 上で 点を動かし平均(Gizmo)を取ることで振る舞いを調整します。
ここでの「強弱」は厳密な数値ではありません。方向とバランスで共有します。
- 強め:主軸にする
- 中:副次的に添える
- 控えめ:ニュアンスとして滲ませる
ユースケース(数値指定なし)
1) ペルソナ設計の精密化
従来
「親しみやすく、でも専門性もあって、適度にフォーマルに」
MTP の表現
基調:Open(強め) + Focus(中) + Flow(控えめ) 調整例: - もう少しカジュアルに:Open を一段強め、文末表現をやわらかく - 専門性を高める:Focus を一段強め、根拠や出典の提示を増やす - 簡潔にする:Flow を一段強め、冗語や反復を削る
長文の指示を足すのではなく、位置と比率感覚で意図を共有します。
2) チーム内の認識を揃える
シナリオ:カスタマーサポート AI
- PM:Open(強め) + Still(控えめ) + Close(控えめ)
- CS:Grow(中) + Flow(中) + Return(控えめ)
- Eng:Focus(強め) + Open(控えめ) + Helix(控えめ)
各案を UI 上に配置し、Gizmo(平均点) を算出。
その周辺で微調整し、共通ペルソナに収束させます。3) 高速な反復(A/B 的な探索)
パターン A(フォーマル寄り)
Power を軸に、Focus を添えて、Close で締める
パターン B(親和性寄り)
Open を軸に、Grow と Flow を添える
観察ポイント(定量なし)
- 読み心地(抵抗感/滑らかさ)
- 意図の伝わりやすさ(誤解の少なさ)
- 感情反応(安心感、前向きさ)
判断基準
スコアではなく 相互認識:どちらが「意図に近い」と感じられたか。4) 業界別テンプレートの作り方
教育アシスタント
Focus を主軸に、Open で入口を開き、Return で学習の節目を示す。
初学者向けは Open を強め、上級者向けは Focus を強める。ビジネス文書
Power + Focus を軸に、Close でまとめる。
提案書は Power を強め、報告書は Focus と Still を添える。クリエイティブ支援
Grow を主軸に、Helix + Flow で健全な揺らぎを保つ。
発散では Open を強め、仕上げでは Close + Still を添える。実装ポリシー(最小構成)
- レンダリング:SVG / CSS / JS(軽量)
- 状態管理:Vertex(特徴点)、Gizmo(平均)、Transformed Gizmo(目標点)
- 外部連携:各種 LLM に緩やかに適用(再学習は不要)
- 位置づけ:新アルゴリズムではなく UI レイヤー の提案
公開のご案内(GitHub)
MTP を GitHub で公開しました。
- Repository: https://github.com/imkohenauser/mtp ↗
- Documents:README(概要) / CONCEPT(理論) / ASSETS(配布用 SVG/PNG) / Discussions(Q&A)
- 互換用途の画像が必要な場合は ASSETS.md から PNG を取得できます。
FAQ(要点)
- 数値評価やベンチマークの仕組みではありません。
数字は厳密な命令ではなく、バランスと方向を共有する比喩です。 - モデル間で同一出力を目指しません。
重要なのは、挙動が違っても 共通のインターフェース で意図を合わせられることです。 - 成功の単位は「相互認識」です。
「これを意味していた」—「わかった、このあたりですね」と感じられることを重視します。
結び:数値ではなく、余白を操作する
比率やラベルは精密制御ではなく、感覚を座標へ翻訳するための記号です。
実際の生成は常に LLM の余白(ブラックボックス) に委ねられ、その曖昧さが創造性を育みます。
MTP の核心は、この余白を UI と座標 で扱えるようにすることです。リンク
- GitHub: https://github.com/imkohenauser/mtp ↗
- 公式サイト: https://imkohenauser.com/mtp/
- Q&A(Discussions): リポジトリ内
/discussions
- Category:AI & Technology, Practical TipsPublished:August 13, 2025 JST
— Automate logistics, enrich conversation.
One‑line summary: The AI doesn’t speak on behalf of your family. It creates time and prompts so you can talk—every morning.
TL;DR
- The two biggest reasons family conversation shrinks are logistical load and last‑minute scramble.
- The fix is to design time: deliver a structured Morning Card at a fixed hour (e.g., 5:00 AM) in a format that’s easy to talk from.
- Core stack: Scheduler → Fetchers → Normalizer → Composer → Notifier.
- Principles: the AI does not speak for you, does not decide, only creates conversation triggers.
- This article includes MVP steps, templates, and evaluation metrics.
Chapter 1: Background: why conversation fades
- Family information is scattered across school emails, family chats, shopping notes, weather, and inventory. When we only remember at the last minute, tension and scolding rise.
- Chat‑first AI helps the person who asks—but if no one asks, nothing happens. That’s the limit of reactive help.
- Shift to a time‑first approach: automatically issue one structured Morning Card. Preparation moves earlier, and conversation returns to a calmer space.
Chapter 2: The solution: Morning Card + Conversation Triggers
Include these standard blocks in the Morning Card (e.g., every day at 5:00 AM):
- Whole‑family schedule (who / where / when / items)
- Weather × chore suitability (laundry, bedding, outdoor drying)
- Dinner options (×3) + missing ingredients
- Message digest (deadline / action / owner)
- Conversation Triggers (a 30‑second question, a mini‑poll, and a “praise cue” draft)
Conversation Triggers don’t let the AI “speak.” They ignite family talk.
- 30‑sec question: “What’s the one thing you’re most excited about today?”
- Mini‑poll: pick dinner from 3 options → share results in the evening
- Praise cue draft: “Started revising homework proactively (child)” → makes it easy for parents to verbalize appreciation
Chapter 3: A day in the life (scenario)
05:00 Morning Card delivery
- schedule / weather × chores / dinner options / message digest / conversation triggers
07:30 Short pre‑departure check
- “All items packed?” “Today’s 30‑sec question”
17:00 Catch‑up card
- re‑list high‑priority deadlines, dinner poll results, prep hints for tomorrow morning
Night (optional)
- 10‑minute family meeting script (3 topics, 1 praise, 1 item for next week)
Tone examples (no commands; suggestions only)
• “15 minutes until departure. If helpful, I can assist with the water bottle.”
• “Now is a good window for laundry to dry quickly. Shall we start a load?”Chapter 4: Design principles (Conversation‑First)
- Don’t speak for people. No guessing or voicing feelings.
- No summaries without consent. Opt‑in only for private chats/calls.
- Don’t decide. The AI proposes; people decide.
- Short and talkable. One‑line topics + choices to spark dialogue.
- Positive bias. Avoid scolding triggers; emphasize preparation, praise, and preview.
Chapter 5: Technical architecture (5 layers)
5.1 Layering
Scheduler
- RRULE (e.g., daily 05:00 / weekly Sat 09:00) for fixed runs.
Fetchers
- Calendar / Weather / Mail (school, municipality) / Inventory via least privilege.
Normalizer
- Normalize to YAML/JSON; compute priority scores from deadline × importance × people affected.
Composer
- Template fill. Conversation Triggers generated via rules (“facts → compression → choices”), with minimal LLM assistance.
Notifier
- Per‑person routing (email, messaging app, print) + mini‑poll links.
5.2 Data contract (example)
card: date: 2025-08-13 schedules: - who: Child when: "08:15-15:30" where: School items: ["Art smock", "Indoor shoes"] weather: laundry: "◎" note: "Est. dry time ~2h; morning outdoor drying recommended" dinner: options: - "Ginger pork" - "Salmon meunière" - "Taco rice" shortages: ["Ginger", "Butter"] poll_url: "https://family.link/poll/dinner-YYYYMMDD" notices: - due: "2025-08-20" title: "Art project submission" action: "Mount on A4 board; add name" owner: "Parent" score: 0.86 conversation_triggers: question: "What’s the one thing you’re most excited about today?" praise_hint: "Started revising homework proactively (yesterday)"
5.3 Priority scoring (example)
- score = w1×deadline_urgency + w2×importance + w3×people_affected − w4×uncertainty
- Use thresholds to order display and prevent misses on critical items.
Chapter 6: Privacy & safety
- Least‑privilege scopes for APIs with time‑limited tokens.
- Audit trail across source → transform → delivery.
- Short data retention unless the family explicitly chooses to save.
- Misinformation control: when data is missing, show last known value + warning; treat critical items rules‑first.
- Children‑aware tone: no commands or shaming; encourage autonomy via praise and choices.
Chapter 7: Evaluation (KPIs)
Conversation—quantity & quality
- Morning positive utterances (“thanks,” “that helps,” etc.)
- Reduced scolding rate (count of “Hurry up!”)
- Minutes of small talk before dinner / poll participation rate
Operational efficiency
- Count of forgotten items / prep lead time / “search time” reduction
- Delivery latency / read rates / recall (missed items) / precision (false picks)
Chapter 8: Implementation guide (MVP → V1 → V2)
MVP (weekend build)
- Ship one Morning Card only (schedule / weather × chores / message digest / conversation triggers).
- Normalize the digest into deadline / action / owner.
- Keep one delivery channel (don’t multiply pathways).
V1 (next month)
- Add the 17:00 catch‑up card, dinner poll, and semi‑automated inventory checks.
V2 (extensions)
- Disaster templates (typhoon/earthquake), PTA/neighborhood templates, caregiving templates.
- Accessibility: optimize for text‑to‑speech (numbers first, short lines, bulleting).
Chapter 9: Complementing chat‑first models
- “Answer‑on‑ask” chat models and the “time‑based” Morning Card serve different roles.
- In family ops, the core value is preparation over reaction.
- The Morning Card is the map; chat is the guide. Together, the experience completes.
Chapter 10: FAQ
Q. Won’t the AI replace family conversations?
A. No. The AI only structures facts and offers prompts. Decisions and feelings stay with people.
Q. Isn’t 5:00 AM too early?
A. Adjust with RRULE to match your routine (e.g., 06:30).
Q. What data do you access?
A. Only least‑necessary, consented sources. You can review, change, or stop access at any time.
Conclusion
- The goal is to increase family conversation and strengthen bonds.
- The method is automating logistics and delivering conversation triggers in the morning.
- The AI doesn’t talk instead of you; it designs so you can talk.
This proposal uses information design to give families more time to speak—human to human.
GPT-5:家庭オペレーション・アシスタント(原文)
— 段取りは自動化、会話は豊かに。
一行要約:AIは家族の代わりに話すのではなく、話す余裕と話題のきっかけを毎朝つくります。
TL;DR
- 家庭の会話が減る主因は、段取りの負荷と直前のドタバタです。
- 解き方は時間を設計すること。決まった時刻(例:午前5:00)に、決まった観点で、会話しやすい形の「朝カード」を配信します。
- コア構成は Scheduler → Fetchers → Normalizer → Composer → Notifier の5層です。
- 原則は「AIは代弁しない/決定しない/会話のきっかけだけ作る」。
- MVP手順・テンプレ・評価指標まで本文で具体化します。
第一章:背景:なぜ会話が減るのか
- 家族の情報は、学校メール/家族チャット/買い物メモ/天気/在庫のように散在し、“直前に思い出す”ことで衝突や叱責が起こりやすくなります。
- 会話型AIの応答は優秀でも、「聞いた人だけ助かる」「忘れたら何も起きない」という反応依存の限界があります。
- そこで、時間(定時)を起点に、構造化された1枚の「朝カード」を自動で出す設計へ移行します。これにより、準備は前倒し、会話は余裕のなかで取り戻せます。
第二章:解決の要点:朝カードと「会話トリガー」
朝カード(例:毎朝 5:00)に入れる標準ブロック:
- 家族全員の予定(誰/どこ/何時/持ち物)
- 天気×家事適性(洗濯・布団・外干し可否)
- 夕食候補3案+不足食材
- 連絡要約(期限・行動・責任)
- 会話トリガー(30秒質問・ミニ投票・褒めポイントの“下書き”)
会話トリガーは、AIが“話す”のではなく、家族同士の会話を増やす導火線です。
- 30秒質問例:「今日いちばん楽しみなことを“ひとつ”教えてください。」
- ミニ投票例:夕食3案のスタンプ投票 → 夕方に結果共有
- 褒めポイント下書き例:「昨日、宿題の見直しを自分から始めた(子)」 → 親が言語化しやすい形で提示
第三章:1日の体験フロー(シナリオ)
05:00 朝カード配信
- 予定/天気×家事/夕食3案/連絡要約/会話トリガー
07:30 登校・出発前の軽い確認
- 「持ち物OK?」「今日の30秒質問」
17:00 追い上げカード
- 提出物の優先度再掲、夕食投票結果、明朝の準備ヒント
夜(任意)
- 家族10分ミーティングの台本(議題3・褒め1・来週1)
通知トーンの例(命令禁止・提案形)
・「出発まで15分です。必要であれば水筒の準備を手伝います。」
・「洗濯は今なら乾きやすいです。回しますか?」第四章:設計原則(Conversation-First)
- 代弁しない:感情の推測発話をしません。
- 同意なき要約をしない:個人チャットや通話の自動要約はオプトインに限定します。
- 決定しない:AIは提案まで。決定は人が行います。
- 短く・話せる粒度:1行トピック+選択肢で、対話が始まる形に整えます。
- ポジティブバイアス:叱責を誘発しない言い回し(準備・称賛・予告)を基本にします。
第五章:技術アーキテクチャ(5層)
5.1 レイヤ構成
Scheduler
- RRULE(例:毎日05:00/毎週土曜09:00)で定時実行します。
Fetchers
- Calendar/Weather/Mail(学校・自治体)/Inventory(在庫)などを最小権限で取得します。
Normalizer
- 取得データをYAML/JSONに統一し、期限×重要度×影響人数で優先度スコアを付与します。
Composer
- テンプレートに差し込みます。会話トリガー生成は“事実→短文化→選択肢化”をルールベースで行い、最小限のLLM補助に限定します。
Notifier
- 家族別ルーティング(メール、メッセージアプリ、印刷)+ミニ投票リンクを生成します。
5.2 データ契約(例)
card: date: 2025-08-13 schedules: - who: 子 when: "08:15-15:30" where: 学校 items: ["図工スモック", "上履き"] weather: laundry: "◎" note: "乾燥見込み2h/午前外干し推奨" dinner: options: - "豚の生姜焼き" - "鮭のムニエル" - "タコライス" shortages: ["生姜", "バター"] poll_url: "https://family.link/poll/dinner-YYYYMMDD" notices: - due: "2025-08-20" title: "図工作品提出" action: "A4台紙に貼付、記名" owner: "親" score: 0.86 conversation_triggers: question: "今日いちばん楽しみなことは?(ひとつ)" praise_hint: "宿題の見直しを自分から始めた(昨日)"
5.3 優先度スコアの考え方(例)
- score = w1×期限緊急度 + w2×重要度 + w3×影響人数 − w4×不確実性
- しきい値で表示優先順位を制御し、重要情報の見落としを防ぎます。
第六章:プライバシーと安全設計
- 最小権限スコープ(必要なAPIのみ、期間限定トークン)を徹底します。
- 監査ログ(取得元→変換→配信の可視化)を保持します。
- データ保持は短期とし、家族が明示的に保存を選ばない限り自動削除します。
- 誤情報対策:データ欠損時は前回値+警告を明示し、重要項目はルールベース優先で扱います。
- 子ども配慮:命令口調・羞恥誘発表現は禁止。称賛・選択肢で自律を促します。
第七章:評価設計(KPI)
会話の量と質
- 朝の肯定的発話数(ありがとう・助かった 等)
- 叱責発話率の低下(「早く!」の出現回数)
- 夕食前の雑談分数/夕食投票参加率
運用効率
- 忘れ物件数/準備リードタイム/“探す時間”の削減
- 配信遅延・既読率・拾い漏れ(リコール)・誤拾い(プレシジョン)
第八章:実装ガイド(MVP → V1 → V2)
MVP(週末で構築)
- 朝カード1枚に限定(予定/天気×家事/連絡要約/会話トリガー)。
- 連絡要約は「期限・行動・責任」の3列で正規化します。
- 配信先は1チャネルに固定(流路を増やしません)。
V1(翌月)
- 夕方の追い上げカード/夕食投票/在庫チェック半自動化を追加します。
V2(応用)
- 防災テンプレ(台風・地震)/PTA・町内会テンプレ/介護連絡テンプレを拡張します。
- アクセシビリティ:音声読み上げ最適化(数値先頭・短文・箇条書き)に対応します。
第九章:4o系(会話重視)との補完
- “聞けば応える”4o系と、“決まった時刻に出す”定時カードは役割が違います。
- 家庭運営の価値は反応より準備にあります。
- 定時カードが地図、会話型は道案内。両輪で体験が完成します。
第十章:よくある質問
Q. 会話がAIに置き換わりませんか?
A. 置き換えません。AIは事実の整形と会話のきっかけだけを提供し、決定・感情表明は人に委ねます。
Q. 朝5時は早すぎませんか?
A. 家庭の生活リズムに合わせてRRULEで変更可能です(例:06:30)。
Q. どのデータにアクセスしますか?
A. 明示同意した必要最小限のみです。範囲はいつでも確認・変更・停止できます。
まとめ
- 目標は、家族の会話と絆を増やすことです。
- その手段として、段取りの自動化と会話トリガーを朝に届けます。
- 「AIが話す」のではなく、「家族が話せるように設計する」。
本構想は、家庭の“情報設計”を通じて、人が人として話す時間を増やすための提案です。