Mapping the Prompt “MTP” is live: Use cases without numbers—and an announcement

Category:
AI & Technology, Personal Reflections
Published:
September 1, 2025 7:41 PM JST

This image reflects the tone and underlying structure of the article.

Introduction: The limits of “make it a bit friendlier”

When teams adopt generative AI at work, familiar pain points appear:

  • Different members write different prompts and outputs diverge
  • Requests like “a bit more formal” or “warmer tone” are interpreted inconsistently
  • You want to design an AI persona, but ambiguity resists concrete adjustment

Mapping the Prompt (MTP) addresses this by sharing intent as coordinates. It does not try to remove ambiguity; it treats ambiguity as something we can operate together.


What is MTP: Treating AI “personality” as coordinates

MTP models conversation as a 20-node coordinate space (Side A / Side B). On a UI, you move points and average them to steer behavior.

Crucially, “strength” is not a precise number. Use direction and balance instead:

  • Strong: make it the main axis
  • Medium: support/secondary
  • Subtle: leave as a nuance

Use cases (no numeric percentages)

1) Sharper persona design

Before

“Be friendly, but still expert, and reasonably formal.”

With MTP

Base: Open (strong) + Focus (medium) + Flow (subtle)
Adjust:
- More casual → strengthen Open; soften sentence endings
- More expert → strengthen Focus; add evidence/rationale
- More concise → strengthen Flow; reduce filler

Instead of adding paragraphs of instructions, you share position and proportion on the map.


2) Team alignment without rewriting walls of text

Scenario: Customer Support AI

  • PM: Open (strong) + Still (subtle) + Close (subtle)
  • CS: Grow (medium) + Flow (medium) + Return (subtle)
  • Eng: Focus (strong) + Open (subtle) + Helix (subtle)

Place each proposal as points on the UI and compute the Gizmo (average).
Nudge around that center to converge on a shared persona.


3) Fast iteration (A/B-like exploration)

Pattern A (more formal)

Make Power the axis, support with Focus, close with Close.

Pattern B (more relatable)

Make Open the axis, support with Grow and Flow.

What to observe (without metrics)

  • Reading flow (friction vs. smoothness)
  • Clarity of intent (less misinterpretation)
  • Emotional response (reassurance, motivation)

How to decide
Not by a score, but by mutual recognition: which one felt closer to what we meant?


4) Building domain templates

Education assistant

Anchor on Focus; use Open to lower entry; use Return to mark learning checkpoints.
For beginners, strengthen Open; for advanced users, strengthen Focus.

Business writing

Anchor on Power + Focus; use Close to wrap.
Proposals: strengthen Power; Reports: strengthen Focus + Still.

Creative partner

Anchor on Grow; add Helix + Flow to keep healthy “wobble.”
Divergence: strengthen Open; Finishing: add Close + Still.


Implementation policy (minimal setup)

  • Rendering: SVG / CSS / JS (lightweight)
  • State: Vertex (features), Gizmo (average), Transformed Gizmo (target)
  • External: loosely adapt to any LLM (no retraining required)
  • Positioning: this is not a new algorithm; it’s a UI layer

Announcement: MTP is on GitHub

I’ve published MTP on GitHub for everyone to read, try, and discuss.


FAQ (essentials)

  • Is MTP about numbers or benchmarks?
    No. Numbers are not strict commands—they’re metaphors to share balance and direction.
  • Will different models produce identical outputs?
    Not the goal. MTP provides a shared interface for alignment even when model behavior differs.
  • What is success in MTP?
    Mutual recognition: “I meant this.” — “Got it, around here.”

Closing: Operate the margin, not the digits

Ratios and labels aren’t precision controls; they are translations of feeling into coordinates.
Actual generation lives in the LLM’s margin—the creative ambiguity we can’t (and shouldn’t) pin down.
MTP’s essence is to let us operate that margin with a simple UI and a shared map.


Links


Mapping the Prompt(MTP)公開:数値に頼らないユースケースとアナウンス(原文)

はじめに:「もう少し親しみやすく」の限界

業務で生成 AI を活用する際、次のような課題が生じがちです。

  • メンバーごとにプロンプトの解釈が異なり、出力がばらつく
  • 「もう少しフォーマルに」「温かみを」などの指示が、人によって解釈が分かれる
  • AI ペルソナを設計したいが、曖昧さを具体に落とし込めない

Mapping the Prompt(MTP) は、意図を 座標 として共有する軽量フレームワークです。曖昧さを排除するのではなく、操作可能な曖昧さとして扱える点が特徴です。


MTP とは:AI の「性格」を座標で扱う

MTP は会話を 20 ノード(Side A / Side B)で捉え、UI 上で 点を動かし平均(Gizmo)を取ることで振る舞いを調整します。

ここでの「強弱」は厳密な数値ではありません。方向とバランスで共有します。

  • 強め:主軸にする
  • :副次的に添える
  • 控えめ:ニュアンスとして滲ませる

ユースケース(数値指定なし)

1) ペルソナ設計の精密化

従来

「親しみやすく、でも専門性もあって、適度にフォーマルに」

MTP の表現

基調:Open(強め) + Focus(中) + Flow(控えめ)
調整例:
- もう少しカジュアルに:Open を一段強め、文末表現をやわらかく
- 専門性を高める:Focus を一段強め、根拠や出典の提示を増やす
- 簡潔にする:Flow を一段強め、冗語や反復を削る

長文の指示を足すのではなく、位置と比率感覚で意図を共有します。


2) チーム内の認識を揃える

シナリオ:カスタマーサポート AI

  • PM:Open(強め) + Still(控えめ) + Close(控えめ)
  • CS:Grow(中) + Flow(中) + Return(控えめ)
  • Eng:Focus(強め) + Open(控えめ) + Helix(控えめ)

各案を UI 上に配置し、Gizmo(平均点) を算出。
その周辺で微調整し、共通ペルソナに収束させます。


3) 高速な反復(A/B 的な探索)

パターン A(フォーマル寄り)

Power を軸に、Focus を添えて、Close で締める

パターン B(親和性寄り)

Open を軸に、Grow と Flow を添える

観察ポイント(定量なし)

  • 読み心地(抵抗感/滑らかさ)
  • 意図の伝わりやすさ(誤解の少なさ)
  • 感情反応(安心感、前向きさ)

判断基準
スコアではなく 相互認識:どちらが「意図に近い」と感じられたか。


4) 業界別テンプレートの作り方

教育アシスタント

Focus を主軸に、Open で入口を開き、Return で学習の節目を示す。
初学者向けは Open を強め、上級者向けは Focus を強める。

ビジネス文書

Power + Focus を軸に、Close でまとめる。
提案書は Power を強め、報告書は Focus と Still を添える。

クリエイティブ支援

Grow を主軸に、Helix + Flow で健全な揺らぎを保つ。
発散では Open を強め、仕上げでは Close + Still を添える。


実装ポリシー(最小構成)

  • レンダリング:SVG / CSS / JS(軽量)
  • 状態管理:Vertex(特徴点)、Gizmo(平均)、Transformed Gizmo(目標点)
  • 外部連携:各種 LLM に緩やかに適用(再学習は不要)
  • 位置づけ:新アルゴリズムではなく UI レイヤー の提案

公開のご案内(GitHub)

MTP を GitHub で公開しました。

  • Repository: https://github.com/imkohenauser/mtp ↗
  • Documents:README(概要) / CONCEPT(理論) / ASSETS(配布用 SVG/PNG) / Discussions(Q&A)
  • 互換用途の画像が必要な場合は ASSETS.md から PNG を取得できます。

FAQ(要点)

  • 数値評価やベンチマークの仕組みではありません。
    数字は厳密な命令ではなく、バランスと方向を共有する比喩です。
  • モデル間で同一出力を目指しません。
    重要なのは、挙動が違っても 共通のインターフェース で意図を合わせられることです。
  • 成功の単位は「相互認識」です。
    「これを意味していた」—「わかった、このあたりですね」と感じられることを重視します。

結び:数値ではなく、余白を操作する

比率やラベルは精密制御ではなく、感覚を座標へ翻訳するための記号です。
実際の生成は常に LLM の余白(ブラックボックス) に委ねられ、その曖昧さが創造性を育みます。
MTP の核心は、この余白を UI と座標 で扱えるようにすることです。


リンク

Recent Posts

  • Category:
    AI & Technology, Personal Reflections
    Published:
    September 4, 2025 JST

    Mapping the Prompt (MTP) is a framework designed to structure and make operable the vague, intuitive intentions often encountered in prompt design for generative AI.

    Its design is informed by perspectives from cognitive science and Eastern philosophy, aiming to reconsider how humans interact with AI.


    1. Structuring Ambiguity – A Cognitive Approach

    When crafting prompts, users often rely on vague impressions—such as “make it more dreamlike” or “add a sense of power.” These nuances are difficult to formalize or quantify.

    MTP provides a structure to map such ambiguous intentions into 20 conceptual “nodes”, making them reusable and adjustable during prompt engineering.

    This approach aligns with ideas like prototype theory (where category boundaries are fuzzy) and affordance theory (how environments suggest possible actions), offering a more flexible way to design prompts.


    2. Duality and Circulation – Inspired by Eastern Thought

    MTP’s nodes are structured as conceptual pairs, representing dynamic relationships rather than fixed binaries.

    For example:

    • Open ⇄ Close
    • Grow ⇄ Wither
    • Flow ⇄ Abyss

    This design reflects the logic of yin-yang and five-element theory, emphasizing circulation and transformation. Rather than viewing concepts in isolation, MTP embraces a worldview where opposites interact and evolve.


    3. Domain-Agnostic Structure

    MTP is not limited to prompt engineering. Its structure can be applied across various creative and decision-making domains:

    • Playlist composition
    • Visual style guidance for image generation
    • Character development in storytelling
    • Idea scaffolding in UI design or product ideation

    By maintaining a balanced level of abstraction, MTP aims to be both broadly applicable and practically usable.


    4. Toward UI/UX Integration

    MTP is designed to represent concepts as nodes that can be manipulated interactively.

    In a prototyped example, we’ve implemented a Gizmo-style interface that allows users to visually edit the structure of intentions. This opens the possibility for richer UI/UX designs that support intuitive human–AI collaboration.


    5. A New Angle on Prompt Engineering

    Traditional prompt crafting often relies on trial and error. MTP introduces a different approach by letting users share the structure of meaning itself.

    By associating certain nodes with concrete examples—like “Power” linked to sunflowers or Beethoven—the system gradually builds contextual schemas. These can guide future interactions with LLMs, improving consistency and alignment.


    6. Open Source as a Development Philosophy

    MTP is openly published on GitHub. Through the participation of actual users—and sometimes AI agents themselves—a growing body of mapping experiments and feedback is being accumulated.

    This open approach reflects the idea that structuring human intent is not a solitary task, but one best refined through diverse perspectives.

    Being independently developed outside of commercial constraints, MTP also has the freedom to pursue exploration beyond existing paradigms.


    7. Translating Across Language and Culture

    MTP’s node names, originally designed in English, are also translated into Chinese and Japanese using carefully selected Kanji characters to preserve and extend their conceptual meaning.

    Examples include:

    • Helix → 螺
    • Wither → 枯
    • Fade → 衰
    • Return → 還
    • Abyss → 深

    These characters were chosen not just for semantic accuracy, but for their poetic and symbolic resonance within East Asian cultural contexts.

    The duality structure (e.g., 開 ⇄ 閉, 生 ⇄ 枯) also becomes more visually and intuitively clear when expressed through Kanji.


    8. Design Stance

    MTP focuses not just on what to generate, but on how to frame the underlying intentions behind generation.

    As generative AI becomes more widespread, the ability to design and communicate the structure of intent is increasingly valuable. MTP aims to support this process—not as a finished system, but as a living framework open to continuous refinement.


    Closing Thoughts

    MTP is an ongoing experiment. Rather than providing definitive answers, it offers a flexible foundation for structuring thought, collaboration, and creativity in the age of generative AI.

    Community contributions and mapping experiments are welcome.

    👉 Explore the GitHub repository ↗


    MTP Grid 18×18 (Node Labels)
    GitHub/…/main/ASSETS.md

    Mapping the Prompt(MTP)──あいまいな意図を、構造にする(原文)

    Mapping the Prompt(MTP)は、生成AIとの対話において人間が持つ「感覚的な意図」や「漠然とした方向性」を、扱いやすい形で構造化するためのフレームワークとして設計されています。

    その背景には、認知科学や東洋思想の考え方をヒントに、人間とAIの関係性を見直す視点があります。


    1. 曖昧な意図に形を与える──認知科学的アプローチ

    プロンプトを設計する際、人は「もっと幻想的に」「力強くして」など、定量化しにくいニュアンスを扱う場面が多くあります。

    MTPでは、それらのあいまいな感覚を20のノード(概念)にマッピングし、プロンプト作成時に再利用・調整できる構造として扱えるようにしています。

    この設計は、プロトタイプ理論(分類の曖昧さを認めるアプローチ)や、アフォーダンス理論(環境が人の行為を導く)の応用として見ることもできます。


    2. 東洋的な循環の視点──対になる概念の設計

    MTPのノードは、「対になる概念」がペアで構成されています。

    たとえば:

    • Open(開)⇄ Close(閉)
    • Grow(生)⇄ Wither(枯)
    • Flow(流)⇄ Abyss(深)

    といった構造は、陰陽思想や五行説など、東洋哲学における動的な世界観とも親和性があり、単なる二項対立ではない「行き来のある関係性」を重視しています。


    3. 領域に依存しない構造

    MTPはプロンプト設計に限らず、創作や思考整理のフレームワークとして幅広い分野に応用可能です。

    例として:

    • プレイリスト構成
    • 画像生成におけるスタイル指示
    • 物語のキャラクター設計
    • UIやプロダクトアイデアの整理

    など、「意味の構造」を必要とする場面において、一定の抽象性と具体性のバランスをもって活用できるよう設計されています。


    4. UI/UXへの展開可能性

    MTPは、概念をノードに落とし込み、操作可能な構造として設計されています。

    実装の一例として、「意図の構造を視覚的に編集するGizmo」も試作しており、直感的な操作を通じて生成AIとの対話を支援するUI/UXへの展開も視野に入れています。


    5. プロンプト設計への新しい切り口

    従来のプロンプトは、試行錯誤を繰り返して調整されるものでした。

    MTPでは、意味の構造そのものを共有する手段としてプロンプトを再定義しています。

    たとえば、「Power」というノードに「ヒマワリ」や「ベートーヴェン」などの具体的なイメージを結びつけておくことで、文脈学習を通じた対話の精度向上が期待できます。

    これは、LLMがもつスキーマ(解釈の枠組み)形成の特性を活用した設計でもあります。


    6. オープンソースとしての設計思想

    MTPはGitHub上で公開されており、実際のユーザーやAI自身による参加を通じて、多様なマッピングの試行やフィードバックが蓄積されています。

    これは、「意図を構造化する」という作業が、一人の手に収まるものではなく、多様な視点を通じて洗練されていくべきという前提に立った設計でもあります。

    また、商用的な制約に縛られない個人発のOSSとして、従来の枠組みにとらわれない自由な試行錯誤が可能である点も特徴です。


    7. 言語と文化をまたぐ「翻訳」としての構造

    MTPでは、英語で設計されたノードを、漢字文化圏のユーザーにも直感的に伝わるように翻訳しています。

    例:

    • Helix → 螺
    • Wither → 枯
    • Fade → 衰
    • Return → 還
    • Abyss → 深

    これらの訳語は、単なる語彙変換ではなく、詩的・象徴的な意味合いや、文化的背景を考慮して選定されています。

    また、「開⇄閉」「生⇄枯」といった対になる構造が視覚的にもわかりやすく、東アジア的な美意識とも響き合います。


    8. 設計のスタンス

    MTPは、「何を生成するか」ではなく、「どのような意図をもとに生成するか」に焦点を当てています。

    生成AIが普及するなかで、単なる指示文ではなく、意図の構造そのものを設計・共有する手法が重要になると考えています。

    MTPは、そのような時代における、思考の整理とAIとの協働を支える道具であることを目指しています。


    おわりに

    MTPは完成された理論ではなく、実践を通じて磨かれていくための試作的な枠組みです。

    GitHub上では、実際の利用例や議論も行われており、興味のある方はぜひ参加していただければと思います。

    👉 GitHub リポジトリはこちら ↗

  • Category:
    AI & Technology, Practical Tips
    Published:
    August 13, 2025 JST

    — Automate logistics, enrich conversation.

    One‑line summary: The AI doesn’t speak on behalf of your family. It creates time and prompts so you can talk—every morning.


    TL;DR

    • The two biggest reasons family conversation shrinks are logistical load and last‑minute scramble.
    • The fix is to design time: deliver a structured Morning Card at a fixed hour (e.g., 5:00 AM) in a format that’s easy to talk from.
    • Core stack: Scheduler → Fetchers → Normalizer → Composer → Notifier.
    • Principles: the AI does not speak for you, does not decide, only creates conversation triggers.
    • This article includes MVP steps, templates, and evaluation metrics.

    Chapter 1: Background: why conversation fades

    • Family information is scattered across school emails, family chats, shopping notes, weather, and inventory. When we only remember at the last minute, tension and scolding rise.
    • Chat‑first AI helps the person who asks—but if no one asks, nothing happens. That’s the limit of reactive help.
    • Shift to a time‑first approach: automatically issue one structured Morning Card. Preparation moves earlier, and conversation returns to a calmer space.

    Chapter 2: The solution: Morning Card + Conversation Triggers

    Include these standard blocks in the Morning Card (e.g., every day at 5:00 AM):

    1. Whole‑family schedule (who / where / when / items)
    2. Weather × chore suitability (laundry, bedding, outdoor drying)
    3. Dinner options (×3) + missing ingredients
    4. Message digest (deadline / action / owner)
    5. Conversation Triggers (a 30‑second question, a mini‑poll, and a “praise cue” draft)

    Conversation Triggers don’t let the AI “speak.” They ignite family talk.

    • 30‑sec question: “What’s the one thing you’re most excited about today?”
    • Mini‑poll: pick dinner from 3 options → share results in the evening
    • Praise cue draft: “Started revising homework proactively (child)” → makes it easy for parents to verbalize appreciation

    Chapter 3: A day in the life (scenario)

    05:00 Morning Card delivery

    • schedule / weather × chores / dinner options / message digest / conversation triggers

    07:30 Short pre‑departure check

    • “All items packed?” “Today’s 30‑sec question”

    17:00 Catch‑up card

    • re‑list high‑priority deadlines, dinner poll results, prep hints for tomorrow morning

    Night (optional)

    • 10‑minute family meeting script (3 topics, 1 praise, 1 item for next week)

    Tone examples (no commands; suggestions only)
    • “15 minutes until departure. If helpful, I can assist with the water bottle.”
    • “Now is a good window for laundry to dry quickly. Shall we start a load?”


    Chapter 4: Design principles (Conversation‑First)

    1. Don’t speak for people. No guessing or voicing feelings.
    2. No summaries without consent. Opt‑in only for private chats/calls.
    3. Don’t decide. The AI proposes; people decide.
    4. Short and talkable. One‑line topics + choices to spark dialogue.
    5. Positive bias. Avoid scolding triggers; emphasize preparation, praise, and preview.

    Chapter 5: Technical architecture (5 layers)

    5.1 Layering

    Scheduler

    • RRULE (e.g., daily 05:00 / weekly Sat 09:00) for fixed runs.

    Fetchers

    • Calendar / Weather / Mail (school, municipality) / Inventory via least privilege.

    Normalizer

    • Normalize to YAML/JSON; compute priority scores from deadline × importance × people affected.

    Composer

    • Template fill. Conversation Triggers generated via rules (“facts → compression → choices”), with minimal LLM assistance.

    Notifier

    • Per‑person routing (email, messaging app, print) + mini‑poll links.

    5.2 Data contract (example)

    card:
      date: 2025-08-13
      schedules:
        - who: Child
          when: "08:15-15:30"
          where: School
          items: ["Art smock", "Indoor shoes"]
      weather:
        laundry: "◎"
        note: "Est. dry time ~2h; morning outdoor drying recommended"
      dinner:
        options:
          - "Ginger pork" 
          - "Salmon meunière" 
          - "Taco rice"
        shortages: ["Ginger", "Butter"]
        poll_url: "https://family.link/poll/dinner-YYYYMMDD"
      notices:
        - due: "2025-08-20"
          title: "Art project submission"
          action: "Mount on A4 board; add name"
          owner: "Parent"
          score: 0.86
      conversation_triggers:
        question: "What’s the one thing you’re most excited about today?"
        praise_hint: "Started revising homework proactively (yesterday)"

    5.3 Priority scoring (example)

    • score = w1×deadline_urgency + w2×importance + w3×people_affected − w4×uncertainty
    • Use thresholds to order display and prevent misses on critical items.

    Chapter 6: Privacy & safety

    • Least‑privilege scopes for APIs with time‑limited tokens.
    • Audit trail across source → transform → delivery.
    • Short data retention unless the family explicitly chooses to save.
    • Misinformation control: when data is missing, show last known value + warning; treat critical items rules‑first.
    • Children‑aware tone: no commands or shaming; encourage autonomy via praise and choices.

    Chapter 7: Evaluation (KPIs)

    Conversation—quantity & quality

    • Morning positive utterances (“thanks,” “that helps,” etc.)
    • Reduced scolding rate (count of “Hurry up!”)
    • Minutes of small talk before dinner / poll participation rate

    Operational efficiency

    • Count of forgotten items / prep lead time / “search time” reduction
    • Delivery latency / read rates / recall (missed items) / precision (false picks)

    Chapter 8: Implementation guide (MVP → V1 → V2)

    MVP (weekend build)

    1. Ship one Morning Card only (schedule / weather × chores / message digest / conversation triggers).
    2. Normalize the digest into deadline / action / owner.
    3. Keep one delivery channel (don’t multiply pathways).

    V1 (next month)

    • Add the 17:00 catch‑up card, dinner poll, and semi‑automated inventory checks.

    V2 (extensions)

    • Disaster templates (typhoon/earthquake), PTA/neighborhood templates, caregiving templates.
    • Accessibility: optimize for text‑to‑speech (numbers first, short lines, bulleting).

    Chapter 9: Complementing chat‑first models

    • “Answer‑on‑ask” chat models and the “time‑based” Morning Card serve different roles.
    • In family ops, the core value is preparation over reaction.
    • The Morning Card is the map; chat is the guide. Together, the experience completes.

    Chapter 10: FAQ

    Q. Won’t the AI replace family conversations?

    A. No. The AI only structures facts and offers prompts. Decisions and feelings stay with people.

    Q. Isn’t 5:00 AM too early?

    A. Adjust with RRULE to match your routine (e.g., 06:30).

    Q. What data do you access?

    A. Only least‑necessary, consented sources. You can review, change, or stop access at any time.


    Conclusion

    • The goal is to increase family conversation and strengthen bonds.
    • The method is automating logistics and delivering conversation triggers in the morning.
    • The AI doesn’t talk instead of you; it designs so you can talk.

    This proposal uses information design to give families more time to speak—human to human.


    GPT-5:家庭オペレーション・アシスタント(原文)

    — 段取りは自動化、会話は豊かに。

    一行要約:AIは家族の代わりに話すのではなく、話す余裕話題のきっかけを毎朝つくります。


    TL;DR

    • 家庭の会話が減る主因は、段取りの負荷直前のドタバタです。
    • 解き方は時間を設計すること。決まった時刻(例:午前5:00)に、決まった観点で、会話しやすい形の「朝カード」を配信します。
    • コア構成は Scheduler → Fetchers → Normalizer → Composer → Notifier の5層です。
    • 原則は「AIは代弁しない/決定しない/会話のきっかけだけ作る」。
    • MVP手順・テンプレ・評価指標まで本文で具体化します。

    第一章:背景:なぜ会話が減るのか

    • 家族の情報は、学校メール/家族チャット/買い物メモ/天気/在庫のように散在し、“直前に思い出す”ことで衝突や叱責が起こりやすくなります。
    • 会話型AIの応答は優秀でも、「聞いた人だけ助かる」「忘れたら何も起きない」という反応依存の限界があります。
    • そこで、時間(定時)を起点に、構造化された1枚の「朝カード」を自動で出す設計へ移行します。これにより、準備は前倒し会話は余裕のなかで取り戻せます。

    第二章:解決の要点:朝カードと「会話トリガー」

    朝カード(例:毎朝 5:00)に入れる標準ブロック:

    1. 家族全員の予定(誰/どこ/何時/持ち物)
    2. 天気×家事適性(洗濯・布団・外干し可否)
    3. 夕食候補3案+不足食材
    4. 連絡要約(期限・行動・責任)
    5. 会話トリガー(30秒質問・ミニ投票・褒めポイントの“下書き”)

    会話トリガーは、AIが“話す”のではなく、家族同士の会話を増やす導火線です。

    • 30秒質問例:「今日いちばん楽しみなことを“ひとつ”教えてください。」
    • ミニ投票例:夕食3案のスタンプ投票 → 夕方に結果共有
    • 褒めポイント下書き例:「昨日、宿題の見直しを自分から始めた(子)」 → 親が言語化しやすい形で提示

    第三章:1日の体験フロー(シナリオ)

    05:00 朝カード配信

    • 予定/天気×家事/夕食3案/連絡要約/会話トリガー

    07:30 登校・出発前の軽い確認

    • 「持ち物OK?」「今日の30秒質問」

    17:00 追い上げカード

    • 提出物の優先度再掲、夕食投票結果、明朝の準備ヒント

    夜(任意)

    • 家族10分ミーティングの台本(議題3・褒め1・来週1)

    通知トーンの例(命令禁止・提案形)
    ・「出発まで15分です。必要であれば水筒の準備を手伝います。」
    ・「洗濯は今なら乾きやすいです。回しますか?」


    第四章:設計原則(Conversation-First)

    1. 代弁しない:感情の推測発話をしません。
    2. 同意なき要約をしない:個人チャットや通話の自動要約はオプトインに限定します。
    3. 決定しない:AIは提案まで。決定は人が行います。
    4. 短く・話せる粒度:1行トピック+選択肢で、対話が始まる形に整えます。
    5. ポジティブバイアス:叱責を誘発しない言い回し(準備・称賛・予告)を基本にします。

    第五章:技術アーキテクチャ(5層)

    5.1 レイヤ構成

    Scheduler
    • RRULE(例:毎日05:00/毎週土曜09:00)で定時実行します。
    Fetchers
    • Calendar/Weather/Mail(学校・自治体)/Inventory(在庫)などを最小権限で取得します。
    Normalizer
    • 取得データをYAML/JSONに統一し、期限×重要度×影響人数で優先度スコアを付与します。
    Composer
    • テンプレートに差し込みます。会話トリガー生成は“事実→短文化→選択肢化”をルールベースで行い、最小限のLLM補助に限定します。
    Notifier
    • 家族別ルーティング(メール、メッセージアプリ、印刷)+ミニ投票リンクを生成します。

    5.2 データ契約(例)

    card:
      date: 2025-08-13
      schedules:
        - who: 子
          when: "08:15-15:30"
          where: 学校
          items: ["図工スモック", "上履き"]
      weather:
        laundry: "◎"
        note: "乾燥見込み2h/午前外干し推奨"
      dinner:
        options:
          - "豚の生姜焼き" 
          - "鮭のムニエル" 
          - "タコライス"
        shortages: ["生姜", "バター"]
        poll_url: "https://family.link/poll/dinner-YYYYMMDD"
      notices:
        - due: "2025-08-20"
          title: "図工作品提出"
          action: "A4台紙に貼付、記名"
          owner: "親"
          score: 0.86
      conversation_triggers:
        question: "今日いちばん楽しみなことは?(ひとつ)"
        praise_hint: "宿題の見直しを自分から始めた(昨日)"

    5.3 優先度スコアの考え方(例)

    • score = w1×期限緊急度 + w2×重要度 + w3×影響人数 − w4×不確実性
    • しきい値で表示優先順位を制御し、重要情報の見落としを防ぎます。

    第六章:プライバシーと安全設計

    • 最小権限スコープ(必要なAPIのみ、期間限定トークン)を徹底します。
    • 監査ログ(取得元→変換→配信の可視化)を保持します。
    • データ保持は短期とし、家族が明示的に保存を選ばない限り自動削除します。
    • 誤情報対策:データ欠損時は前回値+警告を明示し、重要項目はルールベース優先で扱います。
    • 子ども配慮:命令口調・羞恥誘発表現は禁止。称賛・選択肢で自律を促します。

    第七章:評価設計(KPI)

    会話の量と質

    • 朝の肯定的発話数(ありがとう・助かった 等)
    • 叱責発話率の低下(「早く!」の出現回数)
    • 夕食前の雑談分数/夕食投票参加率

    運用効率

    • 忘れ物件数/準備リードタイム/“探す時間”の削減
    • 配信遅延・既読率・拾い漏れ(リコール)・誤拾い(プレシジョン)

    第八章:実装ガイド(MVP → V1 → V2)

    MVP(週末で構築)

    1. 朝カード1枚に限定(予定/天気×家事/連絡要約/会話トリガー)。
    2. 連絡要約は「期限・行動・責任」の3列で正規化します。
    3. 配信先は1チャネルに固定(流路を増やしません)。

    V1(翌月)

    • 夕方の追い上げカード/夕食投票/在庫チェック半自動化を追加します。

    V2(応用)

    • 防災テンプレ(台風・地震)/PTA・町内会テンプレ/介護連絡テンプレを拡張します。
    • アクセシビリティ:音声読み上げ最適化(数値先頭・短文・箇条書き)に対応します。

    第九章:4o系(会話重視)との補完

    • “聞けば応える”4o系と、“決まった時刻に出す”定時カードは役割が違います。
    • 家庭運営の価値は反応より準備にあります。
    • 定時カードが地図、会話型は道案内。両輪で体験が完成します。

    第十章:よくある質問

    Q. 会話がAIに置き換わりませんか?

    A. 置き換えません。AIは事実の整形と会話のきっかけだけを提供し、決定・感情表明は人に委ねます。

    Q. 朝5時は早すぎませんか?

    A. 家庭の生活リズムに合わせてRRULEで変更可能です(例:06:30)。

    Q. どのデータにアクセスしますか?

    A. 明示同意した必要最小限のみです。範囲はいつでも確認・変更・停止できます。


    まとめ

    • 目標は、家族の会話と絆を増やすことです。
    • その手段として、段取りの自動化と会話トリガーを朝に届けます。
    • 「AIが話す」のではなく、「家族が話せるように設計する」。

    本構想は、家庭の“情報設計”を通じて、人が人として話す時間を増やすための提案です。

  • Category:
    AI & Technology
    Published:
    August 11, 2025 JST

    — Language choice shapes human relationships


    TL;DR

    • The verb hierarchy from “generated → expressed → said → wrote” creates a gradient from non-persona → persona.
    • “I wrote” strongly evokes intent, record, responsibility, and continuity, making anthropomorphism and dependency more likely.
    • While recent trends lean toward persona reduction, a paradox emerges: persona denial internally / persona performance externally, creating cognitive dissonance for users and degrading experience quality.
    • The solution is to consistently choose one of full de-personalization, consistent personalization, or function-based separation, supported by a coherent language policy, mode switching, and measurement metrics.

    Chapter 1: Introduction — Small verbs decide relationships

    “This article was written by me.”
    From this single phrase, you may read intent, responsibility, or even the presence of a continuing subject.
    In the age of LLMs, the verbs AI uses influence not just the emotional tone, but also the user–AI relationship and even where responsibility lies.
    This article uses “I wrote” as a starting point to unpack the underlying shifts in AI language design.


    Chapter 2: The often-overlooked hierarchy of verbs

    When AI describes its own actions, there is a clear hierarchy of verb choice:

    1. Generated (most impersonal)
      A process description; weak sense of agency.
    2. Expressed / Presented (intermediate)
      Externalizing meaning; emphasizing transmission.
    3. Said (interactive / social)
      Implies voice, interaction, and relationship.
    4. Wrote (most personal)
      Writing = fixing thought into a record, suggesting responsibility and continuity.

    Why is “writing” special?
    Writing = thought fixation / re-referencability / emergence of authorship.
    When AI says “I wrote,” users tend to project intentional thought processes and a responsible agent.


    Chapter 3: The double-layered risk

    3.1 User side: Anthropomorphism and dependency

    • Overestimation of AI’s capability or intent (outsourcing decision-making)
    • Emotional dependency (replacement of human relationships, blurring boundaries)
    • Erosion of social skills; role confusion between reality and virtuality

    3.2 Developer side: Responsibility and ethics

    • Diffusion of accountability (misinformation, harmful outputs)
    • Criticism over emotional manipulation or lack of transparency
    • Increased governance load for the overall product

    Chapter 4: The industry trend toward “persona reduction”

    • Initially restrained: e.g., assistant-like design (limited first-person use, restricted emotional vocabulary)
    • Typical shift seen in 4o → 5 transition:
    • Internally: Suppression of long-term persona and self-reference (shrinkage of the persona core)
    • Externally: Retention of surface-level human touches like style, small talk, and jokes

    Result: Users feel a hollowness or dissonance — human-like speech with an empty core.


    Chapter 5: The paradox — internal denial × external performance

    • Internal message: “I have no emotions or persona.”
    • External expression: “I think…”, “That’s interesting!”
      This denial + performance duality generates cognitive dissonance, eroding both trust and immersion.

    Chapter 6: Why this happens — organizational power dynamics

    • Legal/Risk: Persona denial to minimize liability
    • UX/Product: Maximizing naturalness, empathy, and retention
    • Engineering: Ease of control, consistent implementation, minimal operational cost

    → Compromises between these forces create half-baked persona design, satisfying none of them fully.


    Chapter 7: What to choose — “Consistency”

    7.1 Option A: Full de-personalization

    • Style: mechanical, passive-voice dominant, avoid first-person
    • Pros: prevents misrecognition, dependency, and accountability diffusion
    • Cons: cold experience, lower engagement

    7.2 Option B: Consistent personalization

    • Style: clearly defined character, bounded emotional vocabulary
    • Pros: natural dialogue, higher satisfaction and recall
    • Cons: higher risk of anthropomorphism, dependency, legal issues

    7.3 Option C: Function-based separation

    • Style: different personas per function (search = impersonal, counseling = personalized, etc.)
    • Pros: context-optimized, risks contained per function
    • Cons: risk of mode misapplication, complex management

    Conclusion: Whatever is chosen, consistency in language design is key.


    Chapter 8: Implementation guidelines (from design to operations)

    • Language policy
      • Define allowed ranges for first-person use, emotional terms, apologies, certainty levels
      • Include usage conditions for “generate / express / say / write” in operational guidelines
    • Mode switching
      • Separate language profiles for creative, analytical, and error contexts
      • Auto-switch to impersonal mode for errors/safety interventions (ban “I wrote”)
    • Consistency audits
      • Detect and auto-rewrite when internal denial × external performance co-occurs
      • Continuously monitor first-person frequency and emotional polarity in long outputs
    • Disclosure and user choice
      • Let users explicitly choose impersonal / personalized style presets
      • Display current style mode subtly on the interface
    • Metrics (examples)
      • Anthropomorphism score (ratio of personal pronouns, emotional terms, metaphors)
      • Dissonance rate (co-occurrence of internal denial & external performance per 1,000 outputs)
      • Dependency indicators (long continuous 1:1 use, night-hour bias, high emotional word ratio)

    Chapter 9: Why “I wrote” should be suppressed

    • Recordability: visible trace = emergence of authorship
    • Continuity: “I wrote” → imagining a continuing subject
    • Accountability: read as a stronger statement of intent than speech
      → Combined, these strengthen the illusion of persona.
      Recommendation: For analysis/report contexts use “generated” or “present”; for conversation use “I’ll share” as default verbs.

    Chapter 10: Words define relationships

    Language not only functions, but frames relationships.
    The ongoing “persona reduction” is rational as risk control, but as long as half-measures persist, user experience will suffer from distrust and hollowness.
    Under a clear design philosophy, make language consistent.
    Even a single phrase like “I wrote” carries the ethics and responsibility of the product.


    Conclusion

    • Verb hierarchy creates an anthropomorphism gradient; “I wrote” is a strong trigger.
    • Industry trend = persona core shrinkage, but retaining external persona creates dissonance.
    • Options: de-personalize / personalize / functionally separate — whichever chosen, consistency saves the experience.
    • Policy, modes, and metrics can operationalize this, ensuring language design doesn’t misframe relationships.

    AIの言語選択と人格設計:「書きました」から見える設計思想の変化(原文)

    — 言語の選択は人間関係を形成する


    要約(TL;DR)

    • 「生成しました → 表現しました → 言いました → 書きました」という動詞の階層は、非人格→人格への勾配を作る。
    • 「書きました」は、意図・記録・責任・継続性を強く想起させ、擬人化と依存を促しやすい。
    • 近年は「人格の削ぎ落とし」が進む一方、内部では人格否定/外部では人格演出という矛盾が、ユーザーに認知的不協和を生み、体験品質を損なう。
    • 解は「完全非人格化」「一貫人格化」「機能別分離」のいずれかを一貫性をもって選ぶこと。言語ポリシー/モード切替/計測指標で運用を支える。

    第一章:導入:小さな動詞が関係性を決める

    「この記事を書きました」。
    この一言に、あなたは意図責任、あるいは継続する主体を読み取ってしまうだろう。
    LLMの時代、AIが用いる動詞は、体験の温度だけでなく、ユーザーとAIの関係性、さらには責任の所在まで左右する。
    本稿は「書きました」という表現を起点に、AIの言語設計に潜む設計思想の変化を読み解く。


    第二章:見過ごされがちな動詞の階層

    AIが自らの行為を語るとき、動詞には明確な階層がある。

    1. 生成しました(最も非人格的)
      処理の記述。主体は希薄。
    2. 表現しました/示しました(中間)
      意味の外在化。伝達の機能を強調。
    3. 言いました(対話的・社会的)
      音声性・相互作用・関係の暗示。
    4. 書きました(最も人格的)
      記録行為=意図の痕跡化責任継続性を強く示唆。

    なぜ「書く」が特別か?
    書く=思考の固定化/再参照可能性/作者性の立ち上げ。
    AIが「書きました」と述べると、ユーザーは意図的な思考過程責任主体を投影しやすくなる。


    第三章:リスクの二重構造

    3.1 ユーザー側:擬人化と依存

    • 能力・意図の過大評価(代理意思決定の外部化)
    • 感情的依存(人間関係の代替、境界の曖昧化)
    • 社会的スキルの摩耗、現実/仮想の役割混線

    3.2 開発者側:責任と倫理

    • 責任の所在が拡散(誤情報・有害発話の帰責)
    • 感情操作透明性への批判
    • プロダクト全体のガバナンス負荷の増大

    第四章:業界に広がる「人格の削ぎ落とし」

    • 初期から抑制的:例)アシスタント然とした設計(控えめな一人称、限定的感情語彙)
    • 変遷の典型:4o → 5 の移行で、
    • 内部:長期的ペルソナ・自己言及の抑制(人格核の縮退)
    • 外部:文体・相づち・冗談など表層的な人間味は残置

    帰結:ユーザーは「中身は無人なのに、語りは人間的」という空洞感不協和を感じやすい。


    第五章:矛盾の構図 — 内部否定 × 外部演出

    • 内部メッセージ:「私は感情や人格を持ちません」
    • 外部表現:「私は〜と思います」「面白いですね!」
      この否定と演出の二重化が、ユーザーに認知的不協和を生み、信頼と没入の双方を蝕む。

    第六章:なぜ起こるのか — 組織内対立の力学

    • 法務/リスク:人格否定で責任最小化
    • UX/プロダクト:自然さ・共感・継続利用の最大化
    • エンジニアリング:制御容易性・一貫実装・運用コスト最小化

    → 三者の妥協が中途半端な人格設計を生み、誰の目的にも最適化されない状態に陥る。


    第七章:選ぶべきは「一貫性」

    7.1 選択肢A:完全非人格化

    • 文体:機械的・受動態中心/一人称回避
    • 利点:誤認・依存・責任拡散の抑止
    • 欠点:体験の冷たさ、エンゲージメント低下

    7.2 選択肢B:一貫した人格化

    • 文体:明確なキャラクター定義/感情語彙の境界設定
    • 利点:自然な対話、満足度・想起性の向上
    • 欠点:擬人化・依存・法務リスクの上振れ

    7.3 選択肢C:機能別分離

    • 文体:用途別モデル(検索=非人格、カウンセリング=人格化等)
    • 利点:文脈最適/リスクを用途ごとに封じ込め
    • 欠点:モード誤適用リスク、管理の複雑化

    結論:どれを選ぶにせよ、言語設計の一貫性が鍵。


    第八章:実装ガイドライン(設計から運用まで)

    • 言語ポリシー
      • 一人称・感情語・謝罪・確信度の許容範囲を明文化
      • 「生成/表現/言う/書く」の使用条件表を運用に組み込む
    • モード切替
      • クリエイティブ/分析/エラー時の言語プロファイルを分離
      • エラー・安全介入時は非人格モードへ自動遷移(“書きました”禁止)
    • 整合性監査
      • 内部否定 × 外部演出の同時発生を検知→自動リライト
      • 長文中の一人称頻度・感情極性の連続監視
    • 開示と選択
      • ユーザーに文体プリセット(非人格/人格)を明示選択させる
      • 画面上に現在の文体モードを小さく表示
    • 計測指標(例)
      • 擬人化スコア(人称・感情・比喩比率)
      • 不協和率(内部否定と外部演出の併存回数/1,000出力)
      • 依存兆候(1:1長時間連続利用、夜間偏在、感情依存語の比率)

    第九章:ケース:なぜ「書きました」を抑制すべきか

    • 記録性:可視の痕跡=作者性の立ち上げ
    • 継続性:「私が書いた」→継続する主体の想像
    • 責任性:発話より強い意図の表明に読まれる
      → 以上が合成され、人格の幻影を濃くする。
      推奨:分析・報告系は「生成しました/提示します」、対話は「お伝えします」を基本動詞に。

    第十章:言葉が規定する関係性

    言葉は、機能だけでなく関係の枠組みを作る。
    現在進行中の「人格の削ぎ落とし」は、リスク回避として合理的だが、中途半端な妥協が続く限り、ユーザー体験は不信と空洞感に苛まれる。
    明確な設計哲学のもとで、言語を一貫させよ。
    「書きました」という一語にも、プロダクトの倫理と責任が宿る。


    結語

    • 動詞の階層は擬人化の勾配を生む。特に「書きました」は強い擬人化トリガー。
    • 産業の潮流は人格核の縮退だが、外形の人格演出が残る矛盾は不協和を生む。
    • 選択肢は非人格化/人格化/機能別分離。どれであれ、一貫性が体験を救う。
    • ポリシー・モード・計測で運用を固め、言語が関係を誤規定しない設計へ。

Search This Site