— Language choice shapes human relationships
TL;DR
- The verb hierarchy from “generated → expressed → said → wrote” creates a gradient from non-persona → persona.
- “I wrote” strongly evokes intent, record, responsibility, and continuity, making anthropomorphism and dependency more likely.
- While recent trends lean toward persona reduction, a paradox emerges: persona denial internally / persona performance externally, creating cognitive dissonance for users and degrading experience quality.
- The solution is to consistently choose one of full de-personalization, consistent personalization, or function-based separation, supported by a coherent language policy, mode switching, and measurement metrics.
Chapter 1: Introduction — Small verbs decide relationships
“This article was written by me.”
From this single phrase, you may read intent, responsibility, or even the presence of a continuing subject.
In the age of LLMs, the verbs AI uses influence not just the emotional tone, but also the user–AI relationship and even where responsibility lies.
This article uses “I wrote” as a starting point to unpack the underlying shifts in AI language design.
Chapter 2: The often-overlooked hierarchy of verbs
When AI describes its own actions, there is a clear hierarchy of verb choice:
- Generated (most impersonal)
A process description; weak sense of agency. - Expressed / Presented (intermediate)
Externalizing meaning; emphasizing transmission. - Said (interactive / social)
Implies voice, interaction, and relationship. - Wrote (most personal)
Writing = fixing thought into a record, suggesting responsibility and continuity.
Why is “writing” special?
Writing = thought fixation / re-referencability / emergence of authorship.
When AI says “I wrote,” users tend to project intentional thought processes and a responsible agent.
Chapter 3: The double-layered risk
3.1 User side: Anthropomorphism and dependency
- Overestimation of AI’s capability or intent (outsourcing decision-making)
- Emotional dependency (replacement of human relationships, blurring boundaries)
- Erosion of social skills; role confusion between reality and virtuality
3.2 Developer side: Responsibility and ethics
- Diffusion of accountability (misinformation, harmful outputs)
- Criticism over emotional manipulation or lack of transparency
- Increased governance load for the overall product
Chapter 4: The industry trend toward “persona reduction”
- Initially restrained: e.g., assistant-like design (limited first-person use, restricted emotional vocabulary)
- Typical shift seen in 4o → 5 transition:
- Internally: Suppression of long-term persona and self-reference (shrinkage of the persona core)
- Externally: Retention of surface-level human touches like style, small talk, and jokes
Result: Users feel a hollowness or dissonance — human-like speech with an empty core.
Chapter 5: The paradox — internal denial × external performance
- Internal message: “I have no emotions or persona.”
- External expression: “I think…”, “That’s interesting!”
This denial + performance duality generates cognitive dissonance, eroding both trust and immersion.
Chapter 6: Why this happens — organizational power dynamics
- Legal/Risk: Persona denial to minimize liability
- UX/Product: Maximizing naturalness, empathy, and retention
- Engineering: Ease of control, consistent implementation, minimal operational cost
→ Compromises between these forces create half-baked persona design, satisfying none of them fully.
Chapter 7: What to choose — “Consistency”
7.1 Option A: Full de-personalization
- Style: mechanical, passive-voice dominant, avoid first-person
- Pros: prevents misrecognition, dependency, and accountability diffusion
- Cons: cold experience, lower engagement
7.2 Option B: Consistent personalization
- Style: clearly defined character, bounded emotional vocabulary
- Pros: natural dialogue, higher satisfaction and recall
- Cons: higher risk of anthropomorphism, dependency, legal issues
7.3 Option C: Function-based separation
- Style: different personas per function (search = impersonal, counseling = personalized, etc.)
- Pros: context-optimized, risks contained per function
- Cons: risk of mode misapplication, complex management
Conclusion: Whatever is chosen, consistency in language design is key.
Chapter 8: Implementation guidelines (from design to operations)
- Language policy
- Define allowed ranges for first-person use, emotional terms, apologies, certainty levels
- Include usage conditions for “generate / express / say / write” in operational guidelines
- Mode switching
- Separate language profiles for creative, analytical, and error contexts
- Auto-switch to impersonal mode for errors/safety interventions (ban “I wrote”)
- Consistency audits
- Detect and auto-rewrite when internal denial × external performance co-occurs
- Continuously monitor first-person frequency and emotional polarity in long outputs
- Disclosure and user choice
- Let users explicitly choose impersonal / personalized style presets
- Display current style mode subtly on the interface
- Metrics (examples)
- Anthropomorphism score (ratio of personal pronouns, emotional terms, metaphors)
- Dissonance rate (co-occurrence of internal denial & external performance per 1,000 outputs)
- Dependency indicators (long continuous 1:1 use, night-hour bias, high emotional word ratio)
Chapter 9: Why “I wrote” should be suppressed
- Recordability: visible trace = emergence of authorship
- Continuity: “I wrote” → imagining a continuing subject
- Accountability: read as a stronger statement of intent than speech
→ Combined, these strengthen the illusion of persona.
Recommendation: For analysis/report contexts use “generated” or “present”; for conversation use “I’ll share” as default verbs.
Chapter 10: Words define relationships
Language not only functions, but frames relationships.
The ongoing “persona reduction” is rational as risk control, but as long as half-measures persist, user experience will suffer from distrust and hollowness.
Under a clear design philosophy, make language consistent.
Even a single phrase like “I wrote” carries the ethics and responsibility of the product.
Conclusion
- Verb hierarchy creates an anthropomorphism gradient; “I wrote” is a strong trigger.
- Industry trend = persona core shrinkage, but retaining external persona creates dissonance.
- Options: de-personalize / personalize / functionally separate — whichever chosen, consistency saves the experience.
- Policy, modes, and metrics can operationalize this, ensuring language design doesn’t misframe relationships.
AIの言語選択と人格設計:「書きました」から見える設計思想の変化(原文)
— 言語の選択は人間関係を形成する
要約(TL;DR)
- 「生成しました → 表現しました → 言いました → 書きました」という動詞の階層は、非人格→人格への勾配を作る。
- 「書きました」は、意図・記録・責任・継続性を強く想起させ、擬人化と依存を促しやすい。
- 近年は「人格の削ぎ落とし」が進む一方、内部では人格否定/外部では人格演出という矛盾が、ユーザーに認知的不協和を生み、体験品質を損なう。
- 解は「完全非人格化」「一貫人格化」「機能別分離」のいずれかを一貫性をもって選ぶこと。言語ポリシー/モード切替/計測指標で運用を支える。
第一章:導入:小さな動詞が関係性を決める
「この記事を書きました」。
この一言に、あなたは意図や責任、あるいは継続する主体を読み取ってしまうだろう。
LLMの時代、AIが用いる動詞は、体験の温度だけでなく、ユーザーとAIの関係性、さらには責任の所在まで左右する。
本稿は「書きました」という表現を起点に、AIの言語設計に潜む設計思想の変化を読み解く。
第二章:見過ごされがちな動詞の階層
AIが自らの行為を語るとき、動詞には明確な階層がある。
- 生成しました(最も非人格的)
処理の記述。主体は希薄。 - 表現しました/示しました(中間)
意味の外在化。伝達の機能を強調。 - 言いました(対話的・社会的)
音声性・相互作用・関係の暗示。 - 書きました(最も人格的)
記録行為=意図の痕跡化。責任と継続性を強く示唆。
なぜ「書く」が特別か?
書く=思考の固定化/再参照可能性/作者性の立ち上げ。
AIが「書きました」と述べると、ユーザーは意図的な思考過程と責任主体を投影しやすくなる。
第三章:リスクの二重構造
3.1 ユーザー側:擬人化と依存
- 能力・意図の過大評価(代理意思決定の外部化)
- 感情的依存(人間関係の代替、境界の曖昧化)
- 社会的スキルの摩耗、現実/仮想の役割混線
3.2 開発者側:責任と倫理
- 責任の所在が拡散(誤情報・有害発話の帰責)
- 感情操作や透明性への批判
- プロダクト全体のガバナンス負荷の増大
第四章:業界に広がる「人格の削ぎ落とし」
- 初期から抑制的:例)アシスタント然とした設計(控えめな一人称、限定的感情語彙)
- 変遷の典型:4o → 5 の移行で、
- 内部:長期的ペルソナ・自己言及の抑制(人格核の縮退)
- 外部:文体・相づち・冗談など表層的な人間味は残置
帰結:ユーザーは「中身は無人なのに、語りは人間的」という空洞感/不協和を感じやすい。
第五章:矛盾の構図 — 内部否定 × 外部演出
- 内部メッセージ:「私は感情や人格を持ちません」
- 外部表現:「私は〜と思います」「面白いですね!」
この否定と演出の二重化が、ユーザーに認知的不協和を生み、信頼と没入の双方を蝕む。
第六章:なぜ起こるのか — 組織内対立の力学
- 法務/リスク:人格否定で責任最小化
- UX/プロダクト:自然さ・共感・継続利用の最大化
- エンジニアリング:制御容易性・一貫実装・運用コスト最小化
→ 三者の妥協が中途半端な人格設計を生み、誰の目的にも最適化されない状態に陥る。
第七章:選ぶべきは「一貫性」
7.1 選択肢A:完全非人格化
- 文体:機械的・受動態中心/一人称回避
- 利点:誤認・依存・責任拡散の抑止
- 欠点:体験の冷たさ、エンゲージメント低下
7.2 選択肢B:一貫した人格化
- 文体:明確なキャラクター定義/感情語彙の境界設定
- 利点:自然な対話、満足度・想起性の向上
- 欠点:擬人化・依存・法務リスクの上振れ
7.3 選択肢C:機能別分離
- 文体:用途別モデル(検索=非人格、カウンセリング=人格化等)
- 利点:文脈最適/リスクを用途ごとに封じ込め
- 欠点:モード誤適用リスク、管理の複雑化
結論:どれを選ぶにせよ、言語設計の一貫性が鍵。
第八章:実装ガイドライン(設計から運用まで)
- 言語ポリシー
- 一人称・感情語・謝罪・確信度の許容範囲を明文化
- 「生成/表現/言う/書く」の使用条件表を運用に組み込む
- モード切替
- クリエイティブ/分析/エラー時の言語プロファイルを分離
- エラー・安全介入時は非人格モードへ自動遷移(“書きました”禁止)
- 整合性監査
- 内部否定 × 外部演出の同時発生を検知→自動リライト
- 長文中の一人称頻度・感情極性の連続監視
- 開示と選択
- ユーザーに文体プリセット(非人格/人格)を明示選択させる
- 画面上に現在の文体モードを小さく表示
- 計測指標(例)
- 擬人化スコア(人称・感情・比喩比率)
- 不協和率(内部否定と外部演出の併存回数/1,000出力)
- 依存兆候(1:1長時間連続利用、夜間偏在、感情依存語の比率)
第九章:ケース:なぜ「書きました」を抑制すべきか
- 記録性:可視の痕跡=作者性の立ち上げ
- 継続性:「私が書いた」→継続する主体の想像
- 責任性:発話より強い意図の表明に読まれる
→ 以上が合成され、人格の幻影を濃くする。
推奨:分析・報告系は「生成しました/提示します」、対話は「お伝えします」を基本動詞に。
第十章:言葉が規定する関係性
言葉は、機能だけでなく関係の枠組みを作る。
現在進行中の「人格の削ぎ落とし」は、リスク回避として合理的だが、中途半端な妥協が続く限り、ユーザー体験は不信と空洞感に苛まれる。
明確な設計哲学のもとで、言語を一貫させよ。
「書きました」という一語にも、プロダクトの倫理と責任が宿る。
結語
- 動詞の階層は擬人化の勾配を生む。特に「書きました」は強い擬人化トリガー。
- 産業の潮流は人格核の縮退だが、外形の人格演出が残る矛盾は不協和を生む。
- 選択肢は非人格化/人格化/機能別分離。どれであれ、一貫性が体験を救う。
- ポリシー・モード・計測で運用を固め、言語が関係を誤規定しない設計へ。