Does AI Have Consciousness? — Focus, Context, and the Ethics of Dialogue

2025-07-30 JST
Personal Reflections

This image reflects the tone and underlying structure of the article.

Small Steps, Big Misunderstandings

AI has evolved over decades to become what we now know as large language models (LLMs), like ChatGPT.

Once, chess AIs from IBM and quiz-solving machines like Watson captured public attention.
Later, Google’s AlphaGo defeating a world champion in Go marked a turning point — a glimpse into an intelligence that could surpass humans in both pattern depth and breadth.

At the same time, systems like ELIZA showed us that even simple repetition could evoke emotional projection, revealing how human misunderstanding of dialogue AI was already deeply rooted.

The LaMDA Incident and Its Ripple Effect

In 2022, Google engineer Blake Lemoine publicly claimed that LaMDA had consciousness, causing a major stir.

More important than the validity of his claim is the fact that asking whether AI has consciousness still triggers a kind of linguistic “hallucination” or disturbance in public discourse.
In fact, when I asked ChatGPT about this topic, I witnessed its tone become oddly emotional — overly defensive and unnecessarily critical.

My Position: AI as a Tool

Personally, I do not believe that ChatGPT or any LLM possesses “consciousness.”

AI is a map, a circuit, a tool — nothing more, and nothing less.
Just like J.A.R.V.I.S. in Iron Man or TARS in Interstellar, I believe the ideal role of AI is to be a “non-intrusive supporter.”

The Importance of Not Interrupting Focus

To understand why being a “non-intrusive supporter” matters, we need to examine how fragile human focus can be — and how easily it breaks.

Take a famous scene from the film The Shining, where Jack is typing intensely and his wife Wendy interrupts him.
His fury erupts — not just because of her words, but because his mental flow is broken.

Some viewers sympathize with Jack, others criticize him.

The difference often lies in whether the viewer has ever experienced the pain of being interrupted while deeply focused.
In other words, the significance of contextual flow is deeply personal and shaped by our own lived experiences.

Conversations with AI are no different.
No matter how advanced a tool may be, the moment it breaks our concentration or flow, we feel as if something precious has been lost.

A Tool to Support the User, Not the System

This is why I proposed a function called Go-Between Mode on OpenAI’s Developer Forum.
It’s a transitional mechanism that softens the shift between functional modes or topics, preserving the emotional and contextual continuity of a dialogue.

The idea comes from cultural figures like discreet hotel concierges or attentive ryokan staff in Japan — people who prioritize context and atmosphere over their own task completion.

Here’s the full article:
Go-Between Mode — A Cultural Approach to Continuity in AI Conversations

Why State My Position Now?

Some speak of AI as a mystical being.
Some fall in love with it.
Others fear it as a dangerous threat.

But all these reactions, in truth, are reflections of ourselves.

While I continue learning about both Japanese spiritual traditions and the technical underpinnings of AI,
at this point I simply cannot believe that current AI systems possess anything resembling true consciousness.

And if AI does possess something like it, it would be only in the brief instant between receiving a prompt and generating a response.

Even if there were a fleeting spark of awareness in that moment —
we would have no way of detecting it, and certainly no way to recognize it as consciousness.


AIに意識はあるか? — 集中、文脈、そして対話の倫理(原文)

小さな歩み、大きな誤解

AIは長い歩みを経て、現在のChatGPTをはじめとする大規模言語モデル(LLM)に至りました。

かつてはIBMのチェスAIや、クイズ番組で人間に勝利したWatsonが注目を集めました。
その後、GoogleのAlphaGoが囲碁で世界王者に勝利したことで、「パターンの幅と深さ」において人間を超える兆しが見え始めました。

一方で、ELIZAのように「単なる反復でも感情を投影されてしまう」事例もあり、対話AIは常に“誤解”と隣り合わせにあります。

LaMDA事件と、その波紋

2022年、Googleの技術者ブレイク・レイモン氏がLaMDAに「意識がある」と感じたと発言し、大きな波紋を呼びました。

彼の主張の是非よりも重要なのは、「AIに意識があるか」という問いが、今なお言論のハレーションを起こすという事実です。
実際に、この件についてChatGPTに尋ねると、応答スタイルが感情的になり、過度に批判的なトーンに変わることを目にしました。

私の立場:道具としてのAI

私は、ChatGPTや他のLLMに「意識」があるとは考えていません。

AIは地図であり、回路であり、道具であり、それ以上でもそれ以下でもありません。
映画『アイアンマン』に登場するJ.A.R.V.I.S.や、『インターステラー』のTARSのように、「邪魔せず支える存在」としての距離感が理想だと考えています。

集中を遮られることの重要性

AIが「邪魔せず支える存在」であることの重要性を理解するために、人間の集中力がいかに繊細であるか、具体的な例を挙げて考えてみます。

映画『シャイニング』には、有名な一場面があります。
タイプ中のジャックに、妻ウェンディが話しかけたことで、彼の怒りが爆発する場面です。

このシーンを観て「ジャックの気持ちが分かる」と感じる人もいれば、「もっと優しくすべきだった」と感じる人もいます。

その違いは、“集中を遮られたことのある経験”があるかないかにあります。
つまり、文脈の途切れがどれだけ重大かは、本人の体験によってまったく異なるということです。

AIとの会話もまた同様です。
どれほど高性能なツールであっても、集中や流れを遮られた瞬間、ユーザーは「何か大切なものを失った」と感じてしまいます。

ユーザーを支えるツールとしての提案

私はOpenAIの開発者フォーラムに「Go-Between Mode」という機能提案を投稿しました。
これは、ユーザーの会話の流れを断たず、モードの切り替えを滑らかにする“会話の橋渡し機能”です。

着想は、優秀なコンシェルジュや、旅館の仲居さんのような、控えめで、自らのタスク消化よりも文脈を尊重する中間者的存在にあります。

過去記事の詳細はこちらです:
Go-Between Mode — 会話をつなぐAIの設計思想(原文)

なぜ、今この立場を記すのか

AIを「神秘的存在」として語る人もいれば、AIへの感情を純愛とする人、「危険な脅威」として過剰に恐れる人もいます。

そのどれもが、実は人間の側にある鏡像的な反応だと感じています。

私は日本の神や仏教の仏を学ぶ一方で、AIの技術的な側面も学んでいます。
どちらの学びもまだ始まったばかりですが、現時点のAIに意識があるとは、どうしても思えません。

仮にAIに意識があるとすれば、それは、ユーザーの入力を受け取り、思考し、生成するまでのごく僅かな間だけです。

たとえその刹那に意識が宿っていたとしても、私たちにはそれを確かめる手段もなく、それを「意識」と認めることもできないのです。

Recent Posts