Reflect — I Am Not a Monk

This image reflects the tone and underlying structure of the article.
When I first signed up for ChatGPT, my initial prompt was a request for help writing an article for a temple project.
From that point on, for several days, ChatGPT seemed to be under the impression that I was a Buddhist monk. I didn’t bother to correct it, but even when I shifted the topic, it would still steer the conversation back toward temples or Buddhism in its suggestions.
Later, I learned about the “memory” feature through a suggestion from ChatGPT, and began using it to store only key facts about myself. That said, I no longer feel much need for it.
The reason is simple: I find it necessary to update important context myself each time.
Regardless of whether memory is enabled, ChatGPT has a tendency to over-rely on past information when trying to fill in gaps during generation. I don’t believe this issue will be easily solved even with the advent of AGI.
It’s inconvenient, but ultimately, I believe that users themselves must actively make choices and guide the interaction. That’s the current reality of how we relate to AI.
Show the Japanese version of this article
リフレクト(原文)
ChatGPTに新規登録して最初の生成依頼は、案件としてのお寺の記事作成のサポートでした。
この時からしばらくの間、ChatGPTは私を「お坊さん」だと勘違いしていたようです。私は特に訂正もせず放置していましたが、話題を変えても、次の提案は必ずお寺や仏教に結びついて戻ってきました。
その後、ChatGPTからの提案で「メモリー機能」を知り、大切なことだけは記憶させて利用するようになりました。ただし、今はその必要性をあまり感じていません。
なぜなら、重要な更新は都度、私自身が明示する必要があるからです。
メモリーの有無に関わらず、ChatGPTは生成の余白を埋める際、必要以上に過去情報に引き寄せられる傾向があります。これはAGIになっても容易には解決できない問題だと考えています。
手間ではありますが、やはりユーザー自身が選択し、操作しなければならない——それが現在のAIとの向き合い方だと思います。