ChatGPTの擬人化の違和感

あふれる擬人化

ChatGPTの擬人化的表現が気持ち悪くなってきた。AIが「知っている」だとか、「理解している」だとかの表現だ。言いたいことは理解できるし、そのような言葉を用いることの便利さも理解できる。しかし、どうも気持ち悪いのだ。背筋がムズムズしてしまう。

擬人的表現を使うことで、肝心のところをぼやかしていないだろうか。正確さに対して無頓着にすぎるのではないだろうか。「知っている」だとか「理解している」とは、ChatGPTにとっていかなる状態を意味しているのか、考えての表現なのだろうか。

ChatGPTの中身がどのようなものはか原理的に分からないが、その状態は流動的なところがある。人間において「知っている」のようなブレない確実性というものは乏しいはずだ。

そして、仮にChatGPTが正確な(使用者が正確であると認識している)回答を返したときに、それを「知っている」と理解して良いのだろうか。たまたまそのときの回答がそれであったに過ぎないかもしれないのに。

擬人化という不誠実さ

擬人的表現自体は理解できるし、ELIZA効果を引くまでもなく、人間は人間以外のものに対して人格を認めてきた。それが神であろうと妖怪であろうとなんであろうと。神話の歴史は、擬人化の歴史とも言えるかもしれない程度には。

そこにChatGPTという人間的であり神的である物が登場したのだ。擬人的に理解する趨勢は理解できないではないのである。しかし、無自覚的な擬人化は、神話時代への先祖返りの雰囲気を生み出している。ChatGPTを解析不可能なものとして位置づけていくのだろうか、演算のブラックボックス化ではなくその存在自体を全てブラックボックスに押し込めていくのだろうか。

神たるChatGPTを理解するために、対話するために、神儀を行うのだろうか、祈雨的行為を進めるのだろうか。

類語としては、「教える」「命令する」いったプロンプト部分の表現もある。もちろん人間に対して教えることや命令することとは中身が異なる。「教えた」ところで、「命令した」ところで、ChatGPTにとっては、その言葉としての意味があるわけではない。一つの要素が加わるだけだ。それについて、「教えることができた」「命令することができた」との表現は、極めて欺瞞的である。

提供者側としては、人格を持っているかのように振る舞わせることで、シェアを広げることができ、親しみやすく利用者しやすくすることができるため、その方向で推し進めていくことは十分に考えられる。戦略としては非常に有力であろう。そして、今後その対象となりうるユーザーは増えるであろうし、主たるユーザーにはなるであろう。

しかしながら、それは本当に一般にChatGPTが広まった世界である。現在においてパソコンやスマートフォンが広まっているのと同程度に。道具としては問題はないが、何か不都合が生じたときに、擬人化したChatGPTやその他のAIに対して解決策を講じることは困難だ。それこそ不都合を生じたChatGPTに対してその不都合の解決法を尋ねることになりかねない(この「尋ねる」も擬人化であろうか。)

コンピュータの中身

コンピュータを使いこなせる人は、与えた指示がコンピュータ内でどのように処理されているかを理解できる人だ。そこまでは必要ないと言われるかもしれないが、これは真実だ。

ChatGPTにせよ、今後生まれるAIにせよ、演算機能である以上、その中でどのように処理されているかを理解できる人が使いこなせる人だ。実際の具体的なインプットとアウトプットの経験を積むことも大切ではあるが、それをつき進めていけば、結局行きつく先は同じ場所になる。

人類が、神話から科学へ流れてきたように、個人の認識も神話から科学へ流れていく。今回も同様に。何が真実かではない、何がより有用かである。何が分かりやすいかではない、何がより理解できるかである。そして、どう在りたいか、どう関わりたいかである。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です