ChatGPTへの真実性の期待
ChatGPTに真実を期待してはいけないことは、理解されてきたようにみえる。私も、それは期待すべきことではないと、腑に落ちてきたところだ。学習データの時的限界もそうであるが、ChatGPTが真実を判断しているわけではないという仕組みにも配慮する必要がある。
そこから思うことは、そもそも、なぜ私が真実性を期待してしまったのかということだ。振り返ってみれば、インターネットで検索するときに期待していることは、目的となるであろうWEBサイトへ辿り着くことだ。
その際に、たどり着いたWEBサイトの内容の真実性についての判断は、検索エンジンに期待してはいない。内容の真実性は、私自身が判断していた。そうであるならば、ChatGPTにも内容の真実性の判断を求めるのは過剰なことというべきだ。
どうもChatGPTの会話形式のやりとりから、真実性の期待が生まれたようにも思える。
会話形式であると、どうしても人間同士のやり取りという意識が働く。これまでに、人間以外と会話することはほとんどなかったからだ。そして、人間同士の会話では、それがやり取りであることからか、内容が真実であることは基本的な要素となっている。もちろん、嘘が混ざることもあるが、やはりそれは特別な場合に思える。嘘だらけであると、会話が成り立たないことも多いだろう。
この意識が、そのままChatGPTとの会話形式に横滑りしてしまったことが、ChatGPTへの真実性の期待だったと考えられる。そして、それを否定されるべきものとなった。
これは、会話というものに大きな影響を与えはしないだろうか。会話の内容は、基本的に信用できるものという前提を失わせはしないだろうか。
会話への真実性の期待
会話において、すべて真実であることを期待しているかと言われればそうではない。もちろん個人差もあるし、状況による差異はある。
ChatGPTとの会話においても、やりとりは一応なりたっているわけで、会話に真実性が求められるということとずれがある。真実性が求められているのは、会話そのものではなく、人間同士のやり取りにおいてなのか。
会話が長年行われてきた背景としては、情報の共有や、同族の確認など、社会学的や進化論的に評価されるものがあるだろう。そこの中で、おそらく真実性が重要な要素とされてきたことが予想される。
嘘や誤情報は、真実性が重要な要素であることを基礎として、それに対する例外的扱いとして整理できそうだ。
翻って、真実性が求められない会話の総量が増えていけば、それは人間同士の会話への影響は生じるだろう。意識されないにせよ、私の中で会話に対する評価軸がずれていくと思われる。
内容が真実かは重要でない会話。特別なもののように言ってきたが、そういう会話がされている場所もあるかもしれない。いくつか思いつくものはあるのだが、それでもやはり真実性が求められていないと言い切ることはまだ恐ろしい。やはり、真実性が全く失われてしまうと、頭がバグってしまうのではなかろうか。
これからは、それが当然になるかもしれないのだが。