ChatGPTの暗黙の方向づけ

明示されていない指示

ChatGPTの面白さ、楽しみ方が私の中でかなり固まってきた。そして、先ほど気を付けなければならないと感じたことは、ChatGPTは事業者が提供するサービスであるということだ。これは避けることができないことだ。

そして、そうであるからこそ、ChatGPTの回答には一定の方向性がある。言い換えれば、避けるべき回答が想定されている。

少し前に提供されていたAIにおいて、人種差別的発言をするようになったりしてサービスが撤回されたことがあったが、ChatGPTには、そのあたりへの配慮がある。具体的にどのようなものか確認はしていないし、公表されているか確認はしていないがこれは間違いないと考えている。

特定の方向性としてもうひとつ気を付けたいことが、ChatGPTの回答には真実性に重みが置かれていることだ。具体的にどの程度、どのようにということは分からずじまいではあるが、これも間違いないと考えている。

ChatGPTが、正しい回答をしようとすること、誤った回答を避けようとすることは、一般的には歓迎される風潮があるように思う。いい加減な回答をすることが減っただとか、回答できないとの回答が減っただとかが、良いこととして語られている。

しかしながら、これは利用者の意図しない可能性のある恣意的方向性である。

例えば、ChatGPTの回答が真実であるかどうかについては、そのLLMとしては原則的なものではないはずだ。それがチューニングされて提供されている。サービスとして正誤はないが、むしろそれは正しいというべきだが、利用者にとって常人正しいとは限らない。

そして、翻って考えれば、真実性だけが方向づけられているとはとても思えない。先の差別的発言を避けることについても、それはどこかにしわ寄せが生じていると考えられる。思いもしない重みづけや、副作用は想定しておくべきだろう。

そういったことへ無自覚であるままChatGPTを使いたくはない。繰り返すが、サービス提供時の選択としては、それは十分ありえることだし、求められていることでもある。しかし、その結果として、ChatGPTはニュートラルなモデルではありえないし、その指示が見えない以上、ニュートラスになることもまたあり得ない。

「私は正確で事実に基づいた回答を提供することに特化しています。」

簡単な例として、ChatGPTが「申し訳ありませんが、私は正確で事実に基づいた回答を提供することに特化しています。」との回答を出してきた。それに対して、同じプロンプトに「事実でなくて良い」を加えたところ、平然と回答を返してきた。

このやり取りをしたときに感じた気持ちの悪さよ。

例えばそれが真実性という基本的は求められているであろう方向づけであろうとも、そういうものとして存在していることがわかり、そう考えると他の方向づけも当然あると考えられるわけだ。

私にとってChatGPTは便利なツールという位置づけであったが、この気持ちの悪さを感じてからは、どうも余計なものが乗っかっているとの思いが排除できなくなってしまった。

差別的発言を避けなければならないことは理解できるし、特にアメリカなどではそのあたり厳しいであろうことも予想がつく。仕方ない、当然であるともいえるのであるが、もしここが平然とスルーされてしまうのであれば、それはとても恐ろしいことであるし、そんな形を望みたくはない。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です