相変わらずChatGPTをいじっているのだが、これは出力される文章の形式の整い具合に感心するところではあるが、内容について真実性や正確性を求めるものではなさそうだ。少なくとも、今の時点ではそれを目的にすると良い結果は得られそうにない。
多量のデータを背景とした例示を求めるのは良いだろう、また、私側に対して質問をさせる方法は多少は面白いが、質問の方向性が多岐にわたり、なかなか面白みを感じる頻度は多くない。
今感じていることは、入力に対して出力を返しているわけだが、それらがともに文章であり、文章を変形させる作用としては機能しており、広い意味でのやりとりは成立しているというところだ。
しかしながら、真実性や正確性は求めづらいと言ったように、質問として提示した内容について整理させるということについても、正確に可能だとはいいづらい。
よほど回答が限定的になるよう、具体的には厳格に一義的な文章を与えれば、それに応じた厳格な整理結果を得ることはできる。しかしそうでない場合、単純に時系列で整理させた場合も、特定の要素の同一性を見過ごすことが目についた。事実Aと事実Bが同一であるにも関わらず、表現の違いが重視された結果か、別個の事実として整理された。
これはなかなか難しい。事実ABの同一性は、文章そのものに書かれているというよりは、その書きぶりにより判断していることが少なくない。そもそも、人間だとしても判断が難しい場合がある。そのため、ChatGPTの判断が正しいこともありそうである。
強制的に同一性を認識させるのであれば、同一であると定義をするか、指示語を用いるなど、一義的な文章を与える必要がありそうだ。しかし、そこまでくると、ChatGPTの恩恵を受ける量がかなり減ってしまうことが気がかりだ。
結局は、相手が人間であろうがChatGPTであろうが、わかりやすい文章を与えれば、それだけ期待に沿った回答が得られるということだ。言語処理の詳細はわからないが、そこに違いはない。例えば、自分が作ったメモ書きの清書を他人に任せるときと同様の考え方になりそうである。
ChatGPTは、魔法のように見えるが魔法ではなく、Garbage In, Garbage Outは当然であった。
なんとなく、それっぽいことはできるのであるが、「それ」をすることはできていない。ChatGPT自体が、一種の統計的処理の結果なわけで、まさにそれっぽいことを目指して実装されているのだから、当然と言えば当然である。この「それっぽさ」がどう活かすことができるのか。
応用例などを見ているが、驚くものはまだまだ見当たらない。