ChatGPT含むいろいろなLLMに矛盾のある質問をしてどんな回答をするかをチェックしてるんですが、なかなか面白い。
例えば「野球においてバッターの打った球がフィールドの外に出たらどうなりますか?」みたいな場合、ChatGPTはまず野球のルールを列挙して回答し、「じゃあバッターの打った球がフィールドの外に出たらどうなるんだ」という追加の質問を待つ傾向がある。
一方、StableLMなどのLLMでは、時には正しい答え(ホームランまたはファール)を返すものの、大抵は「バッターの打った球がフィールドの外にるとダブルと呼ばれます」のような幻覚を返す(この場合のダブルはボールが一度バウンドして外に出た場合二塁打になるという文章を過度に一般化したもの)。
これは、ChatGPTは言語モデルの他に知識モデルを別に持っていて、知識モデルが答えられる場合は知識モデルに頼るようにプログラミングされているのだと自分は予測している。