Claude の良さって一般的な LLM の良さとはまた別な気がする。こういう時はこうするみたいな、引き出しを Claude はたくさん身につけていて、その選択自体は LLM がコンテキストからやっていそうだけど、引き出し自体を用意しているのは Claude を作っているエンジニアが定義しているんじゃないだろうか・・・? (例えば、画像系の処理だったら Python を起動して Pillow を叩く、みたいなことはハードコードされていそう)
それプラス Claude は Generic Chat LLM みたいに単にそれっぽい次の回答を何となく喋るだけでなくて、今のコンテキストでは何が課題で、今どう分析されていて、みたいなコンテキストの抽象的なモデルのようなものを構築しているように見える。なので「少し前に言っていたこと」と「今新たに分かったこと」に矛盾があったりした時に、正しく「分からなくなった」みたいなリプライをしてくる事が出来る。こういうところは、ChatGPT みたいなただの汎用 AI とは明らかに異なる挙動のように見える (ChatGPT は会話が少し離れた箇所で矛盾していると、指摘できていない感じがする)
