
chatgpt に「この質問は学習データ的にどれくらい得意? 0〜100と理由を一行で答えて」って聞くと、回答の正確性を結構良い感じに見積もれてそう。
完全にハルシネーションしてる会話でこれを聞いたら 35 みたいな低い数値を言ってきて、ちゃんと上手く答えてるなと感じる会話だと 85 ~ 95 みたいな高い数字になる。

chatgpt に「この質問は学習データ的にどれくらい得意? 0〜100と理由を一行で答えて」って聞くと、回答の正確性を結構良い感じに見積もれてそう。
完全にハルシネーションしてる会話でこれを聞いたら 35 みたいな低い数値を言ってきて、ちゃんと上手く答えてるなと感じる会話だと 85 ~ 95 みたいな高い数字になる。

memo: position: sticky does not work in vscode custom editor webview

Machines of Loving Grace - How AI Could Transform the World for the Better

AI、JS の 1 + "2" の演算ルールの解説なんかも、spec のどこに書かれているかを参照しつつきちんと出来てすごい。

chatgpt 数学の個別の定理の歴史的背景を説明出来てすごい。
ハイネがなぜ区間のコンパクト性を証明したかったかと聞いたら、フーリエ級数の収束の議論の中で、区間で連続な関数の一様連続性を言いたかったからだという事を教えてくれた。
今の教科書/大学の授業なんかだと、最初から「コンパクト性」という後の時代になって抽象化された概念を目掛けて証明してしまうので、ハイネが証明したかった動機や視点が見えなくなっていてる気がする。

Zorn の補題ってそれまで Zorn の補題とか選択公理に言及せずに"証明"されていた定理群を証明するための道具として発見されたものだったのか・・・
大学の講義って難しい定理を時系列バラバラで主張だけ述べたり、いきなりテクニカルに証明したりして、どういうコンテキストでなんの為にあるのかをあまり説明してくれないけど、LLM は定理が出てきた歴史的経緯をいくらでも詳しく説明してくれてとても理解が捗る

ブルバキってほとんどの著作は戦後に出版してたのか・・・、もう少し古いイメージを持っていた・・・

年末年始、他人の振り返り読まない。自分の振り返り書かない。振り返らない。先を見る。

AI、やっぱりソフトウェア開発に関しては出来ることはとても限定的な感じがする。これによって生産性が2倍になるという感じはしない。簡単なタスクを AI に振ると自分でスクリプティングするより速くなるみたいな事はありそう。でも、どこが AI にとって簡単かのラインの見極めはとても難しい。
今の AI でソフトウェア開発の生産性が画期的に上がっているとしたら、そのソフトウェア開発はもう世の中にいくらでも存在してるソフトウェアの再実装をしてるだけの可能性が高い

正義論について AI に延々質問してたけど、質問しきったところでなんだか AI が言ってる事がなんだかとても怪しく感じるようになってきた。結局 AI って世の中で言われている事から学習した内容をまとめ直しているだけだから、世の中の人が誰も分かっていないことをは学習データにないので AI にも分からないんだなあという当たり前の事が改めて確認できた気がした。
AI は人間の真似が上手いけれど、人間が誰も言っていない事は言わない。それって要するに、人間が全く分かってなかったことを AI が見つけることはないっていう事に限りなく近いんじゃないか・・

ネット対戦で初めてスマザードメイトした https://www.chess.com/game/147103700306

AI に PGN (chess の棋譜) を投げるとかなり丁寧に解説してくれる

Rue Language https://rue-lang.dev/

Claude が賢いと感じる理由の一つに、道具の使い方を徹底的に教え込まれているっぽい点があるかもしれない。他の AI だと、言語モデル内の知識から答えてハルシネーションしそうなところでも、Claude は徹底的にちゃんと情報を grep で集めて、分からないことをなるべく減らすみたいな行動をしているように見える。

AI によるデジタル格差と、ジョンロールズの正義論について AI に色々聞いていたら「もしロールズが現代に生きていたらこう考えるはずだ」みたいな議論を勝手に展開し始めてすごく面白い・・

AI is an inequality amplifier. Not everybody can use AI effectively.

AI に本のあらすじを解説させるのが面白い

何となく claude code って単なる LLM じゃなくて、本当に"考えてる"ように見える感じがあるなぁ・・・錯覚かもしれ無いけど

Agentic Coding って何をプログラミングしてるか、どういう難易度のことをしようとしてるか、で有効性がかなり変わってくるので、どの難易度での話かという前提を飛ばして、一般的な Agentic Coding の話をされてもイマイチしっくり来ない。


Sacrificed a rook to win
bombastic7 vs kt3k - https://www.chess.com/game/146442659782

AI 提供側が勝手に盛り上がってるだけで、ユーザーはそこまでついて来てない気がする。世の中の大多数は「AI を上手く使う方法が分からない」状態のままな気がする

Google Gemini をちょっと試し始めてみた。画像生成は chatgpt よりかなり良さそう。「これって何」系の質問は chatgpt よりちょっと速いように感じた。でも翻訳系の質問は chatgpt より遅い感じがする。
しばらく使ってみる。