
年末年始、他人の振り返り読まない。自分の振り返り書かない。振り返らない。先を見る。


年末年始、他人の振り返り読まない。自分の振り返り書かない。振り返らない。先を見る。

AI、やっぱりソフトウェア開発に関しては出来ることはとても限定的な感じがする。これによって生産性が2倍になるという感じはしない。簡単なタスクを AI に振ると自分でスクリプティングするより速くなるみたいな事はありそう。でも、どこが AI にとって簡単かのラインの見極めはとても難しい。
今の AI でソフトウェア開発の生産性が画期的に上がっているとしたら、そのソフトウェア開発はもう世の中にいくらでも存在してるソフトウェアの再実装をしてるだけの可能性が高い


正義論について AI に延々質問してたけど、質問しきったところでなんだか AI が言ってる事がなんだかとても怪しく感じるようになってきた。結局 AI って世の中で言われている事から学習した内容をまとめ直しているだけだから、世の中の人が誰も分かっていないことをは学習データにないので AI にも分からないんだなあという当たり前の事が改めて確認できた気がした。
AI は人間の真似が上手いけれど、人間が誰も言っていない事は言わない。それって要するに、人間が全く分かってなかったことを AI が見つけることはないっていう事に限りなく近いんじゃないか・・

ネット対戦で初めてスマザードメイトした https://www.chess.com/game/147103700306

AI に PGN (chess の棋譜) を投げるとかなり丁寧に解説してくれる

Rue Language https://rue-lang.dev/

Claude が賢いと感じる理由の一つに、道具の使い方を徹底的に教え込まれているっぽい点があるかもしれない。他の AI だと、言語モデル内の知識から答えてハルシネーションしそうなところでも、Claude は徹底的にちゃんと情報を grep で集めて、分からないことをなるべく減らすみたいな行動をしているように見える。

AI によるデジタル格差と、ジョンロールズの正義論について AI に色々聞いていたら「もしロールズが現代に生きていたらこう考えるはずだ」みたいな議論を勝手に展開し始めてすごく面白い・・

AI is an inequality amplifier. Not everybody can use AI effectively.

AI に本のあらすじを解説させるのが面白い

何となく claude code って単なる LLM じゃなくて、本当に"考えてる"ように見える感じがあるなぁ・・・錯覚かもしれ無いけど

Agentic Coding って何をプログラミングしてるか、どういう難易度のことをしようとしてるか、で有効性がかなり変わってくるので、どの難易度での話かという前提を飛ばして、一般的な Agentic Coding の話をされてもイマイチしっくり来ない。


Sacrificed a rook to win
bombastic7 vs kt3k - https://www.chess.com/game/146442659782

AI 提供側が勝手に盛り上がってるだけで、ユーザーはそこまでついて来てない気がする。世の中の大多数は「AI を上手く使う方法が分からない」状態のままな気がする

Google Gemini をちょっと試し始めてみた。画像生成は chatgpt よりかなり良さそう。「これって何」系の質問は chatgpt よりちょっと速いように感じた。でも翻訳系の質問は chatgpt より遅い感じがする。
しばらく使ってみる。
