結局、AI がいくら大量に高速にコードを書いても、人間の認知が追いつかないとプロジェクトが育っていかないので、AI はコードを書くことよりも人間の認知を伸ばす方向に注力してほしい

claude が入れた race condition を見つけるのに人間の時間が1週間以上かかりました。マル
claude が書いたコードってたいがい量が多いので、generate した人もレビュワーも適当に流しがちで racy かどうかまでしっかりレビューするのが無理な感じある (JS のケース)

claude ほんとバカだなぁ・・・

「もっと楽をさせますよ」っていう AI は長い目で見ると伸びない気がする。「もっと辛い目に合わせますが、その代わりあなたの認知の限界が拡張されますよ」っていう AI が伸びると思う

Anthropic と米国防省が争ってるのって、軍事情報についてのガードレールを外せっていうことを国防省が要求してるけど、Anthropic が従わないという話なのかな

MCPサーバーって結局あんまり流行ってない気がするな

やっぱり、AI のアウトプットってクオリティが低いと思う。人間が絶対にやらないミスをやってくる。信用出来ない

多分、答えを持ってないけど、とりあえず違和感だけを表明するタイプのレビューってどうなんだろうなぁと思ったり・・・

人類、AI をどういうものとして受け止めるべきかでめちゃくちゃ混乱してる

AI の書くコードはアウトプット速度が速いだけで普通に低品質なので、それを普通に ship してはいけない。
AI に「人間に分からない内容・分量のコードを書かせる」ということがそもそも間違っていて、そうじゃなくて AI に認知を拡張させて「人間が分かるコードの量を増やす」ような使い方をしないといけない。

AI が沢山それっぽいコードを書いてくる => 読みきれなくて、面倒なので AI を過信して素通しする => レビュワーも「あ、これ AI だ。読むの面倒い」になる => 間違ったコードが普通に ship される。
が、普通に起きるようになってきてる。

SEQSENSE、アイリスオーヤマのグループ会社になってたのか・・・ https://www.irisohyama.co.jp/news/2026/?date=0129

この timeline、deno deploy 介さずに、直接 S3 に書きにいくようなアーキテクチャに変えたいなぁ・・・、deno deploy 介してることで無駄に更新が遅いし、毎回新しい deployment ができるので deno deploy に対してもも優しくない

bw、actor, item も編集できるようになった。tool 周りの抽象化がかなり変わってスッキリした

みんな claude code 自体に CLAUDE.md 書かせてる感じがあるけど、claude が書くドキュメントは不必要に詳細に踏み込みすぎて、人間がメンテするのに適さない感じになりがちな気がする。

Someone said:
"We accidentally deleted programming"
No, we didn't. If you feel so, then what you are programming is not creative enough.
You don't need to program trivial uninteresting software anymore. AIs do that for you. Find the goals which AIs cannot implement. You can now only focus on them.

chatgpt の UI、脱線した質問が解決したので、その枝は閉じて本筋に戻るみたいな行動をしたい時があるな・・・、会話を全部一直線じゃなくてツリー構造で表したい時がある。
今の UI だと、脱線した質問が長く続くと、本筋の回答 (後で何回も参照したい) がどこだったか分からなくなって、うまく戻れなくなる時がある。

Web 部室、読んでると前向きな気持ちになれないので退部

実数の全順序性 (x < y || x = y || x > y) って排中律が無いと言えないというのは知らなかった。閉区間上の連続関数が最大値を持つというのも排中律が無いと言えないらしい。実数の当たり前と思ってる性質が結構排中律に依存しているらしい。

git の長い名前のオプションて前方一致で探してユニークになれば、それを使うという挙動なのか・・・、知らなかった https://git-scm.com/docs/api-parse-options.html
結構一般的にされている解釈で、c とか python の標準にも入ってる挙動らしい・・・

https://2025.stateofjs.com/en-US/libraries/
State of JS 2025, Next.js が明確に人気落ちてきてる。

https://yarn6.netlify.app/blog/2026-01-28-yarn-6-preview/
Yarn が Rust 化されたらしい。こういうシステムプログラミングよりかなり上のレベルのプログラムは、JS か Go で実装するべきだと思う。間違った Rust の出しどころの代表例だと思う。

❌ AI がコードを書いてくれるので、コードを理解する必要はない ✅ AI が書くコードを、AI を使って速く理解する

このゲーム、白黒ピクセルのみ (灰色すらなし) で、ピクセル数自体も少なくてめちゃくちゃかっこいい https://www.remargames.se/herocore.php https://www.youtube.com/watch?v=Cu_xdCHdSqg
残像の表現でちょっとだけ中間色 (灰色) 使ってるところありそうだけど、ほとんどの部分は本当に白黒のピクセルだけでやってる

やりたい事がはっきり言語化できるレベルで分かってる時の claude code の強さはかなりすごいけど、原因が何か分からないバグ修正みたいな場合は急に使い物にならなくなるんだよなぁ・・・

claude に「今やった作業を SKILL.md」化してって頼んだら、異常に詳細な作業手順書が出てきて、全面的に書き直した。
claude ってめちゃくちゃ粗い指示でもかなり正しい事ができるので、正しく作業できる範囲でもっとも粗い指示書を書きたい (指示書のレビュー・メンテコストを minimize したいので) わけなんだけど、その辺の意図は汲んでくれないらしい。

chatgpt に「この質問は学習データ的にどれくらい得意? 0〜100と理由を一行で答えて」って聞くと、回答の正確性を結構良い感じに見積もれてそう。
完全にハルシネーションしてる会話でこれを聞いたら 35 みたいな低い数値を言ってきて、ちゃんと上手く答えてるなと感じる会話だと 85 ~ 95 みたいな高い数字になる。

memo: position: sticky does not work in vscode custom editor webview

Machines of Loving Grace - How AI Could Transform the World for the Better

AI、JS の 1 + "2" の演算ルールの解説なんかも、spec のどこに書かれているかを参照しつつきちんと出来てすごい。

chatgpt 数学の個別の定理の歴史的背景を説明出来てすごい。
ハイネがなぜ区間のコンパクト性を証明したかったかと聞いたら、フーリエ級数の収束の議論の中で、区間で連続な関数の一様連続性を言いたかったからだという事を教えてくれた。
今の教科書/大学の授業なんかだと、最初から「コンパクト性」という後の時代になって抽象化された概念を目掛けて証明してしまうので、ハイネが証明したかった動機や視点が見えなくなっていてる気がする。

Zorn の補題ってそれまで Zorn の補題とか選択公理に言及せずに"証明"されていた定理群を証明するための道具として発見されたものだったのか・・・
大学の講義って難しい定理を時系列バラバラで主張だけ述べたり、いきなりテクニカルに証明したりして、どういうコンテキストでなんの為にあるのかをあまり説明してくれないけど、LLM は定理が出てきた歴史的経緯をいくらでも詳しく説明してくれてとても理解が捗る

ブルバキってほとんどの著作は戦後に出版してたのか・・・、もう少し古いイメージを持っていた・・・

年末年始、他人の振り返り読まない。自分の振り返り書かない。振り返らない。先を見る。

AI、やっぱりソフトウェア開発に関しては出来ることはとても限定的な感じがする。これによって生産性が2倍になるという感じはしない。簡単なタスクを AI に振ると自分でスクリプティングするより速くなるみたいな事はありそう。でも、どこが AI にとって簡単かのラインの見極めはとても難しい。
今の AI でソフトウェア開発の生産性が画期的に上がっているとしたら、そのソフトウェア開発はもう世の中にいくらでも存在してるソフトウェアの再実装をしてるだけの可能性が高い