coderabbit っていうAIレビューツールが良いらしい。そういえば、Bunも使ってたな。
claude code → coderabbit cli → claude code で対応 → coderabbit っていうループ回してクオリティを上げるテクニックをやってる記事があった

Pull request is the bottleneck now

claude code って、coding の依頼しかしちゃいけないような気になってたけど、普通に chatgpt 的に使っても良いのか、、ってことに今更気づいた

https://github.com/qwibitai/nanoclaw
openclaw clone の nanoclaw、skills over features なんていうポリシーを掲げている。例えば、telegram と通信するコードを feature として実装するのではなくて、telegram と通信する feature を作ってくれる claude skill を contribute せよ、ということらしい。
claude code は十分に賢いという前提に立てば、それで良いのかもしれない。ただし、各スキルの正しさは CI でチェックされていないので、理論上は「いつの間にか壊れていた」があっても何もおかしくない状態。

OpenRouter やっと理解。各 AI provider へのリクエストを課金まで含めてまとめて面倒みてくれる便利サービスってことか・・・
これ使えば、UI 上でモデル選択できる奴を簡単に実現できるってことね

https://x.com/yoshiko_pg/status/2033537207999549890
そうそう AI がベースラインの期待値になって、別に楽にならない。むしろ期待値が上がって各個人は大変になる。

AI の流行で「コーディングの生産性がめちゃくちゃ上がる、最高!」っていうメッセージと「AI でなんでも作れるから人がコーディングしても意味がない!」ていう矛盾したメッセージの両方が来てる感じがする

voidzero が void って言う platform 出してきた。なるほど https://www.publickey1.jp/blog/26/vitewebvoidcloudflare.html

最近の x 本当にクソコメばっかり

Claude 自身に「メンタルモデル」を持っているか、と聞いたら否定された。あくまでも、今までのテキストの集合をそのまま扱っているだけだ、と言う認識らしい。まあ、でも AI の自分自身に対する認識が正しくない事も全然あるので、分からない。

Claude の良さって一般的な LLM の良さとはまた別な気がする。こういう時はこうするみたいな、引き出しを Claude はたくさん身につけていて、その選択自体は LLM がコンテキストからやっていそうだけど、引き出し自体を用意しているのは Claude を作っているエンジニアが定義しているんじゃないだろうか・・・? (例えば、画像系の処理だったら Python を起動して Pillow を叩く、みたいなことはハードコードされていそう)
それプラス Claude は Generic Chat LLM みたいに単にそれっぽい次の回答を何となく喋るだけでなくて、今のコンテキストでは何が課題で、今どう分析されていて、みたいなコンテキストの抽象的なモデルのようなものを構築しているように見える。なので「少し前に言っていたこと」と「今新たに分かったこと」に矛盾があったりした時に、正しく「分からなくなった」みたいなリプライをしてくる事が出来る。こういうところは、ChatGPT みたいなただの汎用 AI とは明らかに異なる挙動のように見える (ChatGPT は会話が少し離れた箇所で矛盾していると、指摘できていない感じがする)

Claude が「それっぽい」diff を大量生産 -> 細かく見切れないので「おおまかに」LGTM でマージ -> 人間が手でやってたらありえない凡ミスバグ発生
ってパターンがなかなか収まらない。人間が一番レビューしやすい diff (要は認知コストの小さい diff) を出せるほどには Claude はまだ賢くない。
っていう意味で、まだ「人間がコードを書く時代は終わった」と言うには早すぎると思う。人間が時間をかけて書いた良いコードと同じものを Claude が一瞬で出してくるなら、流石にもう人間が書かない方が良い、となるかもしれないけど、人間が書く一番良いコードに Claude はまだ辿り着けてない。

あるソフトウェアを追う時に、github で repo をウォッチするより、定期的にその repo のメインブランチで claude に最近の変更まとめてって聞いた方が良さそう

SaaS の終焉って何のこっちゃって感じだったけど、今回確定申告の作業してて、ほとんどのステップが AI にデータぶん投げると解決する事に気づいて、ある種の SaaS がもう成り立たなくなってるかもというのが急に納得できた。
ある種のというのは、いろんな種類のデータを取りまとめて、何らかのレポート・インサイトにまとめますよっていうだけのよくあるパターンの SaaS の事で、成果物がデータだけあれば良くて、コミュニケーション範囲が1ユーザ・1アカウント内で閉じてるような形態の SaaS はもう成り立たなそう。
でも、逆にユーザー間のコミュニケーションがサービスの一部分だったりすると、AI で解決する見込みがとりあえず無いので、あくまで特定のパターンの SaaS が無くなるという話でしかないという気もする

今のプロジェクトが結構複雑な SQL 書いてて、データがどうなってるのか追えなくてアンチパターン踏んでるような気がしてたけど、claude に DB 探索させながら状況を見れば意外と深くまで調べられるので、それほどアンチパターンではないかもしれないという気がしてきた

claude って結構「それはさっき言った」とか「そうはならない」とかユーザーのミスに対してツッコミを入れる感じの挙動が出来ている時がある気がする。あと、仮説が外れて分からなくなった、みたいなこともちゃんと表明できる時がある。
ハルシネーションで突き進むんじゃなくて「分からない」と言って止まれるところはなかなかすごい気がする。chatgpt なんかは自分から分からないと言った場面を見た事ない (その代わり「その認識間違いだよ」と指摘すると、急に手のひら返しで謝ってきて、バカっぽさがある)

DB の深い状態の探索に claude を使うのは便利だ。人間がクエリー書きながら探索してたら何時間もかかりそうなことが、結構短時間で出来る。

Social Media, MCP に関して荒れてる。まあ、確かに流行ってない感じがする。代わりにスキルマーケットプレースが出来たり、npm でスキル配布しようとか、スキルっていう単位で AI をコンフィグしようみたいな流れが流行ってる感じがする。

こういう defer util 書けるな・・。もう、これだったら defer キーワードが欲しくなってくるけど
await using _ = defer(async () => { ... })
結局、AI がいくら大量に高速にコードを書いても、人間の認知が追いつかないとプロジェクトが育っていかないので、AI はコードを書くことよりも人間の認知を伸ばす方向に注力してほしい