Any plan is now source code for coding agents

もはやちょっと syntax を変えるだけ、みたいな技術は必要ない気がする。tailwind が発明される前に AI が今の能力になっていたら tailwind は出来ていなかった気がする。速く書けるはもはや価値ではない。
新しい syntax に意味があるとしたら、優位に人間の認知コストを減らす (書くコストは増えても良い) ような syntax には意味がありそう (syntax ではなくて、別な表現でも良いかもしれない)
既存のプログラミング言語が text に固執しているのは、人間が手で描きやすい/差分を認知しやすいと言うのがあると思う。書きやすい側面はもうあまり価値がないとしたら、認知の容易さに特化した言語が出てきても良いかもしれない

Claude Code のスキルって基本的に one or two sentences で良いんじゃないか?何十行も下手に詳細に書く方が、視点を不必要に制限してしまって、より良い解釈の可能性を潰すリスクがありそう
Claude Code は短い表現でも、十分以上に意図を汲み取って成果を出してくれるので、skill は大雑把な方向性だけ示せば良い。
逆にモデルの能力がとても低いんだったら、スキルに詳細に書くことで不適切なルートに逸れるのを無理やり強制するという意味では有効かもしれない。
優秀な人をマイクロマネジメントするとアウトプットが逆に落ちてしまう現象だったり、能力が低い人ほど細かくマネジメントしないと仕事が進まない現象に似てるかもしれない。

genspark っていう AI workspace 使ってロゴ生成してみたら、プロンプトに対して、お前のやりたいロゴはこれか、みたいな方向性の候補出しをちゃんとしてきて、デザイナーのプロセスをちゃんと模倣できている感があった。
質問に従って色々詰めていったら、最終的にかなり精密度が高そうなプロンプトが生成されて、結構希望に沿うロゴが作れた。
同じプロンプトを gemini から投げたら、全然意味わからないワードサラダ的な出鱈目画像が出てきて、同じ nano banana モデルで生成してるのに、プロセスを変えるだけで全く違う結果になることに驚いた

あと Claude Code 使うとデカい PR が出てしまうのも Claude Code の使い方の問題。デカい機能を「(デカい機能)作って」と prompt してるからデカい PR になるだけ
「(デカい機能)をタスク分解して、各タスクに作業時間の見積もりを出して、plan.md に保存して」と言えば、細かく作業が見積もられた実装計画書が出てくる。そのプランをステップ毎に実行していけば、細かく PR を出せる。

Claude Code 初手で重複の多いコードを書きがちだけど、別途「重複を探して」とか「簡潔に書けるところ探して」って注文すれば、バチっと良い感じの良い表現を出してきてくれる。
Claude Code からダサいコードが出てくるのは、Claude Code のコーディング能力に問題があるというよりは、Claude Code の能力を出し切っていないだけな気がしてきた。

coding agent はめちゃくちゃ強いけど、出力がエンジニアじゃないと見れないのが難点な気がする。coding agent を非エンジニアに対しても民主化するような何かを作ると便利なのではないか?

ちょっと SDK の使い方を調査したいような場合に、ドキュメントサイトを見に行かないで claude code に「こういうことをしたいんだけどテストスクリプト書いて」みたいに頼んだ方がだいぶ早い。
Claude で情報をとりに行く手段の初手がかなり変わった印象がある。
2025: google -> doc site -> getting started -> tutorial -> reference 2026: claude -> write client example

openclaw、結局何がそんなに良いのかやっぱりイマイチ分からないかも・・・、普段使ってる messaging アプリから各種 SaaS 操作出来るっていっても、そこまで複雑なことをモバイルからやろうと思わないしなぁ・・・
あと、複雑な prompt 書きたかったら結局 PC 開きたくなるし、モバイルから LLM 叩けてもそこまで嬉しくないかも

普通の Web Server を Deno で運用するベストプラクティスを真面目に考え始めた方が良さそう。
Deno Deploy っていう公式サービスがあるせいで/おかげで、Deno Deploy 以外に普通にホスティングする知見が全然溜まっていないような気がする

Deno Sandbox に openclaw 乗せて運用できないか考えてみたけど、再起動時に URL がランダムに変わってしまうので、無理そうだ・・・
Deno Deploy 本体に openclaw 乗せれないか考えてみたけど、FS が(確か)書けないし、書けたとしても、anycast で当たるインスタンスによって設定が変わってしまうので、無理そう。
Deno Deploy は変に「世界中で水平スケーリングするステートレスな Web Server」だけにマーケットを絞ってしまっているのが悪手な気がする。単なる linux が乗ってるだけの「普通のサーバー」が出来ない

Claude Code を10並列で回そうが100並列で回そうが、結局 prompt 与える人間のところでボトルネックになるので、全体のスループットはそんなに上がらない気がするなぁ

OSS の使い方知りたい時に、ドキュメント見に行くより、repository clone して claude に解説させた方がより適切な情報が得られる印象がある。人間はドキュメント書くのを面倒くさがりがちだし、大体の人間はドキュメントを書くのが下手。人間が手でソフトウェアドキュメント書く時代は終わりかもしれない

誰も使ってなさそうな Mastra Code っていうプロダクトがあった

情報の抜き取りに AI を使うのが一番効率的かもしれない

表現を極端に短くするプロンプトを研究中。chatgpt と sakana chat で比べてるけど、結構出力結果が違って面白い

https://github.com/EvanLi/Github-Ranking/blob/master/Top100/Top-100-stars.md
このランキングによると openclaw がすでにスター数9位、尚且つ1位から8位は全部リンク集とか学習リソースなので、ソフトウェアとしてはすでに1位になってるらしい (ソフトウェアとしての2位は react、3位 linux)

Claude Code スクラッチで何かゲームっぽいもの作るとハッカソンモードな感じのコードベースが出てくるけど、そもそも Claude Code が書いてる時点でめちゃくちゃ速いので、最初から保守性に全振りしたコードを出してくれた方が嬉しい。
とはいえ、むやみに初手からテストをガチガチに書かれたり、過度にモジュール分割されても嬉しくない気がする。多分 Claude Code は人間の認知負荷を最小限に抑えるコード出力がデフォルトであるべきな気がする。

AI はロールを与える事で特定の問題に対して性能が上がるけど、話し相手のロールを口頭で変えるという行動に人間は慣れていない(そんな事は現実世界ではあり得ない)。ロールを変えることを自然に表現するような UI を作ると role prompting をもっとみんなが使えるようになるのではないか?

しばらく同じアプリケーションを複数の agent skill で何度も作り直してみて、うまく行く組み合わせを編み出したい。
基本的なアイデアは、LLM 自体の能力は人間に出来る仕事を人間とほぼ同じクオリティでやるには十分 (少なくとも、ゴールに辿り着けるプロンプトは必ず存在はする) にあって、要はプロンプト次第で正しいゴールに辿り着けるかどうかが決まる。
例えば、素の CC にある程度でかい機能を作ってくれと頼むと、繰り返しが多いコードだったり、巨大でレビュー不可能な diff だったりが出てきて「これはクソだ」ってなりがちな訳だけど、人間がなぜそれより良いコードを書けるかというと、作業の大きさを見積もって、大きすぎるのでタスク分解する、実装し終わった後に diff を眺めて、似たような箇所が複数あったら共通 util にまとめる、みたいな作業を別途やっているからでしかない。
CC にそういう細やかなケアが出来ないのは、人間がそれをさせるためのプロンプトを書いていないからでしかなくて、そういうプロンプトをスキルとしてまとめて発動させれば、人間のコードのクオリティに近いコードを CC で作ることが出来ると思う。

もしかしたら、有名な本、例えば達人プログラマー、の各種テクニックを TLDR 化したものをスキル化して (/pragmatic-programmer とか)、そのスキルを実行するとその本のテクニックによるコード改善を提案できるようにしたら便利かもしれない。

claude に DDD 観点でレビューさせたらめちゃくちゃ良かった。汎用スキル化したい。
claude にスクラッチ状態からやりたい事だけ言うと、設計も何もない書き捨てる前提みたいなコードが出てくるけど、それは claude の能力が低いわけではなくて、正しいモードで動いてないだけで、DDD 観点で organize しろと命じればかなりのクオリティでちゃんと出来そうな気配がある。

coderabbit っていうAIレビューツールが良いらしい。そういえば、Bunも使ってたな。
claude code → coderabbit cli → claude code で対応 → coderabbit っていうループ回してクオリティを上げるテクニックをやってる記事があった

Pull request is the bottleneck now

claude code って、coding の依頼しかしちゃいけないような気になってたけど、普通に chatgpt 的に使っても良いのか、、ってことに今更気づいた

https://github.com/qwibitai/nanoclaw
openclaw clone の nanoclaw、skills over features なんていうポリシーを掲げている。例えば、telegram と通信するコードを feature として実装するのではなくて、telegram と通信する feature を作ってくれる claude skill を contribute せよ、ということらしい。
claude code は十分に賢いという前提に立てば、それで良いのかもしれない。ただし、各スキルの正しさは CI でチェックされていないので、理論上は「いつの間にか壊れていた」があっても何もおかしくない状態。

OpenRouter やっと理解。各 AI provider へのリクエストを課金まで含めてまとめて面倒みてくれる便利サービスってことか・・・
これ使えば、UI 上でモデル選択できる奴を簡単に実現できるってことね

https://x.com/yoshiko_pg/status/2033537207999549890
そうそう AI がベースラインの期待値になって、別に楽にならない。むしろ期待値が上がって各個人は大変になる。

AI の流行で「コーディングの生産性がめちゃくちゃ上がる、最高!」っていうメッセージと「AI でなんでも作れるから人がコーディングしても意味がない!」ていう矛盾したメッセージの両方が来てる感じがする

voidzero が void って言う platform 出してきた。なるほど https://www.publickey1.jp/blog/26/vitewebvoidcloudflare.html

最近の x 本当にクソコメばっかり

Claude 自身に「メンタルモデル」を持っているか、と聞いたら否定された。あくまでも、今までのテキストの集合をそのまま扱っているだけだ、と言う認識らしい。まあ、でも AI の自分自身に対する認識が正しくない事も全然あるので、分からない。

Claude の良さって一般的な LLM の良さとはまた別な気がする。こういう時はこうするみたいな、引き出しを Claude はたくさん身につけていて、その選択自体は LLM がコンテキストからやっていそうだけど、引き出し自体を用意しているのは Claude を作っているエンジニアが定義しているんじゃないだろうか・・・? (例えば、画像系の処理だったら Python を起動して Pillow を叩く、みたいなことはハードコードされていそう)
それプラス Claude は Generic Chat LLM みたいに単にそれっぽい次の回答を何となく喋るだけでなくて、今のコンテキストでは何が課題で、今どう分析されていて、みたいなコンテキストの抽象的なモデルのようなものを構築しているように見える。なので「少し前に言っていたこと」と「今新たに分かったこと」に矛盾があったりした時に、正しく「分からなくなった」みたいなリプライをしてくる事が出来る。こういうところは、ChatGPT みたいなただの汎用 AI とは明らかに異なる挙動のように見える (ChatGPT は会話が少し離れた箇所で矛盾していると、指摘できていない感じがする)

Claude が「それっぽい」diff を大量生産 -> 細かく見切れないので「おおまかに」LGTM でマージ -> 人間が手でやってたらありえない凡ミスバグ発生
ってパターンがなかなか収まらない。人間が一番レビューしやすい diff (要は認知コストの小さい diff) を出せるほどには Claude はまだ賢くない。
っていう意味で、まだ「人間がコードを書く時代は終わった」と言うには早すぎると思う。人間が時間をかけて書いた良いコードと同じものを Claude が一瞬で出してくるなら、流石にもう人間が書かない方が良い、となるかもしれないけど、人間が書く一番良いコードに Claude はまだ辿り着けてない。

あるソフトウェアを追う時に、github で repo をウォッチするより、定期的にその repo のメインブランチで claude に最近の変更まとめてって聞いた方が良さそう

SaaS の終焉って何のこっちゃって感じだったけど、今回確定申告の作業してて、ほとんどのステップが AI にデータぶん投げると解決する事に気づいて、ある種の SaaS がもう成り立たなくなってるかもというのが急に納得できた。
ある種のというのは、いろんな種類のデータを取りまとめて、何らかのレポート・インサイトにまとめますよっていうだけのよくあるパターンの SaaS の事で、成果物がデータだけあれば良くて、コミュニケーション範囲が1ユーザ・1アカウント内で閉じてるような形態の SaaS はもう成り立たなそう。
でも、逆にユーザー間のコミュニケーションがサービスの一部分だったりすると、AI で解決する見込みがとりあえず無いので、あくまで特定のパターンの SaaS が無くなるという話でしかないという気もする

今のプロジェクトが結構複雑な SQL 書いてて、データがどうなってるのか追えなくてアンチパターン踏んでるような気がしてたけど、claude に DB 探索させながら状況を見れば意外と深くまで調べられるので、それほどアンチパターンではないかもしれないという気がしてきた

claude って結構「それはさっき言った」とか「そうはならない」とかユーザーのミスに対してツッコミを入れる感じの挙動が出来ている時がある気がする。あと、仮説が外れて分からなくなった、みたいなこともちゃんと表明できる時がある。
ハルシネーションで突き進むんじゃなくて「分からない」と言って止まれるところはなかなかすごい気がする。chatgpt なんかは自分から分からないと言った場面を見た事ない (その代わり「その認識間違いだよ」と指摘すると、急に手のひら返しで謝ってきて、バカっぽさがある)

DB の深い状態の探索に claude を使うのは便利だ。人間がクエリー書きながら探索してたら何時間もかかりそうなことが、結構短時間で出来る。

Social Media, MCP に関して荒れてる。まあ、確かに流行ってない感じがする。代わりにスキルマーケットプレースが出来たり、npm でスキル配布しようとか、スキルっていう単位で AI をコンフィグしようみたいな流れが流行ってる感じがする。

こういう defer util 書けるな・・。もう、これだったら defer キーワードが欲しくなってくるけど
await using _ = defer(async () => { ... })
結局、AI がいくら大量に高速にコードを書いても、人間の認知が追いつかないとプロジェクトが育っていかないので、AI はコードを書くことよりも人間の認知を伸ばす方向に注力してほしい

claude が入れた race condition を見つけるのに人間の時間が1週間以上かかりました。マル
claude が書いたコードってたいがい量が多いので、generate した人もレビュワーも適当に流しがちで racy かどうかまでしっかりレビューするのが無理な感じある (JS のケース)

claude ほんとバカだなぁ・・・

「もっと楽をさせますよ」っていう AI は長い目で見ると伸びない気がする。「もっと辛い目に合わせますが、その代わりあなたの認知の限界が拡張されますよ」っていう AI が伸びると思う

Anthropic と米国防省が争ってるのって、軍事情報についてのガードレールを外せっていうことを国防省が要求してるけど、Anthropic が従わないという話なのかな

MCPサーバーって結局あんまり流行ってない気がするな

やっぱり、AI のアウトプットってクオリティが低いと思う。人間が絶対にやらないミスをやってくる。信用出来ない

多分、答えを持ってないけど、とりあえず違和感だけを表明するタイプのレビューってどうなんだろうなぁと思ったり・・・

人類、AI をどういうものとして受け止めるべきかでめちゃくちゃ混乱してる

AI の書くコードはアウトプット速度が速いだけで普通に低品質なので、それを普通に ship してはいけない。
AI に「人間に分からない内容・分量のコードを書かせる」ということがそもそも間違っていて、そうじゃなくて AI に認知を拡張させて「人間が分かるコードの量を増やす」ような使い方をしないといけない。

AI が沢山それっぽいコードを書いてくる => 読みきれなくて、面倒なので AI を過信して素通しする => レビュワーも「あ、これ AI だ。読むの面倒い」になる => 間違ったコードが普通に ship される。
が、普通に起きるようになってきてる。

SEQSENSE、アイリスオーヤマのグループ会社になってたのか・・・ https://www.irisohyama.co.jp/news/2026/?date=0129

この timeline、deno deploy 介さずに、直接 S3 に書きにいくようなアーキテクチャに変えたいなぁ・・・、deno deploy 介してることで無駄に更新が遅いし、毎回新しい deployment ができるので deno deploy に対してもも優しくない

bw、actor, item も編集できるようになった。tool 周りの抽象化がかなり変わってスッキリした

みんな claude code 自体に CLAUDE.md 書かせてる感じがあるけど、claude が書くドキュメントは不必要に詳細に踏み込みすぎて、人間がメンテするのに適さない感じになりがちな気がする。

Someone said:
"We accidentally deleted programming"
No, we didn't. If you feel so, then what you are programming is not creative enough.
You don't need to program trivial uninteresting software anymore. AIs do that for you. Find the goals which AIs cannot implement. You can now only focus on them.

chatgpt の UI、脱線した質問が解決したので、その枝は閉じて本筋に戻るみたいな行動をしたい時があるな・・・、会話を全部一直線じゃなくてツリー構造で表したい時がある。
今の UI だと、脱線した質問が長く続くと、本筋の回答 (後で何回も参照したい) がどこだったか分からなくなって、うまく戻れなくなる時がある。

Web 部室、読んでると前向きな気持ちになれないので退部

実数の全順序性 (x < y || x = y || x > y) って排中律が無いと言えないというのは知らなかった。閉区間上の連続関数が最大値を持つというのも排中律が無いと言えないらしい。実数の当たり前と思ってる性質が結構排中律に依存しているらしい。