Yoshiya@kt3k8h

SaaS の終焉って何のこっちゃって感じだったけど、今回確定申告の作業してて、ほとんどのステップが AI にデータぶん投げると解決する事に気づいて、ある種の SaaS がもう成り立たなくなってるかもというのが急に納得できた。

ある種のというのは、いろんな種類のデータを取りまとめて、何らかのレポート・インサイトにまとめますよっていうだけのよくあるパターンの SaaS の事で、成果物がデータだけあれば良くて、コミュニケーション範囲が1ユーザ・1アカウント内で閉じてるような形態の SaaS はもう成り立たなそう。

でも、逆にユーザー間のコミュニケーションがサービスの一部分だったりすると、AI で解決する見込みがとりあえず無いので、あくまで特定のパターンの SaaS が無くなるという話でしかないという気もする


Yoshiya@kt3k8h

今のプロジェクトが結構複雑な SQL 書いてて、データがどうなってるのか追えなくてアンチパターン踏んでるような気がしてたけど、claude に DB 探索させながら状況を見れば意外と深くまで調べられるので、それほどアンチパターンではないかもしれないという気がしてきた


Yoshiya@kt3k13h

claude って結構「それはさっき言った」とか「そうはならない」とかユーザーのミスに対してツッコミを入れる感じの挙動が出来ている時がある気がする。あと、仮説が外れて分からなくなった、みたいなこともちゃんと表明できる時がある。

ハルシネーションで突き進むんじゃなくて「分からない」と言って止まれるところはなかなかすごい気がする。chatgpt なんかは自分から分からないと言った場面を見た事ない (その代わり「その認識間違いだよ」と指摘すると、急に手のひら返しで謝ってきて、バカっぽさがある)


Yoshiya@kt3k18h

DB の深い状態の探索に claude を使うのは便利だ。人間がクエリー書きながら探索してたら何時間もかかりそうなことが、結構短時間で出来る。


Yoshiya@kt3k20h

Social Media, MCP に関して荒れてる。まあ、確かに流行ってない感じがする。代わりにスキルマーケットプレースが出来たり、npm でスキル配布しようとか、スキルっていう単位で AI をコンフィグしようみたいな流れが流行ってる感じがする。


Yoshiya@kt3kMar 3, 2026

こういう defer util 書けるな・・。もう、これだったら defer キーワードが欲しくなってくるけど

await using _ = defer(async () => { ... })

Yoshiya@kt3kMar 3, 2026

結局、AI がいくら大量に高速にコードを書いても、人間の認知が追いつかないとプロジェクトが育っていかないので、AI はコードを書くことよりも人間の認知を伸ばす方向に注力してほしい



Yoshiya@kt3kFeb 25, 2026

claude が入れた race condition を見つけるのに人間の時間が1週間以上かかりました。マル

claude が書いたコードってたいがい量が多いので、generate した人もレビュワーも適当に流しがちで racy かどうかまでしっかりレビューするのが無理な感じある (JS のケース)



Yoshiya@kt3kFeb 25, 2026

「もっと楽をさせますよ」っていう AI は長い目で見ると伸びない気がする。「もっと辛い目に合わせますが、その代わりあなたの認知の限界が拡張されますよ」っていう AI が伸びると思う


Yoshiya@kt3kFeb 25, 2026

Anthropic と米国防省が争ってるのって、軍事情報についてのガードレールを外せっていうことを国防省が要求してるけど、Anthropic が従わないという話なのかな


Yoshiya@kt3kFeb 25, 2026

MCPサーバーって結局あんまり流行ってない気がするな


Yoshiya@kt3kFeb 24, 2026

やっぱり、AI のアウトプットってクオリティが低いと思う。人間が絶対にやらないミスをやってくる。信用出来ない


Yoshiya@kt3kFeb 23, 2026

多分、答えを持ってないけど、とりあえず違和感だけを表明するタイプのレビューってどうなんだろうなぁと思ったり・・・


Yoshiya@kt3kFeb 19, 2026

人類、AI をどういうものとして受け止めるべきかでめちゃくちゃ混乱してる


Yoshiya@kt3kFeb 19, 2026

AI の書くコードはアウトプット速度が速いだけで普通に低品質なので、それを普通に ship してはいけない。

AI に「人間に分からない内容・分量のコードを書かせる」ということがそもそも間違っていて、そうじゃなくて AI に認知を拡張させて「人間が分かるコードの量を増やす」ような使い方をしないといけない。


Yoshiya@kt3kFeb 19, 2026

AI が沢山それっぽいコードを書いてくる => 読みきれなくて、面倒なので AI を過信して素通しする => レビュワーも「あ、これ AI だ。読むの面倒い」になる => 間違ったコードが普通に ship される。

が、普通に起きるようになってきてる。



Yoshiya@kt3kFeb 12, 2026

この timeline、deno deploy 介さずに、直接 S3 に書きにいくようなアーキテクチャに変えたいなぁ・・・、deno deploy 介してることで無駄に更新が遅いし、毎回新しい deployment ができるので deno deploy に対してもも優しくない


Yoshiya@kt3kFeb 12, 2026

bw、actor, item も編集できるようになった。tool 周りの抽象化がかなり変わってスッキリした


Yoshiya@kt3kFeb 6, 2026

みんな claude code 自体に CLAUDE.md 書かせてる感じがあるけど、claude が書くドキュメントは不必要に詳細に踏み込みすぎて、人間がメンテするのに適さない感じになりがちな気がする。


Yoshiya@kt3kFeb 6, 2026

Someone said:

"We accidentally deleted programming"

No, we didn't. If you feel so, then what you are programming is not creative enough.

You don't need to program trivial uninteresting software anymore. AIs do that for you. Find the goals which AIs cannot implement. You can now only focus on them.


Yoshiya@kt3kFeb 6, 2026

chatgpt の UI、脱線した質問が解決したので、その枝は閉じて本筋に戻るみたいな行動をしたい時があるな・・・、会話を全部一直線じゃなくてツリー構造で表したい時がある。

今の UI だと、脱線した質問が長く続くと、本筋の回答 (後で何回も参照したい) がどこだったか分からなくなって、うまく戻れなくなる時がある。


Yoshiya@kt3kFeb 3, 2026

Web 部室、読んでると前向きな気持ちになれないので退部


Yoshiya@kt3kFeb 3, 2026

実数の全順序性 (x < y || x = y || x > y) って排中律が無いと言えないというのは知らなかった。閉区間上の連続関数が最大値を持つというのも排中律が無いと言えないらしい。実数の当たり前と思ってる性質が結構排中律に依存しているらしい。



Yoshiya@kt3kJan 29, 2026

git の長い名前のオプションて前方一致で探してユニークになれば、それを使うという挙動なのか・・・、知らなかった https://git-scm.com/docs/api-parse-options.html

結構一般的にされている解釈で、c とか python の標準にも入ってる挙動らしい・・・




Yoshiya@kt3kJan 28, 2026

❌ AI がコードを書いてくれるので、コードを理解する必要はない ✅ AI が書くコードを、AI を使って速く理解する



Yoshiya@kt3kJan 27, 2026

やりたい事がはっきり言語化できるレベルで分かってる時の claude code の強さはかなりすごいけど、原因が何か分からないバグ修正みたいな場合は急に使い物にならなくなるんだよなぁ・・・


Yoshiya@kt3kJan 26, 2026

claude に「今やった作業を SKILL.md」化してって頼んだら、異常に詳細な作業手順書が出てきて、全面的に書き直した。

claude ってめちゃくちゃ粗い指示でもかなり正しい事ができるので、正しく作業できる範囲でもっとも粗い指示書を書きたい (指示書のレビュー・メンテコストを minimize したいので) わけなんだけど、その辺の意図は汲んでくれないらしい。


Yoshiya@kt3kJan 23, 2026

chatgpt に「この質問は学習データ的にどれくらい得意? 0〜100と理由を一行で答えて」って聞くと、回答の正確性を結構良い感じに見積もれてそう。

完全にハルシネーションしてる会話でこれを聞いたら 35 みたいな低い数値を言ってきて、ちゃんと上手く答えてるなと感じる会話だと 85 ~ 95 みたいな高い数字になる。


Yoshiya@kt3kJan 22, 2026

memo: position: sticky does not work in vscode custom editor webview



Yoshiya@kt3kJan 21, 2026

AI、JS の 1 + "2" の演算ルールの解説なんかも、spec のどこに書かれているかを参照しつつきちんと出来てすごい。


Yoshiya@kt3kJan 16, 2026

chatgpt 数学の個別の定理の歴史的背景を説明出来てすごい。

ハイネがなぜ区間のコンパクト性を証明したかったかと聞いたら、フーリエ級数の収束の議論の中で、区間で連続な関数の一様連続性を言いたかったからだという事を教えてくれた。

今の教科書/大学の授業なんかだと、最初から「コンパクト性」という後の時代になって抽象化された概念を目掛けて証明してしまうので、ハイネが証明したかった動機や視点が見えなくなっていてる気がする。


Yoshiya@kt3kJan 14, 2026

Zorn の補題ってそれまで Zorn の補題とか選択公理に言及せずに"証明"されていた定理群を証明するための道具として発見されたものだったのか・・・

大学の講義って難しい定理を時系列バラバラで主張だけ述べたり、いきなりテクニカルに証明したりして、どういうコンテキストでなんの為にあるのかをあまり説明してくれないけど、LLM は定理が出てきた歴史的経緯をいくらでも詳しく説明してくれてとても理解が捗る


Yoshiya@kt3kJan 9, 2026

ブルバキってほとんどの著作は戦後に出版してたのか・・・、もう少し古いイメージを持っていた・・・


Yoshiya@kt3kJan 7, 2026

年末年始、他人の振り返り読まない。自分の振り返り書かない。振り返らない。先を見る。


Yoshiya@kt3kJan 6, 2026

AI、やっぱりソフトウェア開発に関しては出来ることはとても限定的な感じがする。これによって生産性が2倍になるという感じはしない。簡単なタスクを AI に振ると自分でスクリプティングするより速くなるみたいな事はありそう。でも、どこが AI にとって簡単かのラインの見極めはとても難しい。

今の AI でソフトウェア開発の生産性が画期的に上がっているとしたら、そのソフトウェア開発はもう世の中にいくらでも存在してるソフトウェアの再実装をしてるだけの可能性が高い