Yoshiya@kt3k7h

みんな claude code 自体に CLAUDE.md 書かせてる感じがあるけど、claude が書くドキュメントは不必要に詳細に踏み込みすぎて、人間がメンテするのに適さない感じになりがちな気がする。


Yoshiya@kt3k19h

Someone said:

"We accidentally deleted programming"

No, we didn't. If you feel so, then what you are programming is not creative enough.

You don't need to program trivial uninteresting software anymore. AIs do that for you. Find the goals which AIs cannot implement. You can now only focus on them.


Yoshiya@kt3k19h

chatgpt の UI、脱線した質問が解決したので、その枝は閉じて本筋に戻るみたいな行動をしたい時があるな・・・、会話を全部一直線じゃなくてツリー構造で表したい時がある。

今の UI だと、脱線した質問が長く続くと、本筋の回答 (後で何回も参照したい) がどこだったか分からなくなって、うまく戻れなくなる時がある。


Yoshiya@kt3kFeb 3, 2026

Web 部室、読んでると前向きな気持ちになれないので退部


Yoshiya@kt3kFeb 3, 2026

実数の全順序性 (x < y || x = y || x > y) って排中律が無いと言えないというのは知らなかった。閉区間上の連続関数が最大値を持つというのも排中律が無いと言えないらしい。実数の当たり前と思ってる性質が結構排中律に依存しているらしい。



Yoshiya@kt3kJan 29, 2026

git の長い名前のオプションて前方一致で探してユニークになれば、それを使うという挙動なのか・・・、知らなかった https://git-scm.com/docs/api-parse-options.html

結構一般的にされている解釈で、c とか python の標準にも入ってる挙動らしい・・・




Yoshiya@kt3kJan 28, 2026

❌ AI がコードを書いてくれるので、コードを理解する必要はない ✅ AI が書くコードを、AI を使って速く理解する



Yoshiya@kt3kJan 27, 2026

やりたい事がはっきり言語化できるレベルで分かってる時の claude code の強さはかなりすごいけど、原因が何か分からないバグ修正みたいな場合は急に使い物にならなくなるんだよなぁ・・・


Yoshiya@kt3kJan 26, 2026

claude に「今やった作業を SKILL.md」化してって頼んだら、異常に詳細な作業手順書が出てきて、全面的に書き直した。

claude ってめちゃくちゃ粗い指示でもかなり正しい事ができるので、正しく作業できる範囲でもっとも粗い指示書を書きたい (指示書のレビュー・メンテコストを minimize したいので) わけなんだけど、その辺の意図は汲んでくれないらしい。


Yoshiya@kt3kJan 23, 2026

chatgpt に「この質問は学習データ的にどれくらい得意? 0〜100と理由を一行で答えて」って聞くと、回答の正確性を結構良い感じに見積もれてそう。

完全にハルシネーションしてる会話でこれを聞いたら 35 みたいな低い数値を言ってきて、ちゃんと上手く答えてるなと感じる会話だと 85 ~ 95 みたいな高い数字になる。


Yoshiya@kt3kJan 22, 2026

memo: position: sticky does not work in vscode custom editor webview



Yoshiya@kt3kJan 21, 2026

AI、JS の 1 + "2" の演算ルールの解説なんかも、spec のどこに書かれているかを参照しつつきちんと出来てすごい。


Yoshiya@kt3kJan 16, 2026

chatgpt 数学の個別の定理の歴史的背景を説明出来てすごい。

ハイネがなぜ区間のコンパクト性を証明したかったかと聞いたら、フーリエ級数の収束の議論の中で、区間で連続な関数の一様連続性を言いたかったからだという事を教えてくれた。

今の教科書/大学の授業なんかだと、最初から「コンパクト性」という後の時代になって抽象化された概念を目掛けて証明してしまうので、ハイネが証明したかった動機や視点が見えなくなっていてる気がする。


Yoshiya@kt3kJan 14, 2026

Zorn の補題ってそれまで Zorn の補題とか選択公理に言及せずに"証明"されていた定理群を証明するための道具として発見されたものだったのか・・・

大学の講義って難しい定理を時系列バラバラで主張だけ述べたり、いきなりテクニカルに証明したりして、どういうコンテキストでなんの為にあるのかをあまり説明してくれないけど、LLM は定理が出てきた歴史的経緯をいくらでも詳しく説明してくれてとても理解が捗る


Yoshiya@kt3kJan 9, 2026

ブルバキってほとんどの著作は戦後に出版してたのか・・・、もう少し古いイメージを持っていた・・・


Yoshiya@kt3kJan 7, 2026

年末年始、他人の振り返り読まない。自分の振り返り書かない。振り返らない。先を見る。


Yoshiya@kt3kJan 6, 2026

AI、やっぱりソフトウェア開発に関しては出来ることはとても限定的な感じがする。これによって生産性が2倍になるという感じはしない。簡単なタスクを AI に振ると自分でスクリプティングするより速くなるみたいな事はありそう。でも、どこが AI にとって簡単かのラインの見極めはとても難しい。

今の AI でソフトウェア開発の生産性が画期的に上がっているとしたら、そのソフトウェア開発はもう世の中にいくらでも存在してるソフトウェアの再実装をしてるだけの可能性が高い



Yoshiya@kt3kDec 24, 2025

正義論について AI に延々質問してたけど、質問しきったところでなんだか AI が言ってる事がなんだかとても怪しく感じるようになってきた。結局 AI って世の中で言われている事から学習した内容をまとめ直しているだけだから、世の中の人が誰も分かっていないことをは学習データにないので AI にも分からないんだなあという当たり前の事が改めて確認できた気がした。

AI は人間の真似が上手いけれど、人間が誰も言っていない事は言わない。それって要するに、人間が全く分かってなかったことを AI が見つけることはないっていう事に限りなく近いんじゃないか・・



Yoshiya@kt3kDec 24, 2025

AI に PGN (chess の棋譜) を投げるとかなり丁寧に解説してくれる


Yoshiya@kt3kDec 22, 2025

Claude が賢いと感じる理由の一つに、道具の使い方を徹底的に教え込まれているっぽい点があるかもしれない。他の AI だと、言語モデル内の知識から答えてハルシネーションしそうなところでも、Claude は徹底的にちゃんと情報を grep で集めて、分からないことをなるべく減らすみたいな行動をしているように見える。


Yoshiya@kt3kDec 19, 2025

AI によるデジタル格差と、ジョンロールズの正義論について AI に色々聞いていたら「もしロールズが現代に生きていたらこう考えるはずだ」みたいな議論を勝手に展開し始めてすごく面白い・・


Yoshiya@kt3kDec 19, 2025

AI is an inequality amplifier. Not everybody can use AI effectively.


Yoshiya@kt3kDec 18, 2025

AI に本のあらすじを解説させるのが面白い


Yoshiya@kt3kDec 15, 2025

何となく claude code って単なる LLM じゃなくて、本当に"考えてる"ように見える感じがあるなぁ・・・錯覚かもしれ無いけど


Yoshiya@kt3kDec 8, 2025

Agentic Coding って何をプログラミングしてるか、どういう難易度のことをしようとしてるか、で有効性がかなり変わってくるので、どの難易度での話かという前提を飛ばして、一般的な Agentic Coding の話をされてもイマイチしっくり来ない。


Yoshiya@kt3kDec 8, 2025
  • 調査 -> AI を使う
  • コーディング -> AI は使わない
  • PR description -> AI は使わない
  • 英訳・和訳チェック -> AI を使う
  • 英訳・和訳 -> AI は使わない


Yoshiya@kt3kDec 3, 2025

AI 提供側が勝手に盛り上がってるだけで、ユーザーはそこまでついて来てない気がする。世の中の大多数は「AI を上手く使う方法が分からない」状態のままな気がする


Yoshiya@kt3kDec 1, 2025

Google Gemini をちょっと試し始めてみた。画像生成は chatgpt よりかなり良さそう。「これって何」系の質問は chatgpt よりちょっと速いように感じた。でも翻訳系の質問は chatgpt より遅い感じがする。

しばらく使ってみる。