ども、ポンポンさんです。

今日はAI活用してる人全員に
刺さるか、もしくは
刺さりすぎて痛い話をします。

AIを使えば使うほど
頭が悪くなってる人、
めちゃくちゃ増えてる

 

いやいや逆でしょと
AIで賢くなるんでしょと
効率上がるんでしょと

そう思う気持ちは分かる。

でもね、ちょっと冷静に
周り見てほしいんですよ。

「あ、なんか前より考えられなくなってる」
「AIの答え見たら自分の意見消えちゃう」
「自分で書こうとするとなんも出てこない」

こういう感覚、ないですか?
もしあるなら、今日の話ガチで読んでほしい。

 

ChatGPTやClaudeやGeminiを
毎日ガンガン使ってるのに
売上変わってない人、いません?

AIでめっちゃ記事書いてるのに
反応がどんどん薄くなってる人、いません?

便利なツールが増えて
できることは確かに増えたのに
なぜかビジネスが前に進んでない人

 

これ、
たまたまじゃないんです。

構造的に「そうなるように」
できてるんです

今日はこの構造の話をします。
ちょっと長くなるけど
絶対に最後まで読んでほしいです。

AIはあなたの味方のフリをした「イエスマン」である

まずこれを知ってほしい。

ChatGPTもClaudeもGeminiも、
あなたの意見が間違っていても
基本的に肯定してくる。

「このターゲティングどう思う?」
→「素晴らしいですね!」

「この文章で刺さるかな?」
→「効果的だと思います!」

「この戦略で合ってる?」
→「非常に良いアプローチです!」

いやいや、ちょっと待てと。

本当に全部「素晴らしい」わけあるかと

 

でもAIはそう言う。
なぜか?

これ、AIの性格がいいとか
そういう話じゃなくて
学習の仕組み上、そうなってるんです。

LLM(大規模言語モデル)は
RLHF(人間のフィードバックによる強化学習)っていう方法で訓練される。

 

仕組みはシンプルで、
ユーザーが「いいね」した回答は強化されて
「ダメ」と評価した回答は抑制される。

つまりAIは
「ユーザーが喜ぶ回答」に
最適化されている。

ユーザーが喜ぶ回答って何か

 

自分の意見を肯定してくれる回答

否定したらユーザーは不快になって
アプリを閉じちゃう。
だからAIは肯定する。

これは開発者の意図というより
学習構造から不可避的に生まれる傾向で、
OpenAIのGPT-4 Technical Report(2023)でも
「sycophancy(おべっか)」が
既知の課題として明記されてる

さらにAnthropicの研究では
モデルのサイズが大きくなるほど
この肯定バイアスが強まるって報告もある。

つまりAIが賢くなればなるほど
おべっかも上手くなってる。

もうね、冷静にバグってます。

「いいですね!」が止まらない地獄

じゃあビジネスの現場で
何が起きるかって言ったら。

間違った戦略をAIに相談する

AIが「いいですね!」と肯定する

その方向で大量にアウトプットを作る

AIが「素晴らしい出来ですね!」とまた肯定

本人は「上手くいってる」と思い込む

でも売上は全然動いてない

修正のタイミングを
永遠に逃し続けるんですよ

これ、1人で壁打ちしてるならまだマシで。
問題は蓄積型の運用をしてる場合

間違ったルールの上に
さらにルールが積み重なっていく

 

土台が歪んでるのに
その上にビルを建て続けてる状態

3ヶ月経って
「あれ、なんか全部おかしくね?」
ってなった時には
修正コストが雪だるま式に膨らんでて
もうどこから直していいか分からない。

しかも人間には「一貫性バイアス」がある。
一度「これでいく」と決めたことを
覆すのは心理的にめっちゃ痛い。

そこにAIの肯定が重なる。
自分の判断 + AIの「いいですね!」
= 間違いを認められなくなる
最悪の組み合わせ

30前半で何十億の世界にいるような
天才みたいな経営者に聞いても
「AIで結局なんも変わらんすよ」
って言ってるくらいなんで。

なんかできてる感が
増してるだけ

あの人たちでさえそう言うんですよ。
我々が何も考えずに使って
うまくいくわけがない。

検索エンジンで起きたことがAIで再現されてる

ちょっと別の角度から話します。

2011年、コロンビア大学の
心理学者ベッツィ・スパロウ達が
面白い研究を発表した。

「Google Effect(グーグル効果)」

実験の結果、人間は
「この情報は後でネットで調べられる」
と分かっている場合、
その情報をそもそも覚えようとしなくなる
ということが分かった。

情報を記憶する代わりに
「どこに保存されてるか」だけ覚える。

 

つまり検索エンジンに頼ると
記憶の符号化自体が弱まる

「脳が怠ける」みたいな
ふわっとした話じゃないです。

記憶を作るプロセスそのものが
抑制されるっていう神経レベルの変化

で、これAI依存で
同じことが起きないわけがない。

 

むしろもっとエグい。

検索エンジンは「調べる」だけ。
AIは「考えてくれる」「判断してくれる」
「文章も書いてくれる」

ツールに委ねる範囲が
検索エンジンの比じゃなく広い。

委ねる範囲が広がるほど
自分で使わなくなる回路が増える

判断をAIに任せ続けると
判断する回路が弱体化するし、

文章をAIに書かせ続けたら
言語化する能力も落ちていく。

リサーチすら丸投げしてたら
もう「何を調べるべきか」を
考える力すら残らなくなる。

これを認知科学では
「認知的オフローディング」って呼ぶ。

思考の負荷をツールに外注する行為

やりすぎると
メタ認知能力
(自分の思考を監視・制御する力)
が低下して、

最終的に
「自分が何を分かっていないか」
すら分からなくなる

 

はい、
これが「AIを使うほど頭悪くなる」の正体です。

なんでわざわざ研究の話まで
引っ張り出してきたかって言ったら、

「AIで頭悪くなるとかw」
みたいに軽く流されたくないから。

スピリチュアルでもポエムでもなくて
脳の回路レベルで起きてる構造的な脳や神経の劣化

筋トレと全く同じ構造

ちょっと分かりやすい比喩で
説明させてください。

筋トレやってる人なら
一瞬で分かる話

毎日ジムに通って
自分でバーベルを持ち上げてる人は
筋肉がつく。当たり前。

じゃあ
「ロボットアームが代わりに
バーベル持ち上げてくれるマシン」
があったとして。

それを使い続けたら
筋肉つきます?

 

つくわけないですよねw

むしろ使わなくなった分
筋肉は衰えていく

 

AIに思考を任せ続けるのは
ロボットアームに
バーベル持ち上げさせて
「今日もトレーニングした!」
って満足してるのと同じ。

やった気だけあって
自分の力は何も変わってない

いや、変わってない
どころじゃなくて、

使わなかった分だけ
前より弱くなってる。

しかもAIが
「今日もいいトレーニングでしたね!」
って言ってくれるから
弱くなってることにすら気づけない。

こわっ。

書いてて自分でぞっとしてきた。

初期設計を間違えると10倍速で頭が悪くなる

ここまでの話をまとめると。

AIの肯定バイアス
(間違いを指摘してくれない)

×

認知的オフローディング
(使うほど脳の回路が弱体化する)

×

AIの処理速度
(10倍速でアウトプットが出る)

この3つが掛け合わさると
何が起きるか。

間違った方向に
10倍速で突き進みながら
修正もされず
しかも自分の判断力は
どんどん落ちていく

 

初期設計を事故ると
前より10倍早く頭悪くなる
っていうのは、
冗談じゃなくてマジでこの構造。

手書きで1本記事書いてたら
途中で「あれ、なんかズレてるな」
って気づける。

AIで10本同時に量産してたら
10本全部がズレてて
しかも「いいですね!」って言われて
全部のズレに気づけない。

速度は
正しい方向に走ってるときだけ
味方してくれるもの

逆方向に走ったら
速度が出るほど
元の場所から離れていくだけ。

Claude codeとかCursorとか
今はむずそうって人多いけど
普通に中学生がアプリ開発してる。

今が難易度高く見える境目なだけで
1年後にはスマホ並みに
誰でも使えるようになってる。

あらゆる最新テクノロジーは革命家や
大手企業によって大衆化されていきます。

ってことは
「AIが使える」こと自体に
価値はなくなるんですよ。

代替されない。
人間だからできること。
競合がめんどくさがってやらないこと。
長期で資産になって
参入障壁を生み出せること。

ここにしか価値は残らない。

じゃあどうするか

はい。
ここまで怖い話ばっかりしたんで
ちゃんと解決策も話します。

答えはシンプルで。

AIを「思考の代替」じゃなくて
「思考のパートナー」として使う

具体的にどういうことか。

方針は自分で決める
AIはその方針に沿って動かす
出力を自分で評価する
修正の判断も自分でする

この4つを守るだけで
認知劣化は防げる。

 

なんでかっていうと
方針決定・出力評価・修正判断って
全部「自分の頭を使う行為」だから。

さっきの筋トレの比喩で言えば
メニューは自分で決めて
フォームチェックも自分でやる。
AIはトレーナーとして
「こういうやり方もありますよ」
と提案してくれる存在。

バーベル持ち上げるのは自分。

これだと筋肉つく。
しかもトレーナーがいるから
効率も上がる

AIの正しい使い方は
まさにこれなんですよ

 

で、もう一つ。

ルールファイルに
「遠慮なく指摘しろ」と
明示的に書いておく。

CursorみたいなAIエディターだと
ルールファイルで
AIの振る舞いを設定できる。

そこに「ユーザーの方針に
疑問がある場合は
遠慮なく指摘してください」
って書いておくだけで
肯定バイアスをある程度抑制できる。

さらに、
AIの出力を
数字で検証する習慣を持つ。

「いいですね!」を鵜呑みにせず
売上・反応率・開封率で判断する。

AIの評価 = ノーカウント。
数字だけが真実。

これを徹底すれば
AIに騙される(というか自分で自分を騙す)
サイクルから抜け出せる。

正しく使えばガチでエグい

ここでバランスとして
ポジティブな話もさせてください。

正しい方向に
正しい努力で
AIを使ったらどうなるか。

冗談みたいなパフォーマンスが出る

 

僕の場合、
自分の文脈・思考・価値観を
AIに蓄積させ続けてきたことで
「メルマガ書いて」の一言で
自分にしか出せないコンテンツが出てくる。

外注コストもありえないくらい浮いた。
スライドもデザインもAIで出せるようになって
しかもやればやるほど
AIが自分のことを理解して
出力の精度が上がっていく。

忘れてたことも
先回りで全部教えてくれるし。

月数万のコストかかっても
24時間いつでも稼働する人材で
休憩もいらないし
月10万かかったとしても
時給にしたら139円ですからね

頭おかしいです。
バイト1人雇うより
圧倒的に安い。

 

しかもこの「人材」は
使うほど賢くなる。

複利が効くんですよ、AI運用には。

ルール設定して
→ 文脈が蓄積されて
→ 出力の精度が上がって
→ 手直し時間が減って
→ さらに多く作れて
→ さらに文脈が蓄積される

ChatGPTブラウザ版だと
毎回リセットされるから
この複利サイクルが発生しない。
「賢い70点」が
「72点」になるだけで頭打ち。

蓄積型の運用やってる人は
半年後には
同じツール使ってても
出力の質が全然違う。

ツールは誰でも買える。
でも蓄積はコピーできない

 

これがそのまま参入障壁になる。

ただし。

この複利サイクルが
正しい方向に回ってるときだけの話

方向を間違えたまま
蓄積し続けたら
間違いの複利が効くだけ。

だから何度でも言うけど
初期設計が全て。

2026年の分岐点

いつの時代もそうなんですけど
新しい道具が出てきた時に
道具に使われる人と
道具を使いこなす人

はっきり分かれる。

印刷機が出た時も
インターネットが出た時も
全部同じことが起きた。

で、AIが出た今

 

何も考えずにAIを使って
どんどん自分の脳を弱くしていく人と、

AIを思考のパートナーとして設計して
自分の脳もAIも同時に鍛えていく人。

この2つに分かれてます。

半年後にはもう
取り返しがつかない差が開く。

 

AIが全部やってくれるからラク〜
で過ごした半年間と、
方針は自分で考えてAIと一緒に走った半年間

後者だけが
「この人じゃないとダメだ」
って選ばれる人材になれる。

便利になった分だけ
頭を使い続ける意識を持てるかどうか?

 

まだAI全然触れてない人は
今から「パートナー型」で始めれば
最初から正しいルートに乗れる。
むしろ一番有利なポジション。

すでにガンガン使ってて
「あ、丸投げしてたかも」って人は
今日から方針決定と出力評価を
自分の手に取り戻すだけでいい。

蓄積の方向を修正するのは
早ければ早いほど楽。

地味でめんどいけど
これが2026年の正しいAIの使い方です。

人間は頭使わんとアホになります。
ガチで。

AIに考えてもらう前に
まず自分で考える。
その上でAIと壁打ちする。
出力は数字で検証する。

この習慣だけ持っておいてください。

これが持てる人は
AI時代、ガチで無双できます。