——合理性・最適化・AIの先に何があるのか
最初に要約:この文章で言っていること
この文章は、「AIが賢くなる未来」を否定するものではない。
むしろ前提として、AIはすでに多くの場面で人間より賢く、正確で、効率的だという事実を認めている。
問題は、そこから先だ。
- AIに判断を任せる
- 人間は働かなくていい
- 最適化された社会の方が安全で合理的
そうした言説が積み重なった結果、人間は何をやらなくなりつつあるのか。
本稿で扱うのは、
- 労働の消失ではなく、判断の消失
- 排除ではなく、不要化
- 独裁ではなく、合理性による集中
という、静かで、丁寧で、止めにくい変化である。
はじめに
これは技術の話ではない。
人間がどこまで判断を引き受け続けるのか、その限界線についての記録だ。
AIはすごい。
この事実を否定する人は、もうほとんどいない。
OpenAI、
Google、
Microsoft、
Amazon。
彼らが生み出す技術は、多くの場面で人間より正確で、速く、安定している。
問題はそこではない。
AIが賢くなる過程で、人間は何をやめ始めているのか。
それが、ほとんど語られていない。
1. 「働かなくていい」は、どんな意味での解放か
最近よく聞く言葉がある。
- 人はもう働かなくていい
- 単純作業はAIに任せる
- 人は上流工程へ行くべきだ
一見すると、人道的で進歩的だ。
だが現実を見ると、別の風景がある。
Amazon の倉庫では、作業速度・動線・休憩タイミングまでアルゴリズムが決める。
Uber のドライバーは、価格も稼働時間も評価もAIが決める。
ここで消えているのは「労働」ではない。
自分でどう動くかを決める判断だ。
これは、「働くのは下、判断するのは上」という植民地・奴隷制の倫理と、構造的に似ている。
これはいつか見た景色なのだろうが、たいていに人はそれを忘れてしまう。
なぜなら、多くの人は出来事を構造として見ることに慣れていないから、ディテールや表現が変わると違うものとして見てしまう。
ZIKUUが基礎教科書を書き、その中で構造を見ることをすすめるのは、構造を見ないことの危険性を知っているからだ。
2. 判断を手放すことは、驚くほど気持ちがいい
判断には責任が伴う。
責任は不快だ。
だから人は、こう言いたくなる。
- データがそう言っている
- AIの推奨だ
- 最適解に従っただけ
企業ではすでに当たり前だ。
- 採用:AIスコア順
- 融資:リスクモデル推奨
- 医療:診断支援AIの候補
判断しなかったこと自体が、「合理的な行動」として評価される。
責任は、最適化の中に溶けていく。
3. 決定者だと思っていた人たちの消失
かつて「判断する側」にいた人たち。
- 管理職
- 専門職
- エグゼクティブ
だが今、
- 戦略案はAIが生成
- KPIはAIが設定
- リスク評価もAI
人間は選択肢の中から選ぶシステムの一部になる。
拒否すると、
- 非合理
- 感情的
- 科学的でない
と言われる。
これまで決定は権力の一つだと勘違いしていたが、それは役割でしかなかった。
つまりAIによる役割の消滅が起きる。
4. 判断と責任が分離される実例
自動運転
Tesla の自動運転は「人間より安全」と語られることがある。
それが良いと思っている人もいる。
だが、
- 判断ロジックは非公開
- 事故時の責任はドライバー
人間は判断せず、責任だけを負う。
航空
Boeing 737 MAXでは、自動制御が操縦を補正し、パイロットは何が起きているか把握できなかった。
判断できない人間を前提にした設計。
5. 公共分野に入った瞬間、戻れなくなる
司法・警備
アメリカ合衆国政府 では、再犯リスク算定AIが量刑や保釈判断に使われている。
裁判官は最終判断者だが、AIに逆らうと説明責任が重い。
判断権は形式的に人間、実質はアルゴリズム。
社会制度
中国政府 の社会信用システムは極端に見える。
だが本質は、人間の判断を信用せず、システムの判断を制度に埋め込む。
一度制度化されると、誰も決めていないのに、全員が従う。
6. 教育で判断が育たなくなる
Google の学習最適化、OpenAI の学習支援。
便利だ。
だが、
- 問いを立てない
- 回り道しない
- 失敗しない
最初から最適解しか見ない人間が育つ。
判断は訓練しないと劣化する。
筋肉と同じだ。
7. 軍事に入ったとき、倫理は蒸発する
アメリカ国防総省 では、ターゲット選定にAIが使われる。
人間は承認者。
だが現場では、
- 時間がない
- 情報が多すぎる
引き金は引かないが、殺している。
判断と責任が完全に分離される。
8. 人間不要論は、静かに完成する
ここまで積み上げると、結論は単純だ。
- 労働:最適化対象
- 判断:アルゴリズム
- 責任:システム
- 倫理:ルール
残る人間は、何も決めないが、従っている存在。
排除も迫害も必要ない。
決めさせなければいい。
9. 合理性と独裁は、相性が良すぎる
AIは規模の競争になる。
- 巨大データ
- 巨大計算資源
- 巨大資本
結果として、
Microsoft、
Google、
Palantir
といった少数の設計思想が「合理性」として世界に広がる。
善意でも、集中すれば独裁になる。
10. オープンであるはずだった理想
強力なAIは、本来独占すべきでないと言われていた。
それがイーロン・マスクがOpenAIを起業する際の考えだった。
だが今、
- 危険だから非公開
- 悪用防止のため管理
- 競争上クローズ
これは裏切りというよりは、そうなる構造だった。
11. 背景としてのZIKUU
だから、ZIKUUはあえて逆を選ぶ。
- 判断を残す
- 面倒を排除しない
- AIに任せない線を引く
効率は落ちるかもしれないが、判断を引き受ける人間が残る。
12. 日本では「静かに」「丁寧に」判断が消えていく
日本の特徴は、急進的でも露骨でもないことだ。
- 暴力的に奪わない
- 強制もしない
- ただ「便利」「安全」「前例踏襲」で進む
だからこそ、止めにくい。
行政DX:誰が決めているのか分からなくなる
デジタル庁 は、行政手続きの効率化・自動化を進めている。
目的は正しい。
- 手続きの迅速化
- 人的ミスの削減
- コスト削減
だが現場で起きているのは、
- 判断基準はシステム側
- 職員は入力と確認
- 例外処理は「想定外」として弾かれる
市民から見ると、
「なぜダメなのか」
「誰が決めたのか」
が分からない。
これは冷たい独裁ではない。
丁寧な無責任だ。
マイナンバー:判断が統合されるということ
総務省 主導のマイナンバー制度は、
- 税
- 社会保障
- 医療
- 行政サービス
を横断的に結びつける。
これ自体は合理的だ。
だが一度統合されると、
- 「個別に判断する余地」が消える
- 人が介在する余白がなくなる
制度はこう言う。
「ルール通りです」
誰も悪くない。
誰も決めていない。
だが、覆せない。
企業:日本型「責任回避」とAIは相性がいい
日本企業では昔から、
- 前例
- 稟議
- 合議
- 空気
が判断を薄めてきた。
そこにAIが入ると、こうなる。
- 「AIの分析結果なので」
- 「データ的にそうなので」
- 「個人の判断ではありません」
これは革命ではない。
従来の責任回避が、技術で完成しただけ。
採用・人事:人を見るのをやめる
リクルート 系の適性検査・AIマッチングは、
- 表向きは公平
- 実際には「外れ値」を嫌う
- 変な経歴
- 説明しにくい動機
- 数値化しにくい資質
こうしたものは最初から除外される。
人を見るのをやめた社会では、人は育たない。
教育:考えなくても正解に辿り着ける
文部科学省 が推進するGIGAスクール構想。
- 一人一台端末
- デジタル教材
- 個別最適化学習
便利だ。
だが、
- 回り道しない
- 失敗しない
- 迷わない
最初から「正解に導かれる学習」は、判断力を育てない。
問いを立てる前に、答えが出る。
医療・介護:逆らえない「推奨」
日本の医療現場でも、
- 診断支援AI
- 投薬推奨
- 介護度判定アルゴリズム
が入ってきている。
医師や介護士は最終判断者だが、
- AIに逆らう理由を書かされる
- 事故時の責任は個人
結果として、
「AIに従うのが一番安全」
になる。
判断は形式だけで、実質的には消える。
日本社会の危うさは「善意」で進む点
日本では、AIによる最適化はこう語られる。
- みんなのため
- 現場を楽にする
- 人手不足対策
すべて正しい。
だからこそ、
誰もブレーキを踏まない
判断は、反対意見や摩擦の中で育つ。
日本は、摩擦を嫌う。
13. 日本で起きているのは「人間不要論のソフト版」
日本には、「人間はいらない」と言う人はいない。
代わりに、こう言う。
- 人は判断しなくていい
- システムに任せた方が安心
- 例外は作らない方が公平
結果は同じだ。
判断しない人間が増える。
実質的に人間がいなくなる。
つまり、「人間はいらない」が実現してしまう。
14. 背景としてのZIKUU
この文脈で見ると、ZIKUUがやっていることは、日本社会にとって特に不都合だ。
- 面倒
- 属人的
- 非効率
- 説明が長い
だがそれは、
判断を残すための不便
でもある。
日本では、この「不便」を残すこと自体が、今後は意識的な選択になる。
日本では、独裁は起きにくい。
だが、誰も判断しない社会は、とても静かに成立する。
- 丁寧に
- 善意で
- 合理的に
だからこそ、いちばん危ない。
判断を引き受けることは、日本では「空気を乱す行為」になる。
それでも引き受けるか。
この問いは、日本にいる私たちに、より重く返ってくる。
最後に ―― あなたは、もう判断していない
ここまで読んで、こう思った人もいるかもしれない。
「自分はそこまでAIに任せていない」
「最終判断は人間がしている」
「便利な道具として使っているだけだ」
本当にそうだろうか。
- 推奨されたルートを、そのまま選んでいないか
- 提示された候補からしか、選んでいないのではないか
- 「データがそう言っている」で、思考を止めていないか
それは判断だろうか。
それとも 承認作業 だろうか。
判断とは、
- 選択肢を自分で作り
- 情報が足りないことを引き受け
- 間違える可能性を承知で決める
行為だ。
AIが出した答えに従うことは、多くの場合、判断ではなく回避に近い。
重要なのは、誰かに判断を奪われたわけではないことだ。
- 自分で手放した
- 楽だから
- 安全だから
- 賢く見えるから
そうやって少しずつ、判断しない方を選んできた。
AIは賢くなる。
これは止まらない。
だが、人間が判断を引き受け続けるかどうかは、まだ選べる。
- 面倒で
- 非効率で
- 間違える可能性があって
- 説明に時間がかかる
それでも、自分で決めるか。
もしこの問いを、「AIに聞こう」と思ったなら、その瞬間こそが、この文章が書かれた理由だ。
その問いだけは、
AIに渡してはいけない。
「判断をやめた社会」への1件のフィードバック