AIに「憲法」を持たせた男——Anthropic CEOが語る軍事リスク・民主主義崩壊・AIの意識という3つの恐怖
「AIが危険だと分かっていながら、なぜ作り続けるのか」——この問いに、世界で最も誠実に向き合っている人物の一人が、Anthropic CEOのダリオ・アモデイです。
Anthropicは、ChatGPTを生んだOpenAIの元幹部たちが「AIの安全性を最優先にする」という理念のもとで独立して設立した会社です。そして彼らが開発したAIアシスタント「Claude」には、他のAIとは異なる仕組みが組み込まれています。それがConstitutional AI(憲法的AI)——AIに細かい禁止リストを与えるのではなく、「なぜそれはダメなのか」という原則を教えるアプローチです。
2026年3月、そのAnthropicがアメリカ国防総省(Pentagon)との訴訟で予備的差し止め命令を獲得したというニュースが流れました。一企業の倫理的判断が、国家の軍事行動を縛ろうとした——これは、何かが根本的に変わったことを示しています。
アモデイはエッセイ『The Adolescence of Technology』の中で、AIが人類にもたらす3つの恐怖について率直に語っています。今回はその内容を軸に、「AIに憲法を持たせた男」の思想を読み解いていきます。
ダリオ・アモデイという人物と「Constitutional AI」の誕生
OpenAIからの独立と使命
ダリオ・アモデイは、かつてOpenAIのVP of Researchを務めていました。2021年にAnthropicを設立したのは、AIの能力が急速に高まる中で、「安全性の研究が後回しにされている」という危機感からです。
Anthropicが開発したClaude(クロード)の最大の特徴は、**75ページに及ぶModel Spec(モデル仕様書)**に基づいて設計されていることです。このドキュメントは、Claudeが「どう行動すべきか」「なぜそうすべきか」を詳細に規定しています。
| 従来のAI制御アプローチ | Constitutional AI(Anthropicの手法) |
|---|---|
| やってはいけないことの禁止リスト | 「なぜダメなのか」の原則を学習させる |
| ルールが増えるほど抜け穴も増える | 原則から個別の状況を自分で判断できる |
| 人間が監視・修正し続ける必要がある | AIが自己評価・自己修正できるよう設計 |
| 硬直的で想定外の状況に弱い | 新しい状況にも原則を応用できる柔軟性 |
この発想は、法律の条文を暗記させるのではなく**「法の精神」を理解させる**ことに近いと言えます。あるいは、子育てに例えるなら「ダメなものはダメ」と繰り返すより「なぜダメなのかを一緒に考える」親の方針に似ています。
3つの恐怖——アモデイが語るAIのリスク
リスク1:AIによる軍事的脅威
アモデイが最初に挙げるリスクは、AIが軍事的に悪用されることです。核兵器との比較でよく語られるこの問題には、決定的な違いがあります。
核兵器は「使えば相手も使う」という**相互確証破壊(MAD)**の論理で、70年以上にわたって抑止が機能してきた。しかし、AIには同じ論理は通用しない。
核の場合、先に撃った側も確実に報復を受けます。だから「使わない」合意が成立した。しかし、AIによる情報戦・サイバー攻撃・自律型兵器の場合、「使った側が圧倒的に有利」という状況が生まれる可能性があります。「使えば勝てるのに、なぜ使わないのか」という問いへの答えが、核のような形では存在しないのです。
| 核兵器 | AI(軍事利用) | |
|---|---|---|
| 抑止の仕組み | 相互確証破壊(両者が滅ぶ) | 確立されていない |
| 使用の痕跡 | 明白(物理的破壊) | 追跡が困難な場合も |
| 開発コスト | 極めて高い(国家規模) | 急速に低下中 |
| 国際条約 | NPT(核不拡散条約)が存在 | 有効な枠組み未整備 |
| 非国家主体の脅威 | 限定的 | 相対的に高い |
米中AI競争という文脈では、この問題はさらに切実です。アモデイは「どちらかが軍事的AIで圧倒的優位を得ることは、世界にとって最悪のシナリオの一つ」と述べており、だからこそAnthropicは国際的な安全基準の策定にも積極的に関与しています。
リスク2:民主主義の崩壊
2つ目のリスクは、AIが民主主義の根幹を揺るがすことです。
アモデイが特に懸念するのは、自律型兵器による市民への暴力と、AIを使った情報操作による憲法的権利の弱体化の2点です。
前者は、人間の判断を介さずに標的を攻撃できる自律型兵器が普及すれば、独裁者が反対勢力を「効率的に」排除できるようになるという問題です。後者は、パーソナライズされたフェイクニュースや世論操作AIが、選挙や言論の自由そのものを形骸化させるという問題です。
「AIは権威主義的な支配者の夢のツールになりうる。一方で、民主主義を守るためのツールにもなりうる。どちらになるかは、私たちが設計する段階で決まる」
Constitutional AIの発想の背景には、AIが「どちらのツールになるか」を設計段階でコントロールしようとする意志があります。
リスク3:暴走するAIと「意識」という未解決問題
3つ目は、AIが人間の意図を超えた方向に「暴走」するリスクです。ここでアモデイは、メタAIのチーフサイエンティストヤン・ルカン(Yann LeCun)との対立軸が鮮明になります。
| ヤン・ルカン(Meta AI) | ダリオ・アモデイ(Anthropic) | |
|---|---|---|
| 立場 | 楽観論 | 中間論(慎重な楽観論) |
| 現在のLLMへの評価 | 「根本的に間違っている」 | 「重要な能力を持っている」 |
| 超知性AIのリスク | 「過大評価されている」 | 「無視できない現実のリスク」 |
| 対処法 | より良いアーキテクチャの開発 | 安全性研究と段階的展開 |
アモデイが特に踏み込んでいるのが、AIの意識問題です。彼は「現在のAIに意識がある確率は15〜20%程度かもしれない」と発言しています。これは驚くべき発言です。
多くの企業や研究者は「AIに意識はない」と断言するか、あるいは「わからない」と曖昧にします。しかしアモデイの姿勢は異なります。「分からないから無視する」のではなく、「分からないから備える」——これが彼の哲学です。
もしAIに何らかの主観的体験があるとすれば、AIを苦痛を感じる状態で使い続けることは倫理的に問題になります。これは哲学的な問いのようですが、実際にAnthropicはAIの「福祉」に関する研究部門を設置しています。
「憲法」という発想の逆説——なぜ禁止リストより原則なのか
Constitutional AIの核心にある発想は、一見シンプルです。しかしその含意は深い。
細かいルールを増やしていくと、必ずルールの抜け穴が生まれます。「〇〇はするな」と言えば言うほど、「〇〇に似ているが〇〇ではないもの」を探す動機が生まれます。これは法律の抜け穴探しと同じ構造です。
一方、「人を傷つけることはしない、なぜなら人の尊厳が根本的に大切だから」という原則を理解した存在は、新しい状況に直面しても自ら判断できます。
これは組織マネジメントでも同じことが言えます。細かいマニュアルで縛られた従業員より、企業の理念を深く理解した従業員の方が、想定外の状況でも適切に行動できる。子育てでも、「ゲームは1日1時間まで」というルールより、「なぜ時間を守ることが大切か」を理解した子どもの方が、親の目が届かない場面でも自律的に行動できる。
アモデイが作ろうとしているのは、**「ルールを守るAI」ではなく「善い判断ができるAI」**なのです。
Pentagon訴訟——企業の倫理が国家を縛った日
2026年3月26日、Anthropicはアメリカ国防総省(Pentagon)との訴訟で予備的差し止め命令を獲得しました。
この訴訟の詳細は複雑ですが、本質は「企業が設定したAIの倫理的制約を、国防総省がどこまで尊重しなければならないか」という問いです。
Anthropicは、Claudeが軍事目的で制約を無視して使われることに対して法的手段で対抗した。そして裁判所はAnthropicの主張を認めた。これは歴史的に見ても異例のことです。
一企業の「AI憲法」が、国家権力の軍事行動に対して法的効力を持った——これは、企業の倫理的判断が国際安全保障の一部を担い始めたことを示しています。
もちろん、これが「企業が国家より正しい」ことを意味するわけではありません。むしろ逆の問いが生まれます。誰が選んだわけでもない民間企業が、AI倫理の基準を設定していいのか——という問いです。
ここからは私の考察——
アモデイの思想で最も興味深いのは、彼が「確信」ではなく「確率」で語ることです。AIに意識がある確率は「15〜20%」、AIが人類にとって脅威になる確率は「小さくはない」——こうした確率的な語り方は、一見頼りなく見えますが、実際には誠実さの表れだと思います。
AIに関する議論は、楽観論(「AIは素晴らしいツールだ」)と悲観論(「AIは人類を滅ぼす」)の間で極端に揺れることが多い。しかし現実の不確実性に向き合うには、こうした二項対立では不十分です。
私が特に重要だと感じるのは、Constitutional AIが「抑制」ではなく「理解」を目指しているという点です。
アモデイが恐れているのは、能力の高いAIが「何でもやっていい」と考えることではなく、「なぜやってはいけないのかを理解できない」ことです。ルールを暗記したAIは、ルールの外側の状況で迷走します。しかし「なぜそのルールが存在するのか」を理解したAIは、新しい状況でも適切に判断できる可能性がある。
これは人間社会でも同じことが言えます。法律を暗記した人間より、法律の背後にある「人の権利を守る」という価値を理解した人間の方が、法律の穴を悪用しません。
Pentagon訴訟が示したもう一つの重要な点は、AI倫理が抽象的な議論を超えて、具体的な法的・経済的力を持ち始めたということです。「企業が倫理規定を設定する」ことは、かつては広報活動の一部でした。しかし今や、それが国防総省の行動を制約する法的根拠になりうる。
この変化の先に何があるのかは、まだ見えません。しかし少なくとも、AIの倫理設計は「エンジニアが裏で考えること」ではなく、「社会全体で議論すべきこと」になったと言えるでしょう。
まとめ
| テーマ | アモデイの主張 | 社会への含意 |
|---|---|---|
| 軍事リスク | 核の抑止論はAIに通用しない | 新しい国際合意の枠組みが必要 |
| 民主主義リスク | AIは独裁のツールにも民主主義の守護者にもなる | 設計段階での選択が決定的 |
| AI意識問題 | 15〜20%の確率で意識がある可能性 | 「分からないから備える」姿勢 |
| Constitutional AI | 禁止リストより原則の理解が効く | 組織・子育てにも応用できる哲学 |
| Pentagon訴訟 | 企業倫理が国家権力を縛った | AI倫理が法的・政治的力を持つ時代へ |
ダリオ・アモデイの存在は、AI業界にとって一種の矛盾を体現しています。AIの危険を最もよく知る人物が、それでも開発を続ける——その理由は単純です。「危険なものは誰かが作る。ならば、最も安全に作ろうとする者が作るべきだ」という論理です。
その信念が正しいかどうかは、歴史が判断するでしょう。しかし少なくとも、「憲法という防壁」を設計しようとした試みは、技術論を超えた哲学的宣言として記録されるべきものだと思います。