10兆パラメータの罠——Claude Mythosが突きつけるセキュリティの新常識
「強いAIは、便利なAIではなく、危険なAIかもしれない」——そう感じたのは、いつ頃からでしょうか。
AIが文章を書き、コードを書き、会議の議事録をまとめる。そのような「便利な道具」としてのAIに慣れ始めた2026年春、Anthropicが開発中とされる次世代モデル「Claude Mythos」に関する情報が相次いで流出・報道されました。
問題は、そのモデルのサイズではありません。そのモデルが持つとされる攻撃能力です。
Claude Mythosとは何か
規模が桁違いのモデル
Claude Mythosは、Anthropicが極秘に開発しているとされる次世代フラッグシップモデルです。InvestorPlaceやMediumの報道によれば、そのパラメータ数は10兆(10 trillion)。
現在、一般に公開されている最大級のAIモデルは数千億パラメータ規模とされています。GPT-4が推定1.8兆パラメータと言われることもありますが、真偽は未確認です。いずれにせよ、「10兆パラメータ」という数字は、現在の最大級モデルの5〜10倍以上のスケールを意味します。
規模の拡大は、単に「賢くなる」だけを意味しない。これまで不可能だったカテゴリの能力が、閾値を超えるように突然出現する。
この「能力の閾値越え(emergent capability)」こそが、研究者たちが最も警戒している現象です。
なぜ「サイバーセキュリティ専用」なのか
Dataconomyの2026年4月2日付の報道によれば、Anthropicは政府機関・セキュリティ専門家への限定アクセスという形でClaude Mythosのテストを開始しています。一般公開ではなく、政府へのブリーフィングと並行して進められているこの展開は、通常のモデルリリースとは明らかに異なります。
なぜ、このような慎重な手順を踏んでいるのか。その答えは、モデルの評価結果にあります。
「一段上」のサイバー脅威とは何か
ASL(AI Safety Level)の意味
Anthropicは独自の安全基準として「ASL(AI Safety Level)」を設けています。現在のClaudeモデルはASL-2に該当し、「一般的なリスクはあるが、深刻な被害を単独では引き起こせない」水準とされています。
Claude MythosはASL-3、あるいはそれ以上と評価されている可能性があります。報道では「one step above(一段上)」という表現が使われており、これが何を意味するか——専門家たちはその言葉の重みをよく理解しています。
ASL-3とは、「大量破壊兵器の開発や大規模サイバー攻撃において、専門家水準の支援ができる可能性がある」段階です。「支援」というのがポイントで、単独では実行できなくても、人間の悪意ある行為者と組み合わさることで初めて実現する攻撃が格段に容易になります。
| ASLレベル | 概要 | 代表的なリスク |
|---|---|---|
| ASL-1 | リスクほぼなし | 一般的な情報提供 |
| ASL-2 | 限定的なリスク | 有害コンテンツ生成、フィッシング文作成補助 |
| ASL-3 | 重大リスク | 大規模サイバー攻撃支援、WMD関連情報提供 |
| ASL-4 | 壊滅的リスク | 国家規模の被害をもたらす自律的行動 |
「攻撃能力が防御能力を超える」とはどういうことか
これまでのAIとセキュリティの関係は、主に防御側の強化として語られてきました。異常検知、マルウェア分析、脆弱性スキャンの自動化——いずれも「守る側」の効率化です。
ところがClaude Mythosが示唆するのは、この力学の逆転です。
攻撃のコストは下がり、防御のコストは上がる。
脆弱性を探すには高度な専門知識と時間が必要でした。しかし10兆パラメータのモデルが、既知の脆弱性パターンと新規コードベースを組み合わせ、これまで人間のトップ専門家にしか見つけられなかった「ゼロデイ脆弱性」を自動発見できるとしたら——その情報が悪意ある行為者の手に渡るだけで、被害は世界規模になります。
AIのサイバー攻撃能力が人間の防御能力を上回る瞬間、私たちは「AI以前」と「AI以後」のセキュリティの断絶を経験することになる。
情報開示の葛藤——隠すべきか、語るべきか
「危険だから公開しない」の逆説
Anthropicがこれほど慎重な姿勢を取るのには理由があります。Claude Mythosの能力に関する詳細な情報は、それ自体が脅威になりえるからです。
「このモデルはこういう攻撃を支援できる」と具体的に公表することは、悪意ある行為者に攻撃手法のヒントを与えることになります。一方で、何も公開しなければ、競合他社や政府機関は独自に同等のモデルを開発しようとするでしょう。
これは核兵器の管理に似た問題です。情報の管理と透明性の要求は、根本的に矛盾します。
政府ブリーフィングという選択
Anthropicが選んだのは、「全部公開」でも「完全非公開」でもなく、政府機関への限定ブリーフィングという第三の道です。
これは一見、合理的に見えます。国家機関ならば情報管理ができる、対策を講じることができる——そういう前提があります。しかし同時に、「民間企業が単独で、どの国の政府に何を伝えるかを決める」という構造上の問題も浮かび上がります。
先日この欄でも取り上げたAnthropic CEOダリオ・アモデイの「3つの恐怖」の中に、「AIが民主主義を脅かす」という論点がありました。皮肉なことに、AI企業が国家を超えた情報判断を行うこと自体が、その脅威の一形態になりつつあります。
ソースコード流出との連続性
2026年3月末、Anthropicは別の問題にも直面していました。Claude Codeのソースコード約51万2,000行が、npmのミスによってインターネット上に流出したのです(詳細はこちらの記事を参照)。
あの事件はあくまで「ソフトウェア開発ツール」のコードの流出でした。しかし、もし仮にClaude Mythosのモデルウェイトや評価データが流出したとしたら——被害の次元は全く異なります。
この2つの出来事を並べてみると、Anthropicが直面している課題の輪郭が見えてきます。
技術は進化するが、情報管理の仕組みは追いついていない。
モデルサイズと安全の時間軸逆転
これまでの前提
「大きなモデルほど便利で、安全対策も進む」——これが2023年から2025年頃の暗黙の前提でした。パラメータが増えるほど推論能力が上がり、ハルシネーション(誤情報生成)は減り、指示への従順さも改善されていった。
2026年以降の現実
しかしClaude Mythosが示すのは、この前提の崩壊です。
モデルが大きくなるにつれ、「できること」が増える速度は、「安全に管理できること」の速度を上回っています。攻撃的能力の出現は突発的(emergent)で予測困難ですが、安全対策の開発は時間と検証を要します。
| 時期 | モデル規模 | 安全対策の充足度 |
|---|---|---|
| 〜2023年 | 数百億パラメータ | ほぼ追いつけていた |
| 2024〜2025年 | 数千億〜1兆 | やや遅れが生じ始める |
| 2026年〜 | 10兆(Mythos想定) | 大幅な遅れが生じる可能性 |
この「時間軸の逆転」こそが、Claude Mythosを単なる「大きなモデル」の話ではなく、社会的な問題として扱うべき理由です。
スケールが上がるほど安全対策が間に合わなくなる——それが10兆パラメータモデルが突きつける、AIセキュリティの新しい常識だ。
私たちは何をすべきか
企業・組織レベルでできること
Claude Mythosがいつ、どのような形で公開されるかは現時点では不明です。しかし、企業や組織が今から取り組めることはあります。
- AIが生成したコード・文書を盲目的に信用しない体制の構築
- 社内のAIツール利用ポリシーの整備(特にコードレビューとアクセス管理)
- セキュリティチームへのAIリテラシー教育
社会・制度レベルで求められること
個人や一企業の努力を超えた部分については、制度的な枠組みが必要です。AI規制に関するアメリカ・EU・日本の3つの哲学でも触れたように、各国の規制アプローチは大きく異なります。
しかし少なくとも、「10兆パラメータモデルの公開前に何らかの国際的な安全評価プロセスが必要」という点では、多くの研究者の意見が一致しつつあります。
まとめ
| 論点 | ポイント |
|---|---|
| Claude Mythosとは | Anthropicの次世代モデル、推定10兆パラメータ |
| セキュリティ評価 | ASL-3相当の可能性、サイバー攻撃支援能力あり |
| 公開方針 | 一般公開ではなく政府向け限定ブリーフィング |
| 本質的課題 | モデルの能力成長が安全対策の進化を上回る |
| 私たちへの示唆 | AIを使う側にもセキュリティリテラシーが必要 |
Claude Mythosの全容は、まだ明らかになっていません。しかし、モデルの巨大化が「使いやすさ」だけでなく「危険さ」の次元も飛躍的に拡大するという事実は、もはや専門家だけの関心事ではありません。
「AIは便利なツール」という認識は正しいのですが、今後はそれに「しかし、その能力が誰に使われるかによって、社会を根底から揺るがす存在にもなりえる」という視点を加えておく必要があります。