Anthropicの「Claude Mythos Preview」、危険なデュアルユース能力で限定公開へ

はじめに

Anthropicは2026年4月7日、新モデル「Claude Mythos Preview」を一般公開せず、限られた組織にだけ提供する方針を明らかにしました。あわせて、防御目的のサイバーセキュリティ連携「Project Glasswing」を発表し、選ばれた参加組織がこのモデルを使って脆弱性発見や防御強化に取り組む枠組みを立ち上げています。Anthropic自身も、このモデルは一般アクセス向けではなく「limited-release research preview」だと位置づけています。

今回の発表が注目されたのは、Claude Mythos Previewが単に「高性能な新モデル」だからではありません。Anthropicの公式説明では、このモデルは主要なOSや主要ブラウザでゼロデイ脆弱性を発見し、場合によってはそれを悪用する方向まで到達できる能力を示したとされており、防御にも攻撃にも使いうる強いデュアルユース性が問題になっています。

背景と概要

Anthropicのリスク報告書では、Claude Mythos Previewは同社の「latest, most capable model」とされ、社内で広く使われている一方、一般向けには開放されていません。報告書は、このモデルの全体リスク評価を「very low, but higher than for previous models」とし、能力向上に伴って従来モデルより高いリスクを持つと整理しています。

Anthropicの技術ブログによると、同社はClaude Mythos Previewで、主要なOSと主要ブラウザすべてにわたってゼロデイ脆弱性を特定し、しかもそれらの一部では実際に悪用コードの生成まで確認しました。さらに同社は、正式なセキュリティ訓練を受けていない社内エンジニアでも、モデルに指示することで高度な脆弱性発見と動作するエクスプロイトに到達できた例があったと説明しています。Anthropicは、こうした能力差について、前世代のClaude Opus 4.6とは「in a different league」だと表現しています。

要するに、問題になっているのは「AIがバグを見つけられる」という一般論ではありません。公開情報から読み取れるのは、Claude Mythos Previewが、脆弱性発見だけでなく悪用の自動化にかなり近い地点へ進んでおり、その能力が防御用途では極めて有用である一方、誤用された場合の危険も大きいということです。

現在の状況

Anthropicはこのモデルを「Project Glasswing」の中で限定提供しています。Reutersによると、参加組織にはAmazon、Microsoft、Apple、Google、Nvidia、CrowdStrike、Palo Alto Networksなどが含まれ、さらに重要ソフトウェア基盤を担う約40の追加組織にもアクセスを広げています。Anthropicはこの取り組みに対し、最大1億ドル分の利用クレジットと、オープンソースセキュリティ団体向けの寄付も用意しています。

Anthropicの公式説明では、Project Glasswingの参加者は、Claude Mythos Previewを使って自社やオープンソース基盤の脆弱性検出、バイナリのブラックボックス検査、エンドポイント防御、ペネトレーションテストなどに取り組む想定です。同社は、ここで得た知見を公開し、90日以内に修正された脆弱性や改善内容について報告する方針も示しています。

一方でAnthropicは、将来的には「Mythos-class models」を安全に大規模展開できる状態を目指すとも述べています。そのために、まずはより低リスクの今後のClaude Opus系モデルで新しい安全策を導入し、危険な出力を検知・遮断する仕組みを磨く考えです。つまり今回は恒久的な封印というより、安全策が追いつくまでの管理された限定運用だと理解するのが正確です。

注目されるポイント

第一に、この件はAIの「攻撃か防御か」という単純な二択ではありません。Anthropicは米政府関係者とも、Claude Mythos Previewの攻撃・防御両面のサイバー能力について継続的に協議しているとしています。防御のために極めて有用な能力ほど、同時に攻撃にも転用しやすいという、典型的なデュアルユース問題が前面に出ています。

第二に、Anthropicの姿勢は「危険だから出さない」だけではありません。リスク報告書では、Claude Mythos Previewは同社がこれまでリリースした中で最も整合的なモデルである一方、能力上昇によって結果的に過去モデルより高いリスクを持つと説明されています。つまり、ここで問題視されているのはモデルの“悪意”ではなく、能力が上がった結果として防げるはずの危険も増幅されるという点です。

第三に、今回の発表はAIモデルの配布ルールそのものを変える可能性があります。従来は「一般公開してから安全策を積み上げる」流れも多く見られましたが、Claude Mythos Previewでは逆に、危険性の高い能力を持つモデルはまず限定環境で使い、実運用から安全策を磨く形が採られています。今後のフロンティアモデルでも、同様の段階的公開が一つの標準になる可能性があります。

第四に、市場はこの動きを技術ニュースとしてだけでなく、産業構造の変化として受け止め始めています。Reutersによると、Anthropicの更新後、米ソフトウェア株は下落し、投資家の間ではAIが既存ソフトウェア企業の競争環境を根本から変えるとの懸念が改めて強まりました。Claude Mythos Previewはセキュリティの話題であると同時に、AIがソフトウェア開発と保守の価値配分をどう変えるかを示す材料にもなっています。

今後の見通し

今後の焦点は二つあります。ひとつは、Anthropicが約束する安全策の強化が、どこまで実際の公開条件に結びつくかです。Anthropicは、将来的にはより広いユーザーが安全にMythos級モデルを使える状態を目指すと明言していますが、その前提として危険な出力をブロックする仕組みの成熟が必要になります。

もうひとつは、このモデルがサイバー防衛の実務をどれだけ変えるかです。Anthropicは、参加組織が基盤ソフトウェアの脆弱性を見つけて修正することで、世界の共有攻撃面を縮小できると説明しています。もしこの枠組みが成果を出せば、AIは「脅威」ではなく「脅威に先回りする防御装置」としても本格的に扱われるようになります。逆に、その前に同等能力を持つ別モデルが広く出回れば、守る側より攻める側が先に恩恵を受ける可能性もあります。今回の限定公開は、その分岐点に立つ判断だと言えます。

\ 最新情報をチェック /

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です