AIが脆弱性を見つける段階を超え、攻撃手法の生成まで担い始めました。AnthropicのProject Glasswingは、その現実を前提に防御側へ力を振り向ける取り組みです。この記事では、Claude Mythos Previewが何を変えるのか、なぜ大手企業が参加したのか、実務ではどこに注意すべきかを整理します。
- Claude Mythos Previewの位置づけ
- Project Glasswingが狙う防御の使い方
- 既存のセキュリティ運用と何が違うのか
https://www.anthropic.com/glasswing
Claude Mythos Previewは何者か
Claude Mythos Previewは、AnthropicがProject Glasswingと同時に示した新しいフロンティアモデルです。ポイントは、単なる会話モデルではなく、コードを読み、修正し、攻撃と防御の両方に深く関われる点にあります。Anthropicは、このモデルが大規模な脆弱性発見とエクスプロイト生成に強いと説明しています。つまり、AIの能力が「コードを書く」から「コードの弱点を見抜く」へ明確に進んだということです。
ここで重要なのは、これは特殊なサイバー専用モデルではない点です。公式説明では、より広い推論力とエージェント的なコーディング能力が土台にあり、その副産物としてセキュリティ能力が強く出ているとしています。開発支援で優秀なモデルは、脆弱性検出でも強い。Anthropicはその構図を前面に出しました。
Project Glasswingが狙うもの
Project Glasswingの目的は、攻撃力の誇示ではありません。防御側に先回りの時間を与えることです。Anthropicは、主要なOSやブラウザを含む重要ソフトウェアで、まだ公開前の脆弱性を大量に見つけたと述べています。そこで、発見結果を攻撃者ではなく、守る側の検証と修正に回す枠組みを作りました。
参加企業も象徴的です。AWS、Microsoft、Google、Cisco、CrowdStrike、NVIDIA、Linux Foundationなど、インフラとセキュリティの中心にいる組織が名を連ねています。これは単独企業の機能追加ではなく、業界全体で防御の工程を作り直そうとしている動きです。AIを一社の製品機能として閉じず、重要インフラの点検手段として共有する。ここに今回の本質があります。
何が変わるのか
最初の変化は、脆弱性発見の速度です。従来は熟練の研究者が時間をかけて見つけていた欠陥を、AIが短時間で洗い出せるようになります。Anthropicは、Mythos Previewが多くのゼロデイを自律的に見つけたと説明しています。ゼロデイとは、まだ開発者も知らない未修正の欠陥です。これが大量に見つかるなら、パッチの優先順位付けも変わります。
次の変化は、修正までの流れです。AIが欠陥を見つけたあと、そのまま修正案や再現手順の整理まで進めるなら、セキュリティチームは「調べる作業」を減らせます。人間は判断に集中できます。これは単なる自動化ではなく、調査、再現、修正、検証の分業を組み替える動きです。
実務での使いどころ
企業側がまず使うべきなのは、攻撃の再現ではなく防御の棚卸しです。たとえば次の用途が現実的です。
- 重要コードベースの脆弱性スキャン
- 依存ライブラリの安全確認
- パッチ後の再検証
- セキュリティレビューの補助
- インシデント対応時の仮説整理
ここで大事なのは、AIの出力をそのまま信じないことです。高性能なモデルほど、再現性の検証と監査ログが必要になります。特にセキュリティ用途では、「AIがそう言ったから」で終わらせると危険です。検証環境、権限分離、操作履歴の保存は必須です。
既存のセキュリティ運用との違い
従来のセキュリティ運用は、脆弱性診断、手動レビュー、ルールベースの検知を積み重ねる形でした。Project Glasswingが示すのは、その上に「推論する攻撃者と防御者の両方を模倣できるAI」を置く発想です。これにより、検出ルールを待つのではなく、未知の弱点を先に探しにいけます。
一方で、境界はより厳しくなります。攻撃にも使える能力を持つ以上、利用範囲の制限、アクセス管理、研究利用の範囲、外部公開のタイミングが重要です。セキュリティ強化のためのAIが、そのまま攻撃能力の増幅装置にもなるからです。ここを曖昧にすると、導入は逆効果になります。
まとめ
Project Glasswingは、AIセキュリティの話ではなく、AI時代の防御体制をどう組み直すかという話です。Claude Mythos Previewは、コード生成モデルの延長線上にある強力な防御支援エンジンとして位置づけられています。重要なのは、能力の高さそのものより、その能力をどの権限で、どの監査の下で、どの目的に使うかです。
今後の焦点は、AIが脆弱性を見つけるかどうかではありません。見つけたあとに、誰が、どれだけ早く、どの範囲まで安全に修正できるかです。