生成AIの普及で、データセンターの電力消費が世界的な課題になっています。国際エネルギー機関(IEA)の試算では、2026年のデータセンター電力消費量は2022年比で2.2倍の約1,000 TWhに達する見通しです。この問題に対して、AIモデルそのものを圧縮するというアプローチで挑むスペイン発のスタートアップが注目を集めています。

この記事でわかること:

  • なぜAIデータセンターの電力消費が問題になっているか
  • Multiverse ComputingのCompactifAIがどのようにLLMを圧縮するか
  • 丸紅との提携で日本企業が使えるようになる背景
  • 従来の圧縮技術との違い

AIデータセンターが抱える電力の壁

ChatGPTをはじめとする大規模言語モデル(LLM)を企業が使うとき、計算処理はクラウドやデータセンター上のGPUクラスタで行われます。LLMの推論処理は計算量が多く、1回の応答生成でも大量の電力を消費します。モデルが大きくなるほど、消費電力とインフラコストは比例して増加します。

この電力問題を根本から解決しようとしているのが、スペインのスタートアップMultiverse Computingです。同社が開発したCompactifAIは、LLMのサイズを最大95%圧縮しながら、精度の低下を2〜3%に抑える技術です。

量子インスパイアードなテンソルネットワーク圧縮

CompactifAIが使う手法は、テンソルネットワーク(Tensor Network)と呼ばれる量子物理学に着想を得たアプローチです。同社の共同創業者でCSOのRomán Orús氏がこの分野の開拓者であり、彼の研究が製品の中核を成しています。

圧縮の仕組みは3ステップで構成されます。まず、LLMの自己注意機構(Self-Attention)と多層パーセプトロン(MLP)の重み行列をテンソルネットワーク形式に「テンソル化」します。次に、ネットワーク内に存在する大量の「余分な相関(spurious correlations)」をカットしてモデルを軽量化します。最後に、残ったパラメータを再学習(ヒーリング)して精度を回復させます。

この処理によって生成された圧縮モデルは、元の精度を保ちながら推論速度が4〜12倍に向上し、インフラコストを50〜80%削減します。クラウドやプライベートデータセンターだけでなく、超圧縮版ではRaspberry PiやスマートフォンでのLLM実行も可能です。

従来手法との違い

LLMの軽量化には従来から2つの手法が使われてきました。「量子化(Quantization)」はパラメータの数値精度を落として圧縮し、「プルーニング(Pruning)」は重要度の低いパラメータを削除します。どちらも導入コストが低い反面、圧縮率を高めると精度が大幅に低下するという問題がありました。

CompactifAIは、モデルの内部構造をテンソルネットワークとして解析し直すことで、精度に影響の少ない相関のみを削除します。Llama 3.1 8BとLlama 3.3 70Bで検証した結果では、パラメータ数を60%削減した状態でエネルギー効率が84%改善し、推論速度が40%向上しています(参考)。

現在、Llama、DeepSeek、Mistralの圧縮済みモデルが提供されており、順次対応モデルが追加される予定です。

丸紅による日本展開

2026年4月、総合商社の丸紅がMultiverse Computingと提携し、CompactifAIを活用したデータセンター向けサービスの提供を日本で開始しました。OpenAIやAnthropicといったAI企業のモデルを企業がデータセンターで利用する際の電力消費を最大8割削減することを目標としています。日本企業の生成AI活用を後押しする取り組みとして位置づけられています。

Multiverse Computingは2025年6月に1億8,900万ユーロ(約215億円)のシリーズBを調達し、HP Tech Ventures、東芝、Bullhound Capitalなどが出資しています。これまでの累計調達額は約2億5,000万ドルに達します。スペイン国内では2024年にDigitalEuropeの「Future Unicorn」賞を受賞しており、IberdroltやBosch、カナダ銀行など100社以上の顧客を持ちます。

AIインフラの効率化という方向性

AIの電力問題への対応策はこれまで、原子力発電所の再稼働やデータセンターの冷却効率改善が中心でした。CompactifAIが示す方向性は、AIモデル自体を軽量化することで「必要な電力そのものを減らす」というものです。

モデルの精度をほぼ維持したまま電力消費を大幅に下げられるなら、インフラへの設備投資を抑えつつAI活用を拡大できます。日本でも電力不足とデータセンターのキャパシティ問題が顕在化しているなか、この技術が一つの解決策になるか注目されます。