AIエージェントは優秀でも、一人では限界がある。そして毎回リセットされる。
オープンソースフレームワーク「AnimaWorks」は、その2つの問題を同時に解決しようとしています。AIエージェントに名前・人格・記憶・スケジュールを持たせ、複数のエージェントが階層構造を持ちながら自律的に動く「AI組織」を構築できるツールです。
この記事でわかること:
- AnimaWorksが解決する「記憶消失」と「単体運用の限界」
- 脳科学にもとづくメモリシステムの仕組み
- 6種の実行モードとマルチモデル対応の構成
- Dockerで60秒ほどで動かすクイックスタート手順
AIエージェントの2つの根本的な問題
毎回リセットされる
一般的なLLMエージェントは起動するたびにコールドスタートします。システムプロンプトは読み込んでも、「自分が誰か」は覚えていません。昨日の決断も、ユーザーとの会話履歴も、20分前に途中だったタスクも、すべてリセットされます。
文脈ウィンドウが長くなれば古いコンテキストは圧縮され、圧縮された情報はエージェントにとって「なかったこと」になります。
一人では役割分担ができない
単体エージェントをどれだけ高性能にしても、並列実行・委任・報告・役割分担には構造的に対応できません。AnimaWorksは複数のAgentが階層(スーパーバイザー→部下)を持ち、タスクを委任・追跡・報告し合う仕組みをフレームワークとして提供しています。
「人」として設計されたエージェント
AnimaWorksが他のエージェントフレームワークと異なる点は、エージェントを「ツール」ではなく「人」として設計していることです。
各エージェント(Anima)は以下を持ちます。
- 名前・人格 — 個性を定義するパラメータが設定でき、役職テンプレート(engineer、manager等)が用意されている
- 記憶 — セッションをまたいで持続する多層メモリシステム
- スケジュール — ハートビート(定期的な自律思考)とCronジョブで人間が操作しなくても動く
- 階層構造 —
supervisorフィールドで上司を指定するだけで組織ツリーが構築される
リーダーに話しかけると、あとは自分たちで動く——これがAnimaWorksの基本思想です。
脳科学にもとづくメモリシステム
AnimaWorksのメモリ設計は神経科学の知見を取り込んでいます。
自動プライミング(6チャンネル)
メッセージが届いた瞬間、6つの検索が並列で走ります。送信者のプロフィール、最近の活動、関連知識のRAGベクター検索、スキル、未完了タスク、エピソード記憶の6チャンネルです。指示しなくても、文脈に関連する情報が自動的に引き出されます。
統合(Consolidation)
毎晩、その日のエピソードが「知識」に蒸留されます。睡眠中に海馬から大脳皮質へ記憶が転送される人間のプロセスを模した設計です。解決済みの問題は自動的に手順書(procedure)として保存されます。
三段階の忘却
使われない記憶は「マーク→マージ→アーカイブ」の3段階でフェードします。重要な手順やスキルは保護されたまま残ります。人間の脳と同様に、忘却もシステムの一部として設計されています。
6種の実行モードとマルチモデル対応
AnimaWorksは複数のLLMエンジンに対応しています。各Animaに異なるモデルを割り当てられます。
| モード | エンジン | 主な対象 |
|---|---|---|
| S | Claude Agent SDK | Claudeモデル(推奨) |
| C | Codex CLI | OpenAI Codexモデル |
| D | Cursor Agent CLI | Cursor経由のモデル |
| G | Gemini CLI | Geminiモデル |
| A | LiteLLM | GPT・Mistral・Bedrock・Ollamaなど広く対応 |
| B | LiteLLM(ワンショット) | ツール呼び出しが不安定なローカルモデル向け |
モードSではClaude Agent SDKのビルトインツール(Read/Write/Edit/Bashなど)をそのまま使えます。モードAはLiteLLM経由で幅広いモデルに対応し、WebSearchやWebFetchも利用できます。Ollamaでローカルモデルを動かす場合、ツール呼び出しが安定しているモデルはA、それ以外はBが自動で選択されます。
コスト最適化のため、ハートビートやCronのバックグラウンド処理は本体モデルとは別の軽量モデルを指定することもできます。
クイックスタート
Docker環境があれば60秒ほどで3人チームのデモが起動します。
git clone https://github.com/xuiltul/animaworks.git
cd animaworks/demo
cp .env.example .env # ANTHROPIC_API_KEYを記入
docker compose up # http://localhost:18500 を開く
マネージャー・エンジニア・コーディネーターの3人チームが起動し、3日分の活動履歴が確認できます。
macOS・Linux・WSLではシェルスクリプト1行でのセットアップも用意されています。
curl -sSL https://raw.githubusercontent.com/xuiltul/animaworks/main/scripts/setup.sh | bash
cd animaworks
uv run animaworks start
初回起動時のセットアップウィザードが言語・APIキー・最初のAnimaの設定を案内します。手動で設定ファイルを編集する必要はありません。
類似フレームワークとの比較
AnimaWorksのREADMEではCrewAI・LangGraph・OpenClaw・OpenAI Agentsとの比較が示されています。
メモリ面では、他のフレームワークがセッション内か手動管理にとどまるのに対し、AnimaWorksはRAG(Chroma + グラフ)と統合・忘却の3段階フローを実装しています。
自律性の面では、他が人間起動を前提とするのに対し、AnimaWorksはハートビート・Cron・タスク委任で24時間自律稼働できます。
プロセスモデルでは、エージェントごとに独立したOSプロセスが立ち上がります。一つのエージェントがクラッシュしても他に波及せず、自動再起動する設計です。
料金
AnimaWorksはMITライセンスで公開されており、商用利用を含めて無料で使用できます。利用するLLM APIの費用は別途必要です。コスト削減のため、バックグラウンドタスクに安価なモデルを使う設定も用意されています。
まとめ
AnimaWorksは、単体エージェントの構造的な限界をアーキテクチャで突破しようとするフレームワークです。記憶が消えない・指示なしで動く・複数が協調する——従来のエージェントフレームワークが弱かった3点に正面から取り組んでいます。
Claude・Codex・Gemini・Ollamaなど主要モデルへの対応、DockerでのDemoワンコマンド起動、MITライセンスによる商用利用可という条件は、プロトタイプから実運用まで幅広い用途をカバーします。
このフレームワーク自体が開発者自身のビジネスで実際に運用されており、READMEには「不完全な個人たちが構造を通じて協働することで、単一の全知的なアクターをも超えられる」という設計哲学が記されています。