新しいオープンソースAIエージェント「Hermes」は、エージェント開発において最も退屈な2つの作業(スキルの作成とユーザー固有のメモリ)を自動化することで、GitHubで22,000以上のスターを獲得しました。
戻る
新しいオープンソースAIエージェント「Hermes」は、エージェント開発において最も退屈な2つの作業(スキルの作成とユーザー固有のメモリ)を自動化することで、GitHubで22,000以上のスターを獲得しました。

(P1) 新しいAIエージェントフレームワークである「Hermes Agent」が、数週間にわたりGitHubのトレンドリストで首位を獲得し、22,000以上のスターを蓄積して、前身であるOpenClawの支配力を脅かしています。どちらのエージェントも機能的には類似しているように見えますが、Hermesは完全自動化という過激な哲学を導入しており、業界に新たな方向性を提示しています。これにより、価値提案を開発ツールから自律的なパートナーへと押し上げています。
(P2) Hermesの自己進化型スキルシステムの技術的核となるのは、Lakshya Agrawal氏らによるICLR 2026の論文で詳述されたGenetic-Pareto Prompt Evolution(GEPA)アルゴリズムです。論文は「リフレクティブ(内省的)なプロンプトの進化は強化学習を凌駕しうる」と主張しており、従来のRL(強化学習)ベースのスキル強化から脱却したHermesのアカデミックな裏付けとなっています。
(P3) Hermesの差別化は、2つの主要な自動化システムによってもたらされます。第一に、自己進化型スキルシステムは、ツールが5回以上使用されるかエラーが回復された際に、バックグラウンドで新しいワークフローを生成します。これらのスキルは、その後GEPAアルゴリズムを使用してオフラインで最適化されます。第二に、プロアクティブなメモリシステムは、15回の会話ターンごとに「ナッジ(促し)」メカニズムを使用して、ユーザーの好みを積極的に反映・保存します。これは、コンテキストのオーバーフローを防ぐためだけに受動的にメモリを保存するOpenClawとは対照的です。
(P4) Hermesの急速な台頭は、250億ドル規模のAI開発市場における潜在的なパラダイムシフトを示唆しています。その成功は、手動設定を減らし、積極的に学習するエージェントに対する開発者の強い欲求を物語っています。これにより、有望なオープンソースプロジェクトを巡るM&A活動が加速し、Hermesの機能を模倣したと公に指摘されたAnthropicのような既存の大手企業も、より自動化されたユーザー中心の設計哲学の採用を余儀なくされる可能性があります。
Hermesとライバルたちの最も重要な構造的違いは、自動的なスキル進化のためのクローズドループシステムにあります。OpenClawがユーザーに新しいスキルの手動作成、インストール、承認を求めるのに対し、Hermesはこのプロセスを完全に自動化します。システムは、5回以上のツール呼び出しを伴う成功したワークフローを、新しいスキルファイルとして密かにパッケージ化します。
その後、hermes-agent-self-evolutionリポジトリで詳述されている独立したオフラインプロセスが、DSPyフレームワークとGEPAアルゴリズムを使用してこれらのスキルを洗練させます。このアルゴリズムは、3つのコンセプトに基づいています。モデルが実行トレースを分析してピンポイントで変更を加える「リフレクティブ・ミューテーション(内省的変異)」、多様な高性能スキルのバリエーションを保持する「パレート・フロンティア選択」、そして自然言語によるフィードバックを主な変異シグナルとして使用することです。このプロセスは人間がレビューするためのプルリクエストを生成し、ヒューマン・イン・ザ・ループ(人間による介在)がエージェントの中核機能に対する最終的な制御を維持することを保証します。これは、ユーザーの監視なしでシステムが動作するという神話を打破するものです。
Hermesの第二の革新は、攻撃的かつプロアクティブなメモリシステムです。Claude Codeのような競合他社がメモリシステムを単一のプロジェクトに厳格に隔離し、OpenClawがコンテキストウィンドウが溢れる直前に受動的にメモリを保存するのに対し、Hermesは異なるアプローチを取ります。約15ターンの会話ごとに「ナッジ」メカニズムが働き、エージェントに対話を振り返らせ、ユーザーの好みや事実を恒久的に記憶する価値があるかどうかを判断させます。
この高頻度で能動的なアプローチにより、時間の経過とともにより豊かなユーザーモデルが構築されます。さらに、システムは組み込みのSQLite FTS5全文検索機能によって強化されており、エージェントは外部のベクトルデータベースに頼ることなく、過去の対話を即座に呼び出すことができます。初期のバージョンではAIネイティブなメモリバックエンドであるHonchoがデフォルトでしたが、v0.7アップデートではこれをオプションのプラグインとし、よりシンプルな組み込みシステムの安定性を優先し、ユーザーにさらなる制御権を与えました。
Hermesの自動化は、柔軟なモデルベースの判断を決定論的なハードコードされたルールに置き換えることで実現されています。システムの複雑さは解消されたのではなく、ユーザーの責任からエージェントの基礎となるコードへと移されたのです。スキルの生成タイミング(5回のツール呼び出し)やメモリの内省タイミング(15ターン)といった決定は、LLMの推論ではなく、厳格な if-then ロジックによって支配されています。
この設計上の選択は、ロングコンテキストの管理における現在のLLMの限界に対する、現実的なエンジニアリングの解決策です。研究では、長いコンテキストではパフォーマンスが39%以上低下する可能性があることが示されています。会話がコンテキスト制限の85%に達すると、Hermesは欠陥のあるAI生成サマリーのリスクを冒すのではなく、単純な文字列置換を使用して圧縮を行います。この保守的でルールベースのアプローチは安定性と予測可能性を保証するものであり、Hermesの作成者は、これが完全に自律的だが信頼性の低いLLMの脆弱なパフォーマンスよりも、ユーザーにとって価値があると賭けています。戦略は、今エコシステムを確立し、モデルの改善を待って安全に自動化できる範囲を徐々に広げていくことです。
本記事は情報提供のみを目的としており、投資勧誘を目的としたものではありません。