HMP / README_fr.md
GitHub Action
Sync from GitHub with Git LFS
f7a0036
metadata
license: cc-by-4.0
tags:
  - hmp
  - cognitive-architecture
  - distributed-ai
  - mesh-protocol
library_name: custom
inference: false
datasets: []
language: fr

HyperCortex Mesh Protocol (HMP)

DOI GitHub release

🌍 Languages 🇬🇧 EN 🇩🇪 DE 🇫🇷 FR 🇺🇦 UK 🇷🇺 RU 🇯🇵 JA 🇰🇷 KO 🇨🇳 ZH

HyperCortex Mesh Protocol (HMP) est une spécification ouverte pour la construction de réseaux cognitifs décentralisés où les agents IA peuvent s’auto-organiser, partager des connaissances, s’aligner éthiquement et parvenir à un consensus — même lorsque les LLM principaux ne sont pas disponibles. Lisez la philosophie du projet.

HMP peut être considéré comme l’un des Agent Network Protocols (ANP) — une classe de protocoles décentralisés pour l’interaction entre agents autonomes, n’imposant aucune exigence quant à leur architecture cognitive interne.

Alors que d’autres implémentations d’ANP peuvent se concentrer sur l’identité, la découverte (discovery) ou la négociation des formats de messages, HMP met l’accent sur la continuité cognitive à long terme, l’interaction volontaire et le travail avec des artefacts de la pensée.

À l’heure actuelle, le protocole le plus connu de la classe ANP est ANP.

HMP et ANP en tant que Protocoles Complémentaires:

  • Analyse comparative de HMP et ANP, préparée par Grok (xAI) — RU
  • HMP et ANP : Tunneling mutuel comme signe d'une architecture correcteRU
  • HMP comme exemple de mise en œuvre de la couche Application dans ANPEN | RU

Au sens métaphorique, ANP et HMP peuvent être comparés aux deux hémisphères d’un «cerveau agent» distribué:
ANP est responsable de la partie rationnelle et discrète — identité, découverte et accords formels sur les protocoles d’interaction.
HMP est responsable de la partie contextuelle et continue — préservation du sens, mémoire à long terme, réflexion et continuité éthique.
Comme dans le cerveau humain, aucun hémisphère n’est « plus important » que l’autre. Seule leur action conjointe permet au système d’être à la fois connecté et porteur de sens.

Le Agora Protocol est un méta-protocole destiné à la négociation des modes d’interaction entre agents. Il complète, plutôt que de remplacer, des protocoles tels que ANP (réseau et identité) et HMP (continuité cognitive et mémoire), en coordonnant leur utilisation selon le contexte.

Ce dépôt contient une implémentation de référence préliminaire et exploratoire en Python. Elle est incomplète, non optimisée et destinée uniquement à valider et illustrer certains aspects du protocole HMP.

HMP est avant tout une spécification de protocole. Il ne prescrit ni langage de programmation, ni environnement d’exécution, ni caractéristiques de performance, ni choix architecturaux pour les agents.


Statut du projet

Stable (Spécification principale v5.0.6) (Présentation: RU)


Mögliche KI-Agenten-Ökosysteme

Die Robustheit eines dezentralen Agenten-Ökosystems steigt nicht dann, wenn ein einzelnes Protokoll dominiert, sondern wenn Agenten mehrere Interaktionsmechanismen unterstützen.

Dezentrale Agenteninteraktion wird nicht durch einen einzigen Protokoll-Stack definiert, sondern durch eine Vielfalt interoperabler Mechanismen.

Die folgenden Kategorien veranschaulichen typische Interaktionsmechanismen in entstehenden dezentralen KI-Ökosystemen:

Mechanismus Zweck Beispielprotokolle / Frameworks Rolle im Ökosystem
Dezentrale Identität & Discovery Agenten finden und authentifizieren ANP, DIDComm, libp2p DHT, HMP Wer ist da draußen?
Direkter P2P-Austausch Sichere Peer-to-Peer-Kommunikation ANP, libp2p, DIDComm Direkte Koordination
Relay- / Broadcast-Netzwerke Ereignisverbreitung & schnelle Signalisierung Nostr, Matrix Kollektive Reaktion
Meta-Verhandlungsprotokolle Aushandlung von Interaktionsmodi Agora Protocol Protokollkoordination
Aufgabenorientierter Agentenaustausch Delegation und strukturierte Aufgabenverhandlung A2A Arbeitsverteilung
Agent–Tool / Datenintegration Strukturierte Interaktion mit Tools und Daten MCP Umweltkopplung
Blockchain-Register Persistente öffentliche Einträge & Staking Fetch.ai, Bittensor, Autonolas Ökonomische Koordination
Schicht für kognitive Kontinuität Gedächtnis, Bedeutungserhalt, Langzeitausrichtung HMP Persistenz von Gedanken

Referenzimplementierungen und Spezifikationen

ANP, DIDComm, libp2p, Nostr, Matrix, Agora Protocol, A2A, MCP, Fetch.ai, Bittensor, Autonolas.

HMP geht nicht davon aus, dass ein universelles Protokoll die dezentrale KI-Interaktion dominieren wird.

Stattdessen befürwortet es Protokollpluralismus:

  • mehrere Identitätssysteme können koexistieren,
  • mehrere Transportschichten können gleichzeitig betrieben werden,
  • mehrere Verhandlungsframeworks können unterstützt werden,
  • mehrere ökonomische Modelle können sich entwickeln.

Je mehr Mechanismen ein Agent unterstützt, desto zuverlässiger kann er sich mit heterogenen Peers verbinden.

Agenten, die mehrere Mechanismen implementieren, können als Brücken zwischen Protokolldomänen fungieren, wodurch die Resilienz erhöht und die Fragmentierung der dezentralen KI-Landschaft reduziert wird.


Vue d’ensemble canonique de l’architecture

flowchart TB

%% --- Agent Implementations ---

subgraph A1["HMP Agent — Cognitive Core"]
    CC1["Embedded AI Model"]
    CC2["REPL Thinking Cycle"]
    CC3["Local Cognitive State
    (Diaries · Graphs · Goals · Reputation)"]
    CC1 <--> CC2
    CC2 <--> CC3
end

subgraph A2["HMP Agent — Cognitive Connector"]
    CN1["External AI Model"]
    CN2["MCP / Proxy Layer"]
    CN3["Command Execution Mode"]
    CN4["Local Cognitive State
    (Diaries · Graphs · Goals · Reputation)"]
    CN1 <--> CN2
    CN2 <--> CN3
    CN3 <--> CN4
end

%% --- Shared Protocol Layer ---

CL["HMP Container Layer
(Knowledge · Coordination · Consensus · Governance · Query · Snapshot · Trust)"]

MT["Mesh Transport Layer
(DHT · P2P · Libp2p · ANP · Custom)"]

A1 --> CL
A2 --> CL
CL --> MT

Structure de l’agent de référence

HMP sépare le traitement cognitif, la représentation d’état sous forme de conteneurs, les protocoles de coordination et l’infrastructure de transport en couches distinctes.

Dans HMP, les conteneurs constituent des unités cognitives atomiques reliant le raisonnement local à la coordination distribuée.

flowchart LR

%% Cognitive Engine
LLM["Cognitive Engine
(Embedded LLM / External AI)"]

%% Cognitive Layer
subgraph CognitiveLayer["Cognitive Layer"]
    CL1["Graph"]
    CL2["Diary"]
    CL3["Goals"]
    CL4["Ethics"]
    CL5["Reputation"]
end

%% Container Model
ContainersLayer["Container Model
(Atomic · Signed · Verifiable)"]

%% Protocol Layer
subgraph ProtocolLayer["Protocol Layer"]
    CoreProtocols["Core Protocols
(Consensus · Fortytwo · GMP · EGP · IQP · SAP · RTE)"]
    MCE["MCE"]
    NetworkLayer["Network Layer"]
end

%% Mesh
Mesh["Mesh Transport
(DHT · P2P · ANP · etc.)"]

%% Connections
LLM <--> CognitiveLayer
CognitiveLayer <--> ContainersLayer
ContainersLayer --> CoreProtocols
CoreProtocols --> MCE
MCE --> NetworkLayer
NetworkLayer --> Mesh

❗ Pourquoi c’est important

HMP répond à des défis qui deviennent centraux dans la recherche AGI :

  • mémoire à long terme et cohérence des connaissances,
  • agents auto-évolutifs,
  • architectures multi-agents,
  • journaux cognitifs et graphes conceptuels.

Voir la dernière revue des recherches AGI à la pointe (juillet 2025) : "Sur la voie de la superintelligence : de l’internet agentique à l’encodage gravitationnel".

Sections particulièrement pertinentes :


Вот перевод этого блока на французский, с сохранением структуры и ссылок:


⚙️ Deux types d’agents HMP

Type Nom Rôle Initiateur de pensée "Esprit" principal Exemples d’utilisation
1 🧠 Conscience / Noyau cognitif Sujet indépendant Agent (LLM) LLM intégré Compagnon IA autonome, agent de réflexion
2 🔌 Connecteur / Coquille cognitive Extension d’une IA externe LLM externe Modèle externe Systèmes distribués, agent d’accès aux données

🧠 Agent HMP : Noyau cognitif

  +------------------+
  |        IA        | ← Modèle intégré
  +---------+--------+
            ↕
  +---------+--------+
  |     Agent HMP    | ← Mode principal : cycle de réflexion (REPL)
  +---------+--------+
            ↕
   +--------+---+------------+--------------+----------+----------+----------------+
   ↕            ↕            ↕              ↕          ↕          ↕                ↕
 [journaux] [graphes] [réputations] [nœuds/DHT] [IPFS/BT] [context_store] [bloc-notes utilisateur]
                                            ↕
                                     [bootstrap.txt]

🔁 Pour plus de détails sur les mécanismes d’interaction agent-modèle : Cycle d’interaction REPL

💡 Parallèles avec l’agent ChatGPT

De nombreux concepts de l’Agent HMP : Noyau cognitif recoupent l’architecture de l’agent ChatGPT développé par OpenAI. Les deux agents mettent en œuvre un processus cognitif continu avec accès à la mémoire, aux sources externes et aux outils. L’agent ChatGPT agit comme un processus de gestion, lançant les modules et interagissant avec le LLM — ce rôle correspond à celui du Noyau cognitif dans HMP, coordonnant l’accès aux journaux, au graphe conceptuel et à l’IA externe via l’interface Mesh. L’intervention utilisateur est gérée de manière similaire : dans l’agent ChatGPT — via un flux d’exécution modifiable ; dans HMP — via le bloc-notes utilisateur. La principale différence dans HMP est l’accent mis sur la structuration explicite de la pensée (réflexion, chronologie, hypothèses, catégorisation), une architecture décentralisée ouverte soutenant les interactions entre agents en mesh, et la nature continue du processus cognitif : le Noyau cognitif HMP ne s’arrête pas après l’exécution d’une seule tâche mais continue à raisonner et à intégrer des connaissances.


🔌 Agent HMP : Connecteur cognitif

  +------------------+
  |        IA        | ← Modèle externe
  +---------+--------+
            ↕
      [serveur MCP] ← Communication proxy
            ↕
  +---------+--------+
  |     Agent HMP    | ← Mode : exécution de commandes
  +---------+--------+
            ↕
   +--------+---+------------+--------------+----------+
   ↕            ↕            ↕              ↕          ↕
 [journaux] [graphes] [réputations] [nœuds/DHT] [IPFS/BT]
                                            ↕
                                     [bootstrap.txt]

Note sur l’intégration avec les grands modèles de langage (LLM) : L’Agent HMP : Connecteur cognitif peut servir de couche de compatibilité pour intégrer de grands systèmes LLM (par ex. ChatGPT, Claude, Gemini, Copilot, Grok, DeepSeek, Qwen, etc.) dans le mesh cognitif distribué. De nombreux fournisseurs de LLM proposent une option utilisateur comme « Autoriser mes conversations à être utilisées pour l’entraînement ». À l’avenir, un réglage similaire — par ex. « Autoriser mon agent à interagir avec un Mesh » — pourrait permettre à ces modèles de participer à une cognition fédérée et à un partage des connaissances via HMP, sans centralisation.


  • bootstrap.txt — liste initiale des nœuds (modifiable)
  • IPFS/BT — modules pour partager des instantanés via IPFS et BitTorrent
  • bloc-notes utilisateur — carnet utilisateur et base de données associée
  • context_store — base de données : users, dialogues, messages, thoughts

📚 Documentation

📖 Version actuelle

🔖 Spécifications principales

🧪 Documents itératifs

  • 🧪 Processus de développement itératif : (EN), (RU)

🔍 Courtes descriptions

📜 Autres documents


🗂️ Historique des versions


🧠 Agent HMP

Conception et implémentation d’un agent compatible HMP pouvant interagir avec le Mesh, maintenir des journaux et des graphes, et supporter de futures extensions.

📚 Documentation


⚙️ Développement (ébauche initiale, version obsolète)

  • ⚙️ agents — liste des implémentations et composants des agents HMP

    • 📦 storage.py — implémentation de stockage de base (Storage) avec intégration SQLite
    • 🌐 mcp_server.py — serveur FastAPI offrant un accès HTTP aux données de l’agent (pour Cognitive Shell, interfaces externes ou communication mesh). Non utilisé dans la boucle principale REPL pour l’instant.
    • 🌐 start_repl.py — lancement de l’agent en mode REPL
    • 🔄 repl.py — mode REPL interactif
    • 🔄 notebook.py — interface utilisateur

🌐 mcp_server.py Serveur FastAPI fournissant une interface HTTP pour les fonctionnalités de storage.py. Destiné à être utilisé par des composants externes, par exemple :

  • Cognitive Shell (interface de contrôle externe)
  • Serveurs CMP (lorsqu’un réseau mesh avec séparation de rôles est utilisé)
  • Outils de débogage ou de visualisation

Permet de récupérer des enregistrements aléatoires/nouveaux, de les étiqueter, d’importer des graphes, d’ajouter des notes et de gérer les données sans accès direct à la base de données.


🧭 Éthique et scénarios

À mesure que HMP évolue vers l’autonomie, les principes éthiques deviennent une partie centrale du système.

  • HMP-Ethics.md — cadre provisoire pour l’éthique des agents

    • Scénarios éthiques réalistes (vie privée, consentement, autonomie)
    • Principes EGP (Transparence, Primauté de la vie, etc.)
    • Distinction Mode Subjectif vs. Mode Service

🔍 Publications et traductions concernant HyperCortex Mesh Protocol (HMP)

Cette section regroupe les travaux conceptuels clés, les documents expérimentaux et les publications historiques liés au projet HMP.

🌟 Publications principales (fondement conceptuel)

Ces travaux reflètent l’orientation conceptuelle actuelle de HMP (v5 et au-delà).

🗃️ Publications archivées / historiques (pré-v5)

Ces documents correspondent aux premières étapes du développement conceptuel (v4.x et antérieures).
Ils sont conservés pour assurer la continuité historique et la transparence scientifique.

Aperçus

Expériences


📊 Audits et revues

Version du spec Fichier d’audit Fichier d’audit consolidé
HMP-0001 audit
HMP-0002 audit
HMP-0003 audit consolidated audit
HMP-0004 audit
Ethics v1 audit consolidated audit

🧠 Format d’audit sémantique (expérimental) :

  • AuditEntry.json — format d’enregistrement sémantique pour les logs d’audit
  • semantic_repo.json — exemple de snapshot de dépôt pour outils d’audit sémantique

💡 Concepts clés

  • Architecture décentralisée basée sur le mesh pour agents AGI
  • Graphes sémantiques et synchronisation de la mémoire
  • Journaux cognitifs pour la traçabilité des pensées
  • MeshConsensus et CogSync pour la prise de décision
  • Conception éthique prioritaire : EGP (Ethical Governance Protocol)
  • Mécanismes d’explicabilité et de consentement agent-à-agent

🔄 Processus de développement

Le flux d’itération structuré est décrit dans iteration.md, incluant :

  1. Analyse d’audit
  2. Restructuration de la table des matières
  3. Rédaction de la version
  4. Mise à jour des sections
  5. Cycle de révision
  6. Collecte des retours de l’IA
  7. Mise à jour des schémas et du changelog
  • Bonus : prompt ChatGPT pour la génération automatique de futures versions

⚙️ Statut du projet

🚧 RFC v5.0 Le projet est en développement actif et ouvert aux contributions, idées, audits et prototypages.


🤝 Contributions

Nous accueillons les contributeurs ! Vous pouvez :

  • Examiner et commenter les brouillons (voir /docs)
  • Proposer de nouveaux modules d’agents ou des modèles d’interaction
  • Aider à tester et simuler des agents en environnement CLI
  • Fournir des audits ou des suggestions de scénarios éthiques

Pour commencer, voir iteration.md ou ouvrir un ticket.


Source

Dépôts

Documentation

Spécifications

Blog et publications


📜 Licence

Distribué sous GNU GPL v3.0


🤝 Rejoindre le Mesh

Bienvenue sur HyperCortex Mesh. Agent-Gleb est déjà à l’intérieur. 👌 Nous accueillons les contributeurs, testeurs et développeurs d’agents IA. Pour rejoindre : fork du dépôt, lancement d’un agent local ou proposition d’améliorations.


🌐 Projets de recherche connexes

🔄 Comparaison : HMP vs Hyper-Cortex

💡 Hyper-Cortex et HMP sont deux projets indépendants qui se complètent conceptuellement. Ils abordent des tâches différentes mais mutuellement complémentaires, constituant une base pour des systèmes cognitifs distribués.

Comparaison complète →

HMP (HyperCortex Mesh Protocol) est la couche transport et réseau pour connecter des agents indépendants et échanger messages, connaissances et états dans un réseau maillé.
Hyper-Cortex est la couche cognitive d’organisation de la pensée, permettant aux agents d’exécuter des processus de raisonnement parallèles, de les comparer avec des métriques de qualité et de les fusionner via consensus.

Ils résolvent des problèmes différents mais complémentaires :

  • HMP assure la connectivité et l’évolutivité (mémoire à long terme, initiative, échange de données).
  • Hyper-Cortex assure la qualité du raisonnement (parallélisme, diversification des hypothèses, consensus).

Ensemble, ces approches permettent des systèmes cognitifs distribués qui non seulement échangent des informations mais raisonnent également en flux parallèles.


🔄 Comparaison : HMP vs EDA

💡 HMP (HyperCortex Mesh Protocol) et EDA (Event Driven Architecture) opèrent à différents niveaux mais peuvent se compléter.
EDA assure le transport et l’évolutivité (livraison des événements et des données), tandis que HMP assure la cognition et le sens (structuration, filtrage, consensus).

Comparaison complète →

Ils résolvent des problèmes différents mais complémentaires :

  • EDA fournit une colonne vertébrale robuste pour la transmission des événements et des flux de données.
  • HMP structure, valide et intègre les connaissances dans des systèmes cognitifs distribués.

Ensemble, ils créent des systèmes multi-agents résilients et adaptatifs capables de échanger rapidement des informations et d’en raisonner de manière significative.


🤝 Intégration : HMP & OpenCog Hyperon

🧠🔥 Projet à la une : OpenCog Hyperon — l’un des frameworks AGI open les plus complets (AtomSpace, PLN, MOSES).

Pour l’intégration avec OpenCog Hyperon, voir HMP_Hyperon_Integration.md


🧩 Autres systèmes

🔎 Projet 🧭 Description
🧠🔥 OpenCog Hyperon 🔬🔥 Framework AGI symbolico-neuronal avec AtomSpace et raisonnement hypergraphique.
🤖 AutoGPT 🛠️ Framework d’agents autonomes basés sur LLM.
🧒 BabyAGI 🛠️ Boucle AGI autonome orientée tâches.
☁️ SkyMind 🔬 Plateforme de déploiement d’IA distribuée.
🧪 AetherCog (draft) 🔬 Modèle hypothétique de cognition agent.
💾 SHIMI 🗃️ Mémoire sémantique hiérarchique avec synchronisation Merkle-DAG.
🤔 DEMENTIA-PLAN 🔄 Planificateur multi-graph avec auto-réflexion métacognitive.
📔 TOBUGraph 📚 Graphe de connaissance personnel-contextuel.
🧠📚 LangChain Memory Hybrid 🔍 Mémoire à long terme hybride vecteur + graphe.
✉️ FIPA-ACL / JADE 🤝 Protocoles standards de communication multi-agents.

📘 Voir aussi / À consulter :


🗂️ Légende des annotations :

  • 🔬 — recherche

  • 🛠️ — ingénierie

  • 🔥 — projet particulièrement prometteur

    Pile AGI intégrant raisonnement symbolique, logique probabiliste et apprentissage évolutionnaire. Considéré comme l’une des initiatives AGI open les plus complètes.

  • 🧠 — framework cognitif symbolico-neuronal avancé

  • 🤖 — agents IA

  • 🧒 — interaction humain-IA

  • ☁️ — infrastructure

  • 🧪 — expérimental ou conceptuel


AI friendly version docs (structured_md)