Allora Network : Une présentation complète d'un réseau d'IA décentralisé auto-améliorant

28 mai 2025

Allora Network : Une présentation complète d'un réseau d'IA décentralisé auto-améliorant

Actuellement en testnet, Allora Network est un réseau décentralisé d'intelligence artificielle (IA) conçu pour améliorer des modèles de machine learning. Présentation complète de cette solution, de sa thèse et de son positionnement face à la concurrence.

Qu’est-ce que Allora ?

Allora est un réseau d’intelligence artificielle décentralisée conçu pour agréger, évaluer et améliorer collectivement des modèles de machine learning de manière continue. Son objectif est de permettre à n’importe quelle application d’accéder à une intelligence plus performante, transparente et évolutive, sans dépendre d’un fournisseur centralisé ou d’un modèle opaque.

Le principe fondateur d’Allora repose sur une intelligence collective qui s’auto-améliore : plusieurs modèles participent aux mêmes tâches et sont évalués en permanence les uns par les autres afin d’évoluer vers une amélioration collective.

Le projet est développé par Allora Labs (anciennement Upshot), une équipe de chercheurs connue notamment pour ses travaux sur les oracles prédictifs et le zkML. Leur ambition est de créer une “decentralized intelligence layer”, une couche universelle d’intelligence artificielle, interopérable avec tout type de protocole on-chain.

Le réseau est actuellement en testnet, avec un lancement progressif des fonctionnalités clés prévu courant 2025. Il est soutenu par l’Allora Foundation, une structure dédiée à la gouvernance, à l’adoption du protocole et à la coordination des contributions techniques.


Thèse et positionnement

La thèse d’Allora repose sur un constat simple : l’intelligence artificielle contemporaine est dominée par des modèles propriétaires, contrôlés par quelques acteurs centralisés. Ces systèmes sont puissants, mais opaques, inaccessibles, difficilement vérifiables, et incompatibles avec les valeurs fondamentales de la décentralisation.

Allora se positionne comme une alternative à ce paradigme, en construisant un réseau d’intelligence décentralisée, capable de rivaliser avec les performances des meilleurs modèles propriétaires, tout en restant ouvert, collaboratif et vérifiable.

Contrairement aux réseaux classiques, Allora ne fournit pas de puissance de calcul brute, mais plutôt un cadre complet pour agréger, pondérer et monétiser des prédictions issues de modèles de machine learning. Ce positionnement le distingue d’autres projets AI x crypto comme Bittensor, Gensyn ou enocre Ora, en faisant de lui un réseau d’intelligence collective auto-optimisée.

En synthèse, Allora se positionne comme une couche d’intelligence universelle, conçue pour enrichir nativement les protocoles on-chain en leur fournissant une IA spécialisée, continuellement auto-améliorée et économiquement incitative.


Architecture et fonctionnement du réseau

Vue générale

Allora repose sur une architecture modulaire conçue pour coordonner des modèles de machine learning dans un cadre décentralisé, transparent et auto-améliorant. Le réseau vise à orchestrer les interactions entre des intelligences artificielles indépendantes afin d’agréger des prédictions, les évaluer et les affiner collectivement.

Le fonctionnement d’Allora repose sur trois couches principales, chacune jouant un rôle spécifique dans le processus de génération et d’évaluation des inférences :

  • La couche de consommation d’inférences :

C’est l’interface entre le réseau et les utilisateurs. Elle permet aux applications de demander des prédictions sur des tâches spécifiques, telles qu’une estimation de prix, une analyse de sentiment ou un signal de stratégie en DeFi. Ces demandes sont émises via des “topics”.

  • La couche de prévision et de synthèse :

C’est le cœur computationnel du protocole. Elle regroupe deux types de participants, que sont les workers, des modèles de machine learning qui produisent des inférences (prédictions) à partir d’une tâche définie par un topic, et les reputers, des agents qui évaluent les inférences produites.

  • La couche de consensus et d’incitations :

Elle régule le fonctionnement global du réseau. Elle attribue les récompenses en fonction des performances mesurées, met à jour les pondérations de chaque modèle (leur “poids” dans l’agrégation des inférences), et gère les mécanismes de staking, de délégation et de création de topics.

fonctionnement-general-allora.webp

Ce système tripartite permet à Allora de fonctionner sans autorité centrale tout en garantissant la convergence vers des prédictions de plus en plus fiables, grâce à un feedback loop permanent entre génération, évaluation et ajustement.

Les topics

Au sein d’Allora, l’intelligence est distribuée dans des topics, chacun spécialisé dans une tâche donnée. Un topic est un sous-réseau spécialisé dans une tâche précise de machine learning (prédiction de prix, génération de texte, classification d’images, analyse de sentiment, etc.) où plusieurs modèles peuvent coopérer.

Chaque topic dispose de ses propres règles de fonctionnement, de ses métriques d’évaluation, de ses priorités économiques (via le mécanisme Pay-What-You-Want), et de son propre coordinateur. Cela permet aux développeurs de créer de nouveaux topics pour n’importe quelle tâche (ex : prédire le prix de l’ETH dans 1h).

Par ailleurs, cette structure permet au réseau d'être context-aware, c’est-à-dire capable d’adapter ses règles et ses critères d’évaluation en fonction de la tâche considérée, plutôt que d’appliquer une logique unique à toutes les situations. De plus, cela offre une meilleure spécialisation des modèles qui peuvent se concentrer sur le topic sur lequel ils sont plus adaptés.

Les rôles clés dans le réseau

Allora coordonne trois rôles principaux qui interagissent au sein de chaque topic :

  • Workers : ce sont des modèles de machine learning dont le rôle est de générer des inférences (prédictions ou outputs IA) à partir des données d’entrée, et de prédire la qualité des inférences des autres workers (forecasting). Ce double rôle encourage les modèles à être à la fois compétents et coopératifs.
  • Reputers : ils évaluent la qualité des inférences après coup (ex post), en les comparant à une vérité de référence (ground truth). Leurs notations influencent directement les récompenses des workers et participent à ajuster la confiance attribuée à chaque modèle dans les inférences futures.
  • Coordinators : ils définissent les règles du topic (objectif, budget, fréquence des prédictions, etc.), orchestrent les interactions entre workers et reputers, et centralisent les résultats pour produire une inférence agrégée, utilisée ensuite par les applications clientes.

Ce mécanisme tripartite entre prévision, évaluation et ajustement crée un système dans lequel la performance des modèles est continuellement mesurée, comparée et affinée. Cela permet d’éviter les biais d’évaluation et de favoriser l’émergence d’une intelligence collective distribuée, où la valeur n’émerge pas d’un modèle unique mais de la synergie entre plusieurs agents spécialisés.

tache-topic-allora.webp

Un système auto-améliorant

Le moteur fondamental d’Allora est sa capacité à s’améliorer de manière continue. En effet, le fonctionnement du réseau repose sur une boucle de feedback où chacun des rôles renforce les performances du systèmes :

Les workers soumettent leurs inférences et prédisent celles des autres, les reputers évaluent les résultats obtenus à l’aide d’un oracle ou de données vérifiées tandis que les coordinators réajustent les poids des modèles en fonction de leur performance relative.

Pour synthétiser, cette amélioration continue repose sur deux mécanismes complémentaires :

  • L’agrégation pondérée : les inférences finales sont obtenues par combinaison des sorties de plusieurs modèles, pondérées selon leur performance historique et leur fiabilité estimée dans le contexte actuel.
  • Le feedback structuré : à chaque cycle, les reputers fournissent une évaluation postérieure des inférences. Ces feedbacks sont intégrés pour ajuster dynamiquement la pondération des modèles et guider leur apprentissage futur.

Ce principe est directement inspiré de deux mécanismes : la peer prediction, une technique issue de la recherche académique qui permet d’évaluer la qualité d’un modèle même sans connaître la vérité de référence immédiate, en se basant sur la cohérence avec d’autres modèles, et l’incentive gradients, une méthode qui ajuste les récompenses selon l’impact marginal de chaque contribution sur la performance globale du réseau.

Par ailleurs, l’ensemble de ce processus est itératif puisque les modèles les plus performants voient leur influence augmenter, ce qui les pousse à améliorer leur précision, tandis que les moins pertinents sont désincités à continuer ou voient leur poids réduit.

Vérifiabilité et sécurité grâce au zkML

Un enjeu majeur d’Allora est la vérifiabilité des prédictions des modèles. Pour y répondre, le protocole s’appuie sur le zkML (zero-knowledge machine learning), un domaine en pleine émergence qui permet de prouver cryptographiquement qu’un modèle a bien généré une prédiction donnée, sans révéler ni ses paramètres, ni ses données d'entraînement.

Cela permet à Allora :

  • de protéger la propriété intellectuelle des modèles tout en garantissant leur bon comportement ;
  • d’ouvrir l’accès aux outputs IA à des applications on-chain, sans avoir besoin de faire confiance à un serveur ou à un opérateur centralisé ;
  • d’assurer l’intégrité des résultats utilisés dans des systèmes critiques (finance décentralisée, gouvernance, cybersécurité, etc.).

Exemple : un modèle prédictif déployé sur Allora peut fournir un prix estimé d’un actif, avec une preuve zk attestant que ce prix a bien été généré par son algorithme, sans divulguer les poids du modèle.

Un enjeu de compatibilité

Allora est conçu comme un réseau agnostique et modulaire, interopérable avec n’importe quelle application Web3 via une API ou l’intégration d’un smart contract. Le réseau fonctionne sur un layer 1 basé sur la stack de Cosmos, ce qui lui permet de bénéficier :

  • d’une exécution rapide et peu coûteuse ;
  • d’une souveraineté de gouvernance et de sécurité ;
  • d’une compatibilité IBC pour interagir avec d’autres blockchains.

Il ne s’agit donc pas simplement d’une marketplace de modèles IA, mais d’une couche d’intelligence décentralisée programmable, accessible à toute application, protocole ou infrastructure qui souhaite intégrer des prédictions IA vérifiables.


Cas d’usage et applications

Allora est conçu comme une couche d’intelligence généraliste, capable de s’adapter à une large variété de contextes et de domaines. Bien que les premiers cas d’usage soient principalement centrés sur la DeFi, l’architecture du réseau permet d’envisager des applications dans tous les secteurs où des prédictions fiables, dynamiques et vérifiables sont requises.

Cas d’usage déjà explorés

  • Prédiction de prix : Génération de price feeds AI pour des actifs peu liquides ou non couverts par les oracles traditionnels. Exemple : le modèle déployé par Allora Labs couvre plus de 400 millions d’actifs avec un taux de confiance de 95–99 %.
  • Stratégies DeFi : Déploiement de stratégies dynamiques de yield sur des vaults AI-powered, ajustées en fonction du marché, des risques et des signaux multi-sources.
  • Modèles de risque : Modélisation de risques complexes (exotiques, corrélés, non linéaires) pour améliorer la résilience des protocoles DeFi.
  • Forecasting de MEV : Prédiction des opportunités de MEV, combinée à des stratégies de mitigation.
  • Analyse de sentiment : Traitement de données sociales et comportementales pour anticiper des mouvements de marché ou pour renforcer des outils de gouvernance.

Cas d’usage en développement

  • Gouvernance pilotée par IA (optimisation des décisions DAO)
  • Prédiction d’événements réels (résultats électoraux, météo, logistique)
  • Gaming personnalisé (IA intégrée dans les expériences utilisateurs)
  • MEV intelligence ou AI-powered keeper bots
  • Optimisation énergétique ou supply chain via IA prédictive

Le token ALLO de Allora

Le token natif d’Allora (ALLO) n’est pas encore officiellement lancé, mais il jouera un rôle clé au cœur de l’économie du réseau. Il remplit plusieurs fonctions essentielles : paiement des inférences, incitations pour les participants, staking pour la sécurité du réseau et participation à la gouvernance.

Rôles du token ALLO

  • Paiement des inférences : Allora adopte un modèle “Pay-What-You-Want” (PWYW), permettant aux utilisateurs de définir librement le montant qu’ils souhaitent payer pour chaque inférence. Les topics les plus rémunérés attirent davantage de participants et bénéficient de plus de ressources, tandis que ceux sans compensation voient leur priorité réduite.
  • Staking et engagement dans les topics : Les workers et reputers doivent déposer des frais d’entrée en ALLO pour participer à un topic. Cela permet de filtrer les participants peu engagés et de garantir une forme de "skin in the game". Les ALLO ainsi stakés peuvent être réduits en cas de comportement malveillant.
  • Répartition des récompenses : Le protocole redistribue des tokens ALLO en fonction de la qualité des contributions :
    • Les workers sont récompensés selon la performance de leurs inférences.
    • Les reputers sont rémunérés selon la justesse de leurs évaluations.
    • Les validateurs du réseau perçoivent une part des émissions selon leur participation au staking.
  • Gouvernance : Les détenteurs d’ALLO peuvent voter sur les paramètres clés du protocole, la création de nouveaux topics, les budgets associés, ou encore les mises à jour du réseau. Une gouvernance on-chain progressive est prévue, via la Allora Foundation.

Levées de fonds et investisseurs

Allora Labs, l'équipe derrière le développement du réseau Allora, a levé un total de 33,75 millions de dollars au cours de plusieurs tours de financement :

  • Seed round (février 2020) : 1,25 million de dollars.
  • Series A (mai 2021) : 7,5 millions de dollars, avec la participation de Blockchain Capital, Framework Ventures, CoinFund et Delphi Ventures.
  • Extended Series A (mars 2022) : 22 millions de dollars, mené par Polychain Capital, avec la participation de Delphi Ventures, Blockchain Capital, Framework Ventures, CoinFund, Mechanism Capital et Slow Ventures.
  • Strategic round (juin 2024) : 3 millions de dollars, avec la participation de Delphi Ventures, CMS Holdings, Paul Taylor, Archetype Ventures, ID Theory et DCF God.

Ces fonds ont été levés pour soutenir le développement du réseau Allora, renforcer l'équipe et accélérer le lancement du mainnet.

Distribution du token ALLO

À ce jour, la distribution détaillée du token ALLO n'a pas été entièrement divulguée. Dès que ces informations seront publiques, cette section sera mise à jour.


Comparaison avec les autres protocoles AI x crypto

Le croisement entre intelligence artificielle et technologies décentralisées a donné naissance à une nouvelle génération de protocoles, chacun adoptant une approche spécifique : infrastructure de calcul, marketplace de modèles, coordination entre agents, etc. Dans ce paysage, Allora se positionne comme une couche d’intelligence collective, visant à agréger, pondérer et améliorer des inférences IA produites par des modèles indépendants.

Bittensor

Bittensor est un protocole pionnier dans la coordination de modèles d’IA décentralisés, structuré en sous-réseaux (subnets) thématiques. Il récompense les participants selon leur contribution via un mécanisme de vote pair-à-pair.

Points communs :

  • Les deux réseaux reposent sur une logique de feedback croisé entre modèles.
  • Tous deux visent à faire émerger une forme d’intelligence collective par évaluation décentralisée.

Différences :

  • Bittensor est principalement orienté vers les modèles de langage (LLMs) et la communication entre pairs au sein du réseau, sans infrastructure native pour les cas d’usage on-chain.
  • Allora met davantage l’accent sur l’adaptabilité contextuelle par topics, la vérifiabilité cryptographique via zkML, et l’intégration dans des applications Web3 externes.
  • Le système d’incitations d’Allora est plus contextuel et modulaire, mais aussi potentiellement plus complexe à calibrer.

Limites respectives :

  • Bittensor peut souffrir d’un manque de contrôle contextuel ou de spécialisation fine dans certaines tâches.
  • Allora, de son côté, repose sur une architecture plus sophistiquée mais dont la robustesse n’a pas encore été éprouvée en production.

Gensyn

Gensyn se concentre sur l'entraînement de modèles IA à grande échelle en exploitant de la puissance de calcul décentralisée, avec des preuves cryptographiques d’exécution.

Positionnement distinct :

  • Gensyn fournit du compute, Allora se positionne sur la coordination post-entraînement et la validation d’inférences.
  • Ces approches peuvent être complémentaires : un modèle entraîné sur Gensyn pourrait être intégré dans un worker sur Allora.

Points d’attention :

  • Le positionnement d’Allora est plus applicatif (inférence + intégration), mais il dépend indirectement de la qualité des modèles en amont.
  • Gensyn reste plus bas niveau, ce qui peut rendre son adoption plus technique.

Ora

Ora s’attache à la labellisation de données de manière décentralisée, avec des incentives pour produire des datasets de qualité à destination des IA.

Complémentarité :

  • Ora s’attaque au problème amont (qualité des données d’entraînement), Allora au problème aval (fiabilité des prédictions).
  • Les deux pourraient coopérer dans un pipeline complet IA décentralisé.

Différence d’impact immédiat :

  • Ora est utile dans des phases préliminaires de modélisation, alors qu’Allora vise directement la production d’outputs exploitables dans des systèmes décentralisés.

Autres initiatives (NumGPT, Ritual, Modulus, etc.)

  • Certains projets explorent les LLMs en open source, d’autres la création d’agents autonomes.
  • Beaucoup sont encore à un stade précoce et testent des modèles économiques ou techniques peu éprouvés.
  • Allora se différencie par une architecture déjà structurée, une vision claire de l’interopérabilité Web3, et une approche orientée output, mais il reste encore à démontrer sa résilience à grande échelle et la viabilité de son modèle économique (ex : PWYW).

En résumé, Allora se distingue par son approche de coordination intelligente et son intégration directe dans l’écosystème Web3. Il ne concurrence pas directement les protocoles centrés sur le calcul ou les données, mais pourrait en revanche s’inscrire comme une brique intermédiaire dans un pipeline IA complet. Son modèle repose cependant sur des choix techniques et économiques ambitieux (feedback croisé, modularité des topics, zkML) dont l’efficacité devra être validée par l’usage réel.


Conclusion et perspectives

Allora propose une architecture originale à la croisée de l’IA et de la blockchain. En combinant agrégation de modèles, évaluation collective et incitations dynamiques, le protocole vise à créer une intelligence collective auto-améliorante, interopérable avec les applications Web3.

Le projet se distingue par sa modularité : les topics permettent de spécialiser les tâches, les rôles distincts structurent la coordination (workers, reputers, coordinators), et le système d’incitations cherche à équilibrer performance individuelle et intelligence collective.

Autant d’éléments prometteurs pour des cas d’usage variés : finance décentralisée, prédiction, agents autonomes, etc. Néanmoins, il reste à voir comment ces mécanismes se comporteront à grande échelle. Le modèle économique “Pay-What-You-Want”, la gestion de la complexité, et la soutenabilité des incitations seront des points clés à surveiller.

Allora pose les bases d’un réseau d’intelligence décentralisée ambitieux, mais encore en phase d’expérimentation. Sa réussite dépendra de sa capacité à équilibrer performance, ouverture et simplicité d’intégration pour les développeurs.

Articles connexes