Macrocosmos : Le OpenAI décentralisé de Bittensor ?

18 juillet 2025

Macrocosmos : Le OpenAI décentralisé de Bittensor ?

Macrocosmos est une entreprise qui développe un pipeline complet pour la création de modèle d’IA et opère cinq subnets sur Bittensor (TAO). Dans cette analyse, nous vous proposons de découvrir Macrocosmos et ses subnets afin de comprendre leur fonctionnement, leur objectif et leur état sur le marché.

Cet article est tiré d’une vidéo publié par Victor sur Youtube. Nous vous invitons à la consulter et lui montrer du soutien dans les commentaires !

Introduction et contexte sur Bittensor

Dans cette analyse, nous allons parler d’une entreprise qui construit sa solution à travers Bittensor. En préambule, il est important de rappeler en quoi cela consiste. Bittensor est un protocole décentralisé conçu pour transformer l’utilisation et l’échange des ressources d’IA dans le monde.

Bittensor repose sur un modèle de subnets, des réseaux spécialisés sur une ou plusieurs missions (inference, fine-tuning de modèles, calcul GPU, etc.) qui fonctionnent comme des startups.

L’écosystème Bittensor est structuré autour dé plusieurs acteurs majeurs : les mineurs assurent le fonctionnement des subnets et l’exécution des tâches, tandis que les validateurs évaluent leur performance.

Au coeur de Bittensor se trouve le TAO, un token qui alimente le staking, les récompenses et la gouvernance. Depuis le 13 février 2025 et la mise à jour Dynamic TAO (dTAO), les utilisateurs peuvent déléguer leurs TAO afin de voter pour les subnets qui méritent le plus de récompenses.

Chaque subnet dispose de son propre token, qu’il est possible d’acheter en échange de TAO. Autrement dit, il est devenu possible “d’investir” dans les startups qui construisent les subnets de Bittensor.

→ Vous souhaitez approfondir sur Bittensor (TAO) ? Retrouvez notre présentation complète :

Présentation de Macrocosmos

Qu’est-ce que Macrocosmos ?

Macrocosmos est une entreprise qui développe des solutions open source, décentralisées et contributives dans le secteur de l’Intelligence Artificielle (IA). Elle est actuellement l’un des acteurs les plus importants l’écosystème Bittensor.

L’équipe de Macrocosmos a pour ambition de démontrer qu’il est possible de concevoir, entraîner et déployer des modèles d’IA open source sur la blockchain, capables de rivaliser, voire de surpasser, les standards fermés du Web2, dont l’opacité reste souvent la norme.

Ce positionnement s’appuie sur un constat central : les modèles d’IA leaders aujourd’hui (OpenAI, Google, Anthropic) sont le fruit de ressources colossales, mais évoluent dans des silos fermés où la propriété du modèle, la maîtrise des données et l’usage final restent sous contrôle exclusif de l’éditeur.

Macrocosmos entend s’inscrire en rupture avec ce paradigme, en s’appuyant sur l’infrastructure de Bittensor pour construire des systèmes de récompense permettant d’inciter des ingénieurs et des chercheurs du monde entier à contribuer à leurs solutions, tout en garantissant leur amélioration continue grâce au réseau de mineurs de Bittensor.

Cette analyse se concentrera sur la vision de Macrocosmos, le rôle et les outils proposés par chaque subnet, ainsi qu’un avis général de notre contributeur sur l’entreprise.

Les cinq subnets de Macrocosmos

La singularité de Macrocosmos réside dans la profondeur et la cohérence de son offre : l’équipe opère aujourd’hui cinq subnets distincts sur Bittensor, ce qui en fait le contributeur principal du protocole en nombre de réseaux actifs.

Ces subnets couvrent l’intégralité du pipeline de création de valeur autour de l’IA, de la collecte de données jusqu’à l’application scientifique concrète :

  • Subnet 13 – “Data Universe” : dédié à la collecte massive de données, notamment issues des réseaux sociaux et autres sources publiques, une brique essentielle à la création d’un modèle d’IA.
  • Subnet 9 – “IOTA” : spécialisé dans l’entraînement de modèles de fondation (“foundation models”), c’est-à-dire de modèles IA généralistes à partir de grands jeux de données.
  • Subnet 37 – “Fine-Tuning” : permet l’adaptation et la spécialisation de modèles pré-entraînés pour des tâches spécifiques, en fonction de besoins particuliers.
  • Subnet 1 – “Apex” : axé sur l’inférence des modèles, soit l’étape d’utilisation concrète de l’IA par les applications et utilisateurs finaux.
  • Subnet 25 – “Mainframe” : dédié à la résolution de problématiques scientifiques complexes, notamment à travers des cas d’application en recherche biomédicale (ex : protein folding).

En résumé, les quatre premiers subnets couvrent tout le parcours nécessaire à la création d’une IA performante : depuis la collecte de données, jusqu’à l’entraînement, la spécialisation et l’inférence des modèles. Le subnet Mainframe sert de cas d’usage verticalisé, illustrant la valeur concrète de ces briques IA dans des domaines comme la recherche biomédicale.

Constellation : vers une super-app transversale

Afin de rendre l’ensemble de ces solutions accessibles et interopérables, Macrocosmos développe actuellement Constellation, une application centrale visant à fédérer les interfaces et usages de ses différents subnets.

Cette super-app, encore en version bêta, ambitionne de rassembler au sein d’une expérience utilisateur unique l’accès aux modèles, à la collecte de données, aux outils de fine-tuning et aux cas d’usage scientifiques, permettant à la fois un onboarding simplifié pour les utilisateurs et une meilleure circulation de la valeur entre les briques du protocole.

Au fil de cette analyse, nous détaillerons les intégrations existantes ou prévues sur Constellation pour chaque subnet.

Une équipe structurée et expérimentée

La solidité de Macrocosmos s’appuie également sur une équipe de près de 35 collaborateurs à temps plein, faisant de la société l’une des organisations les plus étoffées de l’écosystème Bittensor.

  • Steffen Cruz (co-fondateur) : PhD en physique (University of British Columbia), ancien head of machine learning chez Solid State AI, ex-CTO de la fondation Opentensor et créateur du tout premier subnet Bittensor. Ce profil confère à Macrocosmos une maîtrise rare des enjeux techniques du protocole.
  • Will Squires (co-fondateur) : Plus de 10 ans d’expérience chez Atkins (groupe d’ingénierie international), où il a notamment dirigé le digital et lancé un accélérateur IA de plus de 60 personnes ; conseiller pour la fondation Opentensor, avec une contribution déterminante sur la mise à l’échelle multi-subnets de Bittensor (“update Révolution”).

L’équipe est principalement composée d’ingénieurs et de chercheurs spécialisés en machine learning et IA, issus d’environnements académiques et industriels reconnus. Cette densité technique, conjuguée à une compréhension fine des dynamiques Web3, place Macrocosmos en position favorable pour exécuter sa vision à l’échelle.


Subnet 13 : Data Universe

Présentation générale

La première étape d’un processus complet pour faire de l’IA est la collecte des données. En effet, les modèles nécessitent d’énormes quantités de données afin d’être entrainés à fonctionner correctement : plus la donnée est volumineuse, diverse et récente, plus l’entraînement pourra aboutir à des IA performantes et adaptatives.

Le problème est que l’accès à des jeux de données spécialisés est particulièrement complexe, notamment celles qui sont issues des réseaux sociaux (X, Reddit, YouTube). De plus, c’est un processus coûteux et souvent restreint : par exemple, l’API officielle de X (ex-Twitter) facture jusqu’à 54 000 $ par an pour un accès limité à 1 million de posts par mois.

L’ambition du Subnet 13, appelé Data Universe, est de répondre à cette problématique en proposant une infrastructure décentralisée de scraping et d’agrégation de données, avec un focus particulier sur les réseaux sociaux. Il ambitionne de devenir la plus grande source de données sociales sur Bittensor et au-delà.

Fonctionnement et mécanismes d’incitation

Le fonctionnement repose sur une architecture incitative typique de Bittensor :

  • Mineurs : ils sont récompensés pour la collecte de données fraîches et pertinentes, essentiellement issues de X, Reddit et, plus récemment, YouTube (transcripts, descriptions, métriques).
  • Validateurs : ils vérifient la qualité, l’originalité et l’utilité des données collectées, puis scorent et récompensent les mineurs les plus efficaces.

Cette dynamique compétitive a permis à Data Universe de constituer un stock impressionnant : près de 40 milliards de lignes de données collectées, soit un ordre de grandeur 100 fois supérieur à son principal concurrent sur Bittensor (le subnet 42 de Masa, 400 millions de données). Aujourd’hui, la collecte s’étend peu à peu à d’autres réseaux sociaux et sources de données.

Cas d’usage et clients

Les cas d’utilisation du Subnet 13 sont assez vastes. D’abord, il peut être utilisé comme solution pour créer des datasets personnalisés destinés à entraîner des modèles d’IA (beaucoup moins cher que les solutions centralisées).

Ensuite, il est possible d’utiliser ces données de réseaux sociaux pour faire de l’analyse de tendance ou de sentiment autour de différents sujets. Cela peut aller de l’anticipation de résultats aussi importants que les élections présidentielles, à de la veille de marché ou de l’étude de mindshare de tokens ou de narrative en cryptos.

Enfin, cela peut également être utilisé pour améliorer les modèles de prédiction, que cela soit pour des analyses de prix, de résultats sportifs, de météo, etc. En résumé, le subnet 9 de Macrocosmos peut être utilisé pour entraîner n’importe quel modèle d’IA.

Macrocosmos a déjà séduit d’autres subnets de Bittensor : Score (subnet 44, prédiction sportive), Gaia (subnet 57, météo), ou Squad (plateforme d’agents IA sur Chutes, subnet 64), qui s’appuient sur ses données pour renforcer leurs modèles.

L’API Data Universe est aussi utilisée pour intégrer la donnée dans des solutions tierces, avec une promesse : scraper massivement et pour beaucoup moins cher que les alternatives centralisées, tout en fédérant différents canaux (X, Reddit, YouTube, etc.).

Intégration dans Constellation

Macrocosmos valorise Data Universe via Constellation, la super-app qui regroupe l’accès à toutes les briques de l’entreprise. Deux produits sont aujourd’hui proposés :

  • Gravity : outil de collecte personnalisée de données. L’utilisateur peut spécifier, via une interface (ou à l’aide de Mission Commander, un agent IA connecté à Apex), les thèmes, hashtags ou mots-clés ciblés, puis lancer en un clic la création de son dataset. Les mineurs prennent le relais pour scraper, construire et préparer le jeu de données, que l’utilisateur pourra ensuite télécharger ou visualiser.
  • Nebula : plateforme de visualisation avancée, permettant d’explorer la donnée collectée, de l’ordonner sémantiquement et d’interagir en langage naturel avec un agent IA qui guide l’exploration (détection de tendances, extraction d’insights…).

Ces produits, encore en bêta, proposent déjà une API accessible pour les développeurs. Macrocosmos prévoit également de les référencer sur des marketplaces SaaS pour élargir l’adoption.


Subnet 9 : IOTA

Présentation générale et problématique

Après la collecte massive de données, la deuxième étape clé du cycle de création d’IA est le pré-entrainement. C’est la base de l’entraînement des modèles d’IA et c’est ce qui va permettre de créer des modèles dits “de fondation” (foundation models).

Ces modèles généralistes, à l’image de GPT-4 (OpenAI) ou Gemini (Google), exigent des ressources matérielles et des volumes de données colossaux, historiquement réservés à un nombre très restreint d’acteurs disposant de moyens financiers et techniques majeurs.

Cette concentration du pouvoir de calcul engendre une forme d’oligopole autour des modèles d’IA de pointe : l’entraînement d’un seul modèle peut mobiliser plusieurs milliers de GPU pendant des semaines, voire des mois. Dès lors, l’accès à ces technologies reste pour l’essentiel fermé, et la dynamique open source est freinée par la barrière à l’entrée matérielle.

C’est précisément à ce problème que répond le Subnet 9 de Macrocosmos, baptisé IOTA (Incentivized Orchestrated Training Architecture). L’idée est de permettre l’entraînement de modèles de fondation à grande échelle de façon réellement décentralisée, collaborative, et ouverte à tout contributeur disposant des ressources requises, en utilisant notamment les données collectées par le subnet 13.

Architecture et innovations d’IOTA

Historiquement, la première version du subnet d’entraînement de Macrocosmos fonctionnait sur un modèle “winner-takes-all” : un seul mineur était récompensé, celui qui parvenait à entraîner le meilleur modèle complet.

Ce design, bien que simple, se heurtait à des limites évidentes en termes de passage à l’échelle et de capacité de collaboration : il favorisait la compétition solitaire et rendait quasi impossible l’entraînement de très grands modèles de manière répartie.

C’est dans cette optique que Macrocosmos a totalement repensé son architecture en mai 2025 en lançant IOTA. Le principe fondateur d’IOTA est l’entraînement orchestré et collaboratif.

Concrètement, chaque mineur n’entraîne qu’une fraction du modèle global, et la coordination (“swarm learning”) permet de mutualiser le travail de centaines, voire de milliers de contributeurs à travers le monde.

La construction finale du modèle repose ainsi sur l’agrégation dynamique de ces fragments, via une série d’innovations technologiques :

  • Partition intelligente des modèles : la structure du modèle est découpée en couches ou segments distribués à différents mineurs, chaque participant entraînant une partie précise en parallèle.
  • Compression et synchronisation : pour garantir l’efficacité du réseau et limiter les coûts de communication, des techniques avancées de compression sont employées afin de synchroniser les gradients et paramètres au fil des itérations.
  • Mécanismes d’incitation avancés : chaque contribution est évaluée par des validateurs ; les mineurs sont récompensés en fonction de la qualité de leur entraînement (amélioration des performances sur des benchmarks communs), favorisant ainsi l’émergence de “leaders” locaux sans sacrifier la collaboration globale.
  • Fusion et robustesse : la méthode d’assemblage final du modèle intègre des contrôles de cohérence et de robustesse, permettant d’obtenir un modèle unifié aussi performant – voire plus – que s’il avait été entraîné de façon centralisée.

Premiers résultats et perspectives

Ce modèle d’entraînement décentralisé a permis à Macrocosmos de lancer le pré-entraînement d’un modèle de 15 milliards de paramètres, soit une taille supérieure au principal concurrent sur Bittensor (Templar).

L’objectif à court terme : démontrer la faisabilité de modèles à 70 milliards de paramètres, puis, à moyen terme, viser des tailles inédites (100, 500, voire 1000 milliards de paramètres) – un cap qui, s’il était franchi, marquerait un tournant dans l’histoire de l’IA open source.

Pour assurer la transparence, Macrocosmos propose un dashboard dédié :

  • Vue en cylindre : chaque point représente un mineur, regroupé en couches correspondant à une partition spécifique du modèle.
  • Suivi géographique : cartographie mondiale de la répartition des mineurs.
  • Monitoring de la compétition : score, activité, évolution de chaque contributeur en temps réel.

Roadmap et modèle économique

La feuille de route IOTA se découpe en trois phases majeures :

  1. Phase 1 : finaliser la stabilisation de l’architecture, corriger les bugs, ajuster les mécaniques d’orchestration.
  2. Phase 2 : optimiser la compression et la réduction des prérequis matériels pour ouvrir l’accès à un plus grand nombre de participants (objectif : que l’entraînement devienne accessible sur un simple ordinateur personnel).
  3. Phase 3 : passage à l’échelle avec l’entraînement de modèles encore plus massifs, et premiers cas d’usages commerciaux ou mutualisés.

Sur le plan économique, deux options sont envisagées :

  • Modèle open : tout utilisateur peut utiliser le modèle en payant à l’usage (via alpha token), avec une licence spécifique pour les usages commerciaux à grande échelle, dans l’esprit des licences de Meta.
  • Modèle mutualisé : possibilité pour plusieurs organisations de co-financer et co-entraîner un modèle, chacune disposant d’un accès partagé et de droits proportionnels à leur contribution.

Subnet 37 : Fine-Tuning

Présentation générale

Dans le cycle de production d’un modèle d’IA performant, le fine-tuning est l’étape cruciale qui vient à la suite de ce que nous venons de présenter. Concrètement, cela permet de spécialiser un modèle de fondation généraliste pour des tâches ou des domaines précis.

Cette personnalisation est aujourd’hui incontournable : la majorité des applications d’IA modernes (chatbots, assistants, outils de recherche, etc.) reposent sur des modèles d’abord pré-entraînés, puis affinés pour maximiser leur pertinence dans un contexte d’usage particulier.

Le Subnet 37 de Macrocosmos, comme le nom “Fine-Tuning” le laisse supposer, a été conçu pour adresser précisément ce besoin. Il offre une infrastructure décentralisée pour l’ajustement de modèles à partir de datasets spécifiques, dans une logique ouverte et contributive.

Fonctionnement et organisation

Le fonctionnement du subnet repose sur la compétition ouverte, où Macrocosmos est parvenu à externaliser le fine-tuning de modèles grâce à système incitatif où des développeurs du monde entier s’affrontent pour tenter de produire les meilleurs modèles, et ainsi être rémunérés pour ça :

  • Mineurs : ils soumettent des versions fine-tunées de modèles, à partir de jeux de données adaptés à des cas d’usage donnés (dialogue, code, mathématiques, etc.). L’objectif est de proposer des améliorations mesurables par rapport au modèle de base, sur des benchmarks définis.
  • Validateurs : ils évaluent la qualité des modèles produits, sur la base de leur performance, de leur robustesse et de leur pertinence pour la tâche ciblée. Les récompenses sont distribuées aux mineurs ayant obtenu les meilleurs résultats.

Dans la vision initiale de Macrocosmos, le subnet Fine-Tuning devait permettre à l’ensemble de l’écosystème de disposer d’un vivier de modèles prêts à l’emploi, dont la qualité et la diversité s’améliorent au fil des compétitions.

Limites actuelles et perspectives d’évolution

Toutefois, force est de constater que le subnet 37 connaît aujourd’hui une dynamique ralentie. D’abord, il faut noter que Macrocosmos a quelque peu délaissé le subnet ces derniers mois, au profit notamment de la refonte du système d’entraînement (IOTA). Ensuite, le mécanisme d’incitation reste basé sur un design “winner-takes-all”, moins efficace que les systèmes collaboratifs adoptés récemment (notamment sur IOTA, Subnet 9).

En conséquence, la capitalisation du token du subnet 37 est nettement inférieure à celle des autres subnets de Macrocosmos.

Cette situation peut sembler étonnante, mais elle s’explique par la nécessité, pour Macrocosmos, de mobiliser ses ressources sur les défis techniques du pré-entraînement collaboratif qui est un enjeu majeur pour le projet.

Pour autant, le potentiel de Subnet 37 reste réel : une évolution du design, inspirée des avancées d’IOTA, pourrait relancer la dynamique, d’autant que le besoin de modèles spécialisés reste largement insatisfait dans l’écosystème.

Cas d’usage et intégration avec l’écosystème

Les modèles fine-tunés produits sur Subnet 37 sont utilisés :

  • Pour alimenter des applications verticalisées (agents conversationnels, copilotes, outils d’analyse, etc.)
  • Et potentiellement, à terme, pour être déployés via le Subnet 1 – Apex (inférence), assurant ainsi une continuité technique entre entraînement, spécialisation et utilisation effective.

Le catalogue des modèles fine-tunés reste accessible via le dashboard de Macrocosmos, offrant une vue d’ensemble sur les soumissions, leur performance, et leur disponibilité pour l’écosystème.


Subnet 1 : Apex

Présentation générale

Dernière étape de la chaîne de valeur IA, l’inférence correspond à la phase d’utilisation effective d’un modèle. Autrement dit, c’est là que le modèle, préalablement entraîné et éventuellement fine-tuné, est mis à disposition pour répondre à des requêtes concrètes, qu’il s’agisse de génération de texte, de recherche, d’analyse ou de prise de décision.

Lorsque vous utilisez ChatGPT, ce dernier va faire une inférence pour vous répondre.

Le Subnet 1 de Macrocosmos, baptisé Apex, a pour ambition de proposer une solution d’inférence décentralisée, évolutive et compétitive avec les standards du Web2. Au-delà d’un simple hébergement de modèles open source, Apex vise à créer un véritable écosystème d’agents IA capables de délivrer des réponses plus intelligentes, plus rapides et plus adaptées aux besoins réels des utilisateurs.

Fonctionnement et innovations techniques

L’approche d’Apex se distingue par plusieurs innovations, visant à dépasser le cadre d’une inférence basique. La première et probablement la plus importante est le “test-time compute”. Concrètement, cela signifie que les modèles ne sont pas limités à l’inférence classique (réponse instantanée d’un modèle statique) mais qu’à chaque requête, ils peuvent réfléchir plus longtemps.

En pratique, cela signifie que le système peut mobiliser plus ou moins de puissance de calcul et d’outils externes pour produire la réponse la plus pertinente possible. Cela permet d’intégrer des fonctionnalités avancées telles que les recherches web en temps réel, l’accès à des bases de données, le raisonnement multi-étapes, etc.

Pour améliorer le fonctionnement de ce système, Apex introduit une architecture d’incitation adaptée à Bittensor et qui reprend le principe des Generative Adversarial Networks (GANs). Deux types de mineurs coexistent :

  • Les mineurs générateurs, qui produisent des réponses à une requête donnée, avec pour objectif de s’approcher le plus possible de la qualité d’une réponse “idéale” (générée par les validateurs).
  • Les mineurs discriminateurs, qui évaluent si une réponse provient d’un mineur ou d’un validateur, récompensant ainsi l’amélioration continue de la qualité des réponses générées.

L’ensemble du système est conçu pour inciter la génération de réponses à la fois rapides (temps de réponse inférieur à celui des validateurs) et d’une qualité jugée indiscernable de celles produites par les standards les plus exigeants du secteur.

Ce mécanisme de compétition-émulation permet au subnet de progresser de manière incrémentale, chaque génération de mineurs cherchant à se rapprocher toujours plus du niveau des validateurs, tout en optimisant la rapidité d’exécution.

Cas d’usage et applications concrètes

Apex a vocation à devenir le moteur d’inférence privilégié de l’écosystème Macrocosmos et plus largement des applications tierces désireuses d’intégrer de l’IA de pointe dans leurs produits.

  • API d’inférence : Macrocosmos met à disposition une API permettant aux développeurs d’intégrer facilement l’intelligence d’Apex dans leurs propres solutions (chatbots, copilotes, agents conversationnels, outils de recherche augmentée, etc.).
  • Scénarios avancés : Les fonctionnalités de test-time compute et de reasoning ouvrent la voie à des cas d’utilisation exigeant un raisonnement complexe, une recherche documentaire, ou encore des interactions contextuelles enrichies, positionnant Apex comme une alternative crédible à des solutions comme ChatGPT, tout en restant open source et décentralisée.
  • Interopérabilité avec les autres subnets : En pratique, Apex sert déjà d’interface pour d’autres produits de Macrocosmos, comme Mission Commander (assistant IA pour la collecte de données sur Gravity) ou pour la consultation des modèles fine-tunés issus du Subnet 37.

Intégration dans Constellation

Apex dispose de sa propre application dédiée au sein de Constellation :

  • Plusieurs modes d’inférence sont proposés, du plus basique (inférence directe d’un modèle open source) à des variantes enrichies (sélection de la meilleure réponse parmi plusieurs modèles, inférence “web-enhanced” intégrant des résultats de recherche, ou mode “Reasoning” exploitant le système GAN).
  • L’interface utilisateur permet d’expérimenter la diversité des approches d’Apex, en toute transparence sur le type d’intelligence mobilisée.
  • L’API d’Apex est accessible aux développeurs pour une intégration fine dans des workflows métiers ou des outils personnalisés.

À ce stade, le positionnement d’Apex reste en construction, les équipes travaillant activement à l’optimisation des performances, à l’élargissement du catalogue de modèles supportés, et à la monétisation progressive du service.

Il convient de rappeler que l’objectif de Macrocosmos n’est pas de concurrencer frontalement, du jour au lendemain, des géants comme OpenAI ou Anthropic, mais d’explorer les possibilités offertes par un système d’inférence ouvert, évolutif, et fondé sur la collaboration entre mineurs


Subnet 25 : Mainframe

Présentation générale et positionnement

Vous l’avez compris avec les 4 précédents subnets que nous avons présenté, Macrocosmos dispose de toute une stack pour faire de l’IA de façon décentralisée. Néanmoins, quoi de mieux que de faire soi-même la publicité de ses outils et les utilisant pour faire de la recherche scientifique avancée ?

Avec Mainframe (Subnet 25), Macrocosmos étend sa proposition de valeur au-delà du cycle IA traditionnel pour s’attaquer à un segment de marché à fort potentiel : la recherche scientifique et le calcul distribué appliqué à des problématiques complexes, en l’occurence ici le repliement de protéine.

Le repliement de protéine, c’est le fait de prédire la structure d’une protéine et comment elle va se comporter dans votre corps. Ainsi, cela peut permettre de mieux comprendre les maladies et de travauller sur des médicaments.

À l’origine dédié au repliement de protéines (protein folding), le subnet a rapidement évolué pour proposer une infrastructure plus généraliste, capable d’accueillir une diversité croissante de workloads scientifiques, notamment dans la biologie computationnelle, la découverte de médicaments, la chimie ou la modélisation moléculaire.

Fonctionnement et mécanismes d’incitation

Le modèle économique et incitatif de Mainframe transpose les principes de Bittensor au secteur scientifique :

  • Mineurs : ils allouent leur puissance de calcul pour exécuter des tâches de simulation ou d’analyse, soumises par les utilisateurs via l’API de Mainframe (ex : simulation de repliement de protéines, docking moléculaire…).
  • Validateurs : ils évaluent la pertinence, l’exactitude et l’efficacité des résultats générés par les mineurs, déterminant la répartition des récompenses selon la qualité et la rapidité de la résolution des tâches.

Depuis son lancement, le subnet 25 a permis la simulation de plus de 180 000 repliements de protéines : un volume encore inférieur aux géants du secteur (Google DeepMind/AlphaFold) mais déjà supérieur à des initiatives pionnières de calcul décentralisé comme Folding Home, preuve de la robustesse et de la compétitivité du modèle Macrocosmos.

Diversification des cas d’usage : protein folding, docking et au-delà

  • Protein folding : Prédire la structure 3D des protéines reste un enjeu central, à la croisée de la recherche biomédicale, de la découverte de médicaments et de la biotechnologie. Mainframe offre une solution ouverte pour exécuter ces simulations à grande échelle, via une API accessible à la communauté scientifique.
  • Molecular docking : En réponse à la demande des instituts partenaires (ex : Max Planck, Sussex), Macrocosmos a ajouté la capacité de simuler l’interaction entre molécules (par exemple un médicament et sa cible protéique), ouvrant la voie à des applications concrètes dans la recherche pharmaceutique et la conception de nouvelles molécules.
  • Calcul scientifique généraliste : Mainframe entend progressivement élargir sa couverture à tous types de tâches scientifiques nécessitant du calcul distribué : modélisation moléculaire, chimie quantique, simulation physique, etc. Cette diversification est également incarnée par le changement de nom, de “Protein Folding” à “Mainframe”.

Macrocosmos a déjà initié plusieurs partenariats avec des instituts de recherche reconnus (Max Planck, Sussex), et compte parmi ses premiers clients Rowan Scientific, une plateforme cloud spécialisée dans le calcul moléculaire et l’IA appliquée à la découverte de médicaments. Les revenus générés par ces collaborations sont reversés au subnet, consolidant son modèle économique et sa légitimité auprès des chercheurs.

Intégration dans Constellation et UX scientifique

Mainframe est accessible via Constellation, avec une application dédiée :

  • L’utilisateur (chercheur, data scientist, etc.) peut soumettre une protéine à replier, sélectionner la configuration d’intérêt, lancer la simulation, puis analyser les résultats et explorer les possibilités de docking.
  • L’interface, bien que technique et encore en cours d’amélioration, permet de visualiser la compétition entre mineurs et d’accéder à des fonctionnalités avancées de simulation scientifique, sans nécessiter de compétences en développement.

Macrocosmos propose également une API publique, permettant l’intégration de Mainframe dans des workflows R&D existants, et envisage un référencement élargi sur des marketplaces SaaS du secteur.


Comment investir dans les tokens des subnets Macrocosmos ?

Si vous souhaitez investir sur les subnets de Bittensor, l’option la plus intéressante est de passer par Mentat Minds. Ceci est un lien referral de Victor, n’hésitez pas à l’utiliser pour le soutenir.

État des lieux du marché

Chacun des cinq subnets Macrocosmos dispose de son token natif (aussi appelé “alpha token”), reflet de la valeur et de la traction de son réseau. Ces tokens peuvent être acquis en échange de TAO via les principales plateformes de l’écosystème Bittensor (Taostats, interface officielle dApp, etc.), ou indirectement via certaines stratégies d’ETF de subnets.

À date de rédaction, voici les métriques de marché :

NomMarket Cap ($)FDV ($)Perf. (30D)
Data Universe (13)$15.2M$177M-23 %
Iota (9)$24.6M$288M-17 %
Finetuning (37)$4.6M$54M+24 %
Apex (1)$15.4M$190M-18 %
Mainframe (25)$5.2M$60M-36 %

Le constat est sans appel : la majorité des tokens Macrocosmos, comme ceux des autres subnets Bittensor, évoluent actuellement sur des niveaux de valorisation proches de leurs planchers annuels. Cette situation s’explique par une conjoncture défavorable aux altcoins et à la liquidité sur les marchés secondaires, couplée à l’absence de narratif IA marquant depuis le début de l’année.

Cette phase de repli généralisé peut offrir des points d’entrée attractifs pour les investisseurs long terme convaincus par le potentiel de Bittensor et de ses subnets leaders, dont Macrocosmos. Un retour du narratif IA ou des catalyseurs techniques majeurs pourraient entraîner un rebond significatif, à condition toutefois que le contexte global redevienne porteur pour les altcoins.

Stratégie d’investissement

Plusieurs approches sont possibles pour s’exposer aux subnets Macrocosmos :

  • Subnet picking :

Il est possible d’acheter un ou plusieurs tokens spécifiques, en sélectionnant le ou les subnets les plus prometteurs selon vos convictions (potentiel technique, volume d’usage, équipe, etc.). Cette méthode suppose un suivi actif des performances, des mises à jour et de la feuille de route de chaque subnet.

  • Stratégies “ETF subnet” :

Certaines plateformes (ex : Mentat Minds) proposent des produits d’investissement clé en main, permettant de s’exposer à un panier pondéré des cinq tokens Macrocosmos. L’allocation peut être ajustée automatiquement en fonction de la performance de chaque subnet, et la gestion de l’optimisation des rendements (APY) est assurée par la plateforme.

  • Staking “racine” (Optimized Root, Protected Alpha) :

Pour les investisseurs plus prudents, il est possible de rester sur des stratégies d’exposition plus globales ou protégées :

  • Optimized Root permet de maximiser le rendement TAO sans prise de risque sur les subnets.
  • Protected Alpha propose d’investir uniquement les dividendes générés par le staking root dans le top 15 des subnets, limitant l’exposition à la baisse sur le capital initial.

Il est toutefois nécessaire de rappeler que l’investissement dans les subnets Bittensor est particulièrement risqué. La faible profondeur de marché peut entraîner des mouvements de prix rapides et imprévisibles, et une nouvelle phase baissière sur les altcoins pourrait enfoncer les prix.

Par ailleurs, le marché des subnets de Bittensor dépend énormément du succès de Bittensor et d’une narrative IA qui pourrait ne pas retrouver des couleurs en 2025. À noter également que la difficulté pour investir sur ces tokens est un frein à la croissance du marché.

Enfin, il est essentiel de rappeler que toute décision d’investissement relève de la responsabilité de l’investisseur. Nous recommandons une analyse approfondie et un suivi régulier des sous-jacents avant toute prise de position significative.

Si vous souhaitez investir sur les subnets de Bittensor, l’option la plus intéressante est de passer par Mentat Minds. Ceci est un lien referral de Victor, n’hésitez pas à l’utiliser pour le soutenir.