18 juillet 2025
Macrocosmos est une entreprise qui développe un pipeline complet pour la création de modèle d’IA et opère cinq subnets sur Bittensor (TAO). Dans cette analyse, nous vous proposons de découvrir Macrocosmos et ses subnets afin de comprendre leur fonctionnement, leur objectif et leur état sur le marché.
Cet article est tiré d’une vidéo publié par Victor sur Youtube. Nous vous invitons à la consulter et lui montrer du soutien dans les commentaires !
Dans cette analyse, nous allons parler d’une entreprise qui construit sa solution à travers Bittensor. En préambule, il est important de rappeler en quoi cela consiste. Bittensor est un protocole décentralisé conçu pour transformer l’utilisation et l’échange des ressources d’IA dans le monde.
Bittensor repose sur un modèle de subnets, des réseaux spécialisés sur une ou plusieurs missions (inference, fine-tuning de modèles, calcul GPU, etc.) qui fonctionnent comme des startups.
L’écosystème Bittensor est structuré autour dé plusieurs acteurs majeurs : les mineurs assurent le fonctionnement des subnets et l’exécution des tâches, tandis que les validateurs évaluent leur performance.
Au coeur de Bittensor se trouve le TAO, un token qui alimente le staking, les récompenses et la gouvernance. Depuis le 13 février 2025 et la mise à jour Dynamic TAO (dTAO), les utilisateurs peuvent déléguer leurs TAO afin de voter pour les subnets qui méritent le plus de récompenses.
Chaque subnet dispose de son propre token, qu’il est possible d’acheter en échange de TAO. Autrement dit, il est devenu possible “d’investir” dans les startups qui construisent les subnets de Bittensor.
→ Vous souhaitez approfondir sur Bittensor (TAO) ? Retrouvez notre présentation complète :
Macrocosmos est une entreprise qui développe des solutions open source, décentralisées et contributives dans le secteur de l’Intelligence Artificielle (IA). Elle est actuellement l’un des acteurs les plus importants l’écosystème Bittensor.
L’équipe de Macrocosmos a pour ambition de démontrer qu’il est possible de concevoir, entraîner et déployer des modèles d’IA open source sur la blockchain, capables de rivaliser, voire de surpasser, les standards fermés du Web2, dont l’opacité reste souvent la norme.
Ce positionnement s’appuie sur un constat central : les modèles d’IA leaders aujourd’hui (OpenAI, Google, Anthropic) sont le fruit de ressources colossales, mais évoluent dans des silos fermés où la propriété du modèle, la maîtrise des données et l’usage final restent sous contrôle exclusif de l’éditeur.
Macrocosmos entend s’inscrire en rupture avec ce paradigme, en s’appuyant sur l’infrastructure de Bittensor pour construire des systèmes de récompense permettant d’inciter des ingénieurs et des chercheurs du monde entier à contribuer à leurs solutions, tout en garantissant leur amélioration continue grâce au réseau de mineurs de Bittensor.
Cette analyse se concentrera sur la vision de Macrocosmos, le rôle et les outils proposés par chaque subnet, ainsi qu’un avis général de notre contributeur sur l’entreprise.
La singularité de Macrocosmos réside dans la profondeur et la cohérence de son offre : l’équipe opère aujourd’hui cinq subnets distincts sur Bittensor, ce qui en fait le contributeur principal du protocole en nombre de réseaux actifs.
Ces subnets couvrent l’intégralité du pipeline de création de valeur autour de l’IA, de la collecte de données jusqu’à l’application scientifique concrète :
En résumé, les quatre premiers subnets couvrent tout le parcours nécessaire à la création d’une IA performante : depuis la collecte de données, jusqu’à l’entraînement, la spécialisation et l’inférence des modèles. Le subnet Mainframe sert de cas d’usage verticalisé, illustrant la valeur concrète de ces briques IA dans des domaines comme la recherche biomédicale.
Afin de rendre l’ensemble de ces solutions accessibles et interopérables, Macrocosmos développe actuellement Constellation, une application centrale visant à fédérer les interfaces et usages de ses différents subnets.
Cette super-app, encore en version bêta, ambitionne de rassembler au sein d’une expérience utilisateur unique l’accès aux modèles, à la collecte de données, aux outils de fine-tuning et aux cas d’usage scientifiques, permettant à la fois un onboarding simplifié pour les utilisateurs et une meilleure circulation de la valeur entre les briques du protocole.
Au fil de cette analyse, nous détaillerons les intégrations existantes ou prévues sur Constellation pour chaque subnet.
La solidité de Macrocosmos s’appuie également sur une équipe de près de 35 collaborateurs à temps plein, faisant de la société l’une des organisations les plus étoffées de l’écosystème Bittensor.
L’équipe est principalement composée d’ingénieurs et de chercheurs spécialisés en machine learning et IA, issus d’environnements académiques et industriels reconnus. Cette densité technique, conjuguée à une compréhension fine des dynamiques Web3, place Macrocosmos en position favorable pour exécuter sa vision à l’échelle.
La première étape d’un processus complet pour faire de l’IA est la collecte des données. En effet, les modèles nécessitent d’énormes quantités de données afin d’être entrainés à fonctionner correctement : plus la donnée est volumineuse, diverse et récente, plus l’entraînement pourra aboutir à des IA performantes et adaptatives.
Le problème est que l’accès à des jeux de données spécialisés est particulièrement complexe, notamment celles qui sont issues des réseaux sociaux (X, Reddit, YouTube). De plus, c’est un processus coûteux et souvent restreint : par exemple, l’API officielle de X (ex-Twitter) facture jusqu’à 54 000 $ par an pour un accès limité à 1 million de posts par mois.
L’ambition du Subnet 13, appelé Data Universe, est de répondre à cette problématique en proposant une infrastructure décentralisée de scraping et d’agrégation de données, avec un focus particulier sur les réseaux sociaux. Il ambitionne de devenir la plus grande source de données sociales sur Bittensor et au-delà.
Le fonctionnement repose sur une architecture incitative typique de Bittensor :
Cette dynamique compétitive a permis à Data Universe de constituer un stock impressionnant : près de 40 milliards de lignes de données collectées, soit un ordre de grandeur 100 fois supérieur à son principal concurrent sur Bittensor (le subnet 42 de Masa, 400 millions de données). Aujourd’hui, la collecte s’étend peu à peu à d’autres réseaux sociaux et sources de données.
Les cas d’utilisation du Subnet 13 sont assez vastes. D’abord, il peut être utilisé comme solution pour créer des datasets personnalisés destinés à entraîner des modèles d’IA (beaucoup moins cher que les solutions centralisées).
Ensuite, il est possible d’utiliser ces données de réseaux sociaux pour faire de l’analyse de tendance ou de sentiment autour de différents sujets. Cela peut aller de l’anticipation de résultats aussi importants que les élections présidentielles, à de la veille de marché ou de l’étude de mindshare de tokens ou de narrative en cryptos.
Enfin, cela peut également être utilisé pour améliorer les modèles de prédiction, que cela soit pour des analyses de prix, de résultats sportifs, de météo, etc. En résumé, le subnet 9 de Macrocosmos peut être utilisé pour entraîner n’importe quel modèle d’IA.
Macrocosmos a déjà séduit d’autres subnets de Bittensor : Score (subnet 44, prédiction sportive), Gaia (subnet 57, météo), ou Squad (plateforme d’agents IA sur Chutes, subnet 64), qui s’appuient sur ses données pour renforcer leurs modèles.
L’API Data Universe est aussi utilisée pour intégrer la donnée dans des solutions tierces, avec une promesse : scraper massivement et pour beaucoup moins cher que les alternatives centralisées, tout en fédérant différents canaux (X, Reddit, YouTube, etc.).
Macrocosmos valorise Data Universe via Constellation, la super-app qui regroupe l’accès à toutes les briques de l’entreprise. Deux produits sont aujourd’hui proposés :
Ces produits, encore en bêta, proposent déjà une API accessible pour les développeurs. Macrocosmos prévoit également de les référencer sur des marketplaces SaaS pour élargir l’adoption.
Après la collecte massive de données, la deuxième étape clé du cycle de création d’IA est le pré-entrainement. C’est la base de l’entraînement des modèles d’IA et c’est ce qui va permettre de créer des modèles dits “de fondation” (foundation models).
Ces modèles généralistes, à l’image de GPT-4 (OpenAI) ou Gemini (Google), exigent des ressources matérielles et des volumes de données colossaux, historiquement réservés à un nombre très restreint d’acteurs disposant de moyens financiers et techniques majeurs.
Cette concentration du pouvoir de calcul engendre une forme d’oligopole autour des modèles d’IA de pointe : l’entraînement d’un seul modèle peut mobiliser plusieurs milliers de GPU pendant des semaines, voire des mois. Dès lors, l’accès à ces technologies reste pour l’essentiel fermé, et la dynamique open source est freinée par la barrière à l’entrée matérielle.
C’est précisément à ce problème que répond le Subnet 9 de Macrocosmos, baptisé IOTA (Incentivized Orchestrated Training Architecture). L’idée est de permettre l’entraînement de modèles de fondation à grande échelle de façon réellement décentralisée, collaborative, et ouverte à tout contributeur disposant des ressources requises, en utilisant notamment les données collectées par le subnet 13.
Historiquement, la première version du subnet d’entraînement de Macrocosmos fonctionnait sur un modèle “winner-takes-all” : un seul mineur était récompensé, celui qui parvenait à entraîner le meilleur modèle complet.
Ce design, bien que simple, se heurtait à des limites évidentes en termes de passage à l’échelle et de capacité de collaboration : il favorisait la compétition solitaire et rendait quasi impossible l’entraînement de très grands modèles de manière répartie.
C’est dans cette optique que Macrocosmos a totalement repensé son architecture en mai 2025 en lançant IOTA. Le principe fondateur d’IOTA est l’entraînement orchestré et collaboratif.
Concrètement, chaque mineur n’entraîne qu’une fraction du modèle global, et la coordination (“swarm learning”) permet de mutualiser le travail de centaines, voire de milliers de contributeurs à travers le monde.
La construction finale du modèle repose ainsi sur l’agrégation dynamique de ces fragments, via une série d’innovations technologiques :
Ce modèle d’entraînement décentralisé a permis à Macrocosmos de lancer le pré-entraînement d’un modèle de 15 milliards de paramètres, soit une taille supérieure au principal concurrent sur Bittensor (Templar).
L’objectif à court terme : démontrer la faisabilité de modèles à 70 milliards de paramètres, puis, à moyen terme, viser des tailles inédites (100, 500, voire 1000 milliards de paramètres) - un cap qui, s’il était franchi, marquerait un tournant dans l’histoire de l’IA open source.
Pour assurer la transparence, Macrocosmos propose un dashboard dédié :
La feuille de route IOTA se découpe en trois phases majeures :
Sur le plan économique, deux options sont envisagées :
Dans le cycle de production d’un modèle d’IA performant, le fine-tuning est l’étape cruciale qui vient à la suite de ce que nous venons de présenter. Concrètement, cela permet de spécialiser un modèle de fondation généraliste pour des tâches ou des domaines précis.
Cette personnalisation est aujourd’hui incontournable : la majorité des applications d’IA modernes (chatbots, assistants, outils de recherche, etc.) reposent sur des modèles d’abord pré-entraînés, puis affinés pour maximiser leur pertinence dans un contexte d’usage particulier.
Le Subnet 37 de Macrocosmos, comme le nom “Fine-Tuning” le laisse supposer, a été conçu pour adresser précisément ce besoin. Il offre une infrastructure décentralisée pour l’ajustement de modèles à partir de datasets spécifiques, dans une logique ouverte et contributive.
Le fonctionnement du subnet repose sur la compétition ouverte, où Macrocosmos est parvenu à externaliser le fine-tuning de modèles grâce à système incitatif où des développeurs du monde entier s’affrontent pour tenter de produire les meilleurs modèles, et ainsi être rémunérés pour ça :
Dans la vision initiale de Macrocosmos, le subnet Fine-Tuning devait permettre à l’ensemble de l’écosystème de disposer d’un vivier de modèles prêts à l’emploi, dont la qualité et la diversité s’améliorent au fil des compétitions.
Toutefois, force est de constater que le subnet 37 connaît aujourd’hui une dynamique ralentie. D’abord, il faut noter que Macrocosmos a quelque peu délaissé le subnet ces derniers mois, au profit notamment de la refonte du système d’entraînement (IOTA). Ensuite, le mécanisme d’incitation reste basé sur un design “winner-takes-all”, moins efficace que les systèmes collaboratifs adoptés récemment (notamment sur IOTA, Subnet 9).
En conséquence, la capitalisation du token du subnet 37 est nettement inférieure à celle des autres subnets de Macrocosmos.
Cette situation peut sembler étonnante, mais elle s’explique par la nécessité, pour Macrocosmos, de mobiliser ses ressources sur les défis techniques du pré-entraînement collaboratif qui est un enjeu majeur pour le projet.
Pour autant, le potentiel de Subnet 37 reste réel : une évolution du design, inspirée des avancées d’IOTA, pourrait relancer la dynamique, d’autant que le besoin de modèles spécialisés reste largement insatisfait dans l’écosystème.
Les modèles fine-tunés produits sur Subnet 37 sont utilisés :
Le catalogue des modèles fine-tunés reste accessible via le dashboard de Macrocosmos, offrant une vue d’ensemble sur les soumissions, leur performance, et leur disponibilité pour l’écosystème.
Dernière étape de la chaîne de valeur IA, l’inférence correspond à la phase d’utilisation effective d’un modèle. Autrement dit, c’est là que le modèle, préalablement entraîné et éventuellement fine-tuné, est mis à disposition pour répondre à des requêtes concrètes, qu’il s’agisse de génération de texte, de recherche, d’analyse ou de prise de décision.
Lorsque vous utilisez ChatGPT, ce dernier va faire une inférence pour vous répondre.
Le Subnet 1 de Macrocosmos, baptisé Apex, a pour ambition de proposer une solution d’inférence décentralisée, évolutive et compétitive avec les standards du Web2. Au-delà d’un simple hébergement de modèles open source, Apex vise à créer un véritable écosystème d’agents IA capables de délivrer des réponses plus intelligentes, plus rapides et plus adaptées aux besoins réels des utilisateurs.
L’approche d’Apex se distingue par plusieurs innovations, visant à dépasser le cadre d’une inférence basique. La première et probablement la plus importante est le “test-time compute”. Concrètement, cela signifie que les modèles ne sont pas limités à l’inférence classique (réponse instantanée d’un modèle statique) mais qu’à chaque requête, ils peuvent réfléchir plus longtemps.
En pratique, cela signifie que le système peut mobiliser plus ou moins de puissance de calcul et d’outils externes pour produire la réponse la plus pertinente possible. Cela permet d’intégrer des fonctionnalités avancées telles que les recherches web en temps réel, l’accès à des bases de données, le raisonnement multi-étapes, etc.
Pour améliorer le fonctionnement de ce système, Apex introduit une architecture d’incitation adaptée à Bittensor et qui reprend le principe des Generative Adversarial Networks (GANs). Deux types de mineurs coexistent :
L’ensemble du système est conçu pour inciter la génération de réponses à la fois rapides (temps de réponse inférieur à celui des validateurs) et d’une qualité jugée indiscernable de celles produites par les standards les plus exigeants du secteur.
Ce mécanisme de compétition-émulation permet au subnet de progresser de manière incrémentale, chaque génération de mineurs cherchant à se rapprocher toujours plus du niveau des validateurs, tout en optimisant la rapidité d’exécution.
Apex a vocation à devenir le moteur d’inférence privilégié de l’écosystème Macrocosmos et plus largement des applications tierces désireuses d’intégrer de l’IA de pointe dans leurs produits.
Apex dispose de sa propre application dédiée au sein de Constellation :
À ce stade, le positionnement d’Apex reste en construction, les équipes travaillant activement à l’optimisation des performances, à l’élargissement du catalogue de modèles supportés, et à la monétisation progressive du service.
Il convient de rappeler que l’objectif de Macrocosmos n’est pas de concurrencer frontalement, du jour au lendemain, des géants comme OpenAI ou Anthropic, mais d’explorer les possibilités offertes par un système d’inférence ouvert, évolutif, et fondé sur la collaboration entre mineurs
Vous l’avez compris avec les 4 précédents subnets que nous avons présenté, Macrocosmos dispose de toute une stack pour faire de l’IA de façon décentralisée. Néanmoins, quoi de mieux que de faire soi-même la publicité de ses outils et les utilisant pour faire de la recherche scientifique avancée ?
Avec Mainframe (Subnet 25), Macrocosmos étend sa proposition de valeur au-delà du cycle IA traditionnel pour s’attaquer à un segment de marché à fort potentiel : la recherche scientifique et le calcul distribué appliqué à des problématiques complexes, en l’occurence ici le repliement de protéine.
Le repliement de protéine, c’est le fait de prédire la structure d’une protéine et comment elle va se comporter dans votre corps. Ainsi, cela peut permettre de mieux comprendre les maladies et de travauller sur des médicaments.
À l’origine dédié au repliement de protéines (protein folding), le subnet a rapidement évolué pour proposer une infrastructure plus généraliste, capable d’accueillir une diversité croissante de workloads scientifiques, notamment dans la biologie computationnelle, la découverte de médicaments, la chimie ou la modélisation moléculaire.
Le modèle économique et incitatif de Mainframe transpose les principes de Bittensor au secteur scientifique :
Depuis son lancement, le subnet 25 a permis la simulation de plus de 180 000 repliements de protéines : un volume encore inférieur aux géants du secteur (Google DeepMind/AlphaFold) mais déjà supérieur à des initiatives pionnières de calcul décentralisé comme Folding Home, preuve de la robustesse et de la compétitivité du modèle Macrocosmos.
Macrocosmos a déjà initié plusieurs partenariats avec des instituts de recherche reconnus (Max Planck, Sussex), et compte parmi ses premiers clients Rowan Scientific, une plateforme cloud spécialisée dans le calcul moléculaire et l’IA appliquée à la découverte de médicaments. Les revenus générés par ces collaborations sont reversés au subnet, consolidant son modèle économique et sa légitimité auprès des chercheurs.
Mainframe est accessible via Constellation, avec une application dédiée :
Macrocosmos propose également une API publique, permettant l’intégration de Mainframe dans des workflows R&D existants, et envisage un référencement élargi sur des marketplaces SaaS du secteur.
Si vous souhaitez investir sur les subnets de Bittensor, l’option la plus intéressante est de passer par Mentat Minds. Ceci est un lien referral de Victor, n’hésitez pas à l’utiliser pour le soutenir.
Chacun des cinq subnets Macrocosmos dispose de son token natif (aussi appelé “alpha token”), reflet de la valeur et de la traction de son réseau. Ces tokens peuvent être acquis en échange de TAO via les principales plateformes de l’écosystème Bittensor (Taostats, interface officielle dApp, etc.), ou indirectement via certaines stratégies d’ETF de subnets.
À date de rédaction, voici les métriques de marché :
Nom | Market Cap ($) | FDV ($) | Perf. (30D) |
---|---|---|---|
Data Universe (13) | $15.2M | $177M | -23 % |
Iota (9) | $24.6M | $288M | -17 % |
Finetuning (37) | $4.6M | $54M | +24 % |
Apex (1) | $15.4M | $190M | -18 % |
Mainframe (25) | $5.2M | $60M | -36 % |
Le constat est sans appel : la majorité des tokens Macrocosmos, comme ceux des autres subnets Bittensor, évoluent actuellement sur des niveaux de valorisation proches de leurs planchers annuels. Cette situation s’explique par une conjoncture défavorable aux altcoins et à la liquidité sur les marchés secondaires, couplée à l’absence de narratif IA marquant depuis le début de l’année.
Cette phase de repli généralisé peut offrir des points d’entrée attractifs pour les investisseurs long terme convaincus par le potentiel de Bittensor et de ses subnets leaders, dont Macrocosmos. Un retour du narratif IA ou des catalyseurs techniques majeurs pourraient entraîner un rebond significatif, à condition toutefois que le contexte global redevienne porteur pour les altcoins.
Plusieurs approches sont possibles pour s’exposer aux subnets Macrocosmos :
Il est possible d’acheter un ou plusieurs tokens spécifiques, en sélectionnant le ou les subnets les plus prometteurs selon vos convictions (potentiel technique, volume d’usage, équipe, etc.). Cette méthode suppose un suivi actif des performances, des mises à jour et de la feuille de route de chaque subnet.
Certaines plateformes (ex : Mentat Minds) proposent des produits d’investissement clé en main, permettant de s’exposer à un panier pondéré des cinq tokens Macrocosmos. L’allocation peut être ajustée automatiquement en fonction de la performance de chaque subnet, et la gestion de l’optimisation des rendements (APY) est assurée par la plateforme.
Pour les investisseurs plus prudents, il est possible de rester sur des stratégies d’exposition plus globales ou protégées :
Il est toutefois nécessaire de rappeler que l’investissement dans les subnets Bittensor est particulièrement risqué. La faible profondeur de marché peut entraîner des mouvements de prix rapides et imprévisibles, et une nouvelle phase baissière sur les altcoins pourrait enfoncer les prix.
Par ailleurs, le marché des subnets de Bittensor dépend énormément du succès de Bittensor et d’une narrative IA qui pourrait ne pas retrouver des couleurs en 2025. À noter également que la difficulté pour investir sur ces tokens est un frein à la croissance du marché.
Enfin, il est essentiel de rappeler que toute décision d’investissement relève de la responsabilité de l’investisseur. Nous recommandons une analyse approfondie et un suivi régulier des sous-jacents avant toute prise de position significative.
Si vous souhaitez investir sur les subnets de Bittensor, l’option la plus intéressante est de passer par Mentat Minds. Ceci est un lien referral de Victor, n’hésitez pas à l’utiliser pour le soutenir.