Le stockage, et non le silicium, déclenchera la prochaine avancée de l'IA.

Le débat sur la puissance de traitement graphique est un vieux sujet. Ceux qui réussiront dans le futur seront ceux qui maîtrisent l'emplacement des données. Alors que la création de données mondiales continue d'exploser, les entreprises en retard seront laissées à l'écart de la prochaine étape de l'innovation.

Résumé

  • Les volumes de données explosent, avec une création mondiale prévue à plus de 200 zettaoctets d'ici fin 2025, plus que toute la production humaine antérieure combinée.
  • Le stockage en nuage centralisé est le goulot d'étranglement de l'IA, gonflant les coûts jusqu'à 80 % avec des frais d'extraction et ralentissant les transferts de données à grande échelle pendant des jours.
  • Les réseaux de stockage décentralisés offrent une solution, en fragmentant les données sur des nœuds indépendants et en intégrant des preuves cryptographiques pour des pistes de vérification conformes.
  • La réglementation comme la loi sur l'IA de l'UE augmente les enjeux, obligeant à une provenance des données prouvable—rendant le stockage une priorité stratégique, et non un simple utilitaire.

La création de données devrait atteindre 200 zettaoctets dans le monde d'ici la fin de 2025 ; c'est suffisant pour diffuser chaque film jamais réalisé plus de 100 milliards de fois. Cette estimation implique plus de matière numérique que l'humanité n'en a généré au cours de toutes les années précédentes combinées.

En tandem avec cette montée, des équipes de recherche ont révélé le premier modèle de langage à un trillion de paramètres rendu public. Ce modèle colossal, dont le corpus d'entraînement aurait à lui seul rempli des archives nationales entières il y a dix ans, est un exemple d'un tel Léviathan qui consomme des pétaoctets par heure.

Sans des pipelines de stockage capables d'ingérer, de préparer et de diffuser des données à ces nouvelles échelles, même les processeurs les plus rapides souffriront dans une frustration inactive.

Les nuages centralisés sont le nouveau goulot d'étranglement

La plupart des organisations s'appuient encore sur une poignée de silos de stockage hyperscale conçus pour des applications web, et non pour la science de pointe. Le fardeau financier est brutal.

Un audit sectoriel publié en avril a révélé que des frais d'extraction et de récupération cachés peuvent faire grimper les coûts de stockage réels jusqu'à 80 %, rendant le réentraînement régulier des modèles une entreprise qui dépasse le budget. Pire encore, déplacer des dizaines de pétaoctets d'une région à l'autre peut prendre des jours ; une éternité lorsque l'avantage concurrentiel est mesuré en cycles d'itération.

La centralisation, par conséquent, fait plus qu'inflater les factures ; elle intègre directement l'inégalité dans l'économie de l'intelligence artificielle, donnant aux acteurs établis avec des poches plus profondes un avantage automatique sur tous les autres. En réponse à cette réalité, un modèle différent prend de l'ampleur alors que les réseaux de stockage décentralisés qui fractionnent les données à travers des milliers de nœuds indépendants ouvrent la voie à un avenir construit sur un pied d'égalité.

Il est tout aussi essentiel de disposer de pistes de vérification transparentes qui répondent aux exigences de divulgation imminentes concernant la manière dont les données de trading sont sourcées, organisées et gérées. En fin de compte, la réglementation sera le facteur décisif quant à savoir si les modèles de demain verront le jour ou feront face à des litiges.

Le nouveau test de stress du stockage

L'IA en temps réel s'étend désormais bien au-delà des murs des centres de données, déployant des modèles sur les chaînes de production, dans les hôpitaux et les véhicules autonomes. À ces extrémités, une milliseconde perdue à cause d'une I/O lente peut déclencher un défaut de production ou un risque pour la sécurité.

Les derniers benchmarks MLPerf Storage v2.0 prouvent la pression : le point de contrôle d'une charge de travail de type GPT sur 10 000 accéléraiteurs prend désormais 37 secondes, et même un supercluster de 100 000 GPU reste bloqué pendant 4,4 secondes en attendant les disques plutôt qu'en effectuant des opérations mathématiques.

À moins que les pipelines ne puissent livrer des pétaoctets par rafales et ensuite répliquer les mêmes données à des milliers de micro-sites, l'« edge-AI » restera plus une keynote qu'une réalité. Les analystes répercutent déjà l'avertissement selon lequel le débit de stockage, et non la mémoire ou le réseau, sera le principal goulot d'étranglement qui limitera les clusters de nouvelle génération.

La réglementation ajoute une autre couche d'urgence, comme l'Acte sur l'IA de l'Union européenne, qui est entré dans sa deuxième vague d'application le 2 août — obligeant les fournisseurs de modèles à usage général à documenter chaque fragment de données d'entraînement… sous peine d'amendes pouvant atteindre 7 % du chiffre d'affaires mondial.

Les silos centralisés ont du mal à satisfaire ce mandat. Les copies dupliquées brouillent la provenance, et des journaux de sortie opaques rendent les pistes de vérification cauchemardesques pour les comptables. En revanche, les réseaux décentralisés intègrent des preuves cryptographiques de réplication dans leur propre tissu, transformant la conformité en un sous-produit plutôt qu'en un coût supplémentaire.

Ignorer le stockage au prix du péril

Avec une latence de bord mesurée en microsecondes et des pénalités légales mesurées en milliards, le stockage n'est plus une simple utilité en arrière-plan ; c'est le seul substrat sur lequel l'IA de demain peut fonctionner légalement et physiquement. Les entreprises qui considèrent encore la capacité comme un simple élément de coût encourent à la fois une dette technique et un choc réglementaire.

L'innovation informatique continuera à faire les gros titres, mais sans une refonte tout aussi radicale de l'endroit où ( et comment) les données résident, le silicium le plus avancé restera inactif alors que les coûts et les risques de conformité s'envolent.

La course à la domination de l'IA est lancée, et elle sera remportée par ceux qui élèvent le stockage au rang de priorité stratégique de premier plan, adoptent la décentralisation et construisent des pipelines prêts pour l'audit qui s'étendent du cœur à la périphérie. Tous les autres découvriront qu'aucune puissance de GPU ne peut surpasser un goulet d'étranglement intégré dans les fondations mêmes de leur pile.

Kai Wawrzinek

Kai Wawrzinek

Kai Wawrzinek est un co-fondateur de l'Impossible Cloud et de l'Impossible Cloud Network. C'est un entrepreneur chevronné avec un doctorat en droit et un parcours éprouvé dans la création d'entreprises prospères. Reconnaissant le besoin de solutions de niveau entreprise dans l'espace web3, Kai a fondé l'Impossible Cloud Network (ICN), une plateforme cloud décentralisée visant à créer une alternative décentralisée à AWS. Avant ICN, Kai a fondé Goodgame Studios, une entreprise de jeux en ligne, et a fait croître l'entreprise à plus de 1 000 employés, générant plus de 1 milliard d'euros de revenus, et l'a rendue publique sur le Nasdaq en 2018 par le biais d'une fusion inversée.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)