El almacenamiento, no el silicio, desencadenará el próximo avance de la IA

El debate sobre la potencia de procesamiento gráfico es algo antiguo. Aquellos que tengan éxito en el futuro serán los que dominen dónde reside la información. A medida que la creación de datos global continúa explotando, las empresas rezagadas quedarán fuera de la siguiente etapa de innovación.

Resumen

  • Los volúmenes de datos están explotando, con la creación global proyectada para superar los 200 zettabytes para finales de 2025, más que toda la producción humana previa combinada.
  • El almacenamiento en la nube centralizado es el cuello de botella de la IA, inflando los costos hasta en un 80% con tarifas de salida y ralentizando las transferencias de datos a gran escala a días.
  • Las redes de almacenamiento descentralizadas ofrecen una solución, fragmentando datos a través de nodos independientes e incrustando pruebas criptográficas para auditorías listas para el cumplimiento.
  • La regulación como la Ley de IA de la UE aumenta la apuesta, obligando a una procedencia de datos comprobable, convirtiendo el almacenamiento en una prioridad estratégica, no en una utilidad de fondo.

Se proyecta que la creación de datos alcanzará los 200 zettabytes en todo el mundo para finales de 2025; eso es suficiente para transmitir cada película jamás realizada más de 100 mil millones de veces. Esta estimación involucra más materia digital de la que la humanidad ha generado en todos los años anteriores combinados.

En paralelo con este aumento, los equipos de investigación han revelado el primer modelo de lenguaje de un billón de parámetros que se ha publicado públicamente. Este modelo colosal, cuyo corpus de entrenamiento por sí solo habría llenado archivos nacionales enteros hace diez años, es un ejemplo de tal Leviatán que consume petabytes por hora.

Sin tuberías de almacenamiento que puedan ingerir, preparar y transmitir datos a estas nuevas escalas, incluso los procesadores más rápidos sufrirán en una frustración ociosa.

Las nubes centralizadas son el nuevo cuello de botella

La mayoría de las organizaciones aún dependen de un puñado de silos de almacenamiento hiperescalables diseñados para aplicaciones web, no para la ciencia fronteriza. La carga financiera es brutal.

Una auditoría de la industria publicada en abril reveló que los cargos ocultos de salida y recuperación pueden aumentar los costos reales de almacenamiento hasta en un 80%, convirtiendo el reentrenamiento rutinario de modelos en un esfuerzo que rompe el presupuesto. Peor aún, mover decenas de petabytes entre regiones puede llevar días; una eternidad cuando la ventaja competitiva se mide en ciclos de iteración.

La centralización, por lo tanto, hace más que inflar facturas; incrusta la desigualdad directamente en la economía de la inteligencia artificial, otorgando a los incumbentes con bolsillos más profundos una ventaja automática sobre todos los demás. En respuesta a esta realidad, un plano diferente está ganando impulso a medida que las redes de almacenamiento descentralizado que dividen datos a través de miles de nodos independientes allanan el camino para un futuro construido sobre una base equitativa.

Igualmente vital es la necesidad de auditorías transparentes que satisfagan los inminentes mandatos de divulgación sobre cómo se obtienen, curan y gobiernan los datos de negociación. En última instancia, la regulación será el factor decisivo para que los modelos del mañana vean la luz o enfrenten litigios.

La nueva prueba de estrés del almacenamiento

La inteligencia artificial en tiempo real ahora se extiende mucho más allá de la pared del centro de datos, llevando modelos a las plantas de fabricación, hospitales y vehículos autónomos. En estos bordes, un milisegundo perdido por una I/O lenta puede desencadenar un fallo de producción o un riesgo de seguridad.

Los últimos benchmarks de MLPerf Storage v2.0 demuestran la presión: el checkpointing de una carga de trabajo de clase GPT a través de 10,000 aceleradores ahora toma 37 segundos, e incluso un supercluster de 100,000 GPUs aún se detiene durante 4.4 segundos mientras espera en los discos en lugar de realizar operaciones matemáticas.

A menos que los pipelines puedan entregar petabytes en ráfagas y luego replicar los mismos datos a miles de micrositios, la ‘IA en el borde’ seguirá siendo más un discurso que una realidad. Los analistas ya están repitiendo la advertencia de que el rendimiento de almacenamiento, no la memoria o la red, será el principal cuello de botella que limitará los clústeres de próxima generación.

La regulación añade otra capa de urgencia, como la Ley de IA de la Unión Europea, que entró en su segunda ola de aplicación el 2 de agosto — obligando a los proveedores de modelos de propósito general a documentar cada fragmento de datos de entrenamiento…o arriesgarse a multas de hasta el 7% de la facturación global.

Los silos centralizados luchan por satisfacer este mandato. Las copias duplicadas difuminan la procedencia, y los registros de salida opacos convierten las auditorías en una pesadilla para los contadores. En contraste, las redes descentralizadas incorporan pruebas criptográficas de replicación en su propia estructura, convirtiendo el cumplimiento en un subproducto en lugar de un costoso complemento.

Ignorar el almacenamiento a costa del peligro

Con latencias de borde medidas en microsegundos y penalizaciones legales medidas en miles de millones, el almacenamiento ya no es una utilidad de fondo; es el único sustrato sobre el cual la IA del mañana puede funcionar legal y físicamente. Las empresas que aún tratan la capacidad como un artículo de línea de mercancía están cortejando una deuda técnica y un choque regulatorio en igual medida.

La innovación computacional seguirá robando titulares, pero sin una reconsideración igualmente radical de dónde ( y cómo ) reside la información, el silicio más avanzado quedará inactivo mientras los costos y los riesgos de cumplimiento se disparen.

La carrera por la dominancia de la IA está en marcha, y la ganarán aquellos que eleven el almacenamiento a una prioridad estratégica de primer nivel, abracen la descentralización y construyan canalizaciones listas para auditorías que escalen desde el núcleo hasta el borde. Todos los demás descubrirán que ninguna cantidad de potencia de GPU puede superar un cuello de botella incorporado en los mismos cimientos de su pila.

Kai Wawrzinek

Kai Wawrzinek

Kai Wawrzinek es cofundador de Impossible Cloud y de Impossible Cloud Network. Es un empresario experimentado con un doctorado en Derecho y un historial comprobado de creación de empresas exitosas. Reconociendo la necesidad de soluciones de nivel empresarial en el espacio web3, Kai fundó Impossible Cloud Network (ICN), una plataforma de nube descentralizada destinada a crear una alternativa descentralizada a AWS. Antes de ICN, Kai fundó Goodgame Studios, una empresa de juegos en línea, y hizo crecer la empresa a más de 1,000 empleados y generó más de 1,000 millones de euros en ingresos, llevándola a la bolsa en Nasdaq en 2018 a través de una fusión inversa.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)