Durante los últimos años, la inteligencia artificial ha estado dominada por una idea muy simple: usar ChatGPT, Claude, Gemini o cualquier otra API cerrada, pagar por token y dejar que una gran empresa se encargue de todo. Para el usuario normal, ese modelo es cómodo. Pero para muchas empresas, startups y desarrolladores tiene un problema importante: no controlan del todo sus datos, sus costes ni su infraestructura.
Ahí aparece una tendencia que puede marcar la próxima etapa del sector: la IA local ejecutada en infraestructura alquilada. Y esto es importante porque, cuando hablamos de “modelos locales”, no siempre hablamos de un portátil en casa. Muchas veces hablamos de modelos open-weight desplegados en servidores privados, GPUs alquiladas, máquinas bare metal o clouds especializadas.
La tesis es clara: si los modelos open-weight siguen mejorando, la demanda de infraestructura GPU puede dispararse. No porque todo el mundo vaya a tener una supermáquina en su escritorio, sino porque miles de empresas querrán correr sus propios modelos sin depender por completo de una API cerrada.
La tesis: mejores modelos open-weight significan más demanda de infraestructura GPU
Si un modelo open-weight se acerca lo suficiente al nivel de los mejores modelos cerrados, muchas empresas van a plantearse desplegarlo ellas mismas. No necesitan que sea el mejor modelo del mundo en todos los benchmarks. Necesitan que sea suficientemente bueno para sus tareas reales.
Ejemplos sobran: soporte interno, agentes para empleados, análisis de documentos, RAG, generación de contenido, clasificación, traducción, extracción de datos, copilotos de código, automatizaciones y chatbots especializados.
Correr un modelo propio puede dar varias ventajas:
- Más control sobre los datos, especialmente en sectores regulados.
- Mayor privacidad, al reducir la dependencia de proveedores externos.
- Personalización, con modelos ajustados al negocio.
- Costes más previsibles cuando hay mucho volumen.
- Menor dependencia de cambios de precios, límites o condiciones de OpenAI, Anthropic, Google u otros proveedores.
Esto no significa que las APIs cerradas vayan a desaparecer. Lo más probable es que convivan ambos mundos. Para tareas muy difíciles, muchas empresas seguirán usando modelos frontier cerrados. Pero para una parte enorme del trabajo diario, un modelo open-weight bien desplegado puede ser suficiente.
El error común: pensar que IA local significa solo “en mi PC”
Cuando alguien escucha “modelo local”, suele imaginar Ollama en un Mac, un PC con una GPU potente o una torre gaming. Esa parte existe y crecerá, pero no es el mercado grande.
El mercado grande está en empresas que necesitan servir miles o millones de consultas, startups que integran IA en su producto, bancos que quieren privacidad, hospitales que manejan datos sensibles, despachos legales, e-commerce, call centers, plataformas SaaS y agentes autónomos funcionando 24/7.
Todo eso no se resuelve con un portátil. Requiere servidores, GPUs, almacenamiento, redes rápidas, refrigeración, energía y operaciones.
Por eso la tesis completa no es “habrá modelos locales buenos”. La tesis completa es: habrá modelos open-weight suficientemente buenos y las empresas necesitarán alquilar infraestructura para correrlos a escala.
Quién gana si esta tendencia se cumple
La cadena de valor de esta nueva etapa de la IA se puede dividir en varias capas. Cada una tiene oportunidades y riesgos distintos.
1. Creadores de chips
El nombre más evidente es NVIDIA. También están AMD, los chips propios de Google, Amazon y Microsoft, además de aceleradores especializados. Sin GPUs o aceleradores, no hay IA moderna a escala.
Esta parte ya es muy conocida por el mercado. NVIDIA fue el gran ganador visible de la primera ola. La pregunta ahora es qué empresas pueden beneficiarse de la siguiente capa: quien alquila, opera y despliega esa capacidad.
2. Clouds especializadas en IA
Aquí entran empresas como CoreWeave y Nebius. Son plataformas diseñadas para cargas de IA: entrenamiento, fine-tuning, inferencia, clusters de GPUs, redes de baja latencia y despliegues de modelos.
Son apuestas muy directas. Si una startup o empresa quiere correr un modelo propio sin comprar un data center, puede alquilar capacidad en una de estas plataformas.
3. Clouds para desarrolladores y pymes
DigitalOcean ocupa una posición diferente. No compite igual que AWS, Azure o Google Cloud en grandes contratos enterprise, pero tiene una relación muy fuerte con developers, startups pequeñas y pymes que buscan simplicidad.
Si la IA local se democratiza, muchos equipos no empezarán montando clusters complejos. Buscarán una GPU fácil de desplegar, modelos preconfigurados, costes claros y una experiencia simple.
4. Hyperscalers tradicionales
Amazon, Microsoft, Google y Oracle también ganan con esta tendencia. Tienen clientes, data centers, contratos enterprise y músculo financiero. Oracle, en particular, tiene una posición interesante en infraestructura bare metal y clientes corporativos.
La diferencia es que estas compañías son enormes. La IA cloud puede crecer mucho, pero dentro de Amazon o Microsoft el impacto se diluye más que en una empresa más pequeña y enfocada.
5. Data centers, energía y capacidad física
Empresas como IREN y Applied Digital apuntan a otra parte del problema: el cuello de botella físico. La IA no solo consume software. Consume energía, suelo, refrigeración, permisos, fibra, transformadores y centros de datos preparados para alta densidad.
Si el mundo necesita “AI factories”, quienes consigan construir y operar esa infraestructura pueden tener un papel muy relevante.
Empresas que encajan en esta tesis
CoreWeave: la nube pura de IA
CoreWeave es uno de los nombres más claros dentro de la infraestructura IA. Su negocio se basa en alquilar capacidad cloud optimizada para inteligencia artificial. Más inferencia, más entrenamiento y más modelos propios significan más demanda potencial para este tipo de proveedores.
La parte positiva es su exposición directa. La parte negativa es que el negocio exige muchísimo capital: GPUs, data centers, energía, redes, contratos y financiación. Puede crecer mucho, pero también puede sufrir si el mercado castiga el gasto o si la demanda no avanza al ritmo esperado.
Nebius: una neocloud con exposición directa
Nebius también encaja muy bien en la idea de neocloud de IA. Su foco está en infraestructura para entrenar y desplegar modelos, tanto para startups avanzadas como para empresas que necesitan capacidad potente.
Su atractivo está en la pureza de la tesis. Su riesgo está en la ejecución: capex elevado, necesidad de financiación y presión por escalar rápido sin destruir márgenes.
DigitalOcean: el puente hacia developers y pymes
DigitalOcean puede ser importante si la IA local se vuelve más accesible para desarrolladores y pequeñas empresas. No es necesariamente la opción para los clusters más grandes, pero sí puede ser una puerta de entrada natural para desplegar modelos open-weight, montar servicios de inferencia e integrar IA en productos SaaS pequeños.
Su papel no es ser la apuesta más explosiva, sino representar la democratización de la IA en cloud.
Oracle: la pata enterprise
Oracle no es una apuesta pura, pero sí una pata más estable de la tesis. OCI se ha posicionado con infraestructura cloud potente, bare metal y relaciones con grandes empresas.
En sectores regulados como banca, salud, administración pública o grandes corporaciones, Oracle puede beneficiarse de la demanda de IA privada y entornos controlados.
IREN: energía, data centers y GPU cloud agresiva
IREN es una de las apuestas más especulativas. Viene de una historia ligada a infraestructura energética y minería de bitcoin, pero está pivotando hacia IA y data centers.
Su atractivo es evidente: si la IA necesita cada vez más energía y capacidad física, las empresas con acceso a electricidad y suelo pueden convertirse en piezas clave. Pero el riesgo también es alto: financiación, deuda, dilución, ejecución de proyectos y captación de clientes.
Applied Digital: infraestructura física para IA
Applied Digital completa la tesis desde el lado físico. Diseña, construye y opera data centers para IA, HPC y cloud. Si faltan centros de datos preparados para GPUs, compañías así pueden beneficiarse.
El riesgo está en que construir data centers es caro, lento y complejo. Hay que conseguir energía, permisos, refrigeración, financiación y clientes que ocupen la capacidad contratada.
Por qué los modelos open-weight pueden cambiar el equilibrio
Durante mucho tiempo, los mejores modelos eran cerrados. Si querías máxima calidad, usabas OpenAI, Anthropic o Google. Los modelos locales eran útiles, pero estaban por detrás.
Eso está cambiando. Familias como Llama, Mistral, Qwen, DeepSeek o Kimi han demostrado que los modelos open-weight pueden acercarse mucho a los propietarios en muchas tareas. No siempre ganan, pero cada generación reduce la distancia.
Y eso cambia la decisión empresarial. Una empresa no necesita siempre el modelo más potente del planeta. Necesita un modelo que haga bien su trabajo, sea seguro, personalizable y tenga un coste razonable.
Si un modelo open-weight es suficientemente bueno para el 70%, 80% o 90% de ciertos flujos internos, muchas compañías lo usarán en infraestructura propia o alquilada. Ese movimiento aumenta la demanda de servidores GPU.
Modelos más eficientes pueden aumentar la demanda, no reducirla
Una objeción habitual es que los modelos serán cada vez más eficientes y, por tanto, harán falta menos GPUs. A corto plazo puede parecer lógico. Si cada consulta consume menos, baja la infraestructura necesaria por petición.
Pero en tecnología suele ocurrir lo contrario: cuando algo se abarata, se usa muchísimo más.
Si la inferencia baja de precio, aparecerán más casos de uso:
- Agentes trabajando todo el día.
- IA integrada en todos los SaaS.
- Atención al cliente automatizada.
- Búsqueda semántica empresarial.
- Generación de imagen, vídeo, voz y código.
- Robótica y automatización industrial.
- Copilotos internos para empleados.
- Análisis masivo de documentos.
- Sistemas multiagente.
Aunque cada consulta cueste menos, el número total de consultas puede multiplicarse. Por eso la eficiencia no necesariamente destruye la tesis. Puede ampliarla.
Riesgos de invertir en infraestructura para IA local
La tesis es atractiva, pero no está garantizada. Hay riesgos importantes que conviene vigilar.
Exceso de capacidad
Si demasiadas empresas construyen data centers al mismo tiempo, puede aparecer sobreoferta. Eso presionaría los precios de alquiler de GPUs y capacidad cloud.
Deuda y dilución
Muchas compañías necesitan grandes cantidades de capital. Pueden emitir deuda, vender acciones o firmar acuerdos complejos. Eso puede afectar al accionista si el crecimiento no compensa.
Obsolescencia de GPUs
El hardware envejece rápido. Una GPU puntera hoy puede ser menos competitiva en pocos años. Renovar capacidad será una exigencia constante.
Dependencia de pocos clientes
Algunas empresas de infraestructura tienen contratos enormes con pocos clientes. Eso puede ser positivo si todo va bien, pero peligroso si un cliente renegocia, retrasa o cancela.
Competencia de hyperscalers
AWS, Azure, Google Cloud y Oracle también construyen capacidad. Si bajan precios o integran mejor sus servicios, pueden presionar a las neoclouds.
APIs cerradas cada vez más baratas
Si OpenAI, Anthropic o Google reducen mucho los precios, algunas empresas preferirán no complicarse desplegando modelos propios.
Qué señales vigilar
Para saber si esta tesis avanza, no basta con mirar el precio de las acciones. Hay que observar señales operativas.
- CoreWeave y Nebius: backlog, contratos, utilización de GPUs, margen bruto, deuda, capex y diversificación de clientes.
- DigitalOcean: ingresos vinculados a IA, adopción de GPU Droplets, retención de clientes y facilidad de despliegue.
- Oracle: crecimiento de OCI, contratos cloud de IA y adopción enterprise.
- IREN y Applied Digital: MW contratados, fechas reales de entrega, financiación, clientes investment-grade, coste de construcción, energía disponible y dilución.
Cómo organizar una cesta de empresas
Una forma sencilla de ordenar esta oportunidad sería por capas:
- Núcleo de cloud IA pura: CoreWeave y Nebius.
- Capa developer y pymes: DigitalOcean.
- Capa enterprise: Oracle.
- Capa física y energética: IREN y Applied Digital.
No todas tienen el mismo riesgo. CoreWeave y Nebius son más directas. DigitalOcean puede beneficiarse de la democratización. Oracle aporta estabilidad. IREN y Applied Digital son más agresivas y dependen mucho de la ejecución física.
Conclusión: la IA local también vivirá en la nube
La IA local no significa que todo vaya a ejecutarse en casa. La versión grande de esta tendencia será que empresas, startups y desarrolladores ejecuten modelos propios en infraestructura alquilada.
Si los modelos open-weight siguen mejorando, muchas compañías van a querer independencia, privacidad y control. Para lograrlo necesitarán GPUs, servidores, data centers, energía, refrigeración y software cloud.
Eso da una tesis clara a empresas como CoreWeave, Nebius, DigitalOcean, Oracle, IREN y Applied Digital. La oportunidad puede ser enorme, pero también el riesgo. Habrá ciclos, caídas fuertes, ampliaciones de capital, deuda y dudas sobre exceso de capacidad.
Pero la dirección de fondo tiene sentido: si la IA se convierte en una capa básica de la economía, alguien tendrá que alojarla. Y no toda esa IA vivirá en las APIs cerradas de los gigantes. Mucha vivirá en modelos propios, desplegados en servidores alquilados.
El futuro no será solo “usar ChatGPT”. También será que miles de empresas corran sus propios modelos en nubes privadas, GPUs alquiladas y data centers especializados.
