Computación cuántica y neuromórfica: la nueva frontera estratégica en semiconductores

Resumen generado por IA

El Future Trends Forum de Semiconductores aborda el futuro de la computación más allá del paradigma clásico de Von Neumann, enfocándose en la computación neuromórfica y cuántica como soluciones para los límites energéticos y funcionales actuales. Heike Riel, experta de IBM Research, destaca que el consumo energético del movimiento de datos entre CPU y memoria es el principal cuello de botella, no el transistor. La computación neuromórfica, inspirada en el cerebro humano, busca integrar memoria y lógica para reducir este consumo, presentando tres enfoques: la adaptación de redes neuronales en silicio CMOS (como Loihi de Intel y SpiNNaker europeo), arquitecturas especializadas de ultra bajo consumo (como TrueNorth de IBM) y la computación “in-memory” basada en física analógica, que realiza cálculos directamente en la memoria, reduciendo drásticamente el gasto energético.

Por otro lado, la computación cuántica pretende resolver problemas inabordables para la computación clásica, enfrentando desafíos tecnológicos y estratégicos que incluyen la integración con sistemas tradicionales y la necesidad de talento especializado. Europa ve estos campos como estratégicos para su soberanía tecnológica, impulsando inversiones y políticas que fortalezcan la cadena de suministro y la innovación. Riel concluye que el futuro no será monolítico, sino híbrido y especializado, combinando HPC clásico, neuromórfico y cuántico para optimizar eficiencia y funcionalidad. Así, la próxima década se definirá por la inteligencia arquitectónica, la integración tecnológica y una estrategia continental alineada con los retos energéticos y geopolíticos actuales.

La computación cuántica y neuromórfica redefine la eficiencia energética y la arquitectura del chip en la era de la IA y la soberanía tecnológica.

La serie del Future Trends Forum de Semiconductores avanza hacia una de las fronteras más profundas y estratégicas de la computación: aquellas arquitecturas que intentan ir más allá del paradigma clásico de Von Neumann. Tras analizar geopolítica, cadena de valor y advanced packaging, la conversación se desplazó al territorio donde se decide el futuro energético y funcional del cómputo: la computación neuromórfica y la computación cuántica.

Heike Riel, IBM Fellow y responsable de Ciencia en Quantum & Information Technology en IBM Research, articula una visión que conecta física, arquitectura de chips y estrategia industrial europea.

Lo que la experta puso sobre la mesa fue una visión estratégica sobre los límites energéticos del silicio y el papel que Europa puede desempeñar en la próxima generación de infraestructuras computacionales.

El límite energético del modelo actual

Riel comenzó con un contraste muy potente: el supercomputador exaescala europeo Jupiter -que consume en el rango de los 15–20 megavatios- frente a los aproximadamente 20 vatios que consume el cerebro humano.

Fuente: WIRED

La comparación no es retórica. Es estructural.

En los sistemas actuales, entre el 70 % y el 90 % de la energía en cargas de deep learning se consume en multiplicaciones y sumas matriciales. Pero aún más crítico es el movimiento de datos entre CPU y memoria, consecuencia directa de la arquitectura de Von Neumann. El cuello de botella ya no es el transistor. Es la distancia física que recorre el bit.

Este diagnóstico conecta con uno de los consensos del sector: el coste energético del dato en movimiento se ha convertido en variable estratégica, como ya señalaba el análisis sobre integración avanzada presentado en el FTF.

Neuromórfica: cuando la física calcula

Fuente: Xakata

La computación neuromórfica intenta romper esa separación entre memoria y lógica, inspirándose en el cerebro humano.

Riel estructuró el panorama neuromórfico en tres grandes aproximaciones tecnológicas que reflejan distintos niveles de madurez, ambición arquitectónica y ruptura con el paradigma clásico.

1. Implementaciones CMOS de redes neuronales

La primera vía mantiene el sustrato tecnológico del silicio CMOS convencional, pero reconfigura la arquitectura para aproximarla al funcionamiento neuronal biológico.

En esta categoría se sitúa Loihi, desarrollado por Intel, basado en redes neuronales de picos (spiking neural networks). En lugar de operar con activaciones continuas como en el deep learning tradicional, Loihi procesa eventos discretos en el tiempo, replicando el comportamiento asincrónico de las neuronas. Esta aproximación permite reducir el consumo energético en tareas de inferencia y explorar nuevas formas de aprendizaje local.

También destaca SpiNNaker, infraestructura europea vinculada al Human Brain Project, que apuesta por una arquitectura masivamente paralela basada en núcleos ARM interconectados. Su objetivo principal es la simulación a gran escala de redes neuronales biológicas. Aquí el énfasis recae en la modelización y comprensión del cerebro como sistema complejo, con implicaciones tanto científicas como tecnológicas.

En ambos casos, el cambio reside más en la arquitectura y en el modelo de computación que en el dispositivo físico fundamental. Se trata de una evolución significativa, aunque dentro del marco CMOS.

2. Arquitecturas especializadas de ultra bajo consumo

La segunda aproximación avanza hacia una integración más estrecha entre memoria y cómputo, con foco en aplicaciones concretas y eficiencia extrema.

IBM ha desarrollado TrueNorth como una arquitectura digital neurosináptica que reorganiza el silicio en bloques que imitan neuronas y sinapsis. Su evolución, NorthPole, profundiza en esa integración, acercando físicamente memoria y lógica para minimizar el movimiento de datos.

El resultado es una capacidad de inferencia con consumos del orden de decenas de milivatios, lo que abre aplicaciones en edge computing, sistemas autónomos y entornos donde la energía constituye la restricción principal. Aquí la clave no es replicar el cerebro, sino capturar su eficiencia operativa en tareas específicas.

Esta línea introduce un principio estructural: la especialización arquitectónica como vía para recuperar eficiencia energética en la era de la IA.

3. Computación “in-memory” basada en física analógica

La tercera aproximación representa el salto más radical. En lugar de trasladar datos entre memoria y procesador para realizar operaciones matriciales, la propia memoria ejecuta el cálculo.

Mediante memorias no volátiles -como phase-change memory o ReRAM- organizadas en arquitecturas tipo crossbar, las leyes físicas fundamentales (Ohm y Kirchhoff) permiten realizar multiplicaciones y acumulaciones de forma paralela y analógica. La corriente resultante en cada nodo corresponde directamente al resultado de la operación matricial.

En este modelo, la física del dispositivo ejecuta la operación matemática. La energía invertida en el movimiento de datos se reduce drásticamente y la multiplicación matricial -responsable de la mayor parte del consumo en deep Learning- se convierte en un fenómeno físico distribuido.

Este enfoque exige, sin embargo, rediseñar algoritmos, herramientas de programación y sistemas de conversión analógico-digital. La arquitectura deja de ser una capa intermedia: se convierte en parte intrínseca del modelo computacional.

En conjunto, las tres aproximaciones dibujan un mapa de transición: desde la optimización arquitectónica dentro del CMOS hasta la utilización directa de la física como motor de cálculo. La neuromórfica no es una única tecnología, sino un campo de convergencia entre microelectrónica avanzada, ciencia de materiales y rediseño algorítmico.

Y ahí reside su dimensión estratégica.

Aquí la clave no es solo la inspiración biológica, sino el uso directo de la física como mecanismo de cálculo. El hardware deja de simular la red neuronal: la implementa.

Pero Riel subrayó un punto crítico: estas arquitecturas requieren co-diseño hardware-algoritmo. No basta con fabricar el chip; hay que rediseñar la pila completa.

Computación cuántica: más allá del silicio clásico

Si la neuromórfica busca eficiencia energética imitando al cerebro, la computación cuántica persigue otra frontera: resolver problemas intratables para la computación clásica.

Desde su posición en IBM Research, Riel enfatizó que el desafío no es solo el qubit, sino el sistema completo: control criogénico, interconexión, corrección de errores, integración con HPC clásico.

Europa ha identificado esta área como estratégica. El informe Draghi propone explícitamente un plan europeo de chips cuánticos y un refuerzo del liderazgo tecnológico continental. La convergencia entre semiconductores avanzados, criogenia y nuevos materiales abre un campo donde la soberanía tecnológica será determinante.

En paralelo, el contexto global es competitivo. El 86% de los ejecutivos del sector prevé un gran crecimiento impulsado por IA, mientras que el talento y las tensiones geopolíticas se mantienen como riesgos prioritarios. La computación cuántica no escapa a esa dinámica: exige capital intensivo, talento altamente especializado y cadenas de suministro resilientes.

Especialización frente a universalidad

Un mensaje central de Riel fue que el futuro no será monolítico.

El cerebro humano es extremadamente eficiente, pero no sirve para simulaciones numéricas de alta precisión. Los supercomputadores exaescala resuelven ecuaciones diferenciales complejas, pero a un coste energético enorme.

El escenario emergente es híbrido:

  • HPC clásico para cálculo determinista.
  • Aceleradores neuromórficos para inferencia eficiente.
  • Procesadores cuánticos para optimización, química computacional y criptografía.
  • Integración estrecha entre arquitecturas.

Este enfoque de especialización arquitectónica está alineado con la transformación estructural que vive la industria: modularidad, heterogeneidad y co-optimización de sistema completo.

Energía, talento y estrategia europea

El debate técnico desemboca inevitablemente en geopolítica industrial.

El sector identifica como prioridades estratégicas la flexibilidad de la cadena de suministro y el desarrollo de talento especializado. La implementación efectiva de políticas como el CHIPS Act requiere no solo inversión en fabs, sino en ecosistemas de innovación, clusters y transferencia tecnológica.

En ese contexto, la computación neuromórfica y cuántica representan algo más que una frontera científica: son vectores de posicionamiento industrial.

Europa compite en capacidad productiva, en arquitectura y diseño de chips, en investigación científica de vanguardia y en la integración de sistemas complejos que sostendrán la soberanía tecnológica del continente.

Conclusión: cuando la arquitectura redefine la industria

La ponencia de Riel en el Future Trends Forum dejó una idea clara: el futuro de los semiconductores no se juega únicamente en nanómetros. Se juega en cómo diseñamos la arquitectura para minimizar el movimiento de datos. En cómo usamos la física para calcular. En cómo combinamos tecnologías clásicas, neuromórficas y cuánticas en sistemas híbridos.

Y en cómo alineamos inversión, talento y estrategia continental.

Si la década pasada estuvo marcada por la tiranía de la miniaturización, la próxima estará marcada por la inteligencia arquitectónica.

La computación del futuro no será simplemente más rápida. Será más especializada, más integrada y, sobre todo, más estratégica.

Ver la ponencia

Para profundizar en el debate sobre computación neuromórfica, arquitecturas in-memory, eficiencia energética y el futuro de la computación cuántica, puedes ver la intervención de Heike Riel en el Future Trends Forum de Semiconductores:

En los próximos artículos de la serie seguiremos analizando las tendencias clave que definirán la competitividad del sector: desde la arquitectura de interconexión hasta la transición del laboratorio a la fábrica, la inversión estratégica y el desarrollo de talento especializado.

El futuro de los semiconductores se diseña ahora. Y su impacto alcanzará a toda la economía digital.