El microprocesador, la explicación definitiva

Tabla de contenidos

Los microprocesadores son el corazón de casi todos los dispositivos electrónicos modernos: desde ordenadores personales y servidores hasta smartphones y electrodomésticos inteligentes. A lo largo de más de cinco décadas, el microprocesador (o CPU, Unidad Central de Procesamiento) ha experimentado una evolución vertiginosa en potencia y eficiencia gracias a avances constantes en tecnología de fabricación y diseño. En este post técnico ofreceremos la explicación definitiva sobre qué es un microprocesador y cómo ha llegado a ser lo que es hoy, abarcando su historia, las mejoras clave (nanómetros, frecuencia, núcleos), las razones técnicas detrás de sus límites, el estado del arte en fabricación (FinFET, GAAFET, chiplets, etc.), la comparación de arquitecturas x86 vs ARM, y un análisis especial de los microprocesadores Apple Silicon (M1, M2, M3). Todo ello con un estilo técnico-divulgativo riguroso, optimizado para aclarar conceptos complejos de forma accesible.

Chip Intel C4004 (1971), el primer microprocesador comercial, en encapsulado CERDIP de 16 pines. Marcó el inicio de la revolución de los microprocesadores.

Historia de los microprocesadores: de 4 bits a la era multi-gigahercio

La historia del microprocesador comienza a principios de los años 70. En 1971, Intel lanzó el Intel 4004, considerado el primer microprocesador comercial integrado en un solo chip. Este CPU de 4 bits, concebido inicialmente para calculadoras, contenía alrededor de 2300 transistores y funcionaba a apenas 740 kHz de frecuencia máxima (Intel 4004 – Wikipedia, la enciclopedia libre). A pesar de su modesta potencia comparado con estándares actuales, el 4004 demostró que era posible colocar la unidad central de procesamiento completa de un computador en un único circuito integrado, sentando las bases de la microinformática. Le siguieron rápidamente versiones más avanzadas: en 1972 llegó el Intel 8008 (8 bits) y en 1974 el Intel 8080 de 8 bits, que se usó en uno de los primeros computadores personales (el Altair 8800). El 8080 corría ya a unos 2 MHz de reloj, una velocidad suficiente para considerarlo el primer diseño de CPU verdaderamente utilizable en un microcomputador.

Durante los años siguientes, la carrera tecnológica de los microprocesadores se aceleró. A finales de los 70 surgieron los primeros procesadores de 16 bits, como el Intel 8086 (1978), que sería la base de la arquitectura x86 dominante en PCs. El 8086 operaba inicialmente a 5 MHz (alcanzando variantes de hasta 10 MHz), y junto con su variante económica 8088 (usada en el IBM PC de 1981 a 4.77 MHz) popularizó la computación personal. En paralelo, otras compañías lanzaron sus propias familias de microprocesadores: Motorola presentó el 68000 en 1979 (16/32 bits) que alimentó computadores como el Apple Lisa y Macintosh original; y en 1985 la británica Acorn introdujo los primeros procesadores ARM (Acorn RISC Machine), pioneros en la filosofía RISC de instrucciones simples.

Los años 1980 vieron un salto importante en rendimiento: las frecuencias de reloj pasaron de unos pocos megahercios a decenas de MHz, y surgieron las primeras CPU de 32 bits. Por ejemplo, Intel lanzó el 80386 en 1985 (frecuencias de 16 a 33 MHz) y el 80486 en 1989, que superó la barrera de los 50 MHz. Hacia 1992, los diseños de CPU con técnicas RISC alcanzaron por primera vez los 100 MHz (HP PA-7100, DEC Alpha 21064), demostrando el potencial de mayor velocidad gracias a arquitecturas más simples y pipelines más profundos. En 1993, Intel introdujo el Pentium (microarquitectura P5, 5ª generación x86) inicialmente a 60 MHz, escalando a 100 MHz en modelos posteriores. Para finales de los 90, las velocidades de reloj de las CPU habían crecido más de diez veces en esa década: los Pentium Pro y II superaban los 200–300 MHz, y el Pentium III rozó los 500–600 MHz a finales de 1999.

El cambio de milenio trajo un hito simbólico: en marzo del 2000, AMD fue la primera en demostrar un microprocesador operando a 1 GHz (el Athlon “Thunderbird”), adelantándose por días a Intel, que ese mismo año lanzó un Pentium III a 1 GHz. La barrera del gigahercio había caído. A partir de ahí, la industria siguió empujando las frecuencias: la arquitectura Intel Pentium 4 (2000–2004) elevó el reloj hasta 3 GHz e incluso 3.8 GHz en sus últimas iteraciones, siendo la primera en superar los 3 GHz en 2002. Sin embargo, como veremos más adelante, esta carrera por la frecuencia pura encontró sus límites a mediados de la década de 2000.

Al mismo tiempo que aumentaba la velocidad, los microprocesadores aumentaban su complejidad interna y número de transistores según la ley de Moore. De los 2 mil transistores del Intel 4004 en 1971 se pasó a cientos de miles en los 80 (80286 ~134 mil transistores, 80386 ~275 mil), millones en los 90 (Pentium de 1993 tenía ~3.1 millones), y decenas de millones a inicios de los 2000. Este crecimiento exponencial fue posible gracias a la rápida reducción del tamaño de transistor y nodo de fabricación en nanómetros, como veremos en detalle. Hacia 2006, un Intel Core 2 Duo integraba ~291 millones de transistores en 65 nm, y en 2011 un Core i7 “Sandy Bridge” superaba los 2.000 millones en 32 nm. Actualmente, los chips más avanzados cuentan decenas de miles de millones de transistores (por ejemplo, el Apple M1 de 2020 integra 16 mil millones, y los Apple M3 Max de 2023 alcanzan 92 mil millones. La historia del microprocesador es, en esencia, la historia de lograr mayor potencia de cómputo en menos espacio y con mayor eficiencia año tras año.

Evolución de los microprocesadores: nodo, frecuencia y núcleos

A continuación, analizamos cómo han evolucionado los microprocesadores en tres aspectos clave: el tamaño del nodo de fabricación (medido en nanómetros, nm), la frecuencia de reloj (de MHz a GHz) y la adopción de arquitecturas multinúcleo. Estas tres variables han definido las sucesivas generaciones de CPUs y sus ganancias de rendimiento.

Reducción del tamaño de nodo (nanómetros)

Una de las tendencias fundamentales en la evolución de los microprocesadores ha sido la miniaturización constante de los transistores y componentes, comúnmente expresada como la reducción del “nodo” de fabricación en nanómetros. Un nodo típicamente se refiere a una generación de proceso litográfico semiconductor; en los años 70 se medía en micrómetros (μm) y luego en nanómetros. Cuanto más pequeño el nodo, más transistores se pueden integrar en la misma superficie de chip, y generalmente menores son el consumo y la longitud de conmutación de los transistores, lo que permite mayores velocidades.

En 1971, el Intel 4004 se fabricaba en tecnología de 10 μm (10.000 nm) con transistores MOS de puerta de silicio (una innovación de la época) – enormes comparados con los tamaños actuales. Durante las décadas siguientes, la industria siguió la senda marcada por la Ley de Moore, que predijo duplicar el número de transistores aproximadamente cada 2 años. Los nodos pasaron a micrómetros a finales de los 70, luego a fracciones de micra en los 80 (ej: ~1.5 μm en 1982, ~800 nm en 1987), y entrados los años 90 llegaron los primeros nodos por debajo de 1 μm, medidos en centenas de nanómetros. Por ejemplo, en 1993 el Pentium se fabricaba en 800 nm y el Pentium II de 1997 en 350 nm; hacia el año 2000 el Pentium 4 utilizaba 180 nm y luego 130 nm (2001).

Cada salto de nodo permitía duplicar densidad de transistores y aumentar la frecuencia a la vez que se mantenía (o reducía) el consumo por transistor. A partir de 2004, la industria entró en la era de los dos dígitos de nanómetro: 90 nm (Pentium 4 “Prescott”), seguido de 65 nm (2006) y 45 nm (2008) en los Core 2 Duo. En la década de 2010, se alcanzaron los nodos de un dígito en nm: 32 nm (2010), 22 nm (2012) y 14 nm (2014) en Intel, acompañados de nodos equivalentes en otras fundiciones (28 nm, 20 nm, 16/14 nm en TSMC, GlobalFoundries y Samsung). Hacia 2018-2020, los procesos de 7 nm y 5 nm se volvieron comerciales en productos líderes (TSMC 7 nm en chips AMD Zen 2 y Apple A12, 5 nm en Apple A14/M1 en 2020). En la actualidad (2023-2025), se está iniciando la producción en 3 nm, y ya se investigan nodos de 2 nm e incluso 1.4 nm para los próximos años.

Es importante mencionar que el valor en “nanómetros” hoy es en parte marketing: antaño correspondía aproximadamente a la longitud de puerta del transistor, pero en nodos avanzados el término es simbólico y no describe una dimensión física exacta. Aun así, refleja las mejoras de densidad y rendimiento alcanzadas. Esta miniaturización encontró enormes desafíos técnicos, especialmente al bajar de ~100 nm, lo que llevó a cambios radicales en la estructura de los transistores, como veremos en la sección de tecnologías (FinFET, GAAFET). Gracias a la reducción de nodo, los microprocesadores han pasado de integrar miles de transistores en los 70 a integrar decenas de miles de millones en la actualidad, habilitando dispositivos más potentes en formatos más pequeños (por ejemplo, chips de 5 nm en smartphones que superan en capacidad de cómputo a supercomputadores de hace 20 años).

Incremento de la frecuencia de reloj (de MHz a GHz)

Otro pilar de la evolución ha sido el aumento de la frecuencia de reloj de las CPU, medida en megahercios (MHz) primero y luego en gigahercios (GHz). La frecuencia de reloj marca cuántos ciclos por segundo puede ejecutar el procesador (1 Hz = 1 ciclo/s). Cada ciclo, idealmente, el CPU puede procesar una instrucción o una parte de ella; por tanto, mayor frecuencia suele significar más operaciones por segundo, si la arquitectura aprovecha ese reloj eficientemente.

En los albores de los microprocesadores, las frecuencias eran muy bajas: el Intel 4004 operaba a menos de 1 MHz (0.74 MHz), y los primeros chips de 8 bits como el 8080 rondaban 2 MHz. A medida que la tecnología de transistores mejoró (menor tamaño y capacitancia), pudo incrementarse la velocidad: a inicios de los 80, el IBM PC original corría a 4.77 MHz con un 8088, y hacia mediados de esa década las CPU de 16/32 bits como 80286 y 80386 ya alcanzaban entre 8 y 33 MHz. La barrera de los 100 MHz se superó a principios de los 90 con procesadores RISC avanzados, y en 1995 Intel logró 100 MHz en un procesador x86 de consumo (el Pentium). La escala continuó casi exponencial: a finales de los 90, las mejores CPU trabajaban cerca de 500 MHz, y el cambio al año 2000 trajo consigo la llegada al GHz (1000 MHz). Como mencionamos, AMD e Intel presentaron procesadores de 1.0 GHz en 2000 (Clock rate – Wikipedia), inaugurando la era de los gigahercios.

La microarquitectura Intel Pentium 4 empujó el reloj al extremo durante la primera mitad de los 2000: su diseño NetBurst de 7ª generación priorizaba frecuencias muy altas mediante una tubería (pipeline) extremadamente profunda. Esto permitió escalar de ~1.5 GHz en 2001 hasta 3.0 GHz en 2002 y alcanzar ~3.8 GHz en 2004 en su última iteración (Clock rate – Wikipedia). Intel incluso planeó alcanzar 5–10 GHz con NetBurst, pero chocó contra límites físicos (problemas térmicos y de consumo) que frenaron esa tendencia, como detallaremos más adelante. A partir de 2005, la frecuencia máxima de los procesadores comerciales se estabilizó en torno a 3–4 GHz para uso cotidiano, aunque con la posibilidad de breves aceleraciones (turbo boost) por encima de esos valores. Durante la década de 2010, la mayoría de CPUs de alto rendimiento operaron base en ~3–4 GHz con turbos cercanos a 5 GHz en algunos núcleos, pero rara vez superando esa cifra de forma sostenida. De hecho, 15 años después de la era Pentium 4, los microprocesadores típicos seguían rondando los 3–4 GHz, una meseta notable frente al crecimiento vertiginoso previo (de 1 MHz a 1000 MHz en ~25 años, pero de 3 GHz a solo ~5 GHz en los siguientes 15 años).

¿Por qué se detuvo el aumento de frecuencia? Principalmente por el surgimiento de varias barreras físicas y prácticas: la llamada «power wall» o pared de consumo/energía, la «thermal wall» o pared térmica, y también límites en la capacidad de aprovechar más frecuencia a nivel de arquitectura (pared de ILP, Instruction-Level Parallelism). Básicamente, a frecuencias muy altas el consumo de potencia crece exponencialmente y con él la generación de calor, hasta el punto de hacer inviable refrigerar el chip o alimentar su consumo dentro de las restricciones de un equipo normal. Cada incremento de MHz demandaba voltajes más altos o transistores más densos, produciendo calor que no podía dispersarse fácilmente, arriesgando dañar los transistores. Además, efectos electrónicos como las fugas de corriente (corriente de fuga) empeoran con transistores más pequeños y rápidos. Todo ello hizo que hacia 2005 se alcanzara un límite práctico ~3-4 GHz para chips aire-acondicionados convencionalmente.

Cabe mencionar que se han logrado frecuencias mayores en entornos extremos o casos especiales: por ejemplo, overclockers han batido récords llevando CPUs de consumo hasta 8–9 GHz usando refrigeración criogénica (helio líquido), y en 2024 Intel lanzó un modelo Core i9 capaz de alcanzar 6.0–6.2 GHz en un solo núcleo mediante turbo (i9-13900KS/14900KS). Sin embargo, estas cifras son excepcionales y no representan operabilidad sostenida bajo condiciones normales (los 6 GHz se logran con alto consumo y solo en cargas breves). En general, el techo de frecuencia para los microprocesadores comerciales se ha mantenido cerca de 5 GHz en la última década debido a las barreras mencionadas.

Arquitecturas multinúcleo: muchos núcleos en un chip

Ante la dificultad de seguir aumentando la frecuencia de reloj indefinidamente, la industria de microprocesadores tomó otro camino para obtener más rendimiento: colocar múltiples núcleos de CPU en un mismo chip, lo que dio origen a la era de los microprocesadores multinúcleo. En lugar de un único núcleo (core) cada vez más rápido, se optó por varios núcleos trabajando en paralelo a velocidades moderadas. De este modo, se podía incrementar la potencia de procesamiento total sin cruzar el umbral crítico de consumo por núcleo.

Los primeros experimentos comerciales con multinúcleo llegaron a principios de los 2000 (por ejemplo, IBM Power4 en servidores, 2001, integrando 2 núcleos). En el mercado de consumo, Intel y AMD introdujeron sus CPU de doble núcleo alrededor de 2005–2006 (Intel Pentium D, Core Duo, AMD Athlon 64 X2, etc). A partir de ahí, el número de núcleos fue aumentando generación tras generación: en 2007 Intel lanzó sus Core 2 Quad (4 núcleos); hacia 2010–2011 ya era común tener 4 núcleos en PCs de escritorio y portátiles de gama alta. En la segunda mitad de la década de 2010, gracias a mejoras de arquitectura y eficiencia, se popularizaron los 6 y 8 núcleos en escritorio (ej. Intel Core i7-8700K de 2017 con 6 núcleos, AMD Ryzen 7 1700 de 2017 con 8 núcleos). Actualmente, es habitual ver 8 a 12 núcleos incluso en portátiles y hasta 16 núcleos en CPUs de escritorio entusiasta (ej. Ryzen 9 7950X, 16 núcleos). En servidores y estaciones de trabajo, los recuentos son aún mayores: procesadores EPYC de AMD alcanzan 64 núcleos (128 hilos) en un solo socket, y conjuntos multi-socket permiten literalmente cientos de núcleos trabajando en paralelo en un servidor.

La motivación técnica de este cambio fue clara: el modelo de un solo núcleo superescalar ultra-rápido empezó a rendir decrecientemente debido a la pared de potencia, la pared de memoria (latencias de RAM no reducibles al mismo ritmo) y la pared de ILP (cada vez más difícil extraer paralelo interno de una sola secuencia de instrucciones). En palabras simples, añadir más transistores a un único núcleo (por ejemplo para hacerlo más rápido o con más cache) daba menos beneficio que usar esos transistores para duplicar el núcleo y así procesar más hilos simultáneamente. Fabricantes como Intel y AMD apostaron por diseños multinúcleo desde 2005, sacrificando la simplicidad (y costes de fabricación más bajos) de un solo núcleo, a cambio de obtener mayor rendimiento global en aplicaciones capaces de usar varios hilos. Así, un chip de 4 núcleos a 3 GHz podía superar ampliamente a uno mononúcleo a 4 GHz en tareas multitarea o multihilo, manteniendo térmicamente “a raya” cada núcleo individual.

Por supuesto, la arquitectura multinúcleo trae sus propios desafíos: el software debe aprovecharla (programas multi-hilo, sistemas operativos con scheduling adecuado), hay contención de recursos compartidos (bus de memoria, cachés, etc.), y mayores exigencias de coherencia de caché y comunicaciones internas. Sin embargo, en términos de eficiencia energética, múltiples núcleos modestos pueden ser preferibles a uno solo empujado al límite. De hecho, cada núcleo en un diseño multicore suele operar en un rango de potencia más eficiente, por lo que el chip completo logra mayor rendimiento por vatio. Esta propiedad resultó especialmente valiosa en dispositivos móviles y portátiles, donde la energía es limitada: por ejemplo, los procesadores de smartphone hace años que son multinúcleo (4, 6, 8 núcleos) y combinan núcleos rápidos con otros más lentos pero eficientes (big.LITTLE).

En resumen, la evolución hacia múltiples núcleos permitió seguir incrementando la potencia de los microprocesadores cuando la escalada de frecuencia se estancó. Hoy en día, incluso los microprocesadores más avanzados continúan esta tendencia, combinando muchos núcleos y también variando su tipo (núcleos de alto rendimiento y núcleos de alta eficiencia energética) para optimizar la relación rendimiento/consumo en distintas cargas de trabajo.

El fin del escalado de frecuencia

Como hemos visto, alrededor de 2004–2005 la industria tocó techo en cuanto a frecuencia de reloj de las CPU, debido a varias barreras fundamentales. Ampliaremos aquí las razones técnicas de por qué no se pudo seguir aumentando significativamente la frecuencia de los microprocesadores (al menos, bajo condiciones normales), y por qué la solución fue apostar por arquitecturas multinúcleo y otras innovaciones en lugar de GHz adicionales.

La barrera térmica y de potencia (“power wall”) es quizás la más inmediata. El consumo de potencia dinámico de un chip crece aproximadamente de forma proporcional a C · V² · f (donde C es la capacitancia total conmutada, V la tensión de alimentación, y f la frecuencia). Al intentar subir f (frecuencia), la potencia aumenta linealmente; pero en realidad V también suele tener que incrementarse para asegurar estabilidad a mayor frecuencia, lo que hace que la potencia escale aún peor (aprox. con el cuadrado de f en ciertos rangos). El resultado: pequeñas subidas de clock pueden disparar el consumo y el calor disipado. En los Pentium 4 “Prescott” de 90 nm (2004), Intel enfrentó este problema: a ~3.8 GHz el chip consumía tanto y se calentaba tan rápido que resultaba inviable lanzar modelos a frecuencias mayores, aun existiendo margen teórico de rendimiento. La densidad de potencia (vatios por mm²) llegó a niveles comparables a los de una plancha eléctrica o un reactor nuclear en miniatura, obviamente imposibles de enfriar con un simple disipador de PC. Esta es la esencia de la pared de potencia: no se puede seguir aumentando la frecuencia (y el voltaje) sin sobrepasar los límites de calor que se pueden extraer del chip. Por cada ciclo de reloj adicional se genera calor extra en las decenas de millones de transistores conmutando, y a 4–5 GHz esos transistores apenas tienen nanosegundos para cambiar de estado y disipar energía antes del próximo ciclo.

Simultáneamente, surgieron otras dos paredes: la pared de memoria y la pared de ILP (Instrucción-Level Parallelism). La pared de memoria se refiere a que las latencias de la memoria principal (RAM) no mejoraban al mismo ritmo que la CPU, creando un cuello de botella: aunque se aumentara la frecuencia de CPU, muchas veces estaba esperando datos de la RAM. Se mitigó con cachés más grandes, pero estas a su vez consumen mucho silicio y tienen rendimientos decrecientes. La pared de ILP indica que hacer las CPU más superescalares (ejecutar muchas instrucciones por ciclo mediante pipelines muy profundos, predicción de saltos agresiva, ejecución especulativa, etc.) encontraba cada vez menos “paralelismo” aprovechable en un único hilo de ejecución: el software típico simplemente no tenía tantas operaciones independientes en secuencia, por lo que añadir complejidad al núcleo daba retornos marginales.

Todas estas razones llevaron a que, para mediados de los 2000, los fabricantes cambiaran de estrategia: en lugar de perseguir un 10% más de frecuencia con un 50% más de consumo (poco eficiente), decidieron multiplicar los núcleos y mejorar otras arquitecturas. Como resume la literatura técnica, llegó un punto en que seguir aumentando la frecuencia y la complejidad mononúcleo “no se justificaba frente a las ganancias disminuidas en rendimiento”, así que se optó por múltiples núcleos en el chip. Esta fue una transición crucial en la industria: de 2005 en adelante, el “número de núcleos” reemplazó a los MHz/GHz como principal métrica de mejora en muchas líneas de CPU.

En la práctica, múltiples núcleos permitieron sortear el límite de la frecuencia distribuyendo el trabajo. Dos núcleos a 2.0 GHz pueden ejecutar en conjunto aproximadamente lo que un núcleo hipotético a 4.0 GHz (dependiendo de la carga), pero con mucho menor estrés térmico en cada núcleo. La eficiencia por watt mejoró y el crecimiento de rendimiento siguió vía paralelismo a nivel de tareas/hilos. Por supuesto, esto exige software multi-hilo: inicialmente no todas las aplicaciones sacaban provecho de más de un núcleo, pero con el tiempo sistemas operativos y aplicaciones se adaptaron. Hoy día es común que incluso tareas cotidianas (navegar, multimedia, juegos) empleen varios hilos y por tanto múltiples núcleos. En ámbitos profesionales y científicos, el paralelismo masivo ha sido la norma ya por décadas (clústeres, computación paralela), por lo que tener docenas de núcleos en un solo chip era un avance bienvenido.

En resumen, las barreras térmicas y energéticas frenaron la carrera de los GHz, pero los microprocesadores siguieron avanzando mediante más núcleos y otras innovaciones. Además de los núcleos adicionales, se incorporaron técnicas como la simultaneous multithreading (SMT, e.j. Hyper-Threading de Intel) para aprovechar mejor cada núcleo, se diversificaron los tipos de núcleo (arquitecturas heterogéneas big.LITTLE) y se empezó a explorar integración de otros tipos de procesadores en chip (GPUs, aceleradores) para incrementar el rendimiento de formas distintas a solo subir la frecuencia de CPU. Esto nos lleva al estado actual de los microprocesadores y las tecnologías punteras que lo caracterizan.

Estado actual de los microprocesadores

En la actualidad (mediados de la década de 2020), los microprocesadores presentan un nivel de sofisticación extraordinario. En esta sección describiremos el estado del arte en tecnologías de fabricación y diseño de CPUs, incluyendo los avances de los últimos ~5 años. Hablaremos de los nodos nanométricos más avanzados y la litografía necesaria para lograrlos, de las innovaciones en la estructura del transistor (FinFET y GAAFET), de las nuevas estrategias de diseño modular como los chiplets y el apilado 3D, así como de otras mejoras arquitectónicas recientes. Estas tecnologías punteras permiten seguir mejorando el rendimiento y la eficiencia de las CPU a pesar de los desafíos crecientes conforme nos acercamos a los límites físicos del silicio.

Nodos de vanguardia y litografía avanzada (EUV)

En 2025, los nodos de fabricación más punteros en producción comercial se sitúan en 5 nm y 3 nm, con la vista puesta en 2 nm para 2025–2026. Alcanzar tamaños de transistor de esta escala requiere técnicas litográficas de última generación, destacando la litografía ultravioleta extrema (EUV). La litografía EUV utiliza luz de 13.5 nm de longitud de onda (en lugar de ~193 nm de la litografía tradicional por inmersión) para poder definir estructuras minúsculas en la oblea. Tras muchos años de desarrollo, ASML y otros lograron hacer viables las máquinas EUV, y su uso empezó en procesos de 7 nm (limitadamente) y sobre todo en 5 nm. Gracias a EUV, se simplificó el patrón de máscaras necesario para alcanzar estas resoluciones, aunque a un costo enorme: cada stepper EUV cuesta cientos de millones de dólares y es un prodigio de ingeniería en sí mismo.

Los nodos de 5 nm (ej. TSMC N5 utilizado por Apple A14/M1, Kirin 9000, etc.) y 3 nm (TSMC N3 utilizado en Apple A17 Pro y M3, Samsung 3GAE en inicio de producción) representan actualmente el límite comercial. TSMC reporta mejoras de un nodo al siguiente típicamente del orden de 1.5x en densidad de transistores y ~15-20% más velocidad o ~30% menos consumo al mismo rendimiento. Por ejemplo, Apple ha indicado que sus chips M3 fabricados en 3 nm logran empaquetar un 25% más de transistores que la generación previa de 5 nm dentro de un mismo tamaño, mejorando tanto la velocidad como la eficiencia. En efecto, los M3 incorporan 25 mil millones de transistores frente a 20 mil millones del M2 (5 nm).

Llegar a 2 nm implicará probablemente la introducción extendida de transistores GAA (Gate-All-Around, de los que hablamos abajo) y quizá multiplicar el uso de apilamiento 3D. IBM ya demostró en laboratorio chips a 2 nm en 2021, y se espera que Intel y TSMC tengan procesos de 2 nm alrededor de 2024-2025. Más allá de 2 nm, la hoja de ruta incluye 1.4 nm (~2027) . Sin embargo, cada salto es más complicado y costoso, por lo que algunos pronostican que la Ley de Moore finalmente se desacelerará significativamente.

Además de la escala en sí, el costo por transistor ha dejado de bajar e incluso sube en nodos extremos. Esto ha empujado la investigación hacia nuevas arquitecturas de integración para aprovechar al máximo cada transistor. Ahí entran en juego tecnologías como los chiplets y el apilado, que permiten usar silicio de nodos avanzados solo donde aporta más beneficio, combinándolo con nodos maduros para otras funciones, optimizando costo-rendimiento.

En resumen, el estado actual de la litografía es que estamos exprimiendo las últimas gotas de rendimiento de la litografía óptica (ahora EUV). La reducción de nodo sigue aportando beneficios en los microprocesadores punteros, pero con inversiones masivas y cada vez más lentamente. Por eso se complementa con innovaciones en el propio transistor y la organización del chip, que describimos a continuación.

Transistores 3D: FinFET y el salto a GAAFET

Para continuar escalando los nodos nanométricos, no bastó con mejorar la litografía; hubo que reinventar la estructura del transistor MOSFET usado en las CPU. El gran cambio llegó con la adopción del FinFET (Fin Field-Effect Transistor) a 22 nm y nodos posteriores. Hasta 32/28 nm aproximadamente, las CPU usaban transistores planos (planar CMOS) donde la corriente fluye en un canal plano bajo la puerta. Pero a medida que ese canal se hacía muy pequeño, las corrientes parásitas y fugas aumentaban. El FinFET resuelve esto extendiendo la puerta en vertical alrededor de un canal tipo aleta (fin), aumentando el control electrostático sobre el canal.

Ilustración simplificada de un transistor FinFET de doble compuerta. La “aleta” (Fin) de silicio sobresale, y la compuerta (Gate, en rojo) la envuelve por dos lados, controlando mejor el flujo entre Source y Drain.

Intel fue pionera en producción de FinFET al introducir sus transistores “Tri-Gate 3D” en el nodo de 22 nm (microarquitectura Ivy Bridge, 2012) (22 nm process – Wikipedia). Poco después, otros fabricantes adoptaron también FinFET en 16/14 nm (TSMC, Samsung en 2014–2015). En un FinFET, el canal del transistor es una fin (aleta) de material semiconductor que sobresale de la superficie, y la puerta lo envuelve por 3 de sus 4 lados (en los diseños de “doble puerta” o tri-gate). Esto proporciona un control mucho más fuerte del canal cuando la puerta está en estado de corte, reduciendo drásticamente la corriente de fuga (lo que permite transistores más pequeños sin que “goteen” corriente). En esencia, con FinFET se pudo seguir escalando los transistores: un transistor FinFET de, digamos, longitud de canal efectiva ~20 nm podía comportarse bien, mientras uno planar de igual tamaño tendría fugas inaceptables. Desde 22 nm hasta 5 nm, todos los microprocesadores de alta performance han empleado transistores FinFET en sus diversas variantes. Esto incluye CPUs de Intel, AMD, Apple, Qualcomm, etc.

Ahora, en el rango de 3 nm y menores, la industria se prepara para otro cambio: los GAAFET (Gate-All-Around FET). En un GAAFET, la puerta rodea completamente al canal en las 4 direcciones (360 grados alrededor). Esto se logra típicamente dividiendo la “aleta” en nanohilos o nanohojas apiladas horizontalmente, y envolviendo cada uno con la puerta. Samsung ha publicitado que su nodo de 3 nm (MBCFET) ya usa una forma de GAAFET (nanosheets), siendo de los primeros en producción. TSMC planea GAAFET para 2 nm. La ventaja de GAAFET es aún mejor control del canal que el FinFET, permitiendo seguir reduciendo dimensiones sin perder control electrostático (Semiconductor process technology; History, trends and evolution | Renesas). En otras palabras, GAAFET es la evolución natural del FinFET para nodos en el límite atómico. IBM logró demostrar un transistor GAAFET funcional de 2 nm en 2021, con varias nano-hojas apiladas como canal.

La transición de transistores planos a FinFET y ahora a GAAFET ha sido clave para mantener vigente la ley de Moore en términos de rendimiento por área. Sin estas innovaciones estructurales, no habríamos podido aprovechar plenamente la litografía avanzada. Por ejemplo, desde 22 nm el término “longitud de puerta” dejó de asociarse al nombre del nodo, justamente porque la arquitectura 3D del FinFET hacía esa métrica menos directa. En resumen, en el estado actual: todos los microprocesadores modernos de alto rendimiento usan transistores FinFET 3D, y en los próximos años migrarán a transistores de compuerta total (GAA) para seguir escalando a 3 nm, 2 nm y más allá. Esto permitirá mejorar la corriente drivable por transistor y reducir fugas, traduciéndose en CPU más rápidas o eficientes sin necesitar (tanto) un nuevo nodo litográfico.

Diseño modular con chiplets y empaquetado 2.5D/3D

Otra tecnología puntera que está moldeando los microprocesadores actuales es la arquitectura de chiplets y el empaquetado avanzado. Tradicionalmente, un microprocesador se fabrica como un único dado (die) de silicio monolítico que contiene todos los núcleos, cachés y demás elementos. Sin embargo, a medida que los chips han crecido en tamaño y complejidad, esta aproximación monolítica presenta inconvenientes: producir un die muy grande en el nodo más avanzado es extremadamente costoso y con bajos rendimientos (yield), ya que la probabilidad de defectos aumenta con el área. Además, diferentes partes del chip podrían beneficiarse de distintos nodos (por ejemplo, lógica densa en 5 nm, pero I/O y analógicos no escalan igual y podrían fabricarse en 14 nm más barato).

La solución que ha tomado fuerza es dividir el diseño en varios chiplets (chipitos): pequeños dies especializados que luego se interconectan muy de cerca dentro del mismo paquete para funcionar como un único chip lógico. Por ejemplo, AMD popularizó este enfoque con sus CPUs Ryzen/Epyc desde 2017-2019: en lugar de una sola die grande, usan múltiples chiplets de núcleos (Core Complex Dies) fabricados en 7 nm, unidos a un chip central de I/O fabricado en 14 nm, todo en el mismo encapsulado. Esto permite que los chiplets de CPU (que llevan los núcleos y caché L3) sean pequeños (menor área = mejor rendimiento de fabricación, menores costos) y escalar el número de núcleos simplemente agregando más chiplets idénticos () (). Por ejemplo, un AMD Epyc de 64 núcleos tiene 8 chiplets de 8 núcleos cada uno alrededor de un die de I/O. Intel también ha adoptado una filosofía similar en sus diseños recientes (llamando tiles a los chiplets).

Los beneficios de los chiplets son claros: permiten mezclar diferentes nodos (cada chiplet en el proceso más adecuado), aumentar rendimiento y flexibilidad (modularidad), reducir costos al mejorar yields (chips más pequeños tienen menos defectos) (), y acelerar el desarrollo (se pueden reutilizar IPs en chiplets sin rediseñar un monstruo monolítico). Esto viene con desafíos: las interconexiones entre chiplets tienen mayor latencia y consumo que comunicaciones on-die monolíticas, y el packaging se vuelve complejo y costoso. Sin embargo, tecnologías de interconexión de alta velocidad (ej. Infinity Fabric de AMD, enlaces EMIB o Foveros de Intel) han mitigado en gran medida estos problemas. Se habla de empaquetados 2.5D (módulos integrados en un substrato orgánico o interposer de silicio) e incluso 3D (apilamiento de dies unos sobre otros con Through-Silicon Vias (TSVs)) para conectar chiplets con enorme ancho de banda. Un ejemplo de 3D es el “AMD 3D V-Cache”, donde un chip de caché SRAM adicional se monta encima del chiplet de CPU para aumentar la caché L3. Intel por su parte ha desarrollado Foveros, que permite apilar lógicas; su próxima arquitectura Meteor Lake (2023) combinará chiplets lógicos fabricados en distintos nodos (CPU en Intel 4, GPU en TSMC N5, SoC en Intel 20A) unidos verticalmente.

En resumen, el diseño modular con chiplets es ya parte del estado del arte. Permite crear microprocesadores con decenas de núcleos o componentes heterogéneos sin tener que fabricar una sola oblea gigantesca. AMD atribuye a los chiplets ventajas como coste efectivo, escalabilidad y flexibilidad, y ciclos de innovación más rápidos () (). La contrapartida es la complejidad de diseño y ensamblaje, pero la industria ha abrazado esta dirección como forma de continuar aumentando rendimiento pese a límites físicos y económicos. Es razonable esperar que futuros CPUs combinen cada vez más chiplets, e incluso chiplets estandarizados intercambiables entre fabricantes (se están impulsando estándares de interconexión como UCIe para facilitar un “ecosistema de chiplets”).

Otras tendencias recientes: heterogeneidad y especialización

Además de lo anterior, vale la pena señalar otras tendencias en los microprocesadores actuales. Una es la heterogeneidad de núcleos: inspirada en ARM big.LITTLE, ahora incluso en PCs vemos CPU con dos tipos de núcleos – p.ej. la 12ª y 13ª Gen de Intel Core (Alder Lake, Raptor Lake) integran núcleos de rendimiento (P-cores) junto con núcleos de eficiencia (E-cores). Esto combina lo mejor de ambos mundos: núcleos potentes para cargas pesadas y núcleos ligeros y eficientes para tareas de fondo, optimizando el consumo. Apple Silicon también emplea esta idea (4 performance + 4 efficiency cores en M1, M2). La heterogeneidad mejora la versatilidad del procesador para distintas cargas de trabajo en un mismo chip (Multi-core processor – Wikipedia).

Otra tendencia es la integración de componentes especializados on-die. Los microprocesadores modernos ya no son “solo CPU”: suelen incluir GPU integrada, controladores de memoria y periferia, y aceleradores específicos (ej. codificadores/decodificadores de vídeo, motores de IA, seguridad enclaves, DSPs). Esto los convierte en SoC (System on Chip) completos. Por ejemplo, los procesadores Apple M1/M2/M3 incluyen una GPU potente, un Neural Engine para machine learning, codificadores ProRes para vídeo, etc., todo en el mismo chip; los AMD Ryzen y algunos Intel llevan gráficos integrados, controladores PCIe, memoria, etc., eliminando la necesidad de chips separados. Esta integración vertical mejora el rendimiento (menos latencia, más ancho de banda compartido) y la eficiencia energética, a costa de un mayor tamaño de die.

Relacionada con la especialización, en los últimos 5 años se nota un énfasis en aceleradores de IA. Aunque principalmente en GPUs y AI accelerators dedicados, las CPU también incorporan instrucciones especiales (p.ej. AVX-512, AMX en Intel para tensor operations) y motores para acelerar cargas de IA. Es previsible que futuras generaciones integren aún más capacidades de IA on-chip.

Finalmente, mencionar la aparición de arquitecturas alternativas como RISC-V (abierta) que ha ganado tracción recientemente, aunque en el segmento de alto rendimiento x86 y ARM siguen dominando (RISC-V está emergiendo en IoT y podría tener presencia futura más amplia).

En síntesis, el estado actual de los microprocesadores se define por: nodos nanométricos extremos (5 nm, 3 nm) con litografía EUV; transistores FinFET avanzados y transición a GAAFET; diseños multinúcleo heterogéneos para maximizar rendimiento por watt; chiplets y empaquetado 3D para escalar núcleos y funciones manteniendo viabilidad económica; e integración de más funciones en el CPU para especialización (GPU, AI, media, etc.). Gracias a todo ello, el progreso en computación continúa: las CPUs actuales son más rápidas y eficientes que nunca, incluso cuando la simple escala de frecuencia o densidad se vuelve más desafiante.

Arquitecturas x86 vs ARM: ventajas, desventajas y casos de uso

Dos de las familias de arquitecturas de CPU más importantes en la actualidad son x86 (y su extensión x86-64) y ARM. x86 ha dominado históricamente en computadoras personales y servidores, mientras que ARM es ubicuo en dispositivos móviles y sistemas embebidos. Cada una tiene sus fortalezas y debilidades, derivadas de diferencias filosóficas en su diseño (CISC vs RISC) así como de modelos de negocio distintos. A continuación, comparamos x86 y ARM en términos de arquitectura, ventajas, desventajas y casos típicos de uso.

Arquitectura x86 (CISC): Los procesadores x86 (de Intel, AMD y otros) se basan en un conjunto de instrucciones complejo (CISC). La arquitectura x86 original, nacida con el Intel 8086 en 1978, tenía instrucciones muy ricas y potentes (por ejemplo, una sola instrucción podía realizar una operación compleja, como multiplicar dos números de cierta longitud). Esto facilitaba la tarea de los programadores en ensamblador en los inicios, ya que el hardware ofrecía instrucciones “de alto nivel” (ARM vs x86: What’s the difference?). Sin embargo, para implementar ese amplio conjunto de instrucciones, los chips x86 necesitaban más transistores y eran más complejos, lo cual históricamente implicaba mayor consumo energético por operación. Con el tiempo, x86 evolucionó enormemente (se añadieron registros de 32 y 64 bits, nuevas extensiones SIMD, etc.), pero siempre manteniendo retrocompatibilidad: un procesador x86-64 actual puede ejecutar código escrito hace décadas para un 8086. Internamente, muchos CPUs x86 modernos traducen las instrucciones CISC a micro-operaciones RISC, combinando técnicas avanzadas para acelerar la ejecución.

Arquitectura ARM (RISC): ARM, por otro lado, sigue el paradigma RISC (Conjunto de Instrucciones Reducido). Los primeros ARM (años 80) se diseñaron con la premisa de simplificar las instrucciones para que cada una fuese muy eficiente y consumiese poco. ARM tiene instrucciones de ancho fijo, generalmente realizan operaciones muy básicas (p.ej. una sola instrucción realiza una única operación simple, como leer memoria o sumar registros). Esto reduce la complejidad del decodificador y del circuito, traduciéndose en menor consumo y calor por operación. ARM también se benefició de un modelo de licenciamiento: Arm Holdings diseña la arquitectura y licencia los núcleos IP a innumerables fabricantes (Qualcomm, Apple, Samsung, etc.), o licencia solo la ISA para que otros diseñen sus propios núcleos (como Apple, que diseña núcleos personalizados ARM). ARM se integró típicamente en SoC junto con otros controladores en el mismo chip, optimizando mucho la comunicación interna. Durante años, ARM se enfocó en dispositivos móviles y embebidos, priorizando eficiencia energética sobre rendimiento bruto, mientras que x86 reinaba en rendimiento en PCs.

Veamos ahora un resumen de ventajas y desventajas de cada arquitectura:

  • Ventajas de x86:
    • Alto rendimiento bruto: Los procesadores x86 de gama alta (Intel/AMD) han liderado en desempeño absoluto en cargas de cómputo pesado, gracias a décadas de optimizaciones, altas frecuencias y diseños muy sofisticados (pipelines superescalares, grandes cachés, etc.).
    • Amplio soporte de software: La plataforma x86 (especialmente x86-64) tiene un ecosistema de software enorme. Prácticamente todos los sistemas operativos de escritorio/servidor, aplicaciones profesionales y juegos están optimizados para x86. Existe compatibilidad hacia atrás: software de hace 20-30 años puede correr en CPUs actuales. Esto ha sido crucial en entornos empresariales y de PC.
    • Flexibilidad y características avanzadas: x86 ha incorporado muchas extensiones útiles (virtualización VT-x/AMD-V, instrucciones vectoriales SSE/AVX, seguridad SGX/SEV, etc.), a veces antes que otras arquitecturas. Además, en el espacio de servidor, las CPU x86 ofrecen altas capacidades de memoria, muchas líneas PCIe, etc., adecuadas para grandes cargas.
  • Desventajas de x86:
    • Mayor consumo y calor (menor eficiencia): Tradicionalmente, a igualdad de rendimiento, un núcleo x86 consume más energía que un núcleo ARM diseñado para eficiencia. La necesidad de decodificar instrucciones CISC complejas y mantener compatibilidad introdujo ciertas ineficiencias. Si bien esto se ha mitigado en diseños modernos, la reputación de x86 es ser más power-hungry.
    • Complejidad de diseño: Solo unas pocas empresas (Intel, AMD, VIA) diseñan núcleos x86, dado lo complejo que es cumplir con toda la ISA, incluyendo modos heredados de 16 bits, etc. Esto contrasta con ARM donde decenas de empresas hacen sus propios núcleos. La innovación en x86 está más centralizada.
    • Menos adecuado para integración SOC: Históricamente, x86 se usó en PC con un enfoque modular (CPU, chipset, etc. separados). Aunque existen SoCs x86 (ej. Intel Atom integrados), ARM dominó más el terreno de SoC integrados con periféricos. x86 en móviles fracasó en parte por no ser tan frugal y flexible para integrarse con radios, GPUs móviles, etc. (Intel tuvo proyectos como Atom y Mobile Pentium, pero no lograron gran cuota móvil).
  • Ventajas de ARM:
    • Alta eficiencia energética: Esta es la bandera de ARM. Sus núcleos, al ser más simples, logran performance per watt excelente. Esto hizo posible smartphones con baterías pequeñas ejecutando CPUs a 1-3 GHz sin recalentarse. Incluso en data centers, chips ARM (como AWS Graviton) han demostrado mejor rendimiento por watt que equivalentes x86 en ciertos trabajos.
    • Licenciamiento flexible y ecosistema amplio: Cualquiera puede licenciar diseños ARM o la ISA, lo que ha creado un ecosistema muy diverso. Hay ARM de todos los niveles: desde microcontroladores de 50 centavos hasta los Apple M2 de alto desempeño. La integración en SoC es sencilla, permitiendo a fabricantes incluir un núcleo ARM junto a GPUs (Mali, Adreno), DSPs, módems, etc. en un mismo chip. Esto ha impulsado la ubiquidad de ARM en móviles y IoT.
    • Simplicidad y escalabilidad: La ISA RISC de ARM, con su ortogonalidad y instrucciones sencillas, ha permitido innovar rápidamente (p.ej. añadir extensiones como NEON para multimedia, o soportar 64-bit con ARMv8 sin arrastrar compatibilidad binaria con 32-bit más allá de un modo separado). También ARM introduce nuevas tecnologías de eficiencia (big.LITTLE combos, modos de bajo consumo) con rapidez enfocándose en su mercado móvil.
  • Desventajas de ARM:
    • Menor rendimiento máximo por núcleo: Históricamente, un núcleo ARM ofrecía menos rendimiento que un núcleo x86 de gama alta. Esto debido a diferentes objetivos de diseño. Si bien ARM puede escalar en frecuencia, los primeros núcleos ARM64 para servidor (Cortex-A57/A72) no alcanzaban el IPC o frecuencia de un Intel Core de esa época. No fue hasta diseños recientes como Apple Firestorm (M1) o Cortex-X1 que ARM mostró que puede rivalizar en rendimiento con x86. Aún así, en ciertas cargas pesadas x86 sigue teniendo ventaja por su agresiva microarquitectura y años de refinamiento.
    • Ecosistema de software de escritorio limitado: Aunque en móviles ARM es rey, en el mundo PC/servidor aún existe software que no está compilado nativamente para ARM. Esto ha cambiado rápidamente (macOS ARM, Windows on ARM, Linux soportando ARM en servidores), pero algunos programas x86 deben ejecutarse por emulación/traducción en ARM, con sobrecoste. En servidores, migrar décadas de software x86 a ARM es un proceso en curso.
    • Fragmentación: Dado que muchos fabricantes hacen sus propios SoC ARM, existe cierta fragmentación en cuanto a implementaciones (diferentes capacidades, GPUs variadas, necesidades de drivers específicos). En x86, Intel y AMD son básicamente uniformes en cuanto a plataforma, facilitando la compatibilidad de software y hardware. En ARM, cada SoC móvil puede requerir adaptaciones (aunque el núcleo CPU sea ARM estándar, los componentes alrededor varían).

Casos de uso típicos:

  • Los procesadores x86/x64 se encuentran principalmente en PCs de escritorio y portátiles tradicionales, estaciones de trabajo, y especialmente en servidores y centros de datos. Su fuerte rendimiento por núcleo y amplia compatibilidad los hace ideales para aplicaciones como suites ofimáticas, edición de vídeo, juegos de PC (donde Windows x86 ha sido la plataforma principal) y cargas empresariales (bases de datos, máquinas virtuales x86, etc.). También x86 domina en computación de alto rendimiento tradicional (clusters con CPUs Intel/AMD, aunque compitiendo con GPUs ahora). Ejemplos: un Intel Core i9 o AMD Ryzen Threadripper en una workstation, o un AMD EPYC de 64 cores en un servidor de cloud.
  • Los procesadores ARM reinan en el mundo móvil y embebido: prácticamente el 100% de smartphones y tablets usan SoCs ARM (Qualcomm Snapdragon, Apple A-series, Samsung Exynos, MediaTek, etc.), debido a su eficiencia energética sobresaliente que brinda muchas horas de batería. También está presente ARM en dispositivos IoT, routers, televisores Smart TV, y un sinfín de aparatos donde se necesita un CPU capaz pero de bajo consumo. En servidores, ARM está creciendo: empresas como Amazon (Graviton), Ampere, Huawei, están usando CPUs ARM de muchos núcleos para cargas en la nube y HPC, aprovechando su rendimiento por dólar/watt competitivo. Y con Apple migrando sus Mac a ARM (Apple Silicon), incluso en portátiles y desktops de gama alta ARM ha mostrado ser viable y potente.

En resumen, x86 y ARM representan dos filosofías que con el tiempo se han ido aproximando: x86 se ha vuelto más eficiente y también se utiliza en algunos sistemas móviles/embebidos, mientras ARM ha escalado en rendimiento llegando a PCs y servidores. Actualmente, un procesador ARM bien diseñado puede competir de tú a tú con uno x86 en muchos ámbitos (como demuestra Apple M1/M2 en laptops), pero x86 mantiene ciertas ventajas en compatibilidad y nichos de rendimiento extremo. La competencia entre ambas ha sido beneficiosa para la industria, impulsando innovaciones que hoy nos permiten tener desde potentes servidores en la nube hasta smartphones en el bolsillo capaces de miles de millones de cálculos por segundo.

Apple Silicon (M1, M2, M3)

Uno de los avances más comentados de los últimos años en microprocesadores ha sido el debut de Apple Silicon, la familia de CPUs ARM personalizadas de Apple que sustituyó a los Intel x86 en Macs. Los chips Apple M1 (2020), M2 (2022) y M3 (2023) ejemplifican muchos de los conceptos discutidos – desde la integración extrema (SoC completo con CPU, GPU, Neural Engine, etc.), hasta la eficiencia energética líder y el uso de tecnologías de punta (5 nm en M1/M2, 3 nm en M3). Analicemos las claves de su diseño, rendimiento y la “integración vertical” que ha logrado Apple al controlar tanto el hardware como el software de sus dispositivos.

Chip Apple M1 (2020). Es el primer SoC Apple Silicon para Macs, con 16 mil millones de transistores.

Cuando Apple lanzó el M1 en noviembre de 2020, sorprendió al mundo de la informática. Se trataba de un System-on-Chip basado en ARM diseñado por Apple específicamente para Macs, fabricado en 5 nm y con 16 mil millones de transistores (Apple unleashes M1 – Apple (UK)). Integraba una CPU de 8 núcleos (4 núcleos high-performance Firestorm + 4 núcleos high-efficiency Icestorm), una GPU de hasta 8 núcleos gráficos, un Neural Engine de 16 núcleos para IA, y controladores de memoria, seguridad, medios, etc., todo en el mismo chip. Además, adoptó una arquitectura de memoria unificada: la RAM (hasta 16 GB en M1) está en chips DRAM muy cercanos en el mismo módulo y comparte el espacio de direcciones entre CPU, GPU y otros componentes. Esta integración vertical –diseñar el silicio a medida de las necesidades del sistema operativo (macOS) y aplicaciones– permitió optimizaciones que la anterior plataforma Intel (CPU separada + GPU separada + controladores externos) no podía lograr.

El resultado: Apple afirmó que el M1 ofrecía “el mejor rendimiento por vatio del mundo” en CPU (Apple unleashes M1 – Apple (UK)), con núcleos de CPU de altísimo rendimiento absoluto a la vez que un consumo muy bajo en reposo. De hecho, el M1 demostró en benchmarks rendir similar o superior a los Core i7 de Intel de la época, mientras consumía una fracción de la energía. Por ejemplo, un MacBook Air M1 (sin ventilador) podía superar en ciertas tareas a un MacBook Pro Intel Core i9 previo (que consumía >30 W y requería ventilación activa). Apple destacó cifras como hasta 3.5x más rendimiento CPU que la generación previa de Macs Intel, con hasta 2x la duración de batería (Apple unleashes M1 – Apple (UK)). Parte de este salto se atribuye a que Apple llevaba una década diseñando chips ARM de altísimo rendimiento para sus iPhones/iPads (serie A), y pudo trasladar ese know-how a los Mac. Otra parte es la ventaja de fabricar en 5 nm antes que Intel/AMD, y la ya mencionada sinergia hardware-software: macOS fue adaptado para exprimir el Neural Engine, los decodificadores de video personalizados, etc., y Apple controla todo el stack (compiladores, frameworks) para optimizar su silicio.

En 2022, Apple lanzó la evolución M2, también en 5 nm (2ª generación mejorada). El M2 elevó el conteo a 20 mil millones de transistores (un 25% más) (Apple unveils M2 with breakthrough performance and capabilities – Apple), amplió la memoria hasta 24 GB, e incorporó 8 núcleos CPU (4 Performance Avalanche + 4 Efficiency Blizzard) de nueva generación. Apple indicó aproximadamente 18% más rendimiento CPU y 35% más GPU respecto al M1 (Apple unveils M2 with breakthrough performance and capabilities – Apple), manteniendo la filosofía de eficiencia. Un detalle notable: Apple comparó el M2 contra CPUs de PC recientes, afirmando que su CPU logra “casi el doble de rendimiento que el último chip de portátil PC de 10 núcleos consumiendo el mismo nivel de potencia”, y que alcanza el rendimiento máximo de dicho chip PC usando solo una cuarta parte de la energía (Apple unveils M2 with breakthrough performance and capabilities – Apple). Estas afirmaciones (Apple unveils M2 with breakthrough performance and capabilities – Apple) muestran la enorme ventaja en performance-per-watt conseguida gracias al diseño especializado y la integración vertical. En pruebas independientes, efectivamente un MacBook con M2 obtiene rendimiento multicore similar a laptops x86 de potencia mucho mayor, todo mientras se mantiene fresco y silencioso.

Ya en 2023, Apple introdujo la familia M3, fabricada en nodo de 3 nm de TSMC, siendo “los primeros chips de 3 nm para computación personal” (Apple unveils M3, M3 Pro, and M3 Max, the most advanced chips for a personal computer – Apple). El M3 base lleva 25 mil millones de transistores (Apple unveils M3, M3 Pro, and M3 Max, the most advanced chips for a personal computer – Apple), con CPU de 8 núcleos (4+4) mejorados que prometen hasta un 30% más rápidas que las del M1 (Apple unveils M3, M3 Pro, and M3 Max, the most advanced chips for a personal computer – Apple), GPU de hasta 10 núcleos con nuevas funciones (Dynamic Caching, Ray Tracing) y soporte de hasta 24 GB RAM unificada. Los M3 Pro y M3 Max escalan a 12 núcleos CPU y 18–40 núcleos GPU, con hasta 92 mil millones de transistores en el M3 Max (Apple unveils M3, M3 Pro, and M3 Max, the most advanced chips for a personal computer – Apple) y capacidad de 128 GB de memoria unificada, cifras impresionantes a nivel de estación de trabajo. Apple continúa con la estrategia de system-on-chip completo: los M3 incluyen Neural Engine 60% más rápido que generación M1 (Apple unveils M3, M3 Pro, and M3 Max, the most advanced chips for a personal computer – Apple), codificadores/decordores de medios para formatos profesionales (ProRes, HEVC), el Secure Enclave, controladores Thunderbolt/USB4, etc. La integración vertical de Apple significa que pueden optimizar casos de uso específicos: por ejemplo, agregar motores ProRes acelera drásticamente Final Cut Pro, aprovechar el Neural Engine acelera funciones de ML en macOS (como Live Text, Siri dictado), todo sin el coste energético de usar CPU general.

En cuanto a la eficiencia energética, los Apple Silicon han establecido nuevos estándares. Un ejemplo: el MacBook Air M2 ofrece ~18 horas de batería reproduciendo vídeo, algo difícil de lograr con hardware x86 previo sin baterías mucho mayores. Y en rendimiento sostenido por vatio, los gráficos integrados de Apple compiten con GPUs dedicadas de portátil de gama media, pero consumiendo menos. Esto se debe a múltiples factores técnicos: el uso extensivo de unidades especializadas (fijas) para tareas comunes, la memoria unificada de alta velocidad (el M3 alcanza 100 GB/s en M3 y 150+ GB/s en M3 Pro/Max, eliminando copias redundantes de datos) (Apple unveils M3, M3 Pro, and M3 Max, the most advanced chips for a personal computer – Apple), y técnicas de power gating muy afinadas núcleo por núcleo. Todo el chip se diseña para operar dentro de un sobre térmico muy controlado, y macOS gestiona los hilos para balancear carga en P-cores vs E-cores de forma óptima.

La integración vertical de Apple no solo implica hardware, sino también software: al cambiar a ARM, Apple pudo eliminar mucha carga heredada y optimizar macOS para ARM64. Usando traducción dinámica (Rosetta 2), incluso las aplicaciones x86 podían correr sorprendentemente bien sobre M1, gracias en parte a la gran potencia disponible. Pero las apps nativas ARM sacan el máximo partido: desarrolladores pudieron recompilar para ARM64 y aprovechar las nuevas bibliotecas. Apple controla desde el transistor hasta la interfaz de usuario, permitiéndole tomar decisiones de diseño arriesgadas pero beneficiosas a largo plazo (por ejemplo, sacrificar soporte de ciertas instrucciones x86 heredadas e incluir en su lugar nuevas instrucciones ARMv8.5 específicas, sabiendo que pueden actualizar Xcode y el ecosistema para usarlas).

En conclusión, los Apple M1/M2/M3 son casos de estudio de cómo aplicar todos los conceptos de microprocesadores modernos en un producto coherente: emplean nodos líderes (5 nm, 3 nm), multinúcleo heterogéneo, chip unificado con múltiples componentes, memoria unificada de alta velocidad, aceleradores dedicados, y diseñados en conjunción con el software objetivo. El resultado son microprocesadores con un equilibrio excepcional de rendimiento y eficiencia energética, al punto de redefinir las expectativas en el mercado de portátiles y de inspirar a la competencia (tras el M1, vimos a Intel apostando más por núcleos de eficiencia, a Qualcomm redoblando esfuerzos en ARM para PC, etc.). La apuesta de Apple por la integración vertical –controlar su propio silicio en lugar de comprar CPU genéricas– ha validado la idea de que un enfoque de diseño de sistema completo puede lograr avances significativos. En los próximos años, será interesante ver cómo evoluciona Apple Silicon (ya se rumorea sobre M4, M5 con más núcleos y 3 nm refinado) y cómo responde la industria, pero sin duda la entrada de Apple en este campo ha marcado un hito en la historia de los microprocesadores.

Conclusión: A modo de cierre, hemos recorrido desde el nacimiento del microprocesador (con el humilde Intel 4004) hasta los chips de última generación como Apple M3, examinando cómo el sector ha sorteado obstáculos mediante innovaciones en nanómetros, frecuencia, núcleos, transistores 3D, chiplets y arquitecturas. Este viaje ilustra la colaboración entre avances en física de semiconductores y en diseño computacional para cumplir (casi) inexorablemente con la ley de Moore durante décadas. Entender la historia y estado actual de los microprocesadores nos permite apreciar la increíble complejidad que reside dentro de ese pequeño “cerebro” de silicio en nuestros dispositivos, así como vislumbrar los retos futuros: la próxima gran meta será quizás la transición a nuevas tecnologías (¿electrónica molecular? ¿computación cuántica?) cuando el silicio alcance sus verdaderos límites. Por ahora, el microprocesador moderno sigue evolucionando y reinventándose – más pequeño, más rápido, más fresco – impulsando la revolución informática que define al siglo XXI (Multi-core processor – Wikipedia) (Clock rate – Wikipedia).

Icono cookies
Icono cookies

Utilizamos cookies para asegurar que damos la mejor experiencia al usuario. Si continúa navegando, consideramos que acepta nuestro uso de Cookies. Puede obtener más información en nuestra política de Cookies

Utilizamos cookies para asegurar que damos la mejor experiencia al usuario. Si continúa navegando, consideramos que acepta nuestro uso de Cookies. Puede obtener más información en nuestra política de Cookies