Chips multi-núcleo excesivamente poderosos

La incansable multiplicación del número de núcleos por chip llevará a la cantidad de procesadores de las nuevas generaciones de servidores a niveles muy por encima de lo que el software puede aprovechar, según la opinión de la consultora Gartner. Los sistemas operativos, los programas y aplicaciones, las herramientas de virtualización y las aplicaciones se verán afectados, enfrentando a las empresas con difíciles decisiones y migraciones apuradas a nuevas versiones como consecuencia de esta evolución.

Carl Claunch, vicepresidente y analista distinguido de Gartner dijo:

“Al ver las especificaciones de estos productos de software, es claro que muchos enfrentarán el desafío de soportar las configuraciones de hardware posibles hoy en día y aquellas que se acelerarán en el futuro”.

“El impacto es semejante a poner un motor de Ferrari en un kart. La potencia puede estar allí, pero las discrepancias de diseño limitan severamente la capacidad de explotarla”.

En promedio, el número de núcleos de procesamiento por chip se duplica en cada nueva generación, aproximadamente cada dos años. Cada generación de microprocesadores, con su cuenta de núcleos duplicada a través de más núcleos y más threads por núcleo, arroja el doble de procesadores con el mismo número de sockets. Un servidor de alto rango con 32 sockets y ocho núcleos por chip totaliza actualmente 256 núcleos. Dentro de dos años, con 16 núcleos por socket disponibles en el mercado, la máquina pasará a tener 512 núcleos en total. Y de acá a 4 años, pasará a tener 1024 unidades de procesamiento.

Gartner opina que las organizaciones necesitan atender la cuestión, dado que hay límites reales en cuanto a la capacidad del software para hacer uso de todos esos procesadores.

Claunch señala:

“La mayoría del software de virtualización actual no puede usar todos los 64 procesadores, y mucho menos los 1024 núcleos de un equipo de alto rango”.

“El software de base de datos, el middleware y las aplicaciones tienen sus propios límites en cuanto a la escalabilidad. Hay un riesgo real de que las organizaciones no puedan usar todos los procesadores que poseerán en cuestión de unos pocos años”.

Claunch indica que el software que corre en los servidores de hoy en día posee limitaciones “duras” y “blandas” en cuanto al número de procesadores que puede manejar. Las limitaciones duras habitualmente están documentadas por el desarrollador del producto, y por lo tanto son fáciles de descubrir. Están determinadas por detalles de implementación dentro del software que le impide manejar más procesadores. En este sentido, un sistema operativo puede usar un campo de ocho bits para administrar el número de procesador, lo cual determina un límite duro de 256 procesadores. Los límites blandos, sin embargo, son descubiertos a partir de casos reales y comunicados de boca en boca. Están causados por las características de diseño del software, lo cual puede brindar una pobre performance incremental o, en muchos casos, presentar una reducción en el trabajo útil de los procesadores a medida que se agregan más núcleos.

Habitualmente el límite blando se detecta por debajo del límite duro, lo que significa que las sobrecargas de trabajo e ineficiencias producen un valor seriamente disminuido para equipos con grandes cantidades de procesadores, a pesar de encontrarse esas cantidades dentro de la configuración soportada oficialmente por el software.

“Mientras que los límites duros son fácilmente detectables, los límites blandos en el número de procesadores que el software puede manejar sólo se aprenden en base a prueba y error, creando desafíos para los administradores de IT. El resultado final llevará a migraciones apuradas a nuevos sistemas operativos en la carrera para lograr que el software esté a la altura del poder de procesamiento disponible en los servidores del mañana”,

concluye el analista de Gartner.