Supercomputación y paralelismo.
Silicon Graphics ha proclamado recientemente su incorporación al segmento de los superordenadores. Pretende, según Forest Baskett, Vicepresidente de Investigación y Desarrollo de la compañía, revolucionar el mercado actual de la supercomputación, con una relación precio/rendimiento desconocida hasta ahora. Ello implica obtener la potencia de los superordenadores al precio de las estaciones de trabajo.
Tradicionalmente, la velocidad de proceso es el parámetro más comúnmente utilizado en la evaluación de los superordenadores, unos sistemas específicamente diseñados para servir como las herramientas de cálculo científico más potentes posibles. Se puede decir que la velocidad teórica máxima de un sistema se obtiene multiplicando el número de ciclos de reloj interno por segundo por el número de resultados que se pueden obtener en un ciclo. Claro que la velocidad de un sistema está afectada por otra serie de parámetros, tales como la naturaleza del problema a resolver, la calidad de programación, el ancho de la banda entre los procesadores y la memoria, o los dispositivos de entrada/salida del software, lo que hace que la velocidad real sólo sea un porcentaje -en muchos casos ridículo- de la velocidad pico teórica. Con esta sencilla fórmula (velocidad teórica igual a velocidad de un procesador por número de procesadores) es posible imaginar, teóricamente, ordenadores de cualquier velocidad.
Pero desde finales de los años ochenta, han aparecido dos nuevos conceptos que conducen a un nuevo cambio cualitativo: el de los nuevos procesadores RISC, escalares pero de muy alta velocidad, y el de ordenadores basados en un número muy grande de procesadores capaces de actuar en paralelo, llamados masivamente paralelos. Con estos dos elementos se han constituido una serie de empresas suministradoras de Ordenadores Masivamente Paralelos, entre las que cabría destacar a Intel, Thinking Machines, Kendall Square, Maspar y nCube en los Estados Unidos, y a Meiko, Parsys y Parsytech en Europa. Los sistemas suministrados por estas compañías han demostrado dos cosas; la primera, y más importante, es que se pueden construir este tipo de máquinas con varios cientos e incluso miles de procesadores. La segunda, es que este tipo de arquitecturas, de momento, sólo son adecuadas para resolver un tipo determinado de problemas. Y, sobre todo, que no son fáciles de programar, entendiendo por programar no sólo escribir un programa, sino también, y más importante, hallar el algoritmo adecuado para esa arquitectura.
Parece como si entre los gurús de este campo, existiera un acuerdo en señalar que el futuro de la supercomputación pasa por explotar el concepto del paralelismo masivo, al considerar evidente que multiplicar el número de procesadores, es el único recurso viable a corto y medio plazo para acelerar la velocidad de los sistemas. Ello ha supuesto que compañías introducidas en el mundo de la supercomputación tradicional -como Convex, Cray, DEC, IBM y Fujitsu- estén interesadas en el mundo del paralelismo masivo. El objetivo, al parecer, es multiplicar la velocidad pico actual por un nuevo factor de 100, pero ahora no en los veinte años del primer incremento, sino en un horizonte tan cercano como el de tres-cuatro años.
El concepto de superordenador para 1994 evoluciona constantemente, y empresas como Fujitsu, Cray, Thinking Machines, Intel, Kendall Square e, inclusive, la iniciativa europea liderada por Meiko, ofertan ya configuraciones que superan ampliamente los 100 Gigaflops . No nos sorprendería que alguna de éstas empresas, empujada por la iniciativa de Silicon Graphics, decidiera anticipar presentaciones que, en precio/rendimiento, captasen significativamente la atención de los usuarios.
Silicon Graphics confía en la continuidad del segmento de la supercomputación (siempre existirán sectores para los cuales nunca habrá superordenadores con suficiente capacidad) así como en las arquitecturas RISC. El problema aparece, según algunos analistas, cuando los procesadores RISC no pueden trabajar con la memoria caché. Cuando esto sucede -y en general ésta circunstancia se da cuando se trata de procesar grandes modelos, precisamente para los que se han diseñado los superordenadores- el rendimiento de un procesador RISC desciende considerablemente. Claro que se pueden reprogramar las aplicaciones para tratar de maximizar el uso de la memoria caché, pero éste es otro problema.