¿Hacia dónde va la supercomputación del futuro?

La estandarización se confirma como tendencia

Investigación en meteorología, astrobiología o proteómica, diseño de carrocerías en la industria automovilística y aeronáutica, análisis de colisiones y otras aplicaciones en los ámbitos de la exploración petrolífera, en el militar y en el financiero. Éstos son sólo algunos de los campos de actuación de la supercomputación, una tecnología de computación que utiliza procesadores de elevada potencia de cálculo, grandes y robustos sistemas de memoria con enorme rendimiento y herramientas de software capaces de explotar este potencial.

Aunque parece que se trata de un área de la tecnología que queda lejos al común de los mortales, lo cierto es que los superordenadores permiten realizar labores que nos afectan a todos. Desde la previsión del clima hasta el diseño de aviones y coches, pasando por la creación de fármacos y el análisis de futuros financieros, la supercomputación es útil en infinidad de campos que no sólo se ciñen a la ciencia, sino también al campo empresarial incidiendo en la cuenta de resultados de las compañías y ayudándolas a gestionar sus activos y clientes. Eso sí, la supercomputación de hoy en día tiene poco que ver con la de sus inicios, en los años cuarenta y muy ligada al ámbito militar (ayudó a la creación de la bomba atómica). Además de haber avanzado en la capacidad de proceso (es curioso destacar que un superordenador de los años 70 no tenía la capacidad de proceso que ahora tenemos en un PC), también está habiendo una tendencia importante hacia la estandarización de la infraestructura y la proliferación de la arquitectura cluster (varios equipos que trabajan en red) frente al superordenador tradicional. De hecho, siete de los diez mayores superordenadores del mundo son clusters. Como asegura un estudio de IDC, “no siempre es necesario comprar un superordenador para hacer supercomputación”.

Superordenadores vectoriales frente al clusters
Javier García Tobío, director-gerente del Centro de Supercomputación de Galicia (CESGA) está de acuerdo con esta propensión hacia el cluster: “El concepto de superordenador “estándar”desapareció a principios de los años noventa con la aparición de sistemas alternativos a los sistemas vectoriales, que hasta entonces acaparaban el mundo de la supercomputación. Transcurrida una década desde entonces, las diferentes arquitecturas cluster tomaron el relevo como la mejor opción en cálculo intensivo. Esta arquitectura es, innegablemente, la tendencia actual y de futuro en supercomputación, al menos a medio plazo y, con ella, la utilización de procesadores IA32, IPF y RISC, los que cuentan con mayor proyección. Para aplicaciones muy específicas, las arquitecturas que incluyen procesadores vectoriales siguen siendo una opción a considerar, como es el caso del Earth Simulator de Japón, el sistema con mayor capacidad de cálculo del mundo”. Otra tendencia que señala García Tobío es seguir utilizando Unix como sistema operativo, “un sistema probado y de uso común, aunque Linux es una realidad en múltiples instalaciones y se encuentra en fase de ampliación”.
Con la opinión de este experto está de acuerdo Isidro Cano, gerente de Producto de Sistemas Críticos en HP España y Portugal: “La tendencia en supercomputación está dirigida por la estandarización de servidores. Así, una industria que se apoyaba en los tradicionales superordenadores vectoriales va dejando paso a unos equipos con hardware estándar, aunque provistos de un software y conectividad especial. El 80% de las instalaciones en supercomputación van en esta línea, ya que se trata de equipos mucho más baratos y que se pueden reutilizar”. Esta tendencia se puede apreciar en Top500, una conocida lista mundial de superordenadores, en la que se muestra que sólo un 7% de los 500 superordenadores más grandes del mundo se basan en procesadores vectoriales, frente al 93% que se basan en los escalares.
De todos modos, como explica Óscar de Bustos, responsable de alta computación de SGI España, las tendencias las marcan los propios clientes y sus preferencias: “Cada arquitectura tiene sus pros y sus contras. Una sola máquina es más fácil de gestionar y pueden ser definidos muchos usuarios y códigos, aunque estos superordenadores vectoriales suelen ser más caros. Los clusters están formados por equipos más baratos y estándares. Permiten ejecutar una aplicación en un momento dado, aunque la gestión de grupos de usuarios es complicada porque la red se suele saturar y los equipos a veces están limitados por la memoria. Su gestión es cara”.
Francesc Subirada Curco, co-director del Instituto de Investigación avanzada CEPBA-IBM, señala que “ambas soluciones seguirán implementándose, en función de las aplicaciones. Es una cuestión de velocidad del procesador, de acceso a memoria y ancho de banda de la red interna de interconexión”. Otras tendencias que destaca Subirada en supercomputación son que a nivel de hardware, cada procesador del superordenador seguirá cumpliendo la ley de Moore, duplicando su potencia cada 18 meses, y se incrementará el número de procesadores que podrán trabajar unidos, pasando del entorno actual de miles de procesadores individuales a decenas de miles de ellos en meses. Por otra parte, a nivel de software básico, “el reto es la capacidad de programar de forma sencilla sistemas masivamente paralelos, para lo que serán necesarios nuevos desarrollos en las directivas de programación paralela”.

Últimos avances
Entre las últimas propuestas de los fabricantes de superordenadores destacan dos iniciativas: el Proyecto Ultravioleta de SGI y Blue/Gene. Como explica Óscar de Bustos, el primero surgió hace dos años como respuesta a un concurso público organizado por la agencia dedicada a la investigación en defensa en EE.UU., DARPA (Defense Advanced Research Projects Agency). “Ésta quería que varios fabricantes presentaran su visión de cómo estaría la supercomputación en 2010, así que varias empresas como IBM, Cray, Sun y HP, además de SGI, hicimos nuestras propuestas. Nuestra iniciativa fue el Proyecto Ultravioleta y, aunque no fue elegido por DARPA, nuestra compañía ha seguido avanzando en él para un futuro lanzamiento comercial”. De Bustos señala que el proyecto se encuentra en estado embrionario: “En 2005 podremos ver los primeros prototipos y no será hasta 2007 cuando se empiecen a comercializar”.
Como explica De Bustos, el proyecto Ultravioleta se basa en el concepto de la computación multiparadigma. “El científico no tiene tiempo para preocuparse por la programación, debe dedicarse a su labor. Esto es lo que pretendemos con Ultravioleta”. Así, utilizando la “computación multiparadigma”, estos sistemas aunarán las arquitecturas de computación existentes en el mercado con la tecnología escalable de memoria compartida de SGI. El nuevo superordenador soportará procesadores MIPS de SGI, pero también Itanium 2, ya que SGI trabaja con Intel en el Programa de Computación Avanzada, mediante el que ambas desarrollarán interfaces de programación más productivas, permitiendo la ejecución paralela de forma ma

Viñeta publicada el 20 de febrero de 1870 en La Flaca n.º 35 Tendencias

ny2 ACTUALIDAD

ny2 Sociedad de la información

Día de la Movilidad y el BYOD Coffee Break