La investigación, al alcance de la mano
La UCM instala el primer centro de supercomputación universitario
con el apoyo de SGI (Silicon Graphics).
El centro de supercomputación de la UCM nace, sin embargo, consciente de sus limitaciones, directamente relacionadas con esa independencia respecto a las administraciones de las Comunidades Autónomas. “A pesar de que es la primera que surge de una universidad, eso lleva a que el alcance no pueda ser el mismo (que los proyectos promovidos, por ahora, por la Generalitat de Cataluña, la Xunta de Galicia y el Gobierno de Andalucía, organismos que ya han puesto en marcha otros centros de este tipo para centros universitarios)”, relata José París, asesor técnico de los servicios informáticos del Centro de Cálculo de la Universidad Complutense de Madrid. “En los otros casos se incluye el arranque de las telecomunicaciones, y también tienen una función más integradora de sus diferentes puntos de investigación. Aquí, en cambio, es algo puramente universitario, con lo que también pretendemos que otras universidades de Madrid tengan como punto de referencia este centro”, aunque todavía no se han establecido las formas de estos contactos.
Origin 2000 y 3D, las estrellas
El centro de supercomputación es calificado por París como “algo escaso” debido, fundamentalmente, a que su precio, sin ser demasiado alto, lo utilizan muy pocos investigadores (París sitúa en alrededor de los 30 o 40 proyectos en la UCM que puedan hacer uso de este equipamiento actualmente). El proyecto, y basándose en los planes de financiación de la Unión Europea, se rige por un plan de inversiones a tres años (100 millones por año). Con la primera tanda de millones, el Centro de Cálculo de esta universidad adquirió el equipamiento de SGI.
Fundamentalmente, consiste en un sistema Origin 2000, con 32 procesadores R10000 a 250 MHz (que se ampliarán en breve hasta 48 y, si llega el presupuesto, hasta los 56). Están distribuidos en nodos (lo que supone un total de 16 de 4 GB en total), y cada nodo contiene dos procesadores. Cada uno de estos dispositivos tiene 4 MB de Caché. París augura que el incremento de procesadores irá dirigido hacia la compra de los R12000, un salto más dentro de la actualización del parque informático de este centro en lo que a procesadores se refiere.
Esto se conecta al rack del subsistema gráfico, en concreto, el Onyx2 Infinite Reality, para hacer posible la visualización avanzada de gráficos, las construcciones virtuales y la inmersión. A su vez, esto está conectado a un monitor de 24 pulgadas en formato panorámico y, según París, y “como parte del presupuesto de este año, hemos adquirido un sistema de proyección”. En esta misma partida monetaria se incluye la probable adquisición del sistema ImmersaDesk, del fabricante Pyramid, que consiste en una pantalla retroproyectada, unas gafas especiales para la visualización en 3D y un dispositivo, parecido a un ratón, con el cual se pueden manipular objetos en tres dimensiones, interaccionando así con lo que el experto o investigador en cuestión esté estudiando en esos momentos. Por su parte, el software de desarrollo cuenta con compiladores Ada 95, C, C++, Fortran 77 y 90, librerías de paso de mensajes MPI y PVM, librerías gráficas OpenGL, IEIS Performer, Open Inventor y Molecular Inventor y librerías de realidad virtual WorldToolKit, entre otras cosas.
La utilización del centro de supercomputación de SGI está destinado especialmente a la investigación: “Otra cosa”, comenta José París, “es que se le pueda sacar determinado rendimiento en el terreno de la industria, como simulaciones no excesivamente grandes pero sí específicas, ya que para cosas demasiado concretas existen otros equipos más especializados. Se aplica este centro en campos variados, fundamentalmente para químicos y físicos como principales usuarios, pero el equipamiento gráfico y de realidad virtual puede ser utilizado por gente de más diversa procedencia, desde periodistas hasta publicitarios, para temas de post-producción, efectos especiales... Incluso, y a pesar de que la industria de automoción en España no está demasiado desarrollada, podría servir para simular crash (choques) de vehículos”.
Innovación continua
Fue Rafael Puyol, rector de la UCM, el encargado el pasado 4 de noviembre de inaugurar el equipamiento oficialmente, aunque ya había comenzado a funcionar de forma experimental en agosto y fue en realidad hacia junio de 1998 cuando la inversión fue realizada, preparándose el concurso en 1997. A este concurso se presentaron SGI, HP, Sun Microsystems y Digital, antes de la compra definitiva por Compaq. “La opción por SGI es porque técnicamente se ofertaba el doble de procesadores que el siguiente fabricante, pero se tuvieron en cuenta otras cosas, tales como la rapidez. De hecho, SGI no era la mejor en todas las opciones; como procesador, sin duda es mejor Alpha, pero en la configuración final, la antigua Digital en aquel momento no tenía una configuración de máquina para meter una determinada cantidad de procesadores en una arquitectura escalable, sino que contaba con máquinas y la cantidad máxima admitida era de 12 procesadores”, comenta este experto informático de la universidad madrileña.
Uno de los principales retos a los que se enfrenta el centro de supercomputación es la innovación tecnológica que en los pequeños equipos se van produciendo en breves plazos de tiempo. “Hasta ahora, y así seguirá siendo, los expertos trabajan muchas veces con sus propias máquinas; una estación de trabajo con uno o dos procesadores de última generación, incluyendo Pentium III, tiene una potencia de cálculo suficiente para acometer muchos problemas, el investigador lo puede resolver en su propio despacho. De hecho, cada vez más los PCs resuelven incluso simulaciones moleculares. El centro les eleva un orden en la magnitud de los problemas que puedan abordar. Aquí el tiempo es menor, y trabajan con más medios, pero hay que tener en cuenta que seguramente la próxima máquina que ese investigador compre podrá simular lo que ahora el centro simula; por ello, deberíamos siempre estar dispuestos a mejorar en infraestructura, igual que ahora mejora el investigador de forma individual”.