La vuelta al concepto host

El servidor corporativo del futuro

En este mismo foro de discusión se debatió hace unos años acerca la muerte del mainframe. Hoy, esa posición parece que ha evolucionado de posturas tan radicales hasta llegarse a afirmar que la muerte del mainframe está aún muy lejos de producirse y que seguirá siendo necesario disponer de un gran servidor corporativo. La duda surge en torno a qué capacidades y qué funciones deberán cubrir estos futuros sistemas y acerca de qué sistema será el destinado a cumplir esta función: ¿será el mainframe, será la red, será un servidor virtual aún por definir?

Para definir posturas COMPUTERWORLD reunió a Francisco Santos, socio de Andersen Consulting; José María Bigas, Director de marketing de sistemas abiertos de Bull; Antonio Palanques, Director de marketing de Comparex; Alfonso Villoria, Jefe de producto de sistemas de Compaq; Juan Tonda, Director de programas estratégicos de Hewlett-Packard; Juan Antonio Zufiría, director de división de IBM y Gonzalo Moreno, Director de marketing de Tandem.

Según IDC y Meta Group las entregas MIPS de mainframes van a crecer un 40% o más en los próximos cinco años, lo cual iría en contra de lo que se ha estado hablando en los últimos tiempos. En otro estudio se hablaba de que lo que más importa a los usuarios de mainframes IBM es la gestión de sistemas corporativos, la interoperabilidad, los procesos cliente/servidor, la gestión de redes y la colaboración en grupos de trabajo. En resumen: integrar el mainframe con todo lo que tienen por debajo. También nos estamos enfrentando a una novedad: el modelo informático centrado en la red supone una vuelta a los grandes servidores conectados a dispositivos "tontos", muy económicos, de entrada y salida de datos que parecen una vuelta a la vieja informática. ¿Qué hay de cierto en todo esto?

Gonzalo Moreno (Tandem): Yo lo que querría es ratificarme sobre lo que se ha venido diciendo en la industria acerca de la muerte del mainframe, y es que el sistema en sí no ha muerto, pero lo que sí ha dejado de existir ha sido el concepto tradicional para el que se utilizaba. Hay una cantidad de aplicaciones funcionando que constituyen la parte más valiosa de las empresas, toda esa inversión hay que mantenerla y es algo absolutamente impensable ir a algo nuevo. El mainframe sigue porque sigue manteniendo los sistemas, las aplicaciones heredadas. Existen una serie de razones, fundamentalmente de negocio, que impiden que se produzca un cambio brusco.

José Mª Bigas (Bull): En Bull no hemos preconizado de forma activa la muerte del mainframe. Es cierto que existen fuertes inversiones en aplicaciones y en personal formado en un cierto entorno que justifican que los mainframes sigan teniendo sentido por sí mismos. En lo que no estoy de acuerdo es en que el concepto de mainframe haya desparecido. De hecho, prescindiendo de la tecnología que hasta ahora ha soportado el concepto de mainframe, su filosofía como tal, que aporta niveles importantes de seguridad, eso no ha desaparecido. Incluso se empieza a hablar de los factores de integración a nivel de diseño del producto, de un cierto tipo de plataformas cuya tecnología puede ser Unix con otra serie de capas de software que aporten un concepto que permita poner en el mercado un producto que en el fondo es un mainframe, que no se parece a los mainframnes clásicos en cuanto a que utiliza tecnología estándar, pero que como concepto final está aportando el mismo tipo de servicio a una organización.

Juan Tonda (HP): Está claro que el mainframe no va a desaparecer pero sí va a cambiar el concepto del centro de datos, en el sentido de que las demandas que se le van a hacer a ese centro de información, que sigue siendo útil, son muy diferentes a las requeridas en los años 60 y en los 70. Hoy en día se dispone de aplicaciones complejas en entornos multimedia, sistemas de apoyo a la toma de decisiones, cientos de GB de información, aplicaciones cliente/servidor distribuidas, donde el centro de datos ya no es sólo lo que está en el CPD, sino que es algo distribuido que se puede gestionar y manejar con todas las ventajas de un sistema centralizado.

Y aún hay más, porque con todo este ruido que se está produciendo desde el despegue de Internet en la parte del usuario doméstico o de empresa, nos estamos olvidando quién va a ser el que inyecte la información en la red para satisfacer la demanda de este número de usuarios creciente.

Ahí es donde nos lleva esta discusión, a los superservidoresque van a necesitar un ritmo de crecimiento mucho mayor que los 40% de MIPS por año. Y esto no va a ser con tecnologías convencionales, sino que se empezará a hablar de sistemas de procesamiento paralelo y otras soluciones.

Larga vida al host

Parece entonces que la definición de mainframe no es "políticamente correcta", sino que habría que denominarlo host. Y lo que también parece que está claro es que se vuelve al host central.

Juan Antonio Zufiría (IBM): Mirando atrás, si hubiera que determinar las dos variables que han fomentado el nacimiento de cliente/servidor, una es el coste por transacción del PC frente a lo que era un mainframe y la segunda, obviamente, el ancho de banda de las comunicaciones entre el desktop y el host. Estas dos variables han cambiado totalmente hoy en día. Respecto a la primera se puede demostrar que el "total cost of computing" en un mainframe, en un sistema Unix o en un sistema PC si no están igual van a converger en una escala de tiempo muy corta. La otra variable que acaba de desaparecer gracias al resurgir de Internet y al cambio de la tecnología de comunicaciones es la de las limitaciones en el ancho de banda. De esta forma, ya es irrelevante realizar las transacciones desde el PC o desde el servidor. Con esto, si se suprimen estas dos variables, tras haber llevado todo al desktop parece que se está volviendo al host. IBM posee cuatro líneas de servidores totalmente independientes y no va renunciar a ninguna de ellas porque mirando a la cara a nuestros clientes nos encontramos con que cada uno piensa en sus sistemas de computación de forma diferente. Las cuatro líneas van a sobrevivir. Si hubiésemos apostado todo en una de las cuatro divisiones tendríamos que intentar convencer a nuestros clientes que esa es la buena. IBM no tiene ese problema, lo que tiene que hacer es entender qué es lo que el cliente está buscando y ofrecerle la solución que más le conviene porque no todos buscan lo mismo.

Alfonso Villoria (Compaq): La forma de ver las cosas de Compaq coincide con la visión que planteaba Juan Tonda. Los mainframes están muy bien donde están pero, ahora bien, ya se habló del downsizing y del upsinzing hasta llegar a un punto convergente en el que los sistemas considerados de segunda talla como servidores basados en tecnología PC, pueden hacer casi las mismo cosas que los minis clásicos a un precio inferior. Se trata de especializar una serie de servidores en bases de datos, en transferencias de ficheros, en aplicaciones concretas y todo esto conviviendo con el mainframe perfectamente en caso de que éste existiera. La fiabilidad y la seguridad, además, son cada vez mayores en todos los servidores PC. En Compaq hemos comprado la tecnología ServerNet de Tandem para aplicarla a nuestros servidores de forma que a final de año vamos a ir a los sistemas clustering de la mano de Microsoft. Microsoft con Windows NT, Compaq con sus servidores en modo array con la tecnología ServerNet es la estrategia que estamos siguiendo para ofrecer un rendimiento ilimitado y fiabilidad total.

El problema ahí es ajustar los costes que en principio podrían resultar más caros que los de una arquitectura host típica.

Alfonso Villoria (Compaq): Esperamos que no. Y de hecho estamos convencidos de que Windows NT va a ser un sistema operativo determinante.

También parece claro que los propios mainframes están dando la alternativa al mainframe:

Viñeta publicada el 20 de febrero de 1870 en La Flaca n.º 35 Tendencias

ny2 ACTUALIDAD

ny2 Sociedad de la información

Día de la Movilidad y el BYOD Coffee Break