El papel del nuevo mainframe
Opinión
Las tendencias dominantes de la Tecnología de la Información ( TI ) de la última década fueron las arquitecturas cliente/servidor ( C/S ) , hoy muy conocidas y apreciadas . Cliente/servidor apostaba por una descentralización de los entornos TI; prometiendo, además de flexibilidad, una considerable reducción de los costes .
No cabe la menor duda que las arquitecturas C/S aportaron muchas ventajas a la comunidad TI . Sin embargo crearon unos nuevos niveles de complejidad, niveles de complejidad que influyeron substancialmente en los niveles de costes TI .
Por consiguiente no nos puede sorprender que recientemente el péndulo haya vuelto hacia un nuevo paradigma de centralización llamado “Network Computing” . “Network Computing” promete controlar la inevitable complejidad de cualquier infraestructura TI diseñada hoy, la cual tiende a incrementar, de una manera más centralizada y más eficiente, a la vez que proporciona servicios al usuario de forma más adecuada .
Para entender mejor la evolución de las arquitecturas TI, deberíamos analizar las posibilidades que ofrecen las diferentes arquitecturas así como las correspondientes estructuras organizativas que pretenden servir mejor .
El concepto centralizado de “Host Computing” facilita una arquitectura relativamente simple con una gestión óptima y un control sencillo de los recursos . Es recomendable para organizaciones con estructuras jerarquizadas .
Cliente/servidor apunta a una gestión y servicios óptimos para diferentes entidades dentro de una organización, proporcionando arquitecturas descentralizadas y flexibles .
Da cabida a unas estructuras planas con responsabilidades altamente descentralizadas e independientes .
La aparición de nuevos conceptos organizativos con estructuras en red de equipos virtuales, la necesidad para más y más comunicación y cooperación, frecuentemente entre diferentes companias en un entorno global, impone una nueva arquitectura TI . “Network Computing” promete ser la solución, garantizando un uso óptimo de los recursos debido al control centralizado, pero permaneciendo flexible y eficiente al mismo tiempo .
Network computing
¿ Qué diferencia tanto al “Network Computing” ? Existen dos puntos de vista claramente diferenciados: El punto de vista del usuario y el punto de vista del propietario .
En entornos C/S el cliente/usuario debe percibir los servidores así como los servicios y frecuentemente debe a su vez implicarse en las gestión o administración de las tareas . La idea básica del “Network Computing” es proporcionar al usuario todos los servicios que precisa sin tener que saber cuál es la estructura de la red y liberarle de cualquier tarea de administración .
Por consiguiente se puede comparar al “Network Computing” con el servicio de telefonía . Desde cualquier teléfono se puede llamar a cualquier otro teléfono de cualquier parte del mundo sin tener que conocer los diferentes elementos o estructuras propias de la red .
Fortalecimiento del CPD
Estas nuevas necesidades fortalecerán el nuevo papel del Centro de Proceso de Datos ( CPD ) . Se crearán nuevos CPD que se responsabilizarán de todos los sistemas de la red . Una óptima organización de los recursos de los diferentes sistemas asegurará una alta calidad en el servicio proporcionado a los usuarios de la red a un mínimo coste .
Para conseguir esos niveles de servicios, soluciones y herramientas centralizadas parecidas a las de los mainframes tales como la gestión centralizada de los datos u operaciones altamente automatizadas, el nuevo CPD volverá a ser la piedra angular de la economía de escala y la calidad de las prestaciones .
Sin embargo siempre tendrá sentido tener en cuenta la eficiencia de la centralización de operaciones así como las soluciones distribuidas que puedan ser gestionadas centralmente o tomar en consideración que toda solución descentralizada debe ser diseñada para una opción de centralización .
Un prerrequisito para esta opción de centralización sería hacer compatible un entorno para aplicaciones sobre servidores High End centralizado así como sobre servidores distribuidos, de tal forma que las aplicaciones creadas a nivel local puedan ser más adelante procesadas centralmente con la máxima fiabilidad y eficiencia .
Nuevo mainframe
con papel tradicional
En el área de servidores coexistirán en la red principalmente los servidores mainframes, UNIX y NT . El reto que plantea este entorno es la integración ‘centrada en el usuario’ u ‘orientada al usuario’, de servicios que puedan residir en los diferentes servidores de la red . Por consiguiente el “User Centered Computing” puede verse como la combinación de principios más descentralizada y a su vez centralizada .
Bajo esas premisas el mainfame queda reforzado, al necesitar la red de grandes servidores de datos que sean capaces de suministrar la información y los servicios con la mayor disponibilidad, celeridad y calidad posibles . En este tipo de arquitecturas, vuelven a exigirse las prestaciones y garantías que ofrece el mainframe desde hace muchos años: Reliability ( Seguridad ) , Availability ( Disponibilidad ) , Serviceability ( Disponibilidad de servicios para la gestión del sistema ) . A su vez se precisan altas potencias de proceso, así como servicios de almacenamiento altamente automatizados para garantizar la disponibilidad de los datos y su salvaguarda a bajo coste . Como mínimo, los mainframes están diseñados para proporcionar cientos de MIPS de capacidad de proceso, Terabytes o Petabytes de almacenamiento de datos, y grandes bandas anchas de entrada/salida mediante cientos de canales paralelos, para dar soporte a grandes estructuras de datos así como a un gran numero de usuarios . Usan de forma brillante los buffers de memoria, disponen de controladores de entrada/salida dedicados, usan algoritmos altamente sofisticados para la gestión de colas, además de una planificación muy eficiente de los procesos para incrementar notablemente los rendimientos .