Servidores PC
Una alternativa a valorar
Los servidores PC basados en procesadores Intel son posiblemente menos costosos que sus equivalente RISC, pero también pueden significar inversiones arriesgadas para las organizaciones. En un primer análisis, puede observarse que los servidores PC han recorrido un largo camino y ofrecen muchas ventajas frente a los servidores RISC. Entre los beneficios, según diversos analistas y usuarios, están los siguientes: resultan menos costosos de adquirir, programar y mantener; son más fáciles de soportar; hay más aplicaciones disponibles; y el upsizing de las aplicaciones resulta más fácil. Además, los fallos en redes PC LAN ejercen un impacto menos generalizado en la empresa.
Un servidor PC es "un PC vendido, comercializado y construido como un servido. Normalmente, más de un 50% de las máquinas vendidas bajo esta denominación están configuradas como un servidor", afirma la consultora International Data Corporation. Un servidor PC es considerado como parte de un servidor LAN, que es un dispositivo inteligente situado en una red de área local (LAN), que ofrece diversos servicios a los dispositivos desktop inteligentes localizados en esa red. Los servidores PC han sido diseñados para explotar y aprovechar las ventajas básicas de los PCs para soportar un proceso distribuido de alta potencia y bajo costo.
Las malas noticias
El reverso de la moneda respecto a los servidores PC revela algunas desventajas al compararlos con servidores RISC/Unix: escalabilidad limitada; funciones y características menos potentes; limitaciones en plataformas de sistema operativo, monitorización de sistemas y herramientas de soporte; y el riesgo de utilizar datos y aplicaciones distribuidos.
A diferencia de los servidores RISC/Unix, los servidores PC tradicionales no ofrecen generalmente la capacidad de utilizar sistemas operativos multi-tarea, que son más escalables.
Unix lleva 25 años en el mercado, y es un producto probado y de suficiente madurez, mientras que los sistemas operativos para PCs, incluso el más antiguo, el DOS, sólo tiene 10 años, y es bastante deficiente.
Los sistemas basados en procesadores RISC que funcionan bajo Unix concentran la potencia de la CPU en una sola máquina, lo cual en opinión de algunos es lo más adecuado para procedimientos basados en transacciones, como las operaciones de bases de datos. La ventaja inherente de un servidor de arquitectura RISC es que es más potente que un sistema Intel. Es bueno para entornos con gran intensidad de transacciones, donde puede aprovechar la capacidad de funcionar con sistemas operativos multithreaded.
Las herramientas de servidores PC para desarrollo y mantenimiento de los sistemas y aplicaciones son menos potentes que las herramientas para servidores RISC, además, existe la posibilidad de considerar aplicaciones comerciales críticas, como las bases de datos relacionales y el proceso de planificación de recursos de fabricación. Muchas de estas cosas sencillamente no están disponibles y desde luego no son tan potentes como una red PC LAN.
Sin embargo, existen diferencias de opinión a este respecto.
Las tareas con gran intensidad de proceso, como el proceso de textos y las hojas electrónicas, funcionan mejor bajo un régimen distribuido como el que existe en una red del tipo servidor PC, en este caso, el desktop individual es responsable de la utilización de la CPU y no comparte la potencia de CPU de una única máquina.
No hay soluciones totalmente satisfactorias
Otra consideración a tener en cuenta es que los servidores PC no pueden ser utilizados a todos los niveles de aplicaciones. De hecho, las empresas siguen procesando en un mainframe las aplicaciones que requieren grandes cantidades de datos, porque aún no existe una solución satisfactoria en el área de los servidores PC. Pero lo cierto es que los multiprocesadores y las bases de datos SQL están haciendo que esto cambie, y pronto será posible procesar estos tipos de aplicaciones en servidores PC.
Los servidores PC presentan también limitaciones debido a plataformas de sistema operativo como NetWare de Novell y, en menor medida, OS/2 de IBM, Windows NT y LAN Server de Microsoft y Vines de Banyan Systems. No existen estándares sobre la forma en que estas plataformas actuarán interactivamente en una misma red.
El problema principal aquí está en disponer de la capacidad necesaria para que al fallar la aplicación el sistema operativo continúe funcionando. Además, es posible hacer que cualquier sistema operativo, como DOS, Unix o Windows NT, funcione en cualquier máquina. Sin embargo, hay que considerar con qué fiabilidad funciona el sistema operativo, así como la disponibilidad de aplicaciones para el tipo de servidor elegido. Si se trata de una aplicación crítica, ¿se está dispuesto a correr riesgos?
Seguridad variada
Las capacidades de seguridad son completamente diferentes de una plataforma a otra. Aunque los usuarios no desean normalmente conectarse a más de una red o sistema, en la mayor parte de los casos esta situación está bajo control, aunque no sin fisuras, y es conveniente tener esto en cuenta al hablar de las limitaciones de los servidores de base PC. Si un departamento está funcionando con NetWare y otro con NT, puede accederse fácilmente a información a través de las dos redes, pero hacerlo de manera perfecta es mucho más difícil.
Algunas de las limitaciones principales están en el área de las herramientas de monitorización y soporte de sistemas. Cuando una empresa tiene aplicaciones críticas, es importante poder desplegar esas aplicaciones y después monitorizarlas cuidadosamente. Esta es un área en la que las plataformas PC muestran muchas deficiencias.
Los entornos PC ocupan un lejano tercer lugar en términos de gestión de sistemas. Unix tiene herramientas de soporte, aunque están muy por debajo en comparación con las herramientas mainframe. Y, por otra parte, las herramientas PC LAN no son ni siquiera tan buenas como las herramientas Unix, ya que no son tan sólidas ni han alcanzado la necesaria madurez.
Correr riesgos
El riesgo principal está en la utilización de datos distribuidos y aplicaciones distribuidas. Resulta muy difícil garantizar la estabilidad y seguridad de una aplicación que reside en múltiples servidores y múltiples máquinas desktop. Cuando se distribuye la potencia de proceso, se multiplican las posibilidades de problemas. Y cuando se comienza a mezclar entornos heterogéneos de PC LANs, LANs Unix, NetWare y LANs OS/2, el problema se complica incluso más. Cuanto más cosas diversas se mezclan en un entorno de proceso distribuido, mayor es la posibilidad de desastre, y más crucial es por lo tanto la planificación.
Además, el tiempo inactivo de un sistema significa mucho dinero en productividad perdida. En términos de actividad perdida, si se trata de un sistema basado en transacciones resulta obviamente mejor invertir en la solución RISC, que es más costosa pero más sólida.
¿Fiables? No del todo
Es posible que confiar las aplicaciones críticas a los servidores PC siga siendo arriesgado, pero los usuarios están comenzando a apostar por su mayor estabilidad.
La fiabilidad -o más exactamente, la falta de fiabilidad- solía ser el motivo principal por el que los usuarios rechazaban la utilización de servidores de arquitectura PC cuando había que ejecutar aplicaciones críticas. Sin embargo, los tiempos están cambiando.
En un reciente estudio realizado por ComputerWorld entre 150 usuarios norteamericanos de servidores PC, las puntuaciones de satisfacción del cliente para fiabilidad de sistemas fueron de 8,5 o mejores para las tres líneas de productos analizados: NetServer de Hewlett-Packard, ProLiant de Compaq Computer y PC Server de IBM.
Estas puntuaciones sitúan a los servidores PC a la mis