La tecnología intranet a examen

Los efectos de los nuevos estándares

Apenas se han acostumbrado las empresas al hecho de que las arquitecturas Cliente/Servidor sustituirán mediante terminales a las aplicaciones mainframe utilizadas hasta ahora, cuando surge el nuevo mensaje: “El futuro está en Internet”. La inseguridad resultante del cambio extraordinario que ha tenido lugar en las tecnologías y en los conceptos resulta comprensible. ¿Cómo adoptar una decisión cuando antes de su conversión a la práctica ha quedado ya desfasada? De todas formas, el planteamiento “Intranet vs. Cliente/Servidor” no es válido, ya que el concepto Cliente/Servidor es una arquitectura, mientras que la intranet es una tecnología. En consecuencia, el planteamiento correcto sería, “¿Cliente/Servidor mediante tecnología Internet?”. Y, por otra parte, se plantea también la cuestión de en qué medida son importantes los cambios y las influencias que se derivan de la tecnología Internet.

Para poder determinar esto adecuadamente, se analizará aquí primero la arquitectura Cliente/Servidor, que ha surgido con el objeto de aprovechar la capacidad de los PCs para implementar aplicaciones empresariales. En realidad, en ocasiones los PCs conectados mediante un File Server se incluyen en el proceso “Cliente/Servidor”, aunque esta forma de configuración alcanza como mucho al proceso de datos autónomo y al proceso para trabajo en grupo.

Las “verdaderas” aplicaciones Cliente/Servidor tienen lugar cuando también las aplicaciones operativas básicas de una empresa pueden ser soportadas con ellas. Esto requiere al menos la gestión de los datos en un servidor de base de datos y, además, servidores de aplicación pueden ofrecer también sus servicios a los PCs. En consecuencia, una arquitectura Cliente/Servidor es menos una cuestión de hardware que de software: ¿Es el software distribuible, y puede instalarse de forma que alcance a todos los ordenadores?

De aquí se deriva la definición siguiente: “Una arquitectura Cliente/Servidor consiste en que una parte sustancial de una aplicación funciona en un PC o en un ordenador de red (NC), utilizando servicios de otros ordenadores (por ejemplo, gestión de bases de datos, funciones de proceso) dentro del marco de un concepto “Maestro/Esclavo” o “Master/Slave”. Precisamente a partir de esta definición de la arquitectura Cliente/Servidor se demuestra que la tecnología Internet, que está establecida en base a una presentación de la información en gran medida pasiva, no resulta adecuada sin más como sistema portador. No obstante, hay una consideración adicional a tener en cuenta antes de emitir un juicio definitivo. El espacio de implementación o configuración de una arquitectura Cliente/Servidor es muy amplio, y alcanza desde una solución PC pura (“Fat Client”) hasta un proceso cooperativo mediante PCs, servidores y mainframes. En realidad, la forma de configuración está determinada por la cantidad de puestos de trabajo y la distribución regional.

Desde el cliente -es decir, desde la estación de trabajo- se emite una cantidad de accesos a base de datos o llamadas a programas remotos (RPC = Remote Procedure Call). El motivo está en que al menos la porción de diálogo de una aplicación debe funcionar en el PC, para poder disponer de un interface GUI (Graphic User Interface) adecuado, ya que el interface GUI incluye el proceso por campos. Sin embargo, los elementos de programa que se activan después de cada introducción de datos o después de cada pulsación de ratón requieren realizar accesos a datos, con el fin de ofrecer inmediatamente verificaciones, soporte de entrada u opciones de selección. De aquí se deriva la clave de las aplicaciones operativas Cliente/Servidor: los programas funcionan en gran medida en el PC, mientras que los datos que dichos programas requieren deben estar almacenados en otros ordenadores en la red de área local (LAN) o en la red de área amplia (WAN).

Cualquiera que tenga en funcionamiento grandes aplicaciones operativas Cliente/Servidor sabe qué problemas resultan del PC como componente del sistema global. En este sentido, es necesario enfrentarse a las dificultades siguientes:

El punto clave está en la distribución del software. El PC no puede funcionar sin software. La distribución del software -incluso cuando sólo debe ser transportado hasta el servidor local correspondiente- es un problema de cantidad y de tiempo. Como no se sabe qué software llamará o invocará el usuario, dicho software debe ser distribuido de forma profiláctica. Para ello, se envían paquetes de varios megabytes a través de la red.

Además, ningún PC se parece a otro. Incluso cuando se compran muchos PCs de una sola vez, no está garantizado que sean técnicamente idénticos. Sin embargo, en una aplicación PC deberán concordar exactamente entre sí las tarjetas gráficas, las tarjetas de red y la versión del sistema operativo, o de lo contrario no funcionará.

Múltiples fuentes de peligro. Por otra parte, existen múltiples productos software en el PC que pueden paralizarse mutuamente. Así, por ejemplo, recientemente, una importante caja de ahorros sufrió la desagradable experiencia de que su Home Banking Software dio lugar a un fallo total de los PCs de sus clientes, debido a que este software y el Office de Microsoft destruyeron mutuamente las entradas OLE. Otro problema es que en un sistema operativo como Windows el PC no está protegido, de forma que el software en funcionamiento puede direccionar y destruir todo tipo de cosas. Y no sólo cuando está atacado por un virus, sino en el caso de errores de programa “normales”. El PC está también desprotegido frente al usuario y sus manipulaciones. Como el sistema operativo y toda su funcionalidad están abiertos a usuarios sin experiencia, estos puden destruir muchas cosas, de forma consciente o inadvertida. Las empresas están intentando protegerse frente a estos problemas, con el fin de garantizar un funcionamiento de las aplicaciones operativas con la menor cantidad de problemas posible mediante:

- Eliminación de posibilidades de entrada de datos, como disquetes, unidades CD, o entrada de datos COM.

- Software y datos sólo en el servidor local.

- Paquetes de software uniformes, unificados y completos.

- Booting del PC desde el servidor (mediante “Boot PROM”)

- Desconexión de la entrada al sistema operativo.

De esta forma se producen PCs “castrados”, por lo que no es extraño que aumente el interés en los ordenadores de red o NCs (Network Computers), aunque en este caso se trata de un ordenador “pre-castrado en fábrica”.

La tecnología Internet ofrece una solución excelente a estos problemas, ya que en el PC sólo funciona un único software, mientras que el Web Browser y todos los datos vienen de los servidores a través de la red.

Los datos, en forma de páginas Web, pueden contener elementos multimedia -como gráficos, imágenes, video, etc.- pero sólo se visualizan en el PC, de manera que no tiene lugar ninguna interacción con el usuario. Por otra parte, es posible incluir campos de entrada en estas páginas HTML, de forma que se envíe una respuesta al Web Server. El Web Server por su parte activa a través del interface CGI un programa de aplicación.

Por otra parte, el comportamiento en el PC corresponde al de un interface terminal: no hay interacción por campos, sino funcionamiento “Full Screen”, y ese es el motivo de que resulte tan fácil convertir aplicaciones 3270 o SAP R/3 para funcionamiento en el entorno Internet/intranet.

Para qué sirve Java

Utilizando Java o lenguajes similares es posible crear programas transmisibles, que aportan vida e interés al PC. Mediante la ejecución in situ quedan abiertas todas las posibilidades del PC, hasta llegar a un verdadero interface gráfico de usuario (GUI). Así, mediante HTML, se envían a través de la red los datos y los programas necesarios para su proceso: ya no hay una distribuci

Viñeta publicada el 20 de febrero de 1870 en La Flaca n.º 35 Tendencias

ny2 ACTUALIDAD

ny2 Sociedad de la información

Día de la Movilidad y el BYOD Coffee Break