Rediseñar el nuevo Centro de Proceso de Datos

Revisando la función de Sistemas

Transformar un centro de proceso de datos para e-business es casi como reconstruir un Boeing 747 mientras está en vuelo. Sin embargo, es un reto al que podría ser necesario enfrentarse este año, al aumentar el número de compañías que trasladan sus negocios al entorno Web.

Dado que todo el mundo está trasladándolo todo al Web a mil kilómetros por hora, las compañías no tienen otra opción que mantenerse a ese ritmo. El verdadero reto está en ofrecer una disponibilidad continua de las aplicaciones mientras todo cambia alrededor.
El enorme crecimiento de las aplicaciones e-business ha promovido ya cambios fundamentales en el centro de proceso, que es ahora más grande, más complejo y más heterogéneo que nunca. Los centros de datos están evolucionando continuamente, de entornos tpo “silo” que alojan a islas de aplicación separadas a centros de operaciones multivendor que incluyen un conjunto de recursos Web, de bases de datos, de aplicaciones y de almacenamiento basados en host, estrechamente integrados pero destinados a funciones específicas.
Y habrá muchos más de estos centros de operaciones que entrarán en acción este año, al apresurarse las compañías a establecer nuevas instalaciones para atender a la creciente necesidad de disponibilidad permanente durante todo el año, según la consultora Meta Group. Lo que se está observando es que las compañías intentan distribuir el trabajo a través de la red a dos centros que son ambos “calientes” y pueden absorber cada uno el trabajo del otro en caso de fallo, asegura Meta. Esta redundancia está siendo repetida en las redes, en el hardware y en las aplicaciones básicas. Los mainframes también se están moviendo desde un “hosting” de aplicaciones antiguas a soportar aplicaciones distribuidas como la Planificación de Recursos de Empresa (ERP), Gestión de Relaciones con Clientes (CRM) y e-commerce.
Mientras que los centros de datos del pasado solían estar unidos mediante redes privadas controladas internamente, la tendencia actual es hacia una conectividad basada en red privada virtual (VPN) y en Internet, gestionada internamente. Y mientras que existía poca interconexión entre las aplicaciones que servían a diferentes divisiones de la empresa, el énfasis actual se centra totalmente en fusionar aplicaciones - y acceder a ellas - tanto en toda la empresa como fuera de ella.
No es sorprendente por lo tanto que la tarea de gestionar el entorno de proceso haya aumentado de forma inexorable. El nuevo CPD es un centro de información focalizado en la red que sitúa a los clientes externos en el primer lugar de la línea de prioridad. Este centro de datos gestiona centralmente recursos conectados tanto nternamente como externamente, utilizando el protocolo IP (Internet Protocol) como catalizador para unas comunicaciones comunes a través de todas las fronteras de la Tecnología de la Información.
Mantener la disponibilidad de las actuales aplicaciones, tanto las antiguas ya existentes como las aplicaciones batch, es sólo una parte de la tarea. Cada vez en mayor medida, el reto está también en comprender los objetivos comerciales y en saber cómo gestionar aplicaciones y procesos interconectados. Desde el punto de vista del proceso, las cosas son bastante más complicadas. Si se analiza un entorno e-commerce, se observa que una transacción podría tener que pasar a través de múltiples entornos de proceso, sobre algunos de los cuales ni siquiera se tiene control.

Conocer el modelo comercial
La forma más importante y fundamental de facilitar la transición es comprender mejor el propio modelo comercial, las necesidades de los clientes y la forma en que interactúan las aplicaciones entre sí dentro de un mundo con capacidad Web. Además, tener una arquitectura que permita a los administradores añadir, suprimir o reparar hardware y software - sin necesidad de desglosar lo complejo. Fraccionar las grandes aplicaciones en componentes más pequeños, si es posible, y distribuirlas en múltiples recursos para minimizar las consecuencias de los posibles fallos de hardware y software.
Recordar también que la disponibilidad es de importancia clave - pero que no es necesario ni incluso factible hacer disponible de manera continua cada aplicación. Por el contrario, priorizar las aplicaciones de acuerdo con su importancia para la empresa. Duplicarlo todo, especialmente las aplicaciones que no pueden fallar. Asegurarse de que hay medidas adecuadas para alta disponibilidad y backup para todo lo demás. Y planificar para una amplia capacidad; la escalabilidad y la capacidad de expansión es casi tan importante como la disponibilidad.
En un sector en el que la rapidez de llegada al mercado es vital, hay que evitar una implementación a bombo y platillo del hardware y el software. Realizar los upgrades incrementalmente, de ser posible. Adquirir software de uso inmediato, y colocar encima cualquier adaptación necesaria. También es clave tener un punto central de control técnico y de gestión de extremo-a-extremo.
Las organizaciones de Tecnología de la Información se enfrentan a una enorme presión para crear nuevos sistemas de transacciones que se integren con la información ya existente a fin de permitir compras online, el mejor servicio posible y una conexión sin fisuras con las firmas colaboradoras. Para responder a esto, las compañías deben revolucionar totalmente la forma en que enfocan la gestión.


Las claves para 2001
-----------------------------
• Planificar para escalabilidad en el futuro. Estar preparado a añadir capacidad rápidamente.
• Distribuir las cargas de trabajo. Comprar productos de uso inmediato cuando sea posible. Recurrir al outsourcing en caso necesario.
• El tiempo productivo de las aplicaciones es de importancia clave. Incorporar la mayor redundancia posible.

Viñeta publicada el 20 de febrero de 1870 en La Flaca n.º 35 Tendencias

ny2 ACTUALIDAD

ny2 Sociedad de la información

Día de la Movilidad y el BYOD Coffee Break