Proceso Masivamente Paralelo

Potencia de mainframe a precio de PC

La tecnología de proceso masivamente paralelo, MPP (Massively Parallel Processing) está siendo anunciada como lo más nuevo y extraordinario del momento. Sin embargo, todo este interés que despierta el proceso MPP puede tener mucho de artificial, ya que aunque esta tecnología promete a las compañías la potencia de un mainframe a una cuarta parte del costo aproximadamente, MPP presenta aún muchos de los problemas de crecimiento de toda nueva tecnología, incluyendo una deficiente gestión de sistemas y una baja fiabilidad. Además, en su calidad de punto de anclaje para proceso cliente/servidor, MPP está funcionando bajo muchas de las limitaciones inherentes a ese entorno.

Los usuarios actuales de sistemas de Proceso Masivamente Paralelo (MPP) se encuentran en una difícil posición de vanguardia. Esto deja en un estado de duda a los potenciales usuarios, muchos de los cuales afirman que esperarán 12 meses en promedio para adquirir un sistema MPP, según un reciente estudio de 196 instalaciones comerciales realizado por International Data Corporation.

¿Cuál es la relación entre el proceso MPP y los sistemas existentes?

Pasar de los sistemas existentes al proceso MPP puede resultar sorprendentemente fácil, pero hay que contar con algunos costos importantes. En la mayor parte de las compañías, la tecnología MPP rara vez sustituye a un mainframe, y tiende a ser más complementaria que competitiva con los sistemas existentes, al menos al principio.El personal de sistemas de información puede cargar datos de mainframes y miniordenadores al servidor MPP mientras se ejecutan aplicaciones antiguas en las máquinas existentes. Una conexión de canal directa o una solución de red sirve de puente entre las aplicaciones antiguas y el nuevo servidor de base de datos relacional. Así, las aplicaciones existentes en hardware propietario pueden funcionar con bases de datos MPP. Sin embargo, hay una condición importante a este respecto; se requiere un interface de alta velocidad para la plataforma elegida. El costo de crear un interface así puede ascender a cientos de miles de dólares.

Disponer de un enlace de este tipo entre lo antiguo y lo nuevo significa que el personal informático puede escribir nuevas aplicaciones en plataformas de hardware más pequeñas -generalmente PCs, estaciones de trabajo y miniordenadores- para realizar la transferencia en el futuro. Esto deja libres a los desarrolladores de aplicaciones para trabajar en nueva tecnología de software en unas condiciones menos agobiantes.

Las aplicaciones de soporte de decisiones existentes en plataformas de PCs y estaciones de trabajo pueden utilizar inmediatamente las existencias de datos MPP, con capacidades mejoradas de acceso a los datos. Las aplicaciones de soporte de decisiones están equipadas con interfaces SQL y con herramientas de navegación de datos. Incluso las antiguas aplicaciones administrativas pueden ser provistas de funciones SQL.

¿Qué es el proceso MPP?

El concepto MPP es sencillo: tomar un número de procesadores y agruparlos para crear un potente y económico sistema de ordenador a gran escala. Como el conjunto de componentes está basado en microprocesadores, comparte los ratios de bajo costo-a-potencia del PC. Sin embargo, MPP ofrece las capacidades de un mainframe flexible: en realidad, puede ser considerado como una suerte de hipermainframe, con MIPS que pueden manejar datos tanto de soporte de decisiones como operacionales. Los sistemas MPP utilizan tecnología de almacenamiento de arrays de discos redundantes de bajo costo o RAID (Redundant Arrays of Inexpensive Disks), logrando así una inmensa y fiable capacidad de almacenamiento, que puede fluctuar entre 5 y 200 GBytes. Esta capacidad es expandible linealmente con proceso, memoria y potencia de Entrada/Salida.

Los sistemas funcionan normalmente bajo Unix en procesadores front-end, que se utilizan como controladores de comunicaciones, monitores de rendimiento y administración y plataformas para el traslado de programas de aplicación a Unix paralelo y para actuar en interface con programas de aplicación en plataformas cliente.

El motivo de que el proceso MPP se haya convertido en tan atractivo para los entornos comerciales es que está permitiendo la tecnología para grandes contingentes o almacenes de datos, que son bases de datos relacionales a gran escala que agrupan bases de datos corporativas fragmentadas. Estos potentes servidores de base de datos tienden a actuar dentro de una arquitectura de sistemas de información cliente/servidor. Como tales, ofrecen un acceso fácil y económico a enormes volúmenes de datos y un impresionante rendimiento en proceso de transacciones. MPP es la segunda mitad de la revolución del PC, que surge como continuación lógica de ésta, ya que permite al usuario de PC una conexión personal con la empresa. El hecho de que utilice tecnología de microordenador tanto en el servidor MPP como en el cliente PC añade nitidez conceptual al diseño. Desde una perspectiva comercial, la tecnología MPP significa mejores capacidades de soporte de decisiones. Los usuarios obtienen un nivel de control sin precedentes sobre sus operaciones, ya que MPP hace posible el acceso a la información de los sistemas operacionales de una compañía y permite un proceso inteligente de enormes cantidades de datos e imágenes.

¿Cuáles son los problemas de MPP?

Estos son los principales obstáculos a tener en cuenta en relación con MPP:

La falta de funciones eficaces de bloqueamiento de ficheros y registros en algunas bases de datos MPP. Este problema ha dado lugar a importantes trastornos, ya que las operaciones de escanning para soporte de decisiones y las transacciones en tiempo real para múltiples aplicaciones suelen colisionar entre sí. Si su arquitectura de base de datos no está diseñada para aplicación general y proceso con cargas de trabajo mezcladas, encontrará dificultades según vaya trasladando más y más aplicaciones. Algunas instalaciones que manejan una carga de trabajo mezclada funcionando con bases de datos con funciones deficientes de bloqueamiento de ficheros y registros, informan de haber sufrido períodos de interrupción hasta 15 veces al día. Esto se debe a que la contención o competencia en los accesos da lugar a un abrazo mortal, en el que el sistema es incapaz de determinar la prioridad de las instrucciones en competencia para dos o más usuarios distintos.

Incluso para aquellos sistemas que se recuperan automáticamente en un plazo de unos segundos a unos pocos minutos, las cosas no resultan fáciles. Los discos acaban conteniendo una buena cantidad de datos inservibles, que el personal de sistemas de información debe limpiar mediante tediosos procedimientos de mantenimiento. Para poder resolver los problemas de competencia y aumentar el rendimiento, con frecuencia se estratifican las bases de datos en niveles de operaciones y datos de soporte de decisiones. De esta forma, la compañía obtiene una jerarquía de datos de decisión cada vez más acumulados o sumarizados, encima de los datos operacionales existentes en el servidor.

Falta de funciones de gestión de sistemas a gran escala. El software de administración de sistemas, la gestión de red y la seguridad para DOS y Unix han sido deficientes hasta ahora en la arquitectura MPP. Estos problemas vienen afectando desde hace tiempo a los sistemas de proceso distribuido basados en PCs.

Funciones de monitorización de transacciones y niveles de rendimiento deficientes en algunas arquitecturas. Como las transacciones sencillas, tales como el proceso de pedidos, no pueden aprovechar una arquitectura paralela (la transacción es tan sencilla que no puede distribuirse la carga entre los procesadores), estas transacciones tienden a utilizar procesadores de baja velocidad. Los programadores han tenido que relegar al background alguna actividad de p

Viñeta publicada el 20 de febrero de 1870 en La Flaca n.º 35 Tendencias

ny2 ACTUALIDAD

ny2 Sociedad de la información

Día de la Movilidad y el BYOD Coffee Break