Data warehouse del Banco de Santander

La consolidación de un proyecto sin límites de capacidad

Posicionado en la primera posición del ranking bancario español, el Banco de Santander cuenta entre los logros alcanzados en los últimos diez años el haber multiplicado por catorce su base de clientes, disponer de la mayor red bancaria española en el mundo, con 5.002 oficinas, y ser la primera entidad financiera de Iberoamérica. Desde un principio siempre se han guiado por el lema de no ser lo mayores, pero sí los mejores. Al cierre de su ejercicio 1996 consolidó un balance de 19,7 billones de pesetas con un beneficio neto de 120.533.

Como es ya habitual en la evolución positiva de toda gran entidad, el Banco de Santander ha reconocido desde siempre la importancia que para su negocio representaba la utilización de las Tecnologías de la Información. De acuerdo con esta premisa, la entidad financiera se encuentra en estos momentos ultimando la elección de los suministradores que realizarán la segunda fase de unos de sus proyectos más ambiciosos: la instalación de un sistema data warehouse.

Pero como es lógico todo llevará su tiempo, "nuestro objetivo es que esta segunda fase se complete y materialice dentro del presente ejercicio, lo que ocurre es que ningún proyecto de estas características se puede limitar, puesto que su capacidad de ampliación es ilimitada", asegura. Eduardo Olivera, Director de Gestión de Información del Banco de Santander.

Haciéndose eco de los informes de las distintas consultoras, que aseguran que un proyecto de este tipo no se puede abordar sin un planteamiento serio y meditado, y sin una metodología previa, Eduardo Olivera afirma que " antes de abordar un proyecto de estas características hay que tener perfectamente analizados varios factores, ya que distintas experiencias demuestran que no hacerlo, sobre todo en grandes proyectos, conllevan un fracaso estrepitoso. Es más en algunos casos el resultado les ha situado en una posición peor que la inicial".

A la hora de resumir lo que implica o lo que caracteriza un proyecto de este tipo, Eduardo Olivera, matiza que "antes que nada hay que tener presente que un proyecto data warehouse está caracterizado por la complejidad. Desde mi punto de vista, su significado lo asimilo con el gran almacén de gestión, que lo que garantiza es una coherencia, una integridad referencial y una uniformidad a los datos, y todo ello contemplado desde la propia gestión de la empresa".

Pero abordar todo esto en una gran entidad financiera podría implicar que lograr esa uniformidad a los datos es algo que no se había abordado hasta ahora, "en el Banco de Santander no hemos esperado a disponer de un sistema de estas características para poder realizar informes de gestión. Nosotros ya los hacíamos, por ello al abordar este proyecto tuvimos presente que su instalación podía implicar un choque con todo lo que hasta el momento estaba funcionando". En este punto, es cuando el Banco de Santander se para a analizar para qué funciones quiere realmente un data warehouse. "Básicamente y teniendo en cuenta todo lo que puede ofrecer un data warehouse hay que saber perfectamente para qué tareas se va a utilizar y dónde ser va a aplicar. Es aquí donde surgen otra serie de proyectos como pueden ser todo aquellos relacionados con las técnicas de data mining. Unas técnicas que no son una novedad, pero que en la actualidad están adquriendo una inusitada importancia debido a su relación directa con el tipo de plataformas hardware.

Quizás una de las más importantes disyuntivas a las que tuvo, y todavía tiene que enfrentarse el Departamento de TI del Banco de Santander es decidir si opta por un sistema con arquitectura MPP o bien por un sistema SMP.

"Cuando se inició el proyecto, hace ya algo más de un año, y teniendo en cuenta que este tipo de instalación puede implicar presupuestos de gran magnitud, lo primero que debíamos resolver era la elección del sistema. Entonces, y debido a la gran magnitud de esta entidad, decidimos utilizar uno de los muchos ordenadores de que disponemos, que además de para almacén de datos, pudiera ser reutilizable para otras tareas, si finalmente veíamos que esa solución no era la ideal. Por supuesto no cometimos el error de ir a una gran máquina desde un principio, ya que sí son necesarias, pero siempre y cuando se disponga de una gran cantidad de datos ya construidos". Hasta el momento , y teniendo en cuenta la gran envergadura del proyecto, "hemos llevado a cabo una selección de ofertas que hemos pedido a diferentes suministradores, y ahora nos encontramos trabajando para tener todo a punto en el plazo fijado. Así, en estos momentos ya disponemos de las herramientas, que incluyen todos los DSS, y además estamos en contacto permanente con los usuarios para conocer cuál es el contenido que debe soportar el data warehouse. Tras lo cual, hemos percibido que dado el gran volumen de datos que se necesita mover, es obligatoria la existencia de un sistema con una gran potencia". Aquí es donde surge la duda entre MPP y SMP. "En principio y en teoría", asegura Eduardo Olivera, "el MPP es capaz de trabajar con un mayor volumen de datos, lo que ocurre es que es necesaria la utilización de un software que paralelice y obligue a que cada uno de los procesadores trabaje con la información que le corresponde. Además, en estos momentos, tampoco hay muchos sistemas probados y funcionando entre los cuales poder elegir, exceptuando el más antiguo que es NCR con base de datos Teradata. Por el contrario, la implantación de un sistema SMP, requiere obligatoriamente la utilización de un bus con una gran potencia, que evite y elimine los cuellos de botella que se forman entre todos los elementos del sistema. Además, se asegura que su crecimiento es limitado, pero como contrapartida a todo esto, presenta una gran ventaja y es su simplicidad de funcionamiento." Esta duda que se le plantea ahora al Banco de Santander no hubiera existido si el problema a resolver se lo hubiera planteado hace cinco años, "con la necesidad de manejar 1 Terabyte de información, no hubiera habido ninguna duda, la elección hubiera sido MPP", afirma Eduardo Olivera.

En cuanto a las premisas que se ha planteado el Banco de Santander para su almacén de datos se resaltan dos: conseguir un sistema que tienda a la mayor capacidad y máxima potencia, "pero -matiza Olivera- teniendo en cuenta que el presupuesto es limitado". De acuerdo con este último aspecto, Eduardo Olivera afirma que "ahora estamos estudiando diversas ofertas, y hemos percibido en muchas de ellas que las ofertas MPP han reducido sus precios de manera significativa, y sabiendo que este tipo de máquinas implica una determinada operativa y que realmente responde, este tipo de arquitectura, quizás podría ser la definitiva". La elección no implicaría un cambio drástico en los sistemas actuales, puesto que, como asegura Eduardo Olivera, "el cambio se produciría cuando tuviéramos la necesidad de manejar un ingente volumen de datos, algo que por el momento no ocurre". En la actualidad el sistema data warehouse del Banco de Santander maneja alrededor de 100 Gigabytes, "todavía no es muy grande, pero va a serlo". Por ello, si existe algo seguro que deberá soportar la máquina que adquiera el Banco es que deberá ser escalable, y garantice el soporte de un volumen de información de entre 1 y 1,5 Terabyte

En cuanto a la elección de la base de datos, Eduardo Olivera afirma que es una elección que va irremediablemente ligada a la plataforma hardware. "A pesar de que la mayoría de los suministradores de base de datos aseguran soporte MPP, la realidad demuestra que la unica que lo soporta es Teradata.

Teniendo en cuenta que el Banco de Santander ya tiene operativa la primera fase de implantación de un sistema data warehouse, los logros ya se han podido verificar, "hemos conseguido dar una gran cantidad de respuesta a nuestros usuarios, además de que ha ahorrado un gran trabajo". Otro aspecto es el

Whitepaper emc-cio-it-as-a-service-wp Whitepapers