Mesa Redonda. Sistemas de almacenamiento

La disponibilidad de los datos: el elemento clave

La aparición de nuevas tecnologías que han conmovido los cimientos de los tradicionales dispositivos de almacenamiento ha provocado que fabricantes y usuarios vuelvan su mirada hacia un mundo que subsistía como un complemento de la CPU sin entidad propia. La entrada en el juego de participantes que han aportado un valor añadido y sobre todo, los requerimientos de los usuarios que necesitan obtener mayores beneficios de sus sistemas, ha despertado un interés creciente por parte de los fabricantes deseosos de alcanzar mayores cuotas de mercado. Para hablar de esto contado con la presencia de Antonio Palanques, Responsable de Marketing de Comparex, Ernesto Escudé, Jefe de Producto de Data General, Ian Sullivan, Jefe de Producto de Marketing serie M de Fujitsu, Conchita Varela, Directora de la Unidad de Negocio de Almacenamiento de IBM, Cristóbal Valero, Director de Ventas de Madrid de IPM, Carlos Franco, Coordinador de Marketing de Memorex Telex, Luis Marcos, Especialista en Tecnología de AT&T GIS y Pablo Prieto, Responsable de Area OEM's y Grandes Cuentas de Sony España.

Determinados estudios reflejan que se está produciendo un punto de inflexión en el mercado del almacenamiento. Según la consultora Gartner Group, la tecnología DASD está perdiendo cuota de mercado a un ritmo del 25 ó 30 por ciento anual, mientras que la tecnología RAID está creciendo al mismo o superior porcentaje.

Ian Sullivan (Fujitsu): Cuando se habla de niveles de negocio hay que tener en cuenta que muchos de nosostros además de sistemas de almacenamiento vendemos grandes equipos, por lo tanto, nuestras ventas son una mezcla de todo ello, no contamos con una facturación desglosada en concepto tán sólo de almacenamiento y el mercado hay que analizarlo teniendo en cuenta esta circunstancia, en función de la oferta global. Pero sí es cierto que hemos notado que el mercado, en cuanto a periféricos, se ha vuelto mucho más competitivo debido tanto a la entrada de nuevas tecnologías como de nuevos vendedores. No puedo confirmar si realmente la bajada observada alcanza ese 20 por ciento que señala el Gartner Group, pero a primera vista me parece un poco exagerado.

Ernesto Escudé (Data General): No conocemos las cifras del mercado español, pues somos una compañía que vende a través de OEM's, sin embargo es necesario hacer una diferenciación entre el segmento de los entornos desktop, el de servidores y los mainframes. En el primero observamos que en los últimos tres años se ha duplicado la capacidad de almacenamiento básico. Hace tres o cuatro años requeríamos capacidades de 20 Mbytes, mientras que ahora se necesitan del orden de los 200 Mbytes. Esto se debe fundamentalmente a la explosión Windows. En cuanto a los servidores departamentales, el crecimiento está en torno a un 50 por ciento anual, debido sobre todo al desarrollo de las bases de datos, lo que hace que sea necesario aumentar su capacidad. Por lo que respecta al mainframe, aunque no tengo datos concretos, el aumento de las capacidades de almacenamiento es mucho más reducido pues este es un mercado más consolidado.

Integración de nuevas áreas

Antonio Palanques (Comparex): Diariamente nuevas áreas de la empresa se están integrando dentro de los centros de proceso de datos. Hace unos dos o tres años se calculaba que sólo el 20 por ciento de la información de una empresa estaba disponible en el centro de proceso de datos, mientras que el 80 por ciento restante estaba encima de las mesa. Según distintos estudios esta proporción se invertirá a principios del año 2000. Ello significa un aumento progresivo de los sistemas de almacenamiento. Y esto es más fácil cuanto más barato sea el precio del Gbyte, pues los niveles de inversión requerida son más bajos. No creo que la bajada de los precios sea tan grande como se ha dicho aquí, sino que lo que se está produciendo es una estabilización desde hace ya un tiempo. Esto favorece el hecho de que el usuario compre más capacidades, y permite a los fabricantes mantener los mismo niveles de facturación. En el entorno mainframe se está produciendo otro fenómeno y es que el usuario empieza a no valorar exclusivamente el precio a la hora de decidirse por un sistema u otro, sino que tiene en cuenta muchas otras cosas. Los centros de proceso de datos se basan en dos aspectos, tener la información, y para esto necesito almacenarla y manejar esta información y esto lo hacen las CPU's. Si al procesador no le hago llegar la información no funciona, por lo tanto la principal preocupación del usuario no es la capacidad de almacenamiento, sino cómo lo sirvo al procesador para que éste sea capaz de utilizar toda su potencia. El usuario ya no busca el procesador más barato sino conseguir utilizar el 90 por ciento de los MIPS que el fabricante le promete. Debido a la crisis, valora mucho mejor lo que compra y lo que necesita y hace la inversión en el momento que la precise.

Luis Marcos (AT&T GIS): Las capacidades de almacenamiento y la gestión de los datos almacenados van acompañadas en su crecimiento por el software, y éste ha sido exponencial en los entornos PC's. En los servidores, el crecimiento depende directamente de las exigencias de las aplicaciones. El usuario compra una aplicación que va creciendo continuamente por lo que cada vez necesita mayor capacidad de almacenamiento. En el mundo mainframe este crecimiento se ha estabilizado por dos decisiones que tiene que tomar el usuario; ¿voy a seguir utilizando la información como hasta ahora o voy a migrar alguna de ellas fuera, hacia equipos más pequeños?. Ello provoca que el crecimiento se refleje en los servidores, pero este es un crecimiento que hemos robado al mainframe. El usuario quiere que la evolución del mercado pase necesariamente por la existencia por unos estándares que les permitan ir hacia una mejor gestión de sus recursos y a una menor intervención humana.

Confianza del usuario

Luis Marcos (AT& GIS): Hasta ahora no se le daba, en las corporaciones, demasiada importancia al almacenamiento cuando el dispositivo utilizado era pequeño. Actualmente los usuarios solicitan tolerancia a fallos en el periférico más pequeño. Debemos ser capaces de ofrecer sistemas en los que el dato sea resistente al fallo del periférico en todos los niveles. Ello conseguirá que el usuario confíe más en el almacenamiento y valore el gasto o el coste, lo que redundará en la productividad y en el ahorro de los costes y de personal.

Ernesto Escudé (Data General): Los requerimientos de los usuarios están cambiando totalmente. Casi un 50 por ciento de los servidores que instalamos incorporan una tecnología de tolerancia a fallos en los subsistemas de disco y ello a petición de los usuarios. Por otra parte, también se ha producido un abaratamiento de costes. Y un factor muy importante que ha contribuido al descenso ha sido la implementación de los estándares en los periféricos. Para mi es ahí donde se puede empezar a ver una gran diferencia entre la periferia estándar y de sistemas Unix, y la periferia mainframe que tiene una arquitectura mucho más particular.

Carlos Franco (Memorex Telex): Hay un punto importante y es que hasta ahora las empresas han invertido en almacenamiento de manera constante. Cada año existían partidas destinadas a este equipamiento. Muchas instalaciones están sobredimensionadas, pues los sistemas de almacenamiento hay que gestionarlos y explotar las tecnologías instaladas, para lo que muchas compañías no están preparadas. Ahora que la crisis es fuerte y que se abren nuevos caminos para el crecimiento de las instalaciones, y por lo tanto no es necesario que el mainframe continué creciendo, el usuario debe analizar muy bien cómo hacer las inversiones, no sólo hay que comprar el último estado del arte, sino que ésta revierta en beneficios para la propia empresa.

Cristóbal Valero (IPM): El crecimiento de datos almacenados en el s

Viñeta publicada el 20 de febrero de 1870 en La Flaca n.º 35 Tendencias

ny2 ACTUALIDAD

ny2 Sociedad de la información

Día de la Movilidad y el BYOD Coffee Break