Los seis mitos de las Tecnologías de la Información

Otra visión de la realidad

Es tiempo de enfrentarse a la realidad. Algunos de nuestros supuestos e ideas más firmes parecen carecer de fundamento. Y los directores de tecnología en las empresas pueden estar sometidos a ideas desfasadas con la misma frecuencia que cualquier profesional. Teniendo esto en cuenta, se abordan aquí seis mitos frecuentes sobre TI, desmontándolos con el fin de ofrecer a los directores una visión clara de algunos supuestos importantes que de otra forma podrían perturbar muy negativamente sus planes tecnológicos.

nfoWorld –publicación editada por IDG Communications– ha realizado un seguimiento de los mitos en cuestión y ha comprobado que casi todos estaban poco fundamentados en la realidad.Por ejemplo, persiste el mito de que los upgrades o mejoras y ampliaciones de los servidores son importantes. En absoluto. Otro mito: Que las capacidades y conocimientos comerciales son la clave de una carrera de éxito como chief technology officer o director de tecnología. Ni se acerca a la realidad. Y el de que aproximadamente un 80 por ciento de los datos corporativos residen en mainframes? Basta con comprobar las cifras.

Mito TI Nº.1: Los upgrades de servidores tienen importancia
La realidad: No pagar dinero extra por la capacidad de upgrade; nunca se necesitará. ¿Cuándo fue la última vez que se cambiaron los procesadores en un servidor de producción? Ha extraido usted alguna vez un controlador RAID (Redundant Array of Independent Disks) y lo ha sustituido por uno con mayor memoria cache? Y la idea de extraer unidades de arranque Ultra160 SCSI de 18GB sólo para sustituirlas por unidades Ultra360 de 36GB?
A pesar de que los fabricantes de servidores de alto nivel se complacen en anunciar las capacidades de upgrade on-site de sus plataformas de servidor, es un mito que nadie manipule siquiera un sistema de producción como no sea para cambiar una pieza fallida. Si el servidor tiene menos de un año, lo más probable es que haya sido pedido con las piezas adecuadas y no hace falta tocarlo. Y si el servidor tiene más de un año, nadie en su sano juicio va a intentar abrirlo para aumentar los gigaherzios.
Para investigar este mito, nos hemos puesto en contacto con todos los fabricantes de servidores de nivel uno. Ninguno cooperó formalmente cuando se le pidieron datos estadísticos sobre mejoras y upgrades a sus servidores, bien mediante ventas de piezas de actualización o a través de visitas realizadas por sus equipos de servicio de campo. Algunos dijeron que los datos no estaban disponibles, mientras que otros afirmaron que se trataba de información propietaria que no podía ser publicada por motivos de competencia. Todos dijeron que la pregunta les parecía sorprendente y se mostraron interesados en conocer los resultados.
Afortunadamente, un vendedor, cuyo nombre no revelaremos, comunicó los comentarios informales de un director de marketing, cuyo nombre fue eliminado del mensaje de e-mail. La opinión de este director fue reflejo de la nuestra: “Pienso que la mayoría de los clientes compran inicialmente un servidor provisto de la memoria RAM y los procesadores necesarios para el crecimiento futuro.”
Y el director añadió que, “Muchos clientes reservan gastos de capital para el hardware, y resulta más fácil comprar bajo este capital que intentar invertir en más hardware más adelante.”
Naturalmente, otro motivo para no realizar un upgrade a un sistema sería el temor a estropearlo todo, bien por problemas de hardware o al encontrar dificultades con el sistema operativo, los drivers o las aplicaciones. Dado que sólo habrá una mínima mejora de rendimiento al pasar por ejemplo de procesadores de 2.0GHz a procesadores de de 2.6GHz mientras el resto del servidor permanece igual, qué objeto tiene asumir ese riesgo?
Si uno pudiera generalizar, diría: Cuanto más pequeño sea el servidor, menos probabilidad habrá de que haya que tocar su hardware una vez que el sistema ha sido desplegado. La inversión en el chasis de un servidor de ocho o 16 vías podría justificar mejoras a su backplane de entrada/salida de datos. También podría tener sentido añadir procesadores, si algunos de los sockets estuvieran inicialmente sin utilizar.
En contraste, es difícil imaginar que nadie haga nada a un procesador 1U ó 2U de doble procesador o a un servidor tipo blade, como no sea añadir memoria en caso necesario. Si ese servidor de bajo perfil no puede hacer frente a la carga de trabajo, la solución sería sustituirlo por un servidor más potente o añadir más servidores a un cluster con cargas compensadas. Y la idea de cambiar los procesadores o añadir un backplane más rápido? No hay ningún beneficio en invertir dinero en servidores anticuados. Al considerar las especificaciones para nuevos servidores, hay que asegurarse de que el sistema cumple con las necesidades actuales, y comprarlo con el espacio libre previsto para la duración de la vida útil de la máquina. A menos que la empresa tenga una cultura TI en la que se realicen realmente upgrades de servidor, no hay que planificar la realización de ningunos, ni pagar extra por cosas como tarjetas de CPU extensibles y capaces de alojar futuras plataformas de procesador. No se van a utilizar.

Mito TI Nº.2: Un 80% de los datos corporativos residen en el mainframe
La realidad: Digamos que un 50 por ciento, o incluso menos.
Ha llegado el momento de eliminar el mito de que los mainframes, esas máquinas de aspecto impenetrable que sólo comprenden unos pocos magos del mundo TI siguen almacenando un 80 por ciento de todos los datos de la empresa.
Desde su introducción en los años 50, los mainframes han sido, en gran medida, los guardianes sin rival de todos los datos corporativos críticos. IBM se convirtió en Big Blue, el color de todos sus mainframes, popularizándolos junto con el hardware y los sistemas operativos de la compañía –y eventualmente con su línea de aplicaciones– para después controlar con mano de hierro el mercado durante décadas. Sin embargo, el monopolio inicial del mercado de mainframes por IBM fue objeto de ataque en los años 70 y 80. Con la llegada de los primeros miniordenadores, y después de los microordenadores, que ofrecían ambos la promesa de distribuir los datos centralizados a localizaciones más cercanas a los usuarios que realizaban el trabajo, las grandes empresas comenzaron a demandar una menor dependencia de los mainframes.
Incluso con la revolución del PC desktop, la idea de que los mainframes contenían al menos un 80 por ciento de todos los datos corporativos permaneció intacta hasta mitad de los años 90 en la mente de muchas personas.
Sin embargo, la aparición de Internet y la consiguiente inundación de datos corporativos no estructurados, como e-mails, páginas web, documentos Microsoft Word y diversas tecnologías para gestionar y almacenar estos datos digitales ha conducido a muchos a pensar que el control que ejercían los mainframes sobre los datos corporativos está disminuyendo.
Al tratar con algunos de nuestros clientes, resulta bastante sorprendente observar cómo las aplicaciones financieras de algunas grandes organizaciones están siendo gestionadas mediante un par de hojas electrónicas o spreadsheets Excel. Si a esto se añaden todos los blogs, mensajes instantáneos y e-mails que no pasan a través de un mainframe, la cantidad de datos que residen actualmente en ellos está probablemente entre un 40 y un 5

Whitepaper emc-cio-it-as-a-service-wp Whitepapers