Adaptarse o retroceder: dos opciones frente a la evolución de las nuevas tecnologías. Aprovechar los cambios y percibir las mejoras existentes es clave en la labor del CIO

Las nuevas tecnologías pueden cambiar la relación entre el fabricante y el mercado. Las nuevas aplicaciones pueden generar problemas de infraestructura y, en ocasiones, la mejor manera de enfrentarse a esos cambios es hacerlo de forma directa. Los procesadores multinúcleo, la virtualización del almacenamiento, la seguridad, la tecnología RFID y el software como servicio son claves para transformar la forma de trabajar de los departamentos de sistemas de las compañías. Del antiguo concepto del procesador único en cada socket, hemos pasado a los procesadores multinúcleo. Y eso se refleja en nuevos factores a tener en cuenta en la ecuación rendimiento, energía y refrigeración. Las nuevas plataformas de microprocesadores de Intel y AMD han entrado en el mercado con unos requisitos de energía tan bajos que han llevado su precio y rendimiento a unos niveles inalcanzables hasta ahora. El lado positivo es que los nuevos procesadores ahorran más energía y pueden dar una mayor potencia por vatio de energía. Así, los departamentos de TI con problemas con sus facturas eléctricas tienen una motivación para remplazar sus antiguos servidores. Los diseños con mayor ahorro de energía siguen siendo problemáticos para los centros de datos, ya que aún tienen que soportar elevadas temperaturas. Esto puede implicar un cambio total en los diseños por parte de los encargados de los centros de datos. Consolidación y virtualización de servidores Si bien antes los PCs se ejecutaban con un solo sistema operativo (SO), con la virtualización se ha generado un impacto en el departamento de TI. Estamos ante un desarrollo más rápido del software y un despliegue instantáneo de las aplicaciones, lo que genera una reducción de gastos. El concepto que se esconde detrás de la virtualización es fácil de enunciar, aunque difícil de implementar. Se trata de un solo servidor dividido en distintas máquinas “virtuales” con su propia memoria dedicada, hardware virtual e imágenes de disco. La virtualización no es algo nuevo. IBM lo lleva haciendo en sus mainframes desde hace casi tres décadas. Lo que sí es nuevo es que la potencia de las máquinas virtuales se pueda transmitir a la plataforma del PC. La virtualización permite que múltiples sistemas operativos y aplicaciones se puedan ejecutar en una misma máquina, facilitando la provisión de tantos nuevos servidores como sean necesarios, haciendo así un uso más eficiente del hardware. De esta manera, se continúa la tendencia de consolidación que empezó hace años con los servidores blade. Además, se ahorra espacio y tiempo, mientras que se simplifica la estructura de soporte TI. Pero, la virtualización va más allá de la consolidación de servidores. EMC, por ejemplo, ya ha establecido algunas aplicaciones prediseñadas para máquinas virtuales que incluyen aplicaciones de serie, como servidores de Internet, correo electrónico o base de datos, que es posible instalar y habilitar en minutos. RFID o el valor de la cadena de suministro Hasta que surgiera la tecnología de radiofrecuencia (RFID), las cadenas de suministro eran automatizadas con el único fin de crear productos más baratos. Los cambios en la cadena de suministro y sistemas ERP están permitiendo a las compañías mantener un control más cercano del inventario y de la producción. El intercambio de información entre suministradores y distribuidores ha mejorado gracias a la madurez de la identificación por radiofrecuencia. Aunque la tecnología se utiliza desde hace ya diez años, han surgido nuevos desarrollos para integrarla en la infraestructura de la cadena de suministro, así como estándares más sólidos y productos RFID para los sistemas de inventario y la citada cadena de suministros. Así, las mercancías etiquetadas pueden rastrearse desde que abandonan el inventario de bienes, hasta que llegan a los almacenes de carga y son adquiridas por un consumidor. RFID sirve para toda clase de aplicaciones; desde alarmas que suenan cuando se roba algún objeto, sistemas de pago que no requieren pasar la tarjeta de crédito, hasta el control automático de acceso de empleados a lugares sensibles específicos. Si bien las antiguas aplicaciones RFID se construyeron para localizar un producto en concreto o seguir el rastro de un envío, hoy permiten rastrear productos durante el proceso de producción y entrega casi en tiempo real. Las consecuencias de la tecnología de radiofrecuencia son enormes, especialmente en lo que respecta a la infraestructura. No en vano, informatizan las empresas de principio a fin, lo que implica que éstas deben mejorar su infraestructura de redes, tanto por cable como inalámbricas, conforme se despliegan los correspondientes lectores RFID. Software como servicio Internet se ha convertido en una plataforma sólida de difusión de las aplicaciones, transformando la manera en la que se puede desarrollar el software para las empresas. Ya sea mashup, servicio web, software como servicio o arquitectura orientada a servicios (SOA), todo refiere a lo mismo: ser más flexible y ágil, a la vez que reducir costes, evitando recodificar cada aplicación. Hay analistas que proponen ciertas alternativas a los CIOs como vía para mejorar la producción de las compañías. El objetivo es, en lugar de elegir proveedores y/o aplicaciones en función de parámetros como el precio o las funcionalidades técnicas, apostar por el desarrollo propio. De esta forma, es viable contar con aplicaciones más apropiadas a situaciones particulares, que llegan a operar bien en conjunto. Este rediseño de las funcionalidades de las aplicaciones puede ser la llave para ahorrar costes, sin perder las ventajas de las ya disponibles. Lo más complicado de esta suerte de Internet 2.0 es saber cómo descomponer una aplicación particular propia en pequeños fragmentos de código diseñados por otro desarrollador. Para adaptarse, los directores de Tecnologías de la Información deben pensar en capas, es decir, como está diseñado Internet: con diferentes protocolos que distinguen entre transporte de bajo nivel y aplicaciones de alto nivel. Seguridad holística Frente al antiguo concepto de las soluciones para distintos ataques y virus, es necesario contar con una seguridad de principio a fin que garantice toda la infraestructura del sistema, sin dejar visibles puntos débiles. Ofrecer una seguridad holística no es tarea fácil, especialmente si atendemos a la variedad de soluciones antimalware, anti­spyware y antivirus que hay en el mercado. La clave no está tanto en acumular aplicativos específicos, que, en la mayoría de los casos, no tienen plenas capacidades de integración en caso de necesidad. Es preciso disponer de herramientas unificadas que garanticen la seguridad de la infraestructura, las redes o los servicios de Internet de toda la empresa. Generalmente, se adquieren soluciones individuales que hacen bien una o dos cosas, es decir, como antivirus, cortafuegos, prevención de intrusiones, consolidación de políticas, autenticación y otros. El problema es que ningún producto individual ofrece una solución completa. Mientras tanto, siguen accediendo amenazas en las redes corporativas, expandiendo las infecciones en los sistemas. Elegir entre las ofertas globales en materia de seguridad acaba suponiendo ahorros en el presupuesto y en el tiempo. Antes de decidirse por alguna de las soluciones que hay en el mercado es necesario que los CIOs de las compañías analicen la criticidad de los sistemas y decidan cuál de las ofertas globales existentes en el mercado cubre mejor los requerimientos de su compañía. Apostar por las soluiones UTM (Unified Threat Management) es otra de las alternativas que algunos directores de sistemas están adoptando para garantizar la seguridad de los sistemas y de los negocios. El mashup Internet 2.0 ------------------------------- Las aplicaciones híbridas del mercado de consumo muestran el camino para las nuevas herramientas de empresa. Con productos simples, basados en Internet, ac

Whitepaper emc-cio-it-as-a-service-wp Whitepapers