Los grandes desafíos en las Tecnologías de la Información

Nuevas formas de resolver viejos problemas

Aunque la investigación fundamental sobre cómo hacer más potente el hardware del ordenador se retrotrae a 50 años o más, muchos de los métodos tradicionales están llegando a su límite. Ahora, investigadores que se mueven en nuevas y audaces direcciones podrían estar estableciendo el curso de las TI para las próximas décadas.

Hay literalmente docenas de grandes retos que están siendo abordados por los científicos y los economistas, desde cuestiones relativas a grandes grupos sociales hasta avances técnicos. Aquí analizamos los desafíos en tres áreas clave de las Tecnologías de la Información: rendimiento de procesadores, miniaturización de chips e inteligencia artificial.

PRIMER DESAFíO
Rendimiento de Procesadores
En 1965, Gordon Moore, un co-fundador de Intel, observó que la densidad de transistores de los chips semiconductores se duplicaba en cada periodo de entre 18 a 24 meses, de manera que los PCs nuevos son aproximadamente dos veces más potentes que sus predecesores. La mayoría de los investigadores prevén que la ley de Moore seguirá siendos válida al menos durante 10 años más.
Sin embargo, el rendimiento de los procesadores está llegando a sus límites, especialmente en lo que se refiere a la cantidad de potencia quees disipada por los transistores. Al continuar vigente la Ley de Moore, es cada vez más difícil obtener dispositivos que funcionen a escalas muy pequeñas utilizando semiconductores CMOS. La limitación potencia-densidad para procesadores refrigerados por aire es del orden de 100 vatios por centímetro cuadrado de superficie de chip y resulta bastante más caro inyectar líquido en la parte posterior de un chip, lo cual permitiría una refrigeración de aproximadamente el doble de esa densidad de potencia.
Dadas estas restricciones, los investigadores se están concentrando ahora en nuevos métodos y enfoques para mejorar el rendimiento de los procesadores, tales como situar múltiples núcleos de procesador en un único chip, además de adoptar nuevos enfoques respecto a la arquitectura y diseño de los chips.
Por ejemplo, IBM está evaluando –y en algunos casos implementando ya– el uso de nuevos materiales en un chip, tales como el cobre, silicio, sobre aislante, y germanio de silicio, para mejorar el rendimiento de los dispositivos, reducir la densidad de potencia y ofrecer una combinación de ambas cosas. Además, los materiales permiten a los investigadores fabricar chips más pequeños que consumen menos potencia.
Para ayudar a aumentar la disipación de potencia, IBM está utilizando gel refrigerante que impediría la existencia de puntos de calor en un chip. IBM está estudiando también las posibilidades de precesadores refrigerados por agua.
Para ayudar a mejorar el ancho de banda dentro de los chips, investigadores del Massachusetts Institute of Technology (MIT) están trabajando en un proyecto llamado Raw Architecture Workstation Project, en el que se instalan múltiples “adicionadores y substractores” en todo el chip junto con el almacenamiento para ofrecer “vecindades de proceso”, en lugar de tener que recorrer todo el chip para mover datos.
Al mismo tiempo, investigadores en Los Alamos National Laboratory, están desarrollando sistemas de proceso en paralelo que utilizarían decenas de miles de procesadores y permitirían hasta mil millones de millones de operaciones de punto flotante por segundo en una fecha tan temprana como 2008.
Según afirma la Universidad de Berkeley, los investigadores podrán duplicar en cada periodo de entre tres y cinco años la cantidad de procesadores que instalan en un chip. Pero eso dependerá de la existencia de software que sea capaz de utilizarlo.
Programar grandes ordenadores de proceso en paralelo para explotar su potencial ha sido el objetivo de máxima atención hasta ahora. Al pasar los ordenadores de cientos de procesadores a cientos de millares de procesadores durante los próximos años, el problema va a aumentar extraordinariamente.

DESAFIO 2
Miniaturización de Chips
Actualmente pueden fabricarse chips con medidas tan pequeñas como entre 70 y 90 nanometros de ancho, conteniendo cientos de millones de transistores.
El año pasado, los laboratorios de Hewlett-Packard desarrollaron una memoria RAM de 64 bits que va situada en el espacio de una sola micra cuadrada.
Una forma de resolver el problema del calor generado por circuitos ultra-densos es reducir la tensión de alimentación.
Sin embargo, para reducir la alimentación será necesario también reducir los umbrales de tensión de los dispositivos, lo cual hace que la fuga de potencia aumente exponencialmente. Para resolver estos problemas, se espera que habrá una mayor atención a la posibilidad de interrupción o “gating” de la alimentación, es decir, interrumpiendo la red de alimentación cuando el chip está inactivo, mediante conmutadores de potencia en el circuito del chip y utilizando múltiples dispositivo de control del umbral de potencia para minimizar los requerimientos de potencia.
Tom Theis, director de ciencias físicas en IBM Research, piensa que nuevos refinamientos en silicio ultradelgado y gate insulators ultradelgados podrían permitir a los investigadores reducir las longitudes de canal de dispositivo de los aproximadamente 45 nanometros de hoy a entre 15 y 20 nanometros en un plazo de 10 años. También espera la aparición de algunos chips de alto rendimiento que disiparán al menos 10 veces más potencia que los chips actuales, así como chips con una densidad de memoria 20 veces mayor que los actuales, mediante el uso de herramientas de litografía óptica que aparecerán dentro de 10 años.

DESAFIO 3
Inteligencia Artificial
Definida en términos amplios, la Inteligencia Artificial o AI incluye tres disciplinas principales: proceso de lenguaje natural, aprendizaje mecánico y robótica. Avances recientes en estas áreas han dado lugar a tecnologías comerciales que van desde una aspiradora robot llamada Roomba hasta sistemas de reconocimiento de habla orientados al cliente. Sin embargo, a pesar de estos avances, los sistemas de ordenador continúan encontrando dificultades a la hora de “razonar”. Los retos más importantes están en determinar la forma de organizar los programas con el fin de obtener un mayor grado de ´sentido común´.
La agencia DARPA (Defense Advanced Research Projects Agency) está aportando fondos para investigaciones destinadas a desarrollar un “asistente ejecutivo” basado en un ordenador que podría realizar tareas administrativas como priorizar solicitudes de e-mail para un jefe militar o un ejecutivo de negocios. DARPA espera haber realizado para el próximo verano la primera ronda de tests para el sistema.
Los ordenadores tienen también problemas en comprender contextos, como hacen los humanos, a causa de su conocimiento limitado. Esto hace difícil para los sistemas basados en Inteligencia Artificial procesar peticiones incompletas. Hace algunos años, IBM comenzó a desarrollar un marco o framework de software para manejar información sensitiva al contexto utilizando métodos basados en optimización que a diferencia de los sistemas basados en reglas tradicionales pueden manejar diversas peticiones de información del usuario en contexto, incluyendo peticiones imprecisas o incompletas. En base a c

Whitepaper emc-cio-it-as-a-service-wp Whitepapers