Conclusiones de la II Jornada en.red.ando sobre Web Inteligente
Por segundo año consecutivo, la revista online en.red.ando ha organizado este encuentro en el que expertos de laboratorios y proyectos estadounidenses y europeos han tratado en esta ocasión la Web Inteligente así como sus tres pilares fundamentales: los sistemas de control distribuido, la web semántica y el llamado “Cerebro Global”.
La Red como “cerebro global”
Todo ello implicaría que la Red funcionaría como un “Cerebro global” en el que los propios usuarios serán los que determinarán lo que es relevante en la Red. Esta es la base del proyecto de “Cerebro Global” en el que trabaja Johan Bollen, investigador del Laboratorio Nacional de Los Alamos (EUA), quien concibe Internet como una red de conexiones neuronales que implican una reordenación de los hiperenlaces. Junto a Bollen, Francis Heylighen, codirector del Centro Transdisciplinar del Laboratorio Leo Apostel de Bélgica, han presentado en esta II Jornada “Principia Cibernética”, un proyecto en el que han logrado plasmar en máquinas de Red las propiedades elementales del cerebro global, creado gracias a la inteligencia de los usuarios de Internet que unen cada uno de los ordenadores como si de neuronas se trataran. Heylighen manifestó que actualmente tenemos un sistema de conocimiento distribuido universal, la web extrae información y ayuda al usuario a encontrarla. “Hoy día se usa la web como motor de búsqueda pero sólo te permite encontrar documentos de texto, no multimedia, por los que tienes que poner la palabra exacta al buscarlos. Además, los motores de búsqueda no distinguen entre documentos interesantes o no”. De aquí la idea de que la Red puede ser asociativa, basado en un modelo hipermedia con documentos de texto, sonido animación, gráficos por todo el mundo a través de enlaces. Para plasmar toda esta teoría, Bollen ha presentado en esta Jornada en.red.ando el servidor web Principia Cibernética que continuamente reconstruye los enlaces entre sus páginas para adaptarlas a las necesidades del usuario. Este servidor también es capaz de crear nuevos hipervínculos que se activan cuando intuye que el usuario está desarrollando un nuevo itinerario en su búsqueda de modo que los enlaces se actualizan o destruyen de manera automática en función de su uso. Por ejemplo, si dos sitios web son consultados por el mismo usuario en un breve intervalo de tiempo, el hipervínculo existente entre ellos alcanza un peso más importante o da origen a un nuevo enlace. Y, por otro lado, los enlaces que no son consultados con asiduidad pueden desaparecer. De esta forma, la web aprende a partir de su utilización. “Con este algoritmo que si el enlace se utiliza se refuerza pero sino se utiliza se va debilitando y la web se convierte en asociativa, con lo que hay una reorganización de la base de datos, lo que significa que en un futuro los usuarios van a poder buscar con mayor eficacia”, explica Heylighen quien prosigue que “el problema es que se necesitan ontologías consensuadas y eso es muy difícil por lo que una web automatizada ha de ser la solución, sacar nuevas reglas y nuevas estructuras”. De momento, esta teoría aún en desarrollo ya ha despertado el interés de varias compañías que lo perciben como una herramienta de marketing muy poderosa capaz de lanzar al mercado productos más cercanos a las necesidades de los propios usuarios. Con ello, el panorama que se prevé es que, con estos métodos de extracción de todos los conocimientos colectivos, podríamos ver la web del futuro como un cerebro mundial, lo que nos permitiría hablar de una verdadera web inteligente que se adelantaría a nuestros requerimientos.
Enredando: http://enredando.com
Noticias relacionadas.-
La Web inteligente a debate en la II Jornada en.red.ando
www.idg.es/iworld/noticia.asp?id=19254