La crisis de la sociedad de la información
¿Última utopía del siglo XX o pilar del nuevo milenio?

Uno de los problemas centrales que plantean las tecnologías de la información, es la organización eficiente de los contenidos y el desarrollo de herramientas de búsqueda más complejas.

Por Gisela di Marco



El fin de siglo nos encontró aplaudiendo la emergente sociedad de la información gracias a la expansión masiva de Internet. "La información es poder" parecía ser el mejor slogan para un mundo en el que lo material parecía ceder protagonismo ante lo virtual.

Sin embargo, el entusiasmo fue decreciendo a medida que la red fue develando sus grandes falencias: inaccesibilidad y saturación de información. Mientras el espacio Web crece a un ritmo fantástico, atesorando hoy casi 500 millones de documentos, la mayor parte de la información está oculta en la oscuridad del ciberespacio, en lo que se denomina "la Internet invisible". Los motores de búsqueda y los directorios web utilizan métodos ineficaces y escasamente confiables, y aunque han mejorado mucho en los últimos años, sólo alcanzan a cubrir una pequeñísima parte de este espacio (un 10 % según las estimaciones más optimistas, un 0,2 % según otros cálculos).

La organización de la información

Las nuevas tendencias en la organización de la información parecen arrojar un poco de luz sobre este problema. El teórico Juan Chamero anticipa la conformación de una red intermedia en un futuro cercano, constituida por resúmenes de las grandes áreas del conocimiento humano, es decir, los documentos básicos de cada una de ellas. Estas guías introductorias estarán enriquecidas con vínculos hipertextuales y tendrán referencias a una biblioteca virtual constituida por el conjunto de e-libros. El usuario podrá navegar saltando de resumen en resumen o a guías de nivel superior, siempre dentro de esta región intermedia, o adentrarse en la región mayor, constituida por el ciberespacio tal como lo conocemos hoy, para la búsqueda de temas específicos, guiado por los motores de búsqueda clásicos.

Mientras esta región mayor seguirá creciendo exponencialmente en volumen, la región intermedia tendrá un volumen fluctuante alrededor de valores medios de poco o nulo crecimiento. Efectivamente, el conocimiento humano está casi acotado en volumen, cambiando solo su contenido y su semántica (excepcionalmente, algunas áreas del conocimiento mueren y otras nacen, pero muy lentamente).

La información no es poder

No obstante, algunos especialistas afirman que la crisis de la sociedad de la información no responde a cuestiones de índole técnica o práctica, sino a la fundamental inconsistencia de sus bases: la información, cuando no es escasa, carece de valor en sí misma. Alguna vez se ha dicho que la peor crítica que puede recibir un trabajo científico es que tiene una buena bibliografía: el experto no sabe, el experto piensa.

Se dice, sin embargo, que las computadoras también piensan. De hecho, la velocidad de razonamiento humano secuencial es lentísima comparada con la de las computadoras. Mientras existan el algoritmo y los datos, la computadora siempre resolverá el problema muchísimo más rápido que el ser humano. Pero a pesar de ello, la mente humana no tiene nada que envidiarle: no se trata de un problema de velocidad sino de paralelismo. Si bien el nivel de mente humana consciente es básicamente secuencial, en todos los niveles inferiores el razonamiento es paralelo.

La intuición es la cualidad que distingue al hombre en este nivel, y le permite formular juicios sin información previa, sin datos; más bien, sin todos los datos, o al menos no siendo estos conscientes. Es probable que el exceso de información esté limitando la intuición de los seres humanos. Tal vez la obsesión por acaparar toda la información sobre un cierto tema no sea más que una muestra de debilidad, de incapacidad para utilizar nuestra imaginación e intuición.

La información por sí sola y sin procesar no es poder, pero la sociedad de la información no lo comprenderá mientras el enfoque de arquitectura de la computadora, que separa mecanismos de procesos de mecanismos de almacenamiento, continúe siendo nuestro modelo de conocimiento.

El procesamiento de la información

La sola comprensión de la necesidad de procesamiento de la información no será suficiente: nos enfrentamos a un problema de capacidad. Mientras las computadoras manejen volúmenes de información infinitamente superiores a los que la mente humana puede dominar, además de poder considerar un número inhumanamente grande de variables simultáneas, nada podrá hacer la intuición cuando tenga que analizar millones de datos de grandes bases. La información generada en las complejas sociedades humanas escapa al control del hombre; pero esa información existe, y no puede ser ignorada.

Una poderosa herramienta desarrollada para asistir la toma de decisiones en el ámbito empresarial, y hoy utilizada con excelentes resultados en el campo científico, podría ser la solución: el Data Mining, o minería de la información (1).

El Data Mining

Sintéticamente, el Data Mining es el proceso -asistido por computadora- de examinar exhaustiva y minuciosamente inmensas y caóticas cantidades de datos a fin de identificar, extraer y categorizar información relevante, pero difícil de obtener u oculta a simple vista (como correlaciones, tendencias, patrones, regularidades o modelos).

Las técnicas de Data Mining son variadas y complejas, pero la promesa es simple: permiten a las computadoras comprender el contexto. Combinan los principios de la Teoría de la Información de Claude Shannon, en la cual se establecen parámetros que permiten cuantificar la información (como redundancia y entropía) con la ecuación bayesiana, un cálculo probabilístico desarrollado por el ministro presbiteriano británico del siglo XVIII Thomas Bayes, que permite formular predicciones bajo condiciones de incertidumbre.

Este método de inferencia es una facultad subliminal natural de la mente humana; de hecho, la tecnología detrás de esta técnica son las redes neuronales, que simulan el funcionamiento del sistema nervioso humano.

El proceso de búsqueda del Data Mining es interactivo: el ser humano sugiere las ideas (hipótesis) y la máquina las confirma o las rechaza según la evidencia aportada por los datos. Sin embargo, también puede llevarse a cabo automáticamente por el sistema, a modo de un dragado de datos crudos para descubrir interrelaciones y conexiones, tanto en redes Intranet corporativas como en la Web. Una vez terminado el proceso de búsqueda, el sistema de Data Mining presenta sus reportes, ilustrados con gráficos, para ser examinados e interpretados.

Al combinar los datos obtenidos con la intuición y experiencia humanas, se logra una valiosísima cooperación entre la computadora y el ser humano para el procesamiento de la información, que tiende a convertirse en un complejo sistema de descubrimiento y producción de conocimiento.

(1) Algunas de las empresas y organizaciones más importantes del mundo, como Associated Press, News Corp., Procter & Gamble, Lucent Technologies, Merrill Lynch, el Departmento de Defensa de los EE.UU. y la inteligencia británica, están utilizando técnicas de Data Mining. Algunas de las empresas que han desarrollado aplicaciones de software para asistir estas técnicas son Autonomy, Verbind, Datasage, E.piphany y Personify.

Imprimir nota