Inteligencia Artificial: Simbólico versus Subsimbólico
por Manuel de la Herrán Gascón

"¡Tachaaan! Señoras y señores: he aquí la lavadora inteligente, ..." ¿Cómo? ¿Lavadora? ¿Alguien ha dicho Java? Ya sabemos que Java era originariamente un lenguaje para electrodomésticos, pero esta vez no se trata de eso. Este artículo trata de otra cosa. El título podría haber sido "La Inteligencia Artificial (IA) ha muerto" o "Lo de la IA ya no se lo cree nadie".

Tenía que ocurrir. Ahora, si alguien califica su creación informática de inteligente, se fruncen ceños de desconfianza, cuando no se provoca risa. Rodeados como estamos de edificios inteligentes donde si no hace calor, hace frío; automóviles inteligentes que insisten en que nos pongamos un cinturón de seguridad estropeado, y semáforos inteligentes en perenne madurez y sin caer del guindo, ha llegado un momento en el que decir que nuestro programa es inteligente sólo lo descalifica.

La culpa la tienen, por supuesto, la televisión, la publicidad y las lavadoras automáticas. Confirmándose una vez más el éxito indiscutible del iterado cliché de la vecina elogiando las camisas de su marido, los comerciales informáticos no dudaron en aplicar similares atribuciones a sus productos. Los jabones pasaron del superblanco al ultrablanco. Nuestros programas, con idéntica lógica, de ser Sistemas Expertos o Agentes Inteligentes, a usar tecnología IntelliSense (un tipo de ayuda sensible en el que trabaja Microsoft). También han salido ya las lavadoras con Fuzzy Logic, concretamente la nueva Eco-Lavamat de AEG. No dudo que sea una fantástica lavadora. Probablemente la capacidad de manejar conceptos difusos mediante Lógica Borrosa le confiera alguna ventaja; tal vez la de distinguir la ropa sucia de la muy sucia y de la extremadamente sucia. Pocas cosas hay tan borrosas como una camiseta blanca después de diez días de travesía por el monte, sin mas agua que la de la cantimplora. Poco importa, en definitiva, el nombre del jabón, se trata de que lave.

¿Y ya lava? No está mal. ¿Y es inteligente? Pues vaya, depende... Pero bueno, ¿Es que cada uno tiene derecho a llamar IA a lo que le dé la gana? Pues claro que sí. Esto ocurre porque nadie sabe aún qué demonios es la IA. Yo quiero mostrar en primer lugar mi definición predilecta, mediante una inspirada conversación de bar, real como la vida misma.

-...y acabo de terminar un programa inteligente. -Comento bajito, para que no me oiga nadie más, claro.
-¿Te refieres a un programa de IA? -Me responde- ¡Eso es imposible!
Ésta es mi oportunidad de alargar un poco más la noche, y llenar de nuevo el vaso de cerveza vacío. Sin vacilar comienzo la habitual argumentación.
-Bueno, hay gente que opina que nunca se podrá imitar la mente humana, pero...
-¡No, No! -Me corta enseguida- Todo eso me lo creo. ¡Lo que digo que es imposible es que lo hayas hecho tú!

¡Acabáramos! La IA son los últimos descubrimientos, las nuevas tecnologías, los límites de la computación. La IA es una frontera en continuo movimiento. Y claro está, parece obvio que todo esto no es posible en manchego: si no lo leo en inglés, no me lo creo.

Hay otras definiciones más aceptadas: la IA trata de construir máquinas con comportamiento aparentemente inteligente. El hombre es un ser inteligente. ¿Lo son los animales? ¿Lo son las células? ¿Acaso son necesarias células de algún tipo para que se produzca comportamiento inteligente? Podemos decir que en torno a la respuesta a estas preguntas surgen los dos grandes bloque enfrentados en la materia: el enfoque simbólico o Top-Down, también llamado IA clásica, y el enfoque subsimbólico (Bottom-Up), llamado a veces conexionista.

Los simbólicos simulan directamente las características inteligentes que se pretenden conseguir. Como modelo de mecanismo inteligente a imitar, lo mejor que tenemos y más a mano es el Hombre (que tal vez no sea gran cosa, todo hay que decirlo). Desde este punto de vista, poco interesa simular los razonamientos de los animales, y mucho menos simular procesos celulares. El boom de los Sistemas Expertos, ahora de capa caída, fue producido por este planteamiento.

Las principales corrientes en IA son la simbólica y la subsimbólica

Para los constructores de sistemas expertos, es fundamental la representación del conocimiento humano y debemos a ellos los grandes avances en este campo. Realizando una gran simplificación, se debe incluir en un sistema experto dos tipos de conocimiento: "conocimiento acerca del problema particular" y "conocimiento acerca de cómo obtener más conocimiento a partir del que ya tenemos". Para el primero existen técnicas como los Frames (marcos) que fueron los padres de lo que hoy conocemos como Programación Orientada a Objetos. El segundo es llamado también mecanismo de inferencia y requiere además de un método de búsqueda que permita tomar decisiones, como por ejemplo, seleccionar la regla a aplicar del conjunto total de posibles reglas. Esto puede parecer lo más sencillo, pero suele ser lo más difícil. Se trata de elegir y elegir bien, pero sin demorarse varios millones de años en hacerlo.

Como ejemplo representativo de la rama simbólica llevada al extremo tenemos el proyecto Cyc de Douglas B. Lenat, con un sistema que posee en su memoria millones de hechos interconectados. Según Lenat, la inteligencia depende del numero de reglas que posee el sistema, y "casi toda la potencia de las arquitecturas inteligentes integradas provendrá del contenido, no de la arquitectura". Para él, los investigadores que esperan poder resolver con una única y elegante teoría todos los problemas de inferencia y representación de conocimientos, padecen celos de la física: ansían una teoría que sea pequeña, elegante, potente y correcta.

Los esfuerzos de la otra rama de la IA, los subsimbólicos, se orientan a simular los elementos de mas bajo nivel que componen o intervienen en los procesos inteligentes, con la esperanza en que de su combinación emerja de forma espontánea el comportamiento inteligente. Los ejemplos más significativos probablemente sean las Redes Neuronales Artificiales y los Algoritmos Genéticos. Aunque parezcan un fenómeno reciente, estos paradigmas no son más jóvenes que los Sistemas Expertos de la IA clásica, simplemente tuvieron menor publicidad y financiación. En cualquier caso, pasaron desapercibidos. El Primer modelo de red neuronal fue propuesto en 1943 por McCulloch y Pitts. El Perceptrón de Rosenblat apareció en 1959, produciendo una gran y breve expectación que quedó pronto en el olvido, y J. H. Holland introdujo la idea de los Algoritmos Genéticos en los años sesenta. Las grandes ventajas de estos sistemas son la autonomía, el aprendizaje y la adaptación, conceptos todos ellos relacionados.

Las peleas y críticas entre los dos planteamientos fueron casi tan intensas como ridículas. Pero podían ser entretenidas. A veces se encendían los ánimos, como en una competición deportiva, y en cierto modo era divertido, seguro que mucho más que el fútbol. Se preguntará el lector con qué postura me identifico yo. Precisamente, me he visto envuelto en discusiones, defendiendo ambas alternativamente, llegando finalmente a la conclusión obvia, desenlace de la trama. Tras la resaca del auge de la IA simbólica, todos los éxitos fueron cosechados por los subsimbólicos, y el "pasarse al otro bando", al menos en ciertos aspectos, se convirtió en una actitud habitual. Pero como era de esperar, finalmente vemos triunfar el sentido común de aprovechar las grandes cualidades de una u otra postura, o de ambas, en sistemas combinados.



Manuel de la Herrán Gascón
GAIA

Publicado en enero de 1998 en la revista "Solo Programadores", y revisado en marzo de 1999 por el autor.


[En Portada] [Mapa del Web] [Versión Sólo Texto]