25
{PRIVADO } ANEXO A. PERSPECTIVAS DE LA IA "Puede considerarse que una máquina es inteligente si puede pasar por un ser humano en una prueba ciega" Alan Turing. La vida está llena de problemas. La búsqueda de soluciones de algunos genera teorías y métodos o estrategias. Tenemos la capacidad para ello, pero hace falta tiempo, es lo que decimos. El computador por la rapidez para efectuar cálculos y realizar búsquedas se emplea como herramienta fundamental. Sin embargo, hay que decirle al computador cómo debe procesar, qué debe procesar y cuándo debe hacerlo. No piensa, no decide, no razona, quizás algún día lo haga, pero por ahora hay que simular procesos para que ocurra esto, requiriéndose imaginación, creatividad y conocimiento, por supuesto inteligencia. ¿Qué es la inteligencia artificial? En una primera aproximación, se define como la rama de la computación que estudia la automatización del comportamiento inteligente. Otra definición sería: Es un campo de estudio que se enfoca a la explicación y emulación de la conducta inteligente en función de procesos computacionales. La investigación en este campo ha llevado al desarrollo de lenguajes, métodos y herramientas, como hallar formalismos para representación del conocimiento y procesos que lo emplearían; lenguajes, estructuras de datos y técnicas de programación utilizados para la implementación de ese conocimiento. Pero las definiciones anteriores no son completas al referirse a la inteligencia, algo muy difícil de precisar. A pesar que para las personas es "obvio" distinguir cuando un comportamiento es inteligente, la intuición que avala este juicio resulta imposible de describir con el suficiente grado de detalle para utilizarse como criterio formal de la supuesta inteligencia de una máquina. Se necesitan, por tanto, criterios más elaborados para delimitar los problemas que caen dentro de la esfera de la inteligencia artificial (IA) y validar los resultados de los programas construidos para resolverlos. Al tomar el ser humano como modelo de comportamiento inteligente, el objetivo sería reproducir en el computador la eficacia de sus reacciones frente a tareas o situaciones complejas. La base para obtener un rendimiento aceptable del computador es el paradigma de comunicación hombre-máquina. Un lenguaje de programación tiene cerca de 80 palabras claves, cada una con significado preciso y sin ambigüedad. Los computadores o las máquinas ejecutan las instrucciones escritas sin cometer errores, sin realizar una

Perspectivas de la IA - Departamento de Ingeniería de ...lctorress/iartificial/IA0013l.pdf · ANEXO A. PERSPECTIVAS DE LA IA ... capaces de aprender a hacer cosas nuevas y a adaptarse

  • Upload
    others

  • View
    0

  • Download
    0

Embed Size (px)

Citation preview

{PRIVADO }

ANEXO A. PERSPECTIVAS DE LA IA

"Puede considerarse que una máquina es inteligente si puede pasar por un ser humano en una prueba ciega"

Alan Turing.

La vida está llena de problemas. La búsqueda de soluciones de algunos genera teorías ymétodos o estrategias. Tenemos la capacidad para ello, pero hace falta tiempo, es lo quedecimos. El computador por la rapidez para efectuar cálculos y realizar búsquedas seemplea como herramienta fundamental. Sin embargo, hay que decirle al computadorcómo debe procesar, qué debe procesar y cuándo debe hacerlo. No piensa, no decide,no razona, quizás algún día lo haga, pero por ahora hay que simular procesos para queocurra esto, requiriéndose imaginación, creatividad y conocimiento, por supuestointeligencia.

¿Qué es la inteligencia artificial? En una primera aproximación, se define como la ramade la computación que estudia la automatización del comportamiento inteligente. Otradefinición sería: Es un campo de estudio que se enfoca a la explicación y emulación dela conducta inteligente en función de procesos computacionales. La investigación eneste campo ha llevado al desarrollo de lenguajes, métodos y herramientas, como hallarformalismos para representación del conocimiento y procesos que lo emplearían;lenguajes, estructuras de datos y técnicas de programación utilizados para laimplementación de ese conocimiento.

Pero las definiciones anteriores no son completas al referirse a la inteligencia, algo muydifícil de precisar. A pesar que para las personas es "obvio" distinguir cuando uncomportamiento es inteligente, la intuición que avala este juicio resulta imposible dedescribir con el suficiente grado de detalle para utilizarse como criterio formal de lasupuesta inteligencia de una máquina. Se necesitan, por tanto, criterios más elaboradospara delimitar los problemas que caen dentro de la esfera de la inteligencia artificial(IA) y validar los resultados de los programas construidos para resolverlos.

Al tomar el ser humano como modelo de comportamiento inteligente, el objetivo seríareproducir en el computador la eficacia de sus reacciones frente a tareas o situacionescomplejas.

La base para obtener un rendimiento aceptable del computador es el paradigma decomunicación hombre-máquina. Un lenguaje de programación tiene cerca de 80palabras claves, cada una con significado preciso y sin ambigüedad. Los computadoreso las máquinas ejecutan las instrucciones escritas sin cometer errores, sin realizar una

Inteligencia artificial

Luis Carlos Torres Soler222

comunicación con el usuario, sin hallar alternativas ni presentar explicaciones. Parasuperar las limitaciones se desarrollan herramientas que facilitan una comunicaciónnatural y le permiten a la máquina escoger su "propia" estrategia.

Aunque las aplicaciones en lenguaje natural han logrado mejores resultados, éstaslimitan el dominio para alimentar el sistema solamente con información relevante.

Uno de los principales objetivos de los investigadores en IA es la reproducciónautomática del razonamiento humano1, para contestar preguntas como: ¿puede serinteligente una máquina?, ¿podría pensar una máquina?, ¿cómo sería el proceso deaprendizaje en la máquina?2 Teniendo en cuenta que una máquina no puede aprendersin el hombre; por tanto, es un sistema medio mecánico, medio humano, se debenmodelar los diferentes procesos del ser humano que establecen métodos de aprendizaje.En el proceso del desarrollo de la IA es fundamental la simbiosis del ser humano con lamáquina. Aunque nadie pronostica con precisión lo que se podría esperar en el futuro,es evidente que los computadores que posean inteligencia tendrán repercusiones muyimportantes en la vida.

Desde el momento mismo en que fue consciente el ser humano de la razón que poseía,la ha aprovechado de manera "más o menos" eficiente; siempre ha buscado librase delas tareas pesadas y complejas que debe realizar, y esto le ha generado un esfuerzocontinuo que poco a poco ha dado sus frutos. La historia de la ciencia nos enseña que laverificabilidad y, por tanto, la fiabilidad del conocimiento humano nuevo ha sido unaconstante preocupación del ser humano.

Para profundizar un poco más sobre la IA, es necesario iniciar por discutir, ¿qué esinteligencia? Aunque no se ha llegado a ningún acuerdo sobre su definición, se tomandiferentes connotaciones como:

* La capacidad para usar herramientas.* La habilidad de razonar3.* El poder de razonamiento.* La habilidad para recibir, procesar y producir conocimiento.* La capacidad para resolver problemas y lograr fines.

1 La manera más directa de observar el razonamiento es el lenguaje de un protocolo. Un protocolo es ladescripción en lenguaje (generalmente escrito) del comportamiento observado en un proceso cognitivo. 2 Una de las críticas más fuertes a la IA, es que las máquinas no son inteligentes hasta que no seancapaces de aprender a hacer cosas nuevas y a adaptarse a nuevas situaciones, en lugar de limitarse ahacer aquellas actividades para que se les programan. Al preguntarnos si un computador es capaz deaprender. ¿Qué decimos exactamente con aprender y qué mecanismos son los necesarios para llevar acabo dicha actividad? En IA se han propuesto numerosos mecanismos para llevar a cabo un tipo deaprendizaje; sin embargo, resulta difícil determinar un aprendizaje sólo al tratar de resolver problemas. 3 Por razonar se entiende la actividad mental en que a partir de dos o más relaciones se llega aestablecer una relación nueva.

Reseña histórica de la IA

Universidad Nacional de Colombia 223

* La capacidad para aprender de la experiencia.

La interpretación de conceptos como razonamiento, pensar, aprender, conciencia,juicios de valor, etcétera, produce perplejidad y deben dilucidarse mediante lacontribución de la filosofía, de la sicología genética, la neurofisiología que estudian eldesarrollo de las funciones mentales.

Inteligencia: facultad de entender o conocer. Esta breve manera de definir lainteligencia parece ser demasiado simplista y carente de la profundidad que algo tancomplejo y abstracto debiera de tener; sin embargo, al comienzo es necesario presentarlo complejo de la manera más sencilla, para así contar con una base pequeña perosólida en la cual fundamentar el desarrollo del estudio que nos llevará primero a darnoscuenta que está definido en realidad, envuelve más de lo inicialmente señalado y,posteriormente comprender totalmente su significado más amplio.

El conocimiento va más allá de la visión del objeto o sujeto, se refiere también a lascaracterísticas internas o comportamiento del sujeto y de sus reacciones a los estímulosdel medio y de las relaciones con otros sujetos.

Marvin Minsky dice: En todo caso, ¿qué es inteligencia? Es sólo una palabra con quenos referimos a los procesos desconocidos con los cuales nuestro cerebro resuelveproblemas que consideramos difíciles. Sin embargo, cuando logramos dominar unahabilidad, ya no nos impresiona ni mistificamos el hecho que otras personas hagan lamisma tarea. Por ello, el significado de inteligencia nos parece tan escurridiza: nodescribe algo definido, sino únicamente el horizonte temporal de nuestra ignorancia encuanto a cómo funciona la mente.

Por tanto, para muchos es la característica que distingue al ser humano de las demásespecies; pueden plantearse definiciones con el objeto de determinar una base que haservido para el estudio que se ha realizado.

Inteligencia es la capacidad para estar en un mundo y tener conciencia de laexistencia 4.

oInteligencia es la capacidad de un sistema para incrementar su conocimientoy la creación de métodos para solucionar problemas5.

oCapacidad de comportarse autónoma y decisivamente ante cualquiersituación, observar relaciones y características, realizar acciones para llegar

4 De algún modo, se considera la inteligencia como una abstracción de ciertos tipos decomportamiento. A través del comportamiento se detecta la inteligencia, aun cuando por medio delcomportamiento se deducen capacidades intelectuales y la capacidad para adquirir una habilidad implicael potencial para comportarse de un modo determinado. 5 Cualquier tipo de sistema, también los biológicos, complejos, ecológicos, formales, ...

Inteligencia artificial

Luis Carlos Torres Soler224

a otra situación.o

Capacidad mental de actuar con base en un fin, en forma racional,adaptándose a un ambiente complejo.

oCapacidad de un ser vivo o máquina de ordenar información, ampliasobservaciones, experiencias, descubrir interrelaciones para abstraer de estaforma cosas y poderlas ligar entre sí [Alexander Sporl, 1971].

Hay varios modos de razonar y de considerar situaciones complejas: deducción,inducción, abducción.

Deducción. Permite obtener conclusiones por reglas al comprobar las premisas.Deducir lógicamente nueva información relacionada con información conocida.

Ejemplo.Dadas las premisas:

Todos los conejos son mamíferosTodos los mamíferos tienen riñones

Se deduce:Todos los conejos tienen riñones.

La característica definitoria de un argumento válido es su imposibilidad que seanverdaderas todas las premisas y la conclusión falsa, porque la información que existe enla conclusión ya está almacenada en las premisas.

Inducción6. Produce reglas generales a partir de observaciones al comportamiento deobjetos, situaciones o procesos particulares.

Ejemplo:Dada la premisa:

Todos los cuervos vistos son negros.

se induce la conclusiónTodos los cuervos, vistos o no, son negros.

La característica definitoria de un argumento es que la información contenida en laconclusión va más allá de la información contenida en las premisas. Por tanto, puedeser que los argumentos inductivos fallen por ser verdaderas sus premisas y falsas lasconclusiones. De hecho, se tiene conocimiento que a veces las inferencias inductivashan fallado (¡existen cuervos grises!)

6 El principio de inducción fue propuesto por David Hume (1711-1776)

Reseña histórica de la IA

Universidad Nacional de Colombia 225

La inducción es particularmente un razonamiento por analogía (se comparansituaciones casi similares con parámetros desconocidos).

Abducción. Forma de deducción que permite inferencia "pausible". Por pausible seentiende que la conclusión puede deducirse de la información disponible, aunque nohaya sido del todo probada.

Estas clases de razonamiento pueden utilizarse de un modo analítico (el razonamientose divide en submódulos) o de un modo sintético. Los métodos para razonar no sonpocos. La iteración significa repetir la misma secuencia de razonamiento hasta alcanzaruna condición final; la recursión consiste en una forma particular del razonamiento devolver sobre sí mismo. Cuando se hace un razonamiento, sustituimos casi la totalidadde la realidad por un modelo, es decir, un sistema conceptual que contiene únicamenteuna representación abstracta de algunos de los atributos del sistema sobre el cualrazonamos.

Por tal motivo, el ser humano ha llegado a aceptar que la inteligencia no es exclusiva deél y se hace necesario hablar de inteligencia animal, inteligencia sistémica e incluso deinteligencia asociada a una máquina7. Así, los científicos orientan sus esfuerzos aldesarrollo de modelos, desde luego computacionales, para identificar la forma en que elser humano representa el conocimiento y la forma en que razona, aprende y crea.

La posibilidad de existencia de máquinas pensantes ha estado presente entre nosotros,pero no nos ponernos de acuerdo en el sentido de la palabra pensar. Si se define pensarcomo "algo orgánico y natural en el cerebro que permite tomar decisiones o deliberar",se diría que los computadores no llegarán a pensar. A la postre, se tendrá que adoptardeterminaciones que satisfagan la necesidad de contar con comunicación clara.

En la naturaleza puede observarse que todos los fenómenos responden a sus propiasleyes, pero que estas leyes pueden estar diseminadas en diferentes individuos. Un buenejemplo de esto es una colonia de hormigas: se conoce que dentro de la informaciónque contienen las neuronas de cada hormiga no se encuentra cómo construir unhormiguero y, sin embargo, todas las hormigas en conjunto logran maravillosas obrasde arte. Pero entonces, ¿dónde está dicha información? Sin duda, la respuesta es que lainformación está en sus elementos (hormigas), su interacción y química en el cerebro.Un caso similar es el de las abejas.

En general, en la naturaleza, todo el tiempo se dan muestras de comportamiento 7 Sistémica al determinar el comportamiento inteligente como un todo, ya sea grupo o ecosistema. Elcomportamiento inteligente está relacionado con la habilidad para construir, describir, interpretar,comparar, modificar y utilizar estructuras complejas. Igualmente, existen otros términos que buscandeterminar mejor cómo es el comportamiento, como: inteligencia emocional, inteligencia estratégica,inteligencia competitiva, ... No se entra a discutir ni a plantear aspectos de la inteligencia dados porHoward Gardner.

Inteligencia artificial

Luis Carlos Torres Soler226

inteligente: la supervivencia de las especies más fuertes y la adaptación de la naturalezacomo un todo8. La llegada a este punto hace surgir otra pregunta: ¿dónde está ladiferencia de la inteligencia humana con la de otras especies?

Sin duda, no hay otra especie con capacidad de formar conceptos generales o imaginarmundos hipotéticos que permitan proyectar futuros para elegir las mejores opciones. Elhecho que los símbolos puedan actuar en los procesos mentales brinda ciertaindependencia mental respecto a la realidad: podemos crear universos artificiales,donde sucedan acontecimientos ficticios caracterizados por los detalles que se nosocurra asignarles. Sin embargo, los símbolos, de los cuales emana toda esaprodigalidad, están profundamente unidos a la realidad.

Alan Mathison Turing (1912-1954) es considerado el padre de la teoría de lacomputación y de la IA. Entre las capacidades humanas que involucran las facultadesintelectuales, la de mayor relevancia es dialogar en su propia lengua. Precisamente esacapacidad fue la que el matemático Alan Turing utilizó como base para plantear lavalidación de una máquina inteligente en su famoso ensayo "Computing machinery andintelligence" (1950), uno de los primeros trabajos encaminados a plantear este objetivo.Se trataba de un test. El test propone un criterio empírico para comparar el desempeñode un computador al de un humano en un "juego de imitación" en que el computadortrata de hacerse pasar por un humano.

En su versión más simple, el dispositivo experimental consta de un interrogadorhumano que puede comunicarse con un computador y una contraparte humana pormedio de una terminal (o cualquier dispositivo de transmisión de texto). Se le pide alinterrogador, que está aislado y no tiene la posibilidad de mirar o hablar directamentecon sus interlocutores, que distinga cuál de ellos es el humano, basándose sólo en lasrespuestas a las preguntas hechas a través de la terminal. Si dialogando de esta manerael computador logra engañar al interrogador, puede asumirse que es inteligente. Elaspecto más interesante de este test es que establece una noción objetiva de inteligenciaque evita entrar en debates filosóficos sobre su "verdadera" naturaleza.

A pesar de sus ventajas, el test de Turing es vulnerable a varias críticas justificadas queimpiden considerarlo como único criterio de validación de inteligencia: El juego deimitación obliga al computador a reproducir no sólo las destrezas del comportamientohumano, sino también sus flaquezas. Para no ser detectado, el computador debecometer el mismo tipo de errores que un humano, por ejemplo, en el caso deoperaciones aritméticas complejas. Esto es contraproducente desde el punto de vistatecnológico. Lo que realmente importa en un sistema de diálogo es la ergonomía de la

8 En los seres humanos y para efectos de supervivencia, los individuos formulan hipótesis sobre las queconstruyen interpretaciones del mundo. Tales interpretaciones concluyen en teorías sobre las cuales seapoya la supervivencia. Las teorías tienen su coherencia; normalmente, un orden de las cosas esinteligencia (aunque también lo es el caos).

Reseña histórica de la IA

Universidad Nacional de Colombia 227

comunicación, y no que el computador sea capaz de hacerse pasar por humano. Hay unsesgo a problemas que dependen de las capacidades de procesamiento simbólico. No sepueden evaluar capacidades perceptuales o de destreza manual. El test se basaenteramente en la inteligencia humana. Esto restringe innecesariamente el tipo deinteligencia que puede implementarse en un computador.

El test indica si un programa cumple o no el criterio de inteligencia, pero en caso defalla no entrega herramientas para corregir defectos y orientar su desarrollo. Tampocopermite realizar validaciones parciales, indispensables desde el punto de vista de laingeniería de software, si se considera la complejidad de los sistemas inteligentes. LaIA se aborda de una manera más general, analizando los distintos objetivos quejustifican su estudio.

El nacimiento de la IA se atribuye a la conferencia en 1956 organizada por JohnMcCarthy, del Dartmouth College en New Hampshire9, y quien convenció a MarvinMinsky (fundador del laboratorio de IA en el MIT), Nathaniel Rochester (de IBM) yClaude Shannon (de los laboratorios BELL) para que le ayudaran a congregarinvestigadores interesados; asistieron entre otros, Treonchard More, Arthur Samuel quehabía escrito un programa de juego de damas capaz de aprender de su propiaexperiencia, Ray Solomonoff, Frank Rosenblat y Oliver Selfridge que estudiaba elreconocimiento visual por computador. Allen Newell (primer presidente de la AAAI -Asociación Americana de Inteligencia Artificial), J.Cliff Shaw y Herbert Simon,premio nobel, de la Carnegie Mellon. Allí se acuña el termino "artificial intelligence".

A partir del grupo inicial, se formaron grandes "escuelas", quizá con diferentesenfoques pero proponiéndose entender la inteligencia humana y usar las máquinaspara adquirir conocimiento y resolver problemas considerados como intelectualmentedifíciles.

Debe considerarse, sin embargo, que el primer trabajo de IA fue realizado por WarrenMcCulloch y Walter Pitts (1943), quienes propusieron un modelo constituido porneuronas artificiales (A logical calculus of the ideas environment in nervous activity)10,insinuando la posibilidad de aprendizaje por redes de neuronas definidas para talpropósito. Donald Hebb (1949) presentó una sencilla regla (regla de Debb) paramodificar las intensidades de las conexiones entre neuronas, ampliando la capacidad deaprendizaje por las redes neuronales. Sin embargo, hay que reconocer otros hechos 9 Esta conferencia rindió honor a Alan Turing. Turing nació en Londres en junio 23 de 1912. En 1937,en la Sociedad de Matemáticas dicto su célebre conferencia de los números computables en la que planteóla idea de una máquina que podría procesar por medio de un reglamento (programa), también propuso elconcepto de las máquinas teóricas, las cuales podrían contestar a cualquier pregunta de un interlocutor.El 7 de junio de 1954 se envenenó e hizo célebre el silogismo: "Turing cree que las máquinas piensan.Turing se acuesta con los hombres. Luego las máquinas no piensan". 10 Se abreviaron tres fuentes: conocimiento sobre fisiología y funcionamiento de neuronas, análisisformal de la lógica proposicional y teoría de computación.

Inteligencia artificial

Luis Carlos Torres Soler228

históricos que contribuyeron notablemente. Charles Babbage, nacido en 1792, inventómáquinas para calcular, así como la Máquina diferencial y la Máquina analítica. AdaLovelace, colega de Babbage, demostró características de la Máquina analítica.

Algunos hechos importantes para el desarrollo de la IA, además de los enunciados, semuestran a continuación, esto no constituye un resumen completo de las actividades yprocesos realizados pero sí aporta una visión de los resultados fundamentales.

1918. Karel Capek acuña el término "robot", que significa "trabajador" en checo. La lengua inglesamantiene la palabra desde 1923.

1935. John Von Neuman desarrolla su teorema "mínimos y máximos" utilizado en juegos.

1936. Shannon demuestra elementos de la lógica booleana a partir de circuitos.

1937. Vannevar Bush construye el Analizador diferencial analógico en el MIT.

1939. Turing publica sus trabajos sobre la máquina que lleva su nombre.

1940. Atanasoff y Berry construyen el primer ordenador eléctrico, el ABC.

1942. Primer ordenador en Gran Bretaña (Robinson) basado en relays para decodificar mensajes de losNazi a partir de algoritmos de Turing.

1943. Se construye en Alemania el primer ordenador programable.

1944. Aiken termina la construcción de "Mark I", primer ordenador programable en Norteamérica.

1946. Vannevar Bush publica "As we may think ...", o "Cabría imaginar ... ", en Atlantic Monthly elcual sienta las bases de lo que hoy conocemos como Hipertexto, Multimedia e Hipermedia.Eckert & Mauchley construye, "ENIAC", ordenador digital programable. Shannon desarrolla laTeoría de la Información base fundamental de la Informática y varias de sus áreas.

1947. Shannon propone el primer programa de ajedrez.

1950. Turing publica "Computing machinery and Intelligence" en el que proponía pruebas parareconocer "comportamientos inteligentes"; se simulaba el comportamiento del cerebro humano,dado que la inteligencia de un sistema vendría dado por la sensación de capacidad para procesarconocimiento recibido desde terminales distantes conectadas. Claude Shannon y Alan MathisonTuring se ocupaban de escribir programas de ajedrez para computadores convencionales al estiloVon Newman11.

11 La condición del ordenador como simulacro de ciertas funciones cerebrales es tan obvio, que VonNeumann se puso a estudiar en 1955-56 neurología, para poder copiar el modelo estructural simplificadodel cerebro humano, fruto de cuya investigación surgió un ciclo de conferencias sobre cerebro yordenador. Von Neumann subrayó el funcionamiento digital de las neuronas, a las que calificó como"órganos digitales básicos", ya que generan y propagan impulsos nerviosos (bioeléctricos) unitarios. Perohizo notar también que el sistema nervioso aventaja al ordenador en tamaño-densidad operacional, encapacidad de memoria y en disipación de energía, aunque su velocidad es menor y su fatiga mayor que lasdel ordenador. Estas observaciones de Von Neumann, efectuadas en 1956, siguen siendo correctas, a pesar

Reseña histórica de la IA

Universidad Nacional de Colombia 229

1951. Eckert & Mauchley comercializan UNIVAC el primer ordenador en venta. Marvin Minsky yDean Edmonds construyeron el primer computador con redes neuronales.

1952. Arthur Samuel escribió una serie de programas para el juego de damas.

1955. Newell y Simon desarrollaron "The Logic Theorist", programa considerado por muchos como elprimero de IA; el programa representaba cada problema en estructura de árbol e intentabasolucionarlo al seleccionar las ramas que más probablemente llevaban a la solución. Newell,Shaw y Simon con el llamado GPS (General Purpose Systems) buscaban demostrarproposiciones de la lógica y crean "IPL-II" considerado el primer lenguaje de programación paraIA. El GPS era un sistema en el que el usuario definía un entorno en función de una serie deobjetos y los operadores que se podían aplicar sobre ellos. Este programa era capaz de trabajarcon las torres de hanoi, con criptoaritmética y otros problemas similares, operando, claro está,con microcosmos formalizados que representaban los parámetros dentro de los cuales se podíanresolver problemas. El GPS manejaba reglas heurísticas (aprender a partir de sus propiosdescubrimientos) que lo conducían hasta el destino deseado mediante el método del ensayo yerror.

1956. En la conferencia de Darmouth se aprueba el nombre de Inteligencia artificial.

1958. Ulam desarrolla "MANIAC I", programa de ajedrez que logra derrotar a un ser humano.McCarthy definió el lenguaje de alto nivel LISP y publicó el artículo Programas con sentidocomún (Programs with common sense), en el que escribió tal vez el primer sistema de IAcompleto el Escucha consejos. Roger Schank promovió el análisis del lenguaje a fin deinterpretar el significado de las palabras. En IBM, Nathaniel Rochester y sus colegas produjeronalgunos programas de IA. Friedberg explora el paradigma para la solución de problemas basadoen la teoría de la evolución. Los primeros pasos de la computación evolutiva estaban basados enla premisa que efectuando una serie de pequeñas mutaciones a un programa en código demáquina se podría generar un programa con buen desempeño en la realización de cualquier tareasencilla.

1959. Herbert Gelertner, de IBM, construyó el demostrador automático de teoremas de geometría.

La década del 60 vio sentar los principios básicos de la investigación en ideas de resolución deproblemas, como del nacimiento de los sistemas expertos (SE).

1960. Chomsky escribe "Estructuras sintácticas". McCarthy mejora el lenguaje LISP, paraprocesamiento simbólico de la información. Robert K. Lindsay, desarrolla un programaorientado a la lectura de oraciones en inglés y la extracción de conclusiones a partir de suinterpretación, se denomina "Sad Sam". Alex Bernstein desarrolla un programa para el juego deajedrez. Sería un antepasado de la máquina "Deep Blue"12.

1961. Minsky y McCarthy crean el laboratorio de IA en el MIT. Se desarrolla SAINT (SimbolicAutomatic INTegrator) por James Slagle el cual se orienta a la demostración simbólica en el áreadel álgebra.

del gran progreso tecnológico ocurrido. 12 El 10/02/96, el programa Deep Blue derrota a Garry Kasparov; este programa valora 5 millones deposiciones en 30 minutos. Esta máquina continua su desarrollo. En noviembre del 2006, la máquina DeepFritz derrota al campeon muldial de ajedrez, Kranmik.

Inteligencia artificial

Luis Carlos Torres Soler230

1962. Rosenblatt introduce el Perceptron. Bernie Widrow (1960) y Frank Rosenblatt reforzaron losmétodos de aprendizaje de Hebb a través de las redes neuronales Adaline y Perceptron,respectivamente. Rosenblatt demostró el famoso Teorema de convergencia del Perceptron, con loque afirmó que su algoritmo de aprendizaje podía aprender cualquier función, siempre y cuandotal aprendizaje fuese factible.

1963. EL programa de ajedrez de Samuel gana juegos contra grandes jugadores. McCarthy se muda aStandford donde funda el laboratorio de IA.

1964. Bertrand Raphael construye el sistema SIR (Semantic Information Retrieval) el cual era capaz decomprender oraciones en inglés.

1965. Se desarrollan los primeros robots industriales. ARPA da un fondo de investigación de dosmillones de dólares al laboratorio de IA del MIT.

1966. Quillian desarrolla las Redes semánticas como modelo de representación del conocimiento.Minsky escribe "Steps Toward Artificial Intelligence".

1968. Bobrow desarrolla STUDENT. Se comienza el desarrollo de BBNLisp en BBN. Buchanan,Feigenbaum y Lederberg comienzan el proyecto DENDRAL, el primer Sistema Experto.

1969. Iva Sutherland hace demostración del primer monitor en forma de casco para realidad virtual. Secelebró el primer congreso internacional de IA. Bryson y Ho proponen algoritmos de aprendizajede retropopagación (backpropagation).

1970. Simon predice "para 1985 los ordenadores serán capaces de realizar cualquier trabajo que unhombre pueda hacer". Apareció la revista Artificial Intelligence.

1971. Dreyfus argumenta en contra de la IA.

1973. Donald Michie funda el laboratorio de IA en Edinburgo. Minsky publica "Semantic InformationProcessing". William Woods construyó el sistema LUNAR (programa de lenguaje naturalutilizado por personas distintas al autor, sistema que realiza una tarea). Minsky y Papert criticanel Perceptron. Colmerauer desarrolla PROLOG lenguaje basado en la lógica como esquema derepresentación para el desarrollo de programas de IA, quizás el lenguaje de IA más popular pormucho tiempo.

1974. Winograd crea SCHRDLU. Dreyfus publica "What Computers Can't Do".

1975. Minsky propone la noción de Frame (marco) para la representación del conocimiento.

1977. Se desarrolla el lenguaje SmallTalk en Xerox PARC. Shank y Abelson desarrollan los guiones(scripts), base de muchas técnicas actuales de la IA y la Informática en general. Roger Shank, enYale, reforzó la importancia del conocimiento en el área de la comprensión del lenguaje natural.

1978. Edward Shortliffe escribe su tesis con MYCIN, un sistema experto muy conocido. Se desarrollael primer robot controlado por ordenador.

1979. Minsky publica "A Framework for Representing Knowledge". Se establece la red SUMEX-AIMpara aplicaciones de la IA en medicina.

1980. La DARPA lanza un programa de financiación para el procesamiento y comprensión de

Reseña histórica de la IA

Universidad Nacional de Colombia 231

imágenes.

1981. Greenblatt crea "CONS" el primer ordenador con arquitectura para LISP. Kurzweil introduce sumáquina lectora. Lenat introduce su "Automated Matematician". Xerox comienza a desarrollaordenadores LISP. Raj Reddy funda el Instituto de Robótica en la Universidad Carnegie Mellon.Primera conferencia de la AAAI (American Association on Artificial Intelligence) en Stanford, yprimera Conferencia de Lisp y programación funcional de la ACM. Kazuhiro Fuchi anuncia elproyecto japonés de quinta generación de ordenadores. El PSL (Portable Standard Lisp) puedeejecutarse sobre varias plataformas. Se construyen máquinas LISP por Xerox, LMI y Simbolics,las cuales soportan Programación Orientada a Objetos. Se sientan las bases del Common Lispcon aspectos comunes de las familias: Lisp machine, MacLisp, NIL, S-1 Lisp, Spice Lisp yScheme.

1982. John Hopfield resucita las redes neuronales. Feigenbaum y McCorduck publican "The FifthGeneration".

1983. Steele publica "Common Lisp the Language". La comunidad europea comienza el programaESPRIT. Gold Hill crea el Golden Commom Lisp.

1984. General Motors y Campbell's Soup dejan de usar Lisp para sus Sistemas Expertos. Un robot de laKawasaki mata a un mecánico japonés en un mal funcionamiento.

1985. Se funda el Media Lab en el MIT. Minsky publica "The Society of Mind".

1987. Teknowledge, una compañía dedicada al desarrollo de sistemas en IA, abandona Lisp y Prologpor el lenguaje C. El robot jugador de tenis de mesa de Anderson le gana a un ser humano.

1988. La máquina de ajedrez HiTech de CMU compite en un torneo de nivel master. La policía deDallas usa un robot para entrar en las casas.

1989. Primera conferencia de la OOPSLA sobre programación orientada a objetos, en la cual sepresenta CLOS, Lisp Orientado a Objetos, como lenguaje independiente de la comunidad deLisp e IA.

1990. IBM desarrolla shells para Lisp, Prolog y Sistemas expertos y entra a la AAAI. McClelland yRumelhart publican "Parallel Distributed Processing" (Redes Neuronales). Aparecen compañíasdedicadas al desarrollo de Redes Neuronales. Existen alrededor de 2000 Sistemas Expertos en elmundo. Sistema experto XCON de DEC capaz de configurar ordenadores realizando el trabajode 300 personas, basándose para esto en 10.000 reglas.

1991. Japón establece su sistema AFIS para la identificación automática de huellas digitales.

1992. El chip del 386 ofrece una velocidad a los PCs comparable a la de las máquinas Lisp. Minsky yPapert publican una revisión de "Perceptrons". Se establecen los lenguajes Orientados a Objetos.La compañía TI anuncia imcroExplorer una máquina Lisp con tecnología Macintosh. Steelepublica la segunda edición de "Common lisp the Language".

1993. Apple Computer introduce el lenguaje Dylan, de la familia Lisp, como su visión del futuro en laprogramación. X3J13 crea una propuesta para la Sociedad Americana de Common Lisp.

1994. La versión para tiempo real del lenguaje CLOS, Lisp con Objetos, de Harlequin se utiliza ensistema de intercambio de AT&T.

Inteligencia artificial

Luis Carlos Torres Soler232

2000. Lenguajes, robots, armas, etc., con herramientas de inteligencia artificial se desarrollan endiferentes institutos o centros de investigación, en general apoyados gubernamentalmente,especialmente para el desarrollo de nuevas armas de ataque y defensa. Los robots que seconstruyen tienen diferentes finalidades; para yudar en situaciones de desastre, como jugadoresde fútbol, tenis o ajedrez, como mascotas, etc.

Las investigaciones interesantes en la historia de la humanidad y que constituirían basepara el desarrollo de lo que hoy se conoce como IA, es lo relacionado con la mente.Dichos estudios se remontan a la época de los griegos, principalmente con los filósofosde la escuela epicúrea y médicos de la escuela hipocrática. Sin embargo, fue el padredel racionalismo moderno René Descartes, quien dio el primer paso hacia el estudio, alconcebir el pensamiento como el resultado de un mecanismo. Descartes, llegó a laconclusión que mente y cuerpo eran dos cosas totalmente diferentes. Por consiguiente,dividió los actos humanos en dos categorías: Mecánicos y racionales. Obviamente, losactos mecánicos eran aquellos que podían ser imitados por los autómatas: caminar,comer, tocar la flauta, etc. Los actos racionales por el contrario no podían ser imitados:juicio, voluntad, elección. Descartes, debatiéndose por aclarar la naturaleza de la mentey el cuerpo, declaró en su día, que los animales eran máquinas maravillosas. Los sereshumanos también lo eran, salvo que ellos poseían una mente. Es importante aclarar quela distinción entre seres humanos y cualquier otra forma de vida es básicamente la ideapropuesta por Descartes y la mayoría de científicos como Leibniz, Hobbes, Locke,Hume, ¿...el hombre tiene la capacidad de pensar, es inteligente, racional...?Lógicamente, Descartes ni los otros tenían porque tener en cuenta que estadiferenciación no es totalmente aplicable a las máquinas creadas actualmente y a lascuales se les atribuye inteligencia. Ahora, dado el caso de poder crear máquinasinteligentes y teniendo en cuenta que la diferenciación principal de los seres humanos ylas demás especies es la capacidad de pensar, razonar.

Se pensó que la IA puede proveer herramientas y métodos para solucionar problemascomplejos, con lo cual se buscó construir sistemas que aumentaran la inteligenciahumana13, o por lo menos ayudaran al ser humano. Así es como nació los sistemas paraexpertos; por ello, el nexo existente entre la IA y los SE es muy cercano.

Entre 1965 y 1970 se inicia el desarrollo de los primeros sistemas expertos. Minsky(1970-1975) supervisó el trabajo de estudiantes que eligieron problemas limitados cuyasolución parecía requerir inteligencia. Estos trabajos vinieron a ser conocidos comomicromundos. El más famoso de los micromundos fue el de los bloques. El mundo delos bloques fue la morada del proyecto de visión de David Huffman (1971), de lostrabajos sobre la visión y la propagación de restricciones de Adolfo Guzmán y DavidWaltz (1975), de la teoría del aprendizaje de Patrick Winston (1970), del programa para 13 La capacidad para aprender de una persona depende de la interacción que tenga con su medio, esdecir, de las experiencias que adquiera porque ellas le facilita determinar dónde y cómo aplicar unateoría.

Reseña histórica de la IA

Universidad Nacional de Colombia 233

la comprensión del lenguaje natural de Terry Winograd (1972) y del planificador deScott Fahlman (1974).

Varias definiciones de IA se han dado, entre las que se destacan:

Marvin Minsky: es la disciplina de hacer máquinas que hagan cosas que realizadaspor el hombre requieran de "inteligencia".

Patrick H. Winston: es el estudio de las ideas que permiten a los computadoresrealizar aquello que hace a las personas parecer inteligentes (percibir, razonar yactuar).

Eliane Rich, Kevin Knight: es el estudio de cómo lograr que los computadores hagancosas que, por ahora, los seres humanos pueden hacer mejor.

Nills Nilson: son los procesos comunes que reúnen percepción y conocimiento.

Bruce Buchanan - Edward Feigenbaum: es la parte de la ciencia de la computaciónque investiga los procesos simbólicos, razonamiento no algorítmico y representaciónde conocimiento para ser utilizados en máquinas.

Schalkoff: una disciplina que se enfoca a la explicación y emulación de la conductainteligente en función de los programas computacionales.

Al observar las definiciones anteriores, no existe un acuerdo total, pero en este texto seconsidera la más apropiada la enunciada por Buchanan-Feigenbaun porque encierraconceptos muy utilizados en IA, como programación no algorítmica y representaciónde conocimiento que siempre han sido las bases principales para obtener resultados enlas investigaciones sobre ésta, aunque pierda validez cuando se aplica a ejemplosespecíficos14.

Algunas propuestas posteriores para replicar el razonamiento fue construir estructurasdel cerebro, hoy redes neuronales (neural networks), como las de: Hopfield (1982)quien utilizó técnicas de la mecánica estadística para analizar las propiedades dealmacenamiento y optimización de las redes; David Rumelhart y Geoffrey Hinton(1982), quienes mejoraron los modelos de la memoria basados en redes neuronales;también los de Ackley, Hinton y Sejnowski en 1985, quienes emplean modelosautómatas para almacenamiento de información y así acelerar el proceso deaprendizaje.

14 El trabajo repetitivo constituye preocupación de grandes hombres de todas las épocas. Aristóteles, elcerebro de más vasta concepción en la historia del pensamiento, refiriéndose a una forma particular de latarea repetitiva acuño una frase que aun tiene vegencia, "Cuando los telares tejan por sí mismos, habráterminado la esclavitud del hombre".

Inteligencia artificial

Luis Carlos Torres Soler234

Los trabajos de Judea Pearl (1982) y su libro Probabilistic Reasoning and IntelligentSystems, señaló el uso de la probabilidad y de la teoría de decisiones en IA. EricHorvitz y David Heckerman (1986) sirvieron para promover la noción de sistemasexpertos normativos: es decir, los que actúan racionalmente de acuerdo con las leyes dela teoría de decisiones, sin que intenten imitar a los expertos humanos. David Chapman(1987) continuó los trabajos tempranos de Austin Tate (1977) en el área de laplaneación, formalizando las teorías existentes al respecto. Nace el formalismo de redde creencia que obedece a la necesidad de poder razonar eficientemente ante unacombinación de evidencias inciertas. Allen Newell, John Laird y Paul Rosenbloom(1990) desarrollaron el sistema SOAR, que representa la arquitectura de sistema totalen IA. Similares revoluciones se producen en robótica, visión artificial, aprendizajemaquinal, redes neuronales y representación del conocimiento.

Se desarrollaron a la par distintas técnicas para modelar la inteligencia: sistemasexpertos, lógica fuzzy -Difusa- (Zadeh, 1965), redes neuronales artificiales (retomandolas ideas de McCulloch y Pitts), algoritmos genéticos (evolución artificial), agentesinteligentes (inteligencia artificial distribuida), y muchas otras ramas con menorpopularidad (Machine Learning, Theorem Proving). Además, estas "ramas"interaccionan para atacar problemas con sistemas híbridos (como redes neurodifusas).

Actualmente es muy común construir sobre teorías ya existentes que proponer teoríastotalmente novedosas, tomar como base rigurosos teoremas o sólidas evidenciasexperenciales más que la invención, y demostrar la utilidad de las aplicaciones en elmundo real.

Objetivos de la IA

Los investigadores en IA se concentran principalmente en la resolución de problemas,el control automático, las bases de datos inteligentes, la ingeniería del software, elreconocimiento de patrones para la comprensión y síntesis del habla, el proceso deimágenes, la visión artificial y, fundamentalmente, la representación del conocimiento,la conceptualización cognitiva y la comprensión del lenguaje natural.

Uno de los principales objetivos de los investigadores de IA es la reproducciónautomática del razonamiento humano.

Una definición más adecuada de la IA puede deducirse de la siguiente pregunta: ¿paraqué sirve? Existen dos orientaciones básicas para responder esta interrogante:

* Como herramienta científica.El objetivo es simular en el computador modelos del comportamiento de sistemasinteligentes naturales (en particular humanos) para verificar empíricamente su validez.

Reseña histórica de la IA

Universidad Nacional de Colombia 235

Esta simulación es indispensable porque los sistemas son complejos para obtenerpredicciones analíticas precisas de su corportamiento. Las áreas que más se beneficiancon esta herramienta son la sicología cognitiva y la neurobiología. Esto no significa quelos aspectos computacionales sean secundarios, ya que todo comportamiento inteligenteimplica un procesamiento de información que es legítimo estudiar desde un punto devista puramente computacional. Además, los mecanismos naturales investigadospueden enriquecer el arsenal de métodos de la computación (como en el caso de lasredes neuronales).

* Como herramienta tecnológica.El objetivo es resolver en el computador problemas difíciles, que se sabe están alalcance de sistemas inteligentes naturales, pero para los cuales no existe unadescripción algorítmica satisfactoria. Los problemas incluidos dentro de esta categoríase caracterizan, en general, por la dificultad de disponer de toda la informaciónnecesaria para resolverlos sin ambigüedad. Ya sea que haya demasiada información queconsiderar (por ejemplo, ajedrez), ya sea que esté incompleta o inconsistente (porejemplo, lenguaje verbal), ya sea que se halle muy poco estructurada (por ejemplo,análisis de imágenes). En estos casos, es interesante reproducir las capacidades deprocesamiento observadas en los sistemas naturales, aunque no necesariamentemodelando sus mecanismos internos.

Para abordar los objetivos planteados por la IA se ha recurrido a diversas técnicasespecíficas como: la representación y modelización de conocimiento, la generación deplanes de acción, el aprendizaje (deductivo, inductivo) y adquisición de conocimiento.

Uno de los problemas que surgieron en el inicio de la IA fueron los cálculosexhaustivos que limitaban el conocimiento que se podía procesar, es decir, secalculaban todas las posibles soluciones para luego elegir la óptima. Aparecieron losprimeros algoritmos de poda. Tal vez, no se contaba con herramientas apropiadas.Tanto el hardware como el software estaban adaptados al cálculo numérico y no alcampo simbólico. Entonces se inició el desarrollo de lenguajes especializados para laIA, como PLANNER, LISP (de John McCarthy), CONVICER, PROLOG,SMALLTALK, entre otros. Los informáticos hablan a través de símbolos. Lalingüística es objeto de numerosos trabajos que ponen en práctica la trayectoriaexpuesta al respecto, de los cuales ha resultado la lingüística cuantitativa y ha dadolugar a realizaciones sobre traducción automática.

Las herramientas buscaban dos fines básicos:

* Hacer computadores más útiles.* Entender los principios que hacen posible la inteligencia.

Esto porque, en un momento dado, la IA se ha convertido en una etapa avanzada de lainformática, ha pretendido ocuparse de la producción de modelos y programas del

Inteligencia artificial

Luis Carlos Torres Soler236

llamado comportamiento inteligente. Como se ha mencionado, su origen tuvo lugarporque se carecía de algoritmos que describieran algunas actividades cognitivas muysencillas aparentemente para el humano como reconocer visualmente un objeto,traducir un breve texto, encontrar una palabra en el diccionario tan rápidamente comopuede teclearse.

Con el transcurso del tiempo se ha visto que las aplicaciones tecnológicas en las que losmétodos de IA se usan, han demostrado que pueden resolver gran cantidad deproblemas a tal punto que se han creado sistemas que:

* Permiten al usuario preguntarle a una base de datos en lenguaje natural.* Reconocen objetos de una escena por medio de aparatos de visión artificial.* Generan palabras a partir de textos computarizados.* Reconocen e interpretan un vocabulario de palabras humanas.* Resuelven problemas en una variedad de campos usando conocimiento experto

codificado.

Áreas de investigación

Representación del conocimiento. Busca el descubrimiento de métodos expresivos yeficientes de representar conocimiento sobre hechos del mundo real. La representacióndel conocimiento es importante ya que, en alguna medida, cualquier actividadcomputacional inteligente depende de ella. Los sistemas de representación delconocimiento ofrecen los beneficios de las bases de datos orientadas a objetos y lascapacidades de las bibliotecas de hipertextos, proveyendo una mayor expresividad yalgoritmos más poderosos para recuperación y actualización de información.

Todo comportamiento inteligente implica un uso intensivo de información. Por tanto,una de las preocupaciones centrales de la IA se refiera a cómo representar lainformación o, para enfatizar la complejidad de su estructura, el conocimiento necesariopara que el computador pueda operar inteligentemente.

El enfoque más difundido se basa en la hipótesis del sistema de símbolos físicos queplantea que la actividad inteligente, tanto en el humano como en el computador, selogra a través del uso de:1. Patrones de símbolos para representar aspectos significativos de un dominio de

problema.2. Operaciones sobre patrones para generar soluciones potenciales a problemas.3. Mecanismos de búsqueda para seleccionar la mejor solución entre las

posibilidades generadas.

Esta hipótesis distingue a los patrones formados mediante la combinación de símbolosdel medio físico. Si la inteligencia depende sólo de la estructura de un sistema de

Reseña histórica de la IA

Universidad Nacional de Colombia 237

símbolos, cualquier medio físico que permita implementarlo, en particular uncomputador, puede lograr un comportamiento inteligente.

Métodos de aprendizaje automático. Extienden las técnicas estadísticas con el fin deposibilitar la identificación de un amplio rango de tendencias generales a partir de unconjunto de datos de entrenamiento. Estos métodos pueden utilizarse en la construcciónde interfases adaptables a las necesidades de usuarios individuales, programas quedescubran regularidades importantes en el contenido de bases de datos distribuidas ysistemas de adquisición automática de modelos de las capacidades de nuevos servicios.

Planificación. Se usa para enfrentar el desarrollo de algoritmos que construyen yejecutan automáticamente secuencias de comandos primitivos a fin de alcanzar ciertasmetas de alto nivel. A través del razonamiento sobre modelos formales de lascapacidades y contenidos de los servicios de red y las bases de datos, los sistemas deplanificación inteligente permiten enfocar las actividades de recolección de informaciónen direcciones beneficiosas. Debido a que los sistemas de planificación toman comoentrada una especificación declarativa de algún objetivo, ellos también puedenutilizarse en el mejoramiento de las interfaces, permitiéndoles a los usuarios especificarlo que éstos desean hacer, y luego computando las acciones requeridas para alcanzar elobjetivo y determinando cuándo éstas deben ejecutarse.

Razonamiento. Hacer uso de principios estadísticos para desarrollar codificaciones deinformación incierta. En esta área se han desarrollado algoritmos para soportarrazonamiento diagnóstico, inferencias causales y evaluación de compromisos entre elcosto de un plan y la satisfacción de los objetivos. Las técnicas de razonamiento puedenaplicarse al desarrollo de sistemas que utilizan registros de comportamiento paraconstruir perfiles probabilísticos de los objetivos del usuario y a la evaluación decompromisos entre objetivos conflictivos del usuario.

Arquitecturas de agentes. Buscan la integración de otras áreas de la IA con el objeto decrear agentes inteligentes, entidades robustas, capaces de comportamiento autónomo yen tiempo real. Aplicaciones potenciales de estos agentes son los asistentes personales,consejeros y guías en el desarrollo de proyectos y el aprendizaje. La investigación sobrecoordinación y colaboración multiagentes ha permitido el desarrollo de técnicas parala representación de las capacidades de otros agentes y la especificación delconocimiento necesario para la colaboración entre éstos. El desarrollo de algoritmos denegociación posibilita la identificación de áreas potenciales de interés compartido entreagentes y la computación de acuerdos que incrementan la utilidad para todos losparticipantes, aspecto crucial en el caso de redes de agentes artificiales interconectadosy sistemas más flexibles de comunicación hombre-máquina.

Desarrollo de ontologías. Persigue la creación de catálogos de conocimiento explícito,formal y multipropósito para ser utilizados por sistemas inteligentes. Por ejemplo, uncatálogo sobre aeronáutica contendrá definiciones de conceptos como aviones, alerones

Inteligencia artificial

Luis Carlos Torres Soler238

y aeropuertos. La creación de sistemas de vocabulario compartido es importante ya queprovee las conceptualizaciones y el conocimiento básico requerido para lacomunicación y colaboración entre distintos agentes, tanto humanos comoautomatizados. El trabajo en desarrollo de ontología difiere del de representación delconocimiento en que este último está centrado en la forma de los métodos derepresentación y en los métodos que utilizan dichas formas, mientras que el primero secentra en el contenido.

Procesamiento de voz y lenguaje. Busca la creación de sistemas que se comunican conla gente en lenguajes naturales (por ejemplo, español escrito y/o hablado). Los sistemasde procesamiento de voz podrían revolucionar las interfaces de usuario, especialmenteen el campo de la computación móvil. El análisis de textos podría permitir el desarrollode mecanismos de indexación y recuperación de información más eficientes.

Síntesis y comprensión de imágenes. Se usan en la producción de algoritmos para elanálisis de fotografías, diagramas y vídeos, así como de técnicas para el desplieguevisual de información cuantitativa y estructurada. Entre las potenciales aplicaciones eneste ámbito se encuentran la extracción de contenido semántico para uso en el exameny búsqueda de imágenes, el desarrollo de esquemas de compresión inteligentes para elalmacenamiento y transmisión de imágenes biomédicas y la generación de escenasartificiales realistas a partir de modelos extraídos de imágenes del mundo real.

Además de los métodos generales de la computación, en IA se utilizan técnicasespecíficas que se diferencian del enfoque algorítmico clásico. El enfoque clásico dapor hecho que se dispone de toda la información necesaria para llegar siempre a unasolución óptima del problema abordado. En IA, las decisiones se basan en unconocimiento parcial que no garantiza encontrar el óptimo.

La inteligencia consiste precisamente en saber sacar el máximo provecho a lainformación disponible para tratar de obtener el resultado deseado. Dicho en formagradual, un sistema es más inteligente cuanto menos información requiera analizar parallegar a un determinado resultado y cuanto mejor sea este resultado. Esta definiciónpermite abarcar a la mayoría de los métodos de la IA y pone de manifiesto elcompromiso entre exhaustividad del análisis y calidad del resultado que los caracteriza:se sacrifica la seguridad de obtener soluciones óptimas por la ventaja de poder operarcon información incompleta.

Las técnicas computacionales desarrolladas dentro de este marco metodológico sonllamadas heurísticas (de una raíz griega que significa hallar). Una heurística es unaestrategia de resolución de problemas que permite orientar la búsqueda de la soluciónhaciendo un análisis selectivo de las posibilidades más relevantes según la informacióndisponible. A pesar de no garantizar siempre la mejor solución, una buena heurísticadebería permitir hallar una solución muy cercana al óptimo en la mayoría de los casos.

Reseña histórica de la IA

Universidad Nacional de Colombia 239

Aplicaciones

Los computadores se emplean en: los negocios, la ingeniería, las granjas, la minería, loshospitales, el hogar. Pero, ¿qué pueden hacer los computadores en el área de la IA?

• Resolver problemas. Los computadores realizan cálculos aritméticos a increíblevelocidad; actualmente hay programas que efectúan cálculo integral y muchomás, como la resolución de problemas mecánicos.

• Ayudan a los expertos a analizar y diseñar. Algunos programas sirven paraauxiliar a los médicos para analizar ciertos tipos de enfermedad, otros paraentender el funcionamiento de circuitos electrónicos y otros más nos auxilian enla configuración de los módulos que conforman sistemas complejos de equipode cómputo.

• Entender inglés. Para el ser humano, la manera natural de comunicarse es através del lenguaje. Esto ha motivado un gran interés por desarrollar esta mismahabilidad en los computadores. Para el entendimiento de un lenguaje naturalescrito como el inglés, se utiliza, entre otras, la técnica de palabras clave; estatécnica intenta inferir el significado de la comunicación a partir del propiosignificado de las palabras clave, pero ha probado su ineficiencia en contextosdonde las palabras clave utilizadas pueden tener múltiples significados.

• Entender imágenes. Computadores equipados con los dispositivos adecuados(cámaras de Tv, ...) pueden ver lo suficiente para tratar con un espacio limitado,los objetos que ahí se encuentran y la relación que guarda uno respecto al otro.

• Manufacturar productos. Actualmente máquinas de propósito específicoauxilian en trabajos que el ser humano considera peligroso, aburrido o pocoremunerado. Pasar de máquinas de propósito específico a robots inteligentesrequiere agregar muchas capacidades, una de ellas es la de razonar acerca delmovimiento en tres dimensiones, tal como el requerido para mover una caja deun estante a otro en un almacén.

"¿Es posible evaluar por adelantado las consecuencias de una investigación?"Albert Einstein.

Los Sistemas Expertos (SE) proveen a los usuarios conclusiones acerca de áreasespecializadas, como diagnosticar enfermedades, evaluar potenciales depósitos demineral, sugerir estructuras para complejos químicos orgánicos, proveer consejos decómo usar otros sistemas de computación, ayudar en investigaciones y apoyo a la tomade decisiones, detección de situaciones posibles..., auxiliares en reparación de...,asesores en administración financiera, detección de problemas en máquinas controladaspor computador, pronósticos meteorológicos, consejos para..., asistencia acompositores. La lista de aplicaciones de los SE crece sorprendentemente día tras día,buscando cambiar la metodología de programación que hasta ahora se ha llevado acabo en la mayoría de organizaciones: la algorítmica.

Inteligencia artificial

Luis Carlos Torres Soler240

Los SE pueden, desde cierta perspectiva, considerarse agentes basados enconocimiento. En teoría, estos sistemas son capaces de razonar siguiendo pasoscomparables con los que sigue un especialista (médico, biólogo, geólogo, matemático,...), cuando resuelve un problema de su área. La programación de SE incluye comoaspecto fundamental la representación del conocimiento para ser utilizado por elsistema y de cómo sería su interpretación y manipulación lógica por medio demecanismos de inferencia, que permiten deducir conocimiento15. Una definición de SEes: "Un programa de computador que utiliza conocimiento y procedimientos deinferencia para resolver problemas que son lo suficientemente difíciles y requierenexperticia humana significante para su solución. El conocimiento de un sistema expertoconsiste de hechos y heurísticas" (Feigenbaum)

Entre los importantes tipos de aplicaciones de SE se tienen:

Generación de documentos. Produce documentos por selección e integración enforma adecuada de partes apropiadas de texto, gráficos y metodologías.

Para producir un documento tal como un testamento o contrato o un libro, el sistemaencadena las necesidades del cliente. Con un plan que tiene especificado, el SEdirecciona esas necesidades y entonces produce un documento. En algunas situacionessimples, el sistema selecciona y ordena partes usadas del texto para construir eldocumento, guiado por el conocimiento de cómo los elementos del plan debenencadenarse. En situaciones más complejas, como contratos comerciales o de manejolegal, el sistema con el plan organiza el documento y sugiere contingencias que elusuario puede contemplar o cambiar.

Interpretación. Consiste en encontrar el significado de los datos de entrada obtenidospor sensores o tecleados por el usuario. Interpreta el contexto de una pregunta oproblema. Anticipa las consecuencias legales de acciones propuestas y predice losefectos de cambio. Cuando los datos no son ciertos, exactos o incompletos, la tarea deinterpretación se complica, por lo que hay que dotar al SE de conocimiento pararesolver este tipo de problemas.

En derecho, se interpreta la autoridad, anticipando las consecuencias legales y lasacciones propuestas; predice el efecto por cambios de la ley. Estos sistemas contienenestatus legal y regulaciones colocadas en la BC, de manera que el usuario determinarálos efectos al ejecutar el programa y cambiar algunas reglas.

El usuario podrá, del mismo modo, hallar elementos para determinar la legalidad de

15 Por ello el constructor de Sistemas Expertos debe comenzar por identificar y recoger, del expertohumano, el conocimiento que éste utiliza: conocimiento teórico, y sobretodo, conocimiento empíricoadquirido en la práctica.

Reseña histórica de la IA

Universidad Nacional de Colombia 241

posiciones particulares y las consecuencia legales. Para predecir el efecto de cambiosen la legislación, el usuario modifica hechos para reflejar los cambios propuestos y elSE analiza casos previos reflejando las alteraciones que pueden ocurrir.

Predicción. Concluye posibles consecuencias de situaciones dadas; por ejemplo, preverel clima.

Diagnóstico. Consiste en identificar causas que provocan un problema a partir de unaserie de datos. Para un diagnóstico es necesario la interpretación de los datos. Existendos formas para dar el diagnostico: la primera, "seleccionar" el mejor diagnóstico deentre un conjunto de diagnósticos predefinidos; y la segunda, "construir" el diagnóstico.

Reparación, corrección o terapia. Consiste en la proposición de las accionescorrectoras necesarias para la resolución de un problema. Debe tenerse previamente undiagnóstico.

Los SE en reparación tienen que cumplir: que la respuesta sea lo más rápida yeconómica posible, en orden y que pueda evitar efectos secundarios.

Monitoreo. Consiste en la comparación continua de señales y/o datos de entrada de unsistema contra valores que actúan como criterio de normalidad o estándares.

Un SE en derecho organiza las actividades y periódicamente inspecciona la BC dehechos legales, humanos o especiales por cambios en la ley para disponer si afectan aclientes y la actividad de los casos.

Planeación. Es la realización de planes o secuencias de acciones. Un ejemplo es laasignación de aviones a diferentes rutas y configuración de los asientos de cada vuelo.

Instrucción. Diagnostica, depura y corrige el comportamiento de una persona en elproceso de enseñanza aprendizaje; por ejemplo, entrenamiento de empleados.

Administración de casos. Los SE organizan información de casos, estiman su valor ysugieren tácticas y estrategias de negociación y disposición. Por ejemplo, en un nivellocal, los sistemas encuentran y resumen argumentos a travéz de proposicionesparticulares. A un nivel mayor sugiere tácticas y estrategias para la negociación y elestablecimiento de casos. Este tipo de aplicación posee mucha información para casosmuy complejos. Administración de litigaciones en gran escala, tal como pleitos porcréditos son muy complejos. Casos con grandes riesgos económicos y comerciales sontan complejos que una sola persona no puede reconocer y entender todos los hechoslegales, como presentar las soluciones posibles.

El conjunto de SE en derecho se halla en un gran número de actividades deadministración para inspeccionar y revisar periódicamente las BC. Se encargan de

Inteligencia artificial

Luis Carlos Torres Soler242

identificarle al usuario los efectos por cambios en leyes; por ejemplo, los clientessolicitan ayuda legal en la planeación, de contratos económicos o testamentos al darsecambios en leyes, indicándoles a los apoderados cuándo deben realizarsemodificaciones sustanciales.

Simulación. La principal característica de los SE es "simular el razonamiento,comportamiento lógico o inteligencia de un experto"; son procesos complejos.Indudablemente, los SE en simulación son eficaces allí donde los métodos numéricosno lo son, bien por la complejidad o bien por la naturaleza del problema a resolver.

Diseño. Propone soluciones basado en una BC que contiene y es capaz de explicarlas,proponer alternativas, detallar las ventajas e inconvenientes de cada solución; porejemplo, diseño de revistas, productos, etcétera.

Educación. En la década del 60, se desarrolló la enseñanza asistida por computadorcon teorías algorítmicas, basadas en el planteamiento sicológico de la enseñanzaprogramada. Hoy día, los SE, tras un diagnóstico, controlan los errores en lasrespuestas que da un alumno y lo guía para que aprenda más.

Ya se anotó que entre 1965 y 1972 se inició el desarrollo de los primeros SE. Muchosde ellos de un alcance muy limitado. En esta etapa, se marcaron dos líneas deinvestigación: los métodos de búsqueda heurísticos y los métodos de deducciónautomática. La formalización de los procesos de búsqueda heurística fue realizada porNewell y Simon. En las técnicas de deducción automática se modela el conjunto decondiciones descriptivas de un problema y los mecanismos de transformación,mediante fórmulas de cálculo de predicados en un espacio de estados posibles. Comoresultado de este proceso, Robinson, en 1965, formuló la regla universal de inferenciade resolución y unificación.

El primer SE se denominó DENDRAL, fue desarrollado por Edward Feigenbaum,Bruce Buchanam y Joshua Lederberg en 1967 y se utiliza para resolver problemas deestructura química molecular. Es un intérprete de espectograma de masa. El Instituto deinvestigaciones de Stanford (1969) desarrolló el proyecto de robótica de Shakey, elprimer proyecto que demostró la total integración del razonamiento lógico y laactividad física. En la década del 70 aparece el SE MYCIN, el más influyente, que sedesarrolló para diagnóstico y terapia de enfermedades infecciosas bacterianas en lasangre. Era capaz de diagnosticar transtornos en la sangre y recetar la correspondientemedicación. La representación del conocimiento era mediante reglas de producción confactores de incertidumbre desarrollado por Feigenbaum, Buchanan y Eduard Shortliffeen la Universidad de Stanford. Feigenbaum (1971) dio inicio al proyecto deprogramación heurística. Sistemas expertos como MACSYMA, PROSPECTOR,MOLGEN, INTERNIST y CASNET desarrollado para el diagnóstico y tratamiento dela glaucoma, emplearon la representación del conocimiento mediante redes semánticas.

Reseña histórica de la IA

Universidad Nacional de Colombia 243

Etapa de prototipos (1970-1977). Es una etapa de consolidación. En ella seconstruyeron SE que hasta hoy se estudian, y de los cuales se han utilizado susformalismos de representación del conocimiento y de inferencia para la construcción deotros SE.

Etapa de experimentación (1977-1981). Es una etapa en la cual se empiezan aconsolidar ideas obtenidas anteriormente, sobre todo en lo que respecta a larepresentación del conocimiento. Comienzan a aparecer los "esqueletos" (shells) osistemas esenciales para la construcción de SE.

Etapa de industrialización (1981-a la fecha). Esta etapa se caracteriza por la difusiónde los SE, el surgimiento de los lenguajes especializados como EMYCIN, EXPERT,OPS5,... Además, comienzan a surgir empresas dedicadas al desarrollo ycomercialización de SE16.

Otros sistemas de gran trascendencia son:

PUFF. Diagnostica enfermedades pulmonares (empleado en el Pacific Medical Centerde San Francisco, EEUU).

SACON. Se utiliza en ingeniería estructural.

DART. Construido en la Universidad de Stanford con participación de IBM,diagnostica fallas en sistemas computacionales.

MACSYMA. Asistencia a ingenieros y científicos en la solución de ecuacionesmatemáticas complejas.

R1/XCOM. Desarrollado por Digital Equipment Corporation para realizarconfiguraciones de computadores VAX.

CADUCEUS. De la Universidad de Pittsburgh, diagnostica medicina interna.

CALLISTO. De la Universidad de Carnegie-Mellon, modela y proyecta grandesproyectos.

PROSPECTOR. De SRI International, prospecta yacimientos minerales (permitiódescubrir un depósito de molibdeno con valor superior a US$100 millones).

16 Muchos son los SE vacíos (shell o software que sirven para involucrar el conocimiento necesario)que podemos encontrar en el "mercado": EMYCIN (Essential Mycin), MYCIN94, OPS83, ESDE/VM(Expert System Development Environment), KEE (Knowledge Engineering Environment), EXSYSProfessional (Expert System), ART-ENTERPRISE, S1, MED1, NEXPERT OBJECT, PCPLUS, GURU,KES (Knowledge Expert System), KAS (Konwlegde Aplication System), IC (Intelligente Compiler),MICROEXPERT, CRYSTAL, ICARUS, entre otros.

Inteligencia artificial

Luis Carlos Torres Soler244

EURISKO. Programa que perfecciona su propio cuerpo de reglas heurísticasautomáticamente, por inducción.

SHRDLU. De Terry Winograd, profesor de Stanford, programa que era capaz demanipular formas simuladas de objetos como si fuesen piezas de Lego (famosojuego danés de construcción por bloques)

PIP, ABEL, ...

A esta lista podemos agregar una gran cantidad de aplicaciones militares y médicas.

La historia de la IA ha sido testigo de ciclos de éxito, injustificado optimismo y laconsecuente desaparición de entusiasmo y apoyos financieros. También ha existidociclos caracterizados por la introducción de nuevos y creativos enfoques y de unsistemático perfeccionamiento de los mejores. Han surgido debates sobre si la IA hadado (o dará) todo lo que prometía en un principio. Aunque muchas metas sonambiciosas, indudablemente ha resuelto una infinidad de problemas que hubiese sidomucho más complicado (o imposible) resolver de otra forma. Otro punto es ser unadisciplina nueva y "difusa" como para haber una definición formal y concisa sobre losplanes y metas a mediano y largo plazo. Como se vio, cada quien cree en cosas distintasy es muy difícil llegar a un consenso.

Algunas de las metas a mediano plazo son, entre muchas, el control de tráfico en víasrápidas, resumen de textos (summarization), búsqueda inteligente de información,asistentes digitales personales. De hecho, ya hay muchos prototipos de estos sistemas,sólo falta que funcionen fuera de una simulación. Estos avances, obviamente, se basanen las tendencias ya establecidas, haciéndoles modificaciones cuando es necesario, oalgunas veces creando una nueva rama.

Pero a largo plazo (¡aquí es donde se especula!), los avances chocan más con los límiteséticos, morales y filosóficos, que con los tecnológicos. ¿Las máquinas podrán ser másinteligentes que sus creadores? Algunos dirían que una máquina no sabe más que el quela hizo. ¿Pero si le enseñamos a aprender? ¿No es lo que sucede cuando decimos que"el alumno supera al maestro"? Tomemos, por ejemplo, un sistema que pruebateoremas. Los primeros de este tipo fueron creados en el decenio del 60. ¿Se podráhacer un sistema, que, dados los axiomas de un sistema, deduzca todos sus teoremas,habidos y por haber, y demostrarlos? ¿Quién utilizaría tal cantidad de información?Definitivamente, una máquina tendría que comprenderla.

Pero hasta ahora todos los computadores son electrónicos, y basadas en el modelo de lamáquina de Turing, von Newman, ... ¿Habrá otros tipos de computadores (biológicos,químicos, atómicos)? ¿Otros modelos de máquinas? ¡Y hay quienes dicen que laciencia está llegando a su fin! (Quizá para el ser humano tal y como lo conocemos).

Reseña histórica de la IA

Universidad Nacional de Colombia 245

Tal vez, a fin de cuentas, sí podemos demostrar la razón en términos de razón. Dándoletoda la vuelta a la ciencia. Con la matemática explicar la física, con ésta la química, conésta la biología, con ésta la sicología, con ésta la filosofía, con esta la matemática. Apesar, como Gödel, finalmente podremos decir que la ciencia sí es completa (o por lomenos, cíclica, y se comprende a sí misma).

Resumen

En el campo de la inteligencia artificial (IA) se distinguen dos tendencias: una queintentan simular el funcionamiento del cerebro humano y, la de los que realizanproyectos de máquinas inteligentes sin preocuparse especialmente de su semejanza conel comportamiento del individuo.

De esta forma se ha podido determinar los fines reales de la IA: entender la inteligenciahumana natural y utilizar máquinas que puedan absorber conocimiento con el que sepuedan resolver problemas intelectualmente complicados.

Sin embargo, a pesar del sano entusiasmo que conlleva el desarrollo de sistemas tansorprendentes, existen otros tipos de intereses que buscan sustituir la mente humana enla toma de decisiones bajo la argumentación de motivos como el siguiente:

La velocidad y la fiabilidad, con el fin de evitar la subjetividad inherente delser humano. Es así, como la IA, prácticamente desde que comienza a serfactible, está ligada al estudio. De hecho, gran parte de sus investigadores hansido profesores de universidades americanas tan prestigiosas como el MIT, quees el Instituto Tecnológico de Massachusetts, Stanford en California, launiversidad de Carnegie, de Wisconsin, de Washington, Universidad deEdimburgo, Upsala en Suecia, la de París, entre muchas otras y prestigiososlaboratorios. Ahora es claro, que bajo estos objetivos los desarrollos científicosserían de invalorable ayuda, por ejemplo, en la educación.

La inteligencia artificial (IA), aunque promete grandes desarrollos para la humanidad,ha sido enfocada en aplicaciones militares entre otras, que van precisamente en contradel objetivo planteado inicialmente. En algunos aspectos se plantea la posibilidad delimitar el campo de acción del desarrollo de la IA.