Upload
ivan-cardozo
View
215
Download
0
Embed Size (px)
DESCRIPTION
electiva
Citation preview
REPÚBLICA BOLIVARIANA DE VENEZUELA
MINISTERIO DEL PODER POPULAR DE LA EDUCACIÓN SUPERIOR
UNIVERSIDAD NACIONAL EXPERIMENTAL RÓMULO GALLEGOS
AIS: INGENIERÍA EN INFORMÁTICA
UNIDAD CURRICULAR: ELECTIVA V
SAN JUAN DE LOS MORROS – EDO. GUÁRICO
Profesor: Bachilleres:
Omar Godon C.I. 20588989 Valera Marisol
Sección: 1 C.I.22950148Padilla Lee
Abril – 2013.
DEFINICION DE INTELIGENCIA ARTIFICIAL
Debido a que la inteligencia artificial tuvo muchos padres no hay un
consenso para definir ese concepto, pero podemos decir que la inteligencia
artificial se encarga de modelar la inteligencia humana en sistemas
computacionales.
La inteligencia artificial se basa en dos áreas de estudio: el cuerpo
humano y el ordenador electrónico. Puesto que la meta es copiar la
inteligencia humana, es necesario entenderla. Sin embargo, a pesar de todos
los progresos en Neurología y Psicología, la inteligencia del hombre se
conoce poco, exceptuando sus manifestaciones externas. Muchos
estudiosos de la inteligencia artificial se han vuelto para obtener su modelo
de inteligencia hacia el estudio de la Psicología cognoscitiva, que aborda la
forma de percibir y pensar de los seres humanos.. Después comprueban sus
teorías programando los ordenadores para simular los procesos
cognoscitivos en el modelo. Otros investigadores intentan obtener teorías
generales de la inteligencia que sean aplicables a cualquier sistema de
inteligencia y no solo al del ser humano.
Por lo cual puede decirse que la Inteligencia Artificial (IA) es una de las
áreas más fascinantes y con más retos de las ciencias de la computación, en
su área de ciencias cognoscitivas. Nació como mero estudio filosófico
y razonistico de la inteligencia humana, mezclada con la inquietud del
hombre de imitar la naturaleza circundante (como volar y nadar), hasta
inclusive querer imitarse a sí mismo. Sencillamente, la Inteligencia Artificial
busca el imitar la inteligencia humana. Obviamente no lo ha logrado todavía,
al menos no completamente.
HISTORIA
La Inteligencia Artificial "nació" en 1943 cuando Warren McCulloch y
Walter Pitts propusieron un modelo de neurona del cerebro humano y animal.
Estas neuronas nerviosas abstractas proporcionaron una representación
simbólica de la actividad cerebral.
Más adelante, Norbert Wiener elaboró estas ideas junto con otras,
dentro del mismo campo, que se llamó "cibernética"; de aquí nacería, sobre
los años 50, la Inteligencia Artificial.Los primeros investigadores de esta
innovadora ciencia, tomaron como base la neurona formalizada de
McCulloch y postulaban que:
“El cerebro es un solucionador inteligente de problemas, de modo que
imitemos al cerebro”.
Pero si consideramos la enorme complejidad del mismo esto es ya
prácticamente imposible, ni que mencionar que el hardware de la época ni el
software estaban a la altura para realizar semejantes proyectos. Se comenzó
a considerar el pensamiento humano como una coordinación de tareas
simples relacionadas entre sí mediante símbolos. Se llegaría a la realización
de lo que ellos consideraban como los fundamentos de la solución inteligente
de problemas, pero lo difícil estaba todavía sin empezar, unir entre sí estas
actividades simples.
Es en los años 50 cuando se logra realizar un sistema que tuvo cierto
éxito, se llamó el Perceptrón de Rossenblatt. Éste era un sistema visual de
reconocimiento de patrones en el cual se asociaron esfuerzos para que se
pudieran resolver una gama amplia de problemas, pero estas energías se
diluyeron enseguida.
Fue en los años 60 cuando Alan Newelly Herbert Simon, que
trabajando la demostración de teoremas y el ajedrez por ordenador logran
crear un programa llamado GPS (General ProblemSolver: solucionador
general de problemas). Éste era un sistema en el que el usuario definía un
entorno en función de una serie de objetos y los operadores que se podían
aplicar sobre ellos. Este programa era capaz de trabajar con las torres de
Hanoi, así como con criptoaritmética y otros problemas similares, operando,
claro está, con microcosmos formalizados que representaban los parámetros
dentro de los cuales se podían resolver problemas. Lo que no podía hacer el
GPS era resolver problemas ni del mundo real, ni médicos ni tomar
decisiones importantes. El GPS manejaba reglas heurísticas (aprender a
partir de sus propios descubrimientos) que la conducían hasta el destino
deseado mediante el método del ensayo y el error.
En los años 70, un equipo de investigadores dirigido por Edward
Feigenbaum comenzó a elaborar un proyecto para resolver problemas de la
vida cotidiana o que se centrara, al menos, en problemas más concretos. Así
es como nació el sistema experto.El primer sistema experto fue el
denominado Dendral, un intérprete de espectrograma de masa construido en
1967, pero el más influyente resultaría ser el Mycin de 1974. El Mycin era
capaz de diagnosticar trastornos en la sangre y recetar la correspondiente
medicación, todo un logro en aquella época que incluso fueron utilizados en
hospitales (como el Puff, variante de Mycin de uso común en el Pacific
Medical Center de San Francisco, EEUU).
Ya en los años 80, se desarrollaron lenguajes especiales para utilizar
con la Inteligencia Artificial, tales como el LISP o el PROLOG. Es en esta
época cuando se desarrollan sistemas expertos más refinados, como por el
ejemplo el EURISKO. Este programa perfecciona su propio cuerpo de reglas
heurísticas automáticamente, por inducción.
Desarrollo Histórico (según Jackson, 1986)
1950-1965 Periodo “clásico”.
Gestación (McColluck y Pitts, Shannon, Turing)
Inicio - reunión de DarmouthCollege en 1956 (Minsky, McCarthy)
Redes neuronales, robótica (Shakey)
Búsqueda en un espacio de estados, Heurísticas, LISP
Solucionador general de problemas (GPS) (Newell, Simon)
Juegos, prueba de teoremas
Limitaciones de pura búsqueda, explosión combinatoria.
1965-1975 Periodo “romántico”.
Representación “general” del conocimiento.
Redes semánticas (Quillian)
Prototipos (frames) (Minsky)
Perceptrón (Minsky y Papert)
Lógica (Kowalski)
Mundo de bloques (SHDRLU) (Winograd)
Compresión de lenguaje, visión, robótica.
Dificultades de representación “general”, problemas de “juguete”.
1975-Hoy Periodo “moderno”. Inteligencia “especifica” vs. “general”.
Representación explícita del conocimiento específico del dominio.
Sistemas expertos o basados en conocimiento.
Regreso de redes neuronales (Hopfield, Rumelhart, Hinton),
algoritmos genéticos (Holland, Goldberg) Reconocimiento de voz
(HMM), incertidumbre (RB, Lógica difusa), planeación, aprendizaje.
Aplicaciones “reales” (medicina, finanzas, ingeniería, exploración,
etc.).
Limitaciones: conocimiento “superficial”
Desarrollo Histórico (según Russell y Norvig, 1995):
Gestación (1943-1956):
McCullock y Pitts (1943)
Hebb (1949)
Shannon (1950)
Turing (1953)
Minsky y Edmonds (1951)
DarmouthCollege (1956)
McCarthy, Newell y Simon, « The LogicTheorist »
Entusiasmo y grandes expectativas (1952-1969):
Samuel - checkers (1952)
McCarthy (1958): LISP: time sharing, Programs withcommonsense.
Minsky y McCarthy en MIT moldearon mucho del área.
Minsky, Evans, Student, Waltz, Winston, Winograd, etc.
Trabajo en RN: Hebb, Widrow, Rosenblatt
Dosis de realidad (1966-1974):
Simon predecía que en 10 años se tendría una máquina inteligente.
Predicciones similares en traducción automática y ajedrez.
Teoría de NP- completness.
Experimentos en machine evolution (ahora algoritmos genéticos;
estaban bien fundados pero no produjeron nada.) (Friedberg, 1958)
Minsky y PapertPerceptrons (1969) (aunque irónicamente el mismo
año se descubrió backpropagation (Bryson y Ho))
Sistemas basados en conocimiento (1969-1979):
Dendral, Mycin, HPP, Prospector, Winograd, SHDRLU, Shank (no hay
sintáxis), frames, Prolog, Planner
IA como industria (1980-1988):
R1/XCON, proyecto de la quinta generación, shells y máquinas de
LISP.
Regreso de redes neuronales (1986-presente):
Hopfield, Rumelhart y Hinton y descenso de los SE
Eventos recientes (1987-1995-2000-hoy)
Avances y utilización de tecnología para el reconocimiento de imagen,
voz y sonido.
Beliefnetworks, "probabilidades" que permiten formalismo para tratar
incertidumbre.
Desarrollo de mecanismos lógicos para tratar incertidumbre. Ej.lógica
difusa, lógica modal,
Razonamiento:
– Satisfacción de restricciones
– Búsqueda heurística
– Razonamiento basado en modelos
– Razonamiento no monótono
– Planificación de tareas y scheduling
– Razonamiento cualitativo
– Razonamiento con incertidumbre
– Razonamiento temporal y espacial
Aprendizaje Automático:
– Razonamiento basado en casos
– Análisis de datos
– Computación evolutiva
– Redes de neuronas
– Aprendizaje por refuerzo
Ingeniería del Conocimiento y Aplicaciones:
– Lógica
– Sistemas de apoyo a la decisión
– Interacción hombre-máquina inteligente
– Gestión del conocimiento
– Representación del conocimiento
– Ontologías y Web semántica
– Sistemas Multi-agente e IA distribuida
Robótica, Percepción, Procesamiento Del Lenguaje Natural:
– Robótica y control
– Procesamiento del lenguaje natural
– Percepción (visión, reconocimiento del habla)
– Creatividad, juegos, inteligencia ambiental
ENFOQUES:
Los 4 enfoques
Actuar como humano: el enfoque de la prueba de Turing.El modelo es el
hombre; el objetivo es construir unsistema que pase por humano.
Prueba de Turing (1950): si un sistema la pasa es inteligente. Capacidades
necesarias:
Procesamiento del lenguaje natural
Representación del conocimiento
Razonamiento
Aprendizaje.
Pasar la Prueba no es el objetivo primordial de la IA. La interacción de
programas con personas hace que sea importante que éstos puedan actuar
como humanos.
Pensar como humano: el enfoque delmodelo cognitivo. (Ciencia
Cognitiva)El modelo es el funcionamiento de lamente humana.
Se intenta establecer una teoría sobre el funcionamiento de la mente
(experimentación psicológica).
A partir de la teoría se pueden establecer modelos computacionales.
Influencia de las neurociencias y de las ciencias cognitivas.
Pensar racionalmente: el enfoque de las leyes del pensamiento.
(Silogismos, lógica). Los humanos no son siempre racionales.
Aristóteles fue el primero en intentar definir unproceso de raciocinio
irrefutable.El desarrollo los silogismos
Los silogismos establecen estructuras de argumentaciónque siempre llevan a
conclusiones correctas, a partir depremisas correctas.
“Sócrates es un hombre”
“Todos los hombres son mortales”entonces “Sócrates es mortal”.
Esto inicio el campo de la lógica.
Este campo fue expandido en el siglo XIX porBoole, Pascal, Bayes, etc.
Existen dos problemas con este enfoque:
Dificultad de definir el conocimiento informal y colocarloen notación lógica
(especialmente cuando el conocimientono es 100% preciso).
Existe una gran diferencia entre resolver un problema enla teoría y en la
práctica.
Actuar en forma racional: el enfoque delagente racional. (Agentes, percepción,Acciones). Implica la personalidad y actitud lógica según un pensamiento razonado.
UTILIDAD
AREAS DE APLICACIÓN:
La Inteligencia Artificial influye en varios campos de desarrollo tales
como: la robótica, en el campo industrial; comprensión de lenguajes y
traducción; visión en máquinas que se usan en líneas de ensamblaje;
reconocimiento de palabras y aprendizaje de máquinas; sistemas
computacionales expertos entre otros.Los sistemas expertos, que
reproducen el comportamiento humano en un estrecho ámbito del
conocimiento, son programas tan variados como los que diagnostican
infecciones en la sangre e indican un tratamiento, los que interpretan datos
sismológicos en exploración geológica y los que configuran complejos
equipos de alta tecnología. Tales tareas reducen costos, reducen riesgos en
la manipulación humana en áreas peligrosas, mejoran el desempeño del
personal inexperto, y mejoran el control de calidad sobre todo en el ámbito
comercial.
METODOLOGIA
1. La lógica difusa: permite tomar decisiones bajo condiciones de incerteza.
2. Redes neuronales: esta tecnología es poderosa en ciertas tareas como la
clasificación y el reconocimiento de patrones. Está basada en el concepto de
"aprender" por agregación de un gran número de muy simples elementos.
Este modelo considera que una neurona puede ser representada por
una unidad binaria: a cada instante su estado puede ser activo o inactivo. La
interacción entre las neuronas se lleva a cabo a través de sinapsis. Según el
signo, la sinapsis es excitadora o inhibidora.
El perceptrón está constituido por las entradas provenientes de
fuentes externas, las conexiones y la salida. En realidad un perceptrón es
una Red Neuronal lo más simple posible, es aquella donde no existen capas
ocultas.
Para cada configuración de los estados de las neuronas de entrada
(estímulo) la respuesta del perceptrón obedece a la siguiente dinámica: se
suman los potenciales sinápticos y se comparan con un umbral de
activación. Esta suma ponderada es también llamada campo. Si el campo es
mayor que un umbral, la respuesta de la neurona es activa, si no, es inactiva.
Con una arquitectura tan simple como la del perceptrón no se puede
realizar más que una clase de funciones "booleanas" muy simples, llamadas
linealmente separables. Son las funciones en las cuales los estados de
entrada con salida positiva pueden ser separados de aquellos a salida
negativa por un hiperplano. Un hiperplano es el conjunto de puntos en el
espacio de estados de entrada, que satisfacen una ecuación lineal. En dos
dimensiones, es una recta, en tres dimensiones un plano, etc.
Si se quieren realizar funciones más complejas con Redes
Neuronales, es necesario intercalar neuronas entre las capas de entradas y
de salida, llamadas neuronas ocultas. Una red multicapas puede ser definida
como un conjunto de perceptrones, ligados entre si por sinapsis y dispuestos
en capas siguiendo diversas arquitecturas. Una de las arquitecturas más
comúnmente usada es llamada feedforward: con conexiones de la entrada a
las capas ocultas y de éstas hacia la salida.
El funcionamiento de una Red Neuronal es gobernado por reglas de
propagación de actividades y de actualización de los estados.
TECNICAS:
Aprendizaje Automàtico (Machine Learning) Ingenierìa del conocimiento (KnowledgeEngineering) Lògica difusa (FuzzyLogic) Redes neuronales artificiales (Artificial Neural Networks) Sistemas reactivos (Reactive Systems) Sistemas multi-agente (Multi-AgentSystems) Sistemas basados en reglas (Rule-BasedSystems) Razonamiento basado en casos (Case-BasedReasoning) Sistemas expertos (ExpertSystems) Redes Bayesianas (Bayesian Networks) Vida artificial (Artificial Life). La VA no es un campo de la IA, sino que la IA
es un campo de la VA. Computaciòn evolutiva (EvolutionaryComputation) Estrategias evolutivas Algoritmos genèticos (GeneticAlgorithms) Tècnicas de Representaciòn de Conocimiento Redes semànticas (Semantic Networks)m Frames Vision artificial Audicion artificial Linguìstica computacional Procesamiento del lenguaje natural (Natural LanguageProcessing) Minerìa de datos (Data Mining)
RELACIÒN CON LA INGENIERÌA INFORMÀTICA
La Inteligencia Artificial es una rama de la informática que estudia la
inteligencia e intenta imitarla de forma artificial, la inteligencia artificial tiene
relación ya que usan sistemas que razonan Esta rama es la encargada de
desarrollar sistemas con capacidad real o aparente de dialogar de forma
inteligente y, consecuentemente, de razonar.
La programación es usada en los robots por eso es muy importante la
ingeniería en informática con la inteligencia artificial. La programación que se
emplea en la robótica tiene caracteres diferentes: explícito, en el cual el
operador es el responsable de las acciones de control y de las instrucciones
adecuadas que las implementan, o estar basada en la modelación del mundo
exterior, cuando se describe la tarea y el entorno y el propio sistema toma las
decisiones.
Introducción
La inteligencia artífica es de gran importancia porque su argumento
es muy extenso ya que no es algo inalcanzable, sino que al contrario se
encuentra presente en nuestras vidas cotidianas. Ella desea emular el
comportamiento de los seres vivos; como principal aplicación de esta ciencia
es la creación de máquinas para la automatización de tareas que requieran
un comportamiento inteligente. La misma viene basada desde una historia
nacía en el año 1943, pasando por varios periodos que en ella se razonan.
Se considera la inteligencia artificial basándose en unos enfoques que
suministran el comportamiento de cada uno de ellos como: el pensar, el
actuar, entre otros. Las técnicas que ella lleva proporcionada; acotando las
áreas de aplicación que en ella se desarrollan y sin dejar atrás las
metodologías con quien ellas se relacionan.
Conclusión.
La Inteligencia Artificial es una rama de la informática que estudia la
inteligencia e intenta imitarla de forma artificial, la inteligencia artificial tiene
relación ya que usan sistemas que razonan; esta viene basada en la relación
que existe con la ingeniería en informática, destacando como principal la
programación que es usada en los robots. Asimismo se puede manifestar
que la inteligencia artificial se basa en dos áreas de estudio: el cuerpo
humano y el ordenador electrónico. Puesto que la meta es copiar la
inteligencia humana, es necesario entenderla. Ella nace 1943 cuando Warren
McCulloch y Walter Pitts propusieron un modelo de neurona del cerebro
humano y animal; señalando varios desarrollos históricos según su
evolución.
La Inteligencia Artificial influye en varios campos de desarrollo tales
como: la robótica, en el campo industrial; comprensión de lenguajes y
traducción; visión en máquinas que se usan en líneas de ensamblaje;
reconocimiento de palabras y aprendizaje de máquinas; sistemas
computacionales expertos entre otros.
Las metodologías que en ellas se converge son la lógica difusa la cual
permite tomar decisiones bajo condiciones de incerteza. Y las de redes
neuronales donde explica que está basada en el concepto de "aprender" por
agregación de un gran número de muy simples elementos.
Bibliografía.
http://espanol.answers.yahoo.com/question/index?
qid=20080107132505AAfYNYK
http://www.buenastareas.com/ensayos/Relaci%C3%B3n-
Entre-La-Ingenier%C3%ADa-En-Inform%C3%A1tica/
3898519.html
http://www.monografias.com/trabajos16/inteligencia-
artificial-historia/inteligencia-artificial-historia.shtml