18
Universidad de las Fuerzas Armadas - Espe Control Inteligente MARCELO ÁLVAREZ WLADIMIR DÍAZ MAURICIO HUACHO RICHARD ROBLES

algoritmos

Embed Size (px)

DESCRIPTION

control inteligente

Citation preview

Universidad de las Fuerzas Armadas Control Inteligente

Universidad de las Fuerzas Armadas - EspeControl Inteligente

Marcelo lvarez

Wladimir daz

Mauricio huacho

Richard ROBLES

Que pueden hacer los Perceptrones

Como sabemos si un perceptrn es lo suficientemente poderoso para solventar determinado problema

SI ni siquiera puede realizar la operacin de una compuerta XOR

Como pretendemos solucionar en la vida diaria problemas mas complejos

La frontera de decisin para la salida

Estar entre

Frontera de Decisin en dos Dimensiones

Para problemas simples de compuestas lgicas

Es fcil visualizar los que la red NN esta realizando

Esto es formando Limites de decisin entre clases

Hay que recordar que la salida de la red es

LMITES DE DECISIN PARA AND

Los lmites podemos trazar en base a los encontrados anteriormente.

Ecuacin del la lnea de frontera:

LMITES DE DECISIN PARA OR

Ecuacin del la lnea de frontera:

Es as como podemos cambiar los pesos y umbrales sin cambiar las decisiones.

LMITES DE DECISIN PARA XOR

SOLUCIONES:

Cambiar la funcin de transferencia de modo que tenga ms de una frontera de decisin.

Usar una red ms complejo que es capaz de generar lmites decisin ms complejos.

HIPERPLANOS DE DECISIN Y SEPARABILIDAD LINEAL

Si se tiene dos entradas, a continuacin, los pesos entonces de puede definir una frontera de decisin que es una lnea recta.

HIPERPLANOS DE DECISIN Y SEPARABILIDAD LINEAL

Si se tiene N entradas, los pesos definen una frontera de decisin que es un hiperplano de dimensin N 1, en el espacio de entrada N dimensional.

APRENDIZAJE Y GENERALIZACIN

APRENDIZAJE Y GENERALIZACIN

Existen 2 aspectos importantes de la operacin de una red:

APRENDIZAJE: La red debe aprender a tomar decisiones de frontera en un conjunto de patrones de entrenamiento para que estos estn clasificados correctamente.

GENERALIZACIN: Luego del entrenamiento, la red tambin debe ser capaz de clasificar correctamente patrones de prueba que nunca ha visto antes.

Nuestra red debe aprender bien y generalizar bien.

10

APRENDIZAJE Y GENERALIZACIN

Supongamos que la tarea de nuestra red es aprender a clasificar con un lmite de decisin :

No se requiere que los datos sean clasificados con precisin ya que es probable que se reduzca la capacidad de generalizacin.

11

ENTRENANDO UNA RED NEURONAL

El procedimiento general consiste en que la red aprenda cuales son los pesos adecuados de un conjunto representativo de datos de entrenamiento.

Se suele empezar con pesos iniciales aleatorios y ajustarlos en pequeos pasos hasta que se produzcan los resultados requeridos.

APRENDIZAJE DEL PERCEPTRN

Para los Perceptrones los lmites de decisin son hiperplanos, el aprendizaje es el proceso de cambio en torno a los hiperplanos hasta que cada patrn de entrenamiento se clasifique correctamente.

Si los pesos de la red al tiempo t son wij(t), entonces el proceso de cambio corresponde a moverlos por una cantidad wij (t) de modo que en el momento t + 1 tenemos pesos

FORMULANDO CAMBIOS EN LOS PESOS

Esta ecuacin de la actualizacin de peso del perceptrn se la llama REGLA DE APRENDIZAJE DEL PERCEPTRN, donde n es la tasa de aprendizaje determina la suavidad con que cambiamos la frontera de decisin.

FORMULANDO CAMBIOS EN LOS PESOS

Convergencia de la Regla del Aprendizaje del Perceptrn

El peso cambia necesita ser aplicada repetidas veces - para cada peso de en la red y para cada uno de los patrones de entrenamiento.

Se llama parte temporal o poca al paso de todos los pesos por una vez a travs del conjunto de entrenamientos.

Despus de muchas pocas, cuando todas las salidas de la red se ajustan a los objetivos de todos los patrones de entrenamiento, todos los se convierten en cero y el entrenamiento termina. Entonces se dice que el proceso de entrenamiento ha convergido en una solucin.

Convergencia de la Regla del Aprendizaje del Perceptrn

Se ha demostrado que si existe un posible conjunto de pesos por un perceptron el cual resuelva un problema correctamente, entonces la Regla de Aprendizaje del Perceptron los encontrara en un numero finito de iteraciones.

Por otra parte, si un problema es linealmente separable, entonces la Regla de Aprendizaje del Perceptron encontrar un conjunto de pesos en un numero finito de iteraciones que resuelva el problema correctamente.

GRACIAS