Upload
mauricio-huacho-checa
View
216
Download
1
Embed Size (px)
DESCRIPTION
control inteligente
Citation preview
Universidad de las Fuerzas Armadas Control Inteligente
Universidad de las Fuerzas Armadas - EspeControl Inteligente
Marcelo lvarez
Wladimir daz
Mauricio huacho
Richard ROBLES
Que pueden hacer los Perceptrones
Como sabemos si un perceptrn es lo suficientemente poderoso para solventar determinado problema
SI ni siquiera puede realizar la operacin de una compuerta XOR
Como pretendemos solucionar en la vida diaria problemas mas complejos
La frontera de decisin para la salida
Estar entre
Frontera de Decisin en dos Dimensiones
Para problemas simples de compuestas lgicas
Es fcil visualizar los que la red NN esta realizando
Esto es formando Limites de decisin entre clases
Hay que recordar que la salida de la red es
LMITES DE DECISIN PARA AND
Los lmites podemos trazar en base a los encontrados anteriormente.
Ecuacin del la lnea de frontera:
LMITES DE DECISIN PARA OR
Ecuacin del la lnea de frontera:
Es as como podemos cambiar los pesos y umbrales sin cambiar las decisiones.
LMITES DE DECISIN PARA XOR
SOLUCIONES:
Cambiar la funcin de transferencia de modo que tenga ms de una frontera de decisin.
Usar una red ms complejo que es capaz de generar lmites decisin ms complejos.
HIPERPLANOS DE DECISIN Y SEPARABILIDAD LINEAL
Si se tiene dos entradas, a continuacin, los pesos entonces de puede definir una frontera de decisin que es una lnea recta.
HIPERPLANOS DE DECISIN Y SEPARABILIDAD LINEAL
Si se tiene N entradas, los pesos definen una frontera de decisin que es un hiperplano de dimensin N 1, en el espacio de entrada N dimensional.
APRENDIZAJE Y GENERALIZACIN
APRENDIZAJE Y GENERALIZACIN
Existen 2 aspectos importantes de la operacin de una red:
APRENDIZAJE: La red debe aprender a tomar decisiones de frontera en un conjunto de patrones de entrenamiento para que estos estn clasificados correctamente.
GENERALIZACIN: Luego del entrenamiento, la red tambin debe ser capaz de clasificar correctamente patrones de prueba que nunca ha visto antes.
Nuestra red debe aprender bien y generalizar bien.
10
APRENDIZAJE Y GENERALIZACIN
Supongamos que la tarea de nuestra red es aprender a clasificar con un lmite de decisin :
No se requiere que los datos sean clasificados con precisin ya que es probable que se reduzca la capacidad de generalizacin.
11
ENTRENANDO UNA RED NEURONAL
El procedimiento general consiste en que la red aprenda cuales son los pesos adecuados de un conjunto representativo de datos de entrenamiento.
Se suele empezar con pesos iniciales aleatorios y ajustarlos en pequeos pasos hasta que se produzcan los resultados requeridos.
APRENDIZAJE DEL PERCEPTRN
Para los Perceptrones los lmites de decisin son hiperplanos, el aprendizaje es el proceso de cambio en torno a los hiperplanos hasta que cada patrn de entrenamiento se clasifique correctamente.
Si los pesos de la red al tiempo t son wij(t), entonces el proceso de cambio corresponde a moverlos por una cantidad wij (t) de modo que en el momento t + 1 tenemos pesos
FORMULANDO CAMBIOS EN LOS PESOS
Esta ecuacin de la actualizacin de peso del perceptrn se la llama REGLA DE APRENDIZAJE DEL PERCEPTRN, donde n es la tasa de aprendizaje determina la suavidad con que cambiamos la frontera de decisin.
FORMULANDO CAMBIOS EN LOS PESOS
Convergencia de la Regla del Aprendizaje del Perceptrn
El peso cambia necesita ser aplicada repetidas veces - para cada peso de en la red y para cada uno de los patrones de entrenamiento.
Se llama parte temporal o poca al paso de todos los pesos por una vez a travs del conjunto de entrenamientos.
Despus de muchas pocas, cuando todas las salidas de la red se ajustan a los objetivos de todos los patrones de entrenamiento, todos los se convierten en cero y el entrenamiento termina. Entonces se dice que el proceso de entrenamiento ha convergido en una solucin.
Convergencia de la Regla del Aprendizaje del Perceptrn
Se ha demostrado que si existe un posible conjunto de pesos por un perceptron el cual resuelva un problema correctamente, entonces la Regla de Aprendizaje del Perceptron los encontrara en un numero finito de iteraciones.
Por otra parte, si un problema es linealmente separable, entonces la Regla de Aprendizaje del Perceptron encontrar un conjunto de pesos en un numero finito de iteraciones que resuelva el problema correctamente.
GRACIAS