6
Mapas autorganizativos.( Self-organizing Feature Map) El orden para emular la actividad efervecente de un sistema biologico, sin haberse a implementado las conecciones de retroalimentacion no lineales centro-encendido/contorno-apagado, Kohenen diseñó la simplificacion siguiente. La red de mapa auto- organizativo (SOFM) primero determina a la neurona ganadora i* usando algun procedimiento conforme al nivel competitivo. Despues, el peso de los vectores para todas las neuronas dentro de una cierta cercania o vecindario de la neurona ganadora son actualizados usando la regla de Kohonen. i W(q) = i W (q-1) + (p(q) – i W(q-1))= (1-) i W (q-1) + p(q) i N i* (d) donde la vecindad N i* (d) contiene el indice para todas las neuronas que radican dentro del radio d de la neurona ganadora i*: N i* (d) ={ j, d ij d} Cuando un vector p es presentado, el peso de la neurona ganadora y de las vecindades se moverán hacia p. El resultado es que, despues de muchas presentaciones, las neuronas de las vecindades

redes neuronales Som

  • Upload
    escom

  • View
    2.464

  • Download
    0

Embed Size (px)

Citation preview

Page 1: redes neuronales Som

Mapas autorganizativos.( Self-organizing Feature Map)

El orden para emular la actividad efervecente de un sistema biologico, sin haberse a implementado las conecciones de retroalimentacion no lineales centro-encendido/contorno-apagado, Kohenen diseñó la simplificacion siguiente. La red de mapa auto-organizativo (SOFM) primero determina a la neurona ganadora i* usando algun procedimiento conforme al nivel competitivo. Despues, el peso de los vectores para todas las neuronas dentro de una cierta cercania o vecindario de la neurona ganadora son actualizados usando la regla de Kohonen.

iW(q) = iW (q-1) + (p(q) – iW(q-1))= (1-) iW (q-1) + p(q)

i Ni* (d)

donde la vecindad Ni* (d) contiene el indice para todas las neuronas que radican dentro del radio d de la neurona ganadora i*:

Ni* (d) ={ j, dij d}

Cuando un vector p es presentado, el peso de la neurona ganadora y de las vecindades se moverán hacia p. El resultado es que, despues de muchas presentaciones, las neuronas de las vecindades habrán aprendido vectores similares una de otra mutuamente.

Para demostrar el concepto de una vecindad, consideramos los diagramas de la figura 1.El diagrama de la izquierda ilustra a una vecindad de bidimensional deradio d=1 alrededor de la neurona 13. El diagrama de la derecha muestra una vecindad de radio d=2.

Page 2: redes neuronales Som

La definición de esta vecindad será:

N13(1) = {8,12,13,14,18},

N13(2) = {3,7,8,9,11,12,13,14,15,17,18,19,23}.

Las neuronas en un SOFM no tienen que ser acomodadas en un patron bidimensional. Esto es posible para el uso de un arreglo unidimensional, o incluso de tres o más dimensiones. Para una unidimension SOFM, una neurona solo tendrá dos vecinos dentro de su radio de 1 (o un simple vecino si la neurona es la ultima de la línea). Esto es posible para definir distancias en diferentes caminos. Kohonen sugirió vecindarios rectangulares y hexagonales para una implementación eficiente.

El desempeño de la red es insensible a la forma que tome el vecindario.

Ahora vamos a demostrar el desempeño de una red SOFM.Enla figura 2 se muestra una característica del mapa y la topología bidimensional de estas neuronas.

El diagrama de laizquierda muestra el vector inicial depesos para elmapa característico. Cada vector de pesos de tres elementos, esta representado por un punto sobre la esfera. (Los pesos son normalizados, por lo tanto esos caerán dentro de la superficie de una esfera.) Los puntos de las neuronas de la vecindad son conectadas por líneas, de esta manera tu puedes ver como la topología física de la red esta acomodada en el espacio de entrada.

El diagrama en la izquierda muestra una región cuadrada sobre la superficie de la esfera. Aleatoriamente escogeremos vectores en esta región y ellos representarán el mapa característico.

Cada vez que un vector es presentado, la neurona con el vector de pesos más cerrados ganará la competencia. La neurona ganadora y sus vecinos moverán su vector de pesos ya determinado hacia el

Page 3: redes neuronales Som

vector de entrada (y por lo tanto mutuamente entre ellas). Para este ejemplo usaremos una vecindad con un radio de 1.

El vector de pesos tiene dos tendencias:

La primera, ellos se extienden por fuera determinando el espacio de entrada conforme mas vectores son presentados.

La segunda, ellos se mueven hacia el vector de pesos de las neuronas vecinas.

Estas dos tendencias trabajan juntas para reestructurar las neuronas en el nivel, así ellas clasifican uniformente el espacio de entrada.

La serie de diagramas en la figura 3 puestra como los pesos de las veinticinco neuronas se extienden por fuera determinando la actividad del espacio de entrada y se organizan ellas mismas para competir en esta topología.

En este ejemplo, el vector de entrada fueron generados con igual probabilidad desde cualquier punto en el espacio de entrada. Por lo tanto, las neuronas clasifican de forma general e igual las áreas del espacio de entrada.

La figura 4 contiene más ejemplos de regiones de entrada y el resultado son mapas caracteristicos despues de la auto-organizarción.

Ocasionalmente los mapas característicos pueden fallar ajustando la topología de su espacio de entrada. Esto usualmente ocurre cuando dos partes de la red alteran la topología de separación de partes del espacio de entrada, pero la red forma un giro entre estas. Un ejemplo de esto es la firura 5.

Es dificil que este giro pueda ser removido, porque los dos finales de la red hace que se formen clasificaciones estables de regiones diferentes.

Page 4: redes neuronales Som

Perfeccionamiento de los mapas característicos.

De esta forma, hemos descrito solo el algoritmo más básico para entrenar los mapas característicos. Ahora vamos a considerar diversas tecnicas que pueden ser usadas para acelerar el proceso de auto-organización y para formaralgo más confiable.

Un método para perfecionar eldesempeño de los mapas característicos es el variar el tamaño de la duración de entrenamiento del vecindario. Inicialmente, el tamaño del vecindario, d, es un grupo grande. Conforme el entrenamiento progresa, d es gradualmente reducido, hasta que este solo incluye la neurona ganadora. Esta rapidez aumenta la auto-organización y hace de los giros en el mapa algo muy dificil (improbable).

El indice de entrenamiento puede ser también cambiado al aumentar el tiempo. Un valor inicial de 1 permite que las neuronas entrenen pronto a los vectores presentados. Durante aprendizaje, el indicador de entrenamiento es decrementado acercandolo a 0, de esta forma el aprendizaje llega a establecerse.

Otra alteración que acelera la auto-organización es el hacer que la neurona ganadora utilice un valor de aprendizaje más grande que el de las neuronas vecinas.

Finalmente, ambos niveles competitivos y los mapas característicos frecuentemente usan una expresion alternativa para la entrada a la red. En vez de utilizar el producto interno, ellos pueden directamente calcular la distancia entre el vector de entrada y el vector prototipo. La ventaja de usar la distancia es que los vectores de entrada no necesitan ser normalizados.

Page 5: redes neuronales Som