14
Integrantes Beatriz Ortiz V 200904970 Vanessa Porras 200607800 José Rodríguez 200813600 Alejandro Sabater 20111120581 Ileana Viejo 20111120833 OPTIMIZACIÓN POR ENJAMBRE DE PARTICULAS

PresentaciónPDFFinal.pdf

Embed Size (px)

Citation preview

Page 1: PresentaciónPDFFinal.pdf

Integrantes

Beatriz Ortiz V 200904970

Vanessa Porras 200607800

José Rodríguez 200813600

Alejandro Sabater 20111120581

Ileana Viejo 20111120833

OPTIMIZACIÓN POR ENJAMBRE DE PARTICULAS

Page 2: PresentaciónPDFFinal.pdf

IntroducciónOptimización por Enjambre de Partículas (PSO) es una metaheurística evolutiva y de búsqueda, el cual hace referencia a una serie de métodos y algoritmos de optimización heurísticos que evocan el comportamiento de los enjambres de abejas en la naturaleza.

A partir de una población de soluciones candidatas, denotadas como "partículas", moviendo éstas por todo el espacio de búsqueda tienen en cuenta la posición y la velocidad de las partículas. El movimiento de cada partícula se ve influido por su mejor posición local hallada hasta el momento, así como por las mejores posiciones globales encontradas por otras partículas a medida que recorren el espacio de búsqueda. Se escoge una líder, que es la partícula que mejor solución ha encontrado hasta el momento y es la que guiara a la población. 

Page 3: PresentaciónPDFFinal.pdf

Introducción

Cada partícula evoluciona teniendo en cuenta la mejor solución encontrada en su recorrido y al líder. En cada iteración, las partículas modifican su velocidad hacia la mejor solución de su entorno teniendo en cuenta la información del líder.

El fundamento teórico de esto es hacer que la nube de partículas converja rápidamente hacia las mejores soluciones.

PSO asume pocas o ninguna hipótesis sobre el problema a optimizar y puede aplicarse en grandes espacios de soluciones candidatas. Sin embargo, como toda metaheurística, no garantiza la obtención de una solución optimal en todos los casos.

Page 4: PresentaciónPDFFinal.pdf

Principales Exponentes

James Kennedy Nació el 5 de Noviembre de 1950, es un psicólogo social americano, que trabaja en métodos de investigación en el Departamento de Trabajo de EE.UU. Ha llevado a cabo varias investigaciones básicas y aplicadas sobre los efectos sociales de la cognición y la actitud. Siendo la optimización por enjambre de partículas su investigación mas reconocida.

Page 5: PresentaciónPDFFinal.pdf

Principales ExponentesRussell C. Eberhartingeniero eléctrico estadounidense, mejor conocido como el co-creador del concepto de optimización de enjambre de partículas junto con James Kennedy. Es profesor de Ingeniería Eléctrica y Computación, y profesor adjunto de Ingeniería Biomédica en la Escuela de Purdue de Ingeniería y Tecnología, Universidad de Indiana Purdue University Indianapolis (IUPUI). Amigo del IEEE. Miembro del Instituto Americano de Ingeniería Médica y Biológica. [1] Obtuvo un doctorado en ingeniería eléctrica de la Universidad Estatal de Kansas en 1972. Y fue editor asociado de la revista IEEE Transactions on Evolutionary Computation (Transacciones sobre Computación Evolutiva) y el ex presidente del Consejo de Redes Neuronales IEEE.

Page 6: PresentaciónPDFFinal.pdf

AplicacionesLa optimización por enjambre de partículas ha sido utilizada con gran éxito para solucionar problemas del tipo continuo. Algunos ejemplos donde se ha demostrado su efectividad son: a. Entrenamiento de redes neuronales (Eberhart y Shi, 2001). El método puede ser aplicado a cualquier tipo de red neuronal.  b. Funciones continuas no lineales (Ching-Jong,et al.2007). En términos generales PSO puede ser utilizado para resolver la mayoría de los problemas de optimización. Sin embargo, la definición clásica del método no funciona para problemas combinatorios.

Page 7: PresentaciónPDFFinal.pdf

Conceptos y Definiciones Básicos• Computación Evolutiva: estudia algoritmos de búsqueda y optimización inspirados en los mecanismos de la genética y la selección natural. 

• Metaheurísticas: Desde los años sesenta han ido apareciendo diferentes métodos de resolución de problemas conocidos por el nombre de técnicas metaheurísticas Éstas son procedimientos de búsqueda que no garantizan la obtención del óptimo del problema considerado y que se basan en la aplicación de reglas relativamente sencillas.

• Algoritmo: es un conjunto finito de instrucciones o pasos que sirven para ejecutar una tarea y/o resolver un problema. De un modo mas formal, un algoritmo es una secuencia finita de operaciones realizables, no ambiguas, cuya ejecución da una solución de un problema en un tiempo finito.

Page 8: PresentaciónPDFFinal.pdf

Conceptos y Definiciones Básicos

• Genético:  Parte de la biología que estudia las leyes de la herencia y de todo lo relativo a ella.

• Optimización: Búsqueda de la mejor manera de realizar una actividad.

• Función lineal: es una función polinómica de primer grado; es decir, una función cuya representación en el plano cartesiano es una línea recta. Esta función se puede escribir como:

Page 9: PresentaciónPDFFinal.pdf

EjemploComo ejemplo utilizaremos un Enjambre de abejas, la cual tienen como objetivo buscar polen en la región del espacio en la que existe más densidad de flores, ya que es ahí donde se consigue mayor cantidad de polen.

Explicación del MétodoEl espacio de soluciones está formulado como un espacio de dimensión.En él una población “el enjambre” de partículas que este caso serian las abejas de tamaño n, que actúan de agentes de búsqueda, se mueven en el espacio de soluciones guiadas por los miembros del enjambre que han obtenido las mejores posiciones, mejores valores de la función objetivo f. El tamaño del enjambre suele oscilar entre 20 y 40 partículas. 

Page 10: PresentaciónPDFFinal.pdf

EjemploCada partícula i se comunica con un entorno N(i), Este entorno puede ser parte o todo el enjambre, y puede variar dinámicamente. las partículas se renuevan cada vez que mejora la posición grupal dichas partículas i guardan información de la mejor posición obtenida, La información de las mejores posiciones influye en el comportamiento de la partícula.

Cada partícula i del enjambre lleva asociados los siguientes vectores:

P[i] posición actual, 

V[i] velocidad actual, 

Pbest[i] posición de la mejor solución encontrada, 

Gbest[i] mejor posición obtenida por cualquier partícula del entorno.

Page 11: PresentaciónPDFFinal.pdf

Ejemplo

Pasos para elaborar el método

Paso I: Inmersión aleatoria de los insectos en el espacio de búsqueda: 

A las partículas al inicio se les asigna una posición aleatoria P0[i] , dentro de su región factible, y así mismo se les asigna una velocidad aleatoria V0[i], con valores en la región factible, para evitar que la partícula se "escape" a posiciones no factibles. 

Se va almacenando la mejor posición por la que pasa cada partícula i, que inicialmente es f_best[i] = +∞. Análogamente se hace lo mismo con la mejor solución del entorno al que pertenece i, f_best_grupo[i].

Page 12: PresentaciónPDFFinal.pdf

EjemploPaso II: Actualizando la velocidad y posición de las partículas: 

Tras cada iteración hay que recalcular la velocidad, y actualizar la posición de los insectos a partir de las nuevas velocidades. Así para la partícula i su velocidad es:

Nota: c_inercia parámetro que representa el efecto de la inercia, controlando el efecto de la velocidad y evitando que crezca indefinidamente;

c_confianza1 y c_confianza2 son parámetros que marcan la confianza de la partícula en sí misma y en su grupo. 

Los valores rnd1 y rnd2 son números aleatorios entre 0 y 1. 

V[i]= c_inercia.V[i] + c_confianza1 .rnd1.(Pbest[i]- P[i])+ c_confianza2 .rnd2. (Gbest[i]- P[i]) (*)

Page 13: PresentaciónPDFFinal.pdf

EjemploPaso III: Actualización de las mejores soluciones de cada partícula: 

En una matriz Pbest[i] vamos almacenando la mejor posición de cada insecto y en otra matriz, f_best[i], el mejor valor de la función objetivo. Tras cada iteración si la solución obtenida por la partícula i es mejor que la mejor conocida hasta ese momento son actualizadas Pbest[i] y f_best[i]. Así mismo en la matriz Gbest[i] se va almacenando la mejor posición del entorno de la partícula i. Tras cada iteración si la solución obtenida por alguna de las partículas de N(i ) es mejor que la mejor conocida hasta ese momento es actualizada Gbest[j],A j E N(i ).

Page 14: PresentaciónPDFFinal.pdf

Bibliografía• http://posgrado.itlp.edu.mx/uploads/4f33d8bfedc85.pdf

• http://pitagoras.usach.cl/~gfelipe/clei/sesiones/sesion_6/Pdf_6/254.pdf

• http://amcantu.blogspot.com/2010/12/optimizacion-de-enjambres-de-particulas.html

• http://ldc.usb.ve/~gabro/ec.htm

•http://www.urbe.edu/info-consultas/web-profesor/12697883/archivos/Introduccion%20a%20la%20computacion2/Ingenieria/Contenido%20Materia/UnidadII-Datos-AlgoritmoyPseudocodigos.pdf

• http://www.iol.etsii.upm.es/arch/metaheuristicas.pdf

• http://www.wordreference.com/