View
6
Download
0
Category
Preview:
Citation preview
IEL-1-I-05-13
1
DISEÑO DE CONTROLADORES NEURO DIFUSOS.
SANDRA LORENA SIERRA CASTRO.
UNIVERSIDA D DE LOS ANDES
DEPARTAMENTO DE INGENIERIA ELECTRICA Y EL ECTRONICA FACULTADA DE INGENI ERIA.
BOGOTA D.C. – COLOM BIA.
2005
IEL-1-I-05-13
2
DISEÑO DE CONTROLADORES NEURO DIFUSOS.
SANDRA LORENA SIERRA CASTRO.
Proyecto de Gr ado para optar el título de Ingeniera Eléctrica.
ASESOR:
IVAN CASTILLO CONTRERAS.
UNIVERSIDA D DE LOS ANDES.
DEPARTAMENTO DE INGENIERIA ELECTRICA Y EL ECTRONICA. FACULTADA DE INGENI ERIA.
BOGOTA D.C. – COLOM BIA.
2005.
IEL-1-I-05-13
3
AGRADECIMIENTOS
Este es el reflejo de una larga etapa que aquí culmina, y al igual que
cualquier otra construcc ión que finaliza, es imposible no menc ionar a
aquellos que fueron los pilares y los ladrillos más importantes, que
soportaron todo este proceso en los momentos más dif íc iles.
Por esto y mas, grac ias a mi familia y a Dar ío, por su constante apoyo, que
hicieron esto posible.
IEL-1-I-05-13
4
CONTENIDO
Pág.
RESUMEN........………………………………………………………………… 1
OBJETIVO GENERAL………………………………………………………… 2
INTRODUCCION………………………………………………………………. 3
DESCRIPCIÓN DEL PROBL EMA…………………………………………… 5
ESTRUCTURA DE LA TESIS………………………………………………… 7
1. SISTEMAS NEURO DIFUSOS…………………………………………… 8
1.1. HISTORIA DE LOS SISTEMAS NEURO DIFUSOS………………. 8
1.2. CARACTERÍSTICAS DE LOS SISTEMAS NEURO DIFUSOS….. 9
1.3. PROPIEDADES DE LOS SISTEMAS NEURO DIFUSOS………… 10
1.4. CONTROL NEURO DIFUSO………………………………………….12
1.5. CONTROL ADAPTATIVO BASADO EN NEURO CONTROL……..13
1.6. TIPOS DE SISTEMAS NEURO DIFUSO…………………………….14
2. REDES NEURONALES…………………………………………………….15
2.1. CLASIFICACIÓN DE LAS REDES NEURONALES……………….. 18
2.2. MÉTODO DE APRENDIZAJE BACKPROPAGATION……………. 19
3. LOGICA DIFUSA Y REGLAS FUZZY IF / THEN………………………. 21
3.1. CONJUNTOS DIFUSOS……………………………………………… 22
3.2. TIPOS DE SISTEMA DE INFERENCIA DIFUSOS………………… 24
3.3. SISTEMAS DE INFERENCIA DIFUSOS TAKAGI SUGENO…...... 24
3.4. VENTAJAS Y DESVENTAJAS DE UTILIZAR TAKAGI SUGENO..26
3.5. EJEMPLO DE APLICACIÓN.......................................................... 26
4. ANFIS (ADAPTIVE-NETWORK-BASED FUZZY INFERENCE
SYSTEM……………………………………………………………………. 30
4.1. ARQUITECTURA DE ANFIS………………………………………… 30
4.2. ALGORITMOS DE APRENDIZAJE…………………………………. 37
4.2.1. MÉTODO DE MÍNIMOS CUADRADOS……………………... 37
IEL-1-I-05-13
5
4.2.2. MÉTODO DE BACKPROPAGATION………………………… 38
4.2.3. METODOS PARA LA ACTUALIZACION DE LOS
PARAMETROS…………………………………………………. 40
4.2.4. EJEMPLOS DE APLICACIÓN………………………………… 40
4.3. FUNCIÓN ANFIS……………………………………………………… 49
4.3.1. EJEMPLO DE APLICACIÓN………………………………….. 52
5. SISTEMA DE PELOTA Y PALANCA…………………………………….. 59
5.1. MODELAMIENTO DEL SISTEMA…………………………………… 60
5.2. ESTRATEGIAS DE CONTROL……………………………………… 61
5.2.1. CONTROL PROPORCIONAL PD……………………………. 62
5.2.2. TAKAGI SUGENO……………………………………………… 62
5.2.3. CONTROL PROPORCIONAL EN
PARALELO CON CONTROLADOR ANFIS……………….. 64
5.2.4. TAKAGI SUGENO EN PARALELO
CON CONTROLADOR ANFIS…………………………….. 65
5.2.4 CONTROLADOR ANFIS CON CAPACIDAD DE
DE ADAPTACION CONTINUA……………………………….. 67
6. CONCL USIONES Y PERSPECTIVAS………………………………….. 69
7. BIBLIOGRAFIA……………………………………………………………... 71
8. ANEXOS…………………………………………………………………….. 74
IEL-1-I-05-13
6
LISTA DE FIGURAS
Pág. Figura No. 1. Representac ión de una Red Neural Biológica………..15
Figura No. 2. Representac ión de una Red Backpropagation………. 20
Figura No. 3. Arquitectura bás ica de un controlador de
Lógica difusa…………………………………………….. 23
Figura No. 4. Modelo Takagi Sugeno………………………………… 25
Figura No. 5. Variables del Sistema de Inferencia Difuso………….. 26
Figura No. 6. Parámetros de las func iones de per tenenc ia
de la var iable Flujo……………………………………… 27
Figura No. 7. Parámetros de la func iones de pertenencia
de la var iable Tiempo………………………………….. 27
Figura No. 8. Método de defuzzificación para dos
entradas específicas……………………………………. 29
Figura No. 9. Mecanismo de razonamiento del modelo Sugeno…...31
Figura No. 10. Arquitectura de ANFIS…………………………………..32
Figura No. 11. Cambios en las funciones de pertenencia………….... 34
Figura No. 12. Grafica de la función a aprox imar……………………...41
Figura No. 13. Funciones de pertenecía del FIS inicial………………. 42
Figura No. 14. Funciones de pertenecía del FIS inicial………………. 43
Figura No. 15. Superfic ies del Sistema Difuso………………………... 44
Figura No. 16. Errores obtenidos con los sistemas difusos…………..44
Figura No. 17. Resultados después del entrenamiento. ……………...45
Figura No. 18. Grafica de la función a aprox imar……………………...45
Figura No. 19. Funciones de pertenecía del FIS inicial. ……………...46
Figura No. 20. Funciones de pertenecía del FIS final………………... 47
Figura No. 21. Superfic ies del Sistema Difuso………………………... 48
Figura No. 22. Errores obtenidos con los sistemas difusos…………. 49
IEL-1-I-05-13
7
Figura No. 23. Resultados después del entrenamiento. ……………...49
Figura No. 24. Proceso de inic ializac ión ANFIS………………………. 52
Figura No. 25. Diagrama del Tanque a controlar……………………... 52
Figura No. 26. Función de Transferencia del sis tema para
dos puntos de operac ión……………………………….. 55
Figura No. 27. Respuesta del s istema con una entrada
escalón…………………………………………………… 56
Figura No. 28. Diagrama de bloques del controlador PI……………... 56
Figura No. 29. Respuesta del s istema con un controlador PI………. 57.
Figura No. 30. Controlador PI con una entrada múltiple……………... 57
Figura No. 31. Figura Nº 31. Controlador ANFIS……………………... 58
Figura No. 32. Diagrama s istema de pelota y palanca………………. 59
Figura No. 33. Respuesta del s istema en lazo abier to………………. 61
Figura No. 34. Respuesta del s istema implementando
un controlador PD………………………………………. 62
Figura No. 35. Parámetros de las func iones de
pertenencia de la entrada……………………………… 63
Figura No. 36. Diagrama de representac ión de las
reglas del s istema………………………………………. 63
Figura No. 37. Respuesta del s istema implementando
un controlador Takagi Sugeno………………………… 64
Figura No. 38. Respuesta del s istema implementando
un controlador PD en paralelo con
controlador ANFIS……………………………………… 65
Figura No. 39. Respuesta del s istema implementando
un controlador Takagi Sugeno en
paralelo con controlador ANFIS……………………… 66.
Figura No. 40. Respuesta del s istema implementando un
controlador ANFIS con capacidad de
adaptación continúa……………………………………. 67
Figura No. 41. Arquitectura de ANFIS del sis tema de la
pelota y la palanca……………………………………… 68
IEL-1-I-05-13
8
LISTA DE ANEXOS
Pág.
ANEXO 1: ARQUITECTURA ANFIS………………………………………… 74
ANEXO 2: METODO DE MINIMOS CUADRADOS……………….............. 77
IEL-1-I-05-13
9
RESUMEN.
En este documento se explica la es trategia de ANFIS (Adaptive-Netw ork-based
Fuzzy Inference System). Posteriormente se identifican sus algoritmos de
aprendizaje y estructura. Por otro lado, se s imulan ejemplos de plantas
aplicando esta técnica. Y adicionalmente, se realiza un anális is comparativo del
desempeño de este tipo de controlador con respecto a las técnicas
tradic ionales .
IEL-1-I-05-13
10
OBJ ETIVO GENERAL
El objetivo pr incipal de este proyecto es realizar una profunda investigac ión
sobre los Sistemas Neuro Difusos aplicados a control, teniendo en cuenta las
ventajas que proporc ionan es te tipo de estrategias.
Los objetivos específ icos de este proyecto son los s iguientes:
a) Investigar el es tado de ar te de los Sis temas Neuro Difusos y sus
aplicaciones, hac iendo especial enfoque hacia sus aplicaciones
como técnica de computación inteligente para la identificación y
control de s istemas no lineales.
b) Identificar la planta que mejor se ajuste a las especificaciones y
requerimientos que tienen los controladores Neuro Difusos.
c) Profundizar en el estudio de ANFIS aplicándolo a la planta
seleccionada.
d) Realizar las correspondientes s imulaciones y entrenamientos, con
el fin de lograr el control de la planta selecc ionada utilizando
ANFIS.
e) Una vez conc luyan las pruebas, se realizaran las conclusiones
sobre el trabajo realizado, teniendo como base los resultados
obtenidos y observados, realizar comparac iones con otras
técnicas y adicionalmente tener una referencia para futuros
proyecto
IEL-1-I-05-13
11
INTRODUCCION.
La mayor parte del razonamiento humano es aprox imado, más que preciso. De
un modo bastante efic iente los seres humanos somos capaces de tomar
decis iones rac ionales con informac ión imprec isa o incompleta, reconocer voces
e imágenes dis tors ionadas, resumir y completar datos parcialmente
desconocidos, etc. A través de los años se ha creado una neces idad de
mejorar la calidad humana por medio de la tecnología. Por esta razón se han
desarrollado modelos y sistemas los cuales están basados en el
comportamiento humano, tanto su forma de pensar como la de actuar.
En es ta descripción de humanidad se combinan dos de las capac idades que
han diferenciado al hombre del resto de los seres vivos, la capac idad de
aprender y de procesar información de manera intuitiva (información incompleta
o reaccionar ante situaciones inesperadas); esto durante muchos siglos en la
sociedad de occidente se conocía como pensar.
Esta definic ión de pensamiento siempre se asoc ió con la inteligenc ia humana.
Dicha inteligenc ia y el comportamiento humano, han sido objeto de estudio a
través de los años. Los resultados de estos es tudios han proporcionando una
serie de esquemas que describen las bases y etapas de la forma de pensar y
de la inteligenc ia humana. La imitación por par te de las máquinas, procesos
industriales y otras técnicas utilizando estos esquemas, son la plataforma de lo
que es hoy en día se denomina Inteligenc ia Artificial.
Dentro de los principales avances de esta c ienc ia se encuentran los Sistemas
Neuro Difusos. Es te proyecto aborda el desarrollo de un s istema de control
Neuro Difuso con capac idad de aprendizaje y adaptación continua, con la
finalidad de controlar de forma autónoma la planta que se seleccione, y con
esto optimizar la respuesta del mismo. El desarrollo de este tipo de
controladores solventa uno de los problemas más importantes para la
IEL-1-I-05-13
12
construcción de sistemas Neuro Difusos de control: la determinación de las
reglas y parámetros que lo definen. Generalmente este aporte de conocimiento
se obtiene grac ias a la experiencia de un operador humano ya ex istente. No
obstante, hay situaciones en las cuales dicho conoc imiento no está disponible,
es incompleto o no es preciso. En este contex to, es importante el desarrollo de
controladores que puedan generar, aprender y adaptar un conjunto de
parámetros adecuados, basados en la dinámica del s istema bajo control.
Para dicha planta se realizará un anális is de resultados a través de las pruebas
efectuadas, permitiendo plantear conclusiones que muestren los factores a
favor y en contra del control de modelos, como resultado de implementar
Sistemas Adaptables de Inferenc ia Neuro Difusa para sistemas de control, y as í
poder establecer comparaciones con respecto a las técnicas tradic ionales.
IEL-1-I-05-13
13
DESCRIPCION DEL PROBLEMA.
La utilizac ión de controladores clásicos (P, PI, PID) calculados
matemáticamente a partir de un modelo aprox imado de la planta, pueden
presentar ser ias deficiencias en su comportamiento cuando el sistema a
controlar es tá sometido a per turbaciones externas, o cuando el proceso de
encontrar un modelo adecuado de la dinámica del sistema es excesivamente
complejo. Este tipo de situaciones se ha venido afrontando en los últimos
tiempos con técnicas avanzadas de control, entre las cuales se pueden
nombrar el control adaptable por modelo de referenc ia1, la programac ión de
ganancias2, los esquemas basados en el criterio de estabilidad de Lyapunov3 y
los controladores de estructura variable.
Por otro parte, esquemas de control basados en algor itmos genéticos, redes
neuronales o lógica difusa también han adquirido gran importanc ia en las
aplicaciones de control.
Los sistemas Neuro Difusos surgen de la necesidad de combinar el modelado
empírico y el cualitativo. Estas técnicas permiten tanto las descr ipciones
lingüísticas de los sis temas como la utilizac ión de los datos para ajustar el
modelo (entre los que se encuentran los parámetros de las funciones de
pertenencia que conforman las variables de entrada) durante la fase de
identificación.
Al cons iderar información difusa en algunas de las entradas a una red
neuronal, nos encontramos en las denominadas redes neuronales difusas.
1 Kung and Liaw, 1994; Yin and George Lee, 1995; Liaw and Cheng, 1996. 2 Shamma and Athans, 1992. 3 Tseng and Hwang, 1993; Su and St epanenko, 1994.
IEL-1-I-05-13
14
Éstas son redes que usan métodos difusos para mejorar o ex tender las
capac idades de aprendizaje o para aprender mejor en un sentido genérico, y
donde el objetivo primordial es perfeccionar la red neuronal. La propia red y sus
algoritmos de aprendizaje se obtienen como las versiones difusas de los
convencionales.
Estas redes ofrecen un número de ventajas entre las cuales destacan la
posibilidad de procesar directamente información imprec isa y de aprox imar
funciones difusas. El objetivo es la concepción, estudio teór ico y diseño de una
nueva c lase de red neuronal difusa, dentro del marco conceptual de las redes
neuronales heterogéneas. Se pretende además concebir mecanismos de
control del error de generalizac ión (el criterio más importante en una aplicac ión
prác tica de redes neuronales).
Actualmente las tecnologías de los modelos Fuzzy y las Redes Neuronales,
son el vínculo entre dos paradigmas en la ingeniería: El campo de
reconocimiento del modelo, y el control del modelo. Básicamente los s istemas
de control hacen uso del reconocimiento y c las ificación del modelo, para
cumplir con las decisiones y ejecutar una acc ión de control en un actuador, ya
sea un motor , un relee, etc. Sin embargo, a medida que la complejidad del
sistema aumenta, las funciones de pertenencia y las reglas necesar ias para
descr ibir el comportamiento del s istema, empiezan a ser difíciles de determinar.
Por otro lado, debido a la dinámica de la naturaleza en muchas aplicaciones,
las reglas y las funciones de pertenencia deber ían ser adaptables al ambiente
en donde opera el sistema, con el fin de que s iga siendo funcional.
Siguiendo esta tendencia, en este trabajo se presenta una técnica de control
adaptable basada en sis temas de inferencia difusos, obtenido por medio del
entrenamiento de una red neuronal (identificación Neuro Difusa, ANFIS -
Adaptive Neural Fuzzy Inference System), Jang and Sun, 19954.
4 Jyh-Shing Roger Jang (Taiwan in 1962). Durant e 1991-1992, desarrollo un modelo utilizando redes neuronales y lógica dif usa. Se interesó especialment e por el área de los controladores
IEL-1-I-05-13
15
ESTRUCTURA DE LA TESIS.
Antes de iniciar el modelamiento e identificación del modelo de control que será
utilizado, es necesar io realizar una exhaustiva investigación que inc luya la
histor ia, antecedentes, aplicaciones y trabajos realizados hasta la fecha sobre
los Sistemas Neuro Difusos. Para esto se utilizarán recursos como Internet,
libros y publicac iones.
Ya teniendo el Estado del Arte, se procede con la identificación del modelo que
se emplea en los s istemas Neuro Difusos, lo cual permitirá aplicar este modelo
a la planta de estudio.
Es necesar io tener en cuenta que la planta selecc ionada será un modelo
senc illo y además debe adaptarse a las especificaciones y requer imientos que
presenta es ta estrategia de control, los cuales serán estudiados de manera
minuc iosa previamente.
Con la ayuda del programa MATLAB, y el Toolbox de ANFIS, se realizaran las
simulaciones y entrenamientos necesarios para lograr el control deseado.
El trabajo realizado dará como resultado, no solo una solución a un problema
de control e identificación, sino una ser ie de análisis y conc lus iones, en las
cuales se tratarán dos puntos pr imordiales:
Las ventajas y desventajas que presenta la implementación de Sis temas Neuro
Difusos para control y un análisis comparativo con respecto a las técnicas
tradic ionales utilizadas, en este caso P, PI, PD y PID.
Neuro Fuzzy modelando con aplicaciones a control, procesamiento de señales y reconocimient o de señales.
IEL-1-I-05-13
16
1. SISTEMAS NEURO DIFUSOS.
Estos sis temas son el resultado de una combinac ión de conoc imiento, técnicas
y capacidades de aprendizaje; aprovechando las caracter ísticas bases de cada
modelo, la Lógica Dif usa y las Redes Neuronales.
El resultado de esta combinación provee de una herramienta que permite el
modelamiento y control de un sistema, en situac iones en la cuales no se
dispone de condiciones iniciales e información necesar ia para diseñar un
modelo Fuzzy o una vez terminado el modelo, la sintonizac ión de sus reglas no
es precisa.
1.1 HISTORIA DE LOS SISTEMAS NEURO DIFUSOS.
La IA ( Inteligencia Artificial) es un concepto relativamente nuevo. Aunque
formalmente se inicia en 1956 cuando adquirió este término, sin embargo el
estudio de la inteligencia contemplada como el razonamiento humano viene
siendo estudiado por los filósofos desde hace más de 2 milenios.
Esta cienc ia que pretende imitar la inteligencia humana con el uso de
computadores, ha evoluc ionado gracias a una serie de hechos, que han llevado
la IA al estado en el que actualmente la conocemos, entre los más destacados
se encuentran:
En 1930 nace la IA como un área de las matemáticas, cuando se crean las
máquinas abstractas de A llan Turing; En 1940 se introducen las redes
neuronales , pero no se desarrollan en su totalidad sino hasta los años 80’s ; En
1950 la IA se enfoca en el área militar y es utilizada en la creación y desarrollo
de armas inteligentes, as í mismo se aplicó en la criptología y la ciencia
IEL-1-I-05-13
17
aeroespacial; En 1960 se enfoca en el estudio de los sistemas expertos tales
como MICYN, X-CON, DENDRALL; En 1980 resurgen las redes neuronales y
conceptos como la “Retropropagac ión” y “Propagac ión hac ia delante”; En 1990
nacen los Sistemas Neuro Dif usos.5
1.2 CARACTERÍSTICAS DE LOS SISTEMAS NEURO DIFUSOS. Las redes Neuro Difusas presentan las siguientes carac ter ísticas 6:
1. Conocimiento Humano:
Este conocimiento se representa en forma de reglas If-Then, para
soluc ionar problemas reales.
2. Inspirac ión en modelos biológicos:
Se utiliza el modelo de la neurona biológica como pilar fundamental y
básico de las Redes Neuronales Difusas. Permitiendo tratar con
problemas de percepción, reconocimiento de patrones o clasificación.
3. Computación Numér ica:
La computación es bas tante numérica, s in embargo, basados en los
avances de la Inteligenc ia Artific ial (IA), apunta hacia una computación
simbólica.
4. Diversos dominios de aplicac ión:
Proceso adaptativo de señales, control adaptativo, identificación de
sistemas no lineales, etc.…
5. Aprendizaje libre de modelos:
Las reglas difusas If-Then se obtienen a partir de datos numér icos .
5 http://cruzrojaguayas.org/inteligencia/; Introducción a la Int eligencia Artif icial. 6 Mg. Rodrigo Salas F. N euro Fuzzy Systems, “ Análisis inteligente de la in formación para la to ma de decisiones”.
IEL-1-I-05-13
18
6. Computación intensiva:
Las Redes Neuronales Difusas dependen de una computación intens iva
que permita encontrar reglas o cualquier tipo de regularidad en conjuntos
de datos.
7. Tolerancia a fallos :
Ambos sistemas, tanto las redes neuronales artific iales, como los
sistemas de inferencia difusos, presentan una alta toleranc ia a fallos. La
supresión de una neurona en una red neuronal artif icial, o de una regla
en un s istema de inferencia difuso, no tiene porque destruir el sistema.
En realidad, el s istema continúa trabajando debido a su arquitectura
paralela y redundante aunque se va deter iorando gradualmente.
8. Distintos caminos para alcanzar el mínimo:
Se puede llegar al mínimo error por diversos caminos. De hecho, esto no
es lo importante en la medida en que el sistema vaya acercándose hacia
el mínimo.
9. Muy indicados en la resoluc ión de problemas reales: La mayor ía de los problemas reales son de una magnitud considerable y
se construyen sobre afirmac iones que no se conocen con tal certeza.
Esto excluye, por lo tanto, la utilizac ión de métodos convencionales que
requieren una descripc ión detallada del problema a resolver.
1.3 PROPIEDADES DE LOS SISTEMAS NEURO DIFUSOS. Las propiedades más comunes de estos sistemas se muestran a continuac ión7:
• Aprendizaje basado en los modelos de Redes Neuronales.
7 Rigoberto To xqui Toxqui , Red es Neuron ales Di fusas dinámicas para identi ficación y cont rol ad aptable.
IEL-1-I-05-13
19
• Puede ser v isto como una red de 3 capas y funciones de ac tivación
mediante la aplicación de distintas normas:
- Capa de entrada para las var iables de entrada.
- Capa oculta representa reglas de inferenc ia.
- Capa de salida para las var iables de salida.
• Puede ser interpretado como un sis tema de reglas difusas . Creado a
partir de los datos o de conoc imiento a pr iori.
• Aprox ima una func ión basado en los datos de entrenamiento,
suministrados.
• Múltiples aproximaciones o formas de combinar ambas técnicas: lo
esenc ial es que se construyen o perfeccionan modelos difusos a par tir
de los datos, mediante aprendizaje.
• Modelos concurrentes neuro-difusos: usan redes neuronales para
obtener las entradas o salidas de un modelo.
• Redes neuronales difusas:
- Redes neuronales que usan técnicas difusas para acelerar el
proceso de aprendizaje.
- Redes neuronales para procesar informac ión borrosa.
• Reglas difusas para estructurar o entrenar redes neuronales, que a su
vez están compuestos de módulos de modelos difusos.
IEL-1-I-05-13
20
1.4 CONTROL NEURO DIFUSO.
La idea pr incipal del control neurodifuso8, es imitar el comportamiento de un
operador humano capaz de controlar una planta compleja de manera correcta.
Esta planta podría ser proceso de reacción química, un tren subterráneo, o el
sistema de control de las señales del tráfico. Después de más de 20 años, el
último logro de los controladores difusos, se mantiene el mismo, automatizar un
proceso completo al reemplazar el operador humano con un controlador difuso
hecho de softw are y hardw are de computadores.
Para construir un controlador difuso, se requiere adquir ir el conoc imiento, el
cual toma la exper iencia y la informac ión suministrada por el operador, sobre
como controlar un sistema y generar un conjunto de reglas IF-THEN.
Usualmente se puede obtener dos tipos de información del operador humano:
“Información lingüística” e “Informac ión numérica”.
Información Lingüística:
Un operador humano exper imentado puede generalmente resumir sus
razonamientos sobre el proceso, con el fin de llegar a las acc iones de control o
decis iones dadas por el conjunto de reglas difusas, sin embargo no se obtiene
la perfección, los s istemas son bastantes imprecisos, y muchas de las veces
estos se obtienen a prueba y error.
Información Numér ica:
Cuando un operador humano esta trabajando, es pos ible que la informac ión
grabar la información observada, en las diferentes entradas y salidas del
sistema. Es te conjunto de información, puede ser usada como los datos de
entrenamiento, al construir un controlador difuso.
Antes de que surgieran los controladores neuro-difusos , la mayor ía de los
métodos de diseño, solo utilizaban la informac ión lingüís tica para construir los
8 Patric ia Melín and Oscar Castillo, Modelling, Simulation and Control of non l inear dynamical systems.
IEL-1-I-05-13
21
controladores. Este logro no está totalmente formalizado, y es más un ar te que
una práctica de ingenier ía. Teniendo en cuenta estos avances, usualmente
involucra procesos manuales de prueba y error, para ajus tar las funciones de
pertenencia.
Hoy en día, con los algor itmos de aprendizaje, se puede tomar mayor ventaja
de la información numér ica, (datos de entrada-salida), y ajustar las funciones
de pertenencia de una manera sistemática. En otras palabras, se puede usar la
informac ión lingüística para identificar la estructura del controlador difuso, y
luego usar la información numér ica para identificar los parámetros que el
controlador difuso puede reproducir para lograr la acción más prec isa.
1.5 CONTROL ADAPTATIVO BASADO EN NEURO CONTROL. Existen una serie de avances e investigac iones en el campo del diseño de
controladores neuro adaptativos9. Aunque existen otras formas de c lasificar
estos progresos, en este caso se enfoca en una similar de la teoría de control
adaptable: 1) Neuro Control Indirec to y 2) Neuro Control Directo.
En el esquema del Neuro Control Indirecto, una red neuronal no envía
directamente la señal al proceso. En cambio una red neuronal, es usualmente
usada, como un indicador indirecto de las caracterís ticas del proceso. Este
indicador puede ser el modelo del proceso, que imita el comportamiento del
proceso o un auto sintonizador del proceso, que produce las bases apropiadas
del controlador basadas en el comportamiento del proceso.
En el esquema del Neuro Control Directo, una red neuronal es empleada como
un controlador retroalimentado, y esta env ía la señal de control directo al
proceso. Dependiendo del concepto de diseño, los acercamientos del Neuro
Control Directo pueden ser categor izados en: 1) Modelaje de controladores, 2)
Diseño de modelos libre de neuro control, 3) Diseño de modelos basados en
neuro control y 4) Diseño de modelos robustos basados en neuro control.
9 Patricia Melín and Oscar Castillo, Model ling, Simulation and Control of non linear dynamical systems.
IEL-1-I-05-13
22
Teniendo en cuenta estas distinciones, un marco que unificado para neuro
control, es ver el entrenamiento de una red neuronal como problema no lineal
de optimizac ión:
)(min: wJNNw
En el cual se trata de encontrar una representación óptima de la red neuronal
que minimice la func ión objetivo J, sobre el peso de la red w . Aquí, NN indica
que la formulac ión del problema de optimizac ión, involucra una red neuronal.
El papel que juegan las redes neuronales en la func ión objetivo, es la c lave
para distinguir los diferentes acercamientos de los diseños de neuro control.
1.6 TIPOS DE SISTEM AS NEURO DIFUSOS.
Entre los pr incipales s istemas Neuro Difusos se encuentran:
1. ANFIS (Adaptive Netw ork-based Fuzzy Inference System) 2. GARIC (Generalized Approximate Reasoning-based Intelligent
Control)
3. NEFCON. (Neuro Fuzzy Control)
4. Ef uNN. (Evolving Fuzzy Neural Netw orks)
5. SONFIN. (Self Constructing Neural Fuzzy Inference Netw ork)
6. FINEST. (Fuzzy Inference and Neural Netw ork in Fuzzy Inference
Softw are) 7. NEFCLASS. (Neuro Fuzzy Class ification)
8. NEFPROX. (Neuro Fuzzy Function Approx imation)
9. FALCON. (Fuzzy Adaptive learning Control Netw ork)
Este proyecto pretende estudiar la arquitec tura planteada por ANFIS, pero
antes se introducen conceptos bás icos de las Redes Neuronales y los
Sistemas de Inferencia Dif usos.
IEL-1-I-05-13
23
2. REDES NEURONALES.
Las RNA10 son una técnica de control que pretende reproducir o imitar el
proceso de aprendizaje humano, y mas concretamente el proceso de
aprendizaje empleado por el cerebro. Es ta técnica busca es el análisis
simultaneo de señales por par te de procesadores simples que al funcionar de
forma paralela, recolectan la informac ión necesaria según el tipo estructura
establecida y aprenden de las señales rec ibidas acumulando dicha experiencia
para realizar el procesamiento basado en la experiencia tal y como lo hace el
cerebro humano.
Figura N°1. Repr esentación de una Red Neuronal Biológica.
Como consecuencia del funcionamiento de las RNA brevemente expuesto y
ventajas tales como la capacidad de aprendizaje, el paralelismo; las RNA se
han convertido en una nueva soluc ión desde la óptica de control para aquellos
que ven en las nuevas tecnologías nuevas pos ibilidades para el enfoque,
desarrollo y solución de problemas nuevos y exis tentes.
10 Redes Neuron ales. http://ingenieria.udea.edu .co/investigacion/ mecatronica/ mectroni cs/redes .ht m
IEL-1-I-05-13
24
Esta técnica o herramienta se destaca en la actualidad dadas las ventajas que
se encontraron en la identificac ión y en el entrenamiento; aunque el hecho de
ser una herramienta novedosa no solo le otorga ventajas, también es motivo de
evaluac ión y es tudio s i esta es capaz de proveer soluc iones a problemas no
soluc ionados anteriormente
El uso de las RNA en control puede verse como un paso natural en la evoluc ión
de la teoría de control. Esto cuando nos referimos a los inic ios y la evoluc ión
del control, el uso de esta herramienta es cada vez más importante ya que este
cumple con tres neces idades fundamentales como lo son:
• La necesidad de tratar con s istemas complejos
• La necesidad de cumplir con la creciente demanda de nuevos modelos
de control
• La neces idad de obtener esos modelos con el menor conocimiento de la
planta y el medio que lo rodea
Las RNA pretenden controlar diferentes s istemas bajo situac iones o modelos
de incer tidumbre y dada la neces idad de controlar sis temas dinámicos
complejos bajo incertidumbre se hace indispensable la reevaluación de los
métodos convenc ionales de control, y por lo tanto la neces idad de nuevos
métodos es obvia. Es to también ha conducido a un concepto más general de
control, uno que inc luye decisión, planeación y aprendizaje, las cuales son
cualidades necesarias cuando se desea un sistema con autonomía. Como
consecuenc ia de esto, la búsqueda de nuevas tecnologías se hace cada vez
mas intensa, se buscan nuevas ideas para resolver de forma efec tiva los
problemas de control modernos. As í el uso de las RNA en control es un paso
más en su evoluc ión. Las RNA parecen ofrecer un mejor entendimiento y
quizás la soluc ión de algunos de los problemas de control más difíc iles . Es
claro que las RNA pueden ser aceptadas y usadas s i resuelven problemas que
han s ido previamente impos ibles o muy dif íciles de resolver.
Las propiedades y características que destacan las RNA en control son:
IEL-1-I-05-13
25
• Las RNA poseen una gran habilidad para la aprox imación de func iones.
• Los elementos básicos de procesamiento en una RNA tienen una
estructura simple.
• La capacidad de aprendizaje y de generalización de las RNA las
conv ierte en una herramienta poderosa princ ipalmente en s istemas
variantes además de su capacidad de adaptac ión en línea.
• Las RNA pueden operar con datos de forma cuantitativa as í como de
forma cualitativa.
Las RNA pueden procesar muchas entradas y también muchas salidas, por lo
tanto son altamente aplicables en s istemas multivariables.
Desde el punto de v ista de control, las RNA se destacan por tratar con
sistemas no lineales . Respecto a es te tema, métodos para el diseño de
controles no lineales que incluyen métodos teór ico-prácticos y optimizac ión
juegan un rol importante y una posibilidad en el uso de RNA para obtener
sistemas de control no lineales.
Autores como Widrow definen una red neuronal como un sistema con entradas
y salidas que está compuesta de muchos elementos de procesamiento
similares . Cada elemento de procesamiento tiene un número de pesos
sinápticos o simplemente pesos. Ajustando los pesos de un elemento se puede
cambiar el comportamiento del mismo y, por lo tanto, puede también alterar el
comportamiento total de la red para alcanzar la relación de entrada salida
deseada. Este último proceso es conoc ido como entrenamiento de l a red.
Dentro de las pr incipales aplicaciones tecnológicas se encuentran11:
• Reconoc imiento de textos manuscr itos.
• Reconoc imiento del habla.
11 Redes Neuron ales. http://ingenieria.udea.edu .co/investigacion/ mecatronica/ mectroni cs/redes .ht m
IEL-1-I-05-13
26
• Simulación de centrales de producc ión de energía.
• Detección de explosivos.
• Identificación de blancos de radares.
• Sistemas de control en reactores , procesos químicos fís icos etc.
2.1 CLASIFICACIÓN DE LAS REDES NEURONALES.
Las redes neuronales pueden ser c lasificadas en base a su estructura o a los
algoritmos de aprendizaje que manejan.
Según su estructura, las redes neuronales presentan dos tipos de redes 12:
• Redes Neuronales Unidireccionales (Feedforw ard neural netw orks):
En este tipo de redes las neuronas se agrupan en capas. Las neuronas se
distribuyen desde la capa de entrada hasta la capa de salida, mediante
conex iones unidirecc ionales.
• Redes Neuronales Recurrentes (Recurrent Neural Netw orks):
En estas redes, las salidas de algunas de las neuronas son
retroalimentadas a las mismas neuronas o a neuronas de las capas
siguientes. Por lo tanto las señales pueden fluir en ambas direcciones, hacia
adelante y hac ia atrás .
Según su estructura, las redes utilizan dos tipos pr inc ipales de algoritmos
de aprendizaje; además, existe un tercer tipo, aprendizaje reforzado, que
puede ser considerado como una forma especial de aprendizaje
supervisado.
• Aprendizaje supervisado:
12 Las Redes Neuron ales. http://www.pue.udlap .mx/ ~tesis/lis/navarret e_g_j/capitulo2.pd f
IEL-1-I-05-13
27
Este algor itmo ajusta los pesos de las conex iones entre neuronas de
acuerdo a la diferencia entre las salidas deseada y actual de la red
correspondiente a una entrada dada. Ejemplos de algor itmos de aprendizaje
supervisado inc luyen el algoritmo de backpropagation.
• Aprendizaje no superv isado:
Este algor itmo no requiere que la salida deseada se conozca. Durante el
entrenamiento, sólo los patrones de entrada son presentados a la red
neuronal que automáticamente adapta los pesos de sus conex iones para
agrupar los patrones de entrada dentro de grupos con sus caracter ísticas
similares .
• Aprendizaje reforzado:
Este aprendizaje es un caso especial de aprendizaje superv isado. Emplea
un cr ítico solo para evaluar la calida de la salida de la NN correspondiente a una entrada dada. Un ejemplo de este tipo de algor itmo de aprendizaje
reforzado es el algoritmo genético.
2.2 MÉTODO DE BACKPROPAGATION.
El algor itmo Backpropagation es un algoritmo iterativo que permite entrenar
redes multicapa. El objetivo es minimizar el error total de la red, definido como
la suma de los errores cuadráticos obtenidos.
IEL-1-I-05-13
28
Figura N°2. Representación de una Red Backpropagation.
• Princ ipios Bás icos 13:
1. Cálculo del error de la salida.
2. Ajus te de los pesos.
3. Propagac ión de los errores hacia la capa de entrada.
4. Se repite el proceso iterativamente hasta obtener el mínimo error .
• Caracter ísticas Fundamentales:
1. El algoritmo busca la func ión error a partir del entrenamiento.
2. La función de activación debe ser diferenciable.
3. Entrenar modificando los valores de los pesos de forma descendente
de la función de error .
13 Algorit mo Backp ropagation. http://www.uca.es/dept/leng_sist_info rmaticos/preal/23041/transpas/E-Backpropag ation/ppframe.ht m
IEL-1-I-05-13
29
3. LOGICA DIFUSA Y REGLAS FUZZY IF / THEM.
Para entender la lógica difusa es necesar io referirse Lotfi A. Zadeh, quien en
los años 60’s inicio este concepto de la teor ía de la lógica difusa con su
publicac ión de 1965 referente a “conjuntos difusos”, luego s i se sigue su
trayectoria se encuentra que en los 70’s la teor ía continuó crec iendo y se
surgieron las aplicaciones reales . Todo el reconocimiento que hoy en día tiene
la lógica difusa, se debe en gran parte al dedicado y profundo trabajo que inició
Zadeh en los sesentas y setentas.
Ahora bien la lógica difusa continúo su desarrollo hasta la actualidad en donde
grac ias a sus diferentes desarrollos acción, su adaptabilidad y var iedad es fác il
encontrar aplicaciones de esta en campos tan variados como14:
• Mecanismos de Control
• Sistemas de control de mini submarinos
• Controladores del metro
• Sistemas de aire acondic ionado
• Controladores de lavadoras
• Video cámaras
• Hornos de microondas, etc
La lógica difusa permite tratar informac ión imprecisa en términos de conjuntos
difusos. Estos conjuntos se combinan en reglas para definir acc iones, por
ejemplo, si la temperatura es alta entonces se debe enfriar el lugar. De esta
manera, los s istemas de control basados en lógica difusa combinan una
variable de entrada (definida en términos de conjuntos difusos), por grupos que
14 Nohé Ramón Cázarez Castro, Sistemas N euro-Di fusos para la identi fi cación y Control d e Sistemas No Lineales.
IEL-1-I-05-13
30
producen uno o var ios valores de salida. Hablando ya en términos más
rigurosos, la teor ía de lógica difusa parte de la teor ía clás ica de conjuntos,
añadiendo una función de pertenenc ia al conjunto, definida ésta como un
número real entre 0 y 1, as í se introduce el concepto de lógica difusa
determinado a un valor lingüístico. Para cada conjunto o subconjunto difuso se
define una función de per tenencia µA ( t), que indica el grado en el cual la
variable t está incluida en el concepto que es ta representado el modelo.
3.1 CONJUNTOS DIFUSOS
La importancia que tienen los conjuntos y subconjuntos difusos para este caso,
es la capacidad de estos para la operación, que tienen es tos conjuntos ya bien
sea entre los subconjuntos u operando el conjunto mismo.
Los conjuntos difusos se caracterizan por su distr ibución y organizac ión la cual
se destaca por la siguiente organización:
• Borrosificador.
• Regla Difusa.
• Maquinar ia de Interferencia.
• Deborros ificador.
Borrosificador:
Este se encarga de relac ionar los puntos de entrada no borrosos del sistema y
su correspondiente conjunto, dado que esta parte del sistema puede rec ibir
diferentes tipos de señal existen diferentes tipos de Borrosificadores.
Regla Difusa:
Es un conjunto de declaraciones lógicas, que buscan el mapeo del conjunto a
partir de las teorías y los conjuntos de entrada y salida.
Deborros ificador:
Este es un dispos itivo que busca interpretar las reglas mediante le uso de la
lógica del IF – THEN, buscado respuestas o salidas a partir de los valores de
IEL-1-I-05-13
31
entrada. En si este busca la transformación del conjunto borroso y sus
entradas, en salidas no borrosas e interpretables.
Este tipo de conjuntos se ven desde su arquitectura de la s iguiente manera15:
Figura No. 3: Arquitectura básica de un controlador de lógica difusa.
Las operac iones básicas que poseen los conjuntos difusos son16:
• El conjunto complementario A’ de un conjunto A es aquel cuya func ión
carac ter ística viene definida por :
)(1)( xAxA µµ −=
• La unión de dos conjuntos difusos A y B es un conjunto difuso A U B en
U cuya func ión de pertenencia es:
)](),([)( xxmáxx AAAUB µµµ =
15 Nohé Ramón Cázarez Castro, Sistemas N euro-Di fusos para la identi fi cación y Control d e Sistemas No Lineales. 16 Redes Neuron ales y Teoría de conjuntos di fusos. http://www.tdcat.cesca.es/TE SIS_UPC/AVAILABLE/ TDX-0416102-075520/26Ap endiceD.PD F
IEL-1-I-05-13
32
• La intersección de dos conjuntos difusos A y B es un conjunto difuso
A ∩ B con func ión característica:
]),(),(min[)( xxx BBA Aµµµ =∩
3.2 TIPOS DE SISTEMAS DE INFERENCIA DIFUSOS.
Los sistemas de inferencia difusa están fundamentados en la lógica difusa, esta
es una técnica de computac ión flex ible que permite clasificar al computador la informac ión del mundo real. Para la recopilación de la informac ión ex isten
diferentes tipos de s istemas, los cuales cambian las reglas o la arquitectura
para este fin. Los sis temas de inferencia difusa son17:
Sistema de Inferencia difuso tipo Mandani.
Sistema de Inferencia difuso tipo Tsukamoto. Sistema de Inferencia difuso tipo Takagi Sugeno.
3.3 SISTEM A DE INFERENCIA DIFUSO TAKAGI SUGENO.
Takagi y Sugeno, en 1985, definieron la función de per tenenc ia de un conjunto
difuso A como µA(x), para todo x Є X. A lgunos conjuntos difusos se asoc ian
con funciones de per tenenc ia lineales. Así, una función de pertenencia esta carac ter izada por dos parámetros: 1 es el mayor grado de per tenenc ia, y 0 es
el menor grado de pertenenc ia.
Para dos conjuntos difusos dados A y B, el valor de verdad de la propos ición “x is A and y is B” se expresa por:
||x is A and y is B|| = µA(x) ∧ µB(x) La relación anterior es importante para el modelo difuso Takagi-Sugeno (TS), el
cual consis te en un conjunto de reglas Ri con la s iguiente estructura:
Ri: if x is Ai then yi=fi(x)
IEL-1-I-05-13
33
Donde x χ Є ℜn es el vector de entrada, Ai es un conjunto difuso
(multidimens ional) y µAi: χ → [0,1], yiЄℜ es la salida de la i-és ima regla.
Dadas las salidas de los consecuentes individuales yi, la salida total y del
modelo difuso Takagi-Sugeno (defuzificac ión) es calculada usando:
∑
∑
=
== r
ii
r
iii
x
yxy
1
1
)(
*)(
ω
ω
En donde wi es el grado de compromiso del antecedente de la i-és ima regla,
calculado como el grado de per tenenc ia de x en el conjunto difuso Ai:
wi (x) = µAi(x)
El siguiente diagrama muestra un modelo Takagi – Sugeno de 2 entradas:
Figura N°4: Modelo Takagi Sugeno.
Donde {pi, qi , ri} son parámetros consecuentes.
En general, un sistema de tipo Sugeno, puede ser usado para modelar
cualquier s istema de inferenc ia difusa, en el cual las funciones de pertenencia
de la salida sean, lineales o constantes.
17 J. –S. R. Jang, C. –T. Sun, E. Mizutani, Neuro-Fuzzy and Sof t Computing
IEL-1-I-05-13
34
3.4 VENTAJAS Y DESVENTAJAS DE UTILIZAR TAKAGI SUGENO.
El modelo Takagi Sugeno presenta pros y contras al momento de ser utilizado.
Las caracter ísticas más destacadas de es te modelo son:
Ventajas:
• Incrementan la precisión.
• Mayor eficienc ia computacional.
• Facilidad para el análisis del sistema.
• Garantizan la continuidad de la superficie de salida.
Desventajas:
• El consecuente es una fórmula matemática y no proporciona un
marco natural para representar conocimiento humano.
• Limitan la representac ión de los pr incipios de la lógica difusa.
3.5 EJEMPLO DE APLICACIÓN.
En este ejemplo se puede ver un modelo Takagi Sugeno de orden cero. Este
sistema determina las probabilidades de lluvia, que en este caso se refleja en la
concentración de agua pos ible, teniendo en cuenta el flujo de agua y el
momento del día.
Figura N°5: Variables del Si stema de Inferencia Difuso.
IEL-1-I-05-13
35
Las var iables que se tienen son:
• Variables de Entrada:
1. Flujo (Bajo, Moderado, Alto)
2. Tiempo (Temprano, Tarde)
• Variable de Salida:
Concentrac ión
Parámetros de las funciones de per tenenc ia:
1. Flujo:
Figura N°6: Parámetros de la s Función de Pertenencia de la Variable:
Flujo.
2. Tiempo:
Figura N°7: Parámetros de la s Función de Pertenencia de la Variable:
Tiempo.
IEL-1-I-05-13
36
3. Concentrac ión:
C1 = 16.23
C2 = 18.56
C3 = 10.58
C4 = 16.13
C5 = 6.59
C6 = 10.60
La es truc tura identificada, es resuelta generando un s istema de reglas if-then.
En este caso una regla por cada posible combinación de las funciones de
pertenencia. Para cada regla se tiene una salida constante, teniendo en cuenta
que se genera un sistema Takagi Sugeno de orden cero.
Las reglas generadas son las s iguientes:
R1: Si el FLUJO es bajo y el TIEMPO es temprano entonces la
CONCENTRACION es C1.
R2: Si el FLUJO es bajo y el TIEMPO es tarde entonces la
CONCENTRACION es C2.
R3: Si el FLUJO es moderado y el TIEMPO es temprano entonces la
CONCENTRACION es C3.
R4: Si el FLUJO es moderado y el TIEMPO es tarde entonces la
CONCENTRACION es C4.
R5: Si el FLUJO es alto y el TIEMPO es temprano entonces la
CONCENTRACION es C5.
R6: Si el FLUJO es alto y el TIEMPO es tarde entonces la
CONCENTRACION es C6.
Dada una entrada, el primer paso es resolver el FIS, es to se realiza por medio
del método de fuzz ificación, para obtener la probabilidad de cada valor
lingüístico en cada regla.
La segunda parte es combinar las probabilidades de los parámetros
antecedentes, para obtener los pesos (probabilidades) para cada regla.
IEL-1-I-05-13
37
La tercera parte es calcular los consecuentes de cada regla dependiendo de
los pesos calculados anteriormente.
El último paso es el proceso defuzz ificación, donde se involucran los
parámetros consecuentes con el fin de obtener la salida.
Las seis reglas que gobiernan el sistema difuso, son representadas de una
manera gráfica, donde se muestra la relac ión entre las func iones de
pertenencia y las reglas.
A continuación se muestran los cálculos que se realizan para obtener la salida.
En este caso se supone una entrada en el flujo de 8 y en el tiempo de 2.5.
Figura N°8: M étodo de defuzzificación para dos entradas específica s.
IEL-1-I-05-13
38
4. ANFIS.
Este algor itmo es definido por J. –S. Roger Jang en 199218. La arquitectura
ANFIS ha demostrado ser una excelente función de aprox imación. Esta
arquitectura se refiere a una red neuronal adaptativa basada en s istemas de
inferencia difusos, la cual ha mostrado un sin número de aplicaciones las
cuales serán mostradas mas adelante, a lo largo de la investigación.
Estos sis temas son una clase de redes adaptativas que son func ionalmente
equivalentes a los sistemas de inferenc ia difusa. La arquitectura es
denominada ANFIS, la cual corresponde a “Adaptive Netw ork-based Fuzzy
Inference System”.
4.1 ARQUITECTURA DE ANFIS:
Un sistema de inferencia difuso consiste en tres componentes fundamentales:
una base de reglas, la cual contiene una reglas difusas de tipo IF-THEN; una
base de datos, que define las func iones de pertenencia usadas en las reglas, y
un mecanismo de razonamiento, que ejecuta el procedimiento de inferencia
sobre las reglas , para derivar una salida razonable o conc lusión. Para
simplificar, se asume que el sistema de inferencia difuso que esta bajo
observación tiene 2 entradas [x y], y una salida z. Para un s istema Sugeno
de pr imer orden, las reglas son del tipo:
Regla 1: Si x es A1 y y es B1, entonces f 1 = p1x + q1x + r1,
Regla 2: Si x es A2 y y es B2, entonces f 2 = p2x + q2x + r2,
18 Jang , Roger. “Neural fuzzy mod eling and control ”. Th e proceeding of the IEEE , vol . 83, No. 3 , Marzo 1995, pp 378-406 .
IEL-1-I-05-13
39
La figura 3.1 muestra el mecanismo de razonamiento del modelo Sugeno, la
arquitectura correspondiente de ANFIS se muestra en la figura 3.2, donde los
nodos de la misma capa tienen las mismas funciones, como se mostrará a
continuación.
Figura No 9. M ecanismo de razonamiento del modelo Sugeno.
Los controladores Neurodifusos se div iden en tres áreas 19:
1. Modelos concurrentes:
Estos modelos son sis temas difusos y redes neuronales que funcionan
funcionando simultáneamente, sin embargo ninguno de los dos tiene la
capac idad de determinar los parámetros correspondientes al otro.
2. Modelos cooperativos:
Estos modelos presentan dos c ic los. El pr imero consiste en el
entrenamiento y el segundo en la operac ión. En este caso las Redes
Neuronales son utilizadas para determinar los parámetros del sistema de
inferencia difuso.
3. Modelos híbridos:
Los modelos híbridos combinan los conocimientos y caracter ísticas de
aprendizaje de las redes neuronales y los sis temas difusos. Ex isten dos
19 LIN, Chin-Teng. LEE, C.S. George. "Neural Fuzzy Systems". Editorial Prentice Hall, New Jersey
IEL-1-I-05-13
40
tipos , el primero es un sistema neuronal con comportamiento difuso, y el
segundo, un sistema difuso con parámetros distribuidos.
El modelo de controlador ANFIS (s istema de inferencia difusa basado en redes
adaptativas) es un modelo híbrido, es te modelo es ta derivado del
comportamiento de una red adaptativa tipo Falcon20 de propagac ión hacia
adelante21. Esta red tiene una arquitectura22 de la siguiente forma:
Figura No 10. Arquitectura de ANFIS.
Funcionalmente hablando, la arquitectura de ANFIS es completamente
equivalente a un Sistema de Inferencia Difuso tipo Sugeno; sin embargo al
implementar un controlador difuso como ANFIS, se emplean algoritmos de
aprendizaje para encontrar sus parámetros y lograr una mínima medida de
error .
20 Ingeniero Miguel Ángel Franco F. Diseño e implementación de un controlador neurodifuso con optim ización por medio de algoritmos evolutivos. http://www. monograf ias.com/trabajos16/secador-alimentos/secador-aliment os.shtml 21 Jyh-Shing, Roger Jang. "ANFIS Adaptative Net work-Based Fuzzy Inf erence System". Depart amento de ingeniería eléctrica, Universidad de Calif ornia. 22 Jang, Roger. “Neural f uzzy modeling and control”. The proceeding of the IEEE, vol. 83, No. 3, Marzo 1995, pp 378-406.
IEL-1-I-05-13
41
Capa 123:
Cada nodo en esta capa, es un nodo adaptativo con un nodo función, donde x
(o y) es la entrada al nodo i y Ai (o Bi) es una etiqueta lingüística (como
“pequeño” o “grande”) asoc iada con este nodo. En otras palabras, O1,i, es el
grado de pertenencia de un sis tema borroso A (=A1, A2, B1 o B2) y espec ifica el
grado en el cual la entrada dada x (o y) satisface el cuantificador A. La func ión
de pertenencia de A puede ser cualquier función parametrizada, como la
función gaussiana bell;
Donde {ai, bi, ci} son sus parámetros. Teniendo en cuenta que es tos
parámetros cambian, la forma de la campana varía, mostrando diferentes
formas de las func iones de pertenencia del s istema borroso.
Esta capa es la encargada de modificar los parámetros de las funciones de
pertenencia de las entradas. La siguiente gráfica muestra los efec tos de
cambiar los valores de {ai, bi, ci} en la función µAi(x):
23 J. –S. R. Jang, C. –T. Sun, E. Mizutani, Neuro-Fuzzy and Sof t Computing
IEL-1-I-05-13
42
Figura N° 11. Cambios en la s funciones de pertenencia.
Capa 2:
Cada nodo en esta capa es un nodo fijo, denominado Π , cuya salida es el
producto de las señales de entrada:
Cada nodo en es ta capa representa la fuerza de cada regla. En general,
cualquier otro operador de la norma T (mínimo, producto,…), que implemente
AND en el sistema borroso, puede ser usado como el nodo función en esta
capa.
Capa 3:
Cada nodo en es ta capa es un nodo fijo, denominado N. El i-és imo nodo
calcula la proporc ión de la fuerza de la i-és ima regla y la suma de todas las
fuerzas de las reglas:
IEL-1-I-05-13
43
Las salidas de esta capa son determinadas, fuerzas normalizadas.
Capa 4:
Cada nodo en esta capa es un nodo adaptativo con un nodo función:
Donde iω es una fuerza normalizada proveniente de la capa 3 y {pi, qi, ri} son
los parámetros de este nodo. Los parámetros en esta capa son denominados,
parámetros consecuentes.
Capa 5:
El único nodo en esta capa es un nodo fijo denominado Σ, el cual computa la salida total como la suma de todas las señales provenientes de la capa 4.
∑ ∑∑
==i
ii
iii
ii
ffO
ω
ωω1,5
Esta salida es lineal, teniendo en cuenta los parámetros consecuentes p, q, r.
La red adaptativa mostrada anteriormente es funcionalmente equivalente a un
modelo difuso Sugeno. Se puede apreciar que la estructura de esta red no es
única, se pueden combinar las capas 3 y 4, y obtener el mismo resultado con
solo dos capas. En el caso ex tremo, se puede reduc ir de tal manera, que se
obtenga un solo nodo con el mismo conjunto de parámetros. Es ev idente, que
la as ignación de las func iones de los nodos y la configurac ión de la red, es
IEL-1-I-05-13
44
arbitrar ia, sin embargo, siempre se mantienen las mismas func iones para llegar
al objetivo.
Como se puede ver, según la arquitec tura mostrada, las neuronas en ANFIS
tienen distintas estructuras:
• Valores (Func iones de Pertenenc ia definidas , en la mayoría de las
casos, la más usada es la de tipo bell.
• Reglas (Norma T diferenc iable, usualmente producto).
• Normalizac ión (Suma y Divis ión algebraica).
• Funciones ( Regresiones Lineales y multiplicac iones con los pesos,
w )
• Salida (Suma A lgebraica).
ANFIS usa dos tipos de parámetros, S1 y S224.
• S1, representa las partic iones difusas usadas en las reglas.
• S2, representa los coeficientes de las funciones lineales en las
reglas.
Por otro lado ANFIS tiene 2 tipos de cic los de aprendizaje:
[1] Propagac ión hacia delante (Forw ard Pass) :
En este caso S1 es fijo y S2 es computado usando el método de
mínimos cuadrados (LSE). Aprendizaje Off-Line
[2] Propagac ión hacia atrás (Backforw ard Pass) :
En este caso S2 es fijo y S1 es computado usando el algoritmo
descendiente del gradiente (usualmente Back-Propagation) .
IEL-1-I-05-13
45
4.2 ALGORITMOS DE APRENDIZAJE:
De la arquitectura mostrada anter iormente, se puede observar que cuando los
valores antecedentes son fijos, la salida puede ser descrita como una
combinación lineal de los parámetros consecuentes. Matemáticamente la salida
f en la figura 3.2 puede ser escrita:
La cual es lineal es los parámetros consecuentes p1, q1, r1, p2, q2 y r 2. De esta
observación, podemos usar un algoritmo de aprendizaje híbr ido, para la
estimac ión de los parámetros en este tipo de modelos. Mas específicamente,
en el proceso hac ia adelante del aprendizaje híbrido, las salidas de los nodos
van hac ia delante hacia la capa 4 y los parámetros consecuentes son identificados por el método de los mínimos cuadrados. En el paso hacia
delante, la señal de error propagada hacia atrás y los parámetros antecedentes
son actualizados por el método de backpropagation, más específ icamente el
método descendente del gradiente.
4.2.1 METODO DE MINIMOS CUADRADOS:
Para calcular los parámetros consecuentes se utiliza el método de los mínimos
cuadrados. Este método se basa en el cálculo mínimo del error entre la salida y
la referencia.
Pr imero, para una serie de datos dados S1 (Parámetros antecedentes), usando
K datos de entrenamiento, se puede transformar la ecuación en B = AX, donde X contiene los elementos de S2 (Parámetros consecuentes).
24 J. S. R. Jang and C. – T. Sun, “Neuro-Fuzzy Modeling and Control”, Proceedings of the IEEE,
IEL-1-I-05-13
46
Esto se resuelve obteniendo:
(ATA)-1AT B=X*
Donde (ATA)-1AT es la pseudo- inversa de A (s i (ATA) es no singular).
El algoritmo de mínimos cuadrados (LSE) minimiza el error ||AX-B||2
aprox imando X con X*25.
4.2.2 METODO DE BACKPROPAGATION:
Para poder calcular los parámetros de una red neuronal adaptativa y obtener la
salida deseada, estos parámetros se actualizan de acuerdo a los datos de
entrenamiento y basados en el método del gradiente que se explica a
continuación26:
Suponemos una red neuronal adaptativa cuyas salidas se denominan:
Donde a,b,c son los parámetros pertenec ientes al nodo.
Asumiendo que el vec tor correspondiente a los datos de entrenamiento tiene P
entradas, se puede definir la medida del error, como la sumatoria de los errores
cuadráticos de la red.
Donde T corresponde al vector objetivo y O a la salida actual de la red.
Por lo tanto la medida total del error está dad por:
83(3): 378-406 25 Jang, Roger. “ Neural fuzzy modeling and control”. The proceeding of th e IEEE, vol. 83, No. 3, Marzo 1995, pp 378-406.
.....),,,,.........( 1)(#
1 cbaOOOO kik
ki
ki
ki
−−
−=
∑=
−=)(#
1
2,, )(
L
m
Lpmpmp OTE
∑=
=p
ppEE
1
IEL-1-I-05-13
47
Para poder desarrollar el algoritmo de aprendizaje que implementa el gradiente
descendente del error , es necesar io calcular la tasa de error que se genera por
cada una de las salidas de la red.
Esta tasa de error para el nodo de la salida se puede calcular de la siguiente
manera:
Por lo tanto la tasa de error de un nodo interno puede ser expresada como una
combinación lineal de las tasas de error de los nodos de la siguiente capa.
Ahora teniendo en cuenta que α es un parámetro de la red adaptativa dada, se
tiene:
Donde S es el conjunto de parámetros de los nodos, cuyas salidas dependen
de α.
Entonces la der ivada del error E con respecto a α es:
La fórmula de actualizac ión del parámetro α es:
Donde n corresponde a la tasa de aprendizaje, y esta expresada de la s iguiente
manera:
Por lo tanto el cambio en cada parámetro estará dado por:
26 Jyh-Shing, Roger Jang. "ANFIS Adaptative Net work -Based Fuzzy Inf erence System"
)(2 ,,,
Lpipik
pi
p OTOE
−−=∂
∂
αα ∂∂
⋅∂
∂=
∂
∂∑
⋅
*
*
OOEE
ESO
pp
∑= ∂
∂=
∂∂ P
p
pEE1 αα
αηα
∂∂
−=∆E
∑ ⎟⎠⎞
⎜⎝⎛
∂∂
−=
α α
η2E
k
αηαα
∂∂
−=E
IEL-1-I-05-13
48
4.2.3 METODOS PARA LA ACTUALIZACION DE LOS PARAM ETROS:
Actualmente ex isten 4 métodos para actualizar los parámetros de los s istemas
de inferenc ia difusos.
1. Solo Gradiente Descendiente:
Todos los parámetros son actualizados por es te método.
2. Gradiente Descendiente y un paso de LSE (Error mínimo cuadrático):
El LSE es aplicado solo al pr inc ipio para obtener los valores iniciales de
los parámetros consecuentes y luego el gradiente descendiente toma
todo para actualizar los parámetros.
3. Secuencial (Aprox imado) solo LSE:
El ANFIS es linealizado, y el algor itmo de Kalman es empleado para
actualizar los parámetros.
4. Gradiente Descendiente y LSE:
Esta es la regla híbrida de aprendizaje propuesta27.
4.2.4 EJEMPLO DE APLICACIÓN “APROXIMACION DE FUNCIONES”:
Ejemplo 1:
A continuac ión se muestra un ejemplo en el cual se calculan los parámetros
consecuentes del sistema por medio del método de mínimos cuadrados.
En este ejemplo se pretende encontrar utilizando ANFIS, el FIS que mejor se
aprox ima a la func ión dada.
Función:
xy =
Al graficar la anter ior función se obtiene:
[1] 27 José D. Martín, Implementación de Redes Neuro-Di fusas para ser Aplicadas en Problemas de
Clasi ficación y Modelización, pp. 1-25 ,USA 2000
IEL-1-I-05-13
49
Figura N° 12. Grafica de la función a aproximar.
Como se mencionó anter iormente, se requiere de una ser ia de parámetros de
entrada para poder inic iar el método. Estos parámetros se muestran a
continuación:
1. Datos de entrenamiento: Estos datos fueron generados tomando
valores desde cero hasta 100, incrementando en 0.1 cada valor.
x = (0:0.1:100)
xy =
Estos datos fueron divididos en dos grupos, el 90% de estos se tomaron para el entrenamiento, y el 10% restante para la validación.
2. FIS: El s istema difuso inicial fue generado con la función genfis1,
teniendo en cuenta los siguientes parámetros de entrada:
• Datos de entrenamiento = 90% de los datos de entrada
• Número de func iones de per tenenc ia = 3
• Tipo de las funciones de pertenencia = gbellmf
El sistema obtenido se muestra a continuación:
IEL-1-I-05-13
50
Figura N° 13. Funciones de pertenecía del FIS inicial.
Parámetros del FIS inicial:
InMFParams:
in1mf 1 = [22.48 2 0]
in1mf 2 = [22.48 2 44.95]
in1mf 3 = [22.48 2 89.9]
OutMFParams:
out1mf1 = [0 0 0]
out1mf2 = [0 0 0]
out1mf3 = [0 0 0]
3. Se resuelven las operac iones de entre las matrices, en base a la
siguiente ecuac ión:
(ATA)-1AT B=X*
Se obtiene el vec tor X, que contiene los parámetros consecuentes. Los
resultados obtenidos para el FIS son los s iguientes:
IEL-1-I-05-13
51
Figura Nº 14. Funciones de pertenecía del FIS final.
Parámetros del FIS final:
InMFParams:
in1mf 1 = [22.48 2 0]
in1mf 2 = [22.48 2 44.95]
in1mf 3 = [22.48 2 89.9]
OutMFParams:
out1mf1 = [0.1886 1.057 0]
out1mf2 = [0.08988 2.44 0]
out1mf3 = [0.07238 2.948 0]
La siguiente gráfica muestra las dos superficies que se obtienen con los
sistemas difusos, así mismo se muestra el resultado final luego de realizar la
aprox imación.
IEL-1-I-05-13
52
Figura Nº 15. Superficies del si stema difuso.
La s iguiente gráfica muestra el error que se obtiene con ambos s istemas
difusos. Se puede aprec iar una disminuc ión del error luego del entrenamiento
usando ANFIS.
Figura Nº 16. Errores obtenidos con los sistemas difusos.
Finalmente la func ión obtenida con el s istema difuso obtenido.
IEL-1-I-05-13
53
Figura Nº 17. Resultados después del entrenamiento.
Ejemplo # 2:
Ahora se realiza el mismo procedimiento, con la siguiente func ión:
Función:
3
)2
cos(x
e
x
y =
Al graficar la anter ior función se obtiene:
Figura N° 18. Grafica de la función a aproximar.
IEL-1-I-05-13
54
1. Datos de entrenamiento: Estos datos fueron generados tomando
valores desde cero hasta 100, incrementando en 0.1 cada valor.
x = (0:0.1:100)
3
)2
cos(x
e
x
y =
Estos datos fueron div ididos en dos grupos, el 90% de es tos se
tomaron para el entrenamiento, y el 10% restante para la
validac ión.
2. FIS: El s istema difuso inicial fue generado con la función genfis1,
teniendo en cuenta los siguientes parámetros de entrada:
• Datos de entrenamiento = 90% de los datos de entrada
• Número de func iones de per tenenc ia = 5
• Tipo de las funciones de pertenencia = gauss2mf
El sistema obtenido se muestra a continuación:
Figura N° 19. Funciones de pertenencia del FIS inicial.
IEL-1-I-05-13
55
Parámetros del FIS inicial:
InMFParams:
in1mf 1 = [3.818 -6.743 3.818 6.743]
in1mf 2 = [3.818 15.73 3.818 29.22]
in1mf 3 = [3.818 38.21 3.818 51.69]
in1mf 4 = [3.818 60.68 3.818 74.17]
in1mf 5 = [3.818 83.16 3.818 96.64]
OutMFParams:
out1mf1 = [0 0 0]
out1mf2 = [0 0 0]
out1mf3 = [0 0 0]
out1mf4 = [0 0 0]
out1mf5 = [0 0 0]
3. Los resultados obtenidos luego de implementar el método de
mínimos cuadrados, son los siguientes:
Figura Nº 20. Funciones de pertenecía del FIS final.
IEL-1-I-05-13
56
Parámetros del FIS final:
InMFParams:
in1mf 1 = [3.818 -6.743 3.818 6.743]
in1mf 2 = [3.818 15.73 3.818 29.22]
in1mf 3 = [3.818 38.21 3.818 51.69]
in1mf 4 = [3.818 60.68 3.818 74.17]
in1mf 5 = [3.818 83.16 3.818 96.64]
OutMFParams:
out1mf1 = [-0.07424 0.4529 0]
out1mf2 = [-0.008826 0.2271 0]
out1mf3 = [-0.001776 0.08523 0]
out1mf4 = [-0.0003962 0.02773 0]
out1mf5 = [-0.0002873 0.02493 0]
La siguiente gráfica muestra las dos superficies que se obtienen con los
sistemas difusos, así mismo se muestra el resultado final luego de realizar la
aprox imación.
Figura Nº 21. Superficies del si stema difuso.
La s iguiente gráfica muestra el error que se obtiene con ambos s istemas
difusos. Se puede aprec iar una disminuc ión del error luego del entrenamiento
usando ANFIS.
IEL-1-I-05-13
57
Figura Nº 22. Errores obtenidos con los sistemas difusos.
Finalmente la func ión obtenida con el s istema difuso obtenido.
Figura Nº 23. Resultados después del entrenamiento.
4.3 FUNCION ANFIS.
ANFIS usa un algoritmo híbrido de aprendizaje para identificar los parámetros
de las func iones de pertenenc ia de un sistema borroso con una única salida,
usando el s istema de inferencia difuso de tipo Takagi – Sugeno. Esta función
IEL-1-I-05-13
58
tiene ciertos parámetros que permiten es tablecer las opciones que se desean
el entrenamiento. Los parámetros se muestran a continuación28:
Parámetros de Entrada:
1) Trndata (Datos de entrenamiento) : Estos datos son usados para
sintonizar las funciones de per tenencia de las var iables de
entrada/salida. Trndata es una matriz con N+1 columnas donde
las pr imeras N columnas contienen la informac ión para cada de
las entradas del FIS y la última columna contiene la informac ión
de la salida.
2) Error: Es un arreglo que contiene los errores cuadráticos del
entrenamiento. (Diferencia entre la salida del FIS y los datos de
entrenamiento de la salida) en cada iterac ión.
∑=j
jeSSE 2
Donde ej es el error entre la deseada y la actual salida.
3) Initfis (Sistema Borroso inicial): Este sis tema borroso se puede
obtener ya sea con el toolbox de fuzzy o con la f unc ión genfis1.
4) TrnOpt (Opc iones para el entrenamiento) : Determina las opciones
para el entrenamiento de ANFIS. Existen 5 opciones pos ibles:
• Numero de Iteraciones.
• Error deseado.
• Pulso Inicial.
• Tasa de decrecimiento del pulso.
• Tasa de crecimiento del pulso.
El proceso de entrenamiento se detiene, cuando se cumple el
número de iteraciones o error deseado.
28 AN FIS (Ad aptive Neuro-Fuzzy In ference System). http://www.control .hut.fi/Kurssit/AS-74.115/Material/FVAnfis2.pd f
IEL-1-I-05-13
59
5) Dispopt (Opciones de visualizac ión): Especifica las opc iones que
se muestran durante el entrenamiento. Existen cuatro opciones
posibles:
• Información general de ANFIS.
• Error.
• Tamaño del pulso en cada ac tualización de los parámetros.
• Resultados Finales.
6) Optmethod (Método de optimizac ión): Selecc iona el tipo de
método de optimizac ión durante el entrenamiento. Ex isten 2
métodos:
• Híbrido: Combina el método de mínimos cuadrados y Retropropagac ión.
• Retropropagac ión.
7) Chkdata (Datos para la validac ión): Estos datos son usados para
validación, con el fin de prevenir sobrepaso de los datos de
entrenamiento. Los sobrepasos pueden ser detectados cuando el
error de validación (diferenc ia entre la salida del CHKFIS y los datos de validación de la salida) empieza a aumentar mientras
que el error de entrenamiento va disminuyendo. CHKFIS muestra
la imagen del FIS tomada cuando el error de validación alcanza el
mínimo.
Parámetros de Salida:
1) FIS: Muestra el fuzzy obtenido.
2) Error.
3) Tamaño del Pulso.
4) Chkfis (Validación del s istema borroso) : Muestra la imagen del
FIS obtenida cuando el error de validac ión alcanza el mínimo.
5) Chkerror (Error de validación): Es un arreglo que contiene los
errores cuadráticos, errores de validación en cada iterac ión.
IEL-1-I-05-13
60
El s iguiente diagrama de flujo muestra el proceso de inic ializac ión de
ANFIS.
Figura Nº 24. Proceso de inicialización ANFIS.
4.3.1 EJEMPLO DE APLICACIÓN “SISTEM A DE TANQUE”:
Se aplica la técnica que propone ANFIS a un tanque esférico con las siguientes
carac ter ísticas :
• Radio del Tanque r = 5 cm.
• Área del tanque A = 78.54 cm3
• k = 40 cm5/2 / s
• Rango h( t) [0 – 16 cm.]
• Rango Wi(t) [0 – 160]
Figura Nº 25. Diagrama del Tanque a controlar.
ANFIS
INICIALIZ AR EL SISTEM A BORROSO
DETERMINAR LOS PARÁMETROS DEL APRENDIZAJE
Los más importantes son: Número de iteraciones y Tolerancia (error deseado).
INICIAR EL APRENDIZAJE Usar el comando ANFIS.
Parar cuando el error se obtiene.
VALID ACIÓN Valid ar con los datos de prueba
IEL-1-I-05-13
61
Se tiene un tanque con dos válvulas, una a la entrada y uno a la salida. El
objetivo es controlar la altura en función del caudal entrada Wi(t), por lo tanto la
función que la entrada con la salida es de la s iguiente forma:
)(
)(1)(
thkWo
WoWiAdt
tdh
=
−=
Donde:
Wi: Caudal de Entrada.
Wo: Caudal de Salida.
h: Nivel de agua en el tanque.
H: Nivel deseado en el tanque.
Ahora procedemos a calcular la función de transferencia del s istema:
R: Resis tenc ia del flujo
R = (Ca mbio en la diferencia de niveles [cm.] / (Cambio en el gasto [cm3/seg.]
Tomando este s istema como si tuv iera flujo no laminar ( turbulento), tenemos:
HKQ =
Q: Caudal cm3/seg.
K: Coeficiente de proporc ionalidad para el flujo
H: Altura.
QH
KH
dHH
KdHR
HQKHKQ
dQdHR
22
2
===
=⇒=
=
C: Capac itancía del Tanque.
C=Ca mbio en el volumen/ca0mbo en la altura [cm3/cm] =HV
∆∆
IEL-1-I-05-13
62
ACHV
HHA
HV
HAVHAV
==∆∆
∆∆∗
=∆∆
∆∗=∆∆∗∆=∆
La diferencia del flujo de entrada QIN y el flujo de salida QOUT en un lapso corto
de tiempo es igual a la cantidad de líquido acumulado (volumen).
[ ]
RHQ
RtHtQ
dTQQtCdh OUTIN
=
=
−=
0
0)()(
0)(
Reemplazando Obtenemos:
[ ]
IN
IN
IN
IN
OUTIN
RQthdtdhRC
RthRQ
dtdhC
RthRQ
dtdhC
dTRthQtCdh
dTQQtCdh
=+
−=
−=
⎥⎦⎤
⎢⎣⎡ −=
−=
)(
)(
)(
)()(
)(
Transformando es ta ecuación cons iderando condiciones iniciales cero tenemos
IEL-1-I-05-13
63
ACK
HR
RCsR
sQsH
sRQsHRCsth
stdtdh
IN
IN
=
=
+=
=+=
=
2
1)()(
)()()1(1)(
)(
Las funciones de transferencia para dos puntos de operac ión son las
siguientes:
.41854.7
1.0)()(
cmHssQ
sH
=+
= .8
110.111414.0
)()(
cmHssQ
sH
=+
=
Figura Nº 26. Función de Transferencia del si stema para dos puntos de
operación.
Luego de hallar la función de transferencia, se realizó la simulación del sistema,
tomando como entrada un escalón:
IEL-1-I-05-13
64
Figura Nº 27. Respuesta del sistema con una entrada escalón.
Como pr imera medida de control se implementó un PI. Para este diseño los
valores de las constantes, Kp y Ki, fueron tomados a prueba y error, basados
en los resultados obtenidos en varias simulac iones. En control es te un es uno
de los pr incipales problemas, la sintonización de los parámetros que mejoren la
respuesta del s istema.
Figura Nº 28. Diagrama de bloques del controlador PI.
Para los modelos los valores tomados para la simulación fueron:
• Punto de Operación en H=4 cm, Kp= 10, Ki= 1.
• Punto de Operación en H=8 cm, Kp=20, Ki=1.
IEL-1-I-05-13
65
Figura Nº 29. Respuesta del si stema con un controlador PI.
Al variar la referenc ia, la respuesta del sistema es la siguiente:
Figura Nº 30a. Diagrama de bloques controlador PI con una entrada
múltiple.
Figura Nº 30b. Respuesta del si stema con un controlador PI con una
entrada múltiple.
Figura Nº 30. Controlador PI con una entrada múltiple.
IEL-1-I-05-13
66
Como podemos ver, el sis tema presenta var ias oscilaciones, y por lo tanto
presenta sobrepasos en la señal de salida.
Como segunda medida se utilizó un controlador ANFIS, el cual se
implementó en paralelo al controlador PI anter iormente diseñado.
En es te caso, se utilizó la función ANFIS, para mejorar la respuesta del
sistema. Los resultados obtenidos son los s iguientes:
Figura Nº 31a. Diagrama de bloques controlador ANFIS.
Figura Nº 31b. Respuesta del si stema con un controlador ANFIS.
Figura Nº 31. Controlador ANFIS.
De la anterior gráfica podemos ver, como ANFIS mejora la respuesta del
sistema, logrando una disminución s ignificativa del error.
IEL-1-I-05-13
67
5. SISTEMA DE PELOTA Y PALANCA.
El s istema selecc ionado como es tudio de esta técnica, es el problema de
posic ión de la pelota y la palanca29, el cual se muestra en la figura 3.
Figura Nº 32. Diagrama si stema de pelota y palanca.
. Una pelota es situada, como se muestra en la anterior figura, donde tiene la
capac idad de rodar con un grado de libertad a lo largo de la palanca. Un brazo mecánico se une a la palanca en un extremo y un servo engranaje en el otro. A
medida que el motor gira por un ángulo theta, el brazo mecánico cambia el
ángulo de la palanca en alpha. Cuando el ángulo es cambiado de la posic ión
horizontal, la gravedad provoca que la pelota ruede a lo largo de la palanca. Un
controlador será diseñado para este s istema, con el fin de que la posición de la
bola sea manipulada.
29 Mod elling the ball and beam experi ment. http://www.library.cmu .edu/ ct ms/ctms/examples/ball/ball.ht m
IEL-1-I-05-13
68
5.1 MODELAMIENTO DEL SISTEM A:
Para este problema se asume que la fricción entre la palanca y la pelota es
despreciable. Las constantes y variables para este sistema se definen a
continuación:
M: Masa de la pelota = 0.11 Kg.
R: Radio de la pelota = 0.015 m
d: Co mpensac ión del brazo de la palanca = 0.03m
g: Acelerac ión de la gravedad = 9.8 m/s^2
L: Longitud de la palanca = 1.0 m
J: Momento de inercia de pelota = 9.99e-6kgm^2
r: Pos ic ión de la pelota
Alpha: Angulo de la palanca
Theta: Angulo del motor
La ecuac ión de Lagrange que modela el sistema de la pelota y la palanca es la
siguiente:
Linealizando esta ecuación alrededor del ángulo de palanca, α = 0, nos da
como resultado la s iguiente aproximación lineal del sistema:
La ecuac ión que relac iona el ángulo de palanca con el ángulo del motor, puede
ser aprox imada linealmente como se muestra:
Substituyendo esto en la anterior ecuación obtenemos:
IEL-1-I-05-13
69
Al realizar la transformada de Laplace de la anter ior ecuac ión obtenemos:
Reorganizando la ecuac ión, se obtiene la función de transferenc ia en func ión
del ángulo theta del motor y la posic ión de la pelota.
5.2 ESTRATEGIAS DE CONTROL:
La respuesta del s istema en lazo abier to del s istema es :
Figura Nº 33. Respuesta del si stema en lazo abierto.
Con el fin de lograr manipular la pos ic ión de la pelota y as í mismo comparar
la respuesta del sistema, implementando diferentes técnicas de control, se
diseñaron las siguientes estrategias:
1) Control Proporc ional PD.
2) Takagi Sugeno.
3) Control Proporc ional en paralelo controlador ANFIS.
IEL-1-I-05-13
70
4) Takagi Sugeno en paralelo controlador ANFIS.
5) Controlador ANFIS con capacidad de adaptación continúa.
5.2.1 CONTROL PROPORCIONAL PD.
Esta técnica fue implementada tomando los siguientes valores para las
constantes Kp y Kd.
Kp = 1000
Kd = 100
Los resultados obtenidos se muestran a continuación:
Figura Nº 34a. Posi ción de la pelota vs. Referencia.
Figura Nº 34b. Error.
Figura Nº 34. Respuesta del si stema implementando un controlador
PD.
5.2.2 TAKAGI SUGENO. Para es te controlador se diseño un sis tema de inferencia difuso, con las
siguientes caracter ísticas:
Entrada: Error [-0.5 0.5]
Salida: Angulo de la palanca (Theta) [-0.4 0.4]
Funciones de pertenencia de tipo: gaussmf
Número de Reglas: 3
IEL-1-I-05-13
71
Para hallar los parámetros de las funciones de pertenenc ia de la entrada, fue
necesario es tudiar la dinámica del s istema, sin embargo, este procedimiento es
demasiado imprec iso.
Figura Nº 35. Parámetros de las funciones de pertenencia de la
entrada.
Así mismo, la determinac ión de las reglas, se realizó de manera imprecisa. A
continuación se muestra la representación de la salida, cuando se tiene en la
entrada Error = 0.
Figura Nº 36. Diagrama de repr esenta ción de la s r egla s del sistema.
Luego de diseñar el s istema de inferencia difuso, se implementa el controlador
en la planta, los resultados obtenidos se muestran a continuac ión:
IEL-1-I-05-13
72
Figura Nº 37a. Diagrama de bloques controlador Takagi Sugeno.
Figura Nº 37b. Posi ción de la pelota vs. Refer encia.
Figura Nº 37c. Error
Figura Nº 37. Respuesta del si stema implementando un controlador
Takagi Sugeno.
5.2.3 CONTROL PROPORCIONAL EN PARALELO CON CONTROLADOR
ANFIS.
En este caso se utilizó el controlados PD diseñado anteriormente, y se
implementó un controlador ANFIS en paralelo, con el fin de mejorar la
respuesta del s istema.
Los resultados obtenidos se muestran a continuación:
IEL-1-I-05-13
73
Figura Nº 38a. Posi ción de la pelota vs. Referencia.
Figura Nº 38b. Error.
Figura Nº 38. Respuesta del si stema implementando un controlador PD en paralelo con controlador ANFIS.
5.2.4 TAKAGI SUGENO EN PARALELO CON CONTROLADOR ANFIS.
Este controlador se diseño con la ayuda de Toolbox de Matlab que permite
implementar un controlador ANFIS en base a un sis tema de inferenc ia difuso
Sugeno, diseñado previamente.
En este caso fue necesar io ingresar los siguientes parámetros:
• Datos de Entrenamiento.
• Datos de Validación.
• Sistema difuso inic ial.
• Método: Híbrido o Backpropagation
• Iterac iones
• Tolerancia
Los resultados obtenidos utilizando es te controlador se muestran a
continuación:
IEL-1-I-05-13
74
Figura Nº 39a. Diagrama de bloques controlador Takagi Sugeno en
paralelo con controlador ANFIS.
Figura Nº 39b. Posi ción de la pelota vs. Refer encia.
Figura Nº 39c. Error.
Figura Nº 39. Respuesta del si stema implementando controlador
Takagi Sugeno en paralelo con controlador ANFIS.
IEL-1-I-05-13
75
5.2.5 CONTROLADOR ANFIS CON CAPACIDAD DE ADAPTACION
CONTINUA.
El propósito de este controlador es diseñar un sistema que tenga la
capac idad de adaptarse continuamente ante cualquier cambio en la
referenc ia. Para este caso se utilizó la func ión ANFIS con el fin de operar
iterativamente, en el cambio de las funciones de pertenencia del sistema. El
controlador arrojó los s iguientes resultados:
Figura Nº 40a. Diagrama de bloques controlador ANFIS con capa cidad
de adapta ción continúa.
Figura Nº 40b. Posi ción de la pelota vs. Refer encia.
Figura Nº 40c. Error.
Figura Nº 40. Respuesta del si stema implementando un controlador ANFIS con capacidad de adaptación continúa.
IEL-1-I-05-13
76
El siguiente diagrama se puede ver la arquitectura que se genera al utilizar
controladores ANFIS. La arquitectura consta de 5 capas, en la cual se
identifica las var iables de entrada, las funciones de pertenencia de la
entrada, y el nodo de la salida.
Figura Nº 41. Arquitectura de ANFIS del si stema de la pelota y la
palanca.
IEL-1-I-05-13
77
6. CONCLUSIONES Y PERSPECTIVAS.
Los resultados obtenidos han permitido llegar a conclusiones sobre ANFIS. A
continuación se presentan algunas de estas observaciones:
1. Los sistemas neuro difusos , poseen una gran variedad de aplicaciones, no
solo s irven para aproximaciones de funciones no lineales, sino que también
permiten el control de sis temas.
2. ANFIS tiene la capacidad de crear o modificar las reglas difusas, a través de
técnicas de aprendizaje neuro difusas, mostrando resultados favorables con
respecto a otras técnicas de control.
3. Las s imulaciones han arrojado una serie de resultados, los cuales muestran
que ANFIS es una arquitectura que optimiza la salida de la planta
seleccionada, en este caso el modelo de la pelota y la palanca, y además
se puede aprec iar que los resultados obtenidos al implementar un
controlador ANFIS, presentan mejores resultados en comparac ión con las
demás técnicas .
4. Entre las ventajas y desventajas de utilizar esta arquitectura están:
Ventajas:
• Presenta una convergencia más rápida, que una red neuronal típica
Backpropagation.
• Requiere de un menor número de datos para el entrenamiento.
• La sintonización de los parámetros es muy precisa.
IEL-1-I-05-13
78
Desventajas:
• No se pueden usar funciones trapezoidales para la s intonización.
• Los datos de entrenamientos que usa la red, deben ser muy prec isos
con el fin de lograr la mejor respuesta del s istema.
IEL-1-I-05-13
79
7. BIBLIOGRAFIA.
Algor itmo Backpropagation.
http://www.uca.es/dept/leng_sist_informaticos /preal/23041/transpas/E-
Backpropagation/ppframe.htm
ANFIS (Adaptive Neuro-Fuzzy Inference System).
http://www.control.hut.fi/Kurssit/AS-74.115/Material/FVAnfis2.pdf
Ingeniero Miguel Ángel Franco F. Diseño e implementac ión de un controlador
neurodifuso con optimizac ión por medio de algoritmos evolutivos.
http://www.monografias.com/trabajos16/secador-alimentos/secador-
alimentos.shtml
Introducc ión a la Inteligencia Ar tific ial. http://cruzrojaguayas.org/inteligenc ia/
Jang, Roger. “Neural fuzzy modeling and control”. The proceeding of the IEEE,
vol. 83, No. 3, Marzo 1995, pp 378-406.
José D. Martín, Implementac ión de Redes Neuro-Difusas para ser Aplicadas en
Problemas de Clas ificación y Modelizac ión, pp. 1-25,USA 2000
Jyh-Shing, Roger Jang. "ANFIS Adaptative Netw ork-Based Fuzzy Inference
System". Departamento de ingenier ía eléctrica, Univers idad de California.
IEL-1-I-05-13
80
Jyh-Shing Roger Jang (Taiw an in 1962). Durante 1991-1992, Desarrollo un
modelo utilizando redes neuronales y lógica difusa. Se interesó especialmente
por el área de los controladores.
J. S. R. Jang, C. –T. Sun, E. Mizutani, Neuro-Fuzzy and Soft Computing
J. S. R. Jang and C. – T. Sun, “Neuro-Fuzzy Modeling and Control”,
Proceedings of the IEEE, 83(3) : 378-406
Kung and Liaw , 1994; Yin and George Lee, 1995; Liaw and Cheng, 1996.
Shamma and Athans, 1992.
Las Redes Neuronales.
http://www.pue.udlap.mx/~tesis /lis/navarrete_g_j/capitulo2.pdf
LIN, Chin-Teng. LEE, C.S. George. "Neural Fuzzy Systems". Editorial
Prentice Hall, New Jersey
Mg. Rodrigo Salas F. Neuro Fuzzy Systems, “Anális is inteligente de la
informac ión para la toma de dec isiones”.
Modeling the ball and beam experiment.
http://www.library.cmu.edu/ctms/ctms/examples/ball/ball.htm
Nohé Ramón Cázarez Castro, Sistemas Neuro-Difusos para la identificación y
Control de Sistemas No Lineales.
Patr icia Melín and Oscar Castillo, Modelling, Simulation and Control of non
linear dynamical systems.
Redes Neuronales .
http://ingenieria.udea.edu.co/investigac ion/mecatronica/mectronics /redes.htm
IEL-1-I-05-13
81
Redes Neuronales y Teor ía de conjuntos difusos.
http://www.tdcat.cesca.es/TESIS_UPC/AVAILABLE/TDX-0416102-
075520/26ApendiceD.PDF
Rigoberto Toxqui Toxqui, Redes Neuronales Dif usas dinámicas para
identificación y control adaptable.
Tseng and Hw ang, 1993; Su and Stepanenko, 1994.
IEL-1-I-05-13
82
ANEXO 1
ARQUITECTURA ANFIS
Como se mencionó anter iormente, la arquitectura de ANFIS esta compuesta
por 5 capas. Las funciones de cada una de ellas, se muestran a continuación:
CAPA I Este es un nodo adaptativo el cual contiene las func iones de per tenencia de las
entradas. En este caso, suponemos una entrada, donde {a, b, c} , son los
parámetros de las func iones de pertenenc ia.
a1 = in_mf 1( i);
a2 = in_mf 2 (i+1);
a3 = in_mf 3 (i+2);
b1 = in_mf 1( i);
b2 = in_mf 2( i+1) ;
b3 = in_mf 3( i+2) ;
c1 = in_mf1( i);
c2 = in_mf2( i+1);
c3 = in_mf3( i+2);
a = [a1 a2 a3];
b = [b1 b2 b3];
c = [c1 c2 c3];
for i=1:n,
uA( i) = 1 / (1+(((x - c(i))/a( i))̂ 2)^(b(i)));
O1(i) = uA(i);
end
IEL-1-I-05-13
83
CAPA II
Este es un nodo fijo, en el cual se calculan los pesos de las entradas, teniendo
en cuenta las func iones de pertenencia de estas.
w 1 = uA(1) ;
w 2 = uA(2) ;
w 3 = uA(3) ;
w = [w 1 w 2 w 3]
CAPA III
Este es un nodo fijo, en el que se realice la normalizac ión de los pesos
provenientes de la capa 2.
w _suma = ((w (1)+w (2)+w (3)));
w _barra1 = w 1 / w _suma;
w _barra2 = w 2 / w _suma;
w _barra3 = w 3 / w _suma;
w _barra = [w _barra1 w _barra2 w _barra3]
CAPA IV
Este es un nodo adaptativo, en el cual se cambian los parámetros
consecuentes del sistema de inferencia difuso.
for i=1:n,
f(i) = p*x + q;
O4(i) = w _barra( i)*f(i);
end
IEL-1-I-05-13
84
CAPA V
Este es un nodo fijo, que da como salida una combinación lineal de las salidas
provenientes de la capa anter ior .
w _barra_suma = w _barra1 + w _barra2 + w _barra3;
output = 0;
for i=1:n,
f(i) = ((w _barra( i) *x)*p)+ ((w _barra(i) *q));
output = output + f(i) ;
end
output
IEL-1-I-05-13
85
ANEXO 2
METODO DE MINIM OS CUADRA DOS
Este método calcula los parámetros consecuentes del s istema de inferencia
difuso. Tomando una serie de datos de entrenamiento, y asumiendo valores
para S1(Parámetros antecedentes), calcula los parámetros S2(Parámetros
consecuentes), resolviendo el s iguiente sistema:
B = AX Donde X corresponde a la incógnita del sistema, S2.
Esto se resuelve obteniendo:
(ATA)-1AT B=X*
A continuación se muestra el desarrollo de este método.
En es te caso, los datos de entrenamiento fueron obtenidos luego de evaluar la
función raíz de x, en el intervalo [0 6].
Datos:
u = [0 1 2 3 4 5 6];
y_real = sqrt(u)
Cálculo de las matrices:
n = 7;
for i=1:n-1,
yk_real( i) = y_real(n+1- i);
end
n = 6;
yk_real2 = [yk_real(2) yk_real(3) yk_real(4) yk_real(5) yk_real(6) 0]';
yk1_negativo = [0 0 0 0 0 0];
IEL-1-I-05-13
86
for i=1:n,
yk1_negativo(i) = yk_real2(i) * (-1) ;
end
yk1_negativo1 = yk1_negativo';
uk = [u(1) u(2) u(3) u(4) u(5) u(6) ]';
Ok = [yk1_negativo1 uk];
Transpuesta de la Matriz :
Ok_t = Ok';
Producto (ATA):
Producto1 = Ok_t * Ok;
Inversa del producto:
Inversa = inv(Producto1);
Producto ATB=X*:
Producto2 = Ok_t * yk_real;
Solución de la ecuación (ATA)-1AT B=X*:
Ok_gorro = Inversa * Producto2
.
Recommended