39

Resumen Filtro de Kalman Equipo 3

Embed Size (px)

Citation preview

Page 1: Resumen Filtro de Kalman Equipo 3

Diseño de esquemas de control para sistemas lineales

Tarea 5: Resumen de Filtro de Kalman

Ávila Hernández Pedro Enrique

García Vega Saulo Iván

Gómez González Cristhian

Reyes Morales Rigoberto

Valenzuela Montes Rubén

19 de mayo de 2014

1. Información general

1.1. 1.1 Sobre el �ltro de Kalman

1.1.1. Que es el �ltro de Kalman

Teóricamente, es un estimador para lo que se conoce como problema cuadrático lineal

que consiste en la estimación instantánea de un estado de un sistema dinámico lineal

perturbado por ruido blanco. Utiliza mediciones linealmente relacionadas con el estado

pero corrompidas por ruido blanco. Es un estimador estadísticamente óptimo con respecto

a cualquier otra función cuadrática estimadora del error.

Prácticamente, es el más grande descubrimiento en la historia de la teoría de esti-

mación estadística y quizás el más grande descubrimiento del siglo 20. Sus aplicaciones

inmediatas han sido en el control de sistemas dinámicos complejos (aviones, procesos de

manufactura, naves o naves espaciales). Con el �ltro de Kalman es posible inferir informa-

ción perdida de mediciones indirectas y ruidosas de las variables de un sistema. También

se utiliza para predecir el curso futuro de un sistema dinámico que la gente probablemente

no puede controlar.

Para este libro, el �ltro de Kalman es:

Es una herramienta matemática. Se utiliza para facilitar y e�ciente la solución de

algunos problemas.

Es un programa de computadora. Utiliza una representación �nita de un numero

�nito de variables

1

Page 2: Resumen Filtro de Kalman Equipo 3

Es una caracterización estadística consistente de un problema de estimación. Re-

produce el estado actual del sistema incluyendo la in�uencia estadística de pertur-

baciones dinámicas aleatorias y los efectos de todas las mediciones pasadas.

1.1.2. Como llegó a ser llamado un �ltro

Su nombre se debe a que no únicamente separa dos o más señales mezcladas sino que es

capaz de a partir de variables dependientes medibles estimar las variables independientes

que le forman.

1.1.3. Sus fundamentos matemáticos

Mínimos cuadrados, teoría de probabilidad, dinámica de sistemas, sistemas estocásti-

cos. Forma parte de los fundamentos de la teoría de control moderna y es un subconjunto

de la teoría de decisión estadística.

1.1.4. Para que se utiliza

Estimación del estado de un sistema dinámico. El �ltro de Kalman permite estimar

el estado con cierto tipo de comportamiento aleatorio mediante el uso de información

estadística.

Análisis del desempeño de los sistemas de estimación tales como sensores.

El �ltro de Kalman utiliza una caracterización paramétrica de la probabilidad de distribu-

ción de sus errores de estimación en la determinación de las ganancias de �ltrado óptimo,

y esta distribución de probabilidad puede ser utilizada en la evaluación de su rendimiento

como una función de los �parámetros de diseño� de un sistema de estimación, tales como:

Tipos de sensores a utilizar

Locaciones y orientaciones de varios tipos de sensores con respecto al sistema a ser

estimado.

Las características del ruido admisible de los sensores

Métodos de pre�ltro para ruido suavizado del sensor

Frecuencias de muestreo para varios tipos de sensores

El nivel de simpli�cación del modelo para reducir los requerimientos de implemen-

tación

La capacidad analítica del formalismo del �ltro de Kalman permite al diseñador asignar

un error objetivo a los subsistemas de un sistema de estimación y a cambio de los errores

objetivos asignados optimizar el costo u otros medidas de desempeño mientras se alcanza

un nivel requerido de precisión.

2

Page 3: Resumen Filtro de Kalman Equipo 3

1.2. Sobre métodos de estimación óptima

1.2.1. Inicios de la teoría de estimación óptima

El primer método para la formación de una estimación óptima de datos ruidosos es el

método de mínimos cuadrados, se le atribuye a Gauss en 1795, cuando él tenía 18 años. La

inevitable medición de errores data de los tiempos de galileo. Este método fue utilizado

para determinar la órbita del planeta enano Ceres en el año 1801.

1.2.2. Método de mínimos cuadrados

El método de mínimos cuadrados determinar un estado o vector estimado en base a

x = G−1HT z

Donde G = HTH se denomina matriz gramiana y es el vector medido o función de x

En el caso en el que la matriz gramiana es invertible, es decir no singular, la solución x

se denomina solución mínima cuadrada del problema de inversión lineal sobredeterminado.

Si el determinante de H es cero,x no tiene solución única, en caso contrario la solución

de x es única.

1.2.2.1 Mínimos cuadrados en tiempo continuo

Este método también puede ser aplicado a vectores modelado de forma paramétrica

en tiempo continuo utilizando la siguiente expresión:

x = G−1[

tfˆ

t0

HT (t)z(t)dt]

Donde G =´ tft0HT (t)H(t)dt es la matriz gramiana no singular

3

Page 4: Resumen Filtro de Kalman Equipo 3

1.2.3. Matriz gramiana y observabilidad

La observabilidad de un conjunto de variables desconocidas depende de si sus valores

son únicamente determinables a partir de un conjunto de restricciones dadas y expresadas

como ecuaciones que involucran funciones de las variables desconocidas. Un conjunto

de variables desconocidas se dice observable si y solo si sus valores son determinables

únicamente a partir de un conjunto de restricciones dadas y se dice no observable si éstas

no son únicamente determinables a partir de las restricciones dadas.

La condición de no singularidad de la matriz Gramiana es una caracterización algebrai-

ca de la observabilidad cuando las ecuaciones de restricción son lineales en las variables

desconocidas. También aplica cuando las ecuaciones de restricción no son exactas debido

a errores en los parámetros supuestamente conocidos de las ecuaciones.

1.2.4. Modelo matemático de la incertidumbre

Los primeros indicios de la teoría de probabilidad se remontan al renacimiento don-

de Girolamo Cardano desarrollo un análisis preciso de las probabilidades de juegos que

utilizan dados. Aseguro que la precisión de estadísticas empíricas mejoran conforme el

número de pruebas. Otros desarrollos fueron realizados por Pascal, Huygens, Fermat a

quien se le considera por algunos el padre de la teoría de probabilidad. Así mismo otras

contribuciones fueron realizadas por Bayes, Moivre, Laplace, Legendre y Gauss.

En la primera mitad del siglo 20 la probabilidad tomó más importancia. En este

siglo surge la idea de que las leyes de la naturaleza abarcan fenómenos aleatorios y que

pueden ser tratados como modelos probabilísticos. Maxwell inicia la disciplina cientí�ca de

mecánica estadística, Markov desarrolla la teoría de los procesos y cadena de Markov, la

cual establece que la variación instantánea con el tiempo de la distribución de probabilidad

de los posibles estados de un proceso es determinado mediante la distribución actual la

cual incluye los efectos de toda la historia pasada del proceso.

La primer teoría formal de estimación óptima para sistemas que involucran procesos

aleatorios se le atribuye al ruso Andrei Nikolaeovich Kolmogorov. Así mismo, junto Nor-

bert Wiener se les atribuye la fundación de mucha de la teoría de predicción, suavizado

y �ltrado de los procesos de Markov.

1.2.5. El �ltro de Wiener-Kolmogorov

Norbert Wiener fue uno de los más famosos prodigios del siglo 20. A la edad de 18 años

ya contaba con un doctorado en matemáticas por la universidad de Harvard. Finalizo su

vida siendo profesor en el MIT.

Desarrolló el �ltro de Wiener-Kolmogorov, nombró y promovió la cibernética. Algunos

de sus principales logros matemáticos son las funciones de potencia �nita y la prueba

4

Page 5: Resumen Filtro de Kalman Equipo 3

mediante la transformada general de Fourier que la transformada del ruido blanco es

ruido blanco.

1.2.5.1 El desarrollo del �ltro de Wiener-Kolmogorov

En los primeros años de la 2° guerra mundial se le solicito a Wiener desarrollar un

controlador para predecir y el curso futuro de los aeroplanos y dirigir fuego antiaéreo con

información ruidosa de radar. Debido a la velocidad de los aeroplanos las balas tenían

que ser disparadas hacia el futuro.

La solución de Wiener utilizó mediciones de probabilidad en funciones espaciales pa-

ra representar dinámicas inciertas, el encontró la solución para la predicción del error a

partir de mínimos cuadrados en términos de funciones de autocorrelación de las señales

y el ruido. La solución en forma de un operador integral se sintetizo con circuitos analó-

gicos dadas ciertas restricciones en la regularidad de las funciones de autocorrelación. Su

enfoque representa la naturaleza probabilística de fenómenos aleatorios en términos de

densidades espectrales de potencia.

En 1941 Kolmogorov publicó un predictor lineal óptimo para sistemas discretos análo-

go al de Wiener justo cuando éste terminaba su trabajo en un predictor de tiempo con-

tinuo.

El trabajo de Wiener se desclasi�co en la última parte de los 1940's en �Extrapolation,

Interpolation, and Smoothing of Stationary Time Series� o �Times series� o también

conocido como �Yellow Peril�.

1.2.6. El �ltro de Kalman

Rudolf Emil Kalman nació el 19 de mayo de 1930 en Budapest. Su familia emigro de

Hungría a los estados unidos debido a la segunda guerra mundial. El MIT le otorgó los

grados de licenciatura y maestría en ingeniería eléctrica en 1953 y 1954. Su tema de tesis

fue el comportamiento de las soluciones de ecuaciones diferenciales de segundo orden,

expone que estas soluciones no eran del todo soluciones a tales ecuaciones y que de hecho

presentaban un comportamiento caótico.

Hasta 1955 desarrolla sistemas de control para E.I. Du Pont company, año en el que

obtiene el puesto de profesor en la Universidad de Columbia conocida por sus trabajos

en teoría de control. Enseña allí hasta 1957, año en el que consigue el grado de doctor.

En 1956 trabaja como investigador en Business Machines Corporation, y posterior-

mente seis años como investigador en el centro de investigación Glenn L. Martin Company

en Baltimore, el Instituto de Investigación de Estudios Avanzados (RIAS).

1.2.6.1 Descubrimiento del �ltro de Kalman

Durante el año 1958 Air Force O�ce of Scienti�c Research �nanció a Kalman y a

Richard S. Bucy para realizar investigación avanzada en estimación y control en RIAS.

5

Page 6: Resumen Filtro de Kalman Equipo 3

A �nales de noviembre durante un viaje de regreso a Baltimore en tren, éste se detuvo

casi por una hora a las afueras de Baltimore. Fue aquí donde Kalman pensó por primera

vez en porque no aplicar la noción de variables de estado a el problema del �ltro de

Wiener-Kolmogorov.

La lectura del libro Teoría de la probabilidad de Loève y el haber visto de forma

equivalente expectación y proyección fueron para Kalman fundamentales para el desarrollo

del �ltro que lleva su nombre.

El �ltro de Kalman es la culminación de una progresión de modelos y sus asociados

métodos de estimación óptima para procesos dinámicos.

1. Los modelos de Wiener�Kolmogorov utilizan densidad espectral de potencia (PSD)

en el dominio de la frecuencia para caracterizar las propiedades dinámicas y esta-

dísticas de un proceso dinámico. Sus estimadores óptimos se derivan de PSD los

cuales pueden ser estimadas a partir de la medición de las salidas del sistema.

2. Teóricos del control utilizan ecuaciones diferenciales lineales como modelos de sis-

temas dinámicos. Lo que dio lugar al desarrollo de modelos mixtos en el cual las

funciones de sistemas dinámicos son excitadas por ruido blanco. Los coe�cientes de

las ecuaciones diferenciales determinan la forma de la salida PSD y ésta a su vez

de�ne el estimador Wiener�Kolmogorov. Este enfoque permite que el modelo diná-

mico de un sistema sea variante en el tiempo. Estas ecuaciones diferenciales lineales

pueden ser modeladas como un sistema de ecuaciones de primer orden que han sido

llamadas espacio de estado (modelo en variables de estado)

El siguiente paso de los avances anteriores, el cual realizó Kalman, fue el desarrollo de

métodos de estimación equivalentes para un modelo variante en el tiempo de variables de

estado.

Richard S. Bucy reconoció que el �ltro de Wiener �Kolmogorov es equivalente a una

matriz valuada de ecuaciones diferenciales, así mismo reconoció que esta ecuación dife-

rencial no lineal era del mismo tipo que la que estudio Jacopo Francesco Riccati dos siglos

antes, ahora llamada ecuación de Riccati. Uno de los mayores logros de Kalman y Bucy

fue probar que la ecuación de Riccati puede tener una solución estable aun cuando la

dinámica del sistema es inestable siempre que este sea controlable y observable.

Con la suposición adicional de dimensión �nita Kalman fue capaz de derivar a partir

del �ltro de Wiener�Kolmogorov el �ltro de Kalman. Con el cambio al espacio de estados

los conocimientos matemáticos necesarios son los que puede alcanzar un estudiante sin

posgrado.

Resultados tempranos. El astrónomo danés Thorvald Nicolai Thiele (1838�1910), ha-

bía derivado lo que es esencialmente el �ltro de Kalman para procesos escalares y algunas

6

Page 7: Resumen Filtro de Kalman Equipo 3

de las ideas fundamentales del �ltro de Kalman habían sido ya publicadas Peter Swerling

en 1959 y por el ruso Leont'evich Stratonovich 1960.

1.2.6.2 Introducción al �ltro de Kalman

Debido a que existía cierto escepticismo en las ideas de Kalman por parte de sus

compañeros, Kalman decide publicar primero en una revista de ingeniería mecánica. Pos-

teriormente su segundo artículo en el que trata el caso en el tiempo continuo, con Bucy

como coautor fue rechazado porque uno de los evaluadores dijo que no podía ser verdad.

Sin embargo Kalman siguió presentando su �ltro y fue aceptado en todos lugares. Ha

llegado a ser base de tesis doctorales en ingeniería eléctrica y de temas de investigación

en varias universidades.

1.2.6.3 Aplicaciones tempranas: la in�uencia de Stanley F. Schmidt.

La quizás primer aplicación del �ltro de Kalman la realizó Schmidt para estimar

y controlar la trayectoria para el proyecto Apollo que tuvo como misión ir a la luna y

regresar. Schmidt descubrió el �ltro de Kalman extendido el cual es utilizado ampliamente

en aplicaciones no lineales en tiempo real del �ltro de Kalman. Schmidt promovió este

�ltro entre personas involucradas en trabajos similares. Fue utilizado en el sistema de

orientación del Apollo y a mediados de los 1960's en el sistema de navegación integrado

del transporte aéreo C5A diseñado por Lockheed Aircraft Company. Así mismo este �ltro

resolvió los problemas de fusión de datos asociados a la combinación de datos de un radar

y sensores inerciales para estimar la trayectoria de los aeroplanos y el problema de rechazo

de datos asociado con la detección de errores exógenos en datos de medición. Fue parte

integral de casi todo sistema de estimación de trayectoria y sistema de control de ese

entonces.

1.2.6.4 Otros logros de Rudolf Emil Kalman

Alrededor del año 1960 Kalman mostró que la noción de observabilidad para sistemas

dinámicos tiene una relación algebraica dual con la controlabilidad, es decir, mediante el

cambio correcto de los parámetros del sistema un problema podía ser convertido en el

otro. Participo en el desarrollo de la teoría de la realización, la cual buscaba encontrar un

modelo de un sistema para explicar el comportamiento de entrada/salida de un sistema

observado. En 1985 recibió el premio de Kioto (Equivalente al premio nobel japonés) y

en 1990 con motivo de su cumpleaños número 60 se convocó a un simposio internacional

para honrar sus logros pioneros en la teoría de sistemas matemáticos.

1.2.6.5 Impacto del �ltro de Kalman en la tecnología.

Se le considera el más grande descubrimiento del siglo 20 en teoría de estimación.

Fue uno de los posibilitadores de las tecnologías para la era espacial. Hace posible la

navegación precisa y e�ciente de las naves espaciales.

1.2.6.6 Ventajas relativas de los �ltros de Kalman y de Wiener-Kolmogorov

7

Page 8: Resumen Filtro de Kalman Equipo 3

1. La implementación con electrónica analógica del �ltro de Wiener-Kolmogorov opera

a un mejor rendimiento que el �ltro digital de Kalman.

2. El �ltro de Kalman se puede implementar como un algoritmo en una computadora

y aunque puede llegar a ser más lento que su implementación analógica tiene mucha

más precisión.

3. El �ltro de Wiener-Kolmogorov no requiere de modelos de procesos estocásticos

�nito dimensionales para la señal y ruido.

4. El �ltro de Kalman no requiere de dinámicas determinísticas o de que el proceso

aleatorio tenga propiedades estacionarias. Se puede aplicar a procesos estocásticos

no estacionarios.

5. El �ltro de Kalman es compatible con formulaciones en espacio de estados de con-

troles óptimos para sistemas dinámicos. Además la propiedad de ser útil de forma

dual, tanto para estimar como para controlar estos sistemas.

6. El �ltro de Kalman necesita de menos preparación matemática para ser utilizado

que el �ltro de Wiener-Kolmogorov.

7. El �ltro de Kalman provee de información estadística para detectar y rechazar

medidas anómalas

1.2.7. Métodos de implementación.

1.2.7.1 Problemas de estabilidad numérica

El éxito del �ltro de Kalman depende de la solución de algunos problemas de su

implementación, ya que en algunas aplicaciones los errores de redondeo tienden a acumu-

larse y degradar su rendimiento. Muchas de las mejores implementaciones consistieron en

adaptaciones de métodos previamente derivados del problema de mínimos cuadrados.

1.2.7.2 Correcciones tempranas

Se descubrió tempranamente que al forzar la simetría en la solución a la ecuación

de Riccati se mejoraba su aparente estabilidad numérica, así mismo se descubrió que al

incrementar la covarianza del proceso de ruido en ésta ecuación la in�uencia de los errores

de redondeo mejoraba. Estas correcciones hicieron al �ltro de Kalman más robusto contra

el error por redondeo.

1.2.7.3 James E. Potter (1937�2005) y el �ltro de raíz cuadrada

La implementación del �ltro de Kalman en computadoras de 15 bits de punto �jo tenía

como problema la implementación de la solución a la ecuación de Riccati. Este problema

fue solucionado por James E. Potter quien propuso expresar la matriz de covarianza como

factores de Cholesky:

8

Page 9: Resumen Filtro de Kalman Equipo 3

P = CCT

Y expresando las ecuaciones de actualización observacionales en términos de los fac-

tores C de Cholesky en lugar de P. Esta solución fue numéricamente más estable en la

implementación del �ltro a expensas de incrementar la complejidad computacional. La

implementación más e�ciente fue publicada por Bennet en 1967.

1.2.7.4 Filtro UD y de raíz cuadrada mejorados

En los 1970´s se desarrollan algoritmos más rápidos para el �ltro de raíz cuadrada a

partir de los trabajos en la NASA de Dyer y McReynolds en métodos de actualización

temporal de los factores de Cholesky.

1971 Kaminski's introduce extensiones de la matriz de covarianza y de información de

los �ltros.

1972 Agee y Turner introducen el primer algoritmo de factores triangulares para la

actualización observacional.

1973 Carlson publica el algoritmo triangular rápido.

1974 Bierman y Thornton publican los métodos �square-root-free� y actualización

temporal asociada.

Los anteriores siguen manteniendo la misma complejidad computacional que el �ltro

de Kalman pero con una mayor estabilidad numérica.

1.2.7.5 Métodos de factorización

Los métodos de raíz cuadrada utilizan descomposición de matrices. Uno de ellos es la

descomposición QR, donde Q es una matriz ortogonal y R una matriz triangular obtenida

a partir de transformaciones de triangularización.

1.2.8. Adaptaciones para �ltros no lineales.

Aun cuando el �ltro de Kalman se desarrolló para problemas lineales, habitualmente

se aplica a problemas no lineales. Para un número de ellos trabaja bastante bien pero hay

límites en su utilización.

1.2.8.1 Filtro de Kalman extendido para problemas cuasi-lineales.

Su primer aplicación se realizó en la primer aplicación del �ltro de Kalman en el

proyecto Apollo, tanto en esta aplicación como en cualquier otra su éxito depende de

que el problema sea cuasi-lineal en el sentido de que los errores no modelados debido

a la aproximación lineal son insigni�cantes al compararlos con los errores modelados

debidos a la incertidumbre en la dinámica y el ruido de los sensores. En este tipo de

�ltro la aproximación lineal únicamente se utiliza para resolver la ecuación de Riccati, un

resultado parcial es la ganancia de Kalman.

9

Page 10: Resumen Filtro de Kalman Equipo 3

El modelo completo no lineal se utiliza en la propagación de la estimación y en la

predicción computacional de las salidas de los sensores.

El enfoque utiliza derivadas parciales como aproximaciones lineales del problema no

lineal.

1.2.8.2 Aproximaciones de orden superior

Estos enfoques fueron desarrollados por Stratonovich, Kushner, Bucy, Bass, Wiberg y

Campbell y utilizan expansiones en términos de hasta tercer orden de las ecuaciones del

�ltro.

1.2.8.3 Métodos de muestreo basados en Estimación no lineal

La metodología del �ltro de Kalman de problemas no cuasi lineales se realiza mediante

el uso de la propagación no lineal de la solución de la ecuación de Riccati por muestreo

representativo del estado y de la medición de variables. A esta metodología se le conoce

como basada en muestreo o �ltro de partícula.

La carga computacional de esta metodología puede reducirse si se utilizan reglas de

muestreo en lugar de muestreo aleatorio:

1. Método secuencial Monte Carlo. El muestreo se selecciona de acuerdo su importancia

relativa para representar características signi�cativas en la distribución.

2. Filtro sigma-point. El muestreo está relacionado a la media y desviaciones estándar

de las distribuciones.

3. Método Unscented Transform. Muestrea de acuerdo a la media de la distribución

y a la eigenestructura de la matriz de covarianza. En general para distribuciones

n-dimensionales requiere de 2n+1 muestras. Su implementación en el �ltro se deno-

mina unscented Kalman �ltering.

En estos métodos se eligen muestras de los valores del vector de estados para representar

la media y la estructura de la covarianza. Estos muestreos se propagan a futuro para

simular las no linealidades conocidas del sistema y la covarianza resultante en el siguiente

muestreo se in�ere a partir de la distribución resultante tras las transformaciones no

lineales de los muestreos individuales. La estructura de la covarianza resultante se utiliza

para calcular la ganancia de Kalman para usar las medidas de las salidas de los sensores.

Estos métodos son e�cientes y efectivos para algunas aplicaciones no lineales como

identi�cación de parámetros de un modelo dinámicos.

1.2.9. Estimación verdaderamente no lineal.

Estos métodos describen la propagación en el tiempo de la distribución de probabilidad

del estado de la dinámica de un sistema no lineal mediante una ecuación parcial no lineal

10

Page 11: Resumen Filtro de Kalman Equipo 3

denominada ecuación de Fokker-Plank. Otros enfoques utilizan la ecuación condicionada

de Fokker-Plank y el cálculo estocástico de Stratonovich.

Los modelos resultantes no tienen la característica de la representación �nita del �ltro

de Kalman. Su carga computacional excede considerablemente a la del �ltro de Kalman.

1.2.10. El problema de detección para la vigilancia

Los problemas de vigilancia incluyen detección, identi�cación y rastreo de objetos

en cierta región del espacio. El �ltro de Kalman ayuda a resolver el problema rastreo e

identi�cación, sin embargo es necesario resolver primeramente el problema de detección

ya que el �ltro de Kalman necesita de un estado inicial y este último a su vez se obtiene

a partir de la detección.

Los estados iniciales se encuentran distribuidos de acuerdo a algunos puntos de pro-

ceso, los cuales son procesos aleatorios que modelan eventos u objetos que se encuentran

distribuidos en el tiempo y/o espacio.

La solución para el problema de detección y rastreo, combinados, de objetos dinámi-

cos cuyo estado inicial está representado por procesos de punto se encuentra dada por

una ecuación diferencial, propuesta por John M. Richardson que parte de la ecuación

condicionada de Fokker-Plank, que aproxima la evolución de la densidad de los objetos y

que puede ser resuelta de forma numérica.

1.3. De la notación utilizada en este libro.

11

Page 12: Resumen Filtro de Kalman Equipo 3

1.4. Preguntas y respuestas

1. De�ne que es el Filtro de Kalman

Teóricamente, es un estimador para lo que se conoce como problema cuadrático lineal

que consiste en la estimación instantánea de un estado de un sistema dinámico lineal

perturbado por ruido blanco. Utiliza mediciones linealmente relacionadas con el estado

pero corrompidas por ruido blanco. Es un estimador estadísticamente óptimo con respecto

a cualquier otra función cuadrática estimadora del error.

2. Enuncia para que se utiliza el �ltro de Kalman en el control

Para estimar de forma óptima los estados de un sistema dinámico.

3. Menciona brevemente que es el �ltro de Wiener-Kolmogorov y la aplicación para

la cual fue desarrollado.

Es un predictor lineal óptimo y fue desarrollado para predecir el curso futuro de

aeroplanos y dirigir el fuego antiaéreo hacia éstos utilizando información ruidosa de radar.

4. Describe cual fue la aportación que Kalman hizo con respecto al �ltro de Wiener-

Kolmogorov y a la teoría de control.

Se denomina �ltro de Kalman y consistió en aplicar la noción de variables de estado

al problema del �ltro de Wiener-Kolmogorov.

5. Menciona al menos 2 ventajas relativas entre el �ltro de Kalman y el �ltro de

Wiener-Kolmogorov.

El �ltro de Kalman no requiere de dinámicas determinísticas o de que el proceso alea-

torio tenga propiedades estacionarias. Se puede aplicar a procesos estocásticos no estacio-

12

Page 13: Resumen Filtro de Kalman Equipo 3

narios El �ltro de Kalman se puede implementar como un algoritmo en una computadora

y aunque puede llegar a ser más lento que su implementación analógica tiene mucha más

precisión La implementación con electrónica analógica del �ltro de Wiener-Kolmogorov

opera a un mejor rendimiento que el �ltro digital de Kalman. El �ltro de Kalman necesita

de menos preparación matemática para ser utilizado que el �ltro de Wiener-Kolmogorov.

El �ltro de Kalman provee de información estadística para detectar y rechazar medidas

anómalas

2. Sistemas dinámicos Lineales

2.1. Modelo dinámico

El diagrama representa la simpli�cación de un problema de estimación, tanto en tiem-

po continuo como en tiempo discreto. El diagrama muestra los tres modelos dinámicos

del �ltro de Kalman.

El �System dynamics� puede contener variables de estado para representar pro-

cesos aleatorios correlacionados con el tiempo: Perturbaciones dinámicas aleatorias

con respecto al tiempo (p.e. vientos y corrientes), sensor de ruido, efectos del am-

biente, variables que varíen lentamente del propio modelo dinámico.

El �State dynamics� en el �ltro de kalman debe tener un seguimiento bastante �el,

excepto que no conoce los valores de las entradas. El modelo de (�ltro de kalman) FK

puede incluir variables que estimen parámetros (mostrados en la �gura). Condición

inicial del sistema del vector de estados x(t_0) ��xed-point smoother�. La matriz

de parámetros F (o el equivalente en tiempo discreto Φ) y Q del verdadero modelo

dinámico del sistema (estimador no lineal). Los parámetros de la matriz H y R

son del modelo del sensor (no lineal). Perturbaciones aleatorias w y/o ruido de los

sensores v. O varianzas de perturbaciones aleatorias Q y/o ruido de los sensores R

(�ltro no lineal).

El �Covariance dynamics� es un modelo dinámico como segundo momento de los

errores de estimación (matriz de covarianza P). Esta es una matriz de la ecuación de

Riccati cuando los otros modelos son lineales o cuasilinales. El modelo actualizado

de covarianza incluye la dinámica del estado, y la aplicación genera la matriz de ga-

nancia k de kalman como resultado parcial. La entrada del sistema u (en �Control�)

utiliza el estado estimado x como entrada.

13

Page 14: Resumen Filtro de Kalman Equipo 3

14

Page 15: Resumen Filtro de Kalman Equipo 3

2.1.1. Puntos principales

1. Ecuaciones diferenciales y variables de estado. Las ecuaciones diferenciales

han proporcionado modelos matemáticos concisos y �eles. Estas representaciones

�nitas (como predecir el curso de los planetas) es la base para el enfoque de espa-

cio de estados a la representación de ecuaciones diferenciales y sus soluciones. Las

variables dependientes de las ecuaciones diferenciales se convierten en variables de

estado del sistema dinámico. Representan explícitamente todas las características

importantes del sistema dinámico en cualquier momento.

2. Sistemas dinámicos y ecuaciones diferenciales. En el contexto de �ltro de

kalman un sistema dinámico puede decirse que es un sinónimo de un sistema de

ecuaciones diferenciales ordinarias que describen la evolución en el tiempo del estado

de un sistema físico. El modelo matemático se utiliza para obtener su solución, que

especi�ca la dependencia funcional de las variables de estado en sus valores iniciales

y las entradas del sistema. Esta solución de�ne la dependencia funcional de los

resultados medibles en las entradas y los coe�cientes del modelo.

3. Modelos matemáticos para tiempo continuo y discreto. Los modelos diná-

micos principales de sistemas se resumen en la tabla 1. Los cuales incluyen modelos

lineales y modelos no lineales, también están en tiempo continuo (ec. diferenciales)

y en tiempo discreto.

2.2. Modelos de sistemas dinámicos

2.2.1. Modelado de sistemas dinámicos por medio de ecuaciones diferenciales

Un sistema es una colección de objetos interrelacionados, tratados como un conjunto,

con el �n de modelar su comportamiento. Se llama dinámico si los atributos de interés

están cambiando con el tiempo. Un proceso es la evolución temporal de un sistema.

Un ejemplo de un sistema dinámico es nuestro sistema solar, el cual el movimiento de

estos está relacionado por ecuaciones diferenciales descubiertos por Isaac Newton (1642�

1727). No todos los sistemas dinámicos pueden ser modelados por ecuaciones diferenciales.

Existen otros tipos de modelos de sistemas dinámicos, tales como, las redes de Petri, redes

de inferencia, o tablas de datos experimentales.

2.2.2. Variables de estado y ecuaciones de estado

Las ecuaciones de segundo orden pueden ser transformados a un sistema de dos ecua-

ciones diferenciales de primer orden. De esta manera, se puede reducir la ecuación di-

ferencial de cualquier sistema de orden mayor a un sistema equivalente de ecuaciones

15

Page 16: Resumen Filtro de Kalman Equipo 3

diferenciales de primer orden. En la tabla 1, se pueden observar el tipo de ecuaciones

diferenciales de tiempo variable para representar un sistema dinámico con características

dinámicas en tiempo variable. Este es representado en forma de vector.

x(t) = f(t, x(t), u(t)) ...(1)

La funciónf de valores vectoriales, para representar un sistema de n ecuaciones.

x1 = f1(t;x1, x2, x3, . . . , xn, u1, u2, u3, ..., ur, t)

x2 = f2(t;x1, x2, x3, ..., xn, u1, u2, u3, ..., ur, t)

x3 = f3(t;x1, x2, x3, ..., xn, u1, u2, u3, ..., ur, t)

·

·

·

xn = fn(t;x1, x2, x3, ..., xn, u1, u2, u3, ..., ur, t)

Donde:

�dot�- notación de derivada con respecto al tiempo

t � variable independiente

n � variables dependientes

r � entradas conocidas

A esto se le llama ecuación de estados de un sistema dinámico.

2.2.3. Variables de estado y ecuaciones de estado

2.2.3.1 Ecuaciones diferenciales homogéneas y no homogéneas.

Las variables u_j en la ecuación anterior pueden ser independientes de las variables

xj , en este caso el sistema de ecuaciones es considerado no homogénea. En general, las

ecuaciones diferenciales que contienen términos que no dependen de las variables depen-

dientes, y sus derivados, son llamados no homogéneos, y los que no tienen esos términos

no homogéneos (es decir uj) son llamados homogéneos.

2.2.3.2 Variables del estado representan los grados de libertad de los siste-

mas dinámicos.

Las variables x_1,. . . ,x_n son las variables de estado del sistema dinámico, que están

dentro de un vector singular llamado vector de estados del sistema dinámico. En este

sentido, los valores iniciales de cada variable de estado representan un grado de liber-

tad del sistema dinámico. Los n valores x1(t0), x2(t0), x3(t0), . . . , xn(t0) pueden variar

independientemente.

16

Page 17: Resumen Filtro de Kalman Equipo 3

2.2.4. Tiempo continuo y tiempo discreto

Aunque a veces es conveniente modelar en el tiempo continuo, en otros es más práctico

considerar valores en tiempo discreto. Por ejemplo, el reloj avanza en pasos de tiempo

discreto. En la ecuación (1) es un ejemplo de un sistema continuo porque está de�nido

con respecto a una variable independiente t que varía continuamente en un intervalo

realt ∈ [t0, tf ]. Para algunos problemas, solo interesa saber el estado de un sistema en

tiempo discreto t ∈ [t1, t2, t3. . . ].

2.2.4.1 Notación abreviada de sistemas en tiempo discreto

Es más fácil acortar la notación xk, a tener que escribir x(tk) que es para representar

la secuencia de calores de la variable de estado.

2.2.5. Sistemas variables en tiempo y sistemas invariantes en el tiempo

El termino planta física y planta se utiliza en lugar de sistema dinámico, principalmen-

te en la industria. La dependencia funcional de la dinámica del estado u y x no depende

del tiempo. En estos sistemas se denominan invariantes en el tiempo o autónomo. Sus

soluciones son generalmente más fáciles de obtener que los sistemas de variables en el

tiempo.

2.3. Sistemas lineales continuos y sus soluciones

2.3.1. Modelos entrada/salida de sistemas dinámicos

El bloque �state dynamics� y �sensor model� de la �gura 1. Esos modelos representan

el sistema dinámico donde utilizan cinco tipos de variables.

Entradas de control uj , que pueden estar bajo nuestro control y son conocidos.

Perturbaciones dinámicas aleatorias wj , se conocen estadísticamente (es decir, con

propiedades estadísticas conocidas).

Variable de estado internas xj ,

En la mayoría se re�ere a variables ocultas en el sentido de que no pueden ser

medidas directamente pero pueden ser inferidas de los que se pueden medir.

Salidas zj , son las cosas que se pueden conocer de los sensores utilizados para medir

algunas de las variables de estado internas xj .

Ruido del sensor vj , también conocidos estadísticamente (es decir, con propiedades

estadísticas conocidas).

17

Page 18: Resumen Filtro de Kalman Equipo 3

2.3.2. Matrices de coe�cientes dinámicos y matriz de acoplamiento de en-

trada

El sistema dinámico real es representado por n ecuaciones diferenciales lineales de

primer orden, expresado en forma de vector

x(t) =d

dtx(t)

F (t)x(t) + C(t)u(t)

Donde, los elementos y componentes de las matrices y vectores (F,C,u) pueden estar

en función del tiempo.

La matriz F(t) es llamado matriz de coe�cientes dinámico o matriz de dinámica.

La matriz C(t) es llamada matriz de acoplamiento de entrada.

2.3.3. Forma conveniente de derivadas de orden superior

En general, las ecuaciones diferenciales lineales de orden n

dny(t)

dtn+ f1(t)

dn−1y(t)

dtn−1+ · · ·+ fn−1(t)

dy(t)

dt+ fn(t) = u(t)

Pueden ser reescritas como un sistema de n ecuaciones diferenciales de primer orden.

2.3.3.1 Forma conveniente de vector de estados

Para sistemas dinámicos lineales de orden n mostrados en forma conveniente del vector

de estados.

x(t) = [y(t),dy(t)

dt,d2

dt2y(t), ...,

dn−1

dtn−1y(t)]T

2.3.3.2 Forma conveniente de ecuaciones diferenciales

La ecuación diferencial lineal de orden n puede ser escrito en términos del vector de

estados v(t) como el vector de ecuación diferencial.

18

Page 19: Resumen Filtro de Kalman Equipo 3

d

dt

x1(t)

x2(t)

x3(t)

...

xn(t)

=

0 1 0 . . . 0

0 0 1 . . . 0

......

.... . .

...

0 0 0 . . . 1

−fn(t) −fn−1(t) −fn−2(t) . . . −f1(t)

x1(t)

x2(t)

x3(t)

...

xn(t)

+

0

0

...

0

1

u(t)

Matrices de desplazamiento. La submatriz de la parte superior izquierda (n-1)x(n-1)

de F, es la transpuesta llamada matriz de desplazamiento.

D =

0 0 . . . 0 0

1 0 . . . 0 0

0 1 . . . 0 0

......

. . .... 1

0 0 . . . 1 0

El cual juega un importante rol en el desarrollo en paralelo con métodos de procesa-

miento para operaciones de muchas matrices.

2.3.4. Salidas y matrices de sensibilidad medibles

Solo en la entrada y la salida del sistema puede ser medibles, y esto prácticamente se

considera en la variable z_i como variable medible. Para problemas lineales, se relacionan

con las variables de estado y las entradas para un sistema de ecuaciones lineales que se

representan en forma de vector.

z(t) = H(t)x(t) +D(t)u(t)

2.3.5. Ecuaciones en diferencias y matrices de transición del estado (STM,

siglas en inglés)

Ecuaciones en diferencias son las versiones en tiempo discreto de ecuaciones diferencia-

les. Usualmente escritos en términos de forward di�erences x(tt+1)− x(tk) de la variable

de estado (la variable dependiente), expresado como una función Ψ de todas las variables

independientes o del valor siguiente x(tk+1) como una función φ de todas las variables

independientes .

φ(tk, x(tk), u(tk)) = x(tk) + ψ(tk, x(tk), u(tk))

Para sistemas dinámicos lineales, la dependencia funcional de x(tt+1) sobre x(tk) y

19

Page 20: Resumen Filtro de Kalman Equipo 3

u(tk) puede ser representado en matrices

x(t(t+ 1))− x(tk) = Ψ(tk)x(tk) + C(tk)u(tk)

x¬(k + 1) = Φkxk + Ckuk

Φk = I + Ψ(tk)

Dónde: Las matrices Ψ y Φ remplazan la función ψ y φ respectivamente.

Φ es la matriz de transición del estado

C es la matriz de acoplamiento de entrada

2.3.6. Solución de ecuaciones diferenciales por STMs

Una matriz de transición de estado (STM) es una solución nombrada ecuación de la

matriz homogénea asociada a un sistema dinámico lineal.

Sistema homogéneo. La ecuación x(t) = F (t)x(t) es la parte homogénea de la ecuación

diferencial lineal x(t) = F (t)x(t) +C(t)u(t). Su solución es usada para de�nir la solución

de la ecuación lineal general (no homogénea).

Solución fundamental de ecuaciones homogéneas. Una matriz de n × n de la función

φ(t) se denomina solución fundamental de la ecuación homogénea sobre un intervalot ∈

[0, T ] si φ(t) = F (t)φ(t) y φ(0) = In. Para cualquier posible vector inicial x(0), el vector

x(t) = φ(t)x(0), es la solución de la ecuación homogénea x(t) = Fx con valor inicial x(0).

2.3.6.1 Existencia y solución fundamental no singular

Si los elementos de la matriz F (t) son funciones continuas sobre un intervalo 0 ≤ t ≤ T ,

la solución fundamental de la matriz φ(t) nos garantiza que existe y puede ser no singular

en un intervalo 0 ≤ t ≤ τ para τ > 0.

2.3.6.2 STM's

La solución fundamental de la matriz Φ(t) transforma cualquier estado inicial x(0)

del sistema dinámico dentro del estado correspondiente x(t) en el tiempo t. Si Φ(t) es no

singular se tiene el producto

Φ(τ, t) = Φ(τ)Φ−1(t)

La matriz de transición del estado Φ(τ, t) representa la transición al estado en el

tiempo τ del estado en el tiempo t.

20

Page 21: Resumen Filtro de Kalman Equipo 3

2.3.6.3 Propiedades del STMs y la matriz de solución fundamental

El símbolo Φ también es utilizado para las matrices fundamentales de solución y para

los STM, las siguientes son algunas propiedades.

Φ(τ, 0) = Φ(τ)

1. Φ(τ, τ) = Φ(0) = I

2. Φ−1(τ, t) = Φ(t, τ)

3. Φ(τ, σ)Φ(σ, t) = Φ(τ, t)

4. (∂/∂τ)Φ(τ, t) = F (τ)Φ(τ, t)

5. (∂/∂t)Φ(τ, t) = −Φ(τ, t)F (t)

2.3.7. Solución de ecuaciones no homogéneas

La solución de la ecuación de estado no homogénea está dado por

x(t) = Φ(t)Φ−1(t0)x(t0) + Φ(t)

t0

Φ−1(τ)C(τ)u(τ)dτ

2.3.7.1 Sistemas dinámicos variables en el tiempo e invariantes en el tiempo

Si F y C (o Φ y Γ ) no dependen de t (o k), para modelos continuos (o discretos)

considerados invariantes en el tiempo. De lo contrario, el modelo es variable en el tiempo.

2.4. Sistema lineal discreto

Si solo interesa el estado del sistema en tiempo discreto, se puede usar

x(tk) = Φ(tk, tk+1) +

t0

Φ(tk, σ)C(σ)u(σ)dσ

2.4.1. Simpli�cación de la constate u

Si u es constante en un intervalo [tk−1, tk], la integral anterior se puede simpli�car a

Γ(tk−1) =

tkˆ

t0

Φ(tk, σ)C(σ)dσ

2.4.1.2 Notación abreviada de tiempo discreto

Para sistemas en tiempo discreto, la kindica la secuencia del tiempo tk que caracteriza

el tiempo de interés. Para sistemas en tiempo discreto, se elimina t, usando la notación,

se puede representar la ecuación de estado en tiempo discreto de la siguiente forma

21

Page 22: Resumen Filtro de Kalman Equipo 3

xk = Φk−1xk−1 + Γk−1uk−1

zk = Hkxk +Dkuk

2.4.2. Transformar modelos en tiempo continua a modelos en tiempo discreto

El modelo para un sistema dinámico en tiempo continuo puede ser transformado en

un modelo en tiempo discreto, usando la fórmula de la matriz de transición de estado

Φk−1Φ(tk)Φ−1(tk−1) el equivalente en tiempo discreto

Γuk−1 = Φ(tk)

tkˆ

tk−1

Φ−1(τ)C(τ)u(τ)dτ

2.4.3. Modelos de salida de sistemas lineales y observabilidad

Una salida de un sistema dinámico es algo que se puede medir directamente, como

las direcciones de las líneas de visión de los planetas, la temperatura o un termopar. Un

modelo de un sistema dinámico se dice que es observable a partir de un conjunto dado

de salidas si es factible determinar el estado del sistema a partir de las salidas. Si la

dependencia de una salida z en el estado del sistema x es lineal, se puede expresar de la

forma

z = Hx

Donde H es la matriz de sensibilidad medible. Este puede ser una función en tiempo

continuo[H(t)] o tiempo discreto (HK). La Observabilidad puede ser caracterizada por

el rango de una matriz de observabilidad asociado con el modelo del sistema dado. La

matriz de observabilidad está de�nido como

Para modelos en tiempo continuo

tkˆ

tk−1

ΦT (τ)HT (τ)H(τ)Φ(τ)dτ = 0

Para modelos en tiempo discreto

m∑i=0

(i−1∏k=0

ΦTk

)HTi Hi

(i−1∏k=0

ΦTk

)TEl sistema es observable, si y solo sí, la matriz de observabilidad tiene rango completo

(n) para un entero m ≥ 0 o t > t0. (La prueba de observabilidad puede ser simpli�cada

para sistemas en tiempo invariante).

22

Page 23: Resumen Filtro de Kalman Equipo 3

2.5. Preguntas y respuestas

1. -Menciona y describe brevemente cuáles son los tres modelos dinámicos del �ltro

de kalman. Está dividido en tres partes importantes:

� El �System dynamics�, que contiene las variables de estado para representar los

procesos aleatorios correlacionados con el tiempo.

� El �State dynamics�, dentro del �ltro de kalman, debe tener el seguimiento �el pero

no posee los valores de entrada, además incluye las variables para estimar los parámetros.

� El �Covariance dynamics�, es un modelo dinámico para los errores de estimación

(matriz de covarianza P).

2. -De�ne brevemente qué es sistema, dinámico y proceso.

� Sistema es una colección de objetos interrelacionados, tratados como un conjunto,

con el �n de modelar su comportamiento.

� Dinámico es si los atributos de interés están cambiando con el tiempo.

� Proceso es la evolución temporal de un sistema.

3.- Como se puede reducir un sistema de ecuaciones de orden mayor

Se pueden reescribir como un sistema de n ecuaciones diferenciales de primer orden.

4.- ¾Cuáles son las cinco variables que posee el bloque �state dynamics�?

Entradas de control (uj). Perturbaciones dinámicas aleatorias wj (se conocen estadís-

ticamente). Variables de estado internasxj (variables ocultas, no medibles directamente).

Salidas zj (cosas que se pueden conocer de los sensores). Ruido del sensor vj (conocidos

estadísticamente).

5. ¾Cómo se determina la observabilidad de un sistema?

Se tienen las siguientes fórmulas para determinar la observabiliad

Para modelos en tiempo continuo

tkˆ

tk−1

ΦT (τ)HT (τ)H(τ)Φ(τ)dτ = 0

Para modelos en tiempo discreto

m∑i=0

(i−1∏k=0

ΦTk

)HTi Hi

(i−1∏k=0

ΦTk

)TEl sistema es observable, si y solo sí, la matriz de observabilidad tiene rango completo

(n) para un entero m ≥ 0 o t > t0.

23

Page 24: Resumen Filtro de Kalman Equipo 3

3. Filtrado no lineal

3.1. Objetivo del capítulo

3.1.1. El problema de �ltrado no lineal

El problema de �ltrar o estimar los estados de sistemas no lineales ha sido modelado

por la ecuación condicionada de Fokker-Planck, la cual es un modelo de ecuación dife-

rencial parcial para la evolución en el tiempo de la distribución de probabilidad de una

variable de estado, incluyendo los efectos de las mediciones. No hay soluciones prácticas

para este problema, salvo en el caso particular en el que las dinámica y mediciones son

lineales. Esta solución es conocida como el �ltrado de Kalman. Kalman obtuvo una so-

lución en términos de la media y la covarianza, pero esto depende de la linealidad del

modelo en variables de estado del sistema.

Para utilizar la ganancia de Kalman en los problemas no lineales, el problema se reduce

a encontrar soluciones no lineales para los casos siguientes:

1. Cuando la propagación del estado entre las mediciones es no lineal, ¾cómo esto

transforma la estimación x y su matriz de covarianza asociada P?

2. Cuando la medición z = h(x) es una función no lineal del vector de estados, ¾cuál

es la medición esperadaz y su covarianza asociadaPzz?

3. La correlación cruzada entre la incertidumbre de estimación y la incertidumbre de

la medición predicha es requerida para el cómputo de la ganancia de Kalman como:

K = Pxz/(Pzz +R),

Donde Pxz = PHT y Pzz = HPHT en el caso lineal. ¾Cuál es la correspondiente corre-

lación cruzada Pxzcuando la medición z = h(x) es una función no lineal del vector de

estados?

También debe tomarse en cuenta que cuando la distribución de la probabilidad es

no Gaussiana, los primeros dos momentos (media y covarianza) no caracterizan a la

distribución. De tal manera que los �ltros no lineales no pueden implementarse solo en

términos de la media y la covarianza. Todos los métodos prácticos de �ltrado no lineal

son aproximaciones.

3.1.2. Soluciones prácticas

Se presentan 4 métodos de �ltrado no lineal:

Linealización: el modelo es linealizado usando derivadas parciales.

24

Page 25: Resumen Filtro de Kalman Equipo 3

Filtro de Kalman Extendido (EKF): evalúa las derivadas parciales de la función en

el valor del vector de estados estimado y hace uso de las funciones no lineales para

estimar.

Métodos de muestreo: hacen uso de la teoría estadística de muestreo para aproxi-

mar una transformación lineal de la media y la covarianza. Algunos de estos tipos

de métodos requieren un mayor poder de computacional que un �ltro de Kalman

convencional.

Filtro de Kalman sin esencia (UKF): es un método de muestreo que requiere el

mismo poder computacional que un EKF por lo que es más práctico en comparación

con otros métodos de muestreo.

3.1.3. Soluciones imprácticas

Estos métodos transforman la distribución de la probabilidad no sólo en función de la

media y covarianza. No tienen uso práctico y se utilizan para propósitos pedagógicos.

3.2. Filtrado cuasi-lineal

3.2.1. Cuasi-linealidad

El principal requerimiento para usar un modelo cuasi-lineal es que el error resultado de

la aproximación lineal de un modelo no lineal se encuentre dentro de la precisión esperada.

Lo que básicamente queda descrito por las ecuaciones siguientes:

φk(x+ δx) ≈ φk(x) + δx∂

∂xφk(x)|x

hk(x+ δx) ≈ hk(x) + δx∂

∂xhk(x)|x

3.2.1.1 Pruebas de cuasi-linealidad

Métricas cuasi-lineales Lo idea esencial es que las variaciones esperadas de un vector

de estados de su valor estimado, el error cuadrático medio debido a la linealización sea

insigni�cante en comparación con aquellos debido a los modelos de incertidumbre. Para

mediciones no lineales, los modelos de incertidumbre están caracterizados por la covarian-

za del ruido de medición R. Para las dinámicas no lineales, el modelo de incertidumbre

está caracterizado por la covarianza del ruido de las perturbaciones dinámicas Q.

Las condiciones estadísticas para una linealización son las siguientes:

1. Para una función temporal de transición de estado φ(x): para N ≥ 3, para Nσv

perturbaciones de x de x, el error de aproximación lineal es insigni�cante comparado

25

Page 26: Resumen Filtro de Kalman Equipo 3

con Q. Tal que para N ≥ 3, para todas las perturbaciones δx de x es tal que

δxTP−1(δx) ≤ N2,

ε = φ(x+ δx)−[φ(x) +

∂φ

∂x|x∂x

]εTQ−1ε� 1

Es decir, para el rango esperado de variación del error de estimación, el error de la

aproximación lineal está dominado por el modelo de incertidumbre de la dinámica.

2. Para la transformación de la medición/sensor h(x): para Nσ ≥ 3σ perturbaciones

dex, el error de aproximación lineal es insigni�cante comparado con R. Tal que para

N ≥ 3, para todas las perturbaciones δx de x es tal que

δxTP−1(δx) ≤ N2,

ε = h(x+ δx)−[h(x) +

∂h

∂x|x∂x

]εThR

−1εh � 1

Si se cumplen las dos condiciones, entonces se veri�ca que se trata de un problema

adecuadamente cuasi-lineal.

3.2.2. Linealización alrededor de una trayectoria nominal

3.2.2.1 Trayectoria nominal

Una trayectoria es una solución particular de un sistema estocástico, es decir, con

una instanciación particular de las variables aleatorias involucradas. La trayectoria es un

vector con valores secuenciales xk|k = 0, 1, 2, 3, ... para un sistema en tiempo discreto y

un vector valuado en la función x(t), 0 ≤ t para un sistema en tiempo continuo.

El término nominal se re�ere a una trayectoria obtenida cuando las variables aleatorias

asumen los valores esperados.

3.2.2.2 Perturbaciones alrededor de una trayectoria nominal

Las perturbaciones en este caso se deben a la presencia de procesos estocásticos de

ruido y de error asociados a los valores iniciales asumidos.

Si se considera δ para denotar las perturbaciones de la trayectoria nominal se tiene,

δxk = xk − xnomk

δzk = zk − h(xnomk , k)

26

Page 27: Resumen Filtro de Kalman Equipo 3

Entonces la serie de expansión de Taylor de φ(x, k− 1) con respecto a x en x = xnomk−1

es

xk = φ(xk−1, k − 1)

= φ(xnomk−1 , k − 1) + ∂φ(x,k−1)∂x |x=xnom

k−1δxk−1

+terminos de orden superior

= xnomk + ∂φ(x,k−1)∂x |x=xnom

k−1δxk−1 + terminos de orden superior

Si los términos de orden superior son despreciados, se tiene

δxk ≈ φ[1]k−1δxk−1 + wk−1

Donde los coe�cientes de primer orden de aproximación están dados por:

φ[1]k−1 =

∂φk−1(x)

∂x|x=xnom

k−1

=

∂φ1

∂x1

∂φ1

∂x2

∂φ1

∂x3. . . ∂φ1

∂xn

∂φ2

∂x1

∂φ2

∂x2

∂φ2

∂x3. . . ∂φ2

∂xn

∂φ3

∂x1

∂φ3

∂x2

∂φ3

∂x3. . . ∂φ3

∂xn

......

.... . .

...

∂φn

∂x1

∂φn

∂x2

∂φn

∂x3. . . ∂φn

∂xn

3.2.2.3 Linealización de h alrededor de una trayectoria nominal

Si h es su�cientemente diferenciable, entonces la medición puede representarse con

una serie de Taylor al igual que el caso anterior. Luego siguiendo el mismo procedimiento

se llega que:

δzk ≈ H [1]k−1δxk

Donde:

H[1]k−1 =

∂h1

∂x1

∂h1

∂x2

∂h1

∂x3. . . ∂h1

∂xn

∂h2

∂x1

∂h2

∂x2

∂h2

∂x3. . . ∂h2

∂xn

∂h3

∂x1

∂h3

∂x2

∂h3

∂x3. . . ∂h3

∂xn

......

.... . .

...

∂hl

∂x1

∂hl

∂x2

∂hl

∂x3. . . ∂hl

∂xn

3.2.2.4 Resumen de ecuaciones de perturbación para el caso discreto.

δxk ≈ φ[1]k−1δxk−1 + wk−1

27

Page 28: Resumen Filtro de Kalman Equipo 3

δzk ≈ H [1]k−1δxk + vk

3.2.2.5 Caso continuo

En el caso continuo las correspondientes ecuaciones diferenciales no lineales de la

planta son:

x(t) = f(x(t), t) +G(t)w(t)

z(t) = h(x(t), t) + v(t)

Al aplicar un procedimiento similar que en caso discreto usando una serie de Taylor,

se obtienen las siguientes ecuaciones lineales para un modelo continuo.

δx(t) = F [1]δx(t) +G(t)w(t),

δz(t) = H [1]δx(t) + v(t).

3.2.3. Filtro de Kalman Extendido

El problema con la linealización alrededor de una trayectoria nominal es que la desvia-

ción de la trayectoria actual respecto de la nominal tiende a incrementarse con el tiempo.

Esto hace que los términos superiores de la serie de Taylor cobren importancia y ya no

pueden despreciarse.

Una posible solución para el problema expuesto que reemplazar la trayectoria nominal

con la trayectoria estimada, de tal manera que la serie de Taylor es evaluada alrededor

de la trayectoria estimada.

3.2.3.1 Evaluación de las matrices en tiempo discreto

La única modi�cación con respecto a las ecuaciones obtenidas en el apartado 7.2.2.4

es que las derivadas parciales se evalúan en xk−1 y en x. De tal manera que se tiene:

φ[1](x, k) =∂φ(x, k)

∂x|x=xk(−)

H [1](x, k) =∂h(x, k)

∂x|x=xk(−)

3.2.3.2 Evaluación de las matrices en tiempo continuo

Con respecto a las ecuaciones obtenidas en el apartado 7.2.2.5 las derivadas parciales

se evalúan en otro punto.

28

Page 29: Resumen Filtro de Kalman Equipo 3

F [1](t) =∂f(x(t), t)

∂x(t)|x=xk(t)

H [1](t) =∂h(x(t), t)

∂x(t)|x=xk(t)

3.2.3.3 Resumen de las ecuaciones de implementación

Para sistema en tiempo discreto linealizado alrededor del estado estimado

δxk = Φ[1]k−1δxk−1 + wk−1

δzk ≈ H[1]k δxk + vk

Para sistemas en tiempo continuo linealizados alrededor de un estado estimado

δx(t) = F [1]δx(t) +G(t)w(t),

δz(t) = H [1]δx(t) + v(t).

3.2.4. Filtros linealizado y extendido discretos

La implementación de estos dos enfoques de linealización es diferente. En general el

enfoque del �ltro linealizado es más e�ciente en aplicaciones de tiempo real, pero es menos

robusto a los errores de aproximación lineal en comparación con el enfoque de �ltrado

extendido. El enfoque linealizado es más e�ciente al implementarse ya que la linealización

es precomputada. Lo cual es no posible para el caso extendido porque requiere los estados

estimados.

3.2.4.1 Filtro de Kalman linealizado

En este caso se linealiza la planta solo una vez con respecto a una trayectoria nominal.

En la �gura de abajo se muestra el esquema de un �lro de Kalman con este enfoque.

En la Figura a continuación mostrada se listan todas las ecuaciones de este enfoque.

29

Page 30: Resumen Filtro de Kalman Equipo 3

3.2.4.2 Filtro de Kalman Extendido Discreto

Este �ltro fue propuesto por Stanley F. Schimdt. La Figura inferior presenta todas las

ecuaciones para implementar este �ltro.

30

Page 31: Resumen Filtro de Kalman Equipo 3

3.2.5. Filtros linealizado y extendido continuos

La principal diferencia entre estos dos enfoques es que en el linealizado las derivadas

parciales se evalúan en el estado nominal, en cambio el enfoque extendido usa los estados

estimados. La Figura presenta las ecuaciones de estos dos enfoques con la diferencia ya

explicada.

31

Page 32: Resumen Filtro de Kalman Equipo 3

3.3. Métodos de muestreo para �ltrado no lineal.

A diferencia de la quasilinealización los métodos de muestreo permiten reconocer la

naturaleza no lineal del modelo y sobre eso aproximar la solución.

3.3.1. Antecedente Histórico

El estudio formal de los métpdps de muestreo en la estadística comenzó con el trabajo

de Sir Francis Galton, Desde entonces los estadistas han afrontado problemas, lo que ha

permitido el desarrollo de distintas técnicas para la obtención de las muestras. Algunas de

ellas, en la última decada, han sido aplicadas exitosamente al �ltro de Kalman no lineal.

El análisis de Monte Carlo, propuesto por Stanislaw Ulam, dice que en lugar de calcular

todas las combinaciones posibles de un sistema, se toman muestras aleatorias del mismo.

En el tiempo en el que se propuso esto, las computadoras electrónicas estaban siendo

desarrolladas y empleadas en el centro de investigación donde trabajaba Ulam, lo cual

permitió su implementación.

En el muestreo por importancia lo que se hace es que en lugar de tomar las mues-

tras aleatoriamente, se pesa cada muestra dependiendo de su importancia. Dicho peso es

generalmente el índice de densidad de probabilidad local a densidad de muestreo, pero

también puede contener lo que son las medias y covarianzas.

Los puntos sigma son un conjunto estructurado de puntos de muestreo seleccionados

por un procedimiento determinístico basado en una distribución de entrada conocida.

32

Page 33: Resumen Filtro de Kalman Equipo 3

Este proceso está diseñado para proveer una aproximación razonable para la distribución

de probabilidad de las salidas. Para su aplicación al �ltro de alman, los únicos valores

estadísticos conocidos de estas distribuciones son sus medias y sus matrices de covarianza

de incertidumbre de estimación asociadas. Un �ltro de Kalman de punto sigma, emplea

puntos sigma para el cálculo de las transformaciones de la media y sus matrices de cova-

rianza.

Los métodos de diferencia central son transformaciones de puntos sigma empleando

derivados numéricos de primer y segundo orden de las muestras de perturbación para

seleccionar y pesar los puntos sigma basado en un modelo de óptimización de segundo

orden.

Filtro de Kalman sin escencia. (UKF Unscented Kalman Filter)

Este método se basa en la aplicación de la transformada sin escencia (UT Unscented

Transform) al �ltro de Kalman, dicha transformada muestrea puntos sigma de manera

e�ciente. Lo que hace es que selecciona y pesa las muestras basandose en el estimado x y

factores Cholesky de la matriz de covarianza P, ya sean los valores a posterior o a priori.

Los pesos de los puntos sigma empleados en la UT son diseñados para dar estimados

imparciales de la media y covarianza de salida, lo que deja algunos grados de libertad

para optimizar otros aspectos de la transformación. La gran ventaja de la UT para �ltro

de kalman es su e�ciencia computacional.

Los �ltros de particula emplean la simulación dinpamica de las muestras como parti-

culas arrastradas en el tiempo a traves de dinamicas no lineales, para despues reconstruir

la media propagada y la matriz de covarianza de las muestras propagadas. Ya que este

método cuenta con muestras mas grandes, tiene el potencial de obtener mejores estimados

de las medias y covarianzas que el UKF.

Los métodos de muestreo de raíz cuadrada son métodos simples para progara los

facores de Cholesky de las matrices de covarianza.

3.3.2. Efectos de orden superior de la no linealidad

Se re�ere a que las desviaciones de las funciones h(·) y f(·) o φ(·) de la linealidad son

tales que la aproximación no es la adecuada.

El origen de la no linealidad puede ser cualquiera de las siguientes opciones

1. El modelo dinamico puede ser inherentemente no lineal. Esta no linealidad puede

ser aproximado mediante algún modelo matemático equivalente que proporcione

una dinamica un poco más lineal

2. El modelo de medición asume una forma funcional no lineal, esto se debe a que

muchos sensores presentan un comportamiento de entrada/salida no lineal.

33

Page 34: Resumen Filtro de Kalman Equipo 3

3. La lista de variables de estado incluye parámetros del modelo, tales como la matriz

de transición de estado, la matriz de coe�ciente dinámico, la matriz de sensibilidad

de medición, etc.

Los efectos de la no linealidad puede alterar el signi�cado del valor esperado.

3.3.3. La UKF

La UKF se basa en una implementación de los puntos sigma llamada transformada sin

escencia (UT) para propagar medias y matrices de covarianza. La UT es una familia de

transformadas, donde cada una de ellas emplea una implementación de peso y muestreo

diferente. Esto permite cierta libertad en la aplicación a la UT., dependiendo del grado

de no linealidad y del nivel de aceptación de errores de aproximación.

Las entradas de la UT son:

1. EL estimado(x) también llamado media de la distribución de entrada.

2. Un factor de Cholesky Cxx de su covarianza de incertidumbre asociada Pxx.

3. Una fución de transformación de espacio de esados

y = g(x)

que puede ser lineal o no lineal.

El vector y es empleado aquí ya que puede tener diferentes ejempli�caciones en distintas

partes del �ltro de Kalman.

En las aplicaciones del �ltro de kalman g puede ser ya sea una función de transición

de estado φ o la función de medición h, y y será entonces el vector de estados o un vector

de medición.

Las salidas de la UT son y, la media aproximada de y y Pyy, la covarianza aproximada

de y. La solución incluye los efectos de la no linealidad, si existe. Es exacta cuando g es

lineal y aproximada cuando g es no lineal.

La UT elige muestras, Xi de x, dependiendo solo de x y Cxx, y sus pesos asociados

Wi tales que

x =∑

WiXi

Pxx =∑

Wi(Xi − x)(Xi − x)T

Cada muestra Xi es transformada a traves de la funcion g dada como

34

Page 35: Resumen Filtro de Kalman Equipo 3

ξidef= g(Xi)

y la media transformada y y la covarianza Pyy se aproximan como

y ≈∑

Wiξi

Pyy ≈∑

Wi(ξi − y)(ξi − y)T

La UT simplex es aquella UT que tiene el tamaño de muestra mas pequeño, ya que

emplea vertices de la escala n-simplex en su estrategia de muestreo. Esta diseñada para

minimizar la falta de simetría en la solución, lo que permite a los parámetros libres ser

sintonizados para mejorar el rendimiento para aplicaciones especí�cas.

La UT simétrica es llamada así poruqe su muestreo es simetrico alrededos de la

media x. Si para δx, Xi = x + δx es una muestra, entonces Xi+1 = x − δx también es

una muestra.

La transformada general emplea las siguientes 2n+1 muestrasXi y sus pesos asociados

Wi:

X0 = x W0 = 1/(n+ 1)

Xi = x+√n+ 1ci Wi = 1/[2(n+ 1)] 1 ≤ i ≤ n

Xn+i = x−√n+ 1ci Wn+i = 1/[2(n+ 1)] 1 ≤ i ≤ n

El resto de la UT simétrica tiene las mismas ecuaciones de implementacion que la UT

simplex, pero con diferents numeros de puntos sigma. Las muestras de punto sigma Xi se

transforman primero como

ξi = g(Xi), 1 ≤ i ≤ 2n

y la media y covarianza de las muestras transformadas g(x) son estimadas de las

muestras ya pesadas transformadas.

y ≈2n∑Wiξi

Pyy ≈2n∑Wi(ξi − y)(ξi − y)T

La UT escalada es una modi�cación de la UT simétrica de tal manera que permita

algunos ajustes al muestreo y peso para mejorar la robustés a no linealidades de orden

superior al segundo. Emplea tres parametros de escala ajustables (α, β y κ) para permitir

35

Page 36: Resumen Filtro de Kalman Equipo 3

el ajuste de la transformada para ciertas aplicaciones. Los parámetros α y κ pueden ser

combinados en un sólo parámetro

λ = α2κ+ (1− α2)n

para simpli�car el cáculo de las muestras y los pesos.

X0 = x W[y]0 = 1/(n+ λ)

W[Pyy]0 = 1/(n+ λ) + 1− α2 + β

Xi = x+√n+ λci Wi = 1/[2(n+ λ)] 1 ≤ i ≤ n

Xn+i = x−√n+ λci Wn+i = 1/[2(n+ λ|)] 1 ≤ i ≤ n

estas muestras Xi son transformadas a través de la función g como

ξi = g(Xi), 1 ≤ i ≤ 2n

para obtener las muestras transformadas ξi.

Dos diferentes valores de peso W[y]0 y W

[Pyy]0 son empleados en el cálculo de la media

transformada y la covarianza.

y = W[y]0 ξ0 +

2n∑Wiξi

Pyy = W[Pyy]0 (ξ0 − y)(ξ0 − y)T +

2n∑Wi(ξi − y)(ξi − y)T

Escalando parámetros El parámetro de escala α es usado para disminuir la huella de

las muestras en la media y el ajuste de los pesos respectivamente.

3.3.4. La ganancia de kalman sin escencia (UKG Unscented Kalman Gain)

La ganancia de Kalman estándar para modelos lineales es

Kkdef= Pk,(−)H

Tk /[HkPk,(−)H

Tk +Rk]

Cuando el modelo es no lineal, los factores equivalentes Pk,(−) y Pzz ≡ HkPk,(−)HTk

pueden ser aproximados usando la UT. El único factor faltante es el término covarianza

cruz, el cual puede ser aproximando de las muestras y pesos de la UT como

Pk,(−)HTk =

∑i

Wi(Xi − xk(−))(ξi − zk)T

Estos resultados parciales de la UT pueden entonces ser empleados para aproximar la

ganancia de kalman como la fracción de la matriz

36

Page 37: Resumen Filtro de Kalman Equipo 3

Kk =

[∑i

Wi(Xi − xk(−))(ξi − zk)T

]/

[Rk +

∑i

Wi(ξi − zk)(ξi − zk)T

]

37

Page 38: Resumen Filtro de Kalman Equipo 3

3.3.5. La implementación del Filtro de kalman sin escencia (UKF)

La implementación del UKF usando la UT se resume a continuación con las fórmulas

Actualización temporal

Ck−1,(+) = Un factor de Cholesky de Pk−1,(+)

[xk,(−), Pxx] = UT (xk−1,(+), Ck−1,(+), φ, κ, α, β)

Pk,(−) = Pxx +Qk

Actualización de Medición

Ck.(−) = Un factor de Cholesky de Pk.(−)

[zk, Pzz] = UT (xk,(−), Ck,(−), h, κ, α, β)

Pxz =∑i

Wi(Xi − xk(−))(ξi − zk)T

Kk = Pxz/[Pzz +Rk]

xk,(+) = xk,(−) +Kk(zk − zk)

Pk.(+) = Pk.(−) −KkPTxz

3.4. Cuestionario y respuestas

1. ¾Por qué en cuando el proceso estocástico no es Gaussiano no se puede usar la

ganancia de Kalman?

Porque cuando la distribución de la probabilidad es no Gaussiana, los primeros dos

momentos (media y covarianza) no caracterizan a la distribución de probabilidad. Recor-

demos que Kalman resuelve el problema con base en estos dos parámetros.

2. ¾Por qué se justi�ca o se hace necesario el uso del Filtro de Kalman Extendido?

Porque al llevar a cabo una linealización alrededor de una trayectoria nominal la

desviación de la trayectoria actual respecto de la nominal tiende a incrementarse con el

tiempo. De tal manera que los términos de orden superior despreciados en la serie de

expansión de Taylor para obtener el modelo lineal de la planta cobran importancia y ya

no pueden despreciarse.

3. ¾Cuál es principal diferencia entre el enfoque linealizado y el extendido del �ltro

de Kalman? Menciones ventajas y desventajas de cada uno.

El enfoque linealizado trabaja con un modelo lineal obtenido alrededor de una tra-

yectoria nominal y el enfoque extendido obtiene un modelo lineal de la planta usando

la trayectoria estimada, es decir, va actualizando el modelo lineal cada que se estima un

nuevo estado.

El enfoque del �ltro linealizado es más e�ciente en aplicaciones de tiempo real, pero

es menos robusto a los errores de aproximación lineal en comparación con el enfoque de

�ltrado extendido, debido a que los datos que requiere para su ejecución son calculados

fuera de línea y precargados. Por su parte, el enfoque extendido presenta menos errores de

38

Page 39: Resumen Filtro de Kalman Equipo 3

estimación porque actualiza el modelo lineal que usa para estimar los estados, sin embargo

requiere un mayor poder computacional porque para cada nuevo estado estimado se vuelve

a obtener un nuevo modelo lineal de la planta.

4.- ¾Cuales son las causas principales de la no linealidad?

1. El modelo dinamico puede ser inherentemente no lineal. Esta no linealidad puede

ser aproximado mediante algún modelo matemático equivalente que proporcione

una dinamica un poco más lineal

2. El modelo de medición asume una forma funcional no lineal, esto se debe a que

muchos sensores presentan un comportamiento de entrada/salida no lineal.

3. La lista de variables de estado incluye parámetros del modelo, tales como la matriz

de transición de estado, la matriz de coe�ciente dinámico, la matriz de sensibilidad

de medición, etc.

5.- ¾Cual es la ventaja de aplicar la transformada sin escencia al �ltro de Kalman?

Su e�ciencia computacional, esto permite las aproximaciones en tiempo real.

39