1
Institut für Design und Regelung mechatronischer Systeme Masterarbeit Echtzeitoptimierung mit Extremum Seeking Autor: Martin Großbichler Betreuer: Prof. Luigi del Re Dr. Harald Waschl Fertiggestellt: Oktober 2015 Kurzfassung Extremum Seeking (ES) ist eine Methode zur Echtzeitoptimierung von Systemen. Die Idee besteht darin, eine statische Optimierungsaufgabe als Regelkreis zu formulieren. Die Kosten- funktion wird dabei als System betrachtet und die zu optimierenden Parameter als die entspre- chenden Eingänge. Der Regelfehler wird als Abstand zum optimalen Parameterwert definiert, wobei dieser jedoch von vornherein unbekannt ist und durch das Verfahren selbst gefunden werden muss. Somit erfordert ein derartiger Algorithmus keine a priori Information über das System sondern ermittelt diese selbst aus Messungen. Nach einer Analyse der klassischen Ansätze wird in dieser Arbeit konkret auf einen Algorith- mus eingegangen, welcher auf einer Newton-Methode (NB-ES) basiert. Die Verwendung eines Newton-Verfahrens stellt jedoch auch gewisse Bedingungen an die Kostenfunktion, welche strikt konvex sein muss, da ansonsten keine Abstiegsrichtung gefunden werden kann. Weiters führt der vorgeschlagene NB-ES Algorithmus im Falle von singulären Hesse Matrizen zu einem instabilen Regelkreis. Darum wird in dieser Arbeit vorgeschlagen eine Matrix-Regularisierung zu verwenden, um den Regelkreis robuster gegenüber indefiniten bzw. singulären Hesse Matrizen zu machen. Die Funktionalität dieses robustifizierten Newton-basierten Extremum Seeking Reglers (rNB- ES) wird anhand von Simulationen und einer realen Anwendung an einem Diesel-Motor vali- diert. Die Vorteile gegenüber einem klassischen Gradienten- (GB-ES) bzw. NB-ES Algorithmus bezüglich Stabilität, Konvergenz-Geschwindigkeit und Aufwand der Parametrierung überwiegen und werden veranschaulicht. Newton-basiertes Extremum Seeking Die Konvergenz eines GB-ES hängt, wie man im Averaged System erkennt, von der 2. Ableitung f 00 bzw. der Hesse Matrix H ab. Ein multivariables NB-ES eliminiert diese Abhängigkeit durch verwenden eines Schätzwertes ˆ H für H . + K s -Γ ˆ G ω l s +ω l s s +ω h ˙ x = f (x,α(x,θ)) y = h(x ) ˙ Γ= ω r Γ - ω r Γ ˆ HΓ ω l s +ω l S(t ) M (t ) θ y ˆ G ˆ θ ˆ H N (t ) Das allgemeine nichtlineare System selbst sei stabil oder beinhaltet ein stabilisierendes Regelgesetz u = α(x,θ ). Die Schätzwerte für Gradient ˆ G und Hesse Matrix ˆ H werden durch Demodulation mit geeigneten M (t ) und N (t ) berechnet. Die Schätzwerte ˆ G und ˆ H approximie- ren damit im Mittel die wahren Werte. Die sinusförmigen Störsignale sind im Vektor S (t ) zusammengefasst. Die Invertierung der Hesse Matrix übernimmt ein Riccati Filter ˙ Γ= ω r - Γ ˆ H Γ), welches aus ˆ H direkt einen gefilterten Schätzwert Γ der inversen Hesse Matrix ˆ H -1 berechnet. Dadurch wird berücksichtigt, dass der Mittelwert und nicht der Momentanwert von ˆ H die tatsächliche Hesse Matrix H approximiert. Durch Integration des Update-Gesetzes -Γ ˆ G wird eine Veränderung in Newton-Richtung für den Parametervektor ˆ θ erzielt. Dieses Verfahren ist ebenfalls lokal exponentiell stabil und Instabilitäten durch kurzzeitig negativ definite oder indefinite Schätzwerte ˆ H der Hesse Matrix werden durch das Riccati Filter gedämpft. Im Gegensatz zum GB-ES verwendet das NB-ES, nach Konvergenz des Hesse Matrix Schätzers, eine Newton- Richtung und erzielt vor allem in flachen Bereichen der Kostenfunktion eine schnellere Konvergenz. ˆ θ 1 ˆ θ 2 Quadratische Funktion f (θ) = 50θ 2 1 - 320θ 1 + 30θ 1 θ 2 - 140θ 2 + 10θ 2 2 + 700 1.8 1.9 2 2.1 2.2 2.3 2.4 2.5 2.6 4 4.2 4.4 4.6 4.8 5 f (θ) Gradient GB-ES NB-ES Mit dieser Methode treten jedoch Stabilitätsprobleme bei singulärer Hesse Matrix auf, da die lokale Stabilität des Riccati Filters nicht mehr gegeben ist. Ebenfalls ist bei indefiniter Hesse Matrix, welche bei einer nicht konvexen Funktion auftreten kann, das Finden einer Abstiegsrichtung nicht möglich. Darum wird eine Erweiterung vorgeschlagen. Einführung - Gradienten-basiertes Extremum Seeking Ein GB-ES verwendet ein sinusförmiges Störsignal, welches in das unbekannte statische Sy- stem f (θ ) eingebracht wird. Durch anschließende Demodulation am Ausgang erhält man eine Information über den lokalen Gradienten der stationären Kennlinie des Systems. + - k s ω l s +ω l s s +ω h y = f (θ ) a sin(ωt ) 2 a sin(ωt ) θ y y - η ξ ˆ θ Prinzip der Demodulation: f (θ) θ θ * f * = f (θ * ) t t t Demodulation und TP t ξ ˆ θ1 θp y1,p = HP (y1) ˆ y1 t ˆ θ2 θp t y2,p = HP (y2) ˆ y2 θp, y1,p,y2,p Zeitskalen Zerlegung: ˙ x = f (x, α(x, θ)) y = h(x) θ y θ θ x y h l(θ) x = l(θ) x p = l(θ p ) Steady-State Funktion x = l(θ) θ p ˙ ˆ θ θ * Die Demodulation erzeugt einen Schätzwert ξ, welcher im Mittel den Gradienten approximiert. Durch Integrati- on des negativen Wertes von ξ erhält man einen neuen Parameter ˆ θ , welcher gegen den optimalen Parameter- wert θ * konvergiert. Wird die unbekannte Funktion mit y = f * + f 00 2 (θ - θ * ) 2 approximiert, so kann durch ei- ne Averaging Analyse das zeitlich mittlere Verhalten des Fehlersystems ˜ θ = ˆ θ - θ * und ˜ η = η - f * wie folgt beschrieben werden: d dt ξ av ˜ θ av ˜ η av = ω l ( -ξ av + f 00 ˜ θ av ) -av ω h - ˜ η av + f 00 2 ( ˜ θ 2 av + a 2 2 ) (1) Damit ist das GB-ES lokal exponentiell stabil und verhält sich wie ein Gradienten-Abstiegsverfahren. Grundlegend dabei ist eine Trennung in 3 Zeitskalen, d.h. die Frequenz des Störsignals muss langsamer sein als die Systemdynamik selbst, wodurch dieses erst als statische Funktion f (θ ) beschrieben werden kann. Die langsamste Zeitskala stellt der Integrator ˙ ˆ θ dar. Regularisierung Durch eine Matrix-Regularisierung kann aus einer singulären bzw. indefiniten Hesse Matrix ˆ H eine ähnliche positiv definite Matrix ˆ H R erzeugt werden. Diese Matrix ˆ H R wird anstelle von ˆ H mit dem Riccati Filter invertiert. Dadurch treten keine Stabilitätsprobleme auf und eine Abstiegsrichtung kann garantiert gefunden werden. Ansatz von Levenberg-Marquart (LM): ˆ H R = ˆ H + ηI (2) mit geeignetem η> 0. Regularisierung basierend auf der spektralen Dekomposition (SD): ˆ H R wird aus dem Eigensystem durch spiegeln der ne- gativen Eigenwerte berechnet: ˆ H = V ΛV T (3) ¯ Λ = max(δI, |Λ|) ˆ H R = V ¯ ΛV T (4) Regularisierung basierend auf der Cholesky Faktorisierung (CF): ˆ H R = L ¯ DL T = ˆ H + diag( η 1 ... η n ) (5) Mit geeigneten η i > 0 sodass alle ¯ d jj > δ > 0 und ¯ d ss l js <β> 0 erfüllen. Unregularisierter NB-ES ist instabil bei singulärer und indefiniter Hesse Matrix: ˆ θ 1 ˆ θ 2 -0.2 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 -0.2 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 f (θ) GB-ES NB-ES NB-ES LM NB-ES CF NB-ES SD ˆ θ 1 ˆ θ 2 -1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1 -0.5 0 0.5 1 1.5 2 2.5 f (θ) GB-ES NB-ES NB-ES LM NB-ES CF NB-ES SD Experimentelle Ergebnisse Um die Funktionalität des vorgeschlagenen rNB-ES zu veranschaulichen, wird eine Optimierung des spezifischen Kraftstoffverbrauchs eines Diesel-Motors vorgenommen. Dazu werden Drehmoment und Drehzahl konstant gehal- ten und die Menge der Haupteinspritzung A mi , sowie der Einspritzwinkel ϕ mi additiv verändert (ΔA mi ,Δϕ mi ) um ein Minimum zu finden. Dabei wird der rNB-ES mit einem klassischen GB-ES verglichen. Beide Verfahren werden in einem Betriebspunkt (M ,n ) derart parametriert, dass sie ähnliches Konvergenzverhalten zeigen. Anschließend wird der Vergleich in einem zweiten Betriebspunkt mit anderem stationären Verhalten durchgeführt. Dabei zeigt das rNB-ES klare Vorteile durch einfachere Parametrierung und schnellere Konvergenz unabhängig vom Betriebspunkt. Ein GB-ES liefert ohne erneuter Parametrierung keine guten Ergebnisse. Δ ˆ ϕ mi / CAD Δ ˆ A mi / mg Steady-State BSFC Kennfeld, M=30 Nm, n=1400 rpm -5 -4 -3 -2 -1 0 1 2 3 4 5 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 BSFC-Map Gradient GB-ES NB-ES Gradient GB-ES NB-ES Δ ˆ ϕ mi / CAD Δ ˆ A mi / mg Steady-State BSFC Kennfeld, M=80 Nm, n=2000 rpm -5 -4 -3 -2 -1 0 1 2 3 4 5 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 BSFC-Map Gradient GB-ES NB-ES Gradient GB-ES NB-ES Gradient GB-ES NB-ES 0 20 40 60 80 100 120 140 160 180 -5 -3 -1 1 3 5 Zeitverlauf Zeit t / s Δ ˆ ϕ mi / CAD 0 20 40 60 80 100 120 140 160 180 -1 -0.75 -0.5 -0.25 0 0.25 0.5 0.75 1 Zeit t / s Δ ˆ A mi / mg 0 20 40 60 80 100 120 140 160 180 90 100 110 Zeit t / s BSFC / % GB-ES NB-ES GB-ES NB-ES GB-ES NB-ES Zusammenfassung und Ausblick Durch die Kombination eines NB-ES und der Methode der Matrix- Regularisierung kann ein rNB-ES erreicht werden. Dieser Algorithmus ist für die Anwendung an realen Strecken mit Messrauschen und nicht kon- vexen Kostenfunktionen geeignet und behält alle Vorteile eines Newton- Verfahrens, bezüglich Performance und Einfachheit der Parametrierung, bei. Damit kann, ohne a priori Systemwissen zu benötigen, ein stationäres Übertragungsverhalten optimiert werden. Mögliche zukünftige Arbeiten sind: Erweiterung auf eine Multi-Objective Optimization mit möglicher An- wendung am Diesel-Motor um andere Größen wie z.B. Emissionen zu berücksichtigen. Anstelle der Regularisierung mit regelungstechnischen Methoden eine Stabilisierung für das Riccati Filter zu entwickeln, um einen robusten Algorithmus zu erhalten.

Masterarbeit Echtzeitoptimierung mit Extremum Seeking · 1 InstitutfürDesignundRegelungmechatronischerSysteme Masterarbeit Echtzeitoptimierung mit Extremum Seeking Autor:Martin Großbichler

  • Upload
    others

  • View
    2

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Masterarbeit Echtzeitoptimierung mit Extremum Seeking · 1 InstitutfürDesignundRegelungmechatronischerSysteme Masterarbeit Echtzeitoptimierung mit Extremum Seeking Autor:Martin Großbichler

1

Institut für Design und Regelung mechatronischer Systeme

MasterarbeitEchtzeitoptimierung mit Extremum Seeking

Autor: Martin GroßbichlerBetreuer: Prof. Luigi del Re

Dr. Harald WaschlFertiggestellt: Oktober 2015

KurzfassungExtremum Seeking (ES) ist eine Methode zur Echtzeitoptimierung von Systemen. Die Ideebesteht darin, eine statische Optimierungsaufgabe als Regelkreis zu formulieren. Die Kosten-funktion wird dabei als System betrachtet und die zu optimierenden Parameter als die entspre-chenden Eingänge. Der Regelfehler wird als Abstand zum optimalen Parameterwert definiert,wobei dieser jedoch von vornherein unbekannt ist und durch das Verfahren selbst gefundenwerden muss. Somit erfordert ein derartiger Algorithmus keine a priori Information über dasSystem sondern ermittelt diese selbst aus Messungen.Nach einer Analyse der klassischen Ansätze wird in dieser Arbeit konkret auf einen Algorith-mus eingegangen, welcher auf einer Newton-Methode (NB-ES) basiert. Die Verwendung einesNewton-Verfahrens stellt jedoch auch gewisse Bedingungen an die Kostenfunktion, welchestrikt konvex sein muss, da ansonsten keine Abstiegsrichtung gefunden werden kann. Weitersführt der vorgeschlagene NB-ES Algorithmus im Falle von singulären Hesse Matrizen zu eineminstabilen Regelkreis. Darum wird in dieser Arbeit vorgeschlagen eine Matrix-Regularisierung zuverwenden, um den Regelkreis robuster gegenüber indefiniten bzw. singulären Hesse Matrizenzu machen.Die Funktionalität dieses robustifizierten Newton-basierten Extremum Seeking Reglers (rNB-ES) wird anhand von Simulationen und einer realen Anwendung an einem Diesel-Motor vali-diert. Die Vorteile gegenüber einem klassischen Gradienten- (GB-ES) bzw. NB-ES Algorithmusbezüglich Stabilität, Konvergenz-Geschwindigkeit und Aufwand der Parametrierung überwiegenund werden veranschaulicht.

Newton-basiertes Extremum SeekingDie Konvergenz eines GB-ES hängt, wie man im Averaged System erkennt, von der 2. Ableitungf ′′ bzw. der Hesse Matrix H ab. Ein multivariables NB-ES eliminiert diese Abhängigkeit durchverwenden eines Schätzwertes H für H.

+ Ks −ΓG

ωls+ωl

ss+ωh

x = f (x, α(x, θ))

y = h(x)

Γ = ωrΓ− ωrΓHΓωls+ωl

S(t) M(t)

θ y

H

N(t)

Das allgemeine nichtlineare System selbst sei stabil oderbeinhaltet ein stabilisierendes Regelgesetz u = α(x, θ).Die Schätzwerte für Gradient G und Hesse Matrix Hwerden durch Demodulation mit geeigneten M(t) undN(t) berechnet. Die Schätzwerte G und H approximie-ren damit im Mittel die wahren Werte. Die sinusförmigenStörsignale sind im Vektor S(t) zusammengefasst.

Die Invertierung der Hesse Matrix übernimmt ein Riccati Filter Γ = ωr(Γ−ΓHΓ), welches ausH direkt einen gefilterten Schätzwert Γ der inversen Hesse Matrix H−1 berechnet. Dadurch wirdberücksichtigt, dass der Mittelwert und nicht der Momentanwert von H die tatsächliche HesseMatrix H approximiert. Durch Integration des Update-Gesetzes −ΓG wird eine Veränderungin Newton-Richtung für den Parametervektor θ erzielt.

Dieses Verfahren ist ebenfalls lokal exponentiell stabilund Instabilitäten durch kurzzeitig negativ definite oderindefinite Schätzwerte H der Hesse Matrix werden durchdas Riccati Filter gedämpft.Im Gegensatz zum GB-ES verwendet das NB-ES, nachKonvergenz des Hesse Matrix Schätzers, eine Newton-Richtung und erzielt vor allem in flachen Bereichen derKostenfunktion eine schnellere Konvergenz.

θ1

θ2

Quadratische Funktion f(θ) = 50θ21 − 320θ1 + 30θ1θ2 − 140θ2 + 10θ22 + 700

1.8 1.9 2 2.1 2.2 2.3 2.4 2.5 2.6

4

4.2

4.4

4.6

4.8

5

f(θ)GradientGB-ESNB-ES

Mit dieser Methode treten jedoch Stabilitätsprobleme bei singulärer Hesse Matrix auf, dadie lokale Stabilität des Riccati Filters nicht mehr gegeben ist. Ebenfalls ist bei indefiniterHesse Matrix, welche bei einer nicht konvexen Funktion auftreten kann, das Finden einerAbstiegsrichtung nicht möglich. Darum wird eine Erweiterung vorgeschlagen.

Einführung - Gradienten-basiertes Extremum SeekingEin GB-ES verwendet ein sinusförmiges Störsignal, welches in das unbekannte statische Sy-stem f (θ) eingebracht wird. Durch anschließende Demodulation am Ausgang erhält man eineInformation über den lokalen Gradienten der stationären Kennlinie des Systems.

+ −ksωls+ωl

ss+ωh

y = f (θ)

a sin(ωt) 2a sin(ωt)

θ y

y − ηξθ

Prinzip der Demodulation:f(θ)

θθ∗

f∗ = f(θ∗)

t

t

t

Demodulation und TP

t

ξ

θ1

θp

y1,p = HP (y1)

y1

t

θ2

θp

t

y2,p = HP (y2)

y2

θp, y1,p,y2,p

Zeitskalen Zerlegung:

x = f(x, α(x, θ))y = h(x)

θ y

θ θ

x y

h ◦ l(θ)x = l(θ)

xp = l(θp)

Steady-State Funktion

x = l(θ)

θp

˙θ

θ∗

Die Demodulation erzeugt einen Schätzwert ξ, welcherim Mittel den Gradienten approximiert. Durch Integrati-on des negativen Wertes von ξ erhält man einen neuenParameter θ, welcher gegen den optimalen Parameter-wert θ∗ konvergiert. Wird die unbekannte Funktion mity = f ∗ + f ′′

2 (θ − θ∗)2 approximiert, so kann durch ei-ne Averaging Analyse das zeitlich mittlere Verhalten desFehlersystems θ = θ − θ∗ und η = η − f ∗ wie folgtbeschrieben werden:

d

dt

ξavθavηav

=

ωl(−ξav + f ′′θav

)−kξav

ωh

(−ηav + f ′′

2 (θ2av + a2

2 )) (1)

Damit ist das GB-ES lokal exponentiell stabil und verhältsich wie ein Gradienten-Abstiegsverfahren.Grundlegend dabei ist eine Trennung in 3 Zeitskalen, d.h.die Frequenz des Störsignals muss langsamer sein als dieSystemdynamik selbst, wodurch dieses erst als statischeFunktion f (θ) beschrieben werden kann. Die langsamsteZeitskala stellt der Integrator ˙θ dar.

RegularisierungDurch eine Matrix-Regularisierung kann aus einer singulären bzw. indefiniten Hesse Matrix Heine ähnliche positiv definite Matrix HR erzeugt werden. Diese Matrix HR wird anstelle vonH mit dem Riccati Filter invertiert. Dadurch treten keine Stabilitätsprobleme auf und eineAbstiegsrichtung kann garantiert gefunden werden.

• Ansatz von Levenberg-Marquart (LM):

HR = H + ηI (2)

mit geeignetem η > 0.

• Regularisierung basierend auf der spektralen Dekomposition(SD): HR wird aus dem Eigensystem durch spiegeln der ne-gativen Eigenwerte berechnet:

H = V ΛV T (3)Λ = max(δI, |Λ|)→ HR = V ΛV T (4)

• Regularisierung basierend auf der Cholesky Faktorisierung(CF):

HR = LDLT = H + diag([η1 . . . ηn

]) (5)

Mit geeigneten ηi > 0 sodass alle dj j > δ > 0 und∣∣∣√dss ljs∣∣∣ < β > 0 erfüllen.

Unregularisierter NB-ES ist instabil beisingulärer und indefiniter Hesse Matrix:

θ1

θ2

−0.2 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6−0.2

0

0.2

0.4

0.6

0.8

1

1.2

1.4

1.6

f(θ)GB-ESNB-ESNB-ES LMNB-ES CFNB-ES SD

θ1

θ2

−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1−0.5

0

0.5

1

1.5

2

2.5

f(θ)GB-ESNB-ESNB-ES LMNB-ES CFNB-ES SD

Experimentelle ErgebnisseUm die Funktionalität des vorgeschlagenen rNB-ES zu veranschaulichen, wird eine Optimierung des spezifischenKraftstoffverbrauchs eines Diesel-Motors vorgenommen. Dazu werden Drehmoment und Drehzahl konstant gehal-ten und die Menge der Haupteinspritzung Ami , sowie der Einspritzwinkel ϕmi additiv verändert (∆Ami ,∆ϕmi) umein Minimum zu finden. Dabei wird der rNB-ES mit einem klassischen GB-ES verglichen. Beide Verfahren werden ineinem Betriebspunkt (M,n) derart parametriert, dass sie ähnliches Konvergenzverhalten zeigen. Anschließend wirdder Vergleich in einem zweiten Betriebspunkt mit anderem stationären Verhalten durchgeführt. Dabei zeigt dasrNB-ES klare Vorteile durch einfachere Parametrierung und schnellere Konvergenz unabhängig vom Betriebspunkt.Ein GB-ES liefert ohne erneuter Parametrierung keine guten Ergebnisse.

∆ϕmi / CAD

∆A

mi/mg

Steady-State BSFC Kennfeld, M=30Nm, n=1400 rpm

−5 −4 −3 −2 −1 0 1 2 3 4 5

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

BSFC-MapGradientGB-ESNB-ESGradientGB-ESNB-ES

∆ϕmi / CAD

∆A

mi/mg

Steady-State BSFC Kennfeld, M=80Nm, n=2000 rpm

−5 −4 −3 −2 −1 0 1 2 3 4 5

−0.6

−0.4

−0.2

0

0.2

0.4

0.6BSFC-MapGradientGB-ESNB-ESGradientGB-ESNB-ESGradientGB-ESNB-ES

0 20 40 60 80 100 120 140 160 180−5−3−1

135

Zeitverlauf

Zeit t / s

∆ϕmi/CAD

0 20 40 60 80 100 120 140 160 180−1

−0.75−0.5

−0.250

0.250.5

0.751

Zeit t / s

∆A

mi/mg

0 20 40 60 80 100 120 140 160 18090

100

110

Zeit t / s

BSFC

/%

GB-ESNB-ESGB-ESNB-ESGB-ESNB-ES

Zusammenfassung und AusblickDurch die Kombination eines NB-ES und der Methode der Matrix-Regularisierung kann ein rNB-ES erreicht werden. Dieser Algorithmus istfür die Anwendung an realen Strecken mit Messrauschen und nicht kon-vexen Kostenfunktionen geeignet und behält alle Vorteile eines Newton-Verfahrens, bezüglich Performance und Einfachheit der Parametrierung,bei. Damit kann, ohne a priori Systemwissen zu benötigen, ein stationäresÜbertragungsverhalten optimiert werden.Mögliche zukünftige Arbeiten sind:

• Erweiterung auf eine Multi-Objective Optimization mit möglicher An-wendung am Diesel-Motor um andere Größen wie z.B. Emissionen zuberücksichtigen.

• Anstelle der Regularisierung mit regelungstechnischen Methoden eineStabilisierung für das Riccati Filter zu entwickeln, um einen robustenAlgorithmus zu erhalten.