AGH, Wydział Elektrotechniki, Automatyki Informatyki i Elektroniki Katedra Automatyki
METODY OPTYMALIZACJI
Wojciech Grega
Notatki do wykładu
Kraków, 2001 Ostatnia aktualizacja: 01/10/04
Wykład I
-1-
1. Wykład I 1.1 Wprowadzenie W roku 1997 obchodzono 300 lat nowożytnej teorii optymalizacji w związku z pionierskimi pracami matematyków i fizyków XVII wieku. Jednak problematyka optymalizacji jest niemal tak stara jak historia cywilizacji. Poniżej przedstawiono krótkie zestawienie najważniejszych wydarzeń istotnych dla rozwoju optymalizacji tej dziedziny wiedzy oraz listę nazwisk uczonych, których prace przyczyniły się do rozwoju tej dziedziny wiedzy. •
Wergiliusz (poeta rzymski 70-19 p.n. Chr.): Eneida: historia założenia Kartaginy (850 p.n.Chr. ): „znaleźć krzywą zamkniętą na płaszczyźnie o danej długości, która zawiera maksymalną powierzchnię”.
•
1697: Johann Bernoulli ogłosił konkurs na rozwiązanie problemu brachistochrony (gr.): „znaleźć krzywą na płaszczyźnie, łączącą dwa punkty A i B nie leżące w pionie, wzdłuż której punkt materialny, poruszający się pod działaniem siły ciężkości, przebywa drogę w najkrótszym czasie” (Rozwiązanie: łuk cykloidy). Wpłynęło sześć prawidłowych rozwiązań od następujących matematyków i fizyków: Leibnitza, Johanna Bernoulliego, Jakub Bernoulliego, Newtona, l’Hopitala, Tschirnhausa
A
?
B Rys. 1.1
Problem brachistochrony
•
Początek rachunku wariacyjnego: Lagrange (1736-1813), Weierstrass (1815-1897), Pontryagin
•
1939: Współczesne metody optymalizacji
Wykład I
Hamilton (1805-1865),
-2-
problemy logistyki związane z planowaniem operacji w czasie II wojny światowej programowanie liniowe (Dantzig), programowanie całkowitoliczbowe – wybór spośród skończonej liczby decyzji: (Cabot, Balas), teoria programowania nieliniowego (Kunhn,Tucker,Georffrion), rozwój obliczeń komputerowych spowodował wzrost zainteresowania algorytmami numerycznymi (Powell, Rosen, Fletcher), programowanie dynamiczne- zainteresowanie procesami „z pamięcią” (Bellman, Riccati), badania kosmiczne:
optymalizacja konstrukcji rakiet, problemy sterowania lotem w
stratosferze i w kosmosie optymalizacja procesów ekonomicznych: problemy alokacji produkcji, optymalny skład portfela inwestycyjnego, problemy „wielkie” (ang. large scale) i związane z nimi metody dekompozycji (Lasdon, Findeisen) „soft computing”: John Holland (Universytet Michigan),1975:” Adaptation in Natural and Artifical Systems”
Ewolucja podejścia do problemów optymalizacji •
Analityczne metody klasyczne, czyli metody „górskiej wspinaczki”: modele stworzone przez matematyków XVII-XIX wieku: „nieskażony” świat kwadratowych funkcji celu i wszechobecnych pochodnych. Dawały możliwości rozwiązywania problemów „szkolnych”.
•
Rozwój obliczeń komputerowych: modyfikacje metod klasycznych, algorytmizacja obliczeń umożliwiła zastosowanie do praktycznych problemów nauki i techniki, w tym do funkcji nieanalitycznych.
•
„Softcomputing” metody „odporne”: algorytmy ewolucyjne, genetyczne, sieci neuronowe: zastosowanie metod optymalizacji do złożonych modeli procesów (rys.1.2).
Wykład I
-3-
F=(exp(0.1.*x/pi).*abs(sin(4.*x))).*(exp(0.1.*y/pi).*abs(sin(3.*y)));
Rys. 1.2 Przykład zadania wymagającego podejścia „odpornego”
1.2 Bibliografia i inne źródła 1. Findeisen W. Szymanowski J, Wierzbicki A.- „Teoria i metody obliczeniowe optymalizacji”, PWN, Warszawa 1980. 2. Seidler I., Badach A., Molisz W. - „Metody rozwiązywania zadań optymalizacji”, WNT, Warszawa, 1980 3. Wit R. „Metody programowania nieliniowego”, WNT, Warszawa 1986 4. Martos B. „Programowanie nieliniowe”, PWN, Warszawa 1981 5. Gass S.I. „Programowanie liniowe”, PWN, Warszawa, 1973 6. Khachiyan L.G., 1979- „A polynomial algorithm in linear programming” – Soviet Mathematics Doklady, 20 (1979), 191-194 7. Ogata 8. Turowicz 9. Korytowski A., Ziółko M. -„Metody optymalizacji”, Skrypt AGH 1300, Kraków 1992 10.Wismer D., Chattergy R. -„Introduction to Nonlinear Optimization”, North Holland 1978 11.Fletcher R.: Practical Methods of Optimization, J. Wiley, New York 1987 Wykład I
-4-
12.Bertsekas D.P. „Nonlinear Programming”, Athena Scientific, Massachuset, 1997 13.Brdyś M., Ruszczyński A. - „Metody optymalizacji w zadaniach” WNT, Warszawa, 1985 14.Stachurski A., Wierzbicki A.P. „Podstawy optymalizacji”, Oficyna Wydawnicza Politechniki Warszawskiej, Warszawa 2000, 15.A. Bhati, „Practical Optimization Methods”, Springer, 2000 16. Nocedal J., Wright S.J. „Numerical Optimization”, Springer 1999 17.Lasdon, L.S. ,„Optimization Theory for Large Scale Systems”, McMillan, 1970 18.Tamura, H. „Decentralized Optimization for Distributed–lag Models of Discrete Systems”, Automatica, 11, 1975, 593-602 19.Grega W. „Rozwiązywanie niewypukłych zadań programowania nieliniowego metodą zbiorów poziomicowych”, Elektrotechnika, t.8, z.1, wyd. AGH 1989 20.Grega W., „Performance evaluation of model-reference control”, 7th IEEE International Conference on Methods and Models in Automation and Robotics, Międzyzdroje 2001, s. 407 – 412 21.David E. Goldberg, „Algorytmy genetyczne i ich zastosowanie”, WNT, 1995 22.Osowowski S., „Sieci Neuronowe” Oficyna Wydawnicza Politechniki Warszawskiej, 1994. 23.Rutkowscy D. i L., Piliński M. „Sieci neuronowe, algorytmy genetyczne i systemy rozmyte” PWN, Warszawa−Łódź 1997 24.Tang K.S., Man K.F., Kwong S. And He Q.,
„Genetic Algorithms and their
Applications”, IEEE Signal Processing Magazine, November 1996 25.Putyra M. ”Algorytmy genetyczne”, Praca Dyplomowa (opiekun W. Grega), Katedra Automatyki AGH, 1998 26. „Optimization Toolbox”- MathWorks Inc 27.FT3PAKTM Version 1.0 Tutorial Guide Flexible Intelligence Group, L.L.C Strony www, np.: http://www.ece.northwestern.edu/OTC/ , rys. 1.3
Wykład I
-5-
Rys. 1.3 Strona www poświęcona optymalizacji
1.3 Formułowanie zadań optymalizacji „Dążenie człowieka do perfekcji znajduje swój wyraz w optymalizacji. Zajmuje się ona tym, jak opisać i osiągnąć Najlepsze, gdy wiemy już jak mierzyć i zmieniać Dobre i Złe”. (Beightler, Philips, 1979: Foundations of Optimization)
Wykład I
-6-
maks F(x) y
x
min
Rys. 1.4 Podstawowe pytanie optymalizacji: „ Jak realizować proces w najlepszy sposób?”, F (x) - ocena jakości, x,y – zmienne decyzyjne
Wykład I
-7-
Proces
Model
x
F,X 0, algorytm
xˆ Rys. 1.5 Formułowanie i rozwiązywanie zadania optymalizacji Proces: zjawisko fizyczne, proces technologiczny, system ekonomiczny, planowanie produkcji, transportu.... Model: jego opis matematyczny sformułowany pod kątem optymalizacji
x
- zmienna decyzyjna ("manipulacyjna"),
F (x) - ocena jakości (funkcja (-e) celu, kryterium jakości..),
X - zbiór rozwiązań dopuszczalnych, 0
X - przestrzeń rozwiązań,
xˆ - rozwiązanie (optymalna wartość zmiennej decyzyjnej). W dalszym ciągu będziemy się zajmowali problemami optymalizacji, które można przedstawić jako „zadanie standardowe”::
min{F ( x)} x∈ X ⊆ X 0
Wykład I
-8-
Większość problemów można sprowadzić do zadania minimalizacji.
1.4 Przegląd zadań optymalizacji JEDNOKRYTERIALNA
Optymalizacja globalna
POLIOPTYMALIZCJA
Optymalizacja
Optymalizacja sieci i grafów
Statyczna
Dynamiczna
Bez ograniczeń Z ograniczeniami Równania nieliniowe
Aproksymacja
Rn
Zn
Programowanie liniowe
Zn
Rn
Programowanie kwadratowe
R1 :na kierunku
Programowanie dyskretne
R1 :na kierunku
Rys. 1.6 Podział zadań optymalizacji Wraz z rozwojem metod optymalizacji ukształtowały się określone działy tej nauki, dla których charakterystyczne były metody formułowania i rozwiązywania zadań. (Rys.1.6)
A. Optymalizacja statyczna A.1 Ciągłe zadania programowania (ZPN)
Wykład I
-9-
X = Rn Y = R1 F ( x) : R n ⇒ R 1
•
specjalny przypadek: poszukiwanie jednowymiarowe ( n = 1 ): X = R1 Y = R1 F ( x) : R 1 ⇒ R 1
A.1.1 Bez ograniczeń X 0 = X = Rn
A.1.2 Z ograniczeniami
X 0 = {x : g ( x ) = 0 , h( x ) ≤ 0} g ( x ) : R n → R m , h( x ) : R n → R p
•
specjalny przypadek: ograniczenia „proste” (kostkowe): a ≤ x ≤ b
A.1.2.1 Zadania programowania liniowego (PL). Samodzielny kierunek tzw. badań operacyjnych z licznymi zastosowaniami w ekonomii i zarządzaniu. X = Rn Y = R1 F ( x) = C T x
X 0 = {x : Ax ≤ b, x ≥ 0}
A.2 Dyskretne zadania programowania (całkowitoliczbowe) X = Z n ⊂ Rn Y = R1 F ( x) : Z n ⇒ R 1
X 0 = X (bez ograniczeń) lub X 0 ⊂ X (z ograniczeniami) •
specjalny przypadek programowanie binarne: X = Bn ⊂ Z n
B. Optymalizacja dynamiczna, związana z zastosowaniami w mechanice, automatyce X = H n (przestrzeń funkcyjna) Y = R1
F [x(t )] : H n ⇒ R1 (funkcjonał) Wykład I
- 10 -
X 0 -więzy Dla każdego z wymienionych zadań można sformułować zadanie optymalizacji wielokryterialnej
Polioptymalizacja (zadanie „p-kryterialne, optymalizacja statyczna): X = Rn Y = Rp F ( x) : R n → R p
X 0 = X = R n lub X 0 ⊂ X (odpowiednio: zadanie
polioptmalizacji bez ograniczeń (z
ograniczeniami))
1.5 Przykłady zadań optymalizacji Przykład 1.1: Optymalizacja konstrukcji 1 Transport 1000 m3 chemikaliów musi być zrealizowany w szczelnych, prostopadłościennych pojemnikach (Rys.1.7). Góra A
B B
x3 A
Dno
x2
x1 Rys. 1.7 Pojemnik na chemikalia Budowa pojemnika: -
materiał na górną powierzchnię kosztuje 30 $/m2
-
boki A kosztują 20 $/m2
-
boki B i Dno muszą być wykonane z odpadów, które nic nie kosztują, ale można je użyć tylko w ilości 10 m2 na pojemnik
-
transport kosztuje 2 $ od pojemnika
Celem optymalizacji jest minimalizacja kosztów wysyłki. Sformułowanie problemu Koszt jednego pojemnika wynosi: 2 + 2 x2 x3 ⋅ 20 + x1 x2 ⋅ 30
Wykład I
- 11 -
Liczba pojemników wynosi:
Ogólny koszt wysyłki wynosi:
z=
1000 x1 x 2 x 3
2 40 30 1000 + + x1 x2 x3 x1 x3
Ograniczenia: x1 ≥ 0, x 2 ≥ 0, x3 ≥ 0, 2 x1 x3 + x1 x 2 ≤ 10 Zadanie optymalizacji można sformułować w sposób następujący: 2 40 30 min + + x1 x 2 x3 x1 x3 ( x1 x 2 x3 ) ∈ X 0 = x1 , x 2 , x3 : x1 ≥ 0, x 2 ≥ 0, x3 ≥ 0, 2 x1 x3 + x1 x 2 ≤ 10, X 0 ⊂ R 3
{
}
Klasyfikacja zadania: zadanie optymalizacji statycznej, programowanie nieliniowe
Przykład kodu MATLABA rozwiązującego zadanie 1.1
%Optymalizacja kształtu kontenera op=foptions; op(1)=1; op(2)=0.01; op(3)=0.01; op xpocz=[6 6 1] % ograniczenia proste dogr=[0.1 0.1 0.1] gogr=[10 10 10] x=constr('kontener',xpocz,op,dogr,gogr) function [f,g]=kontener(x) %funkcja celu; f=2/(x(1)*x(2)*x(3))+40/x(1)+30/x(3); %ograniczenie g(1)=2*x(1)*x(3)+x(1)*x(2)-10;
Wykład I
- 12 -
Przykład 1.2: Optymalizacja konstrukcji 2: optymalizacja kształtu budynku
3,5
h
d
w
l Rys. 1.8 Część nadziemna i podziemna projektowanego budynku Oznaczenia: n - liczba pięter d – zagłębienie w ziemi h – wysokość ponad ziemią l – długość podstawy w – szerokość podstawy
Założenia projektowe:
•
powierzchnia użytkowa nie mniejsza niż 20 000 m2,
•
podstawa w żadnym wymiarze nie przekroczy 50 m,
•
stosunek długości do szerokości musi spełniać warunki złotego podziału (1.618),
•
wysokość pięter 3,5 m,
•
koszty ogrzewania nie mogą przekroczyć 225 000$, przy założenie, że roczne koszty ogrzewania wynoszą 100$ od m2 budynku ponad powierzchnią ziemi,
Wykład I
- 13 -
Zadanie: Określić wymiary budynku d , l , w, h, n tak, aby zminimalizować koszt zagłębienie w ziemi (koszty wykopu). Pierwsze sformułowanie: Funkcja celu: F (d , l , w) = dlw Ograniczenia: nlw ≥ 20000 l ≤ 50 , w ≤ 50 l = 1.618 w
d +h = 3.5 n 100 (2hl + 2hw + lw) ≤ 225000 n ≥ 1,
d ≥ 0,
h ≥ 0,
l ≥ 0,
w≥0
Zmienne decyzyjne: d , l , w, h, n
Drugie sformułowanie: Eliminując ograniczenia równościowe: d +h = n , l = 1.618 w 3.5 d otrzymujemy zadanie w R , x = w h 3
min F (d , w) = min 1.618 dw 2 100(5.236 hw + 1.618 w 2 ) ≤ 225000 1.618 w ≤ 50 X = {x : } 2 0.4622857(d + h) w ≥ 20000 d ≥ 0, h ≥ 0, w ≥ 0
Przykład kodu MATLABA rozwiązującego zadanie 1.2 %Budynek - procedura glowna %foptions opcje default op=foptions; op(1)=1; op(2)=0.001; op(3)=0.001; op(4)=0.000000001; op
Wykład I
- 14 -
xpocz=[15 5 5] dogr=[0 0 0] gogr=[100 100 10] [x,options]=constr('budynek',xpocz,op,dogr,gogr) function [f,g]=budynek(x) f=1.618*x(1)*x(2)*x(2); g(1)=100*(5.236*x(3)*x(2)+1.618*x(2)*x(2))-225000; g(2)=1.618*x(2)-50; g(3)=-0.4622857*(x(1)+x(3))*x(2)*x(2)+20000;
Przykład 1.3: Zwalczanie szkodników (alokacja zasobów)
Zadanie polega na rozmieszczeniu 3 pojemników ze środkiem owadobójczym pośród 12 gniazd os na plantacji w kształcie kwadratu o boku 100 m, tak aby wytępić maksymalną liczbę os. Każde gniazdo os ma określone położenie za pomocą współrzędnych (Wxi, Wyi) i szacunkową liczbę os określoną przez wartość Wi . Każdy pojemnik posiada swoje współrzędne położenia (Cxi, Cyi), tab.1.1 Tab.1.1 Liczba
Położenie gniazd Wyi
Wxi
os Wi 100
25
65
200
23
8
327
7
13
440
95
53
450
3
3
639
54
56
650
67
78
678
32
4
750
24
76
801
66
89
945
84
4
967
34
23
Wykład I
- 15 -
Położenie gniazd
100 y 80 60 40 20 0 0
x
50
100
Rys. 1.9 Rozmieszczenie gniazd os Sformułowanie problemu: Funkcja celu: 12
F (C xi , C yi ) = 100 ⋅
∑K i =1 12
i
∑W i =1
i
gdzie:
k + k 2 + k3 , gdy k1 + k 2 + k3 < Wi Ki = 1 w przeciwnym przypadku Wi ,
i=1,2,..,12
gdzie: kj - liczba os wytępionych za pomocą pojemnika j=1,2,3 jest określona jako: k = j
W ⋅ 141.42 i 2 2 20 ⋅ Wx − Cx + Wy − Cy + 0.0001 j j i i
Ograniczenia: współrzędne pojemników : 0 ≤ Cx j ≤ 100 , 0 ≤ Cy j ≤ 100 Klasyfikacja
zadania:
zadanie
programowania
nieliniowego
z
ograniczeniami,
X 0 ⊂ X = R6 .
Wykład I
- 16 -
Przykład 1.3: Optymalizacja produkcji. Rafineria wytwarza dwa rodzaje benzyn w dwóch procesach produkcyjnych (I i II na Rys.1.10), składających się z cykli produkcyjnych. Wykorzystuje się przy tym dwa rodzaje surowców: ropę A i B. Efektywność poszczególnych procesów przedstawiono w Tab.1.2
A
X pr.I
B
Y
pr.II zysk
Rys. 1.10 Schemat produkcji Tab.1.2 Wejście
Wyjście
Zysk
Proces
Ropa A
Ropa B
Benzyna X
Benzyna Y
I
3
2
1
2
1
II
2
6
3
1
2
Ograniczenia: Ilość dostępnej ropy A nie przekracza 60 [j]. Ilość dostępnej ropy B nie przekracza 90 [j]. Analiza rynku wykazała, że są zamówienia na co najmniej 30 [j] benzyny X i 20 [j] benzyny Y. Jak sterować produkcją, aby maksymalizować zysk? Sformułowanie problemu: Zmienne decyzyjne:
x1 - liczba cykli produkcyjnych procesu I, x 2 - liczba cykli produkcyjnych procesu II. Ograniczenia produkcji:
3x1 + 2 x 2 ≤ 60 2 x1 + 6 x 2 ≤ 90 x1 + 3x 2 ≥ 30
Warunki sprzedaży:
2 x1 + x 2 ≥ 20
Zysk:
F ( x1 , x 2 ) = x1 + 2 x 2
Wykład I
- 17 -
Klasyfikacja
zadania:
zadanie
programowania
X0 ⊂ X = Z 2
liniowego,
całkowitoliczbowe. Przykład 1.4: Analiza danych pomiarowych [Matlab] W wyniku przeprowadzonego eksperymentu uzyskano dane pomiarowe, jak na rys.1.11. Należy przybliżyć je w sposób optymalny wybraną krzywą analityczną.
xi 0 0.1000 0.2000 0.3000 0.4000 0.5000 0.6000 0.7000 0.8000 0.9000 1.0000 1.1000 1.2000 1.3000 1.4000 1.5000 1.6000 1.7000 1.8000 1.9000 2.0000
Input data 6
ydatai
5
4
3
2
1
0 0
0.2
0.4
0.6
0.8
1
1.2
1.4
1.6
ydatai 5.8955 3.5639 2.5173 1.9790 1.8990 1.3938 1.1359 1.0096 1.0343 0.8435 0.6856 0.6100 0.5392 0.3946 0.3903 0.5474 0.3459 0.1370 0.2211 0.1704 0.2636
1.8
2
xi
Rys. 1.11 Dane pomiarowe Sformułowanie zadania: Dla przybliżenia wybrano 4-parametrową krzywą wykładniczą w postaci:
f(x) = c(1)*exp(-lam(1)*x) + c(2)*exp(-lam(2)*x) Parametry: c(1), c(2), lam(1), lam(2) Funkcja celu:
F (c(1), c (2), lam(1), lam (2)) = ∑ [ f ( xi , c(1), lam(1), c(2), lam (2)) − ydata i ]2 . i
Klasyfikacja zadania: zadanie programowania nieliniowego (kwadratowego), bez ograniczeń, X 0 = X = R 4 . Rozwiązanie przedstawia rys. 1.12.
Wykład I
- 18 -
Input data 6
5
f(x) = c(1)*exp(-lam(1)*x) + c(2)*exp(-lam(2)*x) 4
3
2
1
0 0
0.2
0.4
0.6
0.8
1
1.2
1.4
1.6
1.8
2
Rys. 1.12 Rozwiązanie zadania aproksymacji
Przykład 1.6: Sterowanie serwomechanizmem DC Laboratoryjny serwomechanizm składa się z silnika DC z obciążeniem (hamulec) i układu pomiarowego prędkości i położenie (Rys.1.13, 1.14). Zadaniem sterowania jest optymalne nadążanie za zadanym w czasie położeniem wału serwomechanizmu.
Wykład I
- 19 -
Rys. 1.13 Laboratoryjny serwomechanizm DC
hamulec wiroprądowy silnik DC
przekładnia x2 tachoprądnica DC
u
enkoder x1
Rys. 1.14 Schemat serwomechanizm DC . Sformułowanie problemu:
Więzy systemu (linowy model dynamiki systemu):
x ∈ X 0 = {x : x& = Ax + Bu , x(0) = x p , y = Cx} u ∈ U = C n [0, TK ] C n [0, TK ] - przestrzeń funkcji ciągłych [0, TK ] .
gdzie:
1 0 A = 0 − 1 , B = TS
0 K s , C = T S
CS 0
0 1 ,
gdzie: x1 oraz x2 są odpowiednio położeniem i prędkością kątową wału silnika, Ts , K s ,C s są parametrami serwomechanizmu. Funkcjonał jakości dla tego zadania zadano w postaci: TK
J ( u ) = x1 ( Tk ) + x2 ( Tk ) + ∫ u T ( t )Ru( t )] dt 2
2
0
Należy znaleźć sterowanie u (t ) ∈ U sprowadzające stan systemu do zera, które minimalizuje funkcjonał jakości na odcinku czasu [0, TK ] , a równocześnie zapewnia spełnienie: x ∈ X 0 . Jest to zatem zadanie optymalizacji dynamicznej, z kwadratowym funkcjonałem. Wykład I
- 20 -
Zadanie takie można sprowadzić do zadania optymalizacji statycznej, tak jak pokazano to w rozdziale xxx.
Przykład 1.7 Optymalizacja parametryczna regulatora PID dla serwomechanizmu DC
1
y1d
+
1 Ti s
Kr
-
+
y1
G1 ( s) +
Td s (1 + sTd / K d ) Rys. 1.15 Stabilizujące sprzężenie zwrotne z regulatorem PID Dla przykładu 1.6 zastosowano stabilizujące
sprzężenie zwrotne od położenia wału, z
regulatorem PID (rys.1.15). W rozważanym przykładzie model serwomechanizmu sformułowany jest w postaci transmitancji:
c1 K s (c1 /c 2 ) K s C s K s Y(s) G1 (s) s (Ts s+ 1) s (Ts s+ 1) s (Ts s+ 1) 1 G(s) = = = C ( sI - A) B = c K = c2 = Ks Ks U(s) G2 (s) 2 s Ts s+ 1 Ts s+ 1 Ts s+ 1
y 1(t)
K r=10
K r =0.4
t
Rys. 1.16 Symulacja działania regulatora PID dla serwomechanizmu DC
Wykład I
- 21 -
Do stabilizacji serwomechanizmu zastosowano regulator PID o transmitancji danej na rys.1.16, a jakość regulacji oceniano poprzez kwadratowy funkcjonał, o postaci: ∞ J(K ,T ,T ) = ∫ e 2 dt r i d 1 0 gdzie K r ,Ti ,Td są parametrami regulatora PID, e1 (t ) = y1d (t ) − y1 (t ) . Zadanie optymalizacji parametrycznej może być sformułowane teraz jako
∞ min ∫ e1 ( t )2 dt K r ,Ti ,Td 0 Przy ograniczeniu wynikającym z dynamiki systemu G(s) =
E1 (s) 1 = Yd (s) 1 + G (s) G (s) r s
oraz dostępnego zakresu nastaw
K rmin ≤ K r ≤ K rmax , Ti min ≤ Ti ≤ Ti max , Tdmin ≤ Td ≤ Tdmax Przy wykorzystaniu twierdzenia Parsevala wartość funkcji celu można wyliczyć bez przechodzenia na postać czasową, jako
∞ Ti (1 - K s K r Ts ) . J(K ,T ,T ) = ∫ e1 (t) 2 dt = r i d 2K K [T + T (K K T 1)] 0 s r s i r s d co sprowadza zadanie do statycznego problemu nieliniowego z ograniczeniami. Rys. 1.16 pokazuje wpływ wzmocnienia regulatora PID na przebieg sygnału wyjściowego modelu układu stabilizacji z Rys.1.15. Jak widać na przykładzie 1.6 i 1.7 dla danego systemu dynamicznego można formułować zadania sterpwania optymalnego(1.6) ale także zadania optymalizacji parametrycznej (1.7).
Wykład I
- 22 -