AGH, Wydział Elektrotechniki, Automatyki Informatyki i Elektroniki Katedra Automatyki

METODY OPTYMALIZACJI

Wojciech Grega

Notatki do wykładu

Kraków, 2001 Ostatnia aktualizacja: 01/10/04

Wykład I

-1-

1. Wykład I 1.1 Wprowadzenie W roku 1997 obchodzono 300 lat nowożytnej teorii optymalizacji w związku z pionierskimi pracami matematyków i fizyków XVII wieku. Jednak problematyka optymalizacji jest niemal tak stara jak historia cywilizacji. Poniżej przedstawiono krótkie zestawienie najważniejszych wydarzeń istotnych dla rozwoju optymalizacji tej dziedziny wiedzy oraz listę nazwisk uczonych, których prace przyczyniły się do rozwoju tej dziedziny wiedzy. •

Wergiliusz (poeta rzymski 70-19 p.n. Chr.): Eneida: historia założenia Kartaginy (850 p.n.Chr. ): „znaleźć krzywą zamkniętą na płaszczyźnie o danej długości, która zawiera maksymalną powierzchnię”.



1697: Johann Bernoulli ogłosił konkurs na rozwiązanie problemu brachistochrony (gr.): „znaleźć krzywą na płaszczyźnie, łączącą dwa punkty A i B nie leżące w pionie, wzdłuż której punkt materialny, poruszający się pod działaniem siły ciężkości, przebywa drogę w najkrótszym czasie” (Rozwiązanie: łuk cykloidy). Wpłynęło sześć prawidłowych rozwiązań od następujących matematyków i fizyków: Leibnitza, Johanna Bernoulliego, Jakub Bernoulliego, Newtona, l’Hopitala, Tschirnhausa

A

?

B Rys. 1.1

Problem brachistochrony



Początek rachunku wariacyjnego: Lagrange (1736-1813), Weierstrass (1815-1897), Pontryagin



1939: Współczesne metody optymalizacji

Wykład I

Hamilton (1805-1865),

-2-

problemy logistyki związane z planowaniem operacji w czasie II wojny światowej programowanie liniowe (Dantzig), programowanie całkowitoliczbowe – wybór spośród skończonej liczby decyzji: (Cabot, Balas), teoria programowania nieliniowego (Kunhn,Tucker,Georffrion), rozwój obliczeń komputerowych spowodował wzrost zainteresowania algorytmami numerycznymi (Powell, Rosen, Fletcher), programowanie dynamiczne- zainteresowanie procesami „z pamięcią” (Bellman, Riccati), badania kosmiczne:

optymalizacja konstrukcji rakiet, problemy sterowania lotem w

stratosferze i w kosmosie optymalizacja procesów ekonomicznych: problemy alokacji produkcji, optymalny skład portfela inwestycyjnego, problemy „wielkie” (ang. large scale) i związane z nimi metody dekompozycji (Lasdon, Findeisen) „soft computing”: John Holland (Universytet Michigan),1975:” Adaptation in Natural and Artifical Systems”

Ewolucja podejścia do problemów optymalizacji •

Analityczne metody klasyczne, czyli metody „górskiej wspinaczki”: modele stworzone przez matematyków XVII-XIX wieku: „nieskażony” świat kwadratowych funkcji celu i wszechobecnych pochodnych. Dawały możliwości rozwiązywania problemów „szkolnych”.



Rozwój obliczeń komputerowych: modyfikacje metod klasycznych, algorytmizacja obliczeń umożliwiła zastosowanie do praktycznych problemów nauki i techniki, w tym do funkcji nieanalitycznych.



„Softcomputing” metody „odporne”: algorytmy ewolucyjne, genetyczne, sieci neuronowe: zastosowanie metod optymalizacji do złożonych modeli procesów (rys.1.2).

Wykład I

-3-

F=(exp(0.1.*x/pi).*abs(sin(4.*x))).*(exp(0.1.*y/pi).*abs(sin(3.*y)));

Rys. 1.2 Przykład zadania wymagającego podejścia „odpornego”

1.2 Bibliografia i inne źródła 1. Findeisen W. Szymanowski J, Wierzbicki A.- „Teoria i metody obliczeniowe optymalizacji”, PWN, Warszawa 1980. 2. Seidler I., Badach A., Molisz W. - „Metody rozwiązywania zadań optymalizacji”, WNT, Warszawa, 1980 3. Wit R. „Metody programowania nieliniowego”, WNT, Warszawa 1986 4. Martos B. „Programowanie nieliniowe”, PWN, Warszawa 1981 5. Gass S.I. „Programowanie liniowe”, PWN, Warszawa, 1973 6. Khachiyan L.G., 1979- „A polynomial algorithm in linear programming” – Soviet Mathematics Doklady, 20 (1979), 191-194 7. Ogata 8. Turowicz 9. Korytowski A., Ziółko M. -„Metody optymalizacji”, Skrypt AGH 1300, Kraków 1992 10.Wismer D., Chattergy R. -„Introduction to Nonlinear Optimization”, North Holland 1978 11.Fletcher R.: Practical Methods of Optimization, J. Wiley, New York 1987 Wykład I

-4-

12.Bertsekas D.P. „Nonlinear Programming”, Athena Scientific, Massachuset, 1997 13.Brdyś M., Ruszczyński A. - „Metody optymalizacji w zadaniach” WNT, Warszawa, 1985 14.Stachurski A., Wierzbicki A.P. „Podstawy optymalizacji”, Oficyna Wydawnicza Politechniki Warszawskiej, Warszawa 2000, 15.A. Bhati, „Practical Optimization Methods”, Springer, 2000 16. Nocedal J., Wright S.J. „Numerical Optimization”, Springer 1999 17.Lasdon, L.S. ,„Optimization Theory for Large Scale Systems”, McMillan, 1970 18.Tamura, H. „Decentralized Optimization for Distributed–lag Models of Discrete Systems”, Automatica, 11, 1975, 593-602 19.Grega W. „Rozwiązywanie niewypukłych zadań programowania nieliniowego metodą zbiorów poziomicowych”, Elektrotechnika, t.8, z.1, wyd. AGH 1989 20.Grega W., „Performance evaluation of model-reference control”, 7th IEEE International Conference on Methods and Models in Automation and Robotics, Międzyzdroje 2001, s. 407 – 412 21.David E. Goldberg, „Algorytmy genetyczne i ich zastosowanie”, WNT, 1995 22.Osowowski S., „Sieci Neuronowe” Oficyna Wydawnicza Politechniki Warszawskiej, 1994. 23.Rutkowscy D. i L., Piliński M. „Sieci neuronowe, algorytmy genetyczne i systemy rozmyte” PWN, Warszawa−Łódź 1997 24.Tang K.S., Man K.F., Kwong S. And He Q.,

„Genetic Algorithms and their

Applications”, IEEE Signal Processing Magazine, November 1996 25.Putyra M. ”Algorytmy genetyczne”, Praca Dyplomowa (opiekun W. Grega), Katedra Automatyki AGH, 1998 26. „Optimization Toolbox”- MathWorks Inc 27.FT3PAKTM Version 1.0 Tutorial Guide Flexible Intelligence Group, L.L.C Strony www, np.: http://www.ece.northwestern.edu/OTC/ , rys. 1.3

Wykład I

-5-

Rys. 1.3 Strona www poświęcona optymalizacji

1.3 Formułowanie zadań optymalizacji „Dążenie człowieka do perfekcji znajduje swój wyraz w optymalizacji. Zajmuje się ona tym, jak opisać i osiągnąć Najlepsze, gdy wiemy już jak mierzyć i zmieniać Dobre i Złe”. (Beightler, Philips, 1979: Foundations of Optimization)

Wykład I

-6-

maks F(x) y

x

min

Rys. 1.4 Podstawowe pytanie optymalizacji: „ Jak realizować proces w najlepszy sposób?”, F (x) - ocena jakości, x,y – zmienne decyzyjne

Wykład I

-7-

Proces

Model

x

F,X 0, algorytm

xˆ Rys. 1.5 Formułowanie i rozwiązywanie zadania optymalizacji Proces: zjawisko fizyczne, proces technologiczny, system ekonomiczny, planowanie produkcji, transportu.... Model: jego opis matematyczny sformułowany pod kątem optymalizacji

x

- zmienna decyzyjna ("manipulacyjna"),

F (x) - ocena jakości (funkcja (-e) celu, kryterium jakości..),

X - zbiór rozwiązań dopuszczalnych, 0

X - przestrzeń rozwiązań,

xˆ - rozwiązanie (optymalna wartość zmiennej decyzyjnej). W dalszym ciągu będziemy się zajmowali problemami optymalizacji, które można przedstawić jako „zadanie standardowe”::

min{F ( x)} x∈ X ⊆ X 0

Wykład I

-8-

Większość problemów można sprowadzić do zadania minimalizacji.

1.4 Przegląd zadań optymalizacji JEDNOKRYTERIALNA

Optymalizacja globalna

POLIOPTYMALIZCJA

Optymalizacja

Optymalizacja sieci i grafów

Statyczna

Dynamiczna

Bez ograniczeń Z ograniczeniami Równania nieliniowe

Aproksymacja

Rn

Zn

Programowanie liniowe

Zn

Rn

Programowanie kwadratowe

R1 :na kierunku

Programowanie dyskretne

R1 :na kierunku

Rys. 1.6 Podział zadań optymalizacji Wraz z rozwojem metod optymalizacji ukształtowały się określone działy tej nauki, dla których charakterystyczne były metody formułowania i rozwiązywania zadań. (Rys.1.6)

A. Optymalizacja statyczna A.1 Ciągłe zadania programowania (ZPN)

Wykład I

-9-

X = Rn Y = R1 F ( x) : R n ⇒ R 1



specjalny przypadek: poszukiwanie jednowymiarowe ( n = 1 ): X = R1 Y = R1 F ( x) : R 1 ⇒ R 1

A.1.1 Bez ograniczeń X 0 = X = Rn

A.1.2 Z ograniczeniami

X 0 = {x : g ( x ) = 0 , h( x ) ≤ 0} g ( x ) : R n → R m , h( x ) : R n → R p



specjalny przypadek: ograniczenia „proste” (kostkowe): a ≤ x ≤ b

A.1.2.1 Zadania programowania liniowego (PL). Samodzielny kierunek tzw. badań operacyjnych z licznymi zastosowaniami w ekonomii i zarządzaniu. X = Rn Y = R1 F ( x) = C T x

X 0 = {x : Ax ≤ b, x ≥ 0}

A.2 Dyskretne zadania programowania (całkowitoliczbowe) X = Z n ⊂ Rn Y = R1 F ( x) : Z n ⇒ R 1

X 0 = X (bez ograniczeń) lub X 0 ⊂ X (z ograniczeniami) •

specjalny przypadek programowanie binarne: X = Bn ⊂ Z n

B. Optymalizacja dynamiczna, związana z zastosowaniami w mechanice, automatyce X = H n (przestrzeń funkcyjna) Y = R1

F [x(t )] : H n ⇒ R1 (funkcjonał) Wykład I

- 10 -

X 0 -więzy Dla każdego z wymienionych zadań można sformułować zadanie optymalizacji wielokryterialnej

Polioptymalizacja (zadanie „p-kryterialne, optymalizacja statyczna): X = Rn Y = Rp F ( x) : R n → R p

X 0 = X = R n lub X 0 ⊂ X (odpowiednio: zadanie

polioptmalizacji bez ograniczeń (z

ograniczeniami))

1.5 Przykłady zadań optymalizacji Przykład 1.1: Optymalizacja konstrukcji 1 Transport 1000 m3 chemikaliów musi być zrealizowany w szczelnych, prostopadłościennych pojemnikach (Rys.1.7). Góra A

B B

x3 A

Dno

x2

x1 Rys. 1.7 Pojemnik na chemikalia Budowa pojemnika: -

materiał na górną powierzchnię kosztuje 30 $/m2

-

boki A kosztują 20 $/m2

-

boki B i Dno muszą być wykonane z odpadów, które nic nie kosztują, ale można je użyć tylko w ilości 10 m2 na pojemnik

-

transport kosztuje 2 $ od pojemnika

Celem optymalizacji jest minimalizacja kosztów wysyłki. Sformułowanie problemu Koszt jednego pojemnika wynosi: 2 + 2 x2 x3 ⋅ 20 + x1 x2 ⋅ 30

Wykład I

- 11 -

Liczba pojemników wynosi:

Ogólny koszt wysyłki wynosi:

z=

1000 x1 x 2 x 3

 2 40 30  1000  + +   x1 x2 x3 x1 x3 

Ograniczenia: x1 ≥ 0, x 2 ≥ 0, x3 ≥ 0, 2 x1 x3 + x1 x 2 ≤ 10 Zadanie optymalizacji można sformułować w sposób następujący:  2 40 30  min  + +   x1 x 2 x3 x1 x3  ( x1 x 2 x3 ) ∈ X 0 = x1 , x 2 , x3 : x1 ≥ 0, x 2 ≥ 0, x3 ≥ 0, 2 x1 x3 + x1 x 2 ≤ 10, X 0 ⊂ R 3

{

}

Klasyfikacja zadania: zadanie optymalizacji statycznej, programowanie nieliniowe

Przykład kodu MATLABA rozwiązującego zadanie 1.1

%Optymalizacja kształtu kontenera op=foptions; op(1)=1; op(2)=0.01; op(3)=0.01; op xpocz=[6 6 1] % ograniczenia proste dogr=[0.1 0.1 0.1] gogr=[10 10 10] x=constr('kontener',xpocz,op,dogr,gogr) function [f,g]=kontener(x) %funkcja celu; f=2/(x(1)*x(2)*x(3))+40/x(1)+30/x(3); %ograniczenie g(1)=2*x(1)*x(3)+x(1)*x(2)-10;

Wykład I

- 12 -

Przykład 1.2: Optymalizacja konstrukcji 2: optymalizacja kształtu budynku

3,5

h

d

w

l Rys. 1.8 Część nadziemna i podziemna projektowanego budynku Oznaczenia: n - liczba pięter d – zagłębienie w ziemi h – wysokość ponad ziemią l – długość podstawy w – szerokość podstawy

Założenia projektowe:



powierzchnia użytkowa nie mniejsza niż 20 000 m2,



podstawa w żadnym wymiarze nie przekroczy 50 m,



stosunek długości do szerokości musi spełniać warunki złotego podziału (1.618),



wysokość pięter 3,5 m,



koszty ogrzewania nie mogą przekroczyć 225 000$, przy założenie, że roczne koszty ogrzewania wynoszą 100$ od m2 budynku ponad powierzchnią ziemi,

Wykład I

- 13 -

Zadanie: Określić wymiary budynku d , l , w, h, n tak, aby zminimalizować koszt zagłębienie w ziemi (koszty wykopu). Pierwsze sformułowanie: Funkcja celu: F (d , l , w) = dlw Ograniczenia: nlw ≥ 20000 l ≤ 50 , w ≤ 50 l = 1.618 w

d +h = 3.5 n 100 (2hl + 2hw + lw) ≤ 225000 n ≥ 1,

d ≥ 0,

h ≥ 0,

l ≥ 0,

w≥0

Zmienne decyzyjne: d , l , w, h, n

Drugie sformułowanie: Eliminując ograniczenia równościowe: d +h = n , l = 1.618 w 3.5 d  otrzymujemy zadanie w R , x =  w  h  3

min F (d , w) = min 1.618 dw 2 100(5.236 hw + 1.618 w 2 ) ≤ 225000    1.618 w ≤ 50   X = {x :  } 2  0.4622857(d + h) w ≥ 20000    d ≥ 0, h ≥ 0, w ≥ 0  

Przykład kodu MATLABA rozwiązującego zadanie 1.2 %Budynek - procedura glowna %foptions opcje default op=foptions; op(1)=1; op(2)=0.001; op(3)=0.001; op(4)=0.000000001; op

Wykład I

- 14 -

xpocz=[15 5 5] dogr=[0 0 0] gogr=[100 100 10] [x,options]=constr('budynek',xpocz,op,dogr,gogr) function [f,g]=budynek(x) f=1.618*x(1)*x(2)*x(2); g(1)=100*(5.236*x(3)*x(2)+1.618*x(2)*x(2))-225000; g(2)=1.618*x(2)-50; g(3)=-0.4622857*(x(1)+x(3))*x(2)*x(2)+20000;

Przykład 1.3: Zwalczanie szkodników (alokacja zasobów)

Zadanie polega na rozmieszczeniu 3 pojemników ze środkiem owadobójczym pośród 12 gniazd os na plantacji w kształcie kwadratu o boku 100 m, tak aby wytępić maksymalną liczbę os. Każde gniazdo os ma określone położenie za pomocą współrzędnych (Wxi, Wyi) i szacunkową liczbę os określoną przez wartość Wi . Każdy pojemnik posiada swoje współrzędne położenia (Cxi, Cyi), tab.1.1 Tab.1.1 Liczba

Położenie gniazd Wyi

Wxi

os Wi 100

25

65

200

23

8

327

7

13

440

95

53

450

3

3

639

54

56

650

67

78

678

32

4

750

24

76

801

66

89

945

84

4

967

34

23

Wykład I

- 15 -

Położenie gniazd

100 y 80 60 40 20 0 0

x

50

100

Rys. 1.9 Rozmieszczenie gniazd os Sformułowanie problemu: Funkcja celu: 12

F (C xi , C yi ) = 100 ⋅

∑K i =1 12

i

∑W i =1

i

gdzie:

k + k 2 + k3 , gdy k1 + k 2 + k3 < Wi Ki =  1 w przeciwnym przypadku  Wi ,

i=1,2,..,12

gdzie: kj - liczba os wytępionych za pomocą pojemnika j=1,2,3 jest określona jako: k = j

W ⋅ 141.42 i 2 2 20 ⋅  Wx − Cx  +  Wy − Cy  + 0.0001 j j  i  i

Ograniczenia: współrzędne pojemników : 0 ≤ Cx j ≤ 100 , 0 ≤ Cy j ≤ 100 Klasyfikacja

zadania:

zadanie

programowania

nieliniowego

z

ograniczeniami,

X 0 ⊂ X = R6 .

Wykład I

- 16 -

Przykład 1.3: Optymalizacja produkcji. Rafineria wytwarza dwa rodzaje benzyn w dwóch procesach produkcyjnych (I i II na Rys.1.10), składających się z cykli produkcyjnych. Wykorzystuje się przy tym dwa rodzaje surowców: ropę A i B. Efektywność poszczególnych procesów przedstawiono w Tab.1.2

A

X pr.I

B

Y

pr.II zysk

Rys. 1.10 Schemat produkcji Tab.1.2 Wejście

Wyjście

Zysk

Proces

Ropa A

Ropa B

Benzyna X

Benzyna Y

I

3

2

1

2

1

II

2

6

3

1

2

Ograniczenia: Ilość dostępnej ropy A nie przekracza 60 [j]. Ilość dostępnej ropy B nie przekracza 90 [j]. Analiza rynku wykazała, że są zamówienia na co najmniej 30 [j] benzyny X i 20 [j] benzyny Y. Jak sterować produkcją, aby maksymalizować zysk? Sformułowanie problemu: Zmienne decyzyjne:

x1 - liczba cykli produkcyjnych procesu I, x 2 - liczba cykli produkcyjnych procesu II. Ograniczenia produkcji:

3x1 + 2 x 2 ≤ 60 2 x1 + 6 x 2 ≤ 90 x1 + 3x 2 ≥ 30

Warunki sprzedaży:

2 x1 + x 2 ≥ 20

Zysk:

F ( x1 , x 2 ) = x1 + 2 x 2

Wykład I

- 17 -

Klasyfikacja

zadania:

zadanie

programowania

X0 ⊂ X = Z 2

liniowego,

całkowitoliczbowe. Przykład 1.4: Analiza danych pomiarowych [Matlab] W wyniku przeprowadzonego eksperymentu uzyskano dane pomiarowe, jak na rys.1.11. Należy przybliżyć je w sposób optymalny wybraną krzywą analityczną.

xi 0 0.1000 0.2000 0.3000 0.4000 0.5000 0.6000 0.7000 0.8000 0.9000 1.0000 1.1000 1.2000 1.3000 1.4000 1.5000 1.6000 1.7000 1.8000 1.9000 2.0000

Input data 6

ydatai

5

4

3

2

1

0 0

0.2

0.4

0.6

0.8

1

1.2

1.4

1.6

ydatai 5.8955 3.5639 2.5173 1.9790 1.8990 1.3938 1.1359 1.0096 1.0343 0.8435 0.6856 0.6100 0.5392 0.3946 0.3903 0.5474 0.3459 0.1370 0.2211 0.1704 0.2636

1.8

2

xi

Rys. 1.11 Dane pomiarowe Sformułowanie zadania: Dla przybliżenia wybrano 4-parametrową krzywą wykładniczą w postaci:

f(x) = c(1)*exp(-lam(1)*x) + c(2)*exp(-lam(2)*x) Parametry: c(1), c(2), lam(1), lam(2) Funkcja celu:

F (c(1), c (2), lam(1), lam (2)) = ∑ [ f ( xi , c(1), lam(1), c(2), lam (2)) − ydata i ]2 . i

Klasyfikacja zadania: zadanie programowania nieliniowego (kwadratowego), bez ograniczeń, X 0 = X = R 4 . Rozwiązanie przedstawia rys. 1.12.

Wykład I

- 18 -

Input data 6

5

f(x) = c(1)*exp(-lam(1)*x) + c(2)*exp(-lam(2)*x) 4

3

2

1

0 0

0.2

0.4

0.6

0.8

1

1.2

1.4

1.6

1.8

2

Rys. 1.12 Rozwiązanie zadania aproksymacji

Przykład 1.6: Sterowanie serwomechanizmem DC Laboratoryjny serwomechanizm składa się z silnika DC z obciążeniem (hamulec) i układu pomiarowego prędkości i położenie (Rys.1.13, 1.14). Zadaniem sterowania jest optymalne nadążanie za zadanym w czasie położeniem wału serwomechanizmu.

Wykład I

- 19 -

Rys. 1.13 Laboratoryjny serwomechanizm DC

hamulec wiroprądowy silnik DC

przekładnia x2 tachoprądnica DC

u

enkoder x1

Rys. 1.14 Schemat serwomechanizm DC . Sformułowanie problemu:

Więzy systemu (linowy model dynamiki systemu):

x ∈ X 0 = {x : x& = Ax + Bu , x(0) = x p , y = Cx} u ∈ U = C n [0, TK ] C n [0, TK ] - przestrzeń funkcji ciągłych [0, TK ] .

gdzie:

1  0  A = 0 − 1 , B =  TS  

 0   K s , C = T   S

CS 0 

0 1  ,

gdzie: x1 oraz x2 są odpowiednio położeniem i prędkością kątową wału silnika, Ts , K s ,C s są parametrami serwomechanizmu. Funkcjonał jakości dla tego zadania zadano w postaci: TK

J ( u ) = x1 ( Tk ) + x2 ( Tk ) + ∫ u T ( t )Ru( t )] dt 2

2

0

Należy znaleźć sterowanie u (t ) ∈ U sprowadzające stan systemu do zera, które minimalizuje funkcjonał jakości na odcinku czasu [0, TK ] , a równocześnie zapewnia spełnienie: x ∈ X 0 . Jest to zatem zadanie optymalizacji dynamicznej, z kwadratowym funkcjonałem. Wykład I

- 20 -

Zadanie takie można sprowadzić do zadania optymalizacji statycznej, tak jak pokazano to w rozdziale xxx.

Przykład 1.7 Optymalizacja parametryczna regulatora PID dla serwomechanizmu DC

1

y1d

+

1 Ti s

Kr

-

+

y1

G1 ( s) +

Td s (1 + sTd / K d ) Rys. 1.15 Stabilizujące sprzężenie zwrotne z regulatorem PID Dla przykładu 1.6 zastosowano stabilizujące

sprzężenie zwrotne od położenia wału, z

regulatorem PID (rys.1.15). W rozważanym przykładzie model serwomechanizmu sformułowany jest w postaci transmitancji:

 c1 K s   (c1 /c 2 ) K s   C s K s        Y(s)  G1 (s)   s (Ts s+ 1)   s (Ts s+ 1)   s (Ts s+ 1)  1 G(s) = =  = C ( sI - A) B =  c K  = c2  =   Ks Ks U(s) G2 (s) 2 s        Ts s+ 1   Ts s+ 1   Ts s+ 1       

y 1(t)

K r=10

K r =0.4

t

Rys. 1.16 Symulacja działania regulatora PID dla serwomechanizmu DC

Wykład I

- 21 -

Do stabilizacji serwomechanizmu zastosowano regulator PID o transmitancji danej na rys.1.16, a jakość regulacji oceniano poprzez kwadratowy funkcjonał, o postaci: ∞ J(K ,T ,T ) = ∫ e 2 dt r i d 1 0 gdzie K r ,Ti ,Td są parametrami regulatora PID, e1 (t ) = y1d (t ) − y1 (t ) . Zadanie optymalizacji parametrycznej może być sformułowane teraz jako

∞ min ∫ e1 ( t )2 dt K r ,Ti ,Td 0 Przy ograniczeniu wynikającym z dynamiki systemu G(s) =

E1 (s) 1 = Yd (s) 1 + G (s) G (s) r s

oraz dostępnego zakresu nastaw

K rmin ≤ K r ≤ K rmax , Ti min ≤ Ti ≤ Ti max , Tdmin ≤ Td ≤ Tdmax Przy wykorzystaniu twierdzenia Parsevala wartość funkcji celu można wyliczyć bez przechodzenia na postać czasową, jako

∞ Ti (1 - K s K r Ts ) . J(K ,T ,T ) = ∫ e1 (t) 2 dt = r i d 2K K [T + T (K K T 1)] 0 s r s i r s d co sprowadza zadanie do statycznego problemu nieliniowego z ograniczeniami. Rys. 1.16 pokazuje wpływ wzmocnienia regulatora PID na przebieg sygnału wyjściowego modelu układu stabilizacji z Rys.1.15. Jak widać na przykładzie 1.6 i 1.7 dla danego systemu dynamicznego można formułować zadania sterpwania optymalnego(1.6) ale także zadania optymalizacji parametrycznej (1.7).

Wykład I

- 22 -