Ablaufplanung bei Reihenfertigung mit mehrfacher Zielsetzung auf der Basis von Ameisenalgorithmen

Ablaufplanung bei Reihenfertigung mit mehrfacher Zielsetzung auf der Basis von Ameisenalgorithmen Zur Erlangung des akademischen Grades eines Doktors...
Author: Jesko Kopp
1 downloads 1 Views 3MB Size
Ablaufplanung bei Reihenfertigung mit mehrfacher Zielsetzung auf der Basis von Ameisenalgorithmen

Zur Erlangung des akademischen Grades eines Doktors der Wirtschaftswissenschaften

(Dr. rer. pol.)

der Wirtschaftswissenschaftlichen Fakultät der Universität Passau vorgelegte Dissertation von Dipl.-Kfm. Christian Petri

Gutachter: Tag der letzten Fachprüfung:

Prof. Dr. H. Ziegler Prof. Dr. P. Kleinschmidt 14.12.2006

Danksagung Die vorliegende Arbeit ist in der Zeit von Juli 2002 bis Dezember 2006 unter Betreuung von Prof. Dr. H. Ziegler am Lehrstuhl für Betriebswirtschaftslehre mit Schwerpunkt Produktion und Logistik der Universität Passau entstanden. Zunächst möchte ich meinem Doktorvater Herrn Prof. Dr. H. Ziegler herzlichst für die freundliche Betreuung, die vielen anregenden Diskussionen und den großen Freiraum, den er mir eingeräumt hat, danken. Seine Unterstützung sowohl während meiner Zeit als wissenschaftlicher Mitarbeiter als auch als Stipendiat hat zum Gelingen dieser Arbeit maßgeblich beigetragen. Ebenso gilt mein Dank Herrn Prof. Dr. P. Kleinschmidt, der die Arbeit als Zweitgutachter betreut und mich insbesondere bei der Beantragung der Stipendien unterstützt hat. Ein Teil der Arbeit ist während eines 6-monatigen Forschungsaufenthaltes am Indian Institute of Technologie in Chennai, Indien entstanden. Hier gilt mein Dank insbesondere Herrn Prof. C. Rajendran und seinen Mitarbeitern für die hervorragende fachliche Betreuung und hilfreichen Anregungen. Ihm, seiner Familie, seinen Mitarbeitern und Studenten danke ich für die intensive persönliche und medizinische Betreuung während dieser Zeit. Dem DAAD danke ich für das Forschungsstipendium, welches mir die Forschung am IIT aber auch die schönen und unvergesslichen Eindrücke über dieses beeindruckende Land ermöglicht hat. Daneben haben viele weiter Personen zum gelingen dieser Arbeit beigetragen, denen allen zu Danken hier der Platz nicht ausreicht. Der letzte und größte Dank gilt meinen Eltern, die mich stets uneingeschränkt und mit viel Liebe unterstüzt haben. Ihnen möchte ich diese Arbeit widmen.

Inhaltsverzeichnis 1 Einleitung

1

2 Charakterisierung des Permutation Flow Shop Problems 2.1 Grundlagen und Prämissen . . . . . . . . . . . . . . . . . . . . 2.1.1 Klassifikation von Reihenfolgeproblemen . . . . . . . . 2.1.2 Spezifikation des in der Arbeit betrachteten Permutation Flow Shop Problems . . . . . . . . . . . . . . . . . . 2.2 Das betrachtete Zielsystem . . . . . . . . . . . . . . . . . . . . 2.2.1 Ziele für das Permutation Flow Shop Problem . . . . . 2.2.1.1 Die Gewinnmaximierung als Beurteilungsmaßstab . . . . . . . . . . . . . . . . . . . . . . 2.2.1.2 Lagerkosten des Fertigungsbestandes . . . . . 2.2.1.3 Terminabweichungskosten . . . . . . . . . . . 2.2.1.4 Leerzeitkosten und Kapazitätsauslastung . . 2.2.1.5 Zielsystem und Berechnung der Fertigstellungszeitpunkte der Aufträge . . . . . . . . . . 2.2.2 Analyse der Zielbeziehungen . . . . . . . . . . . . . . .

5 5 5

17 18

3 Das multikriterielle PFSP als Vektorminimierungsproblem 3.1 Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Methoden zur Ermittlung effizienter Lösungen . . . . . . . . . 3.2.1 Definition Kompromißmodell . . . . . . . . . . . . . . . 3.2.2 Diskussion verschiedener Kompromißmodelle . . . . . 3.2.2.1 Lexikographische Optimierung . . . . . . . . . 3.2.2.2 Konvexkombination . . . . . . . . . . . . . . . 3.2.2.3 Epsilon-Constraint Ansatz . . . . . . . . . . . 3.2.2.4 Kompromißmodell von Soland (1979) . . . . . 3.2.2.5 Abstandsfunktionen . . . . . . . . . . . . . . . 3.2.2.6 Goal-Programming . . . . . . . . . . . . . . . .

22 22 30 30 31 31 32 33 34 35 39

I

8 10 10 10 11 14 15

0.0

Seite II 3.3 Lösungsansätze für das PFSP und Single Machine Problem bei mehrfacher Zielsetzung . . . . . . . . . . . . . . . . . . . . 3.3.1 Exakte und heuristische Verfahren . . . . . . . . . . . . 3.3.1.1 Exakte Verfahren . . . . . . . . . . . . . . . . . 3.3.1.2 Heuristische Lösungsansätze . . . . . . . . . . 3.3.2 A-priori Ansätze . . . . . . . . . . . . . . . . . . . . . . . 3.3.3 A-posteriori Ansätze . . . . . . . . . . . . . . . . . . . . 3.3.4 ACO Algorithmen für das multikriterielle PFSP und Single Machine Problem . . . . . . . . . . . . . . . . . .

4 Lösungsqualität heuristisch effizienter Mengen 4.1 Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.1 Grundsätzliche Überlegungen zur Lösungsqualität heuristisch effizienter Mengen . . . . . . . . . . . . . . 4.1.2 Klassifikation von und Anforderungen an Maße zur Qualitätsanalyse . . . . . . . . . . . . . . . . . . . . . . 4.1.2.1 Klassifikation von Qualitätsmaßen . . . . . . 4.1.2.2 Die TMPS als Referenzlösung . . . . . . . . . 4.1.2.3 Anforderungen an geeignete Maße: Monotonie und Relativität . . . . . . . . . . . . . . . . 4.2 Beurteilung von Qualitätsmaßen . . . . . . . . . . . . . . . . . 4.2.1 Distanz zur Menge aller effizienten Lösungen . . . . . 4.2.1.1 Kompatibilität mit den Outperformance Relationen als zusätzliche Anforderung . . . . . 4.2.1.2 Beurteilung von Maßen . . . . . . . . . . . . . 4.2.2 Größe der aufgezeigten Variationsbreiten der Zielfunktionswerte . . . . . . . . . . . . . . . . . . . . . 4.2.3 Verteilung der Zielfunktionsvektoren im Zielraum . . . 4.2.4 Optimierungseigenschaft bezüglich der einzelnen Ziele 4.3 Aufbau des verwendeten Beurteilungssystems . . . . . . . . . 5 Zielraum- und Lösungsraumanalyse 5.1 Grundlegende Aspekte . . . . . . . . . . . . . . . . . . . . 5.1.1 Stand der Forschung . . . . . . . . . . . . . . . . . 5.1.2 Weiterführende Experimente . . . . . . . . . . . . 5.2 Nachbarschaften im Lösungsraum . . . . . . . . . . . . . 5.2.1 Nachbarschaftsoperatoren . . . . . . . . . . . . . . 5.2.2 Beziehungen zwischen Nachbarschaftsoperatoren 5.3 Nachbarschaft im Zielraum . . . . . . . . . . . . . . . . . 5.3.1 Nachbarschaftskonzepte . . . . . . . . . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

40 40 40 41 42 43 44 46 46 46 50 50 51 53 55 55 55 59 79 83 89 92 93 93 93 95 99 99 101 102 102

0.0

Seite III 5.3.1.1 5.3.1.2

Allgemeine Überlegungen . . . . . . . . . . . . Nachbarschaft im Zielraum: Konzept 1 (NSZR1) . . . . . . . . . . . . . . . . . . . . . . 5.3.1.3 Nachbarschaft im Zielraum: Konzept 2 (NSZR2) . . . . . . . . . . . . . . . . . . . . . . 5.3.1.4 Nachbarschaft im Zielraum: Konzept 3 (NSZR3) . . . . . . . . . . . . . . . . . . . . . . 5.3.1.5 Nachbarschaft im Zielraum: Konzept 4 (NSZR4) . . . . . . . . . . . . . . . . . . . . . . 5.3.2 Experimentelle Analyse . . . . . . . . . . . . . . . . . . 5.3.2.1 Experiment 1: Nachbarschaft im Lösungsraum gleich Nachbarschaft im Zielraum? . . . . . . . . . . . . . . . . . . . . . 5.3.2.2 Experiment 2: Abweichung NSLR von NSZR4 5.3.2.3 Zusammenfassung . . . . . . . . . . . . . . . . 5.4 Analyse der Qualität der Distanzapproximationen . . . . . . . 5.4.1 Zur Notwendigkeit der Approximation . . . . . . . . . . 5.4.2 Maße zur Distanzapproximation zwischen zwei Auftragsfolgen . . . . . . . . . . . . . . . . . . . . . . . . . . 5.4.3 Analyse der Approximationsqualität . . . . . . . . . . 5.4.3.1 Allgemeine Anforderungen an ein Maß . . . . 5.4.3.2 Differenzierungstiefe und Korrelation mit der echten Distanz . . . . . . . . . . . . . . . . 5.5 Analyse der Topographie im Lösungsraum . . . . . . . . . . . 5.5.1 Die Korrelation von Distanz und Zielfunktionswert . . 5.5.2 Analyse der Distanz globaler Optima . . . . . . . . . . 5.5.2.1 Isolierte Analyse multipler globaler Optima der einzelnen Ziele . . . . . . . . . . . . . . . . 5.5.2.2 Integrierte Analyse aller globalen und der effizienten globalen Optima aller Ziele . . . . . . 5.5.3 Analyse der Distanz der Elemente der Menge aller effizienten Lösungen . . . . . . . . . . . . . . . . . . . . . 5.6 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . 6 ACO Algorithmen für das multikriterielle PFSP 6.1 Grundlagen der ACO Metaheuristik . . . . . . . . . . . . . . 6.1.1 Die Natur als Vorbild . . . . . . . . . . . . . . . . . . . 6.1.2 Definition und Eigenschaften der ACO-Metaheuristik 6.1.3 Ausgestaltungsmöglichkeiten für das PFSP . . . . . . 6.1.3.1 Die Pheromonmatrix T . . . . . . . . . . . .

. . . . .

102 103 105 106 107 113

113 117 123 124 124 125 127 127 129 134 134 139 139 142 144 145 147 147 147 151 155 155

0.0

Seite IV 6.1.3.2 Anzahl der Ameisen Ants in einer Kolonie . . 6.1.3.3 Konstruktion einer Auftragsfolge . . . . . . . 6.1.3.4 Modellierung des autokatalytischen Prozesses 6.1.4 Ausgestaltungsmöglichkeiten für a-posteriori Ansätze 6.1.4.1 Allgemeine Ausgestaltungsmöglichkeiten . . . 6.1.4.2 Multi Colony Ansätze und Kommunikation . . 6.1.4.3 Der Multi Colony Ansatz von Iredi u. a. (2001) 6.2 Lokale Suchstrategie in zwei Phasen . . . . . . . . . . . . . . . 6.2.1 Motivation der zwei Phasen-Strategie . . . . . . . . . . 6.2.2 Lokale Suche in Phase 1: Job Swap Schema (JSS) und Job Insertion Schema (JIS) . . . . . . . . . . . . . . . . 6.2.3 Lokale Suche in Phase 2: Das Job Swap Schema mit rekursiver API Suche (JSS-RAPI) . . . . . . . . . . . . 6.3 Der SCMO-Ansatz . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3.1 Beschreibung des Algorithmus . . . . . . . . . . . . . . 6.3.1.1 Allgemeine Eigenschaften . . . . . . . . . . . . 6.3.1.2 Initialisierungsphase und Ermittlung der endogenen kleinsten oberen Schranken . . . . . 6.3.1.3 Suchschema im Zielraum . . . . . . . . . . . . 6.3.1.4 Die SCMO-SUCHE-REGION Prozedur . . . . 6.3.2 Experimentelle Analyse . . . . . . . . . . . . . . . . . . 6.3.2.1 Aufbau der Experimente und Bewertungsmethoden . . . . . . . . . . . . . . . . . . . . . . . 6.3.2.2 Ausgangsparametereinstellungen . . . . . . . 6.3.2.3 Experiment 1: Systematische Suche im Zielraum und Verwendung der LNDS . . . . . . . 6.3.2.4 Experiment 2: Einfluß der Neuinitialisierung der Pheromonmatrix . . . . . . . . . . . . . . . 6.3.2.5 Experiment 3: Variation von B . . . . . . . . . 6.3.2.6 Experiment 4: Variation der Parameter Iter und Ants . . . . . . . . . . . . . . . . . . . . . . 6.3.2.7 Experiment 5: Variation des Parameters ρ . . 6.4 Der MCMO-Ansatz . . . . . . . . . . . . . . . . . . . . . . . . . 6.4.1 Beschreibung des Algorithmus - Variante 1 (MCMO1) . 6.4.1.1 Allgemeine Eigenschaften . . . . . . . . . . . . 6.4.1.2 MCMO-MASTER - Suche im Zielraum . . . . 6.4.1.3 MCMO-CONSTRUCT - Konstruktion von Auftragsfolgen . . . . . . . . . . . . . . . . . . 6.4.1.4 MCMO-SUB1, MCMO-SUB2 und MCMO-SUB3 . . . . . . . . . . . . . . . . . . .

156 156 161 163 163 166 167 169 169 171 173 174 174 174 176 179 181 184 184 186 189 195 198 202 206 209 209 209 210 222 224

0.0

Seite V 6.4.2 Modifikation des MCMO-Ansatz - Variante 2 (MCMO2) . . . . . . . . . . . . . . . . . . . 6.4.3 Experimentelle Analyse . . . . . . . . . . . . . . . . . . 6.4.3.1 Experiment 1: Kommunikationsstrategien . . 6.4.3.2 Experiment 2: Variation von B . . . . . . . . . 6.4.3.3 Experiment 3: Variation der Parameter Iter und Ants . . . . . . . . . . . . . . . . . . . . . . 6.4.3.4 Experiment 4: Variation des Parameters ρ . . 6.5 Vergleich mit einem Referenzverfahren . . . . . . . . . . . . . 6.5.1 Grundsätzliche Überlegungen . . . . . . . . . . . . . . . 6.5.2 Experimentelle Analyse . . . . . . . . . . . . . . . . . . 6.5.2.1 Vergleich der Lösungsqualität von SCMO, MCMO und MOGLS . . . . . . . . . . . . . . . 6.5.2.2 Verbesserung der kleinsten oberen Schranken durch SCMO und MCMO . . . . . 6.6 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . .

229 230 230 235 243 248 253 253 254 254 259 266

7 Zusammenfassung und Ausblick

268

Literaturverzeichnis

272

A Generierung von Testproblemen

287

B Generierung von Fertigstellungsterminen

288

C Verwendete kleinste obere Schranken für Cmax , Fmid , und Tmax 290

Abkürzungsverzeichnis ACO ACO2 ADJ1 ADJ2 AP I BSH DSH EN GA EX F SH GP W GA GN DF GN DS IN V JIS JSP JSS JSS − RAP I LN DF LN DS M CM O M CM O1 M CM O2 M OGLS M OSA N DF N DS N SGA N SLR N SLRr

Ant Colony Optimization ACO-Ansatz von Rajendran u. Ziegler (2002) Unidirektional Adjacency Metric Bidirectional Adjacency Metric Andjacent Pairwise Interchange Nachbarschaft Backward Shift Nachbarschaft Double Shift Nachbarschaft Elitist Nondominated Sorting Genetic Algorithm Exchange Nachbarschaft Forward Shift Nachbarschaft Gradual-Priority Weighting Genetic Algorithm Globale heuristisch effiziente Front Globale heuristisch effiziente Menge Inversions Nachbarschaft Job Insertion Schema Job Shop Problem Job Swap Schema Job Swap Schema mit rekursiver API-Suche Lokale heuristisch effiziente Front Lokale heuristisch effiziente Menge Multi-Colony-Multi-Objective MCMO Variante 1 MCMO Variante 2 Multi Objective Genetic Local Search Multi Objective Simulated Annealing Heuristisch effiziente Front (Non Dominated Front) Heuristisch effiziente Menge (Non Dominated Set) Nondominated Sorting Genetic Algorithm Nachbarschaft im Lösungsraum Reduzierte Nachbarschaft im Lösungsraum

0.0

Seite VII N SZR N SZR1 N SZR2 N SZR3 N SZR4 P F SP P OSN P REC RAP I SACO SCM O SM T EM DP SM T T P SM T W T P SM T W DP SSDP SSF P TMPF TMPS T SP U M SS V M SS

Nachbarschaft im Zielraum Nachbarschaft im Zielraum Konzept 1 Nachbarschaft im Zielraum Konzept 2 Nachbarschaft im Zielraum Konzept 3 Nachbarschaft im Zielraum Konzept 4 Permutation Flow Shop Problem Position Based Metric Precedence Metric Rekursive API Suche ACO Ansatz von T’kindt u. a. (2002) Single-Colony-Multi-Objective Single Machine Total Earliness with Multiple Due Dates Problem Single Machine Total Tardiness Problem Single Machine Total Weighted Tardiness Problem Single Machine Total Weighted Deviation Problem Single Start mit dynamischem Parametersatz Single Start mit fixiertem Parametersatz Total Meta Pareto Front Total Meta Pareto Set Traveling Salesman Problem Unverbundene Multi Start Strategie Verbundene Multi Start Strategie

Mathematische Symbole und Schreibweisen

ADJ1(π, π 0 ) ADJ2(π, π 0 ) Ants ant AEXlk k AEXv,run

AEXvσk AEXvµk AP I(π) AV G1k

AV G2k

α

BC(N DSl, N DSw ) BSH(π) B

Unidirectional Adjacency Metric zwischen π und π 0 Bidirectional Adjacency Metric zwischen π und π 0 Anzahl der Ameisen in einer Kolonie Ameisenindex, ants = 1(1)Ants Anteil gefundener Extrempunkte des Ziels k durch Lösung l AEX k -Maß der Lösung aus Rechenlauf run von Lösungsverfahren v Standardabweichung des AEX k -Maßes von Lösungsverfahren v Durchschnittswert des AEX k -Maßes von Lösungsverfahren v Adjacent Pairwise Interchange Nachbarschaft von π Durchschnittliche Abweichung von N SZR4 bzgl. Ziel k bezogen auf die gesamte reduzierte Nachbarschaft im Lösungsraum Durchschnittliche Abweichung von N SZR4 bzgl. Ziel k bezogen auf die Anzahl der Auftragsfolgen, die eine positive Abweichung aufweisen Parameter des Ameisenalgorithmus

Binary Coverage Metric zwischen Lösung l und w T M P S als Referenzlösung Backward Shift Nachbarschaft von π Parameter im SCMO- und MCMO-Ansatz, auf dessen

0.0

ˆ B b β

Cmax Cn C[πh ] Cnm C(N DSl , N DSw) CLµl CLRlµ c c(x, y)

cand

D1l D2l DEVk (π 0 , π ◦ ) Dist1l Dist2l DSH(π) DT M P Flk DU Blk k DU Bv,run

Seite IX ˆ Grundlage die Anzahl der Suchbereiche im Zielraum (B) bestimmt wird Anzahl Suchbereiche im Zielraum beim SCMO- und MCMO-Ansatz Beschränkungsvektor im Kompromißmodell von Soland (1979) Parameter des Ameisenalgorithmus

Zykluszeit Fertigstellungszeitpunkt von Auftrag n Fertigstellungszeitpunkt des Auftrags auf Position h in Auftragsfolge π Fertigstellungszeitpunkt von Auftrag n auf Maschine m Coverage-Maß (C-Maß) zwischen Lösung l und w Cluster Maß der Lösung l Cluster Ratio der Lösung l Vektor zur Identifikation einer Indifferenzregion bei der Berechnung von N Tlµ (c) Distanz im Zielraum zwischen je einem Zielfunktionsvektor zweier heuristisch effizienter Mengen. Verwendet bei der Berechnung von Dist1l und Dist2l Größe von π cand

Modifikation von Dist1l Modifikation von Dist2l Abweichung eines Elements π 0 aus N SLRr (π ◦ ) von der N SZR4 (z (π ◦ )) Durchschnittliche Distanz der Lösung l zur Referenzlösung Ref Größte Distanz eines Elements aus Ref zum jeweils nächsten Element aus N DSl Double Shift Nachbarschaft von π Relative Abweichung der Lösung l vom Minimum der T M P F bzgl. Ziel k Relative Abweichung der Lösung l von der besten bekannten kleinsten oberen Schranke bzgl. Ziel k DU B k -Maß der Lösung aus Rechenlauf

0.0

DU Bvσk DU Bvµk d(x) d(z(x)) d dn ∆k

∆AEXvµk ∆AEXvσk ∆DU Bvµk ∆DU Bvσk ∆SQµv ∆SQσv ∆T icksµv ∆T icksσv ∆τnh (t) δ

e [e] E(Π, z) E(z) EN DFlk

ERl ERlV EL

Seite X run von Lösungsverfahren v Standardabweichung des DU B k -Maßes von Lösungsverfahren v Durchschnittswert des DU B k -Maßes von Lösungsverfahren v Euklidische Distanz im Zielraum, von Element x ∈ N DSl zum nächstliegenden Element der E(Π, z). Euklidische Distanz im Zielraum zwischen zwei direkt aufeinanderfolgenden Elementen einer NDF Durchschnittswert über alle d(z(x)) der Elemente x einer NDF Liefertermin ; Spätestzulässiger Fertigstellunstermin von Auftrag n Variationsbreite des Ziels k in der Referenzlösung Ref Verhältnis von AEXvµ zu einem Referenzwert Verhältnis von AEXvσ zu einem Referenzwert Verhältnis von DU Bvµ zu einem Referenzwert Verhältnis von DU Bvσ zu einem Referenzwert Verhältnis von SQµv zu einem Referenzwert Verhältnis von SQσv zu einem Referenzwert Verhältnis von T icksµ zu einem Referenzwert Verhältnis von T icksσ zu einem Referenzwert Hinzuzufügende Pheromonmenge bei der Pheromonaktualisierung zum Zeitpunkt t Parameter in der erweiterten gewichteten Tchebycheff-Distanz Rangindex bei der lex. Optimierung, e = 1(1)K Index, des in Rang e eingeordneten Ziels bei der lexikographischen Optimierung, e = 1(1)K Menge aller (streng) effizienten Lösungen Menge aller effizienten Zielfunktionsvektoren; Effiziente Front Menge der Zielfunktionsvektoren, die für Ziel k den kleinsten Wert innerhalb von N DFl aufweisen Error Ratio der Lösung l Error Ratio der N DFl , wie von

0.0

ET M P F

EX(π) ki k ηnh

Seite XI

k

Van Veldhuizen (1999) vorgestellt Menge der Zielfunktionsvektoren, die für Ziel k den kleinsten Wert innerhalb der T M P F aufweisen Exchange Nachbarschaft von π Element des Vektors k Beschränkungsvektor im Epsilon-Constraint Modell Lokale Komponente bei der Berechnung der Auswahlwahrscheinlichkeit pnh

Fmid Fn Fsum F SH(π)

Mittlere Durchlaufzeit Durchlaufzeit von Auftrag n Gesamtdurchlaufzeit Forward Shift Nachbarschaft von π

g Gz GDl h HDl

Funktion der Menge Gz Menge der streng monoton fallenden Funktionen Generational Distance von Lösung l Positionsindex in Auftragsfolge π, h = 1(1)N Hyperareadifference der Lösung l

I Im Inf Il InM ax

iter [i]π

Durchschnittliche Maschinenleerzeit Leerzeit auf Maschine m Inferiority Index der Lösung l Innerhalb von M axDist erreichbare Zahl von Auftragsfolgen Inversionsnachbarschaft von π Anzahl Iterationen beim SCMO- und MCMOAnsatz bei gleichem Gewichtungsvektor λ Iterationenindex, iter = 1(1)Iter Position von Auftrag i in Auftragsfolge π

k K l L

Zielindex, k = 1(1)K Anzahl der Ziele im Zielsystem Lösungsindex, l = 1(1)L Anzahl der zur Ermittlung der T M P S bzw. T M P F

IN V (π) Iter

0.0

L(π

Seite XII

ant

)

LB Cmax LEV EL λ λk

m M M atch M axDist M AX_LEV EL M OSlk M OSl M P F El M P Sl

n N NT N DClµ N DFl N DSl N N DSl N Sk+ (z(π))

N Sk− (z(π))

N Sk (z(π))

verwendeten Lösungen Allgemeine Notation für die Lösungsqualität der von der Ameise ant konstruierten Lösung π ant Untere Grenze der Zykluszeit Aktuelle Tiefe der Rekursion bei RAP I Zielgewichtungsvektor in Kompromißmodellen, λ ∈ RK Element des Vektors λ, Gewicht von Ziel k

Maschinenindex, m = 1(1)M Anzahl Maschinen Mächtigkeit der Schnittmenge von NSLR und NSZR M atch = |N SLR ∩ N SZR| Maximale Distanz zwischen den Elementen einer Menge von Auftragsfolgen Maximal zulässige Tiefe der Rekursion beim RAP I Modified Kth Objective Pareto Spread der Lösung l Modified Overall Pareto Spread der Lösung l Maximum Pareto Front Error der Lösung l Meta Pareto Solution Set von N DSl

Auftragsindex, n = 1(1)N Anzahl Aufträge Anzahl terminüberschreitender Aufträge Number of Distinct Choices der Lösung l Heuristisch effiziente Front (Non Dominated Front) l Heuristisch effiziente Menge (Non Dominated Solutions) l Number of Non Dominated Solutions der Lösung l Menge aller Auftragsfolgen, deren Zielfunktionswerte die kleinste nichtnegative Abweichung vom Zielfunktionsvektor z(π) der Auftragsfolge π bzgl. Ziel k aufweisen Menge aller Auftragsfolgen, deren Zielfunktionswerte die kleinste nichtpositive Abweichung vom Zielfunktionsvektor z(π) der Auftragsfolge π bzgl. Ziel k aufweisen Nachbarschaft der Auftragsfolge π im Zielraum bzgl. Ziel k

0.0 N Sk+E (z(π)) N Sk−E (z(π)) N SkE (z(π)) N S r (z(π)) N SLRr (π) N SLR(π) N SZR1(z(π)) N SZR2(z(π)) N SZR3(z(π)) N SZR4(z(π)) N Tlµ (c)

Seite XIII Menge aller bezogen auf den Abstandsvektor z a effizienten Elemente aus N Sk+ (z(π)) Menge aller bezogen auf den Abstandsvektor z a effizienten Elemente aus N Sk− (z(π)) Nachbarschaft der Auftragsfolge π im Zielraum (NSZR3) bzgl. Ziel k Nachbarschaft von z(π) in Region r bei NSZR4 Reduzierte Nachbarschaft im Lösungsraum von π Nachbarschaft im Lösungsraum von π Nachbarschaft von π im Zielraum - Konzept 1 Nachbarschaft von π im Zielraum - Konzept 2 Nachbarschaft von π im Zielraum - Konzept 3 Nachbarschaft von π im Zielraum - Konzept 4 Binärvariable, die anzeigt, ob Tµ (c) ein Element enthält oder nicht

OSlk OSl

Kth Objective Pareto Spread der Lösung l Overall Pareto Spread der Lösung l

p pnm Pn Ψ Ψ(g,b) Ψλ Ψgλ Ψkonvex λ Ψsteuer λ ΨΘ

Parameter der lp -Distanzen Bearbeitungszeit von Auftrag n auf Maschine m Gesamtbearbeitungszeit von Auftrag n Kompromißmodell Epsilon-Constraint-Ansatz Kompromißmodell von Soland (1979) Kompromißmodell Gewichtete Tchebycheff-Distanz Kompromißmodell Goal Programming mit lp -Maß Kompromißmodell Konvexkombination Abwandlung von Steuer (1986) für Ψ(λ,δ) Kompromißmodell ungewichtete Tchebycheff Distanz Kompromißmodell erweiterte gewichtete Tchebycheff-Distanz Proportion of Effizient Solutions der Lösung l Position Based Metric zwischen π und π 0 Precedence Metric zwischen π und π 0 Wahrscheinlichkeit für Auftrag n auf Position h plaziert zu werden Parameter der Pseudo Random

Ψ(λ,δ) P ESl P OSN (π, π 0 ) P REC(π, π 0 ) pnh p0

0.0

p1 p2 ψ(π) π π e π[h] πk∗ π ant πkaid π cand π glb πkid π init πknad Π Π∗k Π[k]

Π(Ψλ )

q Q rn r r0 R RC RO RS

Seite XIV Proportionate Rule Parameter der erweiterten Pseudo Random Proportionate Rule Parameter der erweiterten Pseudo Random Proportionate Rule Kompromißzielfunktion (allgemeine Form) Permutation von Aufträgen, Auftragsfolge, π ∈ Π aktuelle Teillösung / aktuelle Teilauftragsfolge Auftrag auf Position h in Auftragsfolge π Auftragsfolge, die Zielgröße k minimiert Von Ameise ant konstruierte Auftragsfolge Auftragsfolge, die Zielfunktionswert k maximiert Kandidatenliste bei der Lösungskonstruktion durch eine Ameise Global beste bekannte Lösung einer Kolonie Auftragsfolge, die Zielfunktionswert k minimiert Initialisierungsauftragsfolge für die Pheromonmatrizen im SCMO- und MCMO-Ansatz Auftragsfolge aus E(Π, z), die Zielgröße k maximiert Lösungsraum, Menge aller N ! möglichen Permutationen von N Aufträgen Menge individuell optimaler Lösungen bzgl. Ziel k Lösungsmenge in der lexikographischen Optimierung, nachdem nach Ziel [k] optimiert wurde, mit [k] als Ziel auf Rang k Lösungsmenge des Kompromißmodells Ψλ

Hyperrechteck Parameter beim Pheromonupdate nach dem Ant Cycle Prinzip Ankunftszeitpunkt von Auftrag n Regionenindex, r = 1(1)R Regionenindex, r0 = 1(1)R Anzahl Regionen in N SZR4 Vollständige (complete) Outperformance Relation Outperformance Relation Starke (strong) Outperformance Relation

0.0 RW Ref range

rank Runs runs ρ ρkorr ρreal ρADJ1 ρADJ2 ρP OSN ρP REC

step Sl Sel SCZYl SDl SolTv SolLSv SQl SQv,run SQσv SQµv

Seite XV Schwache (weak) Outperformance Relation Referenzlösung Parameter der lokalen Suchverfahren. Anzahl Positionen vor und nach der aktueller Position des aktuellen Auftrags, die bei der Überprüfung auf einen vorteilhaften Zug berücksichtigt werden Anzahl der Eliteameisen im AS rank Ansatz Anzahl der Lösungen, die für eine Probleminstanz von einem Lösungsverfahren v bestimmt werden Index eines Rechenlaufs, runs = 1(1)Runs Korrelationskoeffizient , Trail-Persistance-Rate Korrektur des Korrelationskoeffizienten von O LKIN U. P RATT (1958) Korrelation zwischen Zielfunktionswerten und echter Distanz Korrelation zwischen Zielfunktionswerten und ADJ1 Korrelation zwischen Zielfunktionswerten und ADJ2 Korrelation zwischen Zielfunktionswerten und POSN Korrelation zwischen Zielfunktionswerten und PREC

Schrittweite, mit der die Elemente von λ im SCMO- und MCMO-Ansatz variiert werden Size of Dominated Space (S-Maß) der Lösung l Mit normierten Zielfunktionsvektoren ermitteltes S-Maß der Lösung l Distanzquotient der Lösung l von Czyzak u. Jaszkiewicz (1998) Spacing-Maß der Lösung l Insgesamt von Lösungsverfahren v generierte Anzahl von Auftragsfolgen Von Lösungsverfahren v in der lokalen Suche generierte Anzahl von Auftragsfolgen S-Maß Quotient der Lösung l S-Maß Quotient der Lösung aus Rechenlauf run von Lösungsverfahren v Standardabweichung des S-Maß Quotienten des Lösungsverfahrens v Durchschnittlicher S-Maß Quotient des Lösungsverfahrens v

0.0

T Tnh Tmax Tmid Tsum Tµ (c) T icksLSv T icksTv τij τmax τmin τnh Θ Θ[k]

U U u µ v V wnm Wn Wsum W Ck

Seite XVI

Pheromonmatrix (allgemeine Schreibweise) Summen-Pheromonwert Maximale Terminüberschreitung Mittlere Terminüberschreitung Summe der Terminüberschreitungen Indifferenzregion von c Von Lösungsverfahren v für die lokale Suche benötigte Rechenzeit Benötigte Gesamtrechenzeit eines Lösungsverfahrens v Pheromonwert, der ausdrückt, wie vorteilhaft es ist, Auftrag j direkt nach Auftrag i zu fertigen Oberer Grenzwert für Pheromone beim M AX -M IN Ant System Unterer Grenzwert für Pheromone beim M AX -M IN Ant System Pheromonwert, der ausdrückt, wie vorteilhaft es ist, Auftrag n auf Position h zu plazieren Vektor zur Bestimmung des Tchebycheff-Punktes, Θ ∈ RK Element von Θ

Menge nicht ausgewählter Elemente / Aufträgen Durchschnittliche Kapazitätsauslastung des Fertigungsbereichs Gleichverteilte Zufallszahl aus dem Intervall [0;1], u ← U [0; 1] Parameter von N DClµ Index des Lösunsverfahren, v = 1(1)V Anzahl der in den Vergleich aufgenommenen Lösungsverfahren Wartezeit von Auftrag n vor Maschine m Wartezeit von Auftrag n Summe der Wartezeiten aller N Aufträge Größte Abweichung von N SZR4 bzgl. Ziel k in der reduzierten Nachbarschaft im Lösungsraum

0.0

Seite XVII

(Zufalls-)Variable bei der Berechnung des Korrelationskoeffizienten ρ Binärvariable (Zufalls-)Variable bei der Berechnung des Korrelationskoeffizienten ρ Binärvariable Anzahl an Auftragsfolgen π 0 in N SLRr mit zk (π 0 ) < zkgrenze

xi xij yi yij yk

0

z a (z(π), z(π )) z aid zb zeb zg zeg zkgrenze z id z lex z max z nad z ref z ut z(π) zk (π) zkEU B zkN ORM zek (π) zk∗ k zU B zlk∗ Z(Π)

ζk ζkN ORM

Vektor der absoluten Abstände der Vektoren z(π) 0 und z(π ) Antiidealzielpunkt Badpoint Normierter Badpoint Goodpoint Normierter Goodpoint Kleinster in N SZR4 auftretender Wert für Ziel k Idealzielpunkt Zielfunktionsvektor der Lösung einer lexikographischen Optimierung Beschränkungsvektor beim S-Maß (Sl ) Nadirpunkt Referenzpunkt Utopiepunkt Zielfunktionsvektor der Auftragsfolge π, z(π) ∈ RK Zielfunktionswert bzgl. Ziel k, von Auftragsfolge π Endogene kleinste obere Schranken von Ziel k Wert zur Normierung der Zielgröße k bei der Ermittlung von ψλ (π) im SCMO- und MCMO-Ansatz Normierter Zielfunktionsvektor von π Zielfunktionswert der individuell opt. Lösung bzgl. Ziel k Exogene kleinste obere Schranke für Ziel k Kleinster Zielfunktionswert bzgl. Ziel k in Lösung l Zielraum, Menge der Zielfunktionsvektoren z(π) aller Elemente π aus Π Wert bei der Berechnung von DU Blk Wert bei der Berechnung von zkN ORM

0.0

%InM ax %LR %T icksv %SolTv

%ZR #O #P

Seite XVIII

Anteil von InM ax am gesamten Lösungsraum Anteil der Auftragsfolgen in NSLR, die auch in NSZR sind Anteil der Rechenzeit der lokalen Suche an der Gesamtrechenzeit von Lösungsverfahren v Anteil der während der lokalen Suche generierten Auftragsfolgen an der insgesamt generierten Anzahl von Auftragsfolgen von Lösungsverfahren v Anteil der Auftragsfolgen in NSZR, die auch in NSLR sind Anzahl globaler Optima für ein Ziel in einer Probleminstanz Anzahl Probleminstanzen mit multiplen globalen Optima

Operatoren in Algorithmen == Test auf Gleichheit = Zuordnung

Abbildungsverzeichnis 2.1 Menge aller effizienten Lösungen . . . . . . . . . . . . . . . . .

9

3.1 Arten effizienter Punkte . . . . . . . . . . . . . . . . . . . . . . 25 3.2 Besondere Punkte im Zielraum . . . . . . . . . . . . . . . . . . 28 4.1 4.2 4.3 4.4 4.5 4.6 4.7 4.8 4.9 4.10 4.11 4.12 4.13 4.14 4.15 4.16 4.17 4.18

Das Effizienzkriterium bei der Beurteilung der Lösungsqualität Ermittlung der TMPS . . . . . . . . . . . . . . . . . . . . . . . Schwache Outperformance . . . . . . . . . . . . . . . . . . . . . Starke Outperformance . . . . . . . . . . . . . . . . . . . . . . . Vollständige Outperformance . . . . . . . . . . . . . . . . . . . Gegenseitige Dominanz . . . . . . . . . . . . . . . . . . . . . . . Number of non dominated Solutions, Fall: L ≥ 3 . . . . . . . . Error Ratio, Fall: L ≥ 3 . . . . . . . . . . . . . . . . . . . . . . Proportions of efficient Solutions, Fall: L ≥ 3 . . . . . . . . . . D1l und D2l , Fall: L ≥ 3 . . . . . . . . . . . . . . . . . . . . . . Berechnung der Generational Distance GDl . . . . . . . . . . . Inkompatibilität der Generational Distance mit RO . . . . . . Inkompatibilität des Maximum Pareto Front Errors mit RO . Coverage of two sets . . . . . . . . . . . . . . . . . . . . . . . . S-Maß . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Kth-Objective Pareto Spread . . . . . . . . . . . . . . . . . . . . Cluster-Maß . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Cluster Ratio . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

5.1 5.2 5.3 5.4 5.5 5.6 5.7

Motivation der Zielraum- und Lösungsraumanalyse Nachbarschaft im Zielraum - Konzept 1 . . . . . . . Nachbarschaft im Zielraum - Konzept 2 . . . . . . . Nachbarschaft im Zielraum - Konzept 3 . . . . . . . Nachbarschaft im Zielraum - Konzept 4 . . . . . . . Symmetrie von NSZR4 . . . . . . . . . . . . . . . . . Abweichungsanalyse von NSZR4 . . . . . . . . . . . XIX

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

47 53 56 56 57 58 60 63 64 67 69 71 72 74 77 81 87 88 97 104 105 108 109 112 119

0.0

Seite XX 6.1 6.2 6.3 6.4 6.5 6.6 6.7 6.8 6.9 6.10 6.11 6.12 6.13 6.14 6.15 6.16 6.17 6.18 6.19 6.20 6.21 6.22 6.23 6.24

Doppelbrückenexperiment von Goss u. a. (1989) Indirekter Kommunikationsmechanismus . . . . Kodierungsalternativen der Pheromonmatrix . . Aktualisierungsstrategien nach Iredi u. a. (2001) SCMO - Suchschema im Zielraum . . . . . . . . SCMO - Exp. 3: Trade Off: ∆SQµv - ∆T icksµv . . . MCMO1 - Übersicht der Prozeduren . . . . . . . MCMO - Suchschema im Zielraum . . . . . . . . MCMO: i=0; j=6 . . . . . . . . . . . . . . . . . . . MCMO: i=0; j=6; s=5; Kolonie 1 & 2 . . . . . . . MCMO: i=0; j=6; s=5; Kolonie 1 & 3 . . . . . . . MCMO: i=0; j=6; s=5; Kolonie 2 & 3 . . . . . . . MCMO: i=0; j=6; s=4; Kolonie 1 & 2 . . . . . . . MCMO: i=0; j=6; s=4; Kolonie 1 & 3 . . . . . . . MCMO: i=0; j=6; s=4; Kolonie 2 & 3 . . . . . . . MCMO: i=0; j=6; s=3 . . . . . . . . . . . . . . . . MCMO: i=1; j=4 . . . . . . . . . . . . . . . . . . . MCMO: i=1; j=4; s=3; Kolonie 1 & 2 . . . . . . . MCMO: i=1; j=4; s=3; Kolonie 1 & 3 . . . . . . . MCMO: i=1; j=4; s=3; Kolonie 2 & 3 . . . . . . . MCMO: i=2; j=2 . . . . . . . . . . . . . . . . . . . MCMO2 - Übersicht der Prozeduren . . . . . . . MCMO1 - Trade Off: ∆SQµ -∆T icksµv . . . . . . . MCMO2 - Trade Off: ∆SQµ -∆T icksµv : . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . .

148 149 155 168 180 199 210 211 215 216 216 217 217 218 218 219 219 220 220 221 222 229 236 238

Tabellenverzeichnis 2.1 Klassifikation von Reihenfolgeproblemen . . . . . . . . . . . . 6 2.2 Korrelation der Ziele im betrachteten Zielsystem . . . . . . . 20 4.1 Eigenschaften der Qualitätsmaße zur Erfassung der Distanz zur Menge aller effizienten Lösungen . . . . . . . . . . . . . . 4.2 Eigenschaften der Qualitätsmaße zur Erfassung der Variationsbreite der Zielfunktionswerte . . . . . . . . . . . . . . . . . 4.3 Eigenschaften der Qualitätsmaße zur Erfassung der Verteilung der Elemente der NDS im Zielraum . . . . . . . . . . . . 4.4 Multiple Optima der Zykluszeit in TAIL001 . . . . . . . . . . . 5.1 5.2 5.3 5.4 5.5 5.6 5.7 5.8 5.9 5.10 5.11 5.12 5.13 5.14

NSZR4: Definition der Regionen bei K=2 . . . . . . . . . . . . . NSZR4: Definition der Regionen bei K=3 . . . . . . . . . . . . . Definition Region r0 . . . . . . . . . . . . . . . . . . . . . . . . . Gemeinsame Elemente in NSZR4 und API, EX und INV . . . Gemeinsame Elemente NSZR4 und FSH, BSH und DSH . . . Gemeinsame Elemente in der reduzierten NSLR und NSZR4. Durchschnittliche Abweichungen AV G1k u. AV G2k . . . . . . . Größte Abweichung W Ck . . . . . . . . . . . . . . . . . . . . . Anforderungen an ein Distanzmaß N=2 . . . . . . . . . . . . . Anforderungen an ein Distanzmaß N=3,4,5,6,7 . . . . . . . . . Differenzierungstiefe Ersatzmaße N=4 . . . . . . . . . . . . . . Differenzierungstiefe Ersatzmaße N=6 . . . . . . . . . . . . . . Differenzierungstiefe Ersatzmaße N=8 . . . . . . . . . . . . . . Korrelationen zwischen echter Distanz und den Ersatzmaßen, N=4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.15 Korrelationen zwischen echter Distanz und den Ersatzmaßen, N=6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.16 Korrelationen zwischen echter Distanz und den Ersatzmaßen, N=8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

XXI

79 83 89 91 110 110 111 115 116 121 122 123 127 128 132 132 132 133 133 133

0.0

Seite XXII 5.17 Korrelation zwischen echter Distanz, Ersatzmaßen und Zykluszeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.18 Korrelation zwischen echter Distanz, Ersatzmaßen und mittlerer Durchlaufzeit . . . . . . . . . . . . . . . . . . . . . . . . . 5.19 Korrelation zwischen echter Distanz, Ersatzmaßen und maximaler Terminüberschreitung . . . . . . . . . . . . . . . . . . 5.20 Häufigkeitsverteilung der Korrelationen . . . . . . . . . . . . . 5.21 Isolierte Analyse globaler Optima - Zykluszeit . . . . . . . . . 5.22 Isolierte Analyse globaler Optima - Mittlere Durchlaufzeit . . 5.23 Isolierte Analyse globaler Optima - Maximale Terminüberschreitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.24 Integrierte Analyse - Alle globalen Optima . . . . . . . . . . . 5.25 Integrierte Analyse - Effiziente globale Optima . . . . . . . . . 5.26 Distanzanalyse der effizienten Menge . . . . . . . . . . . . . .

137 138 140 140

6.1 6.2 6.3 6.4 6.5 6.6 6.7 6.8 6.9 6.10 6.11 6.12 6.13 6.14 6.15 6.16 6.17 6.18 6.19 6.20 6.21 6.22 6.23 6.24 6.25

154 189 190 191 192 193 194 195 196 196 199 200 201 202 203 204 205 206 207 208 231 232 232 233 233

ACO Algorithmen für Scheduling Probleme . . . SCMO - Alternative Suchrichtungen im Zielraum SCMO - Exp. 1: SQ-Maß . . . . . . . . . . . . . . . SCMO - Exp. 1: Variante ohne LNDS: DU B k -Maß SCMO - Exp. 1: Variante mit LNDS: DU B k -Maß . SCMO - Exp. 1: Variante ohne LNDS: AEX k -Maß SCMO - Exp. 1: Variante mit LNDS: AEX k -Maß . SCMO - Exp. 2: SQ-Maß . . . . . . . . . . . . . . . SCMO - Exp. 2: DU B k -Maß . . . . . . . . . . . . . SCMO - Exp. 2: AEX k -Maß . . . . . . . . . . . . . SCMO - Exp. 3: ∆SQv und ∆T icksv . . . . . . . . . SCMO - Exp. 3: ∆DU Bvk . . . . . . . . . . . . . . . SCMO - Exp. 3: ∆AEXvk . . . . . . . . . . . . . . . SCMO - Konfigurationen Experiment 4 . . . . . . SCMO - Exp. 4: SQ-Maß . . . . . . . . . . . . . . . SCMO - Exp. 4: DU B k -Maß . . . . . . . . . . . . . SCMO - Exp. 4: AEX k -Maß . . . . . . . . . . . . . SCMO - Exp. 5: SQ-Maß . . . . . . . . . . . . . . . SCMO - Exp. 5: DU B k -Maß . . . . . . . . . . . . . SCMO - Exp. 5: AEX k -Maß . . . . . . . . . . . . . MCMO - Exp. 1: SQ-Maß . . . . . . . . . . . . . . . MCMO1 - Exp. 1: DU B k -Maß . . . . . . . . . . . . MCMO2 - Exp. 1: DU B k -Maß . . . . . . . . . . . . MCMO1 - Exp. 1: AEX k -Maß . . . . . . . . . . . . MCMO2 - Exp. 1: AEX k -Maß . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

136 137

141 142 144 145

0.0

Seite XXIII 6.26 6.27 6.28 6.29 6.30 6.31 6.32 6.33 6.34 6.35 6.36 6.37 6.38 6.39 6.40 6.41 6.42 6.43 6.44 6.45 6.46 6.47 6.48 6.49 6.50 6.51 6.52 6.53 6.54

MCMO1 - Exp. 2: 4SQv und 4T icksv . . . . . . . . . . . . . . 235 MCMO2 - Exp. 2: SQ-Maß . . . . . . . . . . . . . . . . . . . . . 237 MCMO1 - Exp. 2: ∆DU Bvk - . . . . . . . . . . . . . . . . . . . . . 239 MCMO2 - Exp. 2: ∆DU Bvk . . . . . . . . . . . . . . . . . . . . . 240 MCMO1 - Exp. 2: ∆AEXvk . . . . . . . . . . . . . . . . . . . . . 241 MCMO2 - Exp. 2: ∆AEXvk . . . . . . . . . . . . . . . . . . . . . 242 MCMO - Exp. 3: SQv . . . . . . . . . . . . . . . . . . . . . . . . 243 MCMO1 - Exp. 3: DU B k -Maß . . . . . . . . . . . . . . . . . . . 244 MCMO2 - Exp. 3: DU B k -Maß . . . . . . . . . . . . . . . . . . . 245 MCMO1 - Exp. 3: AEX k -Maß . . . . . . . . . . . . . . . . . . . 246 MCMO2 - Exp. 3: AEX k -Maß . . . . . . . . . . . . . . . . . . . 247 MCMO - Exp. 4: SQ-Maß . . . . . . . . . . . . . . . . . . . . . . 248 MCMO1 - Exp. 4: DU B k -Maß . . . . . . . . . . . . . . . . . . . 249 MCMO2 - Exp. 4: DU B k -Maß . . . . . . . . . . . . . . . . . . . 249 Wahl von ρ in Abhängigkeit von der Problemgröße . . . . . . . 250 MCMO1 - Exp. 4: AEX k -Maß . . . . . . . . . . . . . . . . . . . 251 MCMO2 - Exp. 4: AEX k -Maß . . . . . . . . . . . . . . . . . . . 251 Konfigurationen von SCMO, MCMO1 und MCMO2 . . . . . . 253 Vergleich SCMO, MCMO und MOGLS: SQ-Maß . . . . . . . . 254 Vergleich SCMO, MCMO und MOGLS: DU B k -Maß . . . . . . 255 Vergleich SCMO, MCMO und MOGLS: AEX k -Maß . . . . . . 256 Vergleich SCMO, MCMO und MOGLS: Struktur der Rechenzeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257 Vergleich SCMO, MCMO und MOGLS: Anzahl generierter Auftragsfolgen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258 Verbesserte kleinste obere Schranken - Fmid : TAIL001-TAIL030260 Verbesserte kleinste obere Schranken - Fmid : TAIL031-TAIL060261 Verbesserte kleinste obere Schranken - Fmid : TAIL061-TAIL090262 Verbesserte kleinste obere Schranken - Tmax : TAIL001TAIL030 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263 Verbesserte kleinste obere Schranken - Tmax : TAIL031TAIL060 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264 Verbesserte kleinste obere Schranken - Tmax : TAIL061TAIL090 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265

A.1 Kleine Testprobleme . . . . . . . . . . . . . . . . . . . . . . . . 287 C.1 Parametereinstellungen MOGLS und GPWGA . . . . . . . . . 291 C.2 Kleinste obere Schranken: TAIL001-TAIL030 . . . . . . . . . . 292 C.3 Kleinste obere Schranken: TAIL031-TAIL060 . . . . . . . . . . 293

0.0

Seite XXIV C.4 Kleinste obere Schranken: TAIL061-TAIL090 . . . . . . . . . . 294

Kapitel 1

Einleitung In den letzten Jahren hat sich die Wettbewerbssituation der Unternehmen aufgrund der Globalisierung stark verändert. Die Konkurrenz zwischen den Unternehmen nimmt zu. Gleichzeitig wachsen die Ansprüche der Kunden. Letzteres äußert sich z.B. im Wunsch nach individuell angepaßten Produkten. Das Erfüllen der Kundenwünsche sowie die Fähigkeit schnell und termingerecht zu liefern, sind zu einem entscheidenden Wettbewerbsfaktor geworden. Dies hat auch Auswirkungen auf das Zielsystem der Produktion. Im Gegensatz zum früher vorherrschenden Ziel der Kapazitätsauslastung, nimmt die Bedeutung von zeitorientierten Zielsetzungen, wie z.B. Fertigung nahe am Liefertermin oder kurze Durchlaufzeiten zu. Das Erreichen dieser Ziele wird unter anderem auch von der Fertigungsreihenfolge der Aufträge durch das Produktionssystem beeinflußt. Bei mehrstufigen Produktionssystemen lassen sich die Werkstattfertigung (Job Shop) und die Reihenfertigung (Flow Shop) als Organisationsprinzip unterscheiden. In dieser Arbeit wird das sogenannte Permutation Flow Shop Problem (PFSP) betrachtet, wobei die in der Literatur vorherrschenden Annahmen zugrunde gelegt werden.1 Permutation Flow Shop bedeutet dabei, daß alle Aufträge die gleiche Maschinenfolge besitzen (Flow Shop) und daß auf allen Maschinen die gleiche Auftragsfolge gilt (Permutation Flow Shop). Aus betriebswirtschaftlicher Sicht hat sich die Lösung des Planungsproblems2 an den entscheidungsrelevanten Kosten zu orientieren. Relevant sind dabei z.B. Lager-, Rüst-, Leer- sowie Anpassungskosten. Auch Konventionalstrafen für die Überschreitung eines Liefertermins gehören dazu. Die Komponenten der entscheidungsrelevanten Kosten lassen 1 Vgl.

zu diesen Annahmen Abschnitt 2.1.2. der Planungsaufgabe ist es, bei gegebener Maschinenfolge, die Bearbeitungsreihenfolge der Aufträge festzulegen (vgl. Seelbach (1975, S.15), Zäpfel (1982, S.247f.)). 2 Ziel

1.0

Seite 2

sich jedoch nur schwer erfassen. Daher werden üblicherweise Ersatzziele verwendet, die aus dem Ziel der Minimierung der entscheidungsrelevanten Kosten abgeleitet werden. Das in der Arbeit behandelte Problem hat eine multikriterielle Zielsetzung. Das Zielsystem besteht aus den drei Zielen der Minimierung der Zykluszeit, der Minimierung der mittleren Durchlaufzeit sowie der Minimierung der maximalen Terminüberschreitung. Ziel ist die Bestimmung der Menge aller effizienter Auftragsfolgen. Eine Klassifikation von Reihenfolgeproblemen und die Charakterisierung des hier betrachteten Permutation Flow Shop Problems erfolgt ebenso wie eine Diskussion des Zielsystems in Kapitel 2. Seit der Veröffentlichung des Johnson Algorithmus (1954)3 , hat das Problem der Reihenfolgeplanung in der wissenschaftlichen Arbeit erhebliche Aufmerksamkeit erfahren. Dabei lag das Hauptaugenmerk jedoch auf Lösungsansätzen, die nur ein Ziel, wie z.B. die Minimierung der Zykluszeit, verfolgen. Dies mag auch daran liegen, daß das Problem bereits bei einer Zielgröße in der Regel NP-schwer ist. In den 70er Jahren wurden erste sehr allgemeine und theoretische Ansätze für das Reihenfolgeproblem mit mehrfacher Zielsetzung veröffentlicht.4 Erst in den letzten Jahren jedoch wurde das Thema wieder international aufgegriffen. Insgesamt handelt es sich beim vorliegenden Problem um ein Vektorminimierungsproblem. Eine Diskussion von Lösungsmöglichkeiten mit Hilfe von Kompromißmodellen für diese Probleme erfolgt in Kapitel 3. Die vorhandenen Ansätze zur Problemlösung lassen sich in 2 Gruppen aufteilen. In die erste Gruppe fallen Ansätze, die zum Ziel haben, lediglich eine effiziente Auftragsfolge zu ermitteln. Diese Ansätze spielen insbesondere dann eine Rolle, wenn bereits vor der Problemlösung Informationen über die Präferenzstruktur des Entscheidungsträgers vorliegen und diese daher bei der Problemlösung berücksichtigt werden können. Derartige Ansätze werden daher als a-priori Ansätze bezeichnet. Die zweite Gruppe wird von Ansätzen gebildet, die als Ziel die Ermittlung der Menge aller effizienter Auftragsfolgen haben. Da bei diesen Ansätzen die Präferenzen erst nach der Lösungsermittlung eingehen, werden die Ansätze auch als a-posteriori Ansätze bezeichnet. Der in dieser Arbeit zu entwickelnde Algorithmus gehört der zweiten Gruppe an. Für die Ermittlung der Lösung des Problems, stehen grundsätzlich zwei Arten von Lösungsmöglichkeiten zur Verfügung. Zum einen können exakte Verfahren wie z.B. Branch and Bound verwendet werden. Diese bestimmen die Menge aller effizienten Lösungen. Die exakten Verfahren sind jedoch mit einem extrem hohen Rechenaufwand verbunden und daher für pra3 Siehe 4 Siehe

Johnson (1954, S.64). z.B. Dinkelbach (1977, 546-564) und Dinkelbach (1982).

1.0

Seite 3

xisrelevante Problemgrößen nicht anwendbar. Aus diesem Grund richtet sich das Hauptaugenmerk der Forschung auf die Entwicklung von heuristischen Verfahren. Diese finden nicht zwingend die exakte Lösung. Sie können jedoch vergleichsweise schnell gute Lösungen finden. Das bedeutet, anstatt der Menge echt effizienter Punkte ermitteln Heuristiken eine Menge heuristisch effizienter Punkte5 . Zu den am häufigsten eingesetzten Heuristiken gehören Metaheuristiken, wie Tabu Search, Simulated Annealing und Genetische Algorithmen. Zur Lösung kombinatorischer Optimierungsprobleme bei einfacher Zielsetzung hat sich in letzter Zeit eine neue Klasse von Metaheuristiken, die Ant Colony Optimization (ACO), als effektiv und effizient erwiesen. Bislang gibt es jedoch nur sehr wenige ACOAnsätze für Reihenfolgeprobleme bei mehrfacher Zielsetzung. Eine kurze Übersicht über diese Ansätze wird am Ende von Kapitel 3 gegeben. In den Kapiteln 4 und 5 werden vorgelagerte Aspekte der Problemlösung mit Hilfe von Heuristiken betrachtet. Diese sind unabhängig von der verwendeten ACO Metaheuristik und ebenso für die Problemlösung mit Hilfe anderer Metaheuristiken, wie z.B. Simulated Annealing oder Genetischen Algorithmen relevant. Kapitel 4 beschäftigt sich zunächst mit der Beurteilung der Lösungsqualität von heuristisch effizienten Mengen. Die Überlegungen sind unabhängig vom betrachteten Permutation Flow Shop Problem. Beim Vergleich der Lösungsgüte ist, im multikriteriellen Fall, in der Literatur noch kein einheitliches Vorgehen erkennbar. Neben dem visuellen Vergleich, der nur sehr begrenzt bei zwei oder maximal drei Zielen anwendbar ist, definiert in der Regel jeder Autor eigene Qualitätsmaße, um einen Vergleich durchzuführen. Der Vergleich stellt keine Schwierigkeit dar, solange eine Lösung eine andere Lösung vollständig dominiert. Ist dies jedoch nicht der Fall, ist ein Vergleich mittels des Effizienzkriteriums nicht mehr möglich. Um diese Situation aufzulösen, werden in der Literatur bisher im wesentlichen zwei Ansätze verfolgt. Der erste Ansatz erweitert die Annahmen über die Präferenzen des Entscheidungsträgers und entwickelt darauf aufbauend eine skalare Maßzahl. Die Arbeit folgt dem zweiten in der Literatur verfolgten Ansatz und berücksichtigt mehrere Qualitätsaspekte, welche jeweils mit eigenen Maßen erfasst werden. Neben dem Ziel, Lösungen zu vergleichen, ist die Beschäftigung mit Qualitätsmaßen insbesondere notwendig, um die Parameter der Heuristik gut einzustellen. Kapitel 5 untersucht Grundlagen für die Verwendung von lokalen Suchverfahren. Ein gängiges Vorgehen bei der Problemlösung ist es, den Algo5 Der Begriff der heuristischen Effizienz wurde erstmals von Huckert u. a. (1980, S.59) verwendet.

1.0

Seite 4

rithmus in einen guten Bereich, den Einzugsbereich der lokalen oder gar globalen Optima, zu führen. Dieses globale Lenken ist häufig primäre Aufgabe der Metaheuristik. Die Feinsuche wird anschließend zumeist speziellen lokalen Suchverfahren überlassen. Ansätze, die diese Zweiteilung von Metaheuristik und lokaler Suche aufweisen, werden auch als Hybride Ansätze bezeichnet. In diesem Zusammenhang sind folgende Fragen interessant: Ist unter Beachtung dessen, was ein Nachbar im Lösungsraum ist, dieser auch ein Nachbar im Zielraum? Sind also zwei Sequenzen, die über einen sogenannten Nachbarschaftsoperator als Nachbarn im Lösungsraum definiert sind auch benachbarte Zielfunktionsvektoren und damit Nachbarn im Zielraum?6 Wie verhält sich die Lage der einzelnen lokalen Optima eines Ziels zueinander und zum globalen Optimum? Wie verhält sich die Lage der lokalen oder globalen Optima der verschiedenen verwendeten Ziele zueinander? Diese Fragen werden in unterschiedlichen Experimenten untersucht. Die Ergebnisse fließen anschließend in die zwei in Kapitel 6 entwickelten Ameisenalgorithmen ein. Eine kurze Darstellung der ACO Metaheuristik sowie die Entwicklung von zwei Ameisenalgorithmen (SCMO- und MCMO- Ansatz) zur Lösung des vorliegenden Problems erfolgt in Kapitel 6. In einer Reihe von Experimenten werden unterschiedliche Strategien zum Absuchen des Zielraums sowie weitere Einstellungsmöglichkeiten untersucht.

6 Zur

Definition der Nachbarschaft im Zielraum vgl. Abschnitt 5.3.

Kapitel 2

Charakterisierung des Permutation Flow Shop Problems 2.1 2.1.1

Grundlagen und Prämissen Klassifikation von Reihenfolgeproblemen

Ein Auftrag wird durch eine Folge von technologisch zusammenhängenden Arbeitsgängen beschrieben, die auszuführen sind, um eine einzelne Produkteinheit oder mehrere identische Produkteinheiten herzustellen. Jeder Auftrag besitzt eine Maschinenfolge, die bestimmt, in welcher zeitlichen Reihenfolge die notwendigen Arbeitsgänge auf den einzelnen Maschinen durchgeführt werden. Eine Maschine ist eine Ressource, welche einen bestimmten Arbeitsgang ausführt. Ist die Maschinenfolge bei mindestens zwei Aufträgen unterschiedlich, so liegt eine Werkstattfertigung vor, ist sie hingegen bei allen Aufträgen gleich, so liegt eine Reihenfertigung vor.1 In der englischsprachigen Literatur wird für Werkstattfertigung der Begriff Job Shop und für Reihenfertigung der Begriff Flow Shop verwendet.2 Dabei ist jedoch zu beachten, daß im Falle des Job Shops und Flow Shops als weitere Annahme gilt, daß sich auf jeder Fertigungsstufe nur eine Maschine gleicher Art befindet.3 Umfaßt eine Fertigungsstufe mehrere gleichartige Maschinen, wird das Problem als General Job Shop bzw. Flexible Flow 1 Vgl.

zu den bisherigen Ausführungen Seelbach (1975, S.14f.). Seelbach (1975, S.15). 3 Vgl. Pinedo (1995, S.93f.). 2 Vgl.

2.1

Seite 6

Shop bezeichnet.4 Besteht die Maschinenfolge lediglich aus einer Maschine, so handelt es sich um einstufige Fertigung. Umfaßt die Fertigungsstufe mehrere gleichartige Maschinen, so wird von einem Problem mit parallelen Maschinen gesprochen. Bei lediglich einer Maschine auf der Fertigungsstufe spricht man vom Single-Machine-Problem. Tabelle 2.1 faßt die Klassifikation der Reihenfolgeprobleme nochmals zusammen. Fertigung einstufig mehrstufig

Maschinenfolge

Gleichartige Maschinen pro Fert.Stufe

der Aufträge

mehrere

nur eine

-

Parallel Machines

Single Machine

unterschiedlich

General Job Shop

Job Shop

gleich

Flexible Flow Shop

Flow Shop

Tabelle 2.1: Klassifikation von Reihenfolgeproblemen Reihenfolgeprobleme können weiterhin nach folgenden Aspekten unterschieden werden: Statisch / dynamisch: Liegen alle in der Planung zu berücksichtigenden Aufträge zum Planungszeitpunkt vor, so handelt es sich um ein statisches Problem. Treffen im Zeitablauf weitere zu berücksichtigende Aufträge ein, so ist das Problem dynamisch.5 Deterministisch / stochastisch: Als deterministisch wird ein Problem bezeichnet, falls zum Planungszeitpunkt alle entscheidungsrelevanten Informationen ( Bearbeitungszeiten, Liefertermine usw.) über die Aufträge bekannt und sicher sind.6 Ist zum Planungszeitpunkt mindestens ein Datum nicht bekannt oder noch unsicher, so ist das Problem stochastisch.7 Planungsaufgabe ist es, bei gegebener Maschinenfolge die organisatorische Folge, also die Bearbeitungsreihenfolge der Aufträge auf den einzelnen Maschinen festzulegen.8 Im Fall des Flow Shops kann die Auftragsfolge auf den einzelnen Maschinen grundsätzlich unterschiedlich sein. Die Auftragsfolgen auf den einzelnen Maschinen bilden dann den Ablaufplan.9 Die Lö4 Vgl.

Pinedo (1995, S.94). Seelbach (1975, S.16), Conway u. a. (1967, S.7). 6 Die alleinige Kenntniss einer Wahrscheinlichkeitsverteilung z.B. für die Bearbeitungszeiten genügt nicht, damit das Problem als deterministisch bezeichnet werden kann. Es liegt zwar eine Information über die Bearbeitungszeiten vor, die genauen Ausprägungen sind aber weiterhin unsicher. 7 Vgl. Conway u. a. (1967, S.7). 8 Vgl. Seelbach (1975, S.15), Zäpfel (1982, S.247f.). 9 Vgl. Seelbach (1975, S.16). 5 Vgl.

2.1

Seite 7

sung des Problems ist jedoch deutlich einfacher, wenn man die Annahme trifft, daß die Auftragsfolge auf allen Maschinen gleich ist.10 Sicherlich auch deswegen ist es eine in der Literatur übliche Annahme und ein in der Praxis anzutreffendes Vorgehen, auf allen Maschinen die gleiche Auftragsfolge zu verwenden.11 Das daraus resultierende Planungsproblem wird als Permutation Flow Shop Problem (PFSP) bezeichnet.12 Die Annahme der gleichen Auftragsfolge auf allen Maschinen schränkt den Lösungsraum für das Flow Shop Problem ein. Die Anzahl der Ablaufpläne beträgt beim Permutation Flow Shop Problem N !, wobei N die Anzahl der Aufträge ist. Beim Flow Shop Problem sind hingegen N !M unterschiedliche Ablaufpläne möglich, mit M als Anzahl der Maschinen im Produktionssystem. Aus der Einschränkung resultiert, daß eine optimale Lösung des Permutation Flow Shop Problems nicht zwingend eine optimale Lösung für das Flow Shop Problem ist. Neben der Anzahl der Aufträge N und der Anzahl der Maschinen M sollen im Folgenden weitere, in dieser Arbeit verwendete Begriffe und Variablen definiert werden: Ankunftszeitpunkt eines Auftrags n (rn ): Der Zeitpunkt, zu dem der Auftrag im Fertigungssystem bereitsteht und die Bearbeitung beginnen kann. Bearbeitungszeit eines Auftrags n auf Maschine m (pnm ): Die Zeitspanne, die ein Auftrag eine Maschine beansprucht. Unter der gesamten Bearbeitungszeit eines Auftrags (Pn ), wird die Summe der Bearbeitungszeiten eines Auftrags über alle Maschinen verstanden. Liefertermin /Spätestzulässiger Fertigstellungstermin (dn ): Der Liefertermin ist der Zeitpunkt, zu dem der Auftrag abgeliefert werden muß. Kann ein Auftrag vor diesem Termin abgeliefert werden, muß er aber spätestens zu diesem Termin abgeliefert werden, so erscheint es angebracht, den Begriff des Liefertermins durch den Begriff des spätestzulässigen Fertigstellungstermins zu ersetzen. 10 Vgl.

Pinedo (1995, S.94). Rajendran u. Ziegler (1997, S.569). 12 Vgl. Pinedo (1995, S.94). 11 Vgl.

2.1

2.1.2

Seite 8

Spezifikation des in der Arbeit betrachteten Permutation Flow Shop Problems

Im Folgenden soll das in dieser Arbeit betrachtete Problem spezifiziert werden. Um die Vergleichbarkeit mit den in der Literatur veröffentlichten Ansätzen und Ergebnissen zu gewährleisten, werden die dort üblichen Annahmen weitgehend übernommen.13 1. Ein Produktionsprogramm mit N Aufträgen wird auf M unabhängigen Maschinen gefertigt. 2. Auf jeder Fertigungsstufe gibt es nur eine Maschine und alle n = 1(1)N Aufträge werden mit der gleichen Maschinenfolge m = 1(1)M gefertigt (Flow Shop). 3. Die Auftragsfolge π ist auf allen m = 1(1)M Maschinen gleich (Permutation Flow Shop). 4. Das Unterbrechen der Bearbeitung eines Auftrags ist nicht zulässig (kein Lossplitting). 5. Ein Auftrag kann zu einem Zeitpunkt immer nur auf einer Maschine bearbeitet werden (geschlossener Lostransport). 6. Eine Maschine kann zu einem Zeitpunkt immer nur einen Auftrag bearbeiten (keine Parallelproduktion). 7. Die Bearbeitungszeiten und spätestzulässigen Fertigstellungstermine aller Aufträge sind vorgegeben und bekannt und das Problem ist damit deterministisch (keine Schwankungen der Bearbeitungszeiten, keine intensitätsmäßige Anpassungen möglich). 8. Die Bearbeitungszeiten sind unabhängig von der Auftragsfolge. 9. Die Rüstzeiten sind reihenfolgeunabhängig, in den Bearbeitungszeiten enthalten und damit nicht entscheidungsrelevant. 10. Die Transportzeiten zwischen den Maschinen betragen Null Zeiteinheiten. 11. Die Zwischenlagerkapazitäten sind unbegrenzt. 12. Die Maschinen stehen ohne Unterbrechung während des gesamten Planungszeitraums zur Verfügung (keine wartungs- und störungsbedingten Unterbrechungen). 13 Vgl.

zu den Prämissen 1 bis 13 auch Seelbach (1975, S.16-18).

2.1

Seite 9

13. Die im Produktionsprogramm enthaltenden Aufträge sind alle zu Beginn des Planungszeitraums (d.h. zum Zeitpunkt Null) verfügbar. D.h. es gilt: rn = 0, n = 1(1)N (statisches Reihenfolgeproblem). 14. Nach Abschluß der Fertigung der N Aufträge wird ein neues Produktionsprogramm in das Fertigungssystem eingeplant. Es ist die Menge aller Auftragsfolgen zu ermitteln, deren Zielfunktionsvektoren die effiziente Front bezüglich eines gegebenen Zielsystems im Zielraum bestimmen, diese Menge wird als die Menge aller effizienten Lösungen bezeichnet.14

Abbildung 2.1: Menge aller effizienten Lösungen Abbildung 2.1 zeigt die Zielfunktionsvektoren der 4! = 24 möglichen Auftragsfolgen eines Permutation Flow Shop Problems mit N = 4 Aufträgen. Gesucht sind die Auftragsfolgen deren Zielfunktionsvektoren die effiziente Front bezüglich des aus zwei Zielen bestehenden Zielsystems (z1 , z2 ) bilden. Es sind dies die Auftragsfolgen B, C, D, E und F. Auch wenn der einzelne Planungslauf als statisches und deterministisches Reihenfolgeproblem betrachtet werden kann, so kann das gesamte Fertigungssystem aufgrund von Annahme 14 als dynamisch angesehen 14 Vgl. zur Definition der Menge aller effizenter Lösungen und der effizienten Front Abschnitt 3.1.

2.2

Seite 10

werden. Während der Fertigung des aktuellen Produktionsprogramms treffen weitere Aufträge ein, die aber erst nach Abschluß der Fertigung des aktuellen Programms zur Fertigung freigegeben werden. Das insgesamt dynamische Problem wird dann in einzelne statische Probleme zerlegt. Das betrachtete Permutation Flow Shop Problem gehört zur Klasse der NP-schweren Probleme. Ein Problem wird als NP-schwer bezeichnet, wenn kein Algorithmus zu seiner Lösung bekannt ist, dessen Rechenaufwand durch ein Polynom der Problemgröße nach oben beschränkt ist. Steigt der Rechenaufwand polynomial an, so gehört das Problem der Klasse P, der Klasse der effizient lösbaren Probleme an. Die Bestimmung einer Auftragsfolge, welche die Zykluszeit in einem Permutation Flow Shop minimiert, ist im Fall M ≥ 3 NP-schwer.15 Da die Lösunge dieses Problems Element der Menge aller effizienten Lösungen ist, ist auch das Problem der Ermittlung dieser Menge aller effizienten Lösungen NP-schwer. Wäre das Problem nicht NP-schwer, so gäbe es auch einen polynomialen Algorithmus zur Bestimmung von Auftragsfolgen mit minimaler Zykluszeit bzw. minimaler Durchlaufzeit. Im folgenden Abschnitt, soll aufbauend auf die soeben getroffenen Annahmen das betrachtete Zielsystem spezifiziert werden.

2.2

Das betrachtete Zielsystem

2.2.1

Ziele für das Permutation Flow Shop Problem

2.2.1.1

Die Gewinnmaximierung als Beurteilungsmaßstab

Aus betriebswirtschaftlicher Sicht hat sich die Lösung des vorliegenden Planungsproblems am erwerbswirtschaftlichen Prinzip zu orientieren. Dieses fordert, daß der Gewinn zu maximieren ist. Auf die Erlöse hat die Reihenfolgeentscheidung kurzfristig keinen Einfluß, da diese durch die vorgelagerte Absatz- und Produktionsprogrammplanung vorgegeben sind.16 Daher hat sich die Reihenfolgeentscheidung primär an der Minimierung der entscheidungsrelevanten Kosten zu orientieren. Als entscheidungsrelevante Kosten können Lager-, Rüst- sowie Terminabweichungskosten angesehen werden. Wie sich zeigen wird, können die häufig diskutierten Leerzeitkosten nicht den entscheidungsrelevanten Kosten zugeordnet werden. Die Erfassung der entscheidungsrelevanten Kosten ist in der Praxis mit 15 Vgl. Pinedo (1995, S.101f.). Lediglich im Fall von nur 2 Maschinen kann das Problem mit Hilfe des Johnson-Algorithums in polynomialer Zeit gelöst werden (vgl. Johnson (1954, S.64); Pinedo (1995, S.97f.)). 16 Vgl. Seelbach (1975, S.32).

2.2

Seite 11

Schwierigkeiten behaftet,17 so daß als Ersatzziele häufig Zeitziele verwendet werden. Bei der Verfolgung dieser Ersatzziele wird unterstellt, daß sie die eigentlichen, monetären Ziele positiv beeinflussen. Neben der Minimierung der entscheidungsrelevanten Kosten kann es laut Dinkelbach (1962) durchaus sinnvoll sein, weitere Ziele zu verfolgen, die kurzfristig keine, jedoch langfristig durchaus eine Wirkung auf den Gewinn entfalten können.18 Zunächst soll in den Abschnitten 2.2.1.2 und 2.2.1.3 die Erfassung der Lager- und Terminabweichungskosten dargestellt werden. Da die Rüstzeiten in dieser Arbeit reihenfolgeunabhängig sind, sind die dazugehörigen Rüstkosten ebenfalls reihenfolgeunabhängig und damit nicht entscheidungsrelevant. Aus diesem Grund werden sie in dieser Arbeit nicht weiter diskutiert. Im Anschluß an die entscheidungsrelevanten Kosten sollen dann die Leerzeiten und die in der Literatur häufig verwendete Zykluszeit als Zielkriterium diskutiert werden.19 2.2.1.2

Lagerkosten des Fertigungsbestandes

Die Lagerkosten der Aufträge des Produktionsprogramms setzen sich zusammen aus den Kapitalbindungskosten, den Lagerraumkosten sowie weiteren Lagerhaltungskosten, welche z.B. durch die Materialhandhabung entstehen. Als Kapitalbindungskosten werden hier die Zinsen auf das Kapital verstanden, welches in den Aufträgen des Produktionsprogramms gebunden ist.20 Das gebundene Kapital ist wiederum abhängig von der wertmäßigen Höhe des Auftragsbestandes, dem Kapitalkostensatz sowie der Kapitalbindungsdauer. Nach Seelbach u. Zimmermann (1973) setzt sich in einem Produktionsbetrieb die Kapitalbindungsdauer aus folgenden Komponenten zusammen: ”den [...] Zahlungsfristen, der Lagerdauer der Produktionsfaktoren, der Produktionsdauer einschließlich etwaiger Zwischenlagerungen und der Lagerdauer der Fertigerzeugnisse [...].21 Die Zahlungsfristen22 sowie die Lagerdauer der Werkstoffe bis zum 17 Neben der Ermittlung der Kostengrößen stellt auch das auszuwertende Datenvolumen einen Grund für die Verwendung von Ersatzmaßen da (vgl. Stefenelli (2000, S.7)). 18 Vgl. Dinkelbach (1962, S.739). Vor diesem Hintergrund wird die Minimierung der Zykluszeit in Abschnitt 2.2.1.4 auf Seite 16 diskutiert und in das in dieser Arbeit betrachtete Zielsystem aufgenommen. 19 Eine ausführliche Diskussion entscheidungsrelevanter Kosten der Reihenfolgeplanung findet sich in Stefenelli (2000) sowie der dort angegebenen Literatur. 20 Vgl. hierzu und den folgenden Satz Seelbach (1975, S.33). 21 Seelbach u. Zimmermann (1973, S.338). Problematisch ist der Begriff des Produktionsfaktors, zu denen streng genommen z.B. auch Arbeitskräfte gehören. Diese werden jedoch nicht gelagert. Aus diesem Grund wird im Folgenden von der Lagerdauer der Werkstoffe gesprochen. 22 Zahlungsfristen meint hier sowohl die vom Unternehmen einzuhaltenden Zahlungsfristen für fremdbeschafte Einsatzmaterialien, als auch die dem Kunden gewährten Zahlungsfristen

2.2

Seite 12

Planungszeitpunkt sind durch die Reihenfolgeplanung nicht beeinflussbar, wie auch die in dem hier betrachteten Modell als reihenfolgeunabhängig angenommenen Bearbeitungszeiten. Nach Günther (1971) kann sich die ablaufbedingte Wartezeit eines Auftrags aus der Vorlagerzeit, den Zwischenlagerzeiten sowie der Nachlagerzeit zusammensetzen.23 Die Vorlagerzeit des Auftrags ist die Zeit, die vom Ankunftszeitpunkt in der Fertigung bis zum Beginn der Bearbeitung auf der ersten Maschine vergeht. Die Zwischenlagerzeiten sind die Zeiten, die ein Auftrag nach dem Abschluß der Bearbeitung auf einer Maschine bis zum Beginn der Bearbeitung auf der nächsten Maschine warten muß. Die Nachlagerzeit bezeichnet die Zeitspanne von der Fertigstellung des Auftrags bis zu seiner Auslieferung.24 Seelbach (1975) zählt die Nachlagerzeiten nicht zu den Wartezeiten eines Auftrags25 . Werden die Aufträge bis zu einem Auslieferungstermin gelagert, so können die Kapitalbindungskosten der Nachlagerzeit als Terminunterschreitungskosten interpretiert werden. Die Kosten über die Terminunterschreitung zu erfassen macht auch deswegen Sinn, da die gefertigten Aufträge im Allgemeinen nicht mehr zum Fertigungsbestand gezählt werden. Im in dieser Arbeit betrachteten Problem beträgt die Nachlagerzeit immer Null, da alle Aufträge unmittelbar nach ihrer Fertigstellung ausgeliefert werden (vgl. Annahme 7). Somit bleiben die Wartezeiten der Aufträge vor den einzelnen Maschinen als einzige von der Reihenfolgeplanung zu beeinflussende Komponente der Lagerkosten des Fertigungsbestandes. Die Summe der Wartezeiten aller Aufträge ergibt die Gesamtwartezeit.26 Der Erfassung der Lagerkosten stellen sich nun im wesentlichen zwei Erfassungsprobleme entgegen. Das erste Problem besteht in der ”richtigen” Ermittlung des Kapitalkostensatzes.27 Auch die Erfassung der Kostensätze je Zeiteinheit für die einzelnen Aufträge ist nicht unproblematisch.28 Aus diesen Gründen wird, unter der Annahme gleicher, konstanter Kostensätze für alle Aufträge, in Lösungsansätzen für das Permutation Flowshop Problem häufig die Minimierung der Summe der Wartezeiten als Ziel verfolgt. Mit sinkenden Wartezeiten sind auch sinkende Lagerkosten zu erwarten. für verkaufte Erzeugnisse und Materialien. 23 Vgl. Günther (1971, S.29). Die Aufnahme der unterschiedlichen Lagerzeiten in die ablaufbedingte Wartezeit wird bei Günther (1971, S.29f.) diskutiert. 24 Vgl. zu den Definitionen Seelbach (1975, S.14) und Günther (1971, S.29). Keine der beiden Arbeiten definiert die Vorlager- und Zwischenlagerzeit eindeutig. Die hier angegebene Definition erscheint jedoch aus dem Kontext heraus schlüssig. 25 Vgl. Seelbach (1975, S.14). 26 Vgl. Seelbach (1975, S.14). 27 Vgl. Seelbach (1975, S.34). 28 Vgl. Seelbach (1975, S.34).

2.2

Seite 13

Die Wartezeit eines Auftrags n (Wn ) ergibt sich als die Summe seiner Wartezeiten vor den einzelnen Maschinen wnm : M X

Wn =

(2.1)

wnm

m=1

Die Summe der Wartezeiten aller N Aufträge (Wsum ) beträgt damit: Wsum =

N X

Wn =

n=1

N X M X

wnm

(2.2)

n=1 m=1

Aufgrund der reihenfolgeunabhängigen Bearbeitungszeiten eines Auftrags entspricht die Minimierung der Wartezeit eines Auftrags (Wn ) der Minimierung seiner Durchlaufzeit (Fn ): Fn =

M X

(pnm + wnm ) = Pn + Wn

(2.3)

m=1

Die Durchlaufzeit eines Auftrags ist hier also definiert als die Zeitspanne, welche vom Eintreffen des Auftrags in der Produktion bis zur Beendigung des Arbeitsgangs auf der letzten Maschine vergeht. Die Gesamtdurchlaufzeit (Fsum ) ergibt sich somit zu:29 Fsum =

N X n=1

Fn =

N X M X

(pnm + wnm )

(2.4)

n=1 m=1

Da die Anzahl der Aufträge N ebenfalls konstant ist, ist die Minimierung der mittleren Durchlaufzeit (Fmid ) ebenfalls äquivalent zu den letztgenannten Zielen.

Fmid =

N 1 X Fn N n=1

(2.5)

Die Durchlaufzeit eines Auftrags ergibt sich alternativ aus dem Fertigstellungszeitpunkt des Auftrags (Cn ) abzüglich seines Ankunftzeitpunktes: Fn = Cn −rn . Da der Ankunftszeitpunkt für alle Aufträge annahmegemäß30 Null beträgt, entsprechen sich der Fertigstellungszeitpunkt eines Auftrags und seine Durchlaufzeit. In dieser Arbeit wird die mittlere Durchlaufzeit in das Zielsystem aufgenommen werden. 29 Aufgrund

der reihenfolgeunabhängigen Bearbeitungszeiten eines Auftrags entspricht die Minimierung der Gesamtdurchlaufzeit (Fsum ) der Minimierung der Summer der Wartezeiten aller N Aufträge (Wsum ). 30 Vgl. Annahme 13.

2.2

Seite 14

2.2.1.3

Terminabweichungskosten

Kosten der Terminunterschreitung können entstehen, falls ein Auftrag vor seinem Liefertermin fertiggestellt ist, d.h. es gilt: Cn < dn . Damit wird das von den Wartezeiten nicht erfaßte Zeitintervall vom Abschluß des letzten Bearbeitungsschritts bis zur Auslieferung erfaßt. In dem hier betrachteten Problem wird angenommen, daß die Aufträge sofort nach ihrer Fertigstellung ausgeliefert werden,31 so daß die Aufnahme eines Ziels zur Berücksichtigung dieser Lagerkosten in das Zielsystem entfallen kann. Kosten aufgrund einer Terminüberschreitung (Cn > dn ) können aufgrund von Konventionalstrafen, notwendig gewordenen Preisnachlässen oder Warterabatten entstehen.32 Auch Goodwill-Verluste z.B. in Form von entgangenen Folgeaufträgen können als Terminüberschreitungskosten angesehen werden.33 Sind Konventionalstrafen, Preisnachlässe und Warterabatte durchaus kostenmäßig quantifizierbar,34 so stellt sich bei den Goodwill-Verlusten erneut ein Erfassungs- und Bewertungsproblem. So ist es einfach nicht möglich exakt vorherzusagen, welche Auswirkungen eine verspätete Lieferung auf den Ruf des Unternehmens als zuverlässiger Lieferant hat und ob und wieviele zukünftige Aufträge daher für das Unternehmen verloren gehen. Bei den Terminüberschreitungen werden im wesentlichen folgende Zielgrößen verwendet, welche ebenfalls zu minimieren sind: Summe der Terminüberschreitungen:

Tsum =

N X

max{0 ; Cn − dn }

(2.6)

n=1

Mittlere Terminüberschreitung:35

Tmid

N 1 X = max{0 ; Cn − dn } N n=1

(2.7)

Maximale Terminüberschreitung: Tmax = max {0 ; Cn − dn }

(2.8)

n=1(1)N

31 Vgl.

Annahme 7. Seelbach (1975, S.37), Blohm u. a. (1988, S.273f.). 33 Vgl. Blohm u. a. (1988, S.274). 34 So sind z.B. Konventionalstrafen in der Regel Bestandteil des Lieferantenvertrages mit dem Kunden (vgl. Stefenelli (2000, S.25). 35 Da in dem in dieser Arbeit betrachteten Permutation Flow Shop Problem die Anzahl der Aufträge N konstant ist, sind die Summe der Terminüberschreitungen und die Mittlere Terminüberschreitung äquivalente Zielgrößen. 32 Vgl.

2.2

Seite 15 Anzahl der terminüberschreitenden Aufträge: NT = |{n | (Cn − dn ) > 0 ; n = 1(1)N }|

(2.9)

Die Summe der Terminüberschreitungen sowie die mittlere Terminüberschreitung minimieren tendenziell die durch die Verspätung entstandenen Kosten, falls diese mit dem Ausmaß der Terminüberschreitung pro Zeiteinheit unverändert bleiben, also ein linearer Kostenverlauf vorliegt.36 Die Minimierung der maximalen Terminüberschreitung wird als Ziel bevorzugt, falls die Kosten je Zeiteinheit Terminüberschreitung mit zunehmender Terminüberschreitung ansteigen.37 In dieser Arbeit wird die maximale Terminüberschreitung verwendet. Entstehen für jeden verspäteten Auftrag fixe Verspätungskosten, welche unabhängig vom Ausmaß der Verspätung sind, so ist die Anzahl der terminüberschreitenden Aufträge eine geeignete Zielgröße. 2.2.1.4

Leerzeitkosten und Kapazitätsauslastung

Die Minimierung des maximalen Fertigstellungszeitpunktes (Zykluszeit) ist das wohl am häufigsten verfolgte Ziel in Arbeiten, welche das Permutation Flow Shop Problem betrachten.38 Die Zykluszeit ist wie folgt definiert: Cmax = max {Cn }

(2.10)

n=1(1)N

Als Begründung für ihre Wahl wird häufig angeführt, die Kapazitätsauslastung sei zu maximieren, bzw. die Leerzeiten der Maschinen zu minimieren und damit letztendlich die Leerzeitkosten. Die Auslastung einer Maschine errechnet sich als Quotient aus der Summe der Bearbeitungszeiten und der Zeit, welche die Maschine zur Verfügung steht. Im deterministischen Fall ist die Summe der Bearbeitungszeiten eine Konstante. Im statischen Fall kann die Annahme getroffen werden, daß die Maschinen solange zur Verfügung stehen, bis der letzte Bearbeitungsschritt des letzten Auftrags abgeschlossen ist. Da alle Aufträge zum Planungszeitpunkt Null zur Verfügung stehen entspricht dieser Zeitraum der Zykluszeit. Die durchschnittliche Kapazitätsauslastung des Fertigungsbereichs ergibt sich im statischen Fall damit zu:39 36 Vgl.

Holthaus (1996, S.12), sowie Paulik (1984, S.141). Holthaus (1996, S.12). 38 Vgl. Pinedo (1995, S.104) sowie Zäpfel (1982, S.249). 39 Vgl. zu diesen Ausführungen und zu einer Diskusion der Kapazitätsauslastung im dynamischen Fall Conway u. a. (1967, S.14). 37 Vgl.

2.2

Seite 16

N P M P

U=

pnm

n=1 m=1

(2.11)

M · Cmax

Die Minimierung der Zykluszeit führt aufgrund der konstanten Bearbeitungszeiten zur einer Maximierung von U . Ebenso führt sie zu einer Minimierung der Leerzeiten. Die Leerzeit auf Maschine m errechnet sich als: Im = Cmax −

N X

(2.12)

pnm

n=1

Die durchschnittliche Maschinenleerzeit ergibt sich dann zu:

1 I= M

M X m=1

Cmax −

M X N X m=1 n=1

! pnm

= Cmax −

M N 1 XX pnm M m=1 n=1

(2.13)

Ist das Problem in der Realität grundsätzlich dynamisch, so wird in dieser Arbeit ein daraus entwickeltes statisches Problem behandelt.40 Die mit den Leerzeiten assoziierten Kosten stellen keine kurzfristigen entscheidungsrelevanten Kosten dar.41 Aus der Sicht der operativen Planungsaufgabe, eine Auftragsfolge zu bestimmen, stellen die Kosten der Kapazitätsbereitstellung fixe Kosten dar.42 Es ist fraglich, ob die Leerzeiten mit Opportunitätskosten bewertet werden können. Eine schlechte Ausnutzung der Kapazitäten kann zu einer verspäteten Fertigstellung von Aufträgen führen.43 Diese Verspätungskosten sind jedoch bereits in den in Abschnitt 2.2.1.3 diskutierten Terminüberschreitungskosten erfaßt. Dennoch kann es sinnvoll sein, die Zykluszeit als weiteres Ziel zu betrachten. Sie stellt sicher, daß möglichst früh ein neuer Block von Aufträgen in das Fertigungssystem eingeplant werden kann, was die Flexibilität in der Zukunft erhöht. Weiterhin kann ein zu großzügiger Umgang mit den Kapazitäten dazu führen, daß Aufträge in der Zukunft aus Kapazitätsmangel abgelehnt werden müssen. Diese eventuell entgangenen Gewinne können durchaus als Opportunitätskosten betrachtet werden. Jedoch sind sie weder sicher, noch betreffen sie die aktuelle Planungsperiode. Des weiteren wird das Risiko reduziert, daß zukünftige Aufträge aufgrund zu geringer Kapazität zu spät fertiggestellt werden und damit Terminüberschreitungskosten in zukünftigen Planungszeiträumen entstehen. Schließ40 Vgl.

dazu auch Abschnitt 2.1.2. Seelbach (1975, S.35). 42 Vgl. Seelbach (1975, S.35). 43 Vgl. Seelbach (1975, S.36). 41 Vgl.

2.2

Seite 17

lich liefert die Zykluszeit Informationen darüber, welche Zeit mindestens benötigt wird, um die Aufträge in einer gegebenen Auftragsfolge zu fertigen. Die Zykluszeit läßt sich daher nicht über eine Kostengröße begründen, ihre Aufnahme in das Zielsystem als zu minimierende Größe kann jedoch in ihrer Funktion als Steuer- und Kontrollparameter vertreten werden.44 2.2.1.5

Zielsystem und Berechnung der Fertigstellungszeitpunkte der Aufträge

Das in dieser Arbeit betrachtete Zielsystem besteht aus der mittleren Durchlaufzeit, der maximalen Terminüberschreitung sowie der Zykluszeit. Alle drei Ziele sind zu minimieren, so daß sich mit π als Auftragsfolge und Π als Menge aller möglichen Auftragsfolgen (Lösungsraum), das Problem wie folgt formulieren läßt. 

 Fmid (π)   M IN ! z(π) =  Cmax (π)  , π ∈ Π Tmax (π)

(2.14)

Damit liegt ein diskretes Vektorminimierungsproblem vor.45 Ermittelt werden können die Fertigstellungszeitpunkte der Aufträge und damit auch die Zykluszeit mit Hilfe folgender rekursiver Gleichungen, wobei Cnm für den Fertigstellungszeitpunkt von Auftrag n auf Maschine m und π[h] für den Auftrag auf Position h in der Auftragsfolge π steht:46 1. Bestimmen der Fertigstellungszeitpunkte des ersten Auftrags auf den einzelnen Maschinen: Cπ[1] m =

m X

pπ[1] u ; m = 1(1)M

(2.15)

u=1

2. Bestimmen der Fertigstellungszeitpunkte der Aufträge h ≥ 2 auf der ersten Maschine:

Cπ[h] 1 =

h X

pπ[v] 1 ; h = 2(1)N

(2.16)

v=1

44 Vgl.

Seelbach (1975, S.36), Dinkelbach (1962, S.739). Vektoroptimierungsprobleme sowie Ihre Lösung mit Hilfe von Kompromißmodellen werden in Kapitel 3 näher betrachtet. 46 Vgl. Pinedo (1995, S.94). 45 Diskrete

2.2

Seite 18

3. Bestimmen der restlichen Fertigstellungszeitpunkte:

Cπ[h] m

=

 max Cπ[h−1] m ; Cπ[h] ,m−1 + pπ[h] m ;

(2.17)

h = 2(1)N ; m = 2(1)M

2.2.2

Analyse der Zielbeziehungen

Bisher wurden die Ziele lediglich aufgrund ihres Einflusses auf bestimmte Komponenten der entscheidungsrelevanten Kosten bzw. hinsichtlich ihrer Steuer- und Kontrollfunktion beurteilt und in das Zielsystem aufgenommen. Eine Analyse der drei im Zielsystem enthaltenen Ziele dahingehend, ob sie sich komplementär, neutral oder konfliktionär zueinander verhalten ist bislang nicht erfolgt. Komplementäre Ziele: Zwei Ziele verhalten sich zueinander komplementär47 , wenn beim Sinken des Zielfunktionswertes des einen Ziels auch der Zielfunktionswert des anderen Ziels sinkt. Die individuell optimalen Lösungen der beiden Ziele stimmen daher überein.48 Konkurrierende Ziele: Zwei Ziele verhalten sich konkurrierend49 , wenn das Sinken des Zielfunktionswertes des einen Ziels einhergeht mit dem Steigen des anderen Zielfunktionswertes. Die individuell optimalen Lösungen der Ziele stimmen demnach nicht überein.50 Unabhängige Ziele: Zwei Ziele sind unabhängig,51 wenn zwischen der Entwicklung der Zielfunktionswerte der Ziele kein Zusammenhang besteht.52 Es ist weiterhin zu unterscheiden, ob die Zielbeziehung über den gesamten Lösungsraum vorliegt oder ob sie in verschiedenen Teilen des Lösungsraums unterschiedlich ausgeprägt ist. In diesem letzten Fall würden dann bereichsweise Zielbeziehungen vorliegen. Bereits Gutenberg (1951) hat unter dem Begriff des ”Dilemmas der Arbeitsablaufplanung” den Konflikt zwischen dem Ziel der Minimierung der 47 Diese

Ziele werden mitunter auch als kumulative Ziele oder gleichgerichtete Ziele bezeich-

net. 48 Vgl. Dinkelbach (1982, S.158f.). Diese und die folgenden beiden Definitionen beziehen sich jeweils auf Minimierungsprobleme. 49 Statt konkurrierend werden auch die Begriffe konfliktionär oder gegenläufig verwendet. 50 Vgl. Dinkelbach (1982, S.158f.). 51 Statt unabhängig werden auch die Begriffe neutral oder indifferent verwendet. 52 Vgl. Dinkelbach (1982, S.158f.).

2.2

Seite 19

Wartezeiten der Aufträge und dem Ziel der Minimierung der Leerzeiten der Maschinen beschrieben.53 Schweitzer (1967) hat das Dilemma zu einem Polylemma, bestehend aus fünf Zielen, erweitert.54 Mensch (1972) hingegen beschreibt lediglich ein Trilemma der drei Ziele der Minimierung der Wartezeiten, der Minimierung der Leerzeiten sowie der Minimierung der Rüstzeiten. Das Ziel der Termineinhaltung ist für ihn lediglich eine Nebenbedingung.55 Die Ersatzziele sind jedoch nicht vollständig konkurrierend. So gibt es für die in dieser Arbeit betrachteten drei Ziele durchaus Probleminstanzen, in denen die individuell optimalen Lösungen für alle drei Ziele gleich sind. Günther (1971) hat in seiner Arbeit das ”Dilemma der Arbeitsablaufplanung” und die dazu erschienene Literatur einer ausführlichen Analyse unterzogen.56 Eine anschließend durchgeführte Analyse der Beziehung zwischen unterschiedlichen Zielen, wobei erneut Beispiele und Diskussionen aus der Literatur aufgegriffen wurden, hat gezeigt, daß die jeweils betrachteten Ziele nicht vollständig konfliktionär sind, sondern sich in einem hohen Maß komplementär zueinander verhalten.57 Die meisten in der von Günther (1971) gesichteten Literatur untersuchten Probleme sind jedoch sehr klein und so hat Günther (1971) selber darauf hingwiesen, daß es für eine genaue Aussage der Analyse mehrerer größerer Probleme bedarf.58 Aus diesem Grund wurde in der vorliegenden Arbeit eine Korrelationsanalyse über 120 Testprobleme59 mit 4, 6, 8 und 10 Aufträgen und 5, 10 und 20 Maschinen durchgeführt.Für jede der 12 Kombinationen aus Auftragszahl und Maschinenzahl wurden jeweils 10 Probleminstanzen gebildet. Jedes Problem wurde vollständig enumeriert und anschließend die Korrelation zwischen jeweils zwei Zielen berechnet. Zur Berechnung der Korrelation wurde der Korrelationskoeffizient nach P EARSON verwendet, der sich wie folgt berechnet:60 53 Vgl. Gutenberg (1951, S.158-162). Die Darstellung des Dilemmas hat sich ab der zehnten Auflage geändert. Eine Diskussion dieser Veränderung kann in Günther (1971, S.10-12) nachgelesen werden. 54 Schweitzer (1967) betrachtet die folgenden fünf Ziele: Minimierung der Gesamtlagerzeiten(-kosten), Minimierung der Gesamtvorbereitungszeiten(-kosten), Minimierung der Terminüberschreitungen(-kosten), Minimierung der Durchlaufzeiten, Minimierung der Wartezeiten (vgl. dazu Schweitzer (1967), insbesondere die Seiten 291-293). 55 Vgl. Mensch (1972), insbesondere Seite 82. 56 Vgl. Günther (1971, S.45-78), sowie die dort angegebene Literatur. 57 Vgl. Günther (1971, S.46 u. 86-107). 58 Vgl. Günther (1971, S.74 u. 90). 59 Zur Generierung dieser Testprobleme vgl. Anhang A und B. 60 Vgl. Schaich u. a. (1993, S.92). Für die Implementation in C++ siehe Dietmar (1991, S. 148f.).

2.2

Seite 20

N

N P

xi yi −

N P

xi

 N P

 yi

i=1 i=1 i=1 ρ = v" # " u  N 2 #   2 N N N u P P P P t N yi yi2 − N xi x2i − i=1

i=1

(2.18)

i=1

i=1

Da für N < 30 der Korrelationskoeffizient unterschätzt wird, wurde die von Dietmar (1991) berücksichtigte und von O LKIN U. P RATT (1958) vorgeschlagene Korrektur verwendet:61   1 − ρ2 ρkorr = ρ 1 + 2(N − 3)

(2.19)

Tabelle 2.2 gibt die durchschnittlichen Korrelationen für die einzelnen Problemgrößen an N

M

Cmax − Fmid

Cmax − Tmax

Fmid − Tmax

5 10

0,6405 0,5011

0,5052 0,7131

0,7247 0,6159

20

0,3635

0,5515

0,3856

5 10 20

0,5017 0,5941 0,6106 0,3922

0,5899 0,5533 0,8261 0,5947

0,5754 0,7662 0,6530 0,5795

0,5323

0,6580

0,6662

0,5941

0,7154

0,7174

0,4486 0,5056 0,5161 0,5253 0,5936

0,7776 0,7066 0,7332 0,6860 0,7681

0,5428 0,6336 0,6313 0,6568 0,7024

10

0,5578 0,5589

0,7284 0,7275

0,6469 0,6687

Total

0,5273

0,6772

0,6354

4

6 5 10 20 8 5 10 20

Tabelle 2.2: Korrelation der Ziele im betrachteten Zielsystem Es zeigt sich eine mittlere bis starke Korrelation der Zielfunktionswerte. Die Ziele verhalten sich somit in einem mittleren bis starken Maße komplementär zueinander. Seelbach (1975) kommentierte bereits die gleichen Beobachtungen von Günther (1971) dahingehend, daß sich die festgestellte Gleichgerichtetheit der Ziele damit erklären läßt, daß die betrachteten Ziele der Gruppe der regulären Ziele angehören.62 Nach Conway u. a. (1967) 61 Vgl. 62 Vgl.

Olkin u. Pratt (1958, S.201) sowie Dietmar (1991, S. 148f.). Seelbach (1975, S.39) und Günther (1971, S.86-107).

2.2

Seite 21

ist ein reguläres Ziel wie folgt definiert:63 1. Ein reguläres Ziel ist eine Funktion der Fertigstellungszeitpunkte der einzelnen Aufträge. 2. Reguläre Ziele steigen nur dann an, falls mindestens ein Fertigstellungszeitpunkt ansteigt. Es seien zwei Auftragsfolgen π und π 0 gegeben: zk (π) = f (C[π1 ] ; C[π2 ] ; ... ; C[πh ] ; ... ; C[πN ] )

(2.20)

0 ]) zk (π 0 ) = f (C[π10 ] ; C[π20 ] ; ... ; C[πh0 ] ; ... ; C[πN

(2.21)

Ziel k ist ein reguläres Ziel, d.h. es gilt: zk (π 0 ) ≥ zk (π), wenn und nur wenn C[πh0 ] > C[πh ] für mindestens ein h, h = 1(1)N , gilt.64 Seelbach (1975) merkt an, ”[...] daß für alle regulären Zielsetzungen gemeinsam Teile der Gesamtlösung aufgrund bestimmter Kriterien als nichtoptimal ausgesondert werden können. Erst bei der Wahl des bezüglich eines Zielkriteriums optimalen Planes aus der Restmenge können Abweichungen auftreten.”65 Diese Aussage von Seelbach (1975) kann dahingehend interpretiert werden, daß bereichsweise Zielbeziehungen vorliegen. Außerhalb des Teils des Lösungsraums, in dem die individuell optimalen Lösungen der einzelnen Ziele liegen, besteht tendenziell Zielkomplementarität. Innerhalb besteht ein Konflikt zwischen den einzelnen Zielen.66 Für einen Ansatz, welcher die Menge aller effizienten Lösungen ermitteln möchte, würde dies bedeuten, daß er sich bei der Suche zum Auffinden der effizienten individuell optimalen Lösungen aller drei im Zielsystem berücksichtigten Ziele, auf einen Teil des Lösungsraums konzentrieren kann. Die Frage, ob die individuellen globalen Optima der Ziele in einem begrenzten Bereich des Lösungsraums liegen, wie dieser Bereich definiert ist und wie groß dieser ist, wird in Abschnitt 5.5 ausführlich diskutiert werden.

63 Vgl.

Conway u. a. (1967, S.12). u. a. (1967, S.12) machen in ihrer Arbeit keine Aussagen darüber, was für die anderen Fertigstellungszeitpunkte gelten muß. Das Sinken eines anderen Fertigstellungszeitpunktes erscheint jedoch unzulässig. Ansonsten müßte ein Verhältnis zwischen dem Ausmaß des Steigendes und Sinkens der Fertigstellungszeitpunkte ermittelt werden, von dessen Wert dann das Steigen oder Sinken der Zielgröße abhängig gemacht wird. 65 Seelbach (1975, S.39). 66 Dieser Aspekt wird in Abschnitt 5.5.2.2 nochmals aufgegriffen. 64 Conway

Kapitel 3

Das multikriterielle PFSP als Vektorminimierungsproblem 3.1

Einführung

Formal läßt sich ein Vektorminimierungsmodell wie folgt darstellen: M IN z(π) = (z1 (π), ..., zK (π))

(3.1)

π∈Π

(3.2)

mit:

Es sind K Zielfunktionen gleichzeitig zu minimieren.1 Dabei wird davon ausgegangen, daß der Entscheidungsträger kleine Zielfunktionswerte größeren vorzieht. Dies ist keine Einschränkung bezüglich der Präferenzen des Entscheidungsträgers. Zum einen kann jedes Maximierungsproblem durch Multiplikation der Zielfunktion mit minus Eins in ein Minimierungsproblem umgewandelt werden und umgekehrt. Zum anderen können Approximierungsziele des Entscheidungsträgers mittels geeigneter Abstandsfunktionen in Extremierungsziele transformiert werden. Satisfizierungsund Fixierungsziele hingegen müssen über Nebenbedingungen berücksichtigt werden.2 Eine mögliche Lösung wäre in diesem Fall auf ihre Zulässig1 Vgl. Dinkelbach (1982, S.156). Bei dem in dieser Arbeit betrachteten Problem ist K = 3 und die Lösungsmenge Π wird durch alle N ! möglichen Auftragsfolgen gebildet. 2 Vgl. Dinkelbach (1982, S.154f.).

3.1

Seite 23

keit hin zu überprüfen. Die Minimierung oder Maximierung eines Skalars ist eindeutig definiert. Im Fall der Vektoroptimierung ist dies zunächst nicht gegeben, da der Zielraum Z(Π) keine natürliche Ordnung aufweist, sobald eine vektorielle Betrachtung erfolgt.3 Somit ist es nicht immer möglich eine eindeutige Aussage darüber zu treffen, ob ein Vektor kleiner oder größer ist als ein anderer. Wenn es aber nicht immer einen eindeutig kleinsten Vektor gibt, wie kann dann eine Lösung für Gleichung 3.1 und damit eine Lösung des Vektorminimierungsproblems bestimmt werden? Eine sehr allgemeine Herangehensweise an dieses Problem ist, die Lösung des Problems als den vom Entscheidungsträger am stärksten präferierten Zielfunktionsvektor zu definieren.4 Wann immer Präferenzen des Entscheidungsträgers bei der Lösungsfindung oder -beurteilung eine Bedeutung zukommt, unterliegen diese stark subjektiven Einflüssen.5 Allgemein anerkannt ist jedoch, daß die Lösung des Problems aus einer oder allen effizienten Lösungen besteht. Dies entspricht der allgemeinen Akzeptanz einer, wenn auch sehr schwachen Annahme über die Präferenzen des Entscheidungsträgers, daß dieser effiziente Alternativen den nicht effizienten bzw. dominierten Alternativen vorzieht.6 Diese Annahme baut auf der Monotonie-Annahme auf, die besagt, daß die Präferenz eines Entscheidungsträgers für eine Lösung nicht abnimmt, falls ein Wert eines Ziels k c.p. sinkt.7 Im Folgenden sollen die hier verwendeten Relationsoperatoren definiert werden, bevor anschließend der Begriff der strengen sowie schwachen Effizienz eingeführt wird:8 z(π 0 ) ≤ z(π ◦ ) gilt, wenn zk (π 0 ) 5 zk (π ◦ )∀k = 1(1)K und zk0 (π 0 ) < zk0 (π ◦ ) für mind. ein k 0 ∈ 1, ..., K. z(π 0 ) 5 z(π ◦ ) bedeutet, daß zk (π 0 ) < zk (π ◦ ) oder zk (π 0 ) = zk (π ◦ ) ∀k = 1(1)K gilt. Es kann somit auch zk (π 0 ) = zk (π ◦ )∀k = 1(1)K gelten. z(π 0 ) = z(π ◦ ) gilt also, wenn zk (π 0 ) = zk (π ◦ )∀k = 1(1)K. Strenge Effizienz: Eine (zulässige) Lösung π ◦ ∈ Π ist streng effizient (nicht dominiert), falls es keine andere (zulässige) Lösung π 0 ∈ Π gibt, die bezüglich aller Ziele zumindest gleich gute und für mindestens 3 Vgl.

Rosenthal (1985, S.135). Rosenthal (1985, S.135). 5 Vgl. Rosenthal (1985, S.135). 6 Vgl. Rosenthal (1985, S.138). 7 Vgl. Rosenthal (1985, S.138). 8 Vgl. Dinkelbach (1982, S.157). 4 Vgl.

3.1

Seite 24 ein Ziel einen besseren Zielfunktionswert aufweist. Also: π ◦ ∈ Π ist effizient falls @ π 0 ∈ Π mit z(π 0 ) ≤ z(π ◦ ) und π 0 6= π ◦ .9

Synonym zum Begriff der strengen Effizienz kann der Begriff des strengen Pareto-Optimums verwendet werden.10 Von der strengen Effizienz, bzw. dem strengen Pareto-Optimum ist die schwache Effizienz bzw. das schwache Pareto-Optimum zu unterscheiden.11 Schwache Effizienz: Eine (zulässige) Lösung π ◦ ∈ Π ist schwach effizient (ein schwaches Pareto-Optimum), falls es kein π 0 ∈ Π gibt, das bezüglich aller Ziele einen besseren Zielfunktionswert aufweist. Also: π ◦ ∈ Π ist schwach effizient falls @ π 0 ∈ Π mit z(π 0 ) < z(π ◦ ) und π 0 6= π ◦ .12 Effiziente Lösungen lassen sich weiterhin in die zwei Gruppen der ”unterstützten” und ”nicht-unterstützten” Lösungen einteilen.13 ”Unterstützte” effiziente Lösungen sind solche, deren Zielfunktionsvektoren auf dem Rand der konvexen Hülle des Zielraums liegen. Sind sie nicht Element des Randes der konvexen Hülle, so handelt es sich um ”nicht-unterstützte” Lösungen. ”Nicht-unterstütze”, effiziente Lösungen werden stets durch die Konvexkombination zweier anderer effizienter Lösungen dominiert. Diese Unterscheidung ist bei der multikriteriellen Linearen Optimierung ohne Bedeutung, da es dort keine ”nicht-unterstützten” Lösungen geben kann.14 Ein Beispiel (vgl. auch Abb. 3.1 auf der nächsten Seite) soll die bisher diskutierten Begriffe verdeutlichen. Gegeben sei ein bikriterielles Permutation Flow Shop Problem mit N = 4 Aufträgen. Die Zielfunktionsvektoren der 4! = 24 Auftragsfolgen sind in Abbildung 3.1 dargestellt. Die Auftragsfolgen A bis F erfüllen alle die Definition der schwachen Effizienz. Die Auftragsfolge A ist jedoch nicht streng effizient, da sie von Auftragsfolge B dominiert wird. Die Auftragsfolgen C und E stellen ”nicht-unterstützte” effiziente Lösungen dar, da sie nicht Element des unteren Randes der konvexen Hülle sind.15 Dieser untere Rand wird von den ”unterstützten” effizienten Lösungen A, B, D und F beschieben. 9 Vgl.

z.B.Steuer (1986, S.347), Dinkelbach (1982, S.156) oder Soland (1979, S.29). Rosenthal (1985, S.138). 11 Es ist notwendig die strenge und die schwache Effizienz zu unterscheiden, da die später in Abschnitt 3.2 diskutierten Kompromißmodelle nicht alle nur streng effiziente sondern zum Teil auch schwach effiziente Lösungen identifizieren. 12 Vgl. Steuer (1986, S. 221 und 347). 13 Vgl. Ulungu u. Teghem (1994, S.85). 14 Vgl. zu diesen Ausführungen Steuer (1986, S.431f.). 15 Dies erkennt man daran, daß, wenn man in Abbildung 3.1 die Punkte z(B) und z(D) bzw. z(D) und z(F) miteinander verbinden würde, die Punkte z(C) bzw. z(E) oberhalb dieser Verbindungslinien liegen würden. 10 Vgl.

3.1

Seite 25

Abbildung 3.1: Arten effizienter Punkte Aufbauend auf den Definitionen der strengen und schwachen Effizienz sollen im Folgenden die Menge aller effizienten Lösungen und die Menge aller effizienten Zielfunktionsvektoren definiert werden. Die als Lösung des in dieser Arbeit betrachteten Problems gesuchte Menge, ist die Menge aller effizienten Lösungen: Menge aller effizienten Lösungen: E(Π, z) := {π ◦ ∈ Π | @ π 0 ∈ Π mit z(π 0 ) ≤ z(π ◦ )}

(3.3)

Die Menge aller effizienten Lösungen ergibt sich aus den Auftragsfolgen, deren Zielfunktionsvektoren bezüglich den Zielfunktionsvektoren aller anderer Elemente aus Π effizient sind. Menge aller effizienten Zielfunktionsvektoren (effiziente Front): E(z) := {z(π ◦ ) | π ◦ ∈ E(Π, z)}

(3.4)

Die Menge aller effizienten Zielfunktionsvektoren ergibt sich aus den Zielfunktionsvektoren der Elemente der Menge aller effizienten Lösungen. Ebenso könnte die Menge aller schwach effizienten Lösungen definiert

3.1

Seite 26

werden. Die hier definierte Menge aller (streng) effizienten Lösungen (E(Π, z)) ist eine Teilmenge davon.16 Im Zusammenhang mit den im folgenden Abschnitt betrachteten Kompromißmodellen werden weitere Begriffe benötigt, die bereits an dieser Stelle definiert werden sollen. Dabei wird stets von einem Minimierungsproblem ausgegangen. Menge individuell optimaler Lösungen: Die Menge der individuell optimalen Lösungen kann für jedes Ziel einzeln ermittelt werden und besteht aus den Lösungen, die den Zielfunktionswert von Ziel k minimieren.17 Also: Π∗k := {πk∗ ∈ Π | zk (πk∗ ) = min {zk (π) | π ∈ Π}}

(3.5)

Idealzielpunkt: Der Idealzielpunkt ist ein Vektor, welcher für jede Zielgröße k die kleinste bei allen Elementen des Lösungsraums vorkommende Ausprägung enthält.  id T z id := z1 (π1id ), ..., zK (πK ) ∈ RK

(3.6)

πkid ∈ argmin {zk (π) | π ∈ Π)}

(3.7)

mit:

Alternativ kann πkid wie folgt bestimmt werden:18 ( πkid ∈ argmin zk (π) | π ∈

K [

) Π∗k

(3.8)

k=1

D.h. es genügt zu seiner Bestimmung die Elemente der K Mengen der individuell optimalen Lösungen zu betrachten. Der Idealzielpunkt muß keiner existierenden (zulässigen) Lösung entsprechen. Eine Lösung, die den Idealzielpunkt als Zielfunktionsvektor besitzt, K T wird als perfekte Lösung bezeichnet. Diese existiert, falls gilt: Π∗k 6= k=1

∅. Ein Zielkonflikt liegt somit offensichtlich genau dann vor, wenn gilt: 16 Vgl.

Steuer (1986, S.347). Dinkelbach (1982, S.158). 18 Vgl. die Definition des Idealzielpunkts bei Dinkelbach (1982, S.158) sowie Ehrgott u. Tenfelde-Podehl (2003, S.120). Ehrgott u. Tenfelde-Podehl (2003, S.120) verwenden zur Ermittlung alleine die Elemente von E(Π, z). Die Bestimmung von πkid würde dann wie folgt notiert: πkid ∈ argmin {zk (π) | π ∈ E(Π, z)}. 17 Vgl.

3.1 K T k=1

Seite 27

Π∗k = ∅,19 d.h. der Idealzielpunkt keine zulässige Lösung ist.

Anti-Idealzielpunkt: Der Anti-Idealzielpunkt ist ein Vektor, welcher für jede Zielgröße k die größte bei allen Elementen des Lösungsraums vorkommende Ausprägung enthält.  aid T z aid := z1 (π1aid ), ..., zK (πK ) ∈ RK

(3.9)

πkaid ∈ argmax {zk (π) | π ∈ Π}

(3.10)

mit

Auch der Anti-Idealzielpunkt muß keiner existierenden (zulässigen) Lösung entsprechen. Utopiepunkt: Ein Utopiepunkt z ut korrespondiert keinesfalls mit einer zulässigen Lösung, denn für ihn gilt bei Minimierungsproblemen:20 z ut = z id − 

(3.11)

>0

(3.12)

mit

D.h. es wird gefordert: z ut < z id . Nadirpunkt:21 Der Nadirpunkt ist ein Vektor, welcher für jede Zielgröße k die größte, bei allen Elementen der Menge aller effizienten Lösungen vorkommende Ausprägung enthält.  nad T z nad := z1 (π1nad ), ..., zK (πK ) ∈ RK

(3.13)

πknad ∈ argmax {zk (π 0 ) | π 0 ∈ E(Π, z)}

(3.14)

mit

19 Vgl.

Dinkelbach (1982, S.158). Ehrgott u. Tenfelde-Podehl (2003, S.121). Steuer (1986, S.420f.) definiert  ≥ 0. Steuer (1986) benennt jedoch zwei Fälle, in denen  > 0 gelten muß (vgl. Steuer (1986, S.420)). Mitunter finden sich abweichende Definitionen von der in dieser Arbeit verwendeten, vgl. T‘Kindt u. Billaut (2002, S.67). Diese definieren grundsätzlich: z ut ≤ z id . z ut wird bei der Diskussion der unten betrachteten Kompromißmodelle benötigt. 21 Vgl. Ehrgott u. Tenfelde-Podehl (2003, S.120). 20 Vgl.

3.1

Seite 28

Wie schon der Ideal- und Anti-Idealzielpunkt muß der Nadirpunkt keiner existierenden (zulässigen) Lösung entsprechen. Zusammen mit dem Idealzielpunkt liefert der Nadirpunkt Informationen über das Werteintervall der einzelnen Zielgrößen, wenn nur die Elemente der effizienten Front betrachtet werden.22

Abbildung 3.2: Besondere Punkte im Zielraum In Abbildung 3.2 wird das Beispiel aus Abbildung 3.1 auf Seite 25 fortgeführt. Die Menge aller effizienten Auftragsfolgen ist 23 E(Π, z) = {B; Front !) ergibt sich daher ! ! E; F } ! und die ! effiziente ( C; D; zu: E(z) =

2 8

;

3 7

;

4 3

;

7

2, 5

;

9 1

. Die Mengen der

individuell optimalen Lösungen ergeben sich zu: Π∗1 ! = {A; B} und 2 Π∗2 = {F }. Der Idealzielpunkt ergibt sich zu z id = mit π1id ∈ Π∗1 1 und π2id ∈ Π∗2 . Als Anti-Idealzielpunkt ergibt sich z aid =

11 10

!

mit

π1aid ∈ {H;!I; J; K} und π2aid = G. Der Nadierpunkt errechnet sich zu: z nad =

9 8

mit π1nad = F und π2nad = B.

22 Vgl. Ehrgott u. Tenfelde-Podehl (2003, S.120). Im Unterschied zum Idealzielpunkt ist es, wie man sich leicht überlegen kann, nur bei bikriteriellen Probelmstellungen möglich bei der Bestimmung von z nad E(Π, z) durch die Vereinigungsmenge der K Mengen der individuell optimalen Lösungen Π∗k zu ersetzen. 23 Die Auftragsfolge A ist nur schwach effizient und daher nicht Element von E(Π, z).

3.1

Seite 29

Um eine Lösung des Vektoroptimierungsproblems zu ermitteln, werden mit a-priori, interaktiven und a-posteriori Ansätzen drei Vorgehensweisen unterschieden. Insbesondere dann, wenn bereits vor der Problemlösung Informationen über die Präferenzstruktur des Entscheidungsträgers vorliegen, können diese bereits bei der Lösungsermittlung berücksichtigt werden. Methoden, welche diese Präferenzstruktur bereits vor Beginn der Lösungsermittlung durch eine feste Einstellung der Parameter des Kompromißmodells berücksichtigen und daraufhin nur eine einzelne Lösung ermitteln werden a-priori Ansätze genannt.24 Interaktive Ansätze hingegen erfassen die Präferenzstruktur des Entscheidungsträgers während des Lösungsprozesses. Dabei werden diesem etwa unterschiedliche Lösungen präsentiert zu denen er sein Präferenzurteil abgibt oder aus denen er seine präferierten oder die nicht präferierten Lösungen auswählt. Durch Auswertung der Präferenzurteile bzw. der Auswahlentscheidungen konkretisiert das Verfahren die Präferenzstruktur des Entscheidungsträgers und ermittelt damit neue Lösungen, welche dem Entscheidungsträger wiederum präsentiert werden. Damit wechseln sich im Lösungsprozeß Präferenzeingaben und Ermittlung vorläufiger Lösungen ab.25 Im Gegensatz dazu verzichten a-posteriori Ansätze auf die Berücksichtigung der Präferenzstruktur vor oder während des Lösungsprozesses. Als Konsequenz besteht die Lösung bei a-posteriori Ansätzen nicht aus einer einzelnen Lösung sondern aus einem Teil oder der vollständigen Menge aller effizienten Lösungen E(Π, z).26 Ihre Anwendung ist dann sinnvoll, wenn die Präferenzstruktur des Entscheidungsträgers nicht bekannt ist, bzw. es zu aufwendig wäre, sie im Voraus oder im Verlauf des Lösungsprozesses zu ermitteln. Die Ermittlung dieser Menge kann noch aus weiteren Gründen sinnvoll sein. So ist es sicherlich leichter, seine Präferenzen durch die Auswahl aus der konkreten Repräsentation der Alternativen mittels ihrer Zielerreichungsgrade zum Ausdruck zu bringen, als durch die abstrakte Festlegung von Zielgewichten oder Zielhierarchien. Das gleiche gilt, falls mehrere Entscheidungsträger unterschiedliche Präferenzstrukturen aufweisen und sich auf eine Alternative einigen müssen. Daneben kann die Entscheidung über eine zu realisierende Alternative besser von der Ermittlung der Lösung getrennt werden. Ebenso ermöglicht die Ermittlung der Menge aller effizienten Lösungen die existierenden Trade-Offs zwischen den Zielen aufzuzeigen. Zusätzlich ist die Ermittlung allein aus theoretischer Sicht von Bedeutung und letztlich ist sie auch für die Entwicklung von interaktiven 24 Vgl.

Ehrgott u. Gandibleux (2000, S.430). Ehrgott u. Gandibleux (2000, S.430). 26 Vgl. Ehrgott u. Gandibleux (2000, S.430). 25 Vgl.

3.2

Seite 30

Ansätzen hilfreich. Bei diesen muß zumindest die sukzessive Ermittlung von E(Π, z) möglich sein. Rosenthal (1985) merkt zur Ermittlung der Menge aller effizienten Lösungen als vorteilhaft an, daß die Lösung keinerlei subjektiven Einflüssen unterliegt. Seine Kritik richtet sich aber dagegen, daß die Menge sehr groß sein kann, so daß es dem Entscheidungsträger weiterhin nicht möglich sein wird, eine Lösung auszuwählen. In diesem Fall benötigt er weitere Methoden, welche ihn bei der Auswahlentscheidung unterstützen.27 Diese Kritik stellt jedoch kein scharfes Gegenargument dar. So kann E(Π, z) als Input für solche, z.B. interaktive Methoden verwendet werden. Für diese stellt dies eine Zeitersparnis im Prozeß der interaktiven Lösungsfindung dar, da nur noch aus (streng) effizienten Lösungen ausgewählt, die Suche nach zumindest einem Teil dieser Lösungen aber nicht mehr vorgenommen werden muß.28

3.2

Methoden zur Ermittlung effizienter Lösungen

3.2.1

Definition Kompromißmodell

Bei Anwendung eines Kompromißmodells wird das Zielsystem durch eine skalare Zielfunktion ψ(π) und gegebenenfalls zusätzliche Nebenbedingungen ersetzt. Die Präferenzen des Entscheidungsträgers werden dabei zum einen bei der Transformation der verschiedenen Ziele in einen Skalar und zum anderen in Form von Nebenbedingungen berücksichtigt. Kompromißmodelle sind grundsätzlich numerisch lösbar und mindestens eine dieser optimalen Lösungen ist kompromiß-optimal. Als kompromiß-optimal wird eine Lösung bezeichnet, wenn sie eine optimale Lösung des Kompromißmodells und gleichzeitig eine effiziente Lösung des ursprünglichen Vektoroptimierungsproblems ist.29 Die Präferenzen des Entscheidungsträgers finden in der Regel in Form von Parametern Eingang ins Modell. Durch eine Variation der Parameter können Lösungen für unterschiedliche Präferenzen ermittelt werden. Eine geeignete Variation kann dabei die Bestimmung der Menge aller effizienten Lösungen E(Π, z) ermöglichen. Beim vorliegenden PFSP ist dabei darauf zu achten, daß auch die ”nicht-unterstützten” effizienten Auftragsfolgen ermittelt werden können. Im restlichen Teil dieses Abschnitts sollen 27 Vgl.

Rosenthal (1985, S.140). ist vor dem Start der interaktiven Lösungsfindung Rechenzeit zur Ermittlung der Menge aller effizienten Lösungen zu investieren. 29 Vgl. zu diesen Ausführungen Dinkelbach (1982, S.179). 28 Dafür

3.2

Seite 31

unterschiedliche Kompromißmodelle insbesonder bezüglich dieser Möglichkeit betrachtet werden.

3.2.2

Diskussion verschiedener Kompromißmodelle

3.2.2.1

Lexikographische Optimierung

Eine erste Möglichkeit effiziente Lösungen zu bestimmen, ist die lexikographische Optimierung.30 Bei dieser werden die K Ziele in einem ersten Schritt bezüglich ihrer relativen Wichtigkeit vom Entscheidungsträger geordnet. Anschließend wird für das am wichtigsten erachtete Ziele eine Menge optimaler Lösungen ermittelt. Bei dem ersten Ziel ist dies stets die Menge individuell optimaler Lösungen. Aus dieser wird die Menge von Lösungen bestimmt, die bezüglich des zweitwichtigsten Ziels den besten Zielfunktionswert aufweisen, usw.. Das Verfahren wird fortgesetzt, bis hinsichtlich aller K Ziele optimiert worden ist. Als frühes Abbruchkriterium kann auch die Überprüfung der aktuellen Lösungsmenge herangezogen werden. Ein Abbruch ist möglich, falls diese Menge nur noch ein Element enthält. Als Voraussetzung für das Finden einer effizienten Lösung mit Hilfe der lexikographischen Optimierung muß offensichtlich gelten, daß alle Zielfunktionswerte nach unten beschränkt sind.31 Da es sich in dieser Arbeit um ein diskretes Problem mit endlicher Lösungsmenge handelt ist diese Forderung erfüllt. Die lexikographische Optimierung entspricht also dem sukzessiven Bestimmen der Mengen Π[1] , ..., Π[e] , . . . , Π[K] . Π[1]

   ◦ ◦ := π | z[1] (π ) = min z[1] (π)

(3.15)

   π ◦ | z[2] (π ◦ ) = min z[2] (π)

(3.16)

π∈Π

Π[2] := .. .

Π[K] :=

π∈Π[1]

.. .

.. .

 π ◦ | z[K] (π ◦ ) =

min

π∈Π[K−1]



z[K] (π)

 (3.17)

Dabei ist [e] der Index des in Rang e (e = 1(1)K) eingeordneten Ziels k und Π[e] die verbleibende Menge von zulässigen Lösungen, nachdem nach Ziel [e] optimiert wurde. 30 Vgl. zu diesem Kompromißmodell Steuer (1986, S.228-231) sowie T‘Kindt u. Billaut (2002, S.81). 31 Vgl. Steuer (1986, S.231).

3.2

Seite 32

Die Elemente der Menge Π[K] sind streng effiziente Lösungen des ursprünglichen Vektorminimierungsproblems. Im Folgenden wird der Zielfunktionsvektor der Elemente aus Π[K] mit z lex bezeichnet. Obwohl die lexikographische Optimierung streng effiziente Lösungen ermittelt, ist sie nicht zur Bestimmung der Menge aller effizienten Lösungen E(Π, z) geeignet, da nicht alle Elemente dieser Menge erzeugt werden können. Durch unterschiedliche Rangordnung der Ziele können maximal K! unterschiedliche Lösungen erzeugt werden. Die Menge aller effizienten Lösungen kann aber mehr als K! Elemente enthalten. 3.2.2.2

Konvexkombination

Bei der Konvexkombination werden die einzelnen Ziele mit Gewichten bewertet und zu einem Skalar addiert. Ψkonvex : λ M IN ψ(π) =

K X

λk zk (π)

(3.18)

k=1

mit K X

λk = 1

(3.19)

0 < λk < 1

(3.20)

π∈Π

(3.21)

k=1

Es läßt sich zeigen, daß wenn π ◦ eine optimale Lösung bezüglich Ψkonvex ist, λ diese Lösung auch eine streng effiziente Lösung bezüglich des ursprünglichen Vektorminimierungsproblems ist. π ◦ ist somit kompromiß-optimal.32 Der Umkehrschluß ist ohne Einschränkungen hingegen nicht zulässig. Nur wenn die Menge aller effizienten Lösungen E(Π, z) konvex und zk (π) konkav ist, existiert ein Vektor λ, so daß eine streng effiziente Lösung π ◦ eine optimale Lösung des Problems Ψkonvex ist. λ Aus den Aussagen folgt unmittelbar, daß nur bei Problemen, bei denen diese Bedingungen erfüllt sind, die Ermittlung der Menge aller effizienten 32 Diese

und die folgende Aussage ergibt sich z.B. aus der Arbeit von Geoffrion (1968), insbesondere S.619-621. Dieser führt den Beweis für sogenannte eigentlich effiziente Lösungen, wobei diese auch stets effiziente Lösungen sind.

3.2

Seite 33

Lösungen E(Π, z) durch Variation der Gewichte λk möglich ist.33 Für das in dieser Arbeit betrachtete Problem scheidet dieses Kompromißmodell daher als ungeeignet aus. 3.2.2.3

Epsilon-Constraint Ansatz

Bei diesem Kompromißmodell wird lediglich bezüglich eines der K Ziele minimiert. Dabei werden die restlichen K-1 Ziele im Nebenbedingungssystem nach oben beschränkt.34 Ψ : M IN ψ(π) = zk (π)

(3.22)

zi (π) ≤ ki , i 6= k, i = 1(1)K

(3.23)

π∈Π

(3.24)

mit

T Der Vektor k = k1 , ..., kk−1 , kk+1 , ..., kK ∈ RK−1 ist der Beschränkungsvektor, falls in der Kompromißzielfunktion nach Ziel k minimiert wird. Bezüglich Ψ kann folgende Aussage getroffen werden: π ◦ ist dann eine streng effiziente Lösung, wenn und nur wenn es für jedes Ziel k einen Beschränkungsvektor k gibt, so daß π ◦ die einzige optimale Lösung von Ψ ist.35 Bei diesem Kompromißmodell ist insbesondere die Forderung problematisch, daß π ◦ die einzige optimale Lösung von Ψ sein muß, was sich nur schwer nachweisen läßt.36 Das im folgenden von Soland (1979) vorgestellte Kompromißmodell kommt ohne die Forderung nach Einzigartigkeit aus.

33 Vgl.

z.B. Steuer (1986, S.432). Soland (1979, S.33). 35 Vgl. Soland (1979, S.33). 36 Vgl. Soland (1979, S.33). 34 Vgl.

3.2

Seite 34

3.2.2.4

Kompromißmodell von Soland (1979)

Dieses Kompromißmodell wird folgendermaßen formuliert:37 Ψ(g,b) : M IN ψ(π) = g (z(π))

(3.25)

z(π) ≤ b

(3.26)

π∈Π

(3.27)

mit

Die Funktion g ist dabei Element der Menge GZ . Diese Menge ist eine Menge streng monoton fallender Funktionen von RK → R.38 Soland (1979) zeigt nun, daß folgende Aussagen gelten:39 Ist g ∈ GZ und gibt es ein b ∈ RK , so daß π ◦ eine optimale Lösung von Ψ(g,b) ist, so ist π ◦ streng effizient und somit kompromiß-optimal. Ebenso gilt im Umkehrschluß: Ist π ◦ eine streng effiziente Lösung, so existiert für eine beliebige Funktion g ∈ GZ ein Vektor b ∈ RK , so daß π ◦ optimale Lösung von Ψ(g,b) ist. Durch Variation des Vektors b ist es somit möglich, alle Elemente von E(Π, z) zu ermitteln.40 Eine häufig für g verwendete Funktion ist die Konvexkombination der Ziele. In diesem Fall wird das Kompromißmodell Pλkonvex aus Abschnitt 3.2.2.2 derart modiziert, daß aufgrund des Hinzufügens der Nebenbedingung z(π) < b die Ermittlung der ”nicht-unterstützten” Elemente aus E(Π, z) möglich wird. Dabei ist zu beachten, daß b im Bereich z id ≤ b ≤ z nad geeignet variiert wird. Ansonsten ist nicht sichergestellt, daß die nicht unterstützten Elemente identifiziert werden. Wie man sich leicht überlegen kann, würde z.B. eine Variation von b im Bereich b ≥ z nad dazu führen, dass die gewünschte beschränkende Wirkung von b aufgehoben würde. Das Modell würde zwar nicht formal, jedoch faktisch, in eine reine Konvexkombination transformiert. 37 Vgl.

Soland (1979, S.34). Funktion f RK → R wird als streng monoton fallend bezeichnet, wenn und nur wenn ∀x, y ∈ RK , x 6= y, x < y ⇒ f (x) < f (y) gilt. D.h. ein Zielfunktionsvektor, der einen anderen Zielfunktionsvektor dominiert, hat einen kleineren Zielfunktionswert. 39 Vgl. Soland (1979, S.34). 40 Vgl. Soland (1979, S.34). 38 Eine

3.2 3.2.2.5

Seite 35 Abstandsfunktionen

Kompromißmodelle, die auf Abstandsfunktionen basieren, haben zum Ziel den Abstand zu einem Referenzpunkt (z ref ) zu minimieren. Bevor drei konkrete Kompromißmodelle vorgestellt werden, soll zunächst der Begriff des Maßes im Vektorraum allgemein betrachtet werden. Ein Maß im Vektorraum RK kann allgemein definiert werden als Funktion, die jeweils zwei Vektoren x, y ∈ RK eine skalare Größe kx − yk ∈ R zuordnet und dabei folgenden vier Anforderungen genügt:41 1. kx − yk ≥ 0 und kx − xk = 0 2. kx − yk = ky − xk 3. kx − yk ≤ kx − zk + kz − yk 4. Falls x 6= y, dann kx − yk > 0 Die wohl bekanntesten Maße stellen die lp -Distanzen dar: Gewichtete lp -Distanz:

λ

ref

z − z(π) p =

 s p K  P  ref p   λ − z (π) z k k  k  k=1

falls 1 ≤ p < ∞

     

falls p = ∞

o n max λk zkref − zk (π)

(3.28)

k=1(1)K

λ ist dabei ein Vektor nicht negativer Gewichte, es gilt also: λk ≥ 0 ∀k = 1(1)K. Auf die Gewichtung mit λ kann auch verzichtet werden, in diesem Fall erhält man eine ungewichtete lp -Distanz. Ungewichtete lp -Distanz:

ref

z − z(π) p =

 s p K  P  ref p   zk − zk (π)   k=1

falls 1 ≤ p < ∞

     

falls p = ∞

o n ref max zk − zk (π)

(3.29)

k=1(1)K

Für p = 1 resultiert eine (gewichtete) rechtwinklige Abstandsmessung (Manhattan-Distanz) zwischen den zwei Vektoren. Wird p = 2 gesetzt, so wird die (gewichtete) euklidische Distanz gemessen. Ist p unendlich, 41 Vgl.

zu diesen Ausführungen Steuer (1986, S.44).

3.2

Seite 36

so erhält man die sogenannte (gewichtete) Tchebycheff-Distanz.42 Im Folgenden sollen drei Kompromißmodelle, welche diese Tchebycheff-Distanz verwenden, vorgestellt werden: Das Kompromißmodell der ungewichteten Tchebycheff-Distanz, das Kompromißmodell der gewichteten sowie das der erweiterten gewichteten Tchebycheff-Distanz. Ungewichtete Tchebycheff-Distanz: Ein Kompromißmodell, daß mit der ungewichteten Tchebycheff-Distanz arbeitet wurde von Bowman Jr. (1976) vorgestellt.43 ΨΘ :

 M IN ψ(π) = z lex − Θ − z(π) ∞

(3.30)

π∈Π

(3.31)

mit

 Als Referenzpunkt z ref wird der Punkt z lex − Θ verwendet. Θ ist ein Vektor mit K Elementen, von denen K − 1 Elemente nicht Null sind: Θ =  0, θ[2] , ..., θ[K] ∈ RK . Dabei ist wichtig, daß das Null-Element dem Ziel zugeordnet ist, nach dem in der lexikographischen Optimierung zuerst optimiert wurde. Bowman Jr. (1976) hat nun gezeigt, daß folgende Aussage gilt: Ist π ◦ eine streng effiziente Lösung, ∃Θ∗ ∈ RK , so daß π ◦ eine optimale Lösung von ΨΘ ist.44 Die Aussage, daß eine optimale Lösung von Ψθ immer eine strenge effiziente Lösung ist, ist dagegen unzulässig.45 Dennoch ist es möglich die Menge aller effizienten Lösungen E(Π, z) durch Variation von Θ zu generieren, die erhaltenen Lösungen aus ΨΘ müssen jedoch auf ihre strenge Effizienz hin überprüft werden.

42 Vgl.

Steuer (1986, S.45). zu den folgenden Ausführungen Bowman Jr. (1976) insbesondere die Seiten 79-81. 44 Vgl. Bowman Jr. (1976, S.76 u. 79). 45 Vgl. Bowman Jr. (1976, S.76 u. 81). 43 Vgl.

3.2

Seite 37

Gewichtete Tchebycheff-Distanz: Dieses Kompromißmodell wurde ebenfalls von Bowman Jr. (1976) vorgestellt.46 Im Gegensatz zu ΨΘ sind alle Lösungen effizient, wenn auch nur schwach. Ψλ :

λ M IN ψ(π) = z ut − z(π) ∞

(3.32)

λk > 0 , k = 1(1)K

(3.33)

π∈Π

(3.34)

mit

Die Gewichte sollten weiterhin noch normiert werden, indem z.B. gefordert wird: K X

λk = 1

(3.35)

k=1

Nun gilt: Ist π ◦ eine optimale Lösung von Ψλ , dann ist π ◦ eine schwach effiziente Lösung. ◦ Ist π ◦ eine streng effiziente Lösung, dann ∃λ ∈ RK + , so daß π eine optimale Lösung von Ψλ ist.47 Durch die Variation der Gewichte, ist es somit möglich, die Menge aller effizienten Lösungen E(Π, z) zu generieren. Identifizierte schwache effiziente Lösungen bleiben einfach unberücksichtigt. Das Kompromißmodell der gewichtete Tchebycheff-Distanz wird in den in Kapitel 6 entwickelten ACO-Algorithmen verwendet werden. Erweiterte gewichtete Tchebycheff-Distanz: Diese Form ist die allgemeinste der bisher vorgestellten Varianten. Im Gegensatz zur gewichteten Form, welche auch schwach effiziente Lösungen finden kann, identifiziert dieses Kompromißmodell nur streng effiziente Lösungen.48

46 Vgl.

Bowman Jr. (1976), insbesondere die Seiten 82-84 oder T‘Kindt u. Billaut (2002, S.69-

71). 47 Vgl. 48 Vgl.

Bowman Jr. (1976, S.83). zu P(λ,δ) Steuer (1986, S. 422-425 u. 440-443).

3.2

Seite 38 Ψ(λ,δ) : K X

λ ut zk − zk (π) M IN ψ(π) = z ut − z(π) ∞ + δ

(3.36)

k=1

mit λk ≥ 0 , k = 1(1)K K X

λk = 1

(3.37)

(3.38)

k=1

π∈Π

(3.39)

Gibt es einen Vektor λ sowie ein ausreichend kleines δ ∈ RK + , so daß π ◦ eine optimale Lösung von Ψ(λ,δ) ist, so ist π ◦ auch eine streng effiziente Lösung.49 Die Umkehraussage gilt ebenfalls: Ist π ◦ eine streng effiziente Lösung, so gibt es einen Vektor der Gewichte λ und ein sehr kleines δ ∈ RK + , so daß π ◦ auch eine optimale Lösung von Ψ(λ,δ) ist.50 Dieses Kompromißmodell ermöglicht die Generierung der Menge PK aller effizienten Lösungen. Der Term δ k=1 |zkut − zk (π)| verhindert, daß schwach effiziente Lösungen als Ergebnis resultieren. Gerade die Bestimmung eines geeigneten Wertes für δ ist jedoch nicht unproblematisch. Um die größten Probleme zu umgehen, sollte der Wert ausreichend klein sein und gemäß Steuer (1986) im Bereich von 0,0001 bis 0,01 liegen.51 Steuer (1986) löst dieses Problem, indem er das Modell Ψ(λ,δ) in das Modell überführt. In diesem kann auf den Parameter δ verzichtet werden:52 Ψsteuer λ Ψsteuer : λ

M IN ψ(π) = zkut − zk (π) 1

(3.40)

π ∈ Π(Ψλ )

(3.41)

mit

Zunächst wird die Lösungsmenge Π(Ψλ ) des Kompromißmodells der gewichteten Tchebycheff-Distanz Ψλ bestimmt. Aus den Elementen von 49 Vgl.

Steuer (1986, S.442), Theorem 14.18. Steuer (1986, S.443), Theorem 14.20. 51 Vgl. Steuer (1986, S.429f.). 52 Vgl. Steuer (1986, S.444f.). 50 Vgl.

3.2

Seite 39

Π(Ψλ ) werden anschließend die Elemente mit der minimalen Summe der absoluten Abweichungen vom Utopiepunkt bestimmt und damit streng effiziente Lösungen identifiziert. Für dieses Modell gilt dann: π ◦ ist dann und nur dann streng effizient, falls es einen Gewichtungsvektor λ gibt, so daß π ◦ eine optimale Lösung von Ψsteuer ist.53 λ 3.2.2.6

Goal-Programming

Goal-Programming ist mehr ein allgemeines Konzept bzw. eine Verallgemeinerung der Ansätze der Abstandsfunktionen, als ein konkretes Kompromißmodell. Auch wenn das Goal-Programming ursprünglich für die Betrachtung von Approximationszielen und weniger für Extremierungsziele konzipiert wurde, kann es auch für diese verwendet werden.54 Dafür muß ein geeigneter Referenzpunkt in der Abstandsfunktion gewählt werden. Es ist offensichtlich, daß es sich bei diesem um einen Punkt handeln sollte, der nicht erreicht werden kann. Diese Eigenschaft wird regelmäßig vom Utopiepunkt erfüllt. Aber auch der Idealzielpunkt kann verwendet werden.55 Auch dieser wird nicht erreicht, es sei denn, es gibt eine perfekte Lösung. Sollte es diese geben, so stellt das Erreichen des Idealzielpunktes kein Problem dar, da in diesem Fall das ursprüngliche Vektorminimierungsproblem eindeutig optimal gelöst ist. Mit Hilfe eines gewichteten lp -Maßes läßt sich ein Goal-Programming Kompromißmodell z.B. folgendermaßen formulieren: Ψgλ :

M IN ψ(π) =

 s  K P  p p   λk |zkut − zk (π)|   k=1

falls 1 ≤ p < ∞

     

falls p = ∞

max {λk |zkut − zk (π)|}

(3.42)

k=1(1)K

mit π∈Π

(3.43)

Mit p = ∞ erhält man offensichtlich das in Abschnitt 3.2.2.5 vorgestellte Kompromißmodell der gewichteten Tchebycheff-Distanz Ψλ von Bowman 53 Vgl.

Steuer (1986, S.445), sowie T‘Kindt u. Billaut (2002, S.76). Dinkelbach (1982, S.192). 55 Vgl. Dinkelbach (1982, S.192). 54 Vgl.

3.3

Seite 40

Jr. (1976).56 Setzt man hingegen p = 1 so geht Ψgλ in Ψkonvex über. Da z ut λ konstant ist, hat es keinen Einfluß auf die Lösung.

3.3

Lösungsansätze für das PFSP und Single Machine Problem bei mehrfacher Zielsetzung

3.3.1

Exakte und heuristische Verfahren

3.3.1.1

Exakte Verfahren

Exakte Verfahren bestimmen in einer endlichen Zahl von Schritten eine optimale Lösung des zu lösenden Problems. Für das in dieser Arbeit betrachtete multikriterielle Permutation Flow Shop Problem ist diese optimale Lösung die Menge aller effizienten Auftragsfolgen. Zu den exakten Verfahren gehören Branch-and-Bound Ansätze, Schnittebenenverfahren, Branchand-Cut Ansätze sowie Verfahren der Dynamischen Optimierung.57 Nelson u. a. (1986) haben a-posteriori Ansätzte für das Single-Machine Problem vorgestellt.58 Weiterhin haben Selen u. Hott (1986) einen Mixed Integer Goal Programming Ansatz für das bikriterielle Flow Shop Problem vorgeschlagen, wobei es sich um einen a-priori Ansatz handelt.59 Für weiter Ansätze siehe auch die Literaturübersicht von T’Kindt u. Billaut (2001).60 Jedoch kann selbst bei den häufig angewendeten Branch-and-Bound Ansätzen das Durchführen einer vollständigen Enumeration nicht ausgeschlossen werden, falls die Branching- und Boundingregeln für das Problem ungünstig gewählt werden oder in der konkreten Probleminstanz nicht effizient sind. Damit ist auch eine mit der Problemgröße exponentiell ansteigende Rechenzeit nicht grundsätzlich ausgeschlossen. Anders als für polynomial lösbare Probleme, für die es stets ein exaktes Verfahren gibt, dessen Rechenaufwand höchstens polynomial mit der Problemgröße steigt, steigt der Rechenaufwand bei der Lösung NP-schwerer Probleme exponentiell mit der Problemgröße. Für praxisrelevante Problem56 Bowman Jr. (1976, S.84) weist in seiner Arbeit selber darauf hin, daß sein Ansatz auch als Goal-Programming Ansatz interpretiert werden kann. 57 Vgl. Domschke u. Drexl (1998, S.119f.). 58 Vgl. Nelson u. a. (1986, S.465-473). Weiterhin haben Selen u. Hott (1986) einen Mixed Integer Goal Programming Ansatz für das bikriterielle Flow Shop Problem vorgeschlagen, wobei es sich um einen a-priori Ansatz handelt (vgl. Selen u. Hott (1986, S.1122f.)). Für weiter Ansätze siehe auch die Literaturübersicht von T’Kindt u. Billaut (2001, S.149-158). 59 Vgl. Selen u. Hott (1986, S.1122f.). 60 Vgl. T’Kindt u. Billaut (2001, S.149-158).

3.3

Seite 41

größen und Lösungsansätze scheiden exakte Verfahren zur Problemlösung daher in der Regel aus. Vielmehr findet eine Konzentration auf die Entwicklung heuristischer Lösungsansätze statt. 3.3.1.2

Heuristische Lösungsansätze

Heuristische Verfahren finden nicht zwingend die optimale Lösung des Problems. Vielmehr ist es ihr Bestreben, in einer angemessenen Rechenzeit, eine möglichst gute Lösung zu finden.61 D.h. anstatt der Menge aller effizienten Lösungen E(Π, z) ermitteln Heuristiken eine Menge heuristisch effizienter Lösungen. Heuristisch effiziente Lösung: Allgemein kann eine Lösung als heuristisch effizient bezeichnet werden, wenn sie von keiner anderen bekannten Lösung dominiert wird. Bezogen auf eine einzelne Heuristik ist eine Lösung somit dann heuristisch effizient, wenn es keine andere von der Heuristik erzeugte und auf Effizienz überprüfte Lösung gibt, die bezüglich aller Ziele keinen schlechteren und bei mindestens einem Ziel einen besseren Zielerreichungsgrad aufweist.62 Heuristisch effiziente Menge (NDS): Die Menge heuristisch effizienter Lösungen63 ergibt sich aus den von der Heuristik ermittelten heuristisch effizienten Lösungen. Heuristisch effiziente Front (NDF): Die Menge der Zielfunktionsvektoren64 einer heuristisch effizienten Menge. Es ist somit zu beachten, daß es die (einzige) Menge heuristisch effizienter Lösungen nicht gibt. Vielmehr ist diese verfahrensabhängig. Daher kann eine Heuristik nur eine von sehr vielen möglichen heuristisch effizienten Mengen finden. Neben der Unterscheidung in Konstruktions- und Verbesserungsheuristiken, sowie in deterministische und stochastische Verfahren können Heuristiken danach unterschieden werden, ob es sich um eine problemspezifische oder um eine sogenannte Metaheuristik handelt. Problemspezifische Verfahren sind für ein konkretes Problem entwickelt und lassen sich, wenn überhaupt, nur schwer auf andere Probleme übertragen. Metaheuristiken hingegen beschreiben ein 61 Die 62 Der

Beurteilung einer Lösung bezüglich ihrer Güte ist Thema des Kapitels 4. Begriff der heuristischen Effizienz wurde erstmals von Huckert u. a. (1980, S.59) ver-

wendet. 63 NDS: Non Dominated Set. 64 NDF: Non Dominated Front.

3.3

Seite 42

allgemeines Konzept zur Lösungsfindung. Dieses Konzept kann mehr oder weniger leicht auf unterschiedliche Probleme angepaßt werden. Zu den Metaheuristiken zählen unter anderem Simulated Annealing, Tabu Search, Genetische Algorithmen sowie die relativ junge Ant Colony Optimization (ACO). In den folgenden beiden Abschnitten 3.3.2 und 3.3.3 sollen die bisher in der Literatur verfolgten Ansätze für das multikriterielle Permutation Flow Shop Problem mit mehr als zwei Maschinen vorgestellt werden.65 Die ACOMetaheuristik ist bisher nur für das multikriterielle Single Machine Problem sowie für einen bikriteriellen 2-Maschinen Permutation Flow Shop verwendet worden. Diese Ansätze werden in Abschnitt 3.3.4 vorgestellt.

3.3.2

A-priori Ansätze

In diesem Abschnitt sollen nur a-priori Ansätze für das Permutation Flow Shop Problem mit mehr als zwei Maschinen vorgestellt werden. Rajendran (1994) hat die Ziele Minimierung der Zykluszeit und Minimierung der Gesamtdurchlaufzeit betrachtet.66 Er stellt eine problemspezifische Verbesserungsheuristik vor. Als Kompromißmodell verwendet er die Konvexkombination der Ziele, wobei die beiden Ziele über die gesamte Laufzeit der Heuristik hinweg gleichgewichtet sind. Ebenfalls 1994 haben Gangadharan u. Rajendran (1994) einen Genetischen Algorithmus vorgestellt.67 Es wurden erneut die Zykluszeit und die Gesamtdurchlaufzeit als Ziele berücksichtigt. Auch hier findet eine Konvexkombination mit konstanter Gleichgewichtung der Ziele als Kompromißmodell Verwendung. Rajendran (1995) stellt zwei Heuristiken vor. In der ersten wird ein Zielsystem aus den beiden Zielsgrößen Zykluszeit und Gesamtdurchlaufzeit betrachtet.68 In der Zweiten modifiziert er diese Heuristik und behandelt ein Zielsystem mit den drei Zielgrößen Zykluszeit, Gesamtdurchlaufzeit und Maschinenleerzeiten.69 Der Ansatz der Heuristiken ähnelt dem aus Rajen65 Eine Übersicht über Ansätze zur Lösung unterschiedlicher Reihenfolgeprobleme haben T’Kindt u. Billaut (2001) veröffentlicht (vgl. T’Kindt u. Billaut (2001, S.149-158)). Etwas älter ist die Übersicht von Nagar u. a. (1995) (vgl. Nagar u. a. (1995, S.93-101)). Ehrgott u. Gandibleux (2000) sowie Ulungu u. Teghem (1994) fassen allgemein Lösungsansätze für multikriterielle kombinatorische Optimierungsprobleme zusammen (vgl. Ehrgott u. Gandibleux (2000, S.439-445) und Ulungu u. Teghem (1994, S.85-98)). Probleme des Scheduling werden von ihnen jedoch ausgeklammert. Van Veldhuizen u. Lamont (2000) geben einen guten Überblick über Lösungskonzepte mit evolutionären Ansätzen (vgl. Van Veldhuizen u. Lamont (2000, S.129-144)). 66 Vgl. Rajendran (1994), insbesondere die Seiten 2545-2551. 67 Vgl. Gangadharan u. Rajendran (1994), insbesondere die Seiten 473f.. 68 Vgl. Rajendran (1995), insbesondere die Seiten 542-546. 69 Vgl. Rajendran (1995), insbesondere die Seiten 550-554.

3.3

Seite 43

dran (1994).70 Auch hier handelt es sich um eine problemspezifische Verbesserungsheuristik, die eine konstante Gleichgewichtung der Ziele als Kompromißmodell benutzen.

3.3.3

A-posteriori Ansätze

Daniels u. Chambers (1990) haben für die beiden Ziele Minimierung der Zykluszeit und Minimierung der maximalen Terminüberschreitung eine problemspezifische konstruierende Heuristik vorgestellt, die mit einem Epsilon-Constraint Kompromißmodell arbeitet.71 Eine Beschreibung der Parametervariation, falls mehr als zwei Ziele betrachtet werden sollen, fehlt.72 Ishibuchi u. Murata (1998) haben ”Multi Objective Genetic Local Search” (MOGLS) vorgestellt.73 Sie betrachten ein Zielsystem bestehend aus den drei Zielen Minimierung der Zykluszeit, Minimierung der maximalen Terminüberschreitung und Minimierung der Gesamtdurchlaufzeit. Der Algorithmus ist derart ausgestaltet, daß er theoretisch beliebig viele Ziele berücksichtigen kann. Als Kompromißmodell verwenden Ishibuchi u. Murata (1998) eine Konvexkombination der Ziele und zwar sowohl für die Ermittlung der Fitness der Populationsindividuen als auch für die lokale Suche.74 Bagchi (1999) hat aufbauend auf den ”Nondominated Sorting Genetic Algorithm” (NSGA) von Srinivas u. Deb (1994)75 den ”Elitist Nondominated Sorting Algorithm” (ENGA) vorgestellt.76 Mit diesem betrachtet er ein Zielsystem mit den drei Zielen: Minimierung der Zykluszeit, Minimierung der mittleren Durchlaufzeit sowie der Minimierung der mittleren Terminüberschreitung. ENGA verzichtet auf die Verwendung eines Kompromißmodells. Stattdessen verwendet er eine sogenannte Dummy Fitness, welche mit Hilfe der Nondominated Sorting Prozedur berechnet wird. Wie auch MOGLS ist ENGA nicht in der Lage den Zielraum systematisch abzusuchen. Framinan u. a. (2002) haben zwei Ansätze für ein Zielsystem bestehend aus der Minimierung der Zykluszeit und Minimierung der maximalen Ter70 Vgl.

Rajendran (1994), insbesondere die Seiten 2545-2551. Daniels u. Chambers (1990), insbesondere die Seiten 986-988. 72 Daniels u. Chambers (1990) haben in ihrer Arbeit ebenfalls eine Branch and Bound Ansatz sowie eine problemspezifische Heuristik für das Permutation Flow Shop Problem mit zwei Maschinen vorgestellt (vgl Daniels u. Chambers (1990, S.982-986). 73 Vgl. Ishibuchi u. Murata (1998, S.392-398). 74 Vgl. Ishibuchi u. Murata (1998, S.392-398). 75 Vgl. Srinivas u. Deb (1994). 76 Vgl. Bagchi (1999), insbesondere die Seiten 216-244. 71 Vgl.

3.3

Seite 44

minüberschreitung vorgestellt.77 Beide Heuristiken bauen auf dem Prinzip der Heuristik von Nawaz u. a. (1983)78 auf. Ebenfalls ist ihnen gemeinsam, daß zu Beginn eine Menge von Zielgewichten festgelegt wird. Anschließend wird für jede der zuvor festgelegten Zielgewichte ein Kompromißmodell heuristisch gelöst. Nachdem für die unterschiedlichen Gewichtseinstellungen Auftragsfolgen konstruiert worden sind, wird aus diesen Auftragsfolge eine Menge heuristisch effizienter Lösungen ermittelt.79 Die Autoren bezeichnen einen der beiden Ansätze als a-priori Ansatz. Weil er jedoch mehrere Auftragsfolgen als Lösung hervorbringt, wird er hier zu den aposteriori Ansätzen gezählt. Ebenfalls 2002 haben Chang u. a. (2002) den ”Gradual-Priority Weighting Genetic Algorithm” (GPWGA) vorgestellt.80 Als Ziele betrachten sie die Minimierung der Zykluszeit, die Minimierung der Gesamtdurchlaufzeit sowie die Minimierung der Summe der Terminüberschreitungen. Als Kompromißmodell wird auch hier eine Zielgewichtung eingesetzt, wobei die Autoren ein Verfahren beschreiben, mit dem die Gewichte über die Laufzeit hinweg systematisch variiert werden, um die Suche in alle Regionen des Zielraums zu führen. Loukil u. a. (2005) verwenden das ”Multi Objective Simulated Annealing” (MOSA).81 Dieses wird neben der Lösung von Permutation Flow Shop Problemen auch für die Lösung von Single Machine und Parallel Machine Problemen verwendet. Die experimentellen Analysen werden für unterschiedliche Zielsysteme, bestehend aus jeweils zwei Zielen, durchgeführt. Als Kompromißmodell wird eine Konvexkombination der jeweiligen Ziele verwendet. Im übrigen ist es denkbar aus den Ansätzen von Rajendran (1994), Gangadharan u. Rajendran (1994) und Rajendran (1995) durch ein mehrmaliges Starten der Heuristik, verbunden mit einer geeigneten Variation der Zielgewichte, a-posteriori Ansätze zu entwickeln.82

3.3.4

ACO Algorithmen für das multikriterielle PFSP und Single Machine Problem

Gravel u. a. (2002) betrachten ein multikriterielles Reihenfolgeprobelm der 77 Vgl.

Framinan u. a. (2002), insbesondere die Seiten 565-568. Nawaz u. a. (1983, S.92). 79 Dieser Schritt wird in der Beschreibung der Heuristiken nicht explizit dargestellt, sondern ergibt sich indirekt aus der Aussage auf S.564 (vgl. Framinan u. a. (2002, S.564)). 80 Vgl. Chang u. a. (2002, S.3-8). 81 Vgl. Loukil u. a. (2005), insbesondere die Seiten 44-46. 82 Siehe zu den Heuristiken: Rajendran (1994, S.2545-2551), Gangadharan u. Rajendran (1994, S.473f.) und Rajendran (1995, S.542-546). 78 Vgl.

3.3

Seite 45

Aluminiumproduktion. Es kann als Single Machine Problem mit reihenfolgeabhängigen Rüstzeiten und den Zielen der Minimierung der Leerzeiten, der Minimierung der Gesamtverspätung der Aufträge, der Minimierung einer Transportkostenfunktion sowie einem weiteren Ziel83 bezeichnet werden.84 Als Kompromißmodell wird eine lexikographische Ordnung verwendet, wobei die Rangfolge der Ziele von den Autoren nicht festgelegt wird. Vielmehr wird sie dem einzelnen Entscheidungsträger überlassen.85 Iredi u. a. (2001) betrachten zwei a-posteriori Ansätze für das Single Machine Problem.86 Dabei werden die zwei Ziele der Minimierung der Summe der Terminüberschreitungen sowie die Minimierung der Rüstzeiten berücksichtigt. Die Ansätze werden in Abschnitt 6.1.4.3 vorgestellt. T’kindt u. a. (2002) haben einen mit SACO bezeichneten Algorithmus entwickelt, welcher das Problem der zweistufigen Reihenfertigung bei zwei Zielen betrachtet.87 Als Ziele werden die Minimierung der Zykluszeit und die Minimierung der Gesamtdurchlaufzeit berücksichtigt, wobei eine lexikographische Ordnung der Minimierung der Zykluszeit eine höhere Priorität zuteilt. Beim betrachteten Problem kann die optimale Zykluszeit mit Hilfe des Johnson-Algorithmus88 bestimmt werden. Der Algorithmus verfolgt daher das Ziel, die Gesamtdurchlaufzeit zu minimieren, unter der Restriktion, daß die Zykluszeit minimal ist. Offensichtlich handelt es sich beim SACO-Algorithmus um einen a-priori Ansatz.

83 Dabei handelt es sich um ein spezifisches Problem der Produktion von Aluminium. Es soll die Anzahl der benötigten Drainagen beim Umrüsten minimiert werden. 84 Vgl. Gravel u. a. (2002, S.220 u. 223). 85 Vgl. Gravel u. a. (2002, S.222). In der experimentellen Analyse verwenden Sie folgende relative Ordnung der Ziele: 1. Minimierung der Leerzeiten, 2. Minimierung der Gesamtverspätung, 3. Minimierung der Anzahl benötigter Drainagen, 4. Minimierung der Transportstrafkosten (vgl. Gravel u. a. (2002, S.224)). 86 Vgl. Iredi u. a. (2001, S363-366). Die Ansätze sind auch in der Dissertation von Merkle (2002, S.111-128) dargestellt. 87 Vgl. T’kindt u. a. (2002, S.251-253). 88 Vgl. Johnson (1954, S.64).

Kapitel 4

Lösungsqualität heuristisch effizienter Mengen 4.1 4.1.1

Einführung Grundsätzliche Überlegungen zur Lösungsqualität heuristisch effizienter Mengen

Bei Optimierungsproblemen mit einer einzelnen Zielgröße ist allgemein anerkannt, daß sich die Lösungsqualität durch den Wert des einzigen Zielfunktionswertes der Lösung beschreiben läßt. Ein Vergleich oder eine Bestimmung der Qualität von ermittelten heuristisch effiziente Mengen kann zum Beispiel durch die Berechnung einer relativen Abweichung von den Ergebnissen der Vergleichsverfahren oder von einem vorgegebenen, in der Regel des bisher besten bekannten Wertes, erfolgen. Diese Möglichkeit verschließt sich bei der Auswertung von Vektoren von Zielfunktionswerten und erst recht bei der Auswertung von Mengen von Zielfunktionsvektoren, wie es eine heuristisch effiziente Front ist.1 Das Ziel einer Heuristik soll es sein, eine ”gute Approximation” der Menge aller effizienten Lösungen E(Π, z) zu finden.2 Alternativ könnte auch 1 Bei dieser Argumentation ist zu beachten, daß eine heuristisch effiziente Menge über ihr Abbild im Zielraum, also die heuristisch effiziente Front beurteilt wird. Dabei ist zu beachten, daß die Zuordnung eines Elements der heuristisch effizienten Menge (Auftragsfolge) zu einem Element der heuristisch effizienten Front (Zielfunktionsvektor) nicht eineindeutig ist, da mehrere Auftragsfolgen den gleichen Zielfunktionsvektor besitzten können (vgl. auch Van Veldhuizen (1999, S.6-13)). 2 Vgl. die Spezifikation des in dieser Arbeit betrachteten Problems in Abschnitt 2.1.2.

4.1

Seite 47

eine ”gute Approximation” der effiziente Front als Lösung angesehen werden. Dann wäre jedoch die Auftragsfolge, welche vom Entscheidungsträger zur Realisierung eines Zielfunktionsvektors benötigt wird, nicht bekannt. Desweitern würden Informationen über Auftragsfolgen mit gleichem Zielfunktionsvektor verloren gehen.3 Was nun die Güte einer Lösung, also einer heuristisch effizienten Menge auszeichnet, ist bei weitem nicht so eindeutig und allgemein akzeptiert, wie im Ein-Ziel-Fall. Das Verständnis von ”gut” ist subjektiv und hängt somit im wesentlichen von den Präferenzen des Entscheidungsträgers ab. Die einzige Annahme, welche über die Präferenzen bei einem a-posteriori Ansatz getroffen wird ist, daß der Entscheidungsträger effiziente gegenüber dominierten Lösungen vorzieht. Somit bietet sich zunächst das Effizienzkriterium als Beurteilungsmaßstab an, wobei die Bewertung über die Abbildung der heuristisch effizienten Menge im Zielraum, der heuristisch effizienten Front erfolgt.

(a)

(b)

Abbildung 4.1: Das Effizienzkriterium bei der Beurteilung der Lösungsqualität 3 Es mag argumentiert werden, daß falls alle entscheidungsrelevanten Aspekte im Zielsystem erfaßt sind, dieses also vollständig ist, es unerheblich ist ob man eine oder mehrere Lösungen kennt, die zum gleichen Zielfunktionsvektor führen. Im Falle mehrer Lösungen wäre der Entscheidungsträger bzgl. dieser Lösungen indifferent. Dazu ist anzumerken, daß bei der Verwendung von a-posteriori Ansätzen keine Annahmen über die Präferenzen des Entscheidungsträgers getroffen werden. Das Zielsystem in dieser Arbeit ist überwiegend aus Überlegungen zu entscheidungsrelevanten Kosten abgeleitet worden. So kann es also durchaus sein, daß ein Entscheidungsträger die zunächst absichtlich nicht berücksichtigte Präferenz hat Auftragsfolgen zu realisieren, die ihm eine höhre Flexibilität bieten. Dies kann bei alternativen Auftragsfolgen, die zum gleichen Zielfunktionsvektor führen, der Fall sein. Annahmegemäß ist das in dieser Arbeit betrachtete Problem deterministisch, dennoch sollte der Flexibilitätsaspekt beachtet werden, da in der Realität stochastische Probleme existieren.

4.1

Seite 48

Eine heuristisch effiziente Menge A ist demnach besser als eine heuristisch effiziente Menge B, wenn jedes Element aus N DFB gleich einem Element aus N DFA ist oder von diesem dominiert wird und mindestens ein Element aus N DFB von einem Element aus N DFA dominiert wird (vgl. Abb. 4.1 (a)).4 Diese Situation wird allerdings nicht immer vorliegen, da sich die Mengen wechselseitig dominieren können (vgl. Abb. 4.1 (b)). Das Bilden einer Rangordnung bezüglich der Lösungsgüte mit Hilfe des Effizienzkriteriums alleine ist dann nicht möglich.5 Ebenso läßt sich nicht beurteilen, um wieviel eine Lösung besser ist als eine andere. Um diese Situation aufzulösen, werden in der Literatur bisher im wesentlichen zwei Ansätze verfolgt. Der erste Ansatz trifft zusätzliche Annahmen über die Präferenzen des Entscheidungsträgers. Diese Technik wird jedoch bereits an dieser Stelle grundsätzlich abgelehnt. Eine auf dieses Vorgehen aufbauende Aussage über die Qualität verliert nicht nur den Anspruch auf Allgemeingültigkeit, sondern ist zugleich nur für Entscheidungsträger mit gleichen Präferenzen nützlich. Sollte der Qualitätsvergleich jedoch vom Entscheidungsträger selbst und zur Unterstützung der eigenen Entscheidung durchgeführt werden, so ist dieses Vorgehen sicherlich, sofern Präferenzen angegeben werden, zulässig. Maße, die die Präferenzen berücksichtigen, wurden z.B. von Daniels (1992), Hansen u. Jaszkiewicz (1998) oder Kim u. a. (2001) vorgestellt.6 Der zweite Ansatz betrachtet mehrere Qualitätsaspekte, wobei jeder Qualitätsaspekt mit eigenen Maßen erfaßt wird.7 Bei diesem Vorgehen wird es jedoch nicht mehr möglich sein, eine vollständige und eindeutige Rangordnung der Verfahren bezüglich der Lösungsgüte zu erstellen. Vielmehr ist zu erwarten, daß sich einzelne Stärken und Schwächen der Verfahren detailliert darstellen. Es fällt anschließend in den Aufgabenbereich des Entscheidungsträgers festzulegen, auf welche Aspekte bezüglich der Qualität er besonderen Wert legt und auf welche weniger. Aufgrund dieser individuellen Überlegungen ist eine Entscheidung für oder gegen ein Verfahren zu treffen. Der Qualitätsaspekt, der am häufigsten betrachtet wird, ist die Nähe 4 Gilt N DF = N DF , so haben beide Mengen die gleiche Qualität. Bei der Betrachtung A B spielt die Mächtigkeit der Mengen keine Rolle. 5 Die soeben angestellten Überlegungen bezüglich des Effizienzkriteriums werden in Abschnitt 4.2.1 aufgegriffen. 6 Vgl. Daniels (1992, S.501-512), Hansen u. Jaszkiewicz (1998, S.10-21), Kim u. a. (2001, 116-119). 7 Beispiele für solche Qualitätsaspekte sind z.B. die später betrachtete ”Distanz zur Menge aller effizienten Lösungen” (vgl. Abschnitt 4.2.1), die ”Größe der aufgezeigten Variationsbreite der Zielfunktionswerte” (vgl. Abschnitt 4.2.2) oder die ”Verteilung der Zielfunktionsvektoren im Zielraum” (vgl. Abschnitt 4.2.3).

4.1

Seite 49

der heuristisch effizienten Menge zur Menge aller effizienten Lösungen. Daher gibt es eine große Anzahl von Maßen, die für diesen Aspekt vorgestellt worden sind. Daneben wird häufig die Größe der Variationsbreite der Zielfunktionswerte in der NDF als weiterer Aspekt verwendet wie auch die Verteilung der Elemente der heuristisch effizienten Menge im Zielraum. Die Beurteilung der Qualität durch den Entscheidungsträger kann allgemein über den visuellen Vergleich oder die Ermittlung von Qualitätsmaßen erfolgen. In der Literatur ist der visuelle Vergleich ein gängiges Verfahren, wie Van Veldhuizen u. Lamont (2000) feststellen.8 Sie merken an, daß eine Qualitätsbeurteilung bzw. ein Qualitätsvergleich wenig über die Effektivität und Effizienz, der in ihrer Arbeit betrachteten multikriteriellen Genetischen Algorithmen aussagt.9 Auch wenn der visuelle Vergleich, insbesondere im bikriteriellen Fall, einfach und schnell durchzuführen ist, so entsteht bei der Analyse mehrerer Probleminstanzen ein erheblicher Aufwand, da entsprechend viele Grafiken zu erstellen sind und jede einzelne vom Entscheidungsträger zu beurteilen ist. Eine Aggregation der Qualitätsbeurteilung über mehrere Probleminstanzen, z.B. gleicher Größe, erscheint schwierig.10 Ein weiterer Kritikpunkt am visuellen Vergleich ist, daß mit zunehmender Mächtigkeit der zu beurteilenden heuristisch effizienten Menge die Bewertung unmöglich oder zumindest sehr schwierig wird.11 Bei der Bewertung von mehr als drei Zielen ist eine Projektion der heuristisch effizienten Menge theoretisch noch möglich, eine Interpretation und damit der visuelle Vergleich aber nahezu unmöglich.12 Der visuelle Vergleich verschließt sich damit als allgemeiner Ansatz zur Qualitätsbeurteilung, so daß im Folgenden eine Konzentration auf Qualitätsmaße erfolgt. 8 Vgl.

Van Veldhuizen u. Lamont (2000, S.132). Van Veldhuizen u. Lamont (2000, S.132). 10 Hier kann der Einwand erhoben werden, daß ein Entscheidungsträger stets nur eine Probleminstanz zu beurteilen hat. Sollen jedoch, wie in dieser Arbeit, generelle Aussagen über die Güte von Lösungsverfahren getroffen werden, so müssen mehrere Probleminstanzen untersucht werden. Im übrigen gilt dies auch für Entscheidungsträger, welche vor einer grundsätzlichen Entscheidung für den Einsatz des einen oder anderen Lösungsverfahrens stehen. 11 Vgl. Farhang-Mehr u. Azarm (2002, S.723). Steigt die Mächtigkeit der heuristisch effizienten Menge, so ist zu erwarten, daß auch die Mächtigkeit ihrer Abbildung im Zielraum, also die Mächtigkeit der heuristisch effizienten Front steigt. 12 Vgl. Farhang-Mehr u. Azarm (2002, S.723). 9 Vgl.

4.1

Seite 50

4.1.2

Klassifikation von und Anforderungen an Maße zur Qualitätsanalyse

4.1.2.1

Klassifikation von Qualitätsmaßen

Maße, die zur Qualitätsbeurteilung entwickelt wurden, werden in der Literatur unterschiedlich klassifiziert. Ein erstes und einfaches Kriterium ist die Unterteilung in qualitative und quantitative Maße. Qualitative Maße ermöglichen eine Aussage darüber, ob eine Lösung besser ist als eine andere, jedoch nicht mehr. Soll zusätzlich eine Aussage darüber getroffen werden, um wieviel besser eine Lösung gegenüber einer anderen ist, müssen quantitative Maße verwendet werden. Kim u. a. (2001) unterscheiden neben dem visuellen Vergleich in ihrer Arbeit drei Gruppen von Maßen für den Qualitätsvergleich.13 Die erste Gruppe von Maßen wertet geometrische Eigenschaften einer Lösung aus. Dazu gehören zum einen Längen- und Flächenmaße sowie Distanzmaße. Von diesen werden in einer zweiten Gruppe die Maße unterschieden, welche die Mächtigkeit der Menge der heuristisch effizienten Front als Berechnungsgrundlage heranziehen. In der dritten Gruppe werden von ihnen die Maße zusammengefaßt, die weitere Annahmen über die Präferenzen des Entscheidungsträgers zugrunde legen und bereits oben diskutiert wurden. Knowles (2002) unterscheidet mit den unabhängigen Maßen, den direkten Maßen sowie den Referenzmaßen drei Klassen von Maßen, die zwei Lösungen miteinander vergleichen.14 Die unabhängigen Maße erfassen Aspekte, die weder von einer anderen Lösung noch von einer Referenz beeinflußt werden können, wie z.B. die Mächtigkeit einer Lösungsmenge. Direkte Maße vergleichen zwei Lösungen A und B direkt miteinander und resultieren in einer skalaren Größe, die angibt, um wieviel Lösung A besser ist als Lösung B. Referenzmaße vergleichen zunächst beide Lösungen gegen eine Referenzlösung. Der Qualitätsvergleich von A und B wird anschließen mit Hilfe der beiden daraus resultierenden Werte durchgeführt. Direkte Maße können als Referenzmaße eingesetzt werden, Referenzmaßemaße jedoch nicht grundsätzlich als Direkte Maße.15 Nach Knowles (2002) erzeugen direkte Maße nicht immer eine vollständige Ordnung der in den 13 Vgl.

dazu Kim u. a. (2001, S.115f.). dazu Knowles (2002, S.72f.). 15 Vgl. Knowles (2002, S.72). Daß Referenzmaße nicht immer als Direkte Maße verwendet werden können, liegt insbesondere an der bei einigen Maßen definierten Referenz. So ist die Error Ratio ursprünglich speziell auf die Effiziente Front E(z) als Referenz definiert (vgl. die Darstellung der ”Error Ratio” in Abschnitt 4.2.1.2 sowie Van Veldhuizen (1999, S.6-14)). 14 Vgl.

4.1

Seite 51

Vergleich aufgenommenen Verfahren,16 wohl aber die unabhängigen Maße und Referenzmaße. 4.1.2.2

Die TMPS als Referenzlösung

Mitunter findet sich in der Literatur das Vorgehen, eine heuristisch effiziente Menge um so besser zu beurteilen, je größer die für die Zielfunktionswerte aufgezeigten Variationsbreiten sind,17 oder je mehr Elemente in der heuristisch effizienten Menge enthalten sind. Ebenso wird häufig gefordert, daß eine gleichmäßige Verteilung der Elemente der heuristisch effizienten Front im Zielraum besser sei, als das Auftreten von Clustern.18 Dieses Vorgehen ist nicht dazu geeignet, die Qualität einer Lösung korrekt zu beurteilen, da es eine Beurteilung ohne Berücksichtigung der Eigenschaften der Menge aller effizienten Lösungen E(Π, z) vornimmt.19 Angenommen die Menge aller effizienten Lösungen hat nur sehr wenige Elemente oder es liegt zufällig eine perfekte Lösung vor, dann ist die Forderung nach möglichst vielen Elementen in der zu beurteilenden heuristisch effizienten Menge nicht angebracht. Für die Größe der aufgezeigten Variationsbreiten der Zielfunktionswerte gilt das gleiche. Auch sie sollten bezüglich ihrer Relation zu den Variationsbreiten der Zielfunktionswerte der Elemente der Menge aller effizienten Lösungen beurteilt werden und nicht grundsätzlich maximal sein. Ebenso ist es durchaus denkbar, daß die effiziente Front E(z) Cluster aufweist. Würde grundsätzlich gefordert, daß die Elemente der heuristisch effizienten Front im Zielraum gleichmäßig verteilt sein sollen, so würde eine heuristisch effiziente Front, welche ebenfalls Cluster aufweist, schlechter bewertet, als wenn sie eine gleichmäßige Verteilung aufweisen würde. Daher konzentrieren sich Knowles (2002) und Knowles u. Corne (2002) auf Maße zur Erfassung der Distanz.20 Die anderen Qualitätsaspekte bleiben unberücksichtigt, um der Gefahr der Verwendung irreführender Maße zu begegnen. Dabei wird übersehen, daß sich die Kritik nicht gegen den Sinn eines Qualitätsaspektes richtet, sondern gegen die Art und Weise, wie die Maße zu seiner Erfassung definiert und beurteilt werden. Es sollten vielmehr die Eigenschaften der Menge aller effizienten Lösungen E(Π, z) bei der Beurteilung berücksichtigt werden und somit eine 16 Vgl. Knowles (2002, S.73). Z.B. gehört das später vorgestellte C-Maß zu den direkten Maßen, die keine vollständige Ordnung erzeugen können (vgl. Knowles (2002, S.86)). 17 Vgl. Zitzler u. a. (2000, S.179). 18 Vgl. Zitzler u. a. (2000, S.179). 19 Auf dieses Problem haben auch Knowles (2002, S.70) und Knowles u. Corne (2002, S.711) hingewiesen. 20 Vgl. hierzu und den folgenden Satz Knowles (2002, S.70) bzw. Knowles u. Corne (2002, S.711).

4.1

Seite 52

heuristisch effiziente Menge direkt mit dieser als Referenzlösung beurteilt werden. Die Menge aller effizienten Lösungen ist in der Regel jedoch unbekannt. Ein Ausweg ist darin zu finden, daß die beste bekannte Approximation als Referenz verwendet wird. In Farhang-Mehr u. a. (2001) wird diese beste bekannt Approximation als ”Total Meta Pareto Set” (TMPS) bezeichnet und ist wie folgt definiert:21 TMPS =

[

M P Sl

(4.1)

l=1(1)L

Dabei ist M P Sl die Menge der sogenannten ”Meta Pareto Solutions” der heuristisch effizienten Menge l (N DSl ), l = 1(1)L:

  M P Sl = π | @π 0 ∈ 

[

N DSw ; z(π 0 ) ≤ z(π) ; π 0 6= π ; π ∈ N DSl

  

w=1(1)L

(4.2) Die M P Sl wird also von den Elementen der N DSl gebildet, die von keinem anderen Element, der l = 1(1)L zur Berechnung der T M P S berücksichtigen heuristisch effizienten Mengen, dominiert werden. Es sind somit die Elemente, welche die heuristisch effiziente Menge l (N DSl ) in die T M P S einstellt. Die ”Total Meta Pareto Front” (T M P F ) ist definiert als Abbildung der T M P S im Zielraum: T M P F = {z(π) | π ∈ T M P S}

(4.3)

Abbildung 4.2 zeigt ein kleines grafisches Beispiel zur Ermittlung der T M P S. Es werden die L = 3 heuristisch effizienten Mengen N DSA = {A ; B ; C}, N DSB = {D ; E ; F } und N DSC = {G ; H} zur Ermittlung einer T M P S verwendet. Die Mengen der Meta Pareto Solutions sowie die TMPS ergeben sich wie in Abbildung 4.2 angegeben. Da die Auftragsfolgen A und D den gleichen Zielfunktionsvektor besitzten enthält die weniger als ( TMPF ! ein Element ! ! !)die TMPS und ergibt sich zu: T MP F =

1

10

;

3 8

;

7 3

;

10 1

.

Soll nun zum Beispiel die Anzahl der Elemente in einer heuristisch effizienten Menge als Qualitätsmaß zu deren Beurteilung verwendet werden, so erscheint es sinnvoll, die Mächtigkeit der Menge in Relation zur Mäch21 Vgl.

Farhang-Mehr u. a. (2001, S.5).

4.1

Seite 53

Abbildung 4.2: Ermittlung der TMPS tigkeit der TMPS zu beurteilen und nicht nach einer grundsätzlichen Maximierung zu streben. Bei Verwendung der TMPS besteht keine Sicherheit, die Menge aller effizienten Lösungen E(Π, z) zu betrachten. Damit kann nicht ausgeschlossen werden, daß diese Menge doch mehr Elemente enthält als die TMPS. Ebenso gut können es aber auch weniger sein. Gleiches gilt für die Größe der von der TMPS aufgezeigten Variationsbreiten der Zielfunktionswerte. 4.1.2.3

Anforderungen an geeignete Maße: Monotonie und Relativität

Auch ohne die explizite Ermittlung eines Qualitätsmaßes kann festgehalten werden, daß sich die Qualität einer heuristisch effizienten Menge immer verbessert, wenn dieser Menge ein weiteres Element hinzugefügt wird. Vor diesem Hintergrund sollen die Forderungen von Knowles (2002) diskutiert werden, daß Maße zur Qualitätsbeurteilung die Anforderungen der (schwachen) Monotonie und der (schwachen) Relativität erfüllen sollten.22 Obwohl er in seiner Arbeit nur Maße für die Erfassung der Distanz der NDS zur Menge aller effizienten Lösungen E (Π, z) betrachtet, erscheint 22 Vgl. Knowles (2002, S.73). Die Definitionen finden sich auch in Knowles u. Corne (2002, S.712).

4.1

Seite 54

es sinnvoll, die Forderungen auch auf Maße für andere Qualitätsaspekte auszudehnen. Des weiteren ist zu beachten, daß er in seiner Arbeit die heuristisch effiziente Front als Lösung betrachtet, während in dieser Arbeit heuristisch effiziente Mengen als Lösung betrachtet werden. Die von Knowles (2002) formulierten Anforderungen werden daher hier für die Anwendung auf die heuristisch effiziente Menge und die T M P S als Referenz angepaßt.23 (Schwache) Monotonie: Das Hinzufügen eines Elements zur heuristisch effizienten Menge (verschlechtert nie) verbessert deren Bewertung. Es ist absolut unerwünscht, daß ein Maß eine heuristisch effiziente Menge bezüglich eines Qualitätsaspekts besser beurteilt als die Menge aller effizienten Lösungen E (Π, z), welche die optimale Lösung darstellt. Nach der Definition der T M P S (vgl. Seite 52) kann es kein Element einer heuristisch effizienten Menge geben, das ein Element der T M P S dominiert. Somit kann die von Knowles (2002) formulierte Relativitätsforderung hier wie folgt angepaßt werden: (Schwache) Relativität: Die TMPS hat (nicht) als einzige die beste Bewertung bezüglich des verwendeten Qualitätsmaßes. Qualitätsbeurteilungen, welche mit Hilfe von Maßen durchgeführt werden, welche diese Forderungen, zumindest in der schwachen Form, nicht erfüllen, führen zu Fehlentscheidungen bzw. zu Fehlentwicklungen, falls mit ihrer Hilfe Algorithmen entwickelt oder ihre Parameter eingestellt werden. Die in dem folgenden Abschnitt betrachteten Qualitätsmaße werden daher auf die Erfüllung dieser Eigenschaften hin überprüft. Dabei wird insbesondere bei der Überprüfung der (schwachen) Monotonie davon ausgegangen, daß sich nur eine heuristisch effiziente Menge ändert und die restlichen Mengen, welche zur Bestimmung der TMPS herangezogen werden, unverändert bleiben. Offensichtlich bedeutet ein Erfüllen der Forderungen nach Monotonie und Relativität durch ein Maß nicht automatisch, daß Fehlentscheidungen bei seiner Verwendung ausgeschlossen sind. Es ist zu beachten, daß ein Maß grundsätzlich Schwächen bei dem von ihm erfaßten Qualitätsaspekt haben kann. Als Beispiel soll ein Maß, welches die Verteilung der Elemente einer heuristisch effizientne Menge im Zielraum im Vergleich zu denen der T M P S erfasst, betrachtet werden. Angenommen 23 Vgl. für die Anforderungen Knowles (2002, S.73) oder auch Knowles u. Corne (2002, S.712).

Das Ersetzen der effiziente Front E(z) durch die TMPS stellt keine Einschränkung dar. Die TMPS entspricht der Menge aller effizienten Lösungen E(Π, z), falls diese bekannt ist und im Vergleich berücksichtigt wird. Damit ist dann auch die effiziente Front E(z) bekannt.

4.2

Seite 55

sowohl die heuristisch effiziente Menge als auch die T M P S weisen Cluster auf, so kann die Forderung der Relativität und Monotonie vom Maß durchaus erfüllt werden. Dennoch muss nicht sichergestellt sein, dass die Cluster der beiden Mengen im gleichen Bereich des Zielraums liegen.

4.2

Beurteilung von Qualitätsmaßen

4.2.1

Distanz zur Menge aller effizienten Lösungen

4.2.1.1

Kompatibilität mit den Outperformance Relationen als zusätzliche Anforderung

Den zentralen Qualitätsaspekt stellt zweifelsfrei die Nähe einer heuristisch effizienten Menge zur Menge aller effizienten Lösungen E(Π, z) dar. Damit ein Maß überhaupt geeignet sein kann, die Entfernung korrekt zu erfassen, sollte es grundsätzlich in der Lage sein eine Lösung, die eine andere vollständig dominiert, besser oder zumindest nicht schlechter zu bewerten. Durch diese Überlegung kann allgemein gefordert werden, daß die Maße mit den von Hansen u. Jaszkiewicz (1998) formulierten drei Outperformance Relationen kompatibel sein müssen.24 Schwache (weak) Outperformance Relation: N DFA dominiert N DFB schwach (ARW B), falls jedes Element aus N DFB von einem Element aus N DFA dominiert wird oder gleich einem Element aus N DFA ist. Weiterhin muß gelten, daß in N DFA mindestens ein Element enthalten ist, das nicht in N DFB enthalten ist. Abbildung 4.3 zeigt ein Beispiel für die Situation ARw B.25 Werden nur zwei heuristisch effiziente Mengen (L = 2) miteinander verglichen so gilt offenbar: T M P F = N DFA . Starke (strong) Outperformance Relation: Es gilt ARS B, wenn es für jedes Element aus N DFB ein Element in N DFA gibt, das gleich diesem ist oder dieses dominiert. Mindestens ein Element aus N DFB wird von einem Element aus N DFA dominiert. In Abbildung 4.4 ist ein Beispiel für ARS B dargestellt. Werden nur zwei heuristisch effiziente Mengen (L = 2) miteinander verglichen so gilt offenbar: T M P F = N DFA und N DFB \ T M P F 6= ∅. 24 Diesem

Argument folgt auch Knowles (2002, S. 70f.), bzw. Knowles u. Corne (2002, S.712). Die Forderung, nach Kompatibilität mit den drei Outperformance Relationen muss nur von Maßen, welche die Distanz zur Menge aller effizienten Lösungen messen wollen, erfüllt sein. Für die weiteren in dieser Arbeit betrachteten Qualitätsaspekte sind sie nicht relevant, da sie unabhängig vom Vorliegen (heuristischer) Effizienz sind. 25 Vgl. zu dieser und den folgenden Outperformance Relationen Hansen u. Jaszkiewicz (1998, S. 6-8).

4.2

Seite 56

Abbildung 4.3: Schwache Outperformance

Abbildung 4.4: Starke Outperformance

4.2

Seite 57

Vollständige (complete) Outperformance Relation: Es gilt ARC B, falls jedes Element aus N DFB von mindestens einem Element aus N DFA dominiert wird. Abbildung 4.5 gibt diese Situation wieder. Werden nur zwei heuristisch effiziente Mengen (L = 2) miteinander verglichen, so gilt offenbar: T M P F = N DFA sowie N DFB ∩ T M P F = ∅.

Abbildung 4.5: Vollständige Outperformance

Offensichtlich ist die vollständige Outperformance Relation ein Sonderfall der starken Outperformance Relation und diese wiederum ist ein Sonderfall der schwachen Outperformance Relation.26 Die drei Relationen sind keine eigenständigen Maße und erfaßen nicht alle Möglichkeiten, die bezüglich der Dominanz zwischen zwei heuristisch effizienten Fronten auftreten können. So wird insbesondere der Fall, in dem sich die Mengen in verschiedenen Bereichen des Zielraums wechselseitig dominieren, nicht erfaßt. Ein Beispiel für einen solchen Fall ist in Abbildung 4.6 dargestellt. Dort dominiert weder N DFA die N DFB noch umgekehrt. Dieser Fall wird von den Outperformance Relationen nicht erfaßt, in dem Sinne, daß die schwache Outperformance Relation nicht erfüllt ist und damit auch nicht die starke und vollständige Outperformance Relation. 26 Vgl.

Hansen u. Jaszkiewicz (1998, S.8).

4.2

Seite 58

Abbildung 4.6: Gegenseitige Dominanz Des weiteren ist zu berücksichtigen, daß die Zuordnung zwischen den Elementen einer heuristisch effizienten Menge und denen der heuristisch effizienten Front nicht eineindeutig ist. Grundsätzlich ist es möglich, daß mehrere Auftragsfolgen den gleichen Zielfunktionsvektor aufweisen.27 Dennoch kann der Argumentation von Knowles (2002) bzw. Knowles u. Corne (2002) gefolgt werden, daß Maße, die nicht in der Lage sind die drei Outperformance Relationen korrekt zu erfassen, nicht zur Messung der Distanz der heuristisch effizienten Menge zur Menge aller effizienten Lösungen und einen darauf aufbauenden Vergleich von heuristisch effizienten Lösungen geeignet sind.28 Hansen u. Jaszkiewicz (1998) haben die Kompatibilität von Vergleichsmethoden mit den Outperformance Relationen definiert:29 Schwache Kompatibilität: Ein Maß ist dann schwach kompatibel mit einer Outperformance Relation RO , wenn bei Gültigkeit der Relation ARO B, das Maß N DFA nicht schlechter bewertet als N DFB . 30 Kompatibilität: Ein Maß ist dann kompatibel mit einer Outperformance 27 Auf

dieses Problem weist auch Van Veldhuizen (1999, S.6-13) hin. Knowles (2002, S.71) bzw. Knowles u. Corne (2002, S.712). 29 Vgl. Hansen u. Jaszkiewicz (1998, S.10). 30 R O steht hier allgemein für eine der drei Outperformance Relationen, daher: RO ∈ {RW , RS , RC }. 28 Vgl.

4.2

Seite 59 Relation, wenn bei Gültigkeit der Relation ARO B, das Maß N DFA besser bewertet als N DFB .

Die Definition der schwachen Outperformance Relation umfaßt die Fälle der starken und die Definition der starken Outperformance Relation die Fälle der vollständigen Outperformance Relation. Die Kompatibilitätseigenschaften eines Maßes können aufgrund dieses Zusammenhangs von der schwachen über die starke hin zur vollständige Outperformance Relation nicht abnehmen. Ist also z.B. ein Maß schwach kompatibel mit der schwachen Outperformance Relation, so ist es auch mindestens schwach kompatibel mit der starken und vollständigen Outperformance Relation. Es ist aber möglich, daß der Grad der Kompatibilität zunimmt. Bei der in den folgenden Abschnitten durchgeführten Beurteilung von Qualitätsmaßen wird unterstellt, daß keine zwei oder mehrere Elemente der heuristisch effizienten Menge einen gleichen Zielfunktionsvektor besitzen. Sollte ein Maß bei Gültigkeit der Annahme nicht kompatibel sein, so wird es auch nach dem Aufheben der Annahme nicht kompatibel sein. Ebenso kann durch das Fallenlassen der Annahme aus einer schwachen Kompatibilität keine Kompatibilität werden. Es ist jedoch möglich, daß sich die Kompatibilitätseigenschaft eines Maßes abschwächt oder nicht mehr existiert, falls die Annahme aufgehoben wird. Somit wird ein Maß durch diese Annahme tendenziell besser beurteilt. Die Kompatibilitätseigenschaften eines Maßes hängen von der Anzahl L der im Vergleich berücksichtigten heuristisch effizienten Mengen ab. Daher werden im folgenden Abschnitt 4.2.1.2 zwei Fälle unterschieden. Im ersten Fall (L = 2) werden nur zwei heuristisch effiziente Mengen im Vergleich und bei der Berechnung der T M P S verwendet. Im zweiten Fall (L ≥ 3) werden drei umd mehr heuristisch effiziente Mengen im Vergleich und bei der Berechnung der T M P S verwendet. 4.2.1.2

Beurteilung von Maßen

Number of non dominated solutions (Schaffer (1985)): In seinem Experiment hat Schaffer (1985) heuristisch effiziente Mengen mit Hilfe ihrer Mächtigkeit verglichen.31 N N DSl =| T M P S ∩ N DSl |=| M P Sl |

(4.4)

Je größer der Wert von N N DSl ist, desto besser wird die ausgewertete Lösung beurteilt. 31 Vgl.

Schaffer (1985, S.96).

4.2

Seite 60

Im Fall L = 2 ist N N DSl mit allen drei Outperformance Relationen kompatibel.32 Bei nur zwei betrachteten heuristisch effizienten Mengen gilt aufgrund der Definition der schwachen Outperformance Relationen im Fall ARw B immer T M P S = M P SA = N DSA und somit: N N DSA =| T M P S |= | M P SA |=| N DSA |. Aufgrund der Definition gilt offensichtlich ebenfalls immer: | M P SB | N N DSB gilt. Da die starke und vollständige Outperformance Relation Sonderfälle der schwachen Form sind, muß auch bei Ihnen die Kompatibilitätseigenschaft erfüllt sein. Im Fall L ≥ 3 ist N N DSl mit allen drei Outperformance Relationen nur noch schwach kompatibel.33

(a)

(b)

Abbildung 4.7: Number of non dominated Solutions, Fall: L ≥ 3 Es soll zunächst die vollständige Outperformance Relation betrachtet werden. Gegeben sei der Fall ARC B, CRC B und ARC C, wie in Abbildung 4.7 (a) dargestellt. Es ist grundsätzlich nicht möglich, daß N DSC eine schlechtere Bewertung als N DSB erhält. Da aber T M P S = M P SA = N DSA und M P SB = M P SC = ∅ gilt, ergibt sich N N DSB = N N DSC = 0. Obwohl also CRC B gilt, wird N DSC damit nicht besser bewertet als N DSB . Somit besteht schwache Kompatibilität. Da die vollständige Outperformance Relation ein Sonderfall der starken und schwachen Outperformance Relation ist, kann bei diesen höchstens 32 L = 2, d.h. es werden nur zwei heuristisch effiziente Mengen zur Berechnung der T M P S herangezogen. 33 L = 3, d.h. es werden 3 oder mehr heuristisch effiziente Mengen zur Berechnung der T M P S herangezogen.

4.2

Seite 61

ebenfalls eine schwache Kompatibiliät existieren. Im Fall der schwachen Outperformance Relation kann man sich leicht überlegen, daß es unabhängig von anderen bei der Berechnung der T M P S berücksichtigten Mengen nicht möglich ist, daß im Fall CRW B N DSB mehr Elemente in die TMPS einstellt als N DSC . Damit besteht zumindest schwache Kompatibilität, da N DSC nie schlechter bewertet werden kann als N DSB . Gilt nun aber z.B. zusätzlich ARC B und ARC C, wie in Abbildung 4.7 (b) dargestellt, so stellen weder N DSB noch N DSC Elemente in die TMPS ein. Damit gilt M P SB = M P SC = ∅ und daher auch N N DSB = N N DSC = 0. Es ist also möglich das N DSC zumindest gleich gut bewertet wird wie N DSB . Es besteht daher nur schwache Kompatibilität. Da eine schwache Kompatibilität sowohl mit der schwachen als auch mit der vollständigen Outperformance Relation besteht, muß auch eine schwache Kompatibilität mit der starken Outperformance Relation bestehen. Es besteht daher eine schwache Kompatibilität mit allen drei Outperformance Relationen. Das Maß erfüllt die Anforderung der Relativität in dem Sinne, daß es für keine heuristisch effiziente Menge N DSl 6= T M P S möglich ist, einen größeren oder gleichen Wert anzunehmen als die TMPS. Es ist prinzipiell möglich, daß der Wert von N N DSl durch das Einfügen eines Elements sinken kann, dann würde sich aber auch die TMPS verändern und in ihrer Mächtigkeit sinken. Da aber der Wert von N N DSl sinken kann und das Maß an sich nach einer Maximierung strebt, ohne den Wert der TMPS zu berücksichtigen, erfüllt das Maß nicht die Anforderung der Monotonie. Error Ratio (Van Veldhuizen (1999)) / Inferiority Index (FarhangMehr u. a. (2001)): Die von Van Veldhuizen (1999) vorgestellte Variante der ”Error Ratio” ermittelt den Anteil der Elemente der heuristisch effizienten Front NDF, die nicht in der effizienten Front E(z) enthalten sind:34 ERlV EL =

| N DFl | − | M P Fl | | N DFl |

(4.5)

Van Veldhuizen (1999) merkt selber an, daß anstelle der NDF und der effizienten Front auch die heuristisch effiziente Menge und die Menge aller effizienten Lösungen E(Π, z) bei der Berechnung verwendet werden können.35 Wird die Menge aller effizienten Lösungen, durch die TMPS ersetzt, dann ergibt sich die in dieser Arbeit betrachtete Variante der ”Error Ratio” zu: 34 Vgl. 35 Vgl.

Van Veldhuizen (1999, S.6-14). Van Veldhuizen (1999, S.6-20).

4.2

Seite 62

ERl =

| N DSl | − | M P Sl | | M P Sl | =1− | N DSl | | N DSl |

(4.6)

In dieser Form entspricht das Maß dem von Farhang-Mehr u. a. (2001) vorgestellten ”Inferiority Index” (Inf Il ).36 Ein Wert von Null ist die beste Bewertung und bedeutet, daß alle Elemente von N DSl in der TMPS enthalten sind.37 Die schlechteste Bewertung ist Eins. In diesem Fall ist keines der Elemente aus N DSl in der TMPS enthalten. Im Fall L = 2 ist ERl bzw. Inf Il mit der vollständigen und starken Outperformance Relation kompatibel.38 Aufgrund der Definition der beiden Outperformance Relationen gilt bei ARC B und ARS B immer: T M P S = M P SA = N DSA . Daher ist ERA immer Null, weil der Term | N DSA | − | M P SA | immer den Wert Null animmt. ERB muß hingegen immer größer Null sein, da aufgrund der Definition der vollständige und starken Outperformance Relation N DSB \ T M P S 6= ∅ und daher | N DSB |>| M P SB | und P SB | damit |M |N DSB | < 1 gilt. Es gilt somit ERB > 0. Damit wird N DSA immer besser bewertet als N DSB . Bezüglich der schwachen Outperformance Relation ist ERl schwach kompatibel, da hier im Fall ARW B N DSB ∩ T M P S = N DSB gelten (vgl. dazu Abbildung 4.3 auf Seite 56) und damit M P SB = N DSB gelten würde. Damit ergibt sich ERB = 0. Da weiterhin ERA = 0 gilt, ist eine bessere Bewertung von N DSB als N DSA ausgeschlossen. Im Fall L ≥ 3 ist ERl mit der vollständigen Outperformance Relation schwach kompatibel. Gilt z.B. ARC C, CRC B, ARC B (vgl. Abbildung 4.8 (a)), dann ist | M P SB |=| M P SC |= ∅ und daher ERB = ERC = 1. Daß bei Gültigkeit von CRC B ein Element aus N DSB in die TMPS eingestellt wird, ist, unabhängig von den andern bei der Berechnung der T M P S berücksichtigten heuristisch effizienten Mengen, nicht möglich. Daher kann N DSB grundsätzlich keine bessere Bewertung erhalten als N DSC . Für die starke Outperformance Relation besteht keine Kompatibilität 36 Vgl.

Farhang-Mehr u. a. (2001, S.7). zu dieser und zur folgenden Aussage die Interpretation in Van Veldhuizen (1999, S.615) oder Knowles (2002, S.75). 38 Knowles (2002, S.75-77 u. 92) betrachtet ebenfalls die ”Error Ratio”, wobei er die Version, in welcher die NDF und die effiziente Front E(z) zur Berechnung verwendet werden betrachtet. Er stellt in seiner Arbeit fest, daß die ”Error Ratio” schwach kompatibel mit der vollständigen Outperformance Relation ist. Bezüglich der schwachen und starken Outperformance Relation besteht keine Kompatibilität. (vgl. Knowles (2002, S.75)). In seiner Tabelle 3.2 auf S.92 ist jedoch eine fehlende Kompatibilität für alle drei Outperformance Relationen eingetragen. Auch in Tabelle 1 in der Arbeit von Knowles u. Corne (2002, S.716) wird eine fehlende Kompatibiltiät mit allen drei Outperformance Relationen angegeben. Ein stichhaltiger Beweis für diese Aussagen fehlt jedoch in beiden Arbeiten. 37 Vgl.

4.2

Seite 63

(a)

(b) Abbildung 4.8: Error Ratio, Fall: L ≥ 3

mehr, auch keine schwache. Hier ist es möglich, daß ERB < ERA resultiert, obwohl ARS B gilt. Ein Beispiel für einen solchen Fall ist in Abbildung 4.8 (b) angegeben. Dort gilt: ERB = 1 − 32 = 13 und ERA = 1 − 25 = 35 . Da keine Kompatibilität mit der starken Outperformance Relation besteht, kann auch keine mit der schwachen Form bestehen. Das Maß erfüllt in beiden Fällen die Anforderung der Relativität, da nur falls N DSl = T M P S gilt ERl = 1 ist. Die Eigenschaft der Monotonie ist hingegen nicht erfüllt, da es grundsätzlich möglich ist, daß ein Element eingefügt wird, welches kein bis dahin in der Lösung enthaltenes Element verdrängt und auch nicht in die M P Sl eingeht. Dieser Einfügevorgang hat jedoch zu Folge, daß der Wert der ”Error Ratio” ERl steigt. Würde z.B. in Abbildung 4.8 (b) in N DSB eine Element mit dem Zielfunktionsvektor ! 8 eingefügt, so würde ERB von 13 auf 1 − 24 = 12 steigen. 3 Proportions of efficient Solutions (Tuyttens u. a. (2000)): Dieses Maß ermittelt den Anteil der Elemente der heuristisch effizienten Menge, die in der Menge aller effizienten Lösungen enthalten sind.39 Für die Zwecke dieser Arbeit wird anstelle der heuristisch effizienten Menge E(Π, z) erneut die TMPS verwendet. 39 Vgl.

Tuyttens u. a. (2000, S.305).

4.2

Seite 64

P ESl =

| M P Sl | | TMPS |

(4.7)

Ein Wert von Eins bedeutet, daß alle Elemente aus N DSl in der TMPS enthalten sind. Ein Wert von Null zeigt an, daß N DSl von der TMPS vollständig dominiert wird.40 Im Fall L = 2 ist das Maß mit allen drei Outperformance Relationen kompatibel. Es genügt zu zeigen das P ESl mit der schwachen Outperformance Relation kompatibel ist. Aufgrund der Definition der schwachen Outperformace Relation gilt im Fall ARW B: T M P S = M P SA = N DSA und damit P ESA = 1. Weiterhin muß aufgrund der Definiton von RW immer | M P SB | 0, mit x ∈ N DSB . Damit ist dann D1B größer Null. 44 Vgl. 45 Bei

max k=1(1)K

Czyzak u. Jaszkiewicz (1998, S.41). ist c(x, y) wie folgt zu ermitteln: c(x, y) = nMaximierungsproblemen o 0 ; 41 (zk (y) − zk (x)) (vgl. Czyzak u. Jaszkiewicz (1998, S.41)). Die bei der k

Minimierung zu verwendende Form kann auch aus folgender Überlegung heraus hergeleitet werden. Maximierungsprobleme können durch Multiplikation n mit -1 in Minimierungsprobleo me überführt werden. Somit ergibt sich: c(x, y) = max 0 ; 41 (−zk (y) − (−zk (x))) = k k=1(1)K o n max 0 ; 41 (zk (x) − zk (y)) . k=1(1)K

k

4.2

Seite 67

Für D2l gelten mit analoger Begründung die gleichen Aussagen wie für D1l . Im Fall L ≥ 3 sind D1l und D2l mit der schwachen Outperformance Relationen schwach kompatibel. Mit der starken und vollständigen Outperformance Relation sind die beiden Maße kompatibel.

Abbildung 4.10: D1l und D2l , Fall: L ≥ 3 In Abbildung 4.10 ist ein Beispiel für die Situation CRw B dargestellt.46 Dort gilt D1B = D1C = 85 und D2B = D2C = 1. Für die Werte von ∆1 und ∆2 ergeben sich: ∆1 = 5 − 1 = 4 und ∆2 = 5 − 1 = 4. Berechnung von D1B und D2B : 

c(C 0 , A0 ) = max 0; 0



0

c(C , B ) = max 0; D1B = ( 14 + 1) · D2B = max

1 4

1 2

=





2−1 5−5 ; 4 4 2−5 5−1 ; 4 4

=

1 4

=1

5 8

;1 =1

Berechnung von D1C und D2C : 

c(D0 , A0 ) = max 0; 

c(E 0 , A0 ) = max 0; 

c(D0 , B 0 ) = max 0; 

c(E 0 , B 0 ) = max 0; 46 An



2−1 5−5 ; 4 = 1 4 49 10−1 2−5 ; 4 = 4 4 2−5 5−1 ; 4 =1 4 10−5 2−1 ; = 54 4 4

den grauen Linien sind die Werte für c(x, y) angegeben.

4.2

Seite 68 D1C = min

1



4

;

9 4

D2C = max min



1 4



+ min 1; ;

9 4

5 4





; min 1;

·

1

= ( 41 + 1) ·

2 5 4

1 2

=

5 8

=1

Daß bei Gültigkeit von CRw B N DSB besser bewertet wird als N DSC , ist nicht möglich. Dazu müßte ein Element aus N DSB näher an einem Element der T M P S liegen als ein Element aus N DSC . Dies ist bei Gültigkeit von CRW B nicht möglich, da ein solches Element aus N DSB das Element aus N DSC dominieren würde. Bezüglich der starken und vollständigen Outperformance Relation sind beide Maße kompatible. Man kann sich leicht überlegen, daß es nicht möglich ist, daß es bei CRs B bzw. CRC B für ein Element der T M P S ein Element aus N DSB mit einen kleineren Wert für c(x, y) gibt, als für ein Element aus N DSC . Würde es ein solches Element geben, so würde dieses ein Element aus N DSC dominieren. Das Maß erfüllt sowohl für D1l und D2l die Anforderung der Relativität. Die Maße können keinen Wert kleiner Null annehmen. Null ist die beste mögliche Bewertung. Sofern für eine heuristisch effiziente Menge N DSl 6= T M P S gilt, gibt es mindestens ein Element in der T M P S mit einem positiven Wert für c(x, y). Die Maße sind weiterhin schwach monoton. Dies läßt sich in Abbildung 4.10 leicht nachvollziehen. Würde dort in N DSC ein Element mit dem Ziel! funktionsvektor

15 1

eingefügt, so würde sich die Bewertung von N DSC

nicht verbessern. Eine Verschlechterung der Bewertung ist nicht möglich. Ein Element, das von einem Element der T M P S bzgl. c(x, y) weiter entfernt liegt als das gegenwärtig am nächsten liegende Element, wird aufgrund des min Operators in der Berechnung von D1l und D2l nicht berücksichtigt. Eingefügte Elemente, die bisherige Elemente dominieren, können keinen größeren Wert für c(x, y) haben, sonst würden sie das alte Element nicht dominieren. Generational Distance (Van Veldhuizen (1999)): Dieses Distanzmaß errechnet sich wie folgt:47 r GDl =

P

d(x)2

x∈N DSl

| N DSl |

(4.14)

47 Vgl. Van Veldhuizen (1999, S.6-15 und 6-20). Dabei berechnet Van Veldhuizen (1999) GD l auf S. 6-15 zunächst auf Basis der heuristisch effizienten Front und der effizienten Front E(z). Auf S.6-20 zeigt er dann die Variation, welche die Berechnung auf Basis der heuristisch effizienten Menge und der Menge aller effizienten Lösungen E(Π, z) vornimmt auf. In dieser Arbeit wird E(Π, z) durch die T M P S ersetzt.

4.2

Seite 69

Dabei ist d(x) die euklidische Distanz im Zielraum von Element x ∈ N DSl zum im Zielraum am nächsten liegenden Element der Menge aller effizienten Lösungen E(Π, z). Wie dieses nächste Element ermittelt wird, wird in der Arbeit von Van Veldhuizen (1999) nicht weiter ausgeführt. Des weiteren ist die Menge aller effizienten Lösungen erneut durch die TMPS zu ersetzen. d(x) wird für die in dieser Arbeit angestellten Überlegungen wie folgt berechnet: d(x) =

min

y∈T M P S

n o 2 ||z(x) − z(y)||

(4.15)

Der beste mögliche Wert für GDl ist offenbar Null, falls N DSl = T M P S gilt.48 In Abbildung 4.11 ist ein kleines Beispiel zur Berechnung der Generational Distance gegeben.

Abbildung 4.11: Berechnung der Generational Distance GDl Es soll die GDC berechnet werden. Dazu sind zunächst die Werte von d(x) für die Elemente aus N DSC zu bestimmen, hier die Auftragsfolgen B und D: d(B)

48 Vgl.

np

(4 − 2)2 + (6 − 9)2 ;

=

min

= =

min {3, 61 ; 0 ; 7, 21} 0

Van Veldhuizen (1999, S.6-15).

p

(4 − 4)2 + (6 − 6)2 ;

p

(4 − 10)2 + (6 − 2)2

o

4.2

Seite 70

d(D)

np

(10 − 2)2 + (4 − 9)2 ;

=

min

= =

min {9, 43 ; 6, 32 ; 2} 2

p

(10 − 4)2 + (4 − 6)2 ;



Anschließend ergibt sich GDC zu: GDC =

02 +22 2

p

(10 − 10)2 + (4 − 2)2

o

= 1.

Im Fall L = 2 ist GDl mit der vollständigen und starken Outperformance Relation kompatibel.49 In beiden Fällen (ARS B u. ARC B) gilt immer GDA = 0, da aufgrund der Definition von RS und RC alle Elemente aus N DSA auch Element der T M P S sind, so daß für alle Elemente x der N DSA d(x) = 0 gilt . Nicht alle Elemente der N DSB sind Element der T M P S. Für die Elemente in N DSB , die nicht in der T M P S sind, resultiert d(x) > 0. Daher ist GDB > 0. N DSA ist damit sowohl bei ARS B als auch bei ARC B immer besser bewertet als N DSB . Bezüglich der schwachen Outperformance Relation ist GDl nur noch schwach kompatibel. Gilt ARW B so ist, falls N DSB ⊂ N DSA gilt, GDB = 0. Somit wird N DSB nicht schlechter bewertet als N DSA . Im Fall L ≥ 3 ist GDl mit keiner der drei Outperformance Relationen kompatibel, auch nicht schwach. In Abbildung 4.12 ist ein Beispiel angegeben, in dem ARC B und GDA > GDB gilt. GDA berechnet sich wie folgt: d(D)

d(E)

np

o p (3 − 2)2 + (6 − 7)2 ; (3 − 3)2 + (6 − 3)2 n√ o √ = min 12 + 12 ; 0 + 32 √ 2 = np o p = min (11 − 2)2 + (3 − 7)2 ; (11 − 3)2 + (3 − 3)2 n√ o √ = min 92 + 42 ; 82 + 0 √ = 64

=

min

√√ 2 √ 2 2 + 64 Somit ergibt sich GDA = = 4, 06. 2 GDB berechnet sich wie folgt: d(C)

=

min

=

min √ 1

=

np n√

(3 − 2)2 + (7 − 7)2 ; o √ 12 + 0 ; 0 + 42

√√ Somit ergibt sich GDB =

1

1

p

(3 − 3)2 + (7 − 3)2

o

2

= 1.

49 Knowles (2002) hat in seiner Arbeit ebenfalls die General Distance untersucht. Er kommt zu dem Ergebnis, daß sie nicht kompatibel mit der schwachen Outperformance Relation und kompatibel mit der starken sowie vollständigen Outperformance Relation ist (vgl. Knowles (2002, S.78f. u. 92) oder auch Knowles u. Corne (2002, S.713 u. 716)). Eine Begründung für diese Ergebnisse wird nicht angegeben. Beide Arbeiten betrachten die Variante der Generational Distance, bei der die heuristisch effiziente Front und die effiziente Front E(z) zur Berechnung verwendet werden.

4.2

Seite 71

Abbildung 4.12: Inkompatibilität der Generational Distance mit RO Die ”Generational Distance” erfüllt in beiden Fällen die Anforderung der Relativität, nicht jedoch der Monotonie. So steigt der Wert von GDB , falls in Abbildung 4.12 ein Element mit den √ Werten (9 ; 3) in N DSB einge√

2



2

1 + 36 fügt wird. Dann evaluiert GDB zu: GDB = = 3, 04. Das Einfü2 gen eines Elements läßt den Wert von GDB von 1 auf 3,04 ansteigen. Um eine Verbesserung der Qualiät anzuzeigen, müßte der Wert jedoch sinken.

Maximum Pareto Front Error (Van Veldhuizen (1999)): Dieses Maß bestimmt die maximale minimale Distanz zwischen den Elementen der heuristisch effizienten Front N DF und dem zu diesen jeweils nächsten Element der effizienten Front E(z).50 In der folgenden Formel ist die von Van Veldhuizen (1999) verwendete effiziente Front E(z) durch die TMPF ersetzt. v  uK  uX 2 |xk − yk | M P F El = max min t y∈T M P F x∈N DFl   

(4.16)

k=1

Das Maß hat den Wert Null, falls N DFl = T M P F ist. Ein Wert ungleich 50 Vgl. Van Veldhuizen (1999, S.6-15f.). ”... this is the largest minimum distance between each vector in P Fknown and the corresponding closest vector in P Ftrue .” (Van Veldhuizen (1999, S.6-16)).

4.2

Seite 72

Null zeigt an, daß mindestens ein Element aus N DFl nicht Element der T M P F ist. 51 In Abbildung 4.13 (a) ist ein kleines Beispiel zur Berechnung des Maximum Pareto Front Error gegeben.

(a)

(b)

Abbildung 4.13: Inkompatibilität des Maximum Pareto Front Errors mit RO Es soll M P F EC berechnet werden. Dazu ist zunächst für jedes Element y aus der T M P F die Distanz zu dem Element aus N DFC mit der kleinsten euklidischen Distanz zu ermitteln.52 Für Element z(A0 ) ist Element z(B 0 ) mit 3,61 das nächste Element aus der N DFB . Für z(B 0 ) ist die Distanz 0 da z(B 0 ) Element in der T M P F und in N DFC ist. Für z(C 0 ) ist mit einer euklidischen Distanz von 2 Element z(D0 ) aus N DFC das nächstgelegene Element. Um den Maximum Pareto Front Error für N DFC zu bestimmen, ist der größte dieser Werte zu wählen, also: M P F EC = max {min {3, 61 ; 9, 43} ; min {0 ; 6, 32} ; min {7, 21 ; 2}} = max {3, 61 ; 0 ; 2} = 3, 61 Im Fall L = 2 ist M P F El mit allen drei Outperformance Relationen (ARO B) kompatibel.53 M P F EA ist immer Null, da T M P F = M P FA gilt. 51 Vgl. 52 Es

zur Interpretation des Maßes qP die Interpretation von Van Veldhuizen (1999, S.6-16). K 2 min k=1 |xk − yk | für jedes y ∈ T M P F zu bestimmen.

ist also der Term

53 Knowles

x∈N DFl

(2002) hat in seiner Arbeit ebenfalls den ”Maximum Pareto Front Error” untersucht. Er kommt zu dem Ergebnis, daß er mit keiner der Outperformance Relationen kompatibel ist (vgl. Knowles (2002, S.79f. u. 92). Das gleiche Ergebnis wird auch in Knowles u. Corne (2002, S.713f. u. 716) angegeben. Eine Begründung für die Aussagen fehlt in beiden Arbeiten. Ihre Aussagen beziehen sich jedoch nicht auf die hier betrachtete Variante, in welcher die T M P F als Referenz verwendet wird.

4.2

Seite 73

Daher hat jedes Element aus T M P F ein nächstes Element aus M P FA mit einer Distanz von Null. In der N DFB gibt es Elemente, die nicht in der T M P F sind und in der T M P F Elemente, die nicht Element von N DFB sind. Somit muß es mindestens ein Element in der T M P F geben, dessen nächstes Element der N DFB eine positive Distanz hat. Daher ist N P F EB immer größer Null. Falls L ≥ 3 gilt, so besteht keine Kompatibilität, auch keine schwache, mit allen drei Outperformance Relationen.54 Ein Beispiel, in dem N DFB besser bewertet wird als N DFA , obwohl ARC B gilt, ist in Abbildung 4.13 (b) gegeben. Offensichtlich gilt hier: M P F EB =max {1 ; 3}=3 und M P F EA = max {0 ; 3, 16}=3, 16. Der ”Maximum Pareto Front Error” erfüllt die Anforderung der Relativität. Die Anforderung der Monotonie wird schwach erfüllt, da ein neu eingefügtes Element nicht zwingend näher zu einem Element der TMPF als eines der bereits enthaltenen Elemente liegt. Coverage of two sets / C-Maß (Zitzler u. Thiele (1998)): In seiner Urform vergleicht das C-Maß zwei Lösungen ohne Verwendung einer Referenz direkt miteinander. Es gibt den Anteil der Elemente in N DSB an, die von einem Element in N DSA dominiert werden oder gleich einem Element aus N DSA sind.55

C(N DSA , N DSB ) =

|{b ∈ N DSB | ∃a ∈ N DSA ; a ≤ b}| | N DSB |

(4.17)

Ein Wert von 1 bedeutet demnach, daß alle Elemente von N DSB gleich einem Element aus N DSA sind oder von diesem dominiert werden.56 Dabei ist zu beachten, daß nicht grundsätzlich C(N DSA , N DSB ) = 1 − C(N DSB , N DSA ) gilt.57 Daß Maß ist also nicht symmetrisch. Aus diesem Grund müssen stets beide Richtungen ausgewertet werden. In Abbildung 4.14 (a) ist ein Beispiel für diese Situation angegeben. 2 = 1 In der Abbildung ergibt sich C(N DSA ; N DSB ) = 2 2 und C(N DSB ; N DSA ) = Damit gilt C(N DSA , N DSB ) 6= 4. 1 − C(N DSB ; N DSA ). 54 Siehe

dazu auch die Ausführungen von Knowles (2002, S.79f. u. 92). Zitzler u. Thiele (1998, S.297) für eine verbale Definition sowie Zitzler (1999, S.43f.) und Zitzler u. a. (2000, S.180) für eine formale Darstellung. 56 Vgl. Zitzler u. a. (2000, S.180) sowie Zitzler (1999, S.43). 57 Vgl. Zitzler u. a. (2000, S.180), Zitzler (1999, S.43) oder Knowles (2002, S.85). 55 Vgl.

4.2

Seite 74

(a)

(b) Abbildung 4.14: Coverage of two sets

Akzeptiert man das von Knowles (2002) diskutierte Vorgehen, daß falls C(N DSA , N DSB )=1 und C(N DSB , N DSA ) 0

(4.19)

l=1

Damit ist sichergestellt, daß zkmax − zk (π) > 0 ∀π ∈ max

L S

N DSl gilt. Für alle

l=1

Ziel k weist z einen größeren Wert auf als der größte Wert, der in den, in den Vergleich aufgenommenen heuristisch effizienten Mengen auftritt.67 Für den bikriteriellen Fall ist die Berechnung des S-Maß in Abbildung 4.15 für N DSA und  = 1 grafisch dargestellt.68 Der Wert des S-Maßes von N DSA (SA ) ergibt sich aus der Größe der Vereinigung der schraffierten Flächen. Ein wesentlicher Unterschied zu den bisher betrachteten Maßen ist, daß es nicht die heuristisch effiziente Menge auswertet, sondern die heuristisch effiziente Front. Eine Lösung ist offensichtlich umso besser, je größter ihr S-Maß ist. Das Maß ist ein unabhängiges Maß und mit allen drei Outperformance Relationen kompatibel.69 Würde die Auswertung auf die heuristisch effiziente Front beschränkt, so würde das S-Maß offensichtlich die Anforderung der Relativität und Monotonie erfüllen. Wird es auf die heuristisch effiziente Menge bezogen und 64 Vgl.

zu dieser und zur folgenden Aussage Zitzler (1999, S.43f.), insbesonder Fußnote 1. Zitzler (1999, S.43). 66 Vgl. Zitzler (1999, S.43). 67 Knowles (2002) weist darauf hin, daß die Wahl von z max Auswirkungen auf die Rangfolge der verglichenen heuristisch effizienten Mengen haben kann. Er zeigt dies auch anhand eines grafischen Beispiels (vgl. Knowles (2002, S.75f.)). 68 Das S-Maß wird bei der experimentellen Analyse in Kapitel 6 verwendet werden. Bei den Berechnungen wurde  = 1 gesetzt. 69 Vgl. Knowles (2002, S.74f. u. 92). 65 Vgl.

4.2

Seite 77

Abbildung 4.15: S-Maß die vorne aufgestellte Annahme, daß mehrer Elemente des Lösungsraum keinen gleichen Zielfunktionsvektor besitzten können, fallengelassen, so wird die Monotonieanforderung nur schwach erfüllt, da mehrere Lösungen den gleichen Zielfunktionsvektor besitzen können. Würde in die heuristisch effiziente Menge ein Element eingefügt, das einen Zielfunktionsvektor hat, den bereits ein anderes in der N DS enthaltenes Element hat, so würde sich das Maß nicht ändern, da nur die Vereinigung der (Hyper)Rechtecke q betrachet wird. Auch die Relativitätsforderung würde nur schwach erfüllt. Da in diesem Fall N DFl = T M P F aber N DSl 6= T M P S gelten kann. Die Berechnung des Maßes ist sehr aufwendig. Prozeduren zu seiner Ermittlung finden sich z.B. in Fleischer (2002) und Knowles (2002).70 Hyperareadifference (Wu u. Azarm (2001)): Dieses Maß baut auf das S-Maß von Zitzler u. Thiele (1998) auf. Es errechnet sich als die Differenz des Volumens des von der heuristisch effizienten Front dominierten Bereichs und dem Volumen des von der effizienten Front dominierten Bereichs. Da die effiziente Front nicht bekannt ist, wird sie von Wu u. Azarm (2001) durch den Idealzielpunkt approximiert.71 70 Vgl. 71 Vgl.

Fleischer (2002, S.9) und Knowles (2002, S.97-99). Wu u. Azarm (2001, S.20f.).

4.2

Seite 78

Des weiteren verwenden sie im Gegensatz zu Zitzler u. Thiele (1998) und Zitzler (1999) normierte Zielfunktionswerte. Die Normierung eines Elements der N DFl wird dabei wie folgt vorgenommen:72 zek (x) =

zk (x) − zkg , k = 1(1)K zkb − zkg

(4.20)

Dabei ist z g der sogenanne Good Point. Dieser kann unter Einhalten der Bedingung z g ≤ z id beliebig festgelegt werden.73 Der Bad Point z b kann unter Einhalten der Bedingung z b > z aid beliebig festgelegt werden.74 Der Idealzielpunkt ist, wie auch der Antiidealzielpunkt, nicht bekannt, so daß der Good Point und Bad Point anders festgelegt werden müssen. Der Good Point kann auf den Ursprung des Koordinatensystems gesetzt werden, also z g = 0. Für die Elemente des Bad Points ist es ausreichend folgende Bedingung einzuhalten: zkb > max {max {zk | zk ∈ N DFl }}. Durch die Normierung l=1(1)L

gilt dann: zeg = 0 und zeb = 1.75 Wird mit Sel das mit den normierten Zielfunktionswerten berechnete SMaß bezeichnet, so ergibt sich die ”Hyperarreadifference” zu: HDl = 1 − Sel

(4.21)

Je kleiner der Wert desto besser wird die Lösung beurteilt.76 Das Maß ist, wie auch das S-Maß, mit allen drei Outperformance Relationen kompatibel, des weiteren erfüllt es die Anforderungen der Relativität und Monotonie in der schwachen Form.77 Zusammenfassung der Maße und ihrer Eigenschaften Die folgende Tabelle faßt die diskutierten Eigenschaften der Maße nochmals zusammen: 72 Vgl.

Wu u. Azarm (2001, S.19). zur Definition des Good Points und Bad Points auch Wu u. Azarm (2001, S.19). 74 Würde z b ≥ z aid gelten, so könnte nicht sichergestellt werden, daß z b −z g > 0 , k = 1(1)K k k gilt. 75 Vgl. Wu u. Azarm (2001, S.19). 76 Vgl. Wu u. Azarm (2001, S.21). 77 Da bei diesem Maß die Werte zur Ermittlung des S-Maßes lediglich normiert werden, ergibt sich diese Aussage anolog aus den entsprechenden Aussagen des S-Maßes. 73 Vgl.

4.2

Seite 79 L≥3

L=2 RW

RS

RC

RW

RS

RC

M

R

N N DSl ERl ;Inf Il

++ +

++ ++

++ ++

+ -

+ -

+ +

-

++ ++

P ESl

++

++

++

+

+

+

-

++

D1l

++

++

++

+

++

++

+

++

bei ∆k = 0 nicht def.

D2l

++ +

++ ++

++ ++

+ -

++ -

++ -

+ -

++ ++

bei ∆k = 0 nicht def. Für NDF def.

GDl M P F El

++

++

++

-

-

-

+

++

C-Maß S-Maß (Sl )

++ ++

++ ++

++ ++

+ ++

+ ++

+ ++

+ ++/+

++ ++/+

HDl

++

++

++

++

++

++

+

+

Sonstiges

++ Kompatibilität, Monotonie bzw. Relativität erfüllt +

Kompatibilität, Monotonie bzw. Relativität schwach erfüllt

-

Kompatibilität, Monotonie bzw. Relativität nicht erfüllt

M Monotonie R Relativität

Tabelle 4.1: Eigenschaften der Qualitätsmaße zur Erfassung der Distanz zur Menge aller effizienten Lösungen

4.2.2

Größe der aufgezeigten Variationsbreiten der Zielfunktionswerte

Um einen ergänzenden bzw. vertiefenden Einblick in die Lösungsgüte zu erhalten, wird in der Literatur zusätzlich zur Distanz häufig die Variationsbreite der Zielfunktionswerte in einer heuristisch effizienten Menge bzw. in der aus ihr ermittelten heuristisch effizienten Front ausgewertet. Die Beurteilung sollte aus den bereits diskutierten Gründen ebenfalls mit der TMPS bzw. TMPF als Referenzlösung erfolgen. Kth-Objective Pareto Spread, Overall Pareto Spread (Wu u. Azarm (2001)): Der ”Kth-Objective Pareto Spread” gibt die normierte Variationsbreite eines Ziels k in einer Lösung an und errechnet sich wie folgt:78 zk (x)} − min {e zk (x)} OSlk = max {e x∈N DSl

x∈N DSl

(4.22)

Dabei wird eine Normierung der Zielfunktionswerte wie bei der ”Hyperareadifference” vorgenommen (vgl. Gl.4.20).79 78 Vgl. 79 Vgl.

Wu u. Azarm (2001, S.21). Wu u. Azarm (2001, S.19).

4.2

Seite 80

Im Gegensatz zum ”Kth-Objective Pareto Spread” wird im ”Overall Pareto Spread” die Variationsbreite aller Ziele gleichzeitig berücksichtigt:80

OSl =

K Y max {e z (x)} − min {e z (x)} x∈N DSl x∈N DSl

(4.23)

k=1

Bezüglich beider Maße beurteilen Wu u. Azarm (2001) eine Lösung l um so besser, je größer der Wert von OSl bzw. OSlk ist.81 Eine Schwierigkeit bei beiden Maßen besteht darin, daß der Idealzielpunkt sowie der Antiidealzielpunkt nicht bekannt sind und es somit schwer ist, den Good Point und Bad Point mit ihrer Hilfe geeignet zu bestimmen. Es ist jedoch möglich, deren Ermittlung wie bei der Hyperareadifference vorzunehmen. Bei OSl tritt als weiteres Problem hinzu, daß, falls für mindestens eines der Ziele eine Variationsbreite von Null auftritt, das gesamte Maß den Wert Null annimmt. Ein Wert von Null ist jedoch nur bei Vorliegen einer perfekten Lösung sinnvoll. Des weiteren fehlt den Maßen bei der Beurteilung ein Bezug zur TMPS. Daher erfüllen sie auch nicht die Anforderung der Relativität, da nicht bekannt ist, was der beste Wert ist. Die Monotonieeigenschaft kann nicht beurteilt werden. Es ist möglich, daß die N DSl eine kleinere, eine gleiche oder eine größere Variationsbreite der Zielgrößen aufweist als die TMPS. Somit zeigt eine Vergrößerung der Variationsbreite bei OSl nur dann eine Verbesserung der Qualität an, falls vor dem Zeitpunkt des Einfügens eines neuen Elements in die N DSl , OSl < OST M P S galt. Würde vor dem Einfügen hingegen OSl > OST M P S gelten, so würde ein Ansteigen von OSl eine Verschlechterung der Qualität bedeuten. Diese Aussage gilt ebenso für OSlk . In Abbildung 4.16 ist ein Beispiel für diese Situationen dargestellt. 1 7 8 1 8 − 11 = 11 und OST2 M P F = 11 − 11 = In dem Beispiel gilt: OST1 M P F = 11 7 11 . N DSB weist offensichtlich die gleichen Werte für die Variationsbreite der beiden Zielgrößen auf. Bei N DSA ist die Variationsbreite für Ziel 1 grö1 9 10 1 ßer und für Ziel 2 gleich groß, denn es ergibt sich: OSA − 11 = 11 = 11 8 1 7 8 3 5 1 2 − 11 = 11 . Für N DSC sich: OSC = 11 − 11 = 11 und und OSA = 11 10 1 9 2 OSC = 11 − 11 = 11 . Modified Kth-Objective Pareto Spread, Modified Overall Pareto Spread (Farhang-Mehr u. a. (2001)): Diese Maße stellen eine Modifikation von OSlk und OSl da. Anstelle der Variationsbreite der Zielfunktionswerte der heuristisch effizienten Menge wird hier die 80 Vgl. 81 Vgl.

Wu u. Azarm (2001, S.21). Wu u. Azarm (2001, S.21).

4.2

Seite 81

Abbildung 4.16: Kth-Objective Pareto Spread Variationsbreite der Zielfunktionswerte der Elemente der Menge M P Sl ausgewertet. Als Begründung für dieses Vorgehen argumentieren Farhang-Mehr u. a. (2001), daß Elemente, die sich als nicht effizient erwiesen haben, bei der Beurteilung nicht berücksichtigt werden sollten, und somit eine korrekte Erfassung der Variationsbreite allein unter Berücksichtigung der Meta Pareto Lösungen möglich sei.82 Ihre Maße ergeben sich daher zu: M OSlk = max {e zk (x)} − x∈M P Sl

min {e z (x)}

x∈M P Sl

K Y M OSl = z (x)} max {e zk (x)} − min {e x∈M x∈M P Sl P Sl

(4.24)

(4.25)

k=1

Auch bei diesen Maßen gilt, daß ein größerer Wert besser beurteilt wird als ein kleinerer.83 Zur Bestimmung von z g und z b machen die Autoren keine weiteren Ausführungen, so daß hier angenommen wird, daß sie die Definition von Wu u. Azarm (2001) übernehmen. Grundsätzlich besitzt die Kritik an OSl und OSlk auch für diese Maße ihre Gültigkeit. 82 Vgl. 83 Vgl.

Farhang-Mehr u. a. (2001, S.6). Farhang-Mehr u. a. (2001, S.8).

4.2

Seite 82

Die Autoren stellen mit diesem Maß einen Bezug zur TMPS her. Ein wesentliches Problem bei der Verwendung dieses Maßes ist jedoch, daß es nicht in allen Fällen definiert ist. Bereits bei ARC B ergibt sich M P SB = ∅. k M OSB und M OSB können somit nicht berechnet werden. Auch bei diesem Maß ist der beste Wert nicht bekannt, so daß die Anforderung der Relativität nicht erfüllt ist. Aus dem gleichen Grund wie bei OSl und OSlk beschrieben, kann die Monotonieeigenschaft auch hier nicht beurteilt werden. Binary Coverage Metric (Farhang-Mehr u. Azarm (2003)): Kann man die bisher betrachteten Maße als Flächen- bzw. Volumenmaße bezeichnen, so stellen Farhang-Mehr u. Azarm (2003) mit der ”Binary Coverage Metric” ein Maß vor, das als Winkelmaß klassifiziert werden könnte.84 Allgemein gilt, daß das Skalarprodukt a · b zweier Vektoren a und b Null ist, falls a und b orthogonal (a ⊥ b) zueinander sind. Wird nun ausgehend von (a ⊥ b) der Vektor b in Richtung a gedreht, so steigt das Skalarprodukt an, ohne daß sich die Länge der Vektoren kak bzw. kbk ändert. Sind a und b parallel (akb), so erreicht das Skalarprodukt sein Maximum. Somit kann der Winkel ϕ zwischen zwei Vektoren, bzw. sein Cosinus, über ihr Skalara·b produkt erfaßt werden: cos(ϕ) = kak·kbk . Dabei darf weder a = 0 noch b = 0 gelten. Die ”Binary Coverage Metric” errechnet sich nun wie folgt:85



BC(N DSA , N DSB )

 z(x) · z(y) x,y∈N DSB kz(x)k · kz(y)k   z(x) · z(y) − min x,y∈N DSA kz(x)k · kz(y)k =

min

(4.26)

Ist BC(N DSA , N DSB ) < 0, so hat N DSA einen größeren Winkel als N DSB , was einer größeren Spannweite im Zielraum entspricht. Es handelt sich hierbei um ein direktes Maß, das eine Beurteilung ohne Berücksichtigung der TMPS vornimmt. Ein Wert von Null für BC(T M P S, N DSl ) würde anzeigen, daß die T M P S und die N DSl die gleiche Spannweite haben. Jedoch bedeutet ein Wert von Null nicht, daß T M P S = N DSl gilt. Wird ein Wert von Null daher als bester Wert angesehen, so erfüllt das Maß die Anforderung der Relativität nur schwach. Es ist möglich, daß die N DSl eine kleinere, eine gleiche oder eine größere Spannweite aufweist als die TMPS. Aus dem gleichen Grund wie bei OSl und OSlk beschrieben, kann die Mono84 Vgl. 85 Vgl.

Farhang-Mehr u. Azarm (2003, S.415). Farhang-Mehr u. Azarm (2003, S.415).

4.2

Seite 83

tonieeigenschaft auch hier nicht beurteilt werden. Als weitere Einschränkung ist festzuhalten, daß sich die ”Binary Coverage Metric” nur auf Zielsysteme mit zwei Zielen anwenden läßt. Zusammenfassung der Maße und ihrer Eigenschaften Die folgende Tabelle faßt die diskutierten Eigenschaften der Maße nochmals zusammen: Relativität

Monotonie

OSlk

-

-

Sonstiges Null obwohl keine perfekte Lösung

OSl

-

-

Null obwohl keine perfekte Lösung

M OSlk

-

-

Nicht für alle Fälle definiert

M OSl

-

BC

+

-

Nicht für alle Fälle definiert Nur für K=2 definiert

++ Monotonie bzw. Relativität erfüllt +

Monotonie bzw. Relativität schwach erfüllt

-

Monotonie bzw. Relativität nicht erfüllt

Tabelle 4.2: Eigenschaften der Qualitätsmaße zur Erfassung der Variationsbreite der Zielfunktionswerte

4.2.3

Verteilung Zielraum

der

Zielfunktionsvektoren

im

Als weiterer Qualitätsaspekt kann die Verteilung der Zielfunktionsvektoren der Elemente der heuristisch effizienten Menge im Zielraum betrachtet werden. Häufig wird dabei eine gleichmäßige Verteilung als erstrebenswert angesehen.86 Dies vernachlässigt den Umstand, daß die Elemente der Menge aller effizienten Lösungen, bzw. der T M P S als ihrer Approximation durchaus eine ungleichmäßige Verteilung aufweisen können. Es sei bereits an dieser Stelle darauf hingewiesen, daß keines der hier vorgestellten Maße die Anzahl der Cluster sowie deren Lage im Zielraum zu identifizieren in der Lage ist. Spacing (Deb u. a. (2000)): Ist d(z(x)) die euklidische Distanz zwischen dem Element z(x) und dem direkt darauf folgenden Element in der N DFl und d der Durchschnitt der Werte d(z(x)), so ergibt sich das Maß zu:87 86 Vgl. zu dieser Aussage auch Zitzler u. a. (2000, S.179). Auch Deb u. a. (2000, S.856) sehen eine gleichmäßige Verteilung als ideal an. 87 Vgl. Deb u. a. (2000, S.855).

4.2

Seite 84

SDl =

X z(x)∈N DFl

|d(z(x)) − d| |N DFl |

(4.27)

Eine gleichmäßige Verteilung der Elemente im Zielraum wird als erstrebenswert betrachtet.88 Diese ist offensichtlich gegeben, falls SDl = 0 gilt.89 Diese Interpretation vernachlässigt jedoch den Bezug zur TMPF. Wie das direkt auf z(x) folgende Element in der N DFl bestimmt wird, ist in der Arbeit von Deb u. a. (2000) ebenfalls nicht explizit formuliert.90 Auch Knowles (2002), welcher in seiner Arbeit das Maß betrachtet, macht keine genaueren Aussagen. Er merkt lediglich an, daß im Fall von mehr als zwei Zielen, das direkt auf z(x) folgende Element nicht mehr genau definiert ist91 Damit sichergestellt ist, daß das Maß auch die Variationsbreite der effizienten Front E(z) berücksichtigt, nehmen Deb u. a. (2000) zusätzlich deren Endpunkte, welche die kleinsten und größten Werte der Ziele enthalten, bei der Berechnung von SDl in N DFl mit auf. Jedoch wird dieser Schritt nur bei Problemen ausgeführt, bei denen die effiziente Front E(z) von den getesteten Algorithmen nicht gefunden wurde92 . Problematisch dabei ist, daß E(z) nicht bekannt ist. Ebenfalls ist offen, was mit Elementen der N DFl passiert, die von den in N DFl zusätzlich eingefügten Endpunkten dominiert werden. Eine wesentliche Einschränkung dieses Maßes ist, daß es nur auf Zielsysteme mit zwei Zielen anwendbar ist. Ansonsten ist nicht eindeutig festgelegt, welches das z(x) unmittelbar folgende Element in der N DFl ist.93 Des weiteren fallen bei mehr als zwei Zielen die größten und kleinsten Werte der Ziele nicht länger in zwei Elementen der heuristisch effizienten Front zusammen, wie dies bei lediglich zwei Zielen der Fall ist. Schließlich wird gemäß Knowles (2002) auch die Relativitäts- und Monotonieforderung von diesem Maß nicht erfüllt.94 Distanzquotient (Czyzak u. Jaszkiewicz (1998)): Aufbauend auf die zwei Distanzmaße Dist1 und Dist2 errechnet sich das Maß als deren Quotient:95 88 Vgl.

Deb u. a. (2000, S.856). die Elemente der heuristisch effizienten Front gleichmäßig verteilt, so ist d(z(x)) für alle z(x) ∈ N DFl gleich groß. Ist dies der Fall, ist der Wert von d(z(x)) gleich dem Durchschnittswert d aller d(z(x)). Der Zähler des Terms ist damit Null. 90 Vgl. Deb u. a. (2000, S.855f.). 91 Vgl. Knowles (2002, S.83). 92 Vgl. Deb u. a. (2000, S.855). 93 Vgl. Knowles (2002, S.83). Wobei Knowles (2002, S.82f.) keine Aussage macht, wie das unmittelbar auf z(x) folgende Element definiert ist. 94 Vgl. Knowles (2002, S.83). 95 Vgl. Czyzak u. Jaszkiewicz (1998, S.41). 89 Sind

4.2

Seite 85

SCZYl =

Dist1l Dist2l

(4.28)

Czyzak u. Jaszkiewicz (1998) interpretieren das Maß derart, daß ein kleiner Wert von SCZYl eine gleichmäßige Verteilung der Elemente der N DSl über die Referenzlösung bedeutet. Je kleiner der Wert ist, desto gleichmäßiger sind die Elemente folglich verteilt.96 Diese Beurteilung berücksichtigt die Eigenschaften der TMPS, falls diese als Referenz verwendet wird und stellt damit nicht auf eine grundsätzliche Gleichverteilung der Lösung ab. Problematisch ist jedoch, daß das Maß nicht immer definiert ist, wie Abbildung 4.10 zeigt. Hier hätte Dist2A den Wert Null. Für die optimale Lösung ist das Maß wegen Dist2T M P S = 0 nicht definiert. Somit ist es nicht möglich den Wert der besten Lösung zu bestimmen. Aus diesem Grund sind die Relativitäts- und Monotonieforderung nicht erfüllt. Cluster-Maß (Wu u. Azarm (2001)): Das ”Cluster Maß” (CLµl ) errechnet sich als Quotient aus der Mächtigkeit der heuristisch effizienten Menge und der ”Number of Distinct Choices” (N DClµ ).97 Diese ist die Anzahl der Elemente aus N DSl , die im Zielraum ausreichend unterschiedlich sind. Der Grad der verlangten Unterschiedlichkeit wird durch den Parameter µ (0 < µ < 1) eingestellt.98 CLµl =

|N DSl | N DClµ

(4.29)

Im Folgenden soll die Berechnung der ”Number of Distinct Choices” dar K (Hygestellt werden.99 Zunächst werden im skalierten Zielraum100 µ1 per)Würfel definiert. Dabei muß µ aus dem Bereich 0 < µ < 1 derart ge  1 101 wählt werden, daß der Term µ zu einer ganzen Zahl evaluiert. Ein einzelner (Hyper)Würfel wird auch als Indifferenzregion Tµ (c) bezeichnet. Dabei definiert der Vektor c = (c1 , c2 , . . . , ck , . . . , cK ) eine Ecke des (Hyper)Würfels. Die Elemente des Vektors c ergeben sich aus: ck = lk · µ, k = 1(1)K

(4.30)

Die ”Number of Distict Choices” ermittelt nun die Anzahl an Indiffe96 Vgl.

Czyzak u. Jaszkiewicz (1998, S.41). Wu u. Azarm (2001, S.22f.). 98 Vgl. Wu u. Azarm (2001, S.22). 99 Vgl. zur im Folgenden dargestellten Berechnung auch Wu u. Azarm (2001, S.22f.). 100 Die Skalierung wird mit Hilfe von Gleichung 4.20 vorgenommen. 101 Nur so ist sichergestellt, daß eine ganz Zahl an (Hyper)Würfeln betrachtet wird, da K als Anzahl der Ziele ebenfalls ganzzahlig ist. Wu u. Azarm (2001) treffen dazu einfach die 1 entsprechende Annahme, daß µ ganzzahlig sei (vgl. Wu u. Azarm (2001, S.22)). 97 Vgl.

4.2

Seite 86

renzregionen Tµ (c), in denen mindestens ein normierter Zielfunktionsvektor ze(x) eines Elements π aus der N DSl bei gegebenem µ liegt. Ob bei gegebenem µ in der Indifferenzregion Tµ (c) mindestens ein normierter Zielfunktionsvektor eines Element aus N DSl liegt wird durch die Binärvariable N Tlµ (c) erfaßt:

N Tlµ (c) =

   1

falls ∃x ∈ N DSl mit ze(x) ∈ Tµ (c)

 

sonst

(4.31)

0

Damit ze(x) ∈ Tµ (c) ist, muß gelten: ck ≤ zek (x) < ck + µ ∀k. N DClµ errechnet sich dann wie folgt: N DClµ

=

1 µ −1

1 µ −1

X

X

lK =0

···

lk =0

1 1 µ −1 µ −1

···

X X

N Tlµ (c)

(4.32)

l2 =0 l1 =0

Ist das ”Cluster-Maß” Eins, dann sind alle Elemente in der heuristisch effizienten Menge ausreichend verschieden und aufgrund der in Gleichung 4.32 beschriebenen Berechnungsmethode von N DClµ im skalierten Zielraum gleichmäßig verteilt. Ein Wert größte als Eins zeigt an, daß die Elemente der heuristisch effizienten Menge dichter beieinander liegen, also Cluster bilden.102 Wu u. Azarm (2001) streben ebenfalls eine gleichmäßige Verteilung an, so daß CLµl = 1 der beste mögliche Wert ist.103 Abbildung 4.17 verdeutlicht die Bestimmung von N DClµ und CLµl anhand eines Beispiels. Im Beispiel wurde µ = 16 gesetzt. Mit K = 2 ergeben sich somit 36 Indifferenzregionen. Diese werden nacheinander daraufhin überprüft, ob N Tlµ (c) den Wert 1 oder 0 hat. Im Beispiel werden die Regionen zeilenweise von links nach rechts sowie von unten nach oben systematisch überprüft.104 Im Folgenden sollen beispielhaft drei Indifferenzregionen genauer betrachtet werden. Indifferenzregion 10 wird durch den Eckpunkt bzw. den Vektor   c10 = 3 · 16 ; 1 · 16 = 63 ; 16 bestimmt.105 In dieser Indifferenzregion Tµ (c10 ) liegt z(C 0 ), weshalb N TAµ (c10 ) = 1 ist. In Tµ (c22 ) liegt kein Element von N DFA , weshalb N TAµ (c22 ) = 0 ist. Schließlich soll noch Tµ (c26 ) genauer betrachtet werden. In dieser Region liegen gleich zwei Elemente von N DFA . Es genügt jedoch, daß ein Element in der Region liegt, damit N TAµ (c26 ) den Wert 1 annimmt. 102 Wu

u. Azarm (2001, S.23). u. Azarm (2001, S.23). 104 Also in aufsteigender Reihenfolge der Numerierung. 105 Die Werte der Summenindizes sind also: l = 3 und l = 1. 1 2 103 Wu

4.2

Seite 87

Abbildung 4.17: Cluster-Maß Insgesamt gibt es 3 Indifferenzregionen, in denen mindestens ein µ Zielfunktionsvektor der Elemente der N DSA liegt. N DCA ist daher 3. Das µ 4 Clustermaß evaluiert damit zu CLA = 3 . Die Elemente der heuristisch effizienten Menge sind daher nicht alle ausreichend verschieden. In der beschriebenen, von Wu u. Azarm (2001) vorgestellten Form hat das Maß den Nachteil, daß es eine Bewertung ohne Bezug zur Menge aller effizienten Lösungen E(Π, z) bzw. der TMPS vornimmt. Bei der Beurteilung wird grundsätzlich eine gleichmäßige Verteilung bevorzugt. Des weiteren bestehen Freiheitsgrade bei der Bestimmung des Parameters µ (0 < µ < 1). Der anzustrebende Wert ist nicht bekannt. Daher kann die Eigenschaft der Relativität und Monotonie nicht beurteilt werden. Um den notwendige Bezug zur TMPS herzustellen, wird an dieser Stelle vorgeschlagen, den Quotienten aus dem ”Cluster Maß” der T M P S und der zu bewertenden heuristisch effizienten Menge zu bilden. Die ”Cluster Ratio” errechnet sich also zu: CLRlµ =

CLµl CLµT M P S

(4.33)

Ein Wert von Eins ist der angestrebte Wert. In diesem Fall kann gelten,

4.2

Seite 88

daß die Elemente der heuristisch effizienten Menge in dem von ihr abgedeckten Bereich des Zielraums im gleichen Ausmaß verschieden sind wie die Elemente der TMPS im von ihr abgedeckten Bereich. Ein Wert größer Eins zeigt an, daß die N DSl im von ihr abgedeckten Bereich des Zielraums eine stärkere Clusterbildung aufweist als die TMPS in dem von ihr abgedeckten Bereich. Ein Wert kleiner Eins zeigt, daß die heuristisch effiziente Menge entsprechend gleichmäßiger verteilt ist als die TMPS. Das Maß erfüllt die Anforderung der schwachen Relativität, wenn Eins als bester Wert angesehen wird. Die Monotonieeigenschaft wird hingegen auch von diesem Maß nicht erfüllt. Dies soll an Abbildung 4.18 verdeutlicht werden.

Abbildung 4.18: Cluster Ratio Offensichtlich hat die T M P S nicht alleine die beste mögliche Bewer6/4 =1 tung von 1 sondern auch N DSA . Denn es ergibt sich: CLRTµ M P S = 6/4 µ und CLRA = 6/4 6/4 = 1. Damit besteht nur schwache Relativität. Würde in N DSC ein Element eingefügt, dessen Zielfunktionsvektor z.B. in Indifferenzregion 28 liegt und kein bisheriges Element aus N DSC dominiert noch von einem solchen dominiert wird, so würde sich die Bewertung von N DSC 5/4 µ µ 8 5 von CLRC = 4/3 6/4 = 9 = 0, 888 auf CLRC = 6/4 = 6 = 0, 833 verschlechtern. Damit besteht keine Monotonie.

4.2

Seite 89

Zusammenfassung der Maße und ihrer Eigenschaften Die folgende Tabelle faßt die diskutierten Eigenschaften der Maße nochmals zusammen: Relativität

Monotonie

Sonstiges

-

-

Nur für K=2 Nicht immer def.

-

-

SDl SCZYl CLµ l CLRlµ

+

++ Monotonie bzw. Relativität erfüllt +

Monotonie bzw. Relativität schwach erfüllt

-

Monotonie bzw. Relativität nicht erfüllt

Tabelle 4.3: Eigenschaften der Qualitätsmaße zur Erfassung der Verteilung der Elemente der NDS im Zielraum

4.2.4

Optimierungseigenschaft bezüglich der einzelnen Ziele

Dieser Qualitätsaspekt ist durch den Gedanken motiviert, daß ein multikriterielles Verfahren auch eine gute Optimierungseigenschaft bezüglich der einzelnen Ziele des Zielsystems haben sollte. Relative Abweichung vom Minimum der TMPF: Dieses Maß ermittelt für jedes Ziel die Abweichung des kleinsten Wertes in der heuristisch effizienten Menge, vom kleinsten Wert in der TMPF. DT M P Flk =

zlk∗ zTk∗M P F

(4.34)

mit: zlk∗ = min {zk (x) | x ∈ N DSl }

(4.35)

zTk∗M P S = min {zk (x) | x ∈ T M P S}

(4.36)

Aufgrund der Definition der T M P S muß offensichtlich gelten: zTk∗M P S ≤ Der beste und kleinstmögliche Wert ist somit Eins. Das Maß erfüllt die schwache Relativitätsanforderung. Die T M P S hat für alle Zielgrößen k bzgl. DT M P Flk einen Wert von 1. Eine bessere Bewertung als die der T M P S ist nicht möglich, da es ausgeschlossen ist, daß DT M P Flk einen zlk∗ .

4.2

Seite 90

Wert kleiner als Eins annimmt, da immer zTk∗M P S ≤ zlk∗ gilt. Ebenso ist das Maß schwach monoton. Das Hinzufügen eines Elements muß den Wert zlk∗ der N DFl bzgl. eines Ziels k nicht verbessern, er kann ihn aber auch nicht verschlechtern. Relative Abweichung von der besten bekannten kleinsten oberen Schranke: Die relative Abweichung vom Minimum der TMPF DT M P Flk stellt keine Beziehung zur bislang besten bekannten kleinsten oberen Schranke der Zielgröße k her. Diese bisher beste bekannte kleinste obere Schranke kann z.B. von speziellen auf die Minimierung einer einzelnen Zielgröße ausgestalteten Verfahren ermittelt worden sein. Um einen Vergleich mit solchen auf die Minimierung einzelner Zielgrößen spezialisierten Verfahren durchzuführen, ist es daher erforderlich, den besten von diesen ermittelten Werten bei der Beurteilung zu berücksichtigen. Das folgende Maß berücksichtigt bei der Beurteilung diese kleinste obere k k Schranke (zU B ). Des weiteren hat DT M P Fl den Nachteil, daß, falls der Nenner den Wert Null annimmt, das Maß nicht definiert ist. Daher wird sowohl im Zähler als auch im Nenner ein Wert ζ k addiert. Werden Zielgrößen betrachtet, welche nur positive Werte annehmen könnnen oder aber Zielgrößen, welche den Wert Null annehmen können, dieser aber in k den zu beurteilten Lösungen nicht vorkommt und gleichzeitg zU B > 0 gilt, k k so kann ζ gleich Null gesetzt werden. Ansonsten ist ζ als sehr kleine Zahl zu wählen. DU Blk =

min



zlk∗ + ζ k k zU B ; zTk M P F

+ ζk

(4.37)

Es ist durchaus möglich, daß eine Lösung die exogen vorgegebenen k kleinsten oberen Schranken zU B verbessert. Diese Situation wird im Nenner berücksichtigt. Der beste mögliche und kleinste Wert ist erneut Eins. Jedoch muß dieser nicht zwingend von der TMPF erreicht werden. Dennoch kann keine heuristisch effiziente Menge bzw. ihre heuristisch effiziente Front eine bessere Beurteilung aufweisen als die TMPF. Das Maß ist daher schwach relativ. Ebenso ist es schwach monoton. Anteil der gefundenen Extrempunkte der TMPF: Eine Abweichung von Null für DT M P Flk bedeutet nicht, daß in der entsprechenden heuristisch effizienten Menge eine Lösung existiert, deren Zielfunktionsvektor den Extrempunkten der ”Total Meta Pareto Front” bezüglich des betrachteten Ziels entspricht. Zwar sind die Werte für Ziel k identisch, dennoch ist

4.2

Seite 91

es möglich, daß der Zielfunktionsvektor der Lösung vom Extrempunkt der ”Total Meta Pareto Front” dominiert wird. Das folgende Beispiel soll diese Situation verdeutlichen: Für das erste Problem der Taillard-Benchmarks beträgt die beste bekannte kleinste obere Schranke für die Zykluszeit 1278.106 Wird das vollständige Zielsystem betrachtet, so existieren mehrere Zielfunktionsvektoren, die den Wert 1278 für die Zykluszeit aufweisen:107 #

zCmax

zF mid

zT max

1

1278

701,7

528

2 3

1278

702,05

529

1278 1278

702,1 703,6

528 581

1278

703,0

530

.. .

.. .

.. .

4 5

.. .

Tabelle 4.4: Multiple Optima der Zykluszeit in TAIL001 Zielfunktionsvektor 1 sei nun ein Element der ”Total Meta Pareto Front”. Die Zielfunktionsvektoren 2 und 3 seien Elemente der heuristisch effizienten Front N DFA der heuristisch effizienten Menge N DSA . Obwohl Cmax einen Wert von Eins aufweisen, die Maße DT M P FACmax und DU BA enthält N DSA kein effizientes Element. Daher sollte zusätzlich ein Maß existieren, das anzeigt, ob die Zielfunktionsvektoren der TMPF, die für Ziel k das Minimum besitzen, in der zu beurteilenden heuristisch effizienten Front enthalten sind. AEXlk =

| ET M P F k ∩ EN DFlk | | ET M P F k |

(4.38)

mit: ET M P F k = {z(x) | zk (x) = min {z(x) ∈ T M P F }}

(4.39)

EN DFlk = {z(x) | zk (x) = min {z(x) ∈ N DFl }}

(4.40)

ET M P F k ist die Menge der Zielfunktionsvektoren, die für Ziel k den kleinsten Wert innerhalb der T M P F aufweisen. EN DFlk ist die Menge der Zielfunktionsvektoren, die für Ziel k den kleinsten Wert innerhalb von N DFl aufweisen. 106 Vgl. Taillard (1993, S.280). Dem Verfasser ist keine Arbeit bekannt, die einen besseren Wert ermittelt. 107 Die Tabelle ist keine abschließende Aufzählung der Zielfunktionsvektoren.

4.3

Seite 92

Der beste und größte mögliche Wert ist Eins. Daß Maß AEXlk ist schwach relativ und schwach monoton.

4.3

Aufbau des verwendeten Beurteilungssystems

Die Diskussion unterschiedlicher Qualitätsmaße in diesem Kapitel hat gezeigt, daß ein großer Teil der existierenden Maße allein aus theoretischen Überlegungen heraus nicht für die Verwendung in einer Qualitätsanalyse geeignet ist. Zur Erfassung der Distanz der NDS zur Menge aller effizienten Lösungen empfiehlt sich das S-Maß, auch wenn es nur die heuristisch effiziente Front als Beurteilungsgrundlage verwendet. In dieser Arbeit wird ein Quotient des S-Maßes der zu beurteilenden heuristisch effizienten Front und der TMPF verwendet werden: SQl =

Sl ST M P F

(4.41)

Die Verwendung dieses Quotienten ermöglicht eine Aussage darüber, zu welchem Anteil der von der TMPF dominierte Bereich von der zu beurteilenden Lösung abgedeckt wird. Es gilt immer: 0 < SQl ≤ 1. Zur Bewertung der Qualitätsaspekte, Variationsbreite der Zielfunktionswerte und Clusterung der heuristisch effizienten Front, ist keines der in diesem Kapitel vorgestellten Maße geeignet. Auch wenn diese Qualitätsaspekte häufig betrachtet werden und von Interesse sind, werden sie in dieser Arbeit durch kein Maß berücksichtigt. Die Maße DT M P Flk und DU Blk erfüllen die Anforderungen der Relativität und Monotonie zumindest in der schwachen Form. DU Blk hat jedoch einen höheren Aussagegehalt und ist im Gegensatz zu DT M P Flk immer definiert. Daher wird ihm in dieser Arbeit der Vorzug gegeben und neben AEXlk sowie dem SQ-Maß in das System von Qualitätsmaßen aufgenommen.

Kapitel 5

Zielraum- und Lösungsraumanalyse 5.1 5.1.1

Grundlegende Aspekte Stand der Forschung

Ein gängiges Vorgehen bei der Problemlösung mit Hilfe von Metaheuristiken ist es, die Suche zunächst in einen vielversprechenden Bereich des Lösungsraums zu lenken (Grobsuche) und diesen anschließend genauer zu untersuchen (Feinsuche). Das Identifizieren eines vielversprechenden Bereichs soll durch Anwenden der Suchstrategie der verwendeten Metaheuristik erreicht werden. Die so erzeugten Lösungen dienen anschließend alle oder teilweise als Ausgangslösung für ein einfaches lokales Suchverfahren. Durch dessen Anwendung soll der angesteuerte Bereich des Lösungsraums genauer untersucht werden. Lösungsansätze, die die Suchstrategie einer Metaheuristik und eines einfachen lokalen Suchverfahrens miteinander verbinden, werden auch als ”Hybride Ansätze” bezeichnet. Diese Vorgehensweise ist motiviert durch die Vorstellung, daß jedes globale und lokale Optimum einen Einzugsbereich im Lösungsraum besitzt. Es soll die Suche zunächst in den Einzugsbereich eines oder mehrere Optima gelenkt werden, um anschließend mit einer lokalen Suche das lokale oder gar globale Optimum zu finden. Die Analyse der Einzugsbereiche von globalen und lokalen Optima ist in den letzten Jahren Thema einiger wissenschaftlicher Veröffentlichungen gewesen.1 Von besonderem Interesse war dabei die Frage, ob die globalen und lokalen Optima in einem Bereich des Lösungsraums 1 Siehe z.B. Boese u. a. (1993, S.1-12); Boese u. a. (1994, S.101-110); Borges u. Hansen (1998, S.1-14); Reeves (1999, S.479-489).

5.1

Seite 94

nahe beieinander liegen oder aber zusammenhanglos verstreut über den gesamten Lösungsraum angeordnet sind. Boese u. a. (1993, 1994) haben in ihrer Arbeit die Existenz des sogenannten ”Großen Tals”2 für das symmetrische TSP bei Verwendung einer Lin-2-opt-Nachbarschaft festgestellt.3 Darauf aufbauend hat Reeves (1999) eine entsprechende Analyse für das Permutation Flow Shop Problem durchgeführt und in seinen Experimenten für das Ziel der Zykluszeit und unterschiedliche Nachbarschaftsoperatoren die Existenz des ”Großen Tals” ebenfalls beobachtet.4 Das ”Große Tal” beschreibt in den durchgeführten Versuchen die Möglichkeit, mit nur wenigen Zügen eines Nachbarschaftsoperators von einem lokalen Optimum in ein anderes zu gelangen.5 Es liegt dann vor, wenn die lokalen Optima in einem kleinen Bereich des Lösungsraums nahe beieinander liegen.6 Die Distanz wird als die Anzahl der mindestens notwendigen Züge mit einem Nachbarschaftsoperator gemessen.7 Es ist wichtig zu erkennen, daß das Vorliegen eines ”Großen Tals” keine grundsätzliche Eigenschaft eines Optimierungsproblems ist. Vielmehr ist die Distanz zwischen den lokalen Optima abhängig von dem bei der lokalen Suche verwendeten Nachbarschaftsoperators.8 In Abhängigkeit vom verwendeten Nachbarschaftsoperator können Auftragsfolgen direkte Nachbarn9 im Lösungsraum sein oder aber mehrere Züge voneinander entfernt liegen. Die beschriebenen Ergebnisse, insbesondere die Beobachtung des ”Großen Tals”, lassen das Vorgehen der ”Hybriden Ansätze” als gerechtfertigt erscheinen. Die Arbeit von Reeves (1999) betrachtet nur die Zykluszeit als Zielgröße.10 Dies ist für den in dieser Arbeit betrachteten, multikriteriellen Fall insofern von Bedeutung, als ein Transfer der Aussagen auf die zwei zusätzlich betrachteten Zielgrößen der mittleren Durchlaufzeit und der maximalen Terminüberschreitung nicht vorgenommen werden kann. Für sie müssen eigene Analysen durchgeführt werden. Für das multikriterielle TSP gibt es bereits eine Arbeit von Borges u. Hansen (1998).11 Diese betrachten ein Zielsystem, welches dreimal die glei2 Alternativ zum ”Großen Tal” wird auch der Begriff der ”Global Convexity” verwendet (vgl. Borges u. Hansen (1998, S.1)). 3 Vgl. Boese u. a. (1993, S.12); Boese u. a. (1994, S.110). 4 Vgl. Reeves (1999, S.483 u. 489). 5 Vgl. Boese u. a. (1993, S.4), Boese u. a. (1994, S.103f.). 6 Dabei ergibt sich die Größe des Bereichs über die Anzahl der notwendigen Züge, bzw. ihrer Approximation zwischen den lokalen Optima. 7 Vgl. Boese u. a. (1993, S.3), Boese u. a. (1994, S.103), sowie Reeves (1999, S.478). 8 Vgl. Borges u. Hansen (1998, S.1). 9 Zwei Auftragsfolgen gelten als direkt benachbart, wenn nur ein einziger Zug mit einem Nachbarschaftsoperator nötig ist, um von einer Auftragsfolge zur anderen Auftragsfolge zu gelangen. 10 Vgl. Reeves (1999, S.477). 11 Vgl. Borges u. Hansen (1998, S.4-14).

5.1

Seite 95

che Zielgröße enthält. Dabei wird für die Berechnung jeder der drei Zielgrößen eine andere Entfernungsmatrix verwendet, so daß sich jeweils unterschiedliche Zielwerte ergeben und die Zielwerte als voneinander unabhängig betrachtet werden können.12 Im Mittelpunkt der Betrachtungen steht unter anderem die heuristisch nichtdominierte Menge und die Frage, ob sich auch hier eine ”Global Convexity” bei Verwendung von unterschiedlichen Kompromißzielfunktionen feststellen läßt, ob also die Elemente der heuristisch effizienten Menge nahe beieinander liegen. Als Kompromißzielfunktion verwenden sie zum einen eine Konvexkombination und zum anderen die erweiterte Tchebycheff-Distanz. Bei Verwendung einer 2-optNachbarschaft und Untersuchung einer einzigen Probleminstanz beobachten sie in ihren Experimenten, daß die Elemente der heuristisch effizienten Menge nahe beieinander liegen.13 Für echt multikriterielle Permutation Flow Shop Probleme existieren bisher keine vergleichbaren Untersuchungen. Alle betrachteten Arbeiten haben gemeinsam, daß sie die echte Distanz zwischen den einzelnen Permutationen (von Auftragsfolgen beim PFSP, Städte beim TSP) nicht messen können, sondern vielmehr mit Approximationen der echten Distanz arbeiten.14

5.1.2

Weiterführende Experimente

Die bisherigen Versuche zur Existenz des ”Großen Tals” sind ohne eine explizite Betrachtung der Nachbarschaft im Zielraum ausgekommen. Zwei Auftragsfolgen gelten in dieser Vorstellung als im Lösungsraum nahe beieinander oder benachbart, wenn nur wenige oder ein Zug mit einem Nachbarschaftsoperator durchgeführt werden muß, um eine Auftragsfolge in die andere zu überführen. Dies bedeutet daher nicht, daß die Nachbarn im Lösungsraum auch Nachbarn im Zielraum sind. Die Beantwortung der Frage, ob oder wie häufig ein Nachbar im Lösungsraum auch ein Nachbar im Zielraum ist, ist insbesondere beim vorliegenden Problem nicht ohne Bedeutung,15 wie in den weiteren Ausführungen gezeigt wird. Viele Ansätze, die eine heuristisch effiziente Menge oder heuristisch effi12 Vgl.

Borges u. Hansen (1998, S.5f.). es eigentlich keinen vernünftigen Grund für das Auftreten der ”Global Convexity” gibt. Es werden für jede der drei Zielgrößen drei unabhängige Kostenmatrizen verwendet, und auch die Funktionen zur Berechnung der Zielgrößen stellen keine Verbindung zwischen den Matrizen her. Die drei Ziele sind daher völlig unabhängig voneinander. 14 Dieses Problem der Distanzmessung wird in Abschnitt 5.4 betrachtet. Als Distanz zwischen zwei Auftragsfolgen wird die Anzahl der mindestens notwendigen Züge mit einem Nachbarschaftsoperator im Lösungsraum verstanden, um die Auftragsfolge π ind π 0 zu überführen (vgl. Reeves (1999, S.478)). Zur Unterscheidung zu der über Ersatzmaße ermittelten Distanz wird diese Distanz im Folgenden auch als echte Distanz bezeichnet. 15 Die Definition der Nachbarschaft im Zielraum erfolgt in Abschnitt 5.3. 13 Wobei

5.1

Seite 96

ziente Front bestimmen wollen, nutzen eine Kompromißzielfunktion und variieren deren Parameter.16 Die Parametervariation soll die Suche in unterschiedliche Bereiche des Zielraums lenken.17 Ein systematisches Vorgehen bei der Parametervariation ermöglicht das systematische Absuchen des Zielraums nach Elementen der Lösungsmenge. Zu jeder Parametereinstellung der Kompromißzielfunktion gibt es ein oder mehrere globale Optima18 , welche gemäß der Vorstellung des ”Großen Tals” jeweils einen Einzugsbereich im Lösungsraum besitzen. Ein hybrider Ansatz versucht zunächst den Einzugsbereich zu identifizieren und anschließend ein globales Optimum zu finden. Das Ergebnis des Suchprozesses für eine gegebene Parametervariation liegt mit hoher Wahrscheinlichkeit im angesteuerten Bereich des Zielraums. Damit wird das grundlegende Ziel einer systematischen Parametervariation erreicht. Viele Ansätze19 überprüfen nur das Ergebnis einer lokalen Suche, nicht jedoch die Ausgangslösung oder die während der lokalen Suche generierten Lösungen auf heuristische Effizienz. Ein Verfahren sollte alle während der lokalen Suche erzeugten Lösungen überprüfen. Ansonsten werden unter Umständen heuristisch effiziente Lösungen generiert, aber nicht als solche erkannt. Die so identifizierten heuristisch effizienten Lösungen werden jedoch im Zielraum verstreut und i.d.R. nicht in dem durch die Parametereinstellung des Kompromißmodells angesteuerten Bereich des Zielraums liegen. Insbesonders so identifizierte heuristisch effiziente Lösungen, deren Kompromißzielfunktionswert größer ist als der der Ausgangslösung, liegen vermutlich außerhalb dieses angesteuerten Bereichs. Anhand von Abbildung 5.1 soll dieser Gedanke nochmals verdeutlicht werden. Die aktuelle Lösung der lokalen Suche sei z(T ). Die Parameter des Kompromißmodells sind derart eingestellt, daß Punkt z(D) identifiziert werden soll. Werden nun die Nachbarn im Lösungsraum von z(T ) auf heuristische Effizienz untersucht, so kann es sein, daß z(F ) als Element der aktuellen heuristisch effizienten Menge gefunden wird. Dieser Punkt liegt jedoch nicht im angesteuerten Bereich des Zielraums um Punkt z(D). Erweitert man die Idee des systematischen Absuchens des Zielraums zur Identifikation aller effizienten Lösungen auf den Prozeß der lokalen 16 Zu diesen Ansätzen zählen z.B. die in Abschnitt 3.3.3 angesprochenen Ansätze von Daniels u. Chambers (1990),Ishibuchi u. Murata (1998), Framinan u. a. (2002), Chang u. a. (2002) und Loukil u. a. (2005). 17 Vgl. auch Abschnitt 3.2. 18 Siehe zu multiplen globalen Optima auch den Abschnitt 5.5.2. 19 Zu diesen Ansätzen gehören z.B. die in Abschnitt 3.3.3 angesprochenen Ansätze von Ishibuchi u. Murata (1998) und Chang u. a. (2002). Der Ansatz von Loukil u. a. (2005) verwendet keine lokale Suche, überprüft aber ansonsten jede generierte Auftragsfolge auf heuristische Effizienz.

5.1

Seite 97

Abbildung 5.1: Motivation der Zielraum- und Lösungsraumanalyse Suche, so wäre es wünschenswert, gegen Ende des lokalen Suchprozesses gezielt die Nachbarn der Ausgangslösung im Zielraum zu suchen bzw. die Streuwirkung zu reduzieren. Insbesondere die Ausgangslösung der lokalen Suche kann weit von der effizienten Front entfernt liegen. Eine Auswertung ihrer unmittelbaren Nachbarschaft im Zielraum macht daher noch keinen Sinn, da hier keine effizienten Lösungen zu erwarten sind. Daher ist in einer ersten Phase der lokalen Suche zunächst eine Annäherung an die effiziente Front erwünscht. Erst nachdem diese Annäherung erfolgt ist, erscheint es sinnvoll, die unmittelbare Nachbarschaft im Zielraum nach effizienten Elementen abzusuchen. Damit dies möglich ist, wird eine Nachbarschaft im Lösungsraum benötigt, deren Elemente auch Nachbarn im Zielraum sind oder zumindest eine geringe Streuung um diese aufweisen. Die beschriebenen Überlegungen sollen mit Hilfe von Abbildung 5.1 verdeutlicht werden: Die lokale Suche beginnt in z(T ). Dieser ist noch weit von der effizienten Front entfernt, so daß eine Auswertung seiner unmittelbaren Nachbarschaft im Zielraum noch keinen Sinn macht. Daher ist zunächst eine schnelle Annäherung an die effiziente Front erwünscht und die Parametereinstellung der Kompromißzielfunktion lenkt die Suche zunächst über Punkt z(S) und z(R) zu z(D). z(D) ist Element der effizienten Front und

5.2

Seite 98

eine Auswertung seiner Nachbarschaft im Zielraum ist wünschenswert, um die Punkte z(C) und z(E) zu finden. Offensichtlich wird dazu eine Nachbarschaft im Lösungsraum benötigt, die eine hohe Chance bietet, auch einen Nachbarn im Zielraum, insbesondere die Punkte z(C) und z(E), zu enthalten. Bislang existiert keine solche Analyse der Nachbarschaften im Ziel- und Lösungsraum. Insbesondere ist noch kein Konzept zur Bestimmung der Nachbarschaft im Zielraum bekannt. Es läßt sich argumentieren, daß die Elemente, die innerhalb eines Abschnitts der effizienten Front liegen, im Zielraum benachbart sind oder zumindest im Zielraum nahe beieinander liegen. In Abschnitt 5.2 werden die in dieser Arbeit betrachteten Nachbarschaftsoperatoren im Lösungsraum definiert. Anschließend wird in Abschnitt 5.3 die Nachbarschaft im Zielraum eingeführt und die angesprochene Analyse durchgeführt. In Abschnitt 5.4 wird die Qualität verschiedener Ersatzmaße zur Approximation der (echten) Distanz zwischen zwei Auftragsfolgen analysiert. Die betrachteten vier Maße wurden in der Untersuchung zum ”Großen Tal” von Reeves (1999) verwendet.20 In Abschnitt 5.5 soll die Topographie des Lösungsraums des in dieser Arbeit betrachteten multikriteriellen PFSP untersucht werden. Die Verwendung der von Reeves (1999) verwendeten Ersatzmaße erscheint dabei nur dann sinnvoll, wenn sie in der Lage sind, die echte Distanz angemessen gut zu approximieren. Die Analyse der Approximationsqualität ist daher Inhalt des Abschnitts 5.4.3. Wie sich zeigen wird, rechtfertigen die Ergebnisse die Verwendung der Ersatzmaße für weitere Untersuchungen zum ”Großen Tal” , wie sie in Abschnitt 5.5 durchgeführt werden, nicht. Es wird daher ein zu der Arbeit von Reeves (1999) abweichender Aufbau des Experiments gewählt.21 In 5.5 soll unter Verwendung der echten Distanz in einer Reihe weiterer Experimente untersucht werden, ob sich die Topographie des ”Großen Tales” bzw. die Existenz einer ”Global Convexity” für die Zykluszeit bestätigen und für die Ziele der mittleren Durchlaufzeit und der maximalen Terminüberschreitung nachweisen läßt. Ebenso soll analysiert werden, wie sich bei multiplen globalen Optima deren Lage zueinander verhält. Zunächst werden diese Analysen für jedes Ziel gesondert durchgeführt. Anschließend setzt ein weiteres Experiment die globalen Optima der Ziele zueinander in Beziehung. In einem abschließenden Experiment wird die Distanz der Elemente der effizienten Front im Lösungsraum analysiert. 20 Vgl. 21 Vgl.

Reeves (1999, S.478-489). Reeves (1999, S.478-489).

5.2

5.2 5.2.1

Seite 99

Nachbarschaften im Lösungsraum Nachbarschaftsoperatoren

Als Nachbarschaft im Lösungsraum N SLR(π ◦ ) einer Auftragsfolge π ◦ werden alle Auftragsfolgen verstanden, die durch einmaliges Anwenden eines sogenannten Nachbarschaftsoperators auf π ◦ erzeugt werden können.22 Dieses einmalige Anwenden wird auch als Zug bezeichnet.23 Ein Nachbarschaftsoperator ist ein deterministischer Transformationsmechanismus, der eine Ausgangsfolge modifiziert, um sie in eine andere Folge zu überführen.24 Im Folgenden werden die in dieser Arbeit verwendeten Nachbarschaftsoperatoren und die darauf aufbauenden Nachbarschaften vorgestellt.25 Exchange (EX) Der Exchange-Operator vertauscht einen Auftrag der Auftragsfolge mit einem beliebigen anderen Auftrag. Sollen z.B. die Aufträge auf den Positionen g und h vertauscht werden und ist die Ausgangssequenz π ◦ = (π1 , ..., πh−1 , πh , πh+1 , ..., πg−1 , πg , πg+1 , ..., πN ), so ergibt sich als neue Auftragsfolge: π 0 = (π1 , ..., πh−1 , πg , πh+1 , ..., πg−1 , πh , πg+1 , ..., πN ). Die Exchange-Nachbarschaft ergibt sich, indem jeder Auftrag mit jedem anderen Auftrag der Auftragsfolge vertauscht wird. Die Nachbarschaft hat damit eine Größe von: | EX(π ◦ ) |=

N (N − 1) 2

(5.1)

Adjacent Pairwise Interchange (API) Der API-Operator vertauscht einen Auftrag mit einem direkt benachbarten Auftrag. Bezogen auf das Beispiel des EX-Operators gilt somit g = h + 1. Die API-Nachbarschaft ergibt sich, indem jeder Auftrag mit seinen benachbarten Aufträgen vertauscht wird. Diese Nachbarschaft ist somit eine Teilmenge der EX-Nachbarschaft und hat eine Größe von: | AP I(π ◦ ) |= N − 1

(5.2)

Forward Shift (FSH) Der FSH-Operator verschiebt einen Auftrag von seiner gegenwärtigen Position auf eine Position, die größer ist als seine 22 Vgl.

Pinedo (1995, S.148). Domschke u. Drexl (1998, S.121). 24 Vgl. Domschke u. Drexl (1998, S.121). 25 Dabei handelt es sich um die sechs in der Untersuchung von Reeves (1999) berücksichtigten Nachbarschaftsoperatoren (vgl. Reeves (1999, S.478f.)). 23 Vgl.

5.2

Seite 100

aktuelle. Soll demnach der Auftrag auf Position h an die Position g verschoben werden, so muß g > h gelten. Ausgehend von der Ausgangssequenz π ◦ = (π1 , ..., πh−1 , πh , πh+1 , ..., πg , πg+1 , ..., πN ) ergibt sich als neue Auftragsfolge: π 0 = (π1 , ..., πh−1 , πh+1 , ..., πg , πh , πg+1 , ..., πN ). Die FSH-Nachbarschaft ergibt sich, indem jeder Auftrag von seiner gegenwärtigen Position auf alle Positionen, die größer sind als seine aktuelle Position verschoben wird. Die Größe der Nachbarschaft ergibt sich somit zu: N (N − 1) | F SH(π ◦ ) |= (5.3) 2 Backward Shift (BSH) Der BSH-Operator verschiebt einen Auftrag von seiner gegenwärtigen Position auf eine Position, die kleiner ist als seine aktuelle. Soll demnach der Auftrag auf Position h an die Position g verschoben werden, so muß g < h gelten. Ausgehend von der Ausgangssequenz π ◦ = (π1 , ..., πg−1 , πg , ..., πh−1 , πh , πh+1 , ..., πN ) ergibt sich π 0 = (π1 , ..., πg−1 , πh , πg , ..., πh−1 , πh+1 , ..., πN ). Die BSH-Nachbarschaft ergibt sich, indem jeder Auftrag von seiner gegenwärtigen Position auf alle Positionen, die kleiner sind als seine aktuelle Position, verschoben wird. Die Größe der Nachbarschaft entspricht der des FSH-Operators: N (N − 1) | BSH(π ◦ ) |= (5.4) 2 Double Shift (DSH) Der DSH-Operator verschiebt einen Auftrag auf eine beliebige andere Position. Die DSH-Nachbarschaft ergibt sich durch das aufeinanderfolgende Generieren der FSH- und BSH-Nachbarschaft. Die Größe der DSH-Nachbarschaft ist somit:26 | DSH(π ◦ ) |= N (N − 1)

(5.5)

Inversion (INV) Der INV-Operator invertiert eine Teilauftragsfolge innerhalb der Ausgangsfolge. Soll der Operator auf die Auftragsfolge π ◦ = (π1 , ..., πe−1 , πe , πf , πg , πh , πh+1 , ..., πN ) angewandt werden und ist als Teilauftragsfolge (πe , πf , πg , πh ) selektiert, so ergibt sich nach der Durchführung des Zugs: π 0 = (π1 , ..., πe−1 , πh , πg , πf , πe , πh+1 , ..., πN ) . Die INV-Nachbarschaft wird durch Inversion aller möglichen Teilauftragsfolgen in der Permutation erzeugt. Die Größe der Nachbarschaft ist 26 Elemente, die auch in der API-Nachbarschaft enthalten sind, sind in dieser Nachbarschaft doppelt enthalten. Sie werden einmal vom FSH- und ein zweites Mal vom BSH-Operator erzeugt.

5.3

Seite 101

somit: | IN V (π ◦ ) |=

5.2.2

N (N − 1) 2

(5.6)

Beziehungen zwischen Nachbarschaftsoperatoren

Von den vorgestellten Nachbarschaftsoperatoren erzeugt jeder eine eigene Topographie im Lösungsraum.27 Die lokalen Optima, welche die Operatoren erreichen, können sich daher unterscheiden. Als lokales Optimum eines Nachbarschaftsoperators wird hierbei eine Lösung verstanden, die bei Anwendung des Nachbarschaftsoperators nicht mehr verlassen werden kann, da alle Nachbarn keinen besseren Zielfunktionswert haben als die Ausgangslösung.28 Beim Versuch, diese lokalen Optima durch einen Wechsel des Nachbarschaftsoperators zu verlassen, sind einige Zusammenhänge zwischen den einzelnen Operatoren zu beachten. So gilt offensichtlich: F SH(π ◦ ) ⊂ DSH(π ◦ ), BSH(π ◦ ) ⊂ DSH(π ◦ ), AP I(π ◦ ) ⊂ F SH(π ◦ ), AP I(π ◦ ) ⊂ BSH(π ◦ ) AP I(π ◦ ) ⊂ EX und AP I(π ◦ ) ⊂ IN V (π ◦ ) Dies bedeutet, daß die vom DSH-Operator erreichten lokalen Optima durch die Anwendung eines FSH- oder BSH-Operators nicht verlassen werden können. Ebenso können die lokalen Optima der FSH- und BSHOperatoren mit Hilfe des API-Nachbarschaftsoperators nicht verlassen werden, also auch keine DSH-Optima. Schließlich ist auch ein Verlassen der lokalen Optima der INV-Nachbarschaft und EX-Nachbarschaft durch Anwenden des API-Operators nicht möglich. 27 Vgl.

zu diesem Abschnitt Reeves (1999, S.479). Definition eines lokalen Optimums setzt die Verwendung eines lokalen Suchverfahrens voraus, bei dem ein Zug zu einem Nachbarn nur ausgeführt wird, wenn dieser einen besseren Zielfunktionswert hat. Für Suchverfahren, bei denen auch zu einem Nachbarn gezogen werden kann, der einen nicht besseren Zielfunktionswert hat (z.B. Simulated Annealing), muß das lokale Optimum anders definiert werden. Die hier verwendete Definition erscheint jedoch für die Zwecke dieser Arbeit zweckmäßig. 28 Diese

5.3

5.3

Seite 102

Nachbarschaft im Zielraum

5.3.1

Nachbarschaftskonzepte

5.3.1.1

Allgemeine Überlegungen

Ist die Diskussion der Nachbarschaft im Lösungsraum häufig Bestandteil von Arbeiten, die sich mit lokalen Suchverfahren für das Permutation Flow Shop Problem beschäftigen, so ist eine Auseinandersetzung mit der Nachbarschaft im Zielraum bislang nicht bekannt. Daher ist zunächst die Frage zu klären, wie ein Nachbar im Zielraum definiert ist. Anders als bei der Nachbarschaft im Lösungsraum, wo die Nachbarschaft über einen Transformationsmechanismus definiert ist, ist es möglich, im Zielraum auf die ”Lage” der Zielfunktionsvektoren im K-dimensionalen Zielraum abzustellen. Ein Zielfunktionsvektor kann durch eine oder mehrere Auftragsfolgen realisiert werden. In Abhängigkeit davon, wie die Nachbarschaft im Zielraum definiert ist, gehören unterschiedliche Auftragsfolgen aufgrund ihrer Zielfunktionsvektoren der Nachbarschaft im Zielraum an. Weiterhin ist sie im Gegensatz zu den Nachbarschaften im Lösungsraum abhängig von einer konkreten Problemausprägung. In den hier betrachteten Permutation Flow Shop Problemen ist die Nachbarschaft im Zielraum somit abhängig von den Bearbeitungszeiten sowie den vorgegebenen spätestzulässigen Fertigstellungsterminen. Zur Einführung soll der Fall lediglich einer Zielgröße betrachtet werden. In diesem Fall ergibt sich die Nachbarschaft im Zielraum einer Auftragsfolge intuitiv. Sie besteht aus allen Auftragsfolgen, deren Zielfunktionswerte die kleinste nichtpositive sowie kleinste nichtnegative Abweichung vom Zielfunktionswert der Ausgangslösung aufweisen. Gibt es Auftragsfolgen, die den gleichen Zielfunktionswert aufweisen, so wird die Nachbarschaft im Zielraum von diesen gebildet. Die Nachbarschaft im Zielraum der Ausgangslösung ergibt sich somit zu: N S1− (z(π ◦ )): Menge aller Auftragsfolgen, deren Zielfunktionswert die kleinste nichtpositive Abweichung vom Zielfunktionswert z (π ◦ ) der Ausgangsfolge π ◦ aufweist.

N S1− (z(π ◦ )) : =

{π | z(π) = max {z(π 0 ) | z(π 0 ) ≤ z(π ◦ ) ◦

0

0

(5.7)



π , π ∈ Π; π 6= π }} N S1+ (z(π ◦ )): Menge aller Auftragsfolgen, deren Zielfunktionswert die kleinste nichtnegative Abweichung vom Zielfunktionswert z (π ◦ ) der

5.3

Seite 103 Ausgangsfolge π ◦ aufweist.

N S1+ (z(π ◦ )) : =

{π | z(π) = min {z(π 0 ) | z(π 0 ) ≥ z(π ◦ ) ◦

0

0

(5.8)



π , π ∈ Π; π 6= π }} Die gesamte Nachbarschaft ergibt als: N S1 (z(π ◦ )) := N S1− (z(π ◦ )) ∪ N S1+ (z(π ◦ ))

(5.9)

Es könnte auch die Ansicht vertreten werden, daß lediglich die Auftragsfolgen als Nachbarn im Zielraum betrachtet werden, deren Zielfunktionswerte den kleinsten absoluten Abstand zum Zielfunktionswert der Ausgangsfolge π ◦ aufweisen. Diese Ansicht erscheint jedoch wenig zweckmäßig, da dann nicht sichergestellt ist, daß ein ”linker” (im Sinne von kleinerer) und ein ”rechter” (im Sinne von größerer) Nachbar in die Nachbarschaft aufgenommen wird. Wird die Anzahl der Ziele erhöht, so entstehen weitere Freiheitsgrade. Im Folgenden sollen aufbauend auf die Ausführungen zum Ein-Ziel-Fall verschiedene denkbare Nachbarschaftskonzepte vorgestellt werden. 5.3.1.2

Nachbarschaft im Zielraum: Konzept 1 (NSZR1)

Grundlegende Idee dieses Konzepts ist es, zunächst eine Nachbarschaft für jede einzelne der K Zielgrößen zu ermitteln und diese anschließend zu vereinigen. Nachbarn im Zielraum, bezogen auf Zielgröße k, sind zunächst alle Auftragsfolgen, die bezüglich Ziel k den gleichen Zielfunktionswert wie die Ausgangsfolge π ◦ aufweisen. Existieren keine solchen Auftragsfolgen, so wird die Nachbarschaft durch diejenigen Auftragsfolgen gebildet, die bezüglich des Ziels k die kleinsten positiven und negativen Abweichungen aufweisen. Der oben betrachtete Fall nur einer Zielgröße ist somit ein Spezialfall (K=1) dieses Konzepts. N Sk− (z(π ◦ )): Menge aller Auftragsfolgen, deren Zielfunktionswerte die kleinste nichtpositive Abweichung vom Zielfunktionsvektor z (π ◦ ) der Ausgangsfolge π ◦ bezüglich Ziel k aufweisen.

N Sk− (z(π ◦ )) : =

{π | zk (π) = max {zk (π 0 ) | zk (π 0 ) ≤ zk (π ◦ ) ; (5.10) π ◦ , π 0 ∈ Π; π 0 6= π ◦ }}

N Sk+ (z(π ◦ )): Menge aller Auftragsfolgen, deren Zielfunktionswerte die

5.3

Seite 104

Abbildung 5.2: Nachbarschaft im Zielraum - Konzept 1 kleinste nichtnegative Abweichung vom Zielfunktionsvektor z (π ◦ ) der Ausgangsfolge π ◦ bezüglich Ziel k aufweisen. N Sk+ (z(π ◦ )) : =

{π | zk (π) = min {zk (π 0 ) | zk (π 0 ) ≥ zk (π ◦ ) ; (5.11) π ◦ , π 0 ∈ Π; π 0 6= π ◦ }}

Die Nachbarschaft bezüglich Ziel k ergibt sich anschließend aus der Vereinigung von N Sk+ (z(π ◦ ))und N Sk− (z(π ◦ )): N Sk (z(π ◦ )) := N Sk+ (z(π ◦ )) ∪ N Sk− (z(π ◦ ))

(5.12)

Die vollständige Nachbarschaft im Zielraum ergibt sich dann wie folgt: N SZR1 (z(π ◦ )) :=

K [

N Sk (z(π ◦ ))

(5.13)

k=1

Abbildung 5.2 verdeutlicht das Konzept grafisch für den bikriteriellen Fall. Die Menge N S1− (z(π ◦ )) wird von den Auftragsfolgen C, D und E gebildet. Die Menge N S1+ (z(π ◦ )) besteht aus den Auftragsfolgen F und G. Bei Ziel 2

5.3

Seite 105

gilt: N S2− (z(π ◦ )) = N S2+ (z(π ◦ )) = {A, I, K}. Das vorgestellte Konzept resultiert in einer sehr großen Nachbarschaft. Insbesondere ist nicht überzeugend, daß die Auftragsfolgen C, F und K als Nachbarn im Zielraum von π ◦ aufgefaßt werden. Des weiteren ist diese Nachbarschaft nicht grundsätzlich symmetrisch. In Abbildung 5.2 ist z.B. F Nachbar von π ◦ , nicht aber umgekehrt. 5.3.1.3

Nachbarschaft im Zielraum: Konzept 2 (NSZR2)

Zur Bestimmung der NSZR2 wird zunächst für jede Auftragsfolge ein Vektor der absoluten Abstände der Zielfunktionswerte zu den Zielfunktionswerten der Ausgangsfolge π ◦ bestimmt. Die Nachbarschaft wird anschließend von den Auftragsfolgen gebildet, deren Vektor der absoluten Abstände nicht dominiert wird.

Abbildung 5.3: Nachbarschaft im Zielraum - Konzept 2 Der Vektor der absoluten Abstände ermittelt sich als: z a (z (π ◦ ) , z (π 0 )) = |z (π ◦ ) − z (π 0 )| Die Nachbarschaft im Zielraum von π ◦ ergibt sich anschließend zu:

(5.14)

5.3

Seite 106

N SZR2 (z(π ◦ )) : =

{π | @π 0 ∈ Π; π 0 6= π

(5.15)

mit z a (z (π ◦ ) , z (π 0 )) ≤ z a (z (π ◦ ) , z (π))} Abbildung 5.3 zeigt ein grafisches Beispiel. Die Vektoren an den Punkten geben den jeweiligen Vektor der absoluten Abstände an. Es ist sofort offensichtlich, daß die Vektoren der absoluten Abstände der Auftragsfolgen A, G, H, J und K sowie die der nicht beschrifteten Punkte dominiert werden und daher nicht in die Nachbarschaft aufgenommen werden. Konzept 2 stellt ebenfalls auf die räumliche Nachbarschaft ab und ist wie bereits Konzept 1 nicht grundsätzlich symmetrisch. Das folgende Beispiel soll dies verdeutlichen: Der Lösungsraum bestehe aus den 3 Elementen π 1 , π 2 und π 3 mit den dazugehörigen Zielfunktionsvektoren:  z π1 =

8 8

!

 ; z π2 =

10 10

!

 ; z π3 =

11 10

!

Als Nachbarschaften im Zielraum ergeben sich somit: N SZR2 z π 1 N SZR2 z π 2 N SZR2 z

π3



 = π2 →



 = π3 →



 = π2 →

( ( (

10 10 11 10 10 10

! ) ! ) ! )

  = z π2   = z π3   = z π2

Die Auftragsfolge π 2 ist also Nachbar von π 1 , nicht jedoch umgekehrt. Die Nachbarschaft ist somit nicht symmetrisch. Sie verbindet auch nicht grundsätzlich alle Auftragsfolgen, da π 1 offensichtlich nie Nachbar von π 2 oder π 3 ist. 5.3.1.4

Nachbarschaft im Zielraum: Konzept 3 (NSZR3)

In diesem Konzept werden Konzept 1 und Konzept 2 sukzessive angewendet. Zunächst werden die Mengen N Sk+ (z(π ◦ )) und N Sk− (z(π ◦ )) analog zu Konzept 1 ermittelt. Anschließend werden für die Elemente dieser Mengen die in Konzept 2 verwendeten Vektoren der absoluten Abstände bezogen auf π ◦ ermittelt. Nur Elemente der Mengen N Sk+ (z(π ◦ )) bzw. N Sk− (z(π ◦ )), die bezüglich dieses Abstandsvektors gegenüber den anderen Elementen ihrer Menge effizient sind, werden in die anschließend ermittelten Mengen N Sk+E (z(π ◦ )) bzw. N Sk−E (z(π ◦ )) aufgenommen. Diese Mengen werden ent-

5.3

Seite 107

sprechend dem Vorgehen in Konzept 1 zur Nachbarschaft N SZR3 (z(π ◦ )) zusammengefügt. N Sk+E (z (π ◦ )): Menge aller bezogen auf den Vektor der absoluten Abstände (z a ) effizienten Elemente aus N Sk+ (z (π ◦ )): N Sk+E (z (π ◦ ))

:=



π | @π 0 6= π; π 0 , π ∈ N Sk+ (z (π ◦ )) ◦

a

0

a

(5.16)



mit z (z (π ) , z (π )) ≤ z (z (π ) , z (π))} N Sk−E (z (π ◦ )): Menge aller bezogen auf den Vektor der absoluten Abstände (z a ) effizienten Elemente aus N Sk− (z (π ◦ )): N Sk−E (z (π ◦ ))

:=



π | @π 0 6= π; π 0 , π ∈ N Sk− (z (π ◦ )) ◦

a

0

a

(5.17)



mit z (z (π ) , z (π )) ≤ z (z (π ) , z (π))} Die Nachbarschaft bezüglich Ziel k ergibt sich anschließend aus der Vereinigung von N Sk+E (z (π ◦ ))und N Sk−E (z (π ◦ )): N SkE (z(π ◦ )) := N Sk+E (z(π ◦ )) ∪ N Sk−E (z(π ◦ ))

(5.18)

Die gesamte Nachbarschaft ergibt sich anschließend wie folgt: N SZR3 (z(π ◦ )) :=

K [

N SkE (z(π ◦ ))

(5.19)

k=1

Abbildung 5.4 verdeutlicht das Konzept grafisch. Die Mengen N Sk+ (z(π ◦ )) und N Sk− (z(π ◦ )) ergeben sich analog zu Konzept 1. Also: N S1− (z(π ◦ )) = {C, D, E}, N S1+ (z(π ◦ )) = {F, G} sowie N S2− (z(π ◦ )) = N S2+ (z(π ◦ )) = {A, I, K}. Für die Elemente dieser Mengen werden die Vektoren der absoluten Abstände ermittelt. Die bezüglich dieses Vektors effizienten Elemente werden in die Mengen N Sk−E (z(π ◦ )) und N Sk+E (z(π ◦ )) aufgenommen. Also: N S1−E (z(π ◦ )) = {E}, N S1+E (z(π ◦ )) = {G}, N S2+E (z(π ◦ )) = N S2−E (z(π ◦ )) = {I} . Die Nachbarschaft ergibt sich dann zu N SZR3(z(π ◦ )) = {E, G, I}. Da diese Nachbarschaft auf dem Nachbarschaftskonzept 1 aufbaut, besteht auch hier keine grundsätzliche Symmetrie. Auch hier ist z.B. G Nachbar von π ◦ , nicht aber umgekehrt. 5.3.1.5

Nachbarschaft im Zielraum: Konzept 4 (NSZR4)

Zunächst wird der Zielraum in R = 2K Regionen eingeteilt. Für jede Zielgröße k ergeben sich ausgehend vom Zielfunktionswert der Ausgangslö-

5.3

Seite 108

Abbildung 5.4: Nachbarschaft im Zielraum - Konzept 3 sung zk (π ◦ ) zwei Bereiche. Im ersten Bereich liegen Auftragsfolgen, die bezüglich Zielgröße k einen kleineren oder gleichen Zielfunktionswert besitzen, also gilt: zk (π) ≤ zk (π ◦ ). Im zweiten Bereich liegen Auftragsfolgen, für die der Zielfunktionswert von Zielgröße k größer oder gleich dem der Ausgangsfolge ist, also gilt: zk (π) ≥ zk (π ◦ ). Die Anzahl der Regionen R ergibt sich durch die Anzahl an möglichen Kombinationen der größer-gleich und kleiner-gleich Relationen für die K Ziele. Anschließend wird für jede Region r, r = 1(1)R, festgestellt, welche Auftragsfolgen aufgrund ihres Zielfunktionsvektors Mitglied der Region r sind. Aus den Mitgliedern einer Region r wird die Menge N S r (z(π ◦ )) bestimmt, deren Elemente Nachbarn der Ausgangsfolge π ◦ in der Region r sind. Dies sind alle Auftragsfolgen der Region, deren Vektor der absoluten Abstände z a (z(π ◦ ), z(π)) (vgl. auch Gleichung 5.14) effizient bezüglich aller Mitglieder der Region r sind. Die Menge der Auftragsfolgen in Region r, welche Nachbarn im Zielraum sind (N S r (z (π ◦ ))), wird wie folgt ermittelt:

5.3

Seite 109

N S r (z (π ◦ ))

:=

{π | @π 0 6= π; z(π), z(π 0 ) ∈ Region r

(5.20)

mit z a (z (π ◦ ) , z (π 0 )) ≤ z a (z (π ◦ ) , z (π))} Die Vereinigung der Mengen N S r (z(π ◦ )), r = 1(1)R, ergibt die Nachbarschaft im Zielraum. N SZR4 (z (π ◦ )) :=

R [

N S r (z (π ◦ ))

(5.21)

r=1

Ein grafisches Beispiel für das Vorgehen ist in Abbildung 5.5 dargestellt. Dort soll die Nachbarschaft für Ausgangslösung π ◦ berechnet werden.

Abbildung 5.5: Nachbarschaft im Zielraum - Konzept 4 Die R = 4 Regionen ergeben sich wie in Tabelle 5.1 angegebe.

5.3

Seite 110

Region r 1 2 3 4

Ziel k 1 2 ≤ ≤

≤ ≥

≥ ≥

≥ ≤

Tabelle 5.1: NSZR4: Definition der Regionen bei K=2 In Region r = 1 fallen alle Auftragsfolgen, deren Zielfunktionsvektoren bezüglich Ziel 1 und Ziel 2 einen nichtgrößeren Zielfunktionswert als π ◦ aufweisen. Dies sind im Beispiel die Auftragsfolgen A und E. Beide Auftragsfolgen gehören auch der Menge N S 1 (z(π ◦ ) an. In Region r = 2 fallen alle Auftragsfolgen, deren Zielfunktionsvektoren bezüglich Ziel 1 einen nichtgrößeren und Ziel 2 einen nichtkleineren Zielfunktionswert als π ◦ aufweisen. Es ergibt sich: N S 2 (z(π ◦ )) = {A, B, D}. C ist hingegen kein Element von N S 2 (z(π ◦ )) , da sein Vektor der absoluten Abstände dominiert wird, es gilt: z a (z(π ◦ ) , z(D)) ≤ z a (z(π ◦ ) , z(C)). In Region r = 3 fallen Auftragsfolgen, die für beide Ziele einen nichtkleineren Zielfunktionswert als die Ausgangsfolge π ◦ aufweist. Es ergibt sich: N S 3 (z(π ◦ )) = {G, I}. In Region r = 4 schließlich fallen Auftragsfolgen, die bezüglich Ziel 1 einen nichtkleineren und Ziel 2 einen nichtgrößeren Zielfunktionswert als π ◦ aufweisen. Somit ergibt sich: N S 4 (z(π ◦ )) = {I, H}. Die gesamte Nachbarschaft ergibt sich durch Vereinigung der Mengen N S 1 (z(π ◦ )), N S 2 (z(π ◦ )), N S 3 (z(π ◦ )) und N S 4 (z(π ◦ )) zu: N SZR4(zπ ◦ ) = {A, B, D, E, G, I, H}. Im Fall K = 3 sind 23 = 8 Regionen zu unterscheiden, die in folgender Tabelle 5.2 aufgeführt sind:

Region r

1

Ziel k 2

3

1 2 3 4 5

≤ ≤ ≤ ≤ ≥

≤ ≤ ≥ ≥ ≤

≤ ≥ ≥ ≤ ≤

6 7 8

≥ ≥ ≥

≤ ≥ ≥

≥ ≥ ≤

Tabelle 5.2: NSZR4: Definition der Regionen bei K=3

5.3

Seite 111

Entsprechend der Beispiele für K = 2 und K = 3 lassen sich Regionen für eine beliebige Anzahl an Zielen bilden. Für die Zwecke dieser Arbeit reicht das Bilden der Regionen für drei Ziele aus, weshalb auf eine weiterführende allgemeine Darstellung verzichtet wird. Im Folgenden soll gezeigt werden, daß die Nachbarschaft NSZR4 symmetrisch ist, d.h., wenn gilt: π 0 ∈ N SZR4 (z(π ◦ )), dann gilt auch π ◦ ∈ N SZR4 (z(π 0 )). Zu jeder Region r sei die Region r0 definiert, indem die ≤ und ≥ Operatoren bezüglich der einzelnen Zielgrößen im Vergleich zu r umgekehrt werden. Tabelle 5.3 zeigt die Definition der zu Region r gehörenden Region r0 im Fall K = 3. Region r

Region r’

1

Ziel k 2

3

1 2 3 4

≤ ≤ ≤ ≤

≤ ≤ ≥ ≥

≤ ≥ ≥ ≤

5 6







≥ ≥

≤ ≥

≥ ≥







7 8

⇔ ⇔ ⇔ ⇔ ⇔ ⇔ ⇔ ⇔

1

Ziel k 2

3

≥ ≥ ≥ ≥

≥ ≥ ≤ ≤

≥ ≤ ≤ ≥







≤ ≤

≥ ≤

≤ ≤







Tabelle 5.3: Definition Region r0 NSZR4 ist symmetrisch, wenn π 0 ∈ N S r (z(π ◦ )) gilt, dann auch π ◦ ∈ 0 0 N S r (z(π 0 )) für ein r0 ist. Da die Elemente aus N S r und N S r aufgrund Gleichung 5.21 Elemente von N SZR4 sind, genügt es, daß diese Forderung erfüllt ist, damit die Nachbarschaft symmetrisch ist. 0 Damit π ◦ ∈ / N S r (z(π 0 )) gilt, obwohl π 0 ∈ N S r (z(π ◦ )) ist, müßte es wegen Gleichung 5.20 ein Element π 00 geben, so daß gilt: z a (π 0 , π 00 ) ≤ z a (π 0 , π ◦ ). Wie man sich leicht überlegen kann, ist dies nur möglich, falls für die Zielfunktionswerte der Lösungen gilt (vgl. auch Abbildung 5.6):

zk (π 0 ) ≤ zk (π 00 ) ≤ zk (π ◦ ) , falls in r für Ziel k der ≤-Operator gilt

(5.22)

Für mindestens ein k, für das in r der ≤ - Operator gilt, muß in Gleichung 5.22 mindestens einmal die < - Relation erfüllt sein.

5.3

Seite 112

zk (π 0 ) ≥ zk (π 00 ) ≥ zk (π ◦ ) , falls in r für Ziel k der ≥-Operator gilt

(5.23)

Für mindestens ein k, für das in r der ≥ - Operatur gilt, muß in Gleichung 5.23 mindestens einmal die > - Relation erfüllt sein. Dies würde aber wiederum bedeuten, daß auch gilt: z a (π ◦ , π 00 ) ≤ z a (π ◦ , π 0 ), was wiederum zur Folge hat, daß auch gelten würde: π0 ∈ / N S r (z(π ◦ )). Es würde vielmehr gelten: π 00 ∈ N S r (z(π ◦ )), aber auch 0 π ◦ ∈ N S r (z(π 00 )). NSZR4 ist folglich symmetrisch.

Abbildung 5.6: Symmetrie von NSZR4 Die Nachbarschaft verbindet jedoch nicht grundsätzlich alle Elemente des Zielraums miteinander. Falls zwei Auftragsfolgen π ◦ und π 0 den gleichen Zielfunktionsvektor besitzen, sind diese jeweils die einzigen gegenseitigen Nachbarn, es gilt also: N SZR4 (z (π ◦ )) = {π 0 } und N SZR4 (z (π 0 )) = {π ◦ }. Mit diesem Beispiel kann auch für NSZR1, NSZR2 und NSZR3 gezeigt werden, daß diese nicht grundsätzlich alle Elemente des Zielraums verbinden. Alle vier vorgestellten Nachbarschaften im Zielraum verbinden nicht grundsätzlich alle Elemente des Zielraums miteinander. Mit Ausnahme von NSZR4 sind sie auch nicht symmetrisch. Es bleibt jedoch zu diskutieren, ob das Erfüllen dieser Eigenschaften zwingend vorliegen muß.

5.3

Seite 113

Die Suche nach Elementen der Lösungsmenge wird im Lösungsraum, hier also der Menge aller (zulässigen) Auftragsfolgen, durchgeführt. Aus diesem Grund ist es bei den Nachbarschaften im Lösungsraum eine wesentliche Forderung, daß sie alle Elemente des Lösungsraums miteinander verbinden. Diesen Suchprozeß auf den Zielraum zu verlagern, erscheint nicht möglich. Im Gegensatz zum Lösungsraum sind die Elemente des Zielraums nicht ex ante bekannt, und damit ist es nicht möglich, eine der hier vorgestellten Nachbarschaften im Zielraum einfach zu ermitteln. Da die Suche nach Elementen der Lösungsmenge somit nicht durch Züge von einem zum anderen Element des Zielraum gesteuert werden kann, erscheint es auch nicht zwingend erforderlich, daß die Nachbarschaften im Zielraum alle Elemente des Zielraums miteinander verbinden. Die Symmetrie der Nachbarschaft hingegen erscheint wesentlich, wobei jedoch anzumerken ist, daß es mit FSH und BSH Nachbarschaften im Lösungsraum gibt, die ebenfalls nicht symmetrisch sind. Da die NSZR4 das einzige der hier vorgestellten Nachbarschaftskonzepte ist, welches symmetrisch ist, werden die in Abschnitt 5.3.2 folgenden Analysen alleine mit diesem Nachbarschaftskonzept im Zielraum durchgeführt.

5.3.2

Experimentelle Analyse

5.3.2.1

Experiment 1: Nachbarschaft im Lösungsraum gleich Nachbarschaft im Zielraum?

In der folgenden experimentellen Analyse wird überprüft, ob und wie häufig ein Nachbar im Lösungsraum auch ein Nachbar im Zielraum ist und umgekehrt. Als Nachbarschaften im Lösungsraum werden die in Abschnitt 5.2 beschriebenen Nachbarschaften verwendet. Als Nachbarschaften im Zielraum wird alleine NSZR4 in die Analyse einbezogen. Da die Nachbarschaften im Zielraum, anders als die Nachbarschaften im Lösungsraum, abhängig von einem konkreten Problem sind, wird die Analyse für 90 Testprobleme mit unterschiedlichen Problemgrößen durchgeführt. Es werden Probleminstanzen mit N ∈ {4, 6, 8} Aufträgen und M ∈ {5, 10, 20} Maschinen betrachtet. Durch die Kombination von Auftrags- und Maschinenzahl ergeben sich 9 Testfelder. Für jedes Testfeld werden 10 Probleminstanzen erzeugt.29 Zur Generierung der Nachbarschaft im Zielraum ist es notwendig, die Zielfunktionsvektoren aller Auftragsfolgen zu kennen. Daher werden lediglich Probleme mit 4, 6 und 8 Aufträgen betrachtet. Für diese Größen ist es möglich, in angemessener Rechenzeit zunächst eine vollständige Enumeration 29 Die

Generierung dieser Testprobleme wird in den Anhängen A und B beschrieben.

5.3

Seite 114

durchzuführen sowie die Nachbarschaften im Zielraum zu berechnen. Der betrachtete Zielvektor besteht aus den in dieser Arbeit betrachteten drei Zielen Minimierung der Zykluszeit, Minimierung der mittleren Durchlaufzeit und Minimierung der maximalen Terminüberschreitung. Jedes der 90 Probleme wurde zunächst vollständig enumeriert. Anschließend wurden für alle N ! Auftragsfolgen eines Problems die Nachbarschaften im Lösungs- und Zielraum ermittelt und miteinander verglichen. Zur Auswertung wurden folgende Größen bestimmt: 1. Größe der Nachbarschaft im Lösungsraum (NSLR): | N SLR |. 2. Größe der Nachbarschaft im Zielraum (NSZR): | N SZR |. 3. Anzahl der Auftragsfolgen, die in beiden Nachbarschaften enthalten sind: M atch =| N SLR ∩ N SZR |. 4. Anteil der Auftragsfolgen der Nachbarschaft im Lösungsraum, die auch Element von NSZR sind: %LR =

| N SLR ∩ N SZR | | N SLR |

(5.24)

5. Anteil der Auftragsfolgen der Nachbarschaft im Zielraum, die auch Element von NSLR sind: %ZR =

| N SLR ∩ N SZR | | N SZR |

(5.25)

Die fünf Werte wurden für jede einzelne der N ! Auftragsfolge eines Problems ermittelt und anschließend für das jeweilige Problem der Durchschnittswert über diese N ! Werte berechnet. Die Tabelle 5.4 auf der nächsten Seite und Tabelle 5.5 auf Seite 116 geben die durchschnittlichen Auswertungsgrößen für die einzelnen Nachbarschaftskombinationen an30 . Die fett gedruckten Zeilen geben jeweils den Durchschnittswert über die Probleme mit gleicher Auftragszahl bzw. über alle betrachteten Probleminstanzen für die jeweilige Nachbarschaft im Lösungsraum an. In den restlichen Zeilen darüber sind jeweils die Mittelwerte über die betrachteten Probleminstanzen mit gleicher Auftrags- und Maschinenzahl für ein Nachbarschaft im Lösungsraum wiedergegeben. Zunächst zeigt sich, daß die Größe der NSZR4 mit steigender Anzahl Aufträge und damit mit zunehmender Größe des Lösungsraums zunimmt. 30 Aus der Analyse ausgenommen war Problem 75. Dieses Problem hat sehr viele globale Optima für die Zielgröße Tmax und damit eine Struktur, die es nicht ermöglicht, die Nachbarschaften im Zielraum in angemessener Rechenzeit und mit dem verfügbaren Arbeitsspeicher zu berechnen.

5.3

Seite 115

N SLR

N

M

| N SLR |

| N SZR |

M atch

%LR

%ZR

5

3,0000 3,0000

8,0167 7,6833

1,9333 1,7167

0,6444 0,5722

0,2914 0,2652

10 20 4

3,0000

8,1333

1,9833

0,6611

0,2679

3,0000 5,0000

7,9444 25,9253

1,8778 1,6349

0,6259 0,3270

0,2749 0,0982

5,0000 5,0000

23,4163 41,7181

1,2133 1,5708

0,2427 0,3142

0,0799 0,0583

5,0000 7,0000

30,3532 35,7945

1,4730 0,6612

0,2946 0,0945

0,0788 0,0521

7,0000 7,0000

32,9854 65,0385

0,5004 0,6698

0,0715 0,0957

0,0303 0,0172

7,0000

45,0068

0,6143

0,0878

0,0333

4,9775

27,5745

1,3296

0,3389

0,1301

5

6,0000

8,0167

2,9000

0,4833

0,4064

10 20 Mittelwert

6,0000 6,0000

7,6833 8,1333

2,7500 3,0417

0,4583 0,5069

0,3922 0,3943

6,0000 15,0000 15,0000 15,0000

7,9444 25,9253 23,4163 41,7181

2,8972 2,6096 1,9575 2,7775

0,4829 0,1740 0,1305 0,1852

0,3976 0,1401 0,1147 0,0918

15,0000

30,3532

2,4482

0,1632

0,1156

28,0000 28,0000 28,0000 28,0000

35,7945 32,9854 65,0385 45,0068

0,9462 0,7051 1,0715 0,9146

0,0338 0,0252 0,0383 0,0327

0,0776 0,0374 0,0240 0,0466

16,2022

27,5745

2,0998

0,2284

0,1882

5 10 20 Mittelwert

6,0000 6,0000 6,0000 6,0000

8,0167 7,6833 8,1333 7,9444

2,8833 2,7000 2,9667 2,8500

0,4806 0,4500 0,4944 0,4750

0,4036 0,3848 0,3853 0,3912

5 10

15,0000 15,0000 15,0000 15,0000 28,0000 28,0000

25,9253 23,4163 41,7181 30,3532 35,7945 32,9854

2,4815 1,8762 2,5685 2,3087 0,8869 0,6600

0,1654 0,1251 0,1712 0,1539 0,0317 0,0236

0,1355 0,1116 0,0857 0,1109 0,0708 0,0364

28,0000 28,0000 16,2022

65,0385 45,0068 27,5745

0,9592 0,8414 2,0131

0,0343 0,0301 0,2218

0,0224 0,0434 0,1834

Mittelwert 5 10

6

20 Mittelwert 5 10

8

20 Mittelwert

API

4

5 10 20 6

8

Mittelwert 5 10 20 Mittelwert

EX

4

6

8 INV

20 Mittelwert 5 10 20 Mittelwert

Tabelle 5.4: Gemeinsame Elemente in NSZR4 und API, EX und INV

5.3

Seite 116

N SLR

N

M

| N SLR |

| N SZR |

M atch

%LR

%ZR

5

6,0000 6,0000

8,0167 7,6833

2,9708 2,7958

0,4951 0,4660

0,4188 0,4052

10 20 4

6,0000

8,1333

3,1000

0,5167

0,4059

6,0000 15,0000

7,9444 25,9253

2,9556 2,5915

0,4926 0,1728

0,4100 0,1418

15,0000 15,0000

23,4163 41,7181

2,0438 2,9435

0,1362 0,1962

0,1220 0,0964

15,0000 28,0000

30,3532 35,7945

2,5262 0,9257

0,1684 0,0331

0,1201 0,0665

28,0000 28,0000

32,9854 65,0385

0,6959 1,0634

0,0249 0,0380

0,0376 0,0246

28,0000

45,0068

0,9018

0,0322

0,0431

16,2022

27,5745

2,1417

0,2333

0,1927

5

6,0000

8,0167

2,9708

0,4951

0,4239

10 20 Mittelwert

6,0000 6,0000

7,6833 8,1333

2,7958 3,1000

0,4660 0,5167

0,4098 0,4056

6,0000 15,0000 15,0000 15,0000

7,9444 25,9253 23,4163 41,7181

2,9556 2,5910 2,0426 2,9474

0,4926 0,1727 0,1362 0,1965

0,4131 0,1417 0,1226 0,0964

15,0000

30,3532

2,5270

0,1685

0,1202

28,0000 28,0000 28,0000 28,0000

35,7945 32,9854 65,0385 45,0068

0,9250 0,6957 1,0634 0,9016

0,0330 0,0248 0,0380 0,0322

0,0663 0,0375 0,0246 0,0430

16,2022

27,5745

2,1418

0,2333

0,1938

5 10 20 Mittelwert

12,0000 12,0000 12,0000 12,0000

8,0167 7,6833 8,1333 7,9444

5,9417 5,5917 6,2000 5,9111

0,4951 0,4660 0,5167 0,4926

0,8427 0,8150 0,8115 0,8231

5 10

30,0000 30,0000 30,0000 30,0000 56,0000 56,0000

25,9253 23,4163 41,7181 30,3532 35,7945 32,9854

5,1825 4,0864 5,8908 5,0532 1,8507 1,3916

0,1727 0,1362 0,1964 0,1684 0,0330 0,0248

0,2835 0,2446 0,1928 0,2403 0,1328 0,0751

56,0000 56,0000 32,4045

65,0385 45,0068 27,5745

2,1268 1,8034 4,2835

0,0380 0,0322 0,2333

0,0492 0,0861 0,3865

Mittelwert 5 10

6

20 Mittelwert 5 10

8

20 Mittelwert

FSH

4

5 10 20 6

8

Mittelwert 5 10 20 Mittelwert

BSH

4

6

8 DSH

20 Mittelwert 5 10 20 Mittelwert

Tabelle 5.5: Gemeinsame Elemente NSZR4 und FSH, BSH und DSH

5.3

Seite 117

Bei c.p. ansteigender Maschinenzahl kann hingegen keine systematische Entwicklung der Größe der Nachbarschaft beobachtet werden. Die Auswertung des Anteils der Auftragsfolgen der Nachbarschaft im Lösungsraum, die auch Element der Nachbarschaft im Zielraum sind (%LR), zeigt, daß für den API-Operator die Wahrscheinlichkeit dafür, daß ein Nachbar im Zielraum auch ein Nachbar im Lösungsraum ist, am höchsten ist. Am niedrigsten ist diese Wahrscheinlichkeit für den INV-Operator. Obwohl also der API-Operator die kleinste Nachbarschaft im Lösungsraum aufweist, hat er die höchste Wahrscheinlichkeit auch einen Nachbarn im Zielraum zu treffen. Die Werte des Anteils der Auftragsfolgen der Nachbarschaften im Zielraum, die auch Element der Nachbarschaft im Lösungsraum sind (%ZR), zeigen, daß der Wert für die API-Nachbarschaft hier am niedrigsten ist. Die höchsten Werte können nun bei der DSH-Nachbarschaft beobachtet werden. Eine Analyse der Entwicklungen der Werte von %LR und %ZR bei unterschiedlicher Anzahl an Aufträgen zeigt, daß sowohl %LR als auch %ZR bei allen Nachbarschaften im Lösungsraum mit steigender Auftragszahl sinken. Insofern ist zu erwarten, daß die Werte für Probleme mit 20 und mehr Aufträgen, wie sie in den Benchmarkproblemen von Taillard (1993) auftreten,31 deutlich niedriger sein werden. Eine systematisches Steigen oder Sinken von %LR bei c.p. steigender Maschinenzahl kann hingegen nicht beobachtet werden. Es läßt sich somit feststellen, daß ein Nachbar im Lösungsraum in der Regel kein Nachbar im Zielraum ist und umgekehrt. Bei Anwendung des API-Operators ist die Wahrscheinlichkeit dafür, einen Nachbarn im Zielraum zu erhalten, noch am höchsten, wenn auch auf einem niedrigen Niveau. Es wird somit nur eingeschränkt möglich sein, ein Verfahren zu entwickeln, welches unter Verwendung der hier diskutierten Nachbarschaftsoperatoren im Lösungsraum den Zielraum systematisch nach Elementen der effizienten Front absuchen kann. 5.3.2.2

Experiment 2: Abweichung NSLR von NSZR4

Die Ergebnisse der bisherigen Analyse lassen offen, wo die Zielfunktionsvektoren der Auftragsfolgen aus der Nachbarschaft im Lösungsraum, die nicht in der Nachbarschaft im Zielraum vertreten sind, im Zielraum angeordnet sind. Damit fehlt die Information darüber, wie weit diese Zielfunktionsvektoren von der Nachbarschaft im Zielraum entfernt sind bzw. von 31 Vgl.

Taillard (1993, S.280).

5.3

Seite 118

dieser abweichen. Eine Möglichkeit, diese Abweichung zu erfassen, könnte die Ermittlung des Varianzkoeffizienten der Zielfunktionswerte der Elemente der Nachbarschaft im Lösungsraum sein. Dieses Vorgehen ist jedoch nicht unproblematisch. So werden die Eigenschaften der Nachbarschaft im Zielraum nicht berücksichtigt. Weiterhin fehlt ein Referenzwert, bis zu welchem eine Abweichung als ”unbedenklich” anzusehen ist. Schließlich fehlt ein Bezug zum Zielfunktionswertniveau der Ausgangsfolge. Der letzte Einwand könnte damit behoben werden, daß die Varianz bezogen auf den Zielfunktionswert der Ausgangsfolge berechnet wird. Ebenso würde dieser Wert dann als Quotient bei der Bestimmung des Varianzkoeffizienten verwendet. Insbesondere beim Ziel der maximalen Terminüberschreitung entsteht dabei häufig die Situation, daß dieser Ausgangswert Null beträgt und daher eine Division durch Null durchzuführen wäre. Dieses Problem kann auch bei der Ermittlung der normalen Varianz auftreten, wenn nämlich alle Nachbarn eine maximale Terminüberschreitung von Null aufweisen. Auch diese Situation ist nicht ausgeschlossen, so daß im Folgenden eine Alternative zur Bestimmung der Abweichung vorgestellt werden soll. In einem ersten Schritt werden aus der jeweils betrachteten Nachbarschaft einer Ausgangslösung π ◦ im Lösungsraum (N SLR(π ◦ )) alle Elemente entfernt, die von der Ausgangsfolge (π ◦ ) dominiert werden. Diese so generierte Nachbarschaft wird als reduzierte Nachbarschaft im Lösungsraum von Ausgangslösung π ◦ (N SLRr (π ◦ )) bezeichnet:

N SLRr (π ◦ ) = N SLR(π ◦ ) \ {π | z(π ◦ ) ≤ z(π); π ∈ N SLR(π ◦ )}

(5.26)

Die Reduzierung wird vorgenommen, da es nicht zweckmäßig erscheint, einen Zug zu einem von der Ausgangsfolge π ◦ dominierten Nachbarn durchzuführen.32 Angenommen, Auftragsfolge I in Abbildung 5.7 sei Element von N SLR(π ◦ ), so erscheint es nicht sinnvoll, einen Zug zu dieser Auftragsfolge auszuführen, da man sich von der effizienten Front entfernt bzw. dieses Element mit Sicherheit kein Element der Menge aller effizienten Lösungen sein wird. Im zweiten Schritt wird für jede Zielgröße k der kleinste in der N SZR4(z(π ◦ )) auftretende Wert zkgrenze berechnet: zkgrenze = min {zk (π) | π ∈ N SZR4(z(π ◦ ))}

(5.27)

32 Sollte es keine nicht dominierte Auftragsfolge geben, also N SLRr (π ◦ ) = ∅ gelten, so kann dies als das Vorliegen eines lokalen Optimums interpretiert werden.

5.3

Seite 119

Abbildung 5.7: Abweichungsanalyse von NSZR4 Vergleiche zur Ermittlung der Werte von zkgrenze auch Abbildung 5.7. Dort wird Auftragsfolge M als Ausgangsfolge betrachtet (π ◦ = M ). Die schraffierten Elemente geben die Zielfunktionsvektoren der N SZR4(z(π ◦ = M )) = { I, J, L, N, O, P, Q} wieder. Es ergibt sich offensichtlich: z1grenze = z1 (Q) = 7 und z2grenze = z2 (L) = 3. Im dritten Schritt wird für jedes Element π 0 der reduzierten Nachbarschaft im Lösungsraum (N SLRr ) die Abweichung zur Nachbarschaft im Zielraum von Ausgangslösung π ◦ bzgl. Ziel k berechnet:

DEVk (π 0 , π ◦ ) =

    1−    0

zk (π 0 ) grenze zk

falls zk (π 0 ) < zkgrenze (5.28) sonst

Hat ein Element π 0 der Nachbarschaft im Lösungsraum für Ziel k einen kleineren Wert als zkgrenze , so wird diesem eine positive Abweichung zugewiesen, und es hat daher einen positiven Wert für DEVk (π 0 , π ◦ ). Würde ein Zug zu einem Element mit positiver Abweichung ausgeführt, so würde die daraus resultierende Bewegung im Zielraum bedeuten, daß der Bereich der Nachbarschaft im Zielraum auf jeden Fall verlassen wird. Die Abweichung bzgl. Ziel k beträgt Null, falls zk (π 0 ) ≥ zkgrenze gilt. Ein Zug zu diesen Ele-

5.3

Seite 120

menten würde nicht grundsätzlich ein Abweichen von N SZR4(z(π ◦ )) bedeuten. Für den Zielfunktionsvektor z(P ) in Abbildung 5.7 beträgt die Abweichung bezüglich Ziel 1 und 2 Null. Angenommen, Auftragsfolge P wäre Element von N SLR(π ◦ ), so dürfte sie auch keine positive Abweichung von der N SZR4(z(π ◦ )) aufweisen, da sie Element der N SZR4(z(π ◦ )) ist. Für eine Nachbarschaft im Lösungsraum und eine Ausgangsfolge π ◦ können auf DEVk (π 0 , π ◦ ) aufbauend drei Größen für jedes der K Ziele ermittelt werden: 1. Durchschnittliche Abweichung von N SZR4 bzgl. Ziel k bezogen auf die gesamte reduzierte Nachbarschaft im Lösungsraum. Hier wird (implizit) der Teil der Auftragsfolgen an der Nachbarschaft berücksichtigt, welche den Grenzwert zkgrenze (π) unterschreiten: DEVk (π 0 , π ◦ )

P AV

G1k

=

π 0 ∈N SLRr

|N SLRr |

(5.29)

2. Durchschnittliche Abweichung von N SZR4 bzgl. Ziel k bezogen auf die Anzahl der Auftragsfolgen, die eine positive Abweichung aufweisen: P AV

G2k

=

DEVk (π 0 , π ◦ )

π 0 ∈N SLRr

yk

(5.30)

mit: yk Anzahl an Auftragsfolgen in N SLRr mit zk (π 0 ) < zkgrenze . 3. Größte Abweichung von N SZR4 bzgl. Ziel k in der reduzierten Nachbarschaft im Lösungsraum: W Ck = max {DEVk (π 0 , π ◦ ) | π 0 ∈ N SLRr }

(5.31)

Offensichtlich bedeutet bei allen drei Größen ein kleinerer Wert eine geringere Abweichung. Tabelle 5.6 gibt zunächst eine Übersicht über die Anzahl der Auftragsfolgen, die sowohl in der um die dominierten Auftragsfolgen reduzierten Nachbarschaft im Lösungsraum (N SLRr ) als auch in NSZR4 enthalten sind.33 Die Ergebnisse zeigen, daß für den API-Operator die Wahrscheinlichkeit, einen Nachbarn im Zielraum zu enthalten (%LR), weiterhin am größten ist. 33 Aus

Gründen der Übersichtlichkeit wird hier nur noch der Mittelwert für Probleme mit gleicher Auftragszahl angegeben.

5.3

Seite 121 N SLRr

N

| N SLRr |

| N SZR4 |

M atch

%LR

%ZR

4

1,4875

7,9444

0,9000

0,5394

0,1162

6 8

1,7803 1,9280

30,3532 45,0068

0,4089 0,0885

0,1806 0,0330

0,0144 0,0015

4

1,7297 2,0194

27,5745 7,9444

0,4700 0,8694

0,2534 0,3709

0,0445 0,1064

6

2,6474

30,3532

0,2509

0,0673

0,0087

8

3,0412 2,5640

45,0068 27,5745

0,0300 0,3874

0,0060 0,1497

0,0006 0,0390

4

2,1486 2,7700

7,9444 30,3532

1,0056 0,3552

0,4253 0,0973

0,1219 0,0121

API

EX 6 8 FSH 4 6 8 BSH

45,0068

0,0468

0,0095

0,0008

27,5745

0,4740

0,1792

0,0454

1,7444 2,4675

7,9444 30,3532

0,7264 0,2435

0,3472 0,0711

0,0901 0,0085

2,7078 2,3021

45,0068 27,5745

0,0279 0,3360

0,0064 0,1431

0,0005 0,0334

4

2,2931

7,9444

0,8583

0,3233

0,1032

6 8

3,0618 3,5030 2,9464

30,3532 45,0068 27,5745

0,2534 0,0248 0,3828

0,0581 0,0043 0,1300

0,0089 0,0005 0,0380

4

2,0361 2,7549

7,9444 30,3532

0,8458 0,2756

0,3668 0,0760

0,1025 0,0095

DSH 6 8 INV

3,2756 2,7253

3,2086

45,0068

0,0395

0,0082

0,0007

2,6604

27,5745

0,3909

0,1519

0,0380

Tabelle 5.6: Gemeinsame Elemente in der reduzierten NSLR und NSZR4. Die eigentliche Analyse der Abweichungen wurde für die bereits im ersten Experiment verwendeten Testprobleme durchgeführt. Für jedes Problem wurden die Abweichungen für alle N ! Auftragsfolgen und ihre Nachbarschaften bestimmt und anschließend der Durchschnitt für jede Probleminstanz ermittelt. Tabelle 5.7 gibt die durchschnittlichen Abweichungen für die jeweiligen Nachbarschaften im Lösungsraum wieder. Tabelle 5.8 gibt die entsprechenden Werte für die W Ck an. Eine Betrachtung der durchschnittlichen Abweichungen zeigt zunächst, daß die Abweichungen bezüglich der maximalen Terminüberschreitung bei allen betrachteten Nachbarschaften im Lösungsraum am größten und für die Zykluszeit am kleinsten sind. Eine systematische Entwicklung der Abweichungen bei steigender Auftragszahl N kann hingegen nicht festgestellt werden. Schließlich kann beobachtet werden, daß die API-Nachbarschaft sowohl bei AV G1k als auch bei AV G2k von allen betrachteten Nachbarschaften im Lösungsraum die kleinsten Abweichungen aufweist. Die größten Abweichungen treten in der Regel bei der INV-Nachbarschaft auf. Nur bei

5.3

Seite 122

N SLR

N

AV G1Cmax

AV G1F mid

AV G1T max

AV G2Cmax

AV G2F mid

AV G2T max

4

0,0098

0,0114

0,0531

0,0103

0,0125

0,0581

6

0,0089 0,0132

0,0155 0,0210

0,0448 0,0427

0,0099 0,0148

0,0173 0,0227

0,0524 0,0490

0,0106

0,0159

0,0469

0,0116

0,0175

0,0532

0,0231

0,0268

0,1086

0,0261

0,0315

0,1255

0,0279 0,0367

0,0403 0,0551

0,1218 0,1108

0,0328 0,0413

0,0451 0,0591

0,1537 0,1280

0,0292

0,0406

0,1138

0,0333

0,0451

0,1358

0,0163 0,0197

0,0183 0,0276

0,0834 0,0907

0,0192 0,0230

0,0210 0,0297

0,0995 0,1087

8

0,0270 0,0209

0,0388 0,0281

0,0824 0,0855

0,0306 0,0242

0,0412 0,0305

0,0963 0,1016

4

0,0204 0,0194

0,0237 0,0338

0,0938 0,0937

0,0225 0,0232

0,0267 0,0378

0,1074 0,1184

0,0258 0,0218

0,0455 0,0342

0,0859 0,0912

0,0291 0,0249

0,0488 0,0376

0,0969 0,1077

4 6 8

0,0236 0,0255 0,0315 0,0268

0,0266 0,0384 0,0503 0,0383

0,1113 0,1171 0,1021 0,1103

0,0272 0,0306 0,0358 0,0312

0,0309 0,0428 0,0537 0,0423

0,1347 0,1488 0,1190 0,1343

4

0,0232

0,0270

0,1076

0,0262

0,0316

0,1285

6 8

0,0280

0,0405

0,1234

0,0327

0,0454

0,1559

0,0380 0,0296

0,0566 0,0412

0,1168 0,1159

0,0425 0,0337

0,0608 0,0458

0,1362 0,1403

8 API 4 6 8 EX 4 6 FSH 6 8 BSH

DSH

INV

Tabelle 5.7: Durchschnittliche Abweichungen AV G1k u. AV G2k N=4 hat die DSH-Nachbarschaft für AV G1Cmax , AV G1T max , AV G2Cmax und AV G2T max die größten Abweichungen. Die Auswertung der größten Abweichung (W Ck ) zeigt, daß auch hier die API-Nachbarschaft stets die geringste Abweichung aufweist. Außer bei N=4 und W CF mid und W CT max , wo die DSH-Nachbarschaft die größten Werte hat, weist die INV-Nachbarschaft die größten Werte für W Ck auf. Daraus folgt, daß, falls mit dem API-Operator ein ”zu großer” Zug34 im Zielraum durchgeführt würde, dieser sowohl im Durchschnitt als auch im ungünstigsten Fall kleiner wäre als mit den anderen untersuchten Operatoren. Da AV G1k die Größe der gesamten reduzierten Nachbarschaft berücksichtigt, erscheint beim API-Operator auch die Wahrscheinlichkeit für einen solchen Zug am geringsten.

34 Als ”zu groß” werden hier Züge bezeichnet, wenn für den Zielfunktionswert k des Elements π 0 zu dem gezogen wird, gilt: zk (π 0 ) < zkgrenze . Vergleiche auch die Ausführungen zur Berechnung von DEVk (π 0 , π ◦ ) auf Seite 119.

5.3

Seite 123 N SLR

N

W CCmax

W CF mid

W CT max

4

0,0106

0,0127

0,0589

6 8

0,0103 0,0161

0,0184 0,0256

0,0544 0,0534

4

0,0123 0,0278

0,0188 0,0335

0,0556 0,1328

6

0,0367

0,0518

0,1727

8

0,0493 0,0378

0,0726 0,0524

0,1533 0,1529

4

0,0209 0,0259

0,0231 0,0330

0,1068 0,1208

API

EX 6 8

0,0364

0,0489

0,1155

0,0276

0,0348

0,1143

0,0234 0,0258

0,0280 0,0434

0,1123 0,1325

0,0347 0,0279

0,0588 0,0432

0,1146 0,1199

4

0,0299

0,0350

0,1479

6 8

0,0353 0,0441 0,0364

0,0501 0,0669 0,0505

0,1715 0,1472 0,1556

4

0,0279 0,0373

0,0339 0,0526

0,1352 0,1770

FSH 4 6 8 BSH

DSH 6 8 INV

0,0509

0,0752

0,1648

0,0385

0,0537

0,1589

Tabelle 5.8: Größte Abweichung W Ck 5.3.2.3

Zusammenfassung

Nach der Darstellung verschiedener Nachbarschaften im Lösungsraum wurden verschiedene Nachbarschaftskonzepte für den Zielraum vorgestellt. Anschließend wurde in einer zweistufigen Versuchsreihe überprüft, ob oder wie häufig ein Nachbar im Zielraum auch ein Nachbar im Lösungsraum ist. Es hat sich gezeigt, daß für die API-Nachbarschaft die Chance, einen Nachbarn im Zielraum zu enthalten, am größten ist. Es hat sich weiter gezeigt, daß die API-Nachbarschaft die geringsten Abweichungen von N SZR4 für alle drei berücksichtigen Ziele aufweist. Somit erscheint es angebracht, die API-Nachbarschaft in einem Algorithmus zur intensivierten Untersuchung der näheren Nachbarschaft einer Ausgangsfolge im Zielraum zu verwenden. Es bleibt jedoch anzumerken, daß diese Resultate lediglich empirisch sind. Ein Austauschen der Testprobleme, insbesondere durch solche mit speziellen Strukturen, wie z.B. korrelierten Bearbeitungszeiten oder einer anderen Verteilung der

5.4

Seite 124

Bearbeitungszeiten, kann zu abweichenden Ergebnissen führen.35

5.4

Analyse der Qualität der Distanzapproximationen

5.4.1

Zur Notwendigkeit der Approximation

Reeves (1999) hat aufgrund einer signifikanten Korrelation von der approximierten Distanz zwischen lokalen Optima und deren Zykluszeit in einem Randomization Test auf die Existenz des ”Großen Tals” bei Permutation Flow Shop Problemen geschlossen.36 Dabei hat er vier unterschiedliche Maße als Ersatz für die echte Distanz zwischen jeweils zwei Auftragsfolgen verwendet, da sich die echte Distanz nicht in polynomialer Zeit bestimmen läßt. Reeves (1999) weist darauf hin, daß es schwer ist zu beurteilen, welches Distanzmaß die echte Distanz am besten approximiert. Es wird lediglich die Vermutung geäußert, daß zu erwarten sei, daß das Ersatzmaß POSN am besten in Lage ist, die einzelnen lokalen Optima voneinander abzugrenzen. Das Maß ADJ1 sei dazu im Falle des Permutation Flow Shop Problems am wenigsten in der Lage.37 Grundsätzlich kann die Distanz zwischen zwei Auftragsfolgen als die Anzahl der mindestens notwendigen Züge mit einem Nachbarschaftsoperator, um die Auftragsfolge π in π 0 zu überführen, gemessen werden.38 Bisher ist jedoch kein Algorithmus bekannt, der diese Distanz in polynomialer Zeit zu bestimmen in der Lage ist.39 Aus diesem Grund verwendet Reeves (1999) in seiner Untersuchung die vier im folgenden Abschnitt 5.4.2 vorgestellten Ersatzmaße.40 Offen ist jedoch, wie gut die Ersatzmaße in der Lage sind, die echte Distanz zu approximieren. In Abschnitt 5.5 soll die Topographie des Lösungsraums untersucht werden. Die Verwendung der Ersatzmaße erscheint dabei nur dann sinnvoll möglich, wenn diese in der Lage sind, die echte Distanz angemessen gut zu approximieren. Die Analyse der Approximationsqualität ist daher Inhalt des Abschnitts 5.4.3. 35 Auf die gleiche Einschränkung weist auch Reeves (1999) hin, indem er anmerkt, daß alle Untersuchungen zu Nachbarschaftsoperatoren lediglich empirisch sein können. Vgl. Reeves (1999, S. 479). 36 Vgl. Reeves (1999, S.483). 37 Vgl. Reeves (1999, S.478). 38 Vgl. Reeves (1999, S.478). Um im Folgenden eine bessere Unterscheidung zu den Distanzen, welche mit Hilfe der Ersatzmaße bestimmt werden, zu erreichen, wird diese Distanz im Folgenden auch als echte Distanz bezeichnet. 39 Vgl. Reeves (1999, S.478). 40 Vgl. zu den in Abschnitt 5.4.2 Vorgestellten Auftragsfolgen Reeves (1999, S.478).

5.4

Seite 125

5.4.2

Maße zur Distanzapproximation zwischen zwei Auftragsfolgen

Unidirectional Adjacency Metric (ADJ1) Dieses Maß wertet die Anzahl gleicher geordneter Auftragspaare in den Auftragsfolgen π und π 0 aus und subtrahiert diese von der bei N Aufträgen auftretenden Anzahl geordneter Auftragspaare (N − 1).41 ADJ1 errechnet sich somit wie folgt, wobei π[h] für den Auftrag auf Position h in Auftragsfolge π steht: 0

ADJ1(π, π ) = N − 1 −

N −1 X

(5.32)

xπ[h] ,π[h+1]

h=1

mit:

( xij =

1 0

falls Auftrag j direkt auf Auftrag i in π und π 0 folgt sonst

(5.33)

N − 1 ist die Anzahl der möglichen geordneten Auftragspaare bei N Aufträgen. Gilt ADJ(π, π 0 ) = 0, so gilt offensichtlich π = π 0 . Bidirectional Adjacency Metric (ADJ2) Das Maß wertet die Anzahl gleicher ungeordneter Auftragspaare in den Auftragsfolgen π und π 0 aus und subtrahiert diese von der bei N Aufträgen auftretenden Anzahl von Auftragspaaren (N − 1).42 Im Unterschied zu ADJ1 macht es hier keinen Unterschied, in welcher Reihenfolge die Aufträge in den Auftragsfolgen auftreten. Daher errechnet sich ADJ2 wie folgt: ADJ2(π, π 0 ) = N − 1 −

N −1 X

xπ[h] ,π[h+1] + xπ[h+1] ,π[h]



(5.34)

h=1

mit:

( xij =

1 0

falls Auftrag j direkt auf Auftrag i in π und π 0 folgt sonst

(5.35)

Hier gilt offenbar, daß, wenn π = π 0 gilt, auch ADJ2(π, π 0 ) = 0 gilt. Die Umkehrung dieser Aussage gilt hingegen nicht. 41 Das ADJ1 Maß wird in der Arbeit von Reeves (1999) verbal beschrieben (vgl. Reeves (1999, S.478)). Das Maß errechnet sich dort aus N − 1 − nadj , wobei nadj die Anzahl gleicher geordneter Auftragspaare ist. Eine formale Darstellung, wie nadj berechnet werden kann, ist dort nicht erfolgt. 42 Das ADJ2 Maß wird in der Arbeit von Reeves (1999) verbal beschrieben (vgl. Reeves (1999, S.478)). Eine formale Darstellung wie in dieser Arbeit ist dort nicht erfolgt.

5.4

Seite 126

Precedence Metric (PREC) Dieses Maß läßt die Forderung der unmittelbaren Nachbarschaft von Aufträgen in den Auftragsfolgen fallen. Es wertet lediglich aus, ob Auftrag i in π und π 0 (irgendwo) vor Auftrag j steht.43 Es errechnet sich aus:44 P REC(π, π 0 ) =

N −1 N N (N − 1) X X − yπ[g] ,π[h] 2 g=1

(5.36)

h=g+1

mit:

(

falls Auftrag i sowohl in π und π 0 vor Auftrag j steht sonst (5.37) 0 Es gibt somit an, wieviele Aufträge i in Auftragsfolge π hinter Auftrag j stehen, obwohl sie in Auftragsfolge π vor Auftrag j stehen. yij =

1 0

Position Based Metric (POSN) Dieses Ersatzmaß verzichtet auf die Analyse der Reihenfolge von Aufträgen. Vielmehr zielt es direkt auf die Position eines Auftrags in den zwei Auftragsfolgen ab und ermittelt die Differenz der Positionen.45 Ist [i]π die Position von Auftrag i in Auftragsfolge π und [i]π0 die Position von Auftrag i in π 0 , so ergibt sich das Distanzmaß aus: P OSN (π, π 0 ) =

N X

|[i]π − [i]π0 |

(5.38)

i=1

Das POSN-Maß kann nur den Wert Null oder gerade Werte annehmen. Den Wert Null nimmt es an, wenn gilt: π = π 0 . Weicht die Position eines Auftrags in π und π 0 um eine ungerade Anzahl an Positionen ab, so muß es dafür einen weiteren Auftrag geben, der ebenfalls um eine ungerade Anzahl an Positionen verschoben ist. D.h., es gibt stets keinen oder eine gerade Anzahl an Aufträgen, die um eine ungerade Anzahl an Positionen verschoben sind. Die Summe zweier ungerader Zahlen ergibt jedoch stets eine gerade Zahl. Somit kann das POSN-Maß nur gerade Werte oder aber den Wert Null annehmen. 43 Das PREC Maß wird in der Arbeit von Reeves (1999) verbal beschrieben (vgl. Reeves (1999, S.478)). Eine formale Darstellung wie in dieser Arbeit ist dort nicht erfolgt. 44 Im Gegensatz zu x ij von ADJ1 und ADJ2 ist es bei yij nun nicht mehr notwendig, daß Auftrag i unmittelbar vor Auftrag j steht, diese also in der Auftragsfolge benachbart sind. 45 In dieser Arbeit ist eine exaktere, der von Reeves (1999) abweichende formale Darstellung gewählt worden (vgl. Reeves (1999, S.478)).

5.4

Seite 127

5.4.3

Analyse der Approximationsqualität

5.4.3.1

Allgemeine Anforderungen an ein Maß

In diesem und im folgenden Abschnitt 5.4.3.2 soll eine Analyse der Approximationsqualität der Ersatzmaße durchgeführt werden. In Abschnitt 5.5 soll die Topographie des Lösungsraums untersucht werden. Damit die von Reeves (1999) verwendeten Größen als Maße verwendet werden können, erscheint es sinnvoll, sie zunächst daraufhin zu überprüfen, ob sie die folgenden vier allgemeinen Anforderungen erfüllen:46 1. 2. 3. 4.

Nicht-Negativität: Separation: Symmetrie: Dreiecks-Ungleichung:

δ(π, π 0 ) ≥ 0 δ(π, π 0 ) = 0 ⇒ π = π 0 δ(π, π 0 ) = δ(π 0 , π) δ(π, π ◦ ) + δ(π ◦ , π 0 ) ≥ δ(π, π 0 )

Um die vier Ersatzmaße auf die Erfüllung dieser Eigenschaften hin zu überprüfen, wurden für N = 2 bis N = 7 jeweils alle N ! Auftragsfolgen durch vollständige Enumeration erzeugt und für jedes der vier Ersatzmaße die Distanzmatrix errechnet. Diese enthält die Distanz von allen Auftragsfolgen zu allen anderen Auftragsfolgen. Anschließend wurde mit ihrer Hilfe überprüft, ob die vier Forderungen erfüllt werden. Die folgenden Tabellen 5.9 und 5.10 geben das Ergebnis dieser Untersuchung wieder. ADJ1

ADJ2

PREC

POSN

Nicht-Negativität: Separation: Symmetrie:

+ + +

+ +

+ + +

+ + +

Dreiecks-Ungleichung:

+

+

+

+

N=2

+ Anforderung wird erfüllt; - Anforderung wird nicht erfüllt

Tabelle 5.9: Anforderungen an ein Distanzmaß N=2 Die vier Maße erfüllen in allen überprüften Fällen die Anforderung der Nicht-Negativität. Aufgrund ihrer Definition ist es bei allen vier Maßen nicht möglich, daß sie einen negativen Wert annehmen, so daß die Anforderung der Nicht-Negativität für beliebige Werte von N erfüllt ist. Bei ADJ1 und ADJ2 kann der Summenterm maximal den Wert N-1 annehmen, so daß Null der kleinste mögliche Wert ist. Bei PREC ist der maximal mögliche Wert des Summenterms N (N2−1) . Das POSN-Maß ermittelt sich aus den 46 Vgl. dazu auch die Anforderungen, die in Steuer (1986) an l -Maße gestellt werden, (vgl. p Steuer (1986, S.44) sowie Abschnitt 3.2.2.5, S.35).

5.4

Seite 128 N=3,4,5,6,7

ADJ1

ADJ2

PREC

POSN

Nicht-Negativität:

+

+

+

+

Separation:

+ +

+

+ -

+ +

+

+

+

+

Symmetrie: Dreiecks-Ungleichung:

+ Anforderung wird erfüllt; - Anforderung wird nicht erfüllt

Tabelle 5.10: Anforderungen an ein Distanzmaß N=3,4,5,6,7 absoluten Differenzen der Auftragspositionen, so daß ebenfalls kein negativer Wert möglich ist. Die Anforderung der Separation wird von ADJ1, PREC und POSN in allen überprüften Fällen erfüllt. Sobald sich in einer Auftragsfolge die Position eines Auftrags ändert, ist mindestens ein xij bzw. yij gleich Null und ADJ1 bzw. PREC nehmen einen Wert größer als Null an.47 Bei POSN gibt es im Fall π 6= π 0 mind. zwei Aufträge i mit einem positiven Wert für | [i]π − [i]π0 |. ADJ2 hingegen verletzt die Separationseigenschaft. Eine Analyse der Distanzmatrix zeigt, daß unterschiedliche Auftragsfolgen eine Distanz von Null haben können. Dies geschieht, da ADJ2 auf die direkte Nachbarschaft zweier Aufträge in den Auftragsfolgen abstellt, jedoch unabhängig von ihrer Reihenfolge. Damit wird der Inversion der Auftragsfolge eine Distanz von Null zugewiesen. So haben z.B. π = (1, 2, 3, 4) und π 0 = (4, 3, 2, 1) eine ADJ2-Distanz von Null. Die Verletzung dieser Eigenschaft ist unerwünscht und läßt ADJ2 als Ersatzmaß zur Distanzmessung ungeeignet erscheinen. Insbesondere, wenn man bedenkt, daß die echte Distanz zwischen diesen beiden Auftragsfolgen für den API-Operator 7 Züge beträgt. Das ist die größte Distanz, die bei vier Aufträgen unter Verwendung dieses Operators zwischen zwei Auftragsfolgen auftreten kann. Die Symmetrieeigenschaft wird von ADJ1, ADJ2 und POSN in allen untersuchten Fällen erfüllt. Bei ADJ1 und ADJ2 wird die Anzahl der geordneten bzw. ungeordneten Auftragspaare in zwei Auftragsfolgen erfaßt. Daher ist es egal, welche der beiden Auftragsfolgen als Referenz bzw. Ausgangsfolge verwendet wird. Da POSN die absoluten Differenzen der Auftragspositionen berücksichtigt, ist es auch dort egal, welche der beiden Auftragsfolgen als Ausgangslösung verwendet wird. Die drei Maße erfüllen daher für beliebige Werte von N die Symmetrieeigenschaft. Das PREC-Maß erfüllt in den überprüften Fällen nur im Fall N=2 die Symmetrieeigenschaft. Ansonsten wird die Symmetrieeigenschaft verletzt, so daß auch PREC als Er47 In diese Fällen ist der Wert des Summenterms bei ADJ1 und kleiner N-1 und bei PREC N (N −1) kleiner als . 2

5.4

Seite 129

satzmaß zur Distanzmessung ungeeignet scheint. Jedoch muß angemerkt werden, daß auch einige Nachbarschaften im Lösungsraum nicht symmetrisch sind. Dazu gehören die in dieser Arbeit betrachteten Nachbarschaften FSH und BSH. Unter diesem Blickwinkel kann die Verletzung der Symmetrieeigenschaft unter Umständen als erwünscht gelten. Offen ist, ob sich die Asymmetrie des Maßes mit der Asymmetrie der Nachbarschaft im Lösungsraum deckt. Aus diesem Grund wird PREC weiterhin in den Analysen berücksichtigt. Die Dreiecks-Ungleichung wird in allen überprüften Fällen von allen vier Maßen erfüllt. Es ist im Rahmen der Arbeit nicht möglich, einen Beweis für das Erfüllen der Dreiecksungleichung für beliebige Werten von N zu führen. Aufgrund der überprüften Fälle liegt jedoch die Vermutung nahe, daß sie immer erfüllt ist. 5.4.3.2

Differenzierungstiefe und Korrelation mit der echten Distanz

Für ein Ersatzmaß genügt es nicht, die untersuchten allgemeinen Anforderungen an ein Maß zu erfüllen. Zusätzlich muß es eine gute Abschätzung der echten Distanz, gemessen in Zügen, zwischen den Auftragsfolgen geben. Um die Approximationsqualität der Ersatzmaße beurteilen zu können, ist die Kenntnis der echten Distanz zwischen den Auftragsfolgen unverzichtbar. Die Untersuchung muß somit auf kleine Problemgrößen mit vier, sechs sowie acht Aufträgen beschränkt werden, da es bei diesen Problemgrößen noch möglich ist, die echten Distanzen in angemessener Rechenzeit zu ermitteln. Dies geschieht mit Hilfe eines rekursiven Algorithmus. Dieser ermittelt die echte Distanz von einer Auftragsfolge zu allen anderen N ! − 1 Auftragsfolgen für einen gegebenen Nachbarschaftsoperator. Im Algorithmus 1 ist dieses rekursive Verfahren wiedergegeben.

5.4

Seite 130

Algorithmus 1 Berechnung der ”echten Distanz” zwischen zwei Auftragsfolgen Beschreibung der verwendeten Datenstrukturen: - DISTANZLISTE: Globale Datenstruktur, die für jede der N! möglichen Auftragsfolgen die Anzahl an Zügen speichert, die mindestens benötigt werden, um sie von der Ausgangsfolge π ◦ aus zu erreichen. - KNOTENLISTE: Datenstruktur, welche eine Liste von Auftragsfolgen speichert. Start der Berechnung 1: Initialisierung der Ausgangsfolge π ◦ also: π ◦ = (1, 2, ..., N ); 2: Setze die Anzahl der Züge für alle Elemente in DISTANZLISTE auf ∞; 3: Setze die Anzahl der Züge in DISTANZLISTE für π ◦ gleich 0; 4: Def. START als Datenstuktur vom Typ KNOTENLISTE und initialisiere sie als leere Liste. KNOTENLISTE START = {}; 5: Füge π ◦ in START ein: START=; 6: Starte Rekursion get_distance(START,1); 7: STOP; -----------------------------------------------8: Funktion get_distance(KNOTENLISTE LETZTE_LAGE, int Zug) { 9: Def. LAGE als Datenstruktur vom Typ KNOTENLISTE und initialisiere sie als leere Liste. KNOTENLISTE LAGE = {}; 10: Ermittle für jedes Element der übergebenen Liste von Auftragsfolgen LETZTE_LAGE die Nachbarn im Lösungsraum und füge diese in die Liste von Auftragsfolgen LAGE ein. 11: Führe für jede Auftragsfolge y aus LAGE Schritt 12 aus: 12: Falls Zug < aktuell in DISTANZLISTE gespeicherte Zugzahl für y: dann: aktualisiere Zugzahl für y in DISTANZLISTE mit dem Wert von Zug sonst: lösche y aus LAGE, da von dieser Auftragsfolge die Nachbarschaft bereits früher untersucht wurde. 13: Falls LAGE6={} rufe get_distance(LAGE, Zug+1) auf (Rekursion). 14: } // Ende der Funktion get_distance

5.4

Seite 131

Die echte Distanz wurde mit Hilfe dieses Algorithmus für vier, sechs und acht Aufträge für jeden der vorgestellten Nachbarschaftsoperatoren im Lösungsraum berechnet. Zum Vergleich wurden die Werte der vier Ersatzmaße ebenfalls ermittelt. Um die Qualität der Approximation durch die Ersatzmaße zu beurteilen, wurden folgende Fragen untersucht: 1. Hat das Ersatzmaß eine ausreichende Differenzierungstiefe? Das Ersatzmaß sollte annähernd soviele Ausprägungsstufen annehmen können wie die Höhe der maximalen echten Distanz. Bewegt sich die echte Distanz z.B. im Intervall [0; 29], so sollte ein gutes Ersatzmaß ca. 30 unterschiedliche Ausprägungsstufen annehmen können. Je größer die Abweichung, desto schwieriger ist es, von der Approximation auf die echte Distanz zu schließen. 2. Besteht eine starke Korrelation zwischen dem Ersatzmaß und der echten Distanz? Es muß gewährleistet sein, daß von einem hohen Wert des Ersatzmaßes auf eine große echte Distanz (positive Korrelation), bzw. von einem hohen Wert auf eine niedrige echte Distanz (negative Korrelation) geschlossen werden kann. Besteht keine solche starke Korrelation, so ist eine sinnvolle Interpretation des Ersatzmaßes nicht möglich. Zunächst soll die Differenzierungstiefe analysiert werden. Dazu werden für die zu analysierenden Distanzmaße sowie für die echten Distanzen sowohl der maximale und minimale Wert sowie die Anzahl unterschiedlicher Ausprägungsstufen ermittelt. Die Werte sind in den Tabellen 5.11, 5.12 und 5.13 dargestellt. Der minimale Wert ist immer Null. Die Berücksichtigung von Null ist erforderlich, da ADJ2 als einziges Maß den Wert Null für unterschiedliche Auftragsfolgen annimmt.48 Die Differenzierungstiefe wurde durch die Division der Anzahl der Ausprägungsstufen der Ersatzmaße durch die Anzahl der Ausprägungsstufen der echten Distanz bestimmt. Für POSN ist die Anzahl der Ausprägungsstufen kleiner als seine maximale Ausprägung, was sich damit begründen läßt, daß POSN aufgrund seiner Definition nur den Wert Null und gerade Werte annehmen kann. Außer bei der API-Nachbarschaft, wo ADJ1, ADJ2 sowie POSN Werte kleiner 1 annehmen, wird die notwendige Differenzierungstiefe erreicht oder überschritten. Bei ADJ1 und ADJ2 bleibt mit Ausnahme der API-Nachbarschaft die Differenzierungstiefe konstant bei 100%.

48 Dies

folgt aus der Verletzung der Separationseigenschaft.

5.4

Seite 132

N=4

ADJ1

ADJ2

PREC

POSN

MIN

0

0

0

0

MAX

3

3

6

8

echte Distanz API

MIN

MAX

Stufen

4

4

7

5

0

6

7

0,571

0,571

1

0,714

EX

0

3

4

1

1

1,75

1,25

FSH

0

3

4

1

1

1,75

1,25

BSH DSH

0 0

3 3

4 4

1 1

1 1

1,75 1,75

1,25 1,25

INV

0

3

4

1

1

1,75

1,25

Tabelle 5.11: Differenzierungstiefe Ersatzmaße N=4

N=6 MIN MAX echte Distanz MIN MAX

ADJ1

ADJ2

PREC

POSN

0 5

0 5

0 15

0 18

Stufen

6

6

16

10

API

0

15

16

0,375

0,375

1

0,625

EX FSH

0 0

5 5

6 6

1 1

1 1

2,667 2,667

1,667 1,667

BSH DSH

0 0

5 5

6 6

1 1

1 1

2,667 2,667

1,667 1,667

INV

0

5

6

1

1

2,667

1,667

Tabelle 5.12: Differenzierungstiefe Ersatzmaße N=6

N=8 MIN

ADJ1 0

ADJ2 0

PREC 0

POSN 0

MAX

7

7

28

32

echte Distanz MIN

MAX

Stufen

8

8

29

17

API

0

28

29

0,276

0,276

1

0,5862

EX

0

7

8

1

1

3,625

2,125

FSH BSH DSH INV

0 0 0 0

7 7 7 7

8 8 8 8

1 1 1 1

1 1 1 1

3,625 3,625 3,625 3,625

2,125 2,125 2,125 2,125

Tabelle 5.13: Differenzierungstiefe Ersatzmaße N=8

5.4

Seite 133

Als zweites Kriterium soll die Korrelation zwischen echter Distanz und den Werten der Ersatzmaße ermittelt werden. Die Tabellen 5.14, 5.15 sowie 5.16 geben die ermittelten Korrelationskoeffizienten für N=4, 6 bzw. 8 wieder. Zunächst fällt auf, daß die Korrelationskoeffizienten N=4

ADJ1

ADJ2

PREC

POSN

API

0,314

0,000

0,637

0,928

EX

0,095 0,410

0,343 0,137

0,754 0,327

0,747 0,747

0,410

0,137

0,754

0,747

0,676 0,272

0,087 0,750

0,550 0,620

0,758 0,614

FSH BSH DSH INV

Tabelle 5.14: Korrelationen zwischen echter Distanz und den Ersatzmaßen, N=4 N=6

ADJ1

ADJ2

PREC

POSN

API EX

0,174 0,032

0,000 0,157

0,521 0,598

0,925 0,567

FSH BSH DSH

0,275 0,275

0,104 0,104

0,044 0,598

0,567 0,567

0,545 0,368

0,104 0,707

0,423 0,286

0,698 0,269

INV

Tabelle 5.15: Korrelationen zwischen echter Distanz und den Ersatzmaßen, N=6 N=8

ADJ1

ADJ2

PREC

POSN

API EX FSH

0,117 0,015 0,212

0,000 0,098 0,086

0,468 0,505 -0,057

0,929 0,463 0,463

BSH DSH INV

0,212 0,473 0,430

0,086 0,105 0,730

0,505 0,368 0,152

0,463 0,669 0,138

Tabelle 5.16: Korrelationen zwischen echter Distanz und den Ersatzmaßen, N=8 mit steigender Zahl der Aufträge zumeist sinken. Für die Kombination FSH/PREC wird sie bei N=8 sogar sehr schwach negativ. Eine Ausnahme dieser Beobachtung bilden hier die Kombinationen API/POSN, API/ADJ2 sowie DSH/ADJ2. Für Probleme mit acht Aufträgen kann lediglich POSN für die API-Nachbarschaft noch eine sehr stark positive Korrelation aufweisen und für die DSH-Nachbarschaft zumindest noch eine starke.

5.5

Seite 134

Aus den ermittelten Werten sticht API/POSN aufgrund der sehr starken Korrelation heraus, gleichzeitig erfüllt es die allgemeinen Anforderungen an Maße.49 Die Schwäche dieses Maßes liegt in der fehlenden Differenzierungstiefe. Einer sinkenden Differenzierungstiefe steht ein sehr hoher Korrelationskoeffizient gegenüber. Eine mögliche Erklärung für die beschriebene Entwicklung ist, daß große echte Distanzen, welche von der Differenzierungstiefe des Maßes nicht erfaßt werden, zumindest einen hohen POSN-Wert erhalten. Damit bleibt eine hohe Kovarianz der beiden Zahlenreihen erhalten. Bezüglich PREC bleibt anzumerken, daß es die Symmetrieeigenschaften nicht erfüllt. Dies kann, wie bereits erwähnt, bei der Erfassung von nicht symmetrischen Nachbarschaften wie FSH oder BSH eine wünschenswerte Eigenschaft sein. Jedoch zeigt sich auch hier eine schwache bis mittlere Korrelation. Die Asymmetrie der Nachbarschaft wird damit von PREC nicht ”richtig” nachvollzogen. Hat Reeves (1999) vermutet, daß ADJ1 am schlechtesten und POSN am besten zur Diskriminierung der lokalen Optima in der Lage sind,50 so bleibt abschließend festzuhalten, daß beide Maße zwar unter Umständen diese Diskriminierungseigenschaften in seinen Experimenten aufweisen, sie aufgrund der hier vorgestellten Ergebnisse aber nicht in der Lage sind, eine gute Approximation der echten Distanzen zu geben. Ihre Verwendung zur Distanzmessung zwischen Auftragsfolgen scheint damit nicht zweckmäßig, da dies zu nicht sehr aussagekräftigen Ergebnissen führen würde. In den folgenden Analysen wird daher auf die Verwendung der Ersatzmaße verzichtet.

5.5

Analyse der Topographie im Lösungsraum

5.5.1

Die Korrelation von Distanz und Zielfunktionswert

Wie bereits in der Einführung zu diesem Kapitel ausgeführt, beschränken sich die bisherigen Arbeiten zur Existenz eines ”Großen Tals” beim Permutation Flow Shop Problem auf die Zielgröße der Zykluszeit. Vergleichbare 49 Die Erfüllung der Dreiecks-Ungleichung wird in der Analyse nur für N=4 gezeigt. Es ist im Rahmen der Arbeit nicht möglich, einen Beweis für das Erfüllen der Dreiecksungleichung für beliebige Werten von N zu führen. Aufgrund der überprüften Fälle liegt jedoch die Vermutung nahe, daß sie immer erfüllt ist. 50 Vgl. Reeves (1999, S.478).

5.5

Seite 135

Analysen für die Zielgrößen der mittleren Durchlaufzeit sowie der maximalen Terminüberschreitung sind nicht bekannt. Das experimentelle Vorgehen zur Untersuchung der Topographie des Lösungsraums in dieser Arbeit unterscheidet sich deutlich von den erwähnten Arbeiten von Boese u. a. (1993), Boese u. a. (1994) und Reeves (1999),51 da aufgrund der im letzten Abschnitt erhaltenen Ergebnisse auf die Verwendung von Ersatzmaßen zur Distanzmessung verzichtet wird. Die Analyse wird auf kleine Probleminstanzen mit bis zu acht Aufträgen beschränkt. Dies hat den Vorteil, daß die echte Distanz ermittelt und somit auf die Verwendung von Ersatzmaßen verzichtet werden kann. Ein weiterer wesentlicher Unterschied zu vorangegangenen Untersuchungen besteht darin, daß auf die Bestimmung lokaler Optima mit Hilfe einer Heuristik verzichtet wird. Damit ist der Einfluß der Heuristik auf die Qualität der lokalen Optima als Einflußfaktor auf das Analyseergebnis ebenfalls ausgeschlossen. Als Ausgangspunkt für die Analyse werden allein die globalen Optima verwendet. Damit die Existenz eines ”Großen Tals” für ein Ziel bestätigt werden kann, muß die Korrelation zwischen der Distanz der Auftragsfolgen vom globalen Optimum mit dem Zielfunktionswert stark ausgeprägt sein. Existieren mehrere globale Optima für das betrachtete Ziel, so müssen diese im Lösungsraum nahe beieinander liegen.52 Im Zielraum sind globale Optima eines Ziels immer Nachbarn. Aufgrund der Ergebnisse der Experimente zur Nachbarschaft im Zielraum in Abschnitt 5.3 wird die Distanz unter Verwendung eines API-Nachbarschaftsoperators berechnet. Zum einen ist bei diesem Nachbarschaftsoperator die Wahrscheinlichkeit, daß ein Nachbar im Lösungsraum auch ein Nachbar im Zielraum ist, am höchsten, was der Existenz eines ”Großen Tales” zumindest förderlich ist. Zum anderen ist bei diesem Operator die maximale Anzahl der notwendigen Züge, um den gesamten Lösungsraum abzudecken, am größten (vgl. Tabellen: 5.11, 5.12, 5.13). Dies ermöglicht eine gute Differenzierung zwischen Distanz und Zielfunktionswert. Im ersten Experiment werden für jedes Problem und jedes Ziel die globalen Optima bestimmt. Anschließend wird ausgehend von jedem dieser globalen Optima die Distanz zu allen anderen Auftragsfolgen berechnet, um anschließend die Korrelation zwischen Distanz und Zielfunktionswert zu ermitteln. Zusätzlich zur Korrelation mit der echten Distanz werden die Korrelationen mit den in Abschnitt 5.4 diskutierten Ersatzmaßen ermit51 Vgl. 52 Im

Boese u. a. (1993, S.3-12), Boese u. a. (1994, S.102-110) und Reeves (1999, S.479-489). Idealfall liegen diese direkt nebeneinander, d.h die Distanz beträgt einen Zug.

5.5

Seite 136

telt. Damit wird sichtbar, welcher Unterschied in der Beurteilung resultieren würde, falls die oben diskutierten Ersatzmaße verwendet würden. Für jedes der Testprobleme53 werden die Durchschnittswerte der Korrelationen der globalen Optima der einzelnen Ziele berechnet. Die Ergebnisse sind in den Tabellen 5.17, 5.18 und 5.19 angegeben. In den fett gedruckten Zeilen sind die Durchschnittswerte alle untersuchten Probleminstanzen mit gleicher Auftragszahl angegeben. In den drei Zeilen darüber sind jeweils die Durchschnittswerte über die 10 Probleminstanzen mit gleicher Maschinenzahl bei gegebener Auftragszahl angegeben. N

M

#O

ρreal

ρADJ1

ρADJ2

ρP REC

ρP OSN

4

5

1,3000

0,6874

0,2233

0,0473

0,5632

0,6987

4

10

1,3000

0,5893

0,2539

0,1148

0,5218

0,5991

4

20

4 6 6

∅ 5 10

1,7000 1,4333 3,3000

0,6136 0,6301 0,5100

0,2692 0,2488 0,1425

0,0815 0,0812 0,0760

0,5496 0,5449 0,3390

0,6320 0,6433 0,5365

6

20

1,3000 4,1000

0,5580 0,4312

0,1786 0,1617

0,0411 0,0483

0,3723 0,2521

0,5392 0,4376

6 8 8 8

∅ 5 10 20

2,9000 19,5000 4,0000

0,4997 0,5926 0,4354

0,1609 0,0928 0,1175

0,0551 0,0286 0,0526

0,3211 0,2602 0,2736

0,5045 0,5514 0,4315

8



4,0000 9,3448

0,3860 0,4725

0,0985 0,1024

0,0500 0,0435

0,2340 0,2553

0,4123 0,4662

#O Durchschnittliche Anzahl globaler Optima , ρreal : Korrelation mit realer Distanz ρADJ1 : Korrelation Zielfunktionswerte und ADJ1 ρADJ2 : Korrelation Zielfunktionswerte und ADJ2 ρP REC : Korrelation Zielfunktionswerte und PREC ρP OSN : Korrelation Zielfunktionswerte und POSN

Tabelle 5.17: Korrelation zwischen echter Distanz, Ersatzmaßen und Zykluszeit Zunächst ist zu beobachten, daß bei der maximalen Terminüberschreitung in der Regel am häufigsten mehrere globale Optima existieren (vgl. die Werte für #O), lediglich bei N=8 gibt es bei der Zykluszeit im Durchschnitt mehr. Am seltensten treten multiple globale Optima bei der mittleren Durchlaufzeit auf. Weiterhin ist zu erkennen, daß bei der Zykluszeit und der maximalen Terminüberschreitung die Korrelation mit der echten Distanz ρreal mit steigender Anzahl von Aufträgen im Durchschnitt sinkt (vgl. die ∅-Werte bei gegebenem N ). 53 Es werden Probleminstanzen mit N ∈ {4, 6, 8} Aufträgen und M ∈ {5, 10, 20} Maschinen betrachtet. Durch die Kombination von Auftrags- und Maschinenzahl ergeben sich 9 Testfelder. Für jedes Testfeld werden 10 Probleminstanzen erzeugt. Die Generierung dieser Testprobleme wird in den Anhängen A und B beschrieben.

5.5

Seite 137

M

#O

ρreal

ρADJ1

ρADJ2

ρP REC

ρP OSN

4

5

1,0000

0,7180

0,2085

0,0507

0,3863

0,7122

4

10

4 4

20 ∅

1,0000 1,0000

0,6817 0,8006

0,2011 0,1948

0,1343 0,0750

0,3860 0,4566

0,6806 0,7931

1,0000

0,7334

0,2015

0,0867

0,4096

0,7286

6

5

1,0000

0,5970

0,1337

0,0557

0,2158

0,5653

6 6

10 20

1,0000

0,5188

0,1839

0,0605

0,1562

0,4883

6 8

∅ 5

1,1000 1,0333

0,6845 0,6001

0,1693 0,1623

0,0847 0,0670

0,3024 0,2248

0,6744 0,5760

8 8

10 20

1,3000 1,0000

0,5913 0,6467

0,1138 0,1197

0,0352 0,0701

0,2124 0,1928

0,5689 0,6115

8



N

1,0000

0,5708

0,0965

0,0515

0,1618

0,5511

1,1034

0,6014

0,1097

0,0516

0,1889

0,5759

Tabelle 5.18: Korrelation zwischen echter Distanz, Ersatzmaßen und mittlerer Durchlaufzeit

M

#O

ρreal

ρADJ1

ρADJ2

ρP REC

ρP OSN

4

5

4,6000

0,4777

0,1932

0,0848

0,4362

0,5161

4 4 4 6 6 6

10 20 ∅ 5 10 20

3,2000 4,5556 4,1034 4,5000

0,4946 0,4004 0,4595 0,4594

0,1593 0,1869 0,1796 0,0955

0,1327 0,1538 0,1227 0,0655

0,4400 0,4453 0,4403 0,3102

0,5397 0,4560 0,5056 0,5018

55,2000 63,2000

0,5107 0,2593

0,1230 0,1177

0,0270 0,0493

0,3192 0,2387

0,5025 0,3022

6 8 8 8 8

∅ 5 10 20 ∅

40,9667

0,4098

0,1121

0,0473

0,2894

0,4355

10,6000 4,2222 5,5000 6,8621

0,4293 0,3860 0,3357 0,3836

0,0761 0,0960 0,0629 0,0777

0,0145 0,0528 0,0477 0,0378

0,2335 0,2266 0,2307 0,2304

0,4426 0,4007 0,3906 0,4116

N

Tabelle 5.19: Korrelation zwischen echter Distanz, Ersatzmaßen und maximaler Terminüberschreitung

5.5

Seite 138

Auffällig ist, daß bei Verwendung der Ersatzmaße ADJ1, ADJ2 sowie PREC54 die echte Korrelation ρreal unterschätzt wird. Die Approximation mit Hilfe des POSN-Maßes führt bei dem Ziel der Zykluszeit bei Problemen mit N=4 und N=6 Aufträgen zu einer Überschätzung der echten Korrelation.55 Wird bei der mittleren Durchlaufzeit die echte Korrelation immer unterschätzt, wird sie bei der maximalen Terminüberschreitung, bis auf den Fall N=6, M=10, überschätzt. Stärke der Korrelation

Bereich

mittel negativ

[-0,6;-0,4]

schwach negativ

[-0,4;-0,2]

sehr schwach negativ

[-0,2;0]

keine sehr schwach positiv

0 [0;0,2]

schwach positiv mittel positiv

[0,2;0,4] [0,4;0,6]

stark positiv sehr stark positiv

Cmax[%]

F mid[%]

T max[%]

0,00 0,00

0,00 0,00

0,06 6,01

0,00 0,00

1,07 0,00

18,42 0,00

1,50 11,22

3,23 7,53

26,89 25,08

[0,6;0,8]

38,90 46,63

21,50 45,16

18,49 4,72

[0,8;0,99]

1,75

21,51

0,32

Tabelle 5.20: Häufigkeitsverteilung der Korrelationen In Tabelle 5.20 ist für jedes Ziel eine Häufigkeitsverteilung der für die einzelnen globalen Optima ermittelten Korrelationen ρreal angegeben. Auf eine Differenzierung nach Problemgrößen wird dabei verzichtet. Es wurde also für jedes der 90 Testprobleme für ein Ziel die globalen Optima bestimmt und ρreal errechnet und einer der gebildeten Klassen ”Stärke der Korrelation” zugeordnet. Es zeigt sich, daß sich beim Ziel der Zykluszeit bei 85,53 Prozent der globalen Optima eine mittlere bis starke Korrelation zwischen Distanz und Zielfunktionswert ergibt. Lediglich bei 1,75 Prozent der globalen Optima ergibt sich eine sehr starke Korrelation. Bezüglich der mittleren Durchlaufzeit ist in 66,66 Prozent der Fälle eine mittlere bis starke Korrelation festzustellen. Im Gegensatz zur Zykluszeit tritt in 21,51 Prozent eine sehr stark positive Korrelation auf. Aber auch sehr schwach negative Korrelationen können beobachtet werden. Dieses Resultat läuft der Vorstellung der Existenz eines ”Großen Tals” entgegen. Bei der maximalen Terminüberschreitung tritt sogar bei 24,43 Prozent der globalen Optima eine negative Korrelation auf. Lediglich in 23,21 Prozent der Fälle ist eine mittlere bis starke Korrelation zu beobachten. Sehr stark ist sie lediglich zu 0,32 Prozent ausgeprägt. In den folgenden Experimenten soll die Lage multipler globaler Optima 54 Lediglich bei der maximalen Terminüberschreitung, 4 Aufträgen und 20 Maschinen überschätzt PREC die echte Korrelation. 55 Lediglich bei N=6 und M=10 wird die echte Korrelation ebenfalls unterschätzt.

5.5

Seite 139

bezüglich eines Problems und eines Ziel zueinander analysiert werden, sofern es diese gibt. Bereits Reeves (1999) hat das Thema multipler globaler Optima in seiner Arbeit diskutiert.56 Nicht nahe im Lösungsraum beeinanderliegende multiple globale Optima könnten ein Grund für die Resultate der Korrelationsanalyse dieses Abschnitts sein. Im folgenden Abschnitt soll daher untersucht werden, wie weit multiple globale Optima voneinander entfernt liegen.

5.5.2

Analyse der Distanz globaler Optima

5.5.2.1

Isolierte Analyse multipler globaler Optima der einzelnen Ziele

In diesem Experiment werden die drei Ziele und die zu ihnen gehörenden globalen Optima zunächst unabhängig voneinander betrachtet. Für jedes Problem, welches für das betrachtete Ziel multiple globale Optima besitzt, wird eine Distanzmatrix berechnet. Diese enthält die echten Distanzen bei Anwendung des API-Operators von jedem globalen Optimum zu jedem anderen.57 Zu jedem Element dieser Distanzmatrix wird außerdem bestimmt, wieviele Auftragsfolgen innerhalb dieser Distanz von der Ausgangsfolge aus erreichbar sind und in einer Reichweitenmatrix gespeichert. M axDist ist das größte Element der Distanzmatrix, also die maximale Distanz zwischen zwei globalen Optima. InM ax gibt die innerhalb vom M axDist erreichbare Anzahl von Auftragsfolgen an. Schließlich wurde mit %InM ax der Anteil des durch M axDist abgedeckten Lösungsraums errechnet. Er errechnet sich wie folgt: %InM ax =

InM ax N!

(5.39)

. Die Tabelle 5.21, 5.22 und 5.23 geben die Ergebnisse der Analyse, aggregiert nach Problemgröße (Anzahl der Aufräge N )58 , wieder.59 Die Spalte #P gibt an, bei wievielen Probleminstanzen des jeweiligen Testfelds für das jeweils betrachtete Ziel multiple globale Optima aufgetreten sind. Die 56 Vgl.

Reeves (1999, S.485-489). bei allen anderen in Abschnitt 5.5.2 durchgeführten Analysen wird die echte Distanz bei Anwendung des API-Operators zugrunde gelegt. 58 Die Problemgröße wird hier allein von der Anzahl der Aufträge N abhängig gemacht, da alleine N Einfluß auf die Größe des Lösungsraums (| Π |= N !) hat, welche in die Berechnung von %InM ax eingeht. 59 Die Berechnungen dieser Experimente sind sehr rechenintensiv. Problem 75 weist bei der maximalen Terminüberschreitung eine sehr große Anzahl an globalen Optima auf. Aus diesem Grund wurde bei allen Experimenten dieses Abschnitts 4.5.2 das Problem 75 von der Analyse ausgeschlossen. 57 Auch

5.5

Seite 140

Spalte #O gibt an, wieviele globale Optima durchschnittlich aufgetreten sind. Die Werte weichen von denen aus den Tabellen 5.17, 5.18 und 5.19 ab, da in der hier vorgenommenen Auswertung nur der Durchschnitt über die Probleminstanzen mit multiplen globalen Optima ermittelt wird. N

M

#P

#O

MaxDist

%InMax

4

5

2

2,5000

1,5000

0,2708

4

10

4 4

20 ∅

3 3

2,0000 3,3333

1,0000 1,6667

0,1667 0,3194

6

5

6

2,6250

1,3750

0,2500

10

7 3

4,2857 2,0000

2,5714 1,6667

0,1115 0,0213

2

16,5000 5,7500

6,0000 2,9167

0,4458 0,1447

9 7

21,5556 4,8571

5,5556 5,5714

0,1032 0,0987

4

8,5000 13,1000

4,5000 5,3500

0,0576 0,0925

6

20

6 8

∅ 5

8 8

10 20

8



Tabelle 5.21: Isolierte Analyse globaler Optima - Zykluszeit Bei der Zykluszeit (vgl. Tabelle 5.21) steigt die Anzahl der globalen Optima im Durchschnitt bei zunehmender Anzahl Aufträge an. Ebenso steigen die Werte von M axDist und damit die Distanz zwischen den globalen Optima bei steigendem N an. Gleichzeitg sinkt %InM ax. Insbesondere das Sinken von %InM ax bedeutet, daß der Anteil am Lösungsraum, in dem die globalen Optima beeinander liegen, kleiner wird. Die Größe des Lösungsraums (| Π |= N !) steigt also mit zunehmendem N relativ stärker an als InM ax. N

M

#P

#O

MaxDist

%InMax

4 4

5 10

4 4

20 ∅

-

-

-

-

6 6 6 6 8 8

5 10 20 ∅ 5 10

1

2,00000 2,00000 2,00000 -

2,0000 2,0000 1,6667 -

0,0278 0,0278 0,0010 -

8 8

20 ∅

-

2,0000

1,6667

0,0010

3 -

- : keine multiplen globalen Optima aufgetreten

Tabelle 5.22: Isolierte Analyse globaler Optima - Mittlere Durchlaufzeit

5.5

Seite 141

Bei der mittleren Durchlaufzeit (vgl. Tabelle 5.22) treten nur bei einem Problem mit N=6 Aufträgen und M=20 Maschinen sowie bei drei Problemen mit N=8 Aufträgen und M=5 Maschinen multiple globale Optima auf. Es gibt in allen 4 Probleminstanzen jeweils zwei globale Optima. Im Gegensatz zur Zykluszeit nimmt die Distanz zwischen diesen globalen Optima mit steigender Auftragszahl ab (vgl. dieWerte M axDist). Der Anteil am Lösungsraum, in dem die zwei globalen Optima liegen (%M axDist), wird daher auch kleiner, da der Zähler des Terms zu seiner Berechnung sinkt, während der Nenner steigt. N

M

#P

#O

MaxDist

%InMax

4

5

5

8,2000

3,4000

0,5917

4

10

6

4,6667

2,3333

0,4167

4

20

6

4 6 6

∅ 5 10

8

10,1667 7,6471 5,3750

3,6667 3,1176 2,8750

0,6181 0,5392 0,0931

6

20

8 6

68,7500 104,6667

4,6250 8,3333

0,2519 0,5500

6 8 8 8

∅ 5 10 20

9 8

55,5000 11,6667 4,6250

5,0000 4,8889 5,3750

0,2754 0,0884 0,0885

8



7,4286 8,0833

7,5714 5,8333

0,1941 0,1193

7

Tabelle 5.23: Isolierte Analyse globaler Optima - Maximale Terminüberschreitung Bei der maximalen Terminüberschreitung (vgl. Tabelle 5.23) ist insbesonder auffällig, daß die Anzahl der globalen Optima im Durchschnitt bei Problemen mit N=6 Aufträgen am größten ist. Der Anteil am Lösungsraum, in dem die globalen Optima liegen (%M axDist), sinkt auch bei der maximalen Terminüberschreitung systematisch mit steigender Auftragszahl. Zusätzlich fällt auf, daß es beim Betrachten des Ziels der maximalen Terminüberschreitung am häufigsten Probleminstanzen mit multiplen globalen Optima gibt (vgl. die Werte für #P ). Am seltensten treten Probleminstanzen mit multiplen globalen Optima bei der mittleren Durchlaufzeit auf. Am weitesten auseinander liegen die globalen Optima bei der Zielgröße der maximalen Terminüberschreitung. Am dichtesten beieinander liegen sie beim Ziel der mittleren Durchlaufzeit. Es erscheint wahrscheinlich, daß die Werte von %InM ax mit zunehmender Auftragszahl weiter sinken. Die globalen Optima eines Ziels liegen daher häufig in einem begrenzten Bereich des Lösungsraum beisammen.

5.5

Seite 142

Bisherige Untersuchungen haben mit lokalen Optima gearbeitet.60 Hier wurde hingegen eine Analyse mit globalen Optima durchgeführt. Die Definition des ”Großen Tals” ist daher hier wie folgt anzupassen: Ein ”Großes Tal” liegt vor, wenn die globalen Optima eines Ziels in einem begrenzten Bereich des Lösungsraums beeinander liegen. Wie begrenzt der Bereich sein muß, ist weiterhin offen. Die hier beobachteten Werte unterstützen jedoch die Vermutung der Existenz eines ”Großen Tals” für die in der Analyse verwendete API-Nachbarschaft. 5.5.2.2

Integrierte Analyse aller globalen und der effizienten globalen Optima aller Ziele

In der folgenden Analyse werden zunächst die Distanzen zwischen den globalen Optima aller Ziele für jede Probleminstanz untersucht. Dazu wurden die Mengen der globalen Optima der einzelnen Ziele vereinigt.61 Die Berechnung der Auswertungsgrößen wurde analog zur isolierten Analyse vorgenommen. Die Auswertungsgrößen beziehen sich nun also auf die globalen Optima aller drei Ziele. Dabei werden auch globale Optima berücksichtigt, die bei Betrachtung des gesamten Zielfunktionsvektors nicht effizient sind und damit nicht der Menge aller effizienten Lösungen angehören. Die Ergebnisse sind in Tabelle 5.24 angegeben. N

M

#O

MaxDist

%InMax

4 4

5 10

5,9000

3,6000

0,6833

4

20

4,1000 7,8000

3,4000 4,3000

0,6458 0,7875

4 6 6 6 6 8

∅ 5 10 20 ∅ 5

5,9333 8,0000 56,3000 67,7000 44,0000

3,7667 7,6000 7,7000 9,9000 8,4000

0,7056 0,5656 0,5343 0,7222 0,6074

29,5000

13,4000

0,4924

8 8 8

10 20 ∅

7,7778 8,6000 15,5517

12,1111 12,2000 12,5862

0,3969 0,4329 0,4422

Tabelle 5.24: Integrierte Analyse - Alle globalen Optima Die hohe Anzahl globaler Optima bei N = 6 läßt sich mit der hohen Anzahl globaler Optima bei der maximalen Terminüberschreitung bei N = 6 begründen (vgl. Tabelle 5.23). Insgesamt läßt sich beobachten, daß 60 Vgl.

z.B. Reeves (1999, S.479-485). werden globale Optima, die ein Optimum bezüglich mehrerer Ziele darstellen, nur einmal berücksichtigt. 61 Damit

5.5

Seite 143

der Anteil am Lösungsraum größer ist als die einzelnen Anteile bei der isolierten Analyse. Da die Werte in Tabelle 5.24 größer sind als die Werte bei der isolierten Analyse, liegen die globalen Optima der Ziele nicht alle im gleichen Bereich des Lösungsraums, sondern in unterschiedlichen Bereichen. Diese können sich aber durchaus überschneiden. In Abschnitt 2.2.2 wurde eine Korrelationsanalyse der drei betrachteten Ziele durchgeführt (vgl. Tabelle 2.2 auf Seite 20) und bereits die Möglichkeit bereichsweiser Zielbeziehungen diskutiert. Die hier erhaltenen Ergebnisse lassen in Verbindung mit den Ergebnissen aus Abschnitt 2.2.2 die Vermutung zu, daß bereichsweise Zielbeziehungen vorliegen. Außerhalb des Bereichs im Lösungsraum, in dem die globalen Optima aller Ziele liegen, besteht Zielneutralität, während innerhalb des Bereichs Zielkonflikte auftreten. Ein Verfahren, welches als Ziel die Ermittlung der Menge aller effizienten Lösungen E(Π, z) hat, muß nicht nur globale Optima eines Zieles finden, sondern die bezüglich des Zielsystems effizienten globalen Optima aller Ziele. Daher ist es von Interesse, wie weit die effizienten globalen Optima der einzelnen Ziele voneinander entfernt liegen. In einem weiteren Experiment wurden daher die Mengen der globalen Optima der einzelnen Ziele vereinigt. Gleichzeitig wurden globale Optima, welche von anderen globalen Optima dominiert werden, entfernt. Es werden somit nur solche globalen Optima berücksichtigt, die auch Element der Menge aller effizienten Auftragsfolgen E(Π, z) sind. Anschließend wurde erneut die echte Distanz von jedem dieser effizienten globalen Optima zu jedem anderen effizienten globalen Optimum bestimmt. Die Auswertungsgrößen beziehen sich nun also auf die effizienten globalen Optima aller drei Ziele. Das Ergebnis ist in Tabelle 5.25 angegeben. Es zeigt sich, daß der Anteil am Lösungsraum , in dem die effizienten globalen Optima liegen, i.d.R. größer ist als die jeweiligen Anteile bei der isolierten Analyse. Bei N = 4 ist der Anteil jedoch kleiner als der, welcher bei der isolierten Analyse für die maximale Terminüberschreitung beobachtet wurde. Offensichtlich sind viele der multiplen globalen Optima, welche dort bei Tmax beobachtet wurden, nicht effizient. Im Vergleich zum Fall, in dem alle globalen Optima betrachtet wurden, sind die Werte von %InM ax nun kleiner. Das Ergebnis bedeutet, daß sich die effizienten globalen Optima der einzelnen Ziele in unterschiedlichen Bereichen des Lösungsraums befinden, die sich jedoch weiterhin überschneiden können. Ein Verfahren, welches die globalen Optima aller Ziele finden möchte, muß somit einen deutlich

5.6

Seite 144 N

M

#O

MaxDist

%InMax

4

5

2,4000

2,3000

0,4542

4

10

4 4

20 ∅

2,1000 2,4000

2,4000 2,8000

0,4792 0,5625

6

5

2,3000 2,8000

2,5000 5,7000

0,4986 0,3638

6

10

2,6000

6,1000

0,4335

6

20

6 8

∅ 5

4,4000 3,2667

8,1000 6,6333

0,6368 0,4780

8 8

10 20

3,5000 2,5556

10,0000 9,4444

0,2779 0,2374

8



2,8000

10,7000

0,3142

2,9655

10,0690

0,2778

Tabelle 5.25: Integrierte Analyse - Effiziente globale Optima größeren Bereich bzw. verschiedene Bereiche des Lösungsraums absuchen.

5.5.3

Analyse der Distanz der Elemente der Menge aller effizienten Lösungen

Aus den Experimenten des letzten Abschnitts sind die Distanzen zwischen den effizienten globalen Optima der Ziele, und damit den Auftragsfolgen, bekannt, welche die Extrempunkte der effizienten Front bestimmen. Es fehlen jedoch Informationen über die restlichen Elemente der Menge aller effizienten Lösungen, welche kein globales Optimum bzgl. eines der drei Ziele darstellen und deren Zielfunktionsvektoren daher zwischen den Extrempunkten der effizienten Front liegen. Insbesondere ist dabei von Interesse, ob diese Elemente alle innerhalb des Bereichs des Lösungsraum liegen, in dem auch die effizienten globalen Optima der einzelnen Ziele liegen. Um dies zu untersuchen, wird für jedes Problem die durchschnittliche Distanz von jedem Element aus E(Π, z) zu jedem anderen Element aus E(Π, z) bestimmt.62 Die Auswertungsgrößen beziehen sich auf alle Elemente der Menge aller effizienten Lösungen E(Π, z). Die Ergebnisse sind in Tabelle 5.26 angegeben. Wie zu erkennen ist, steigen die Werte von M axDist im Vergleich zu den Werten in Tabelle 5.25 an. Ebenso steigt %InM ax. Somit liegen einige Elemente der Menge aller effizienten Lösungen außerhalb des Bereichs, in dem die effizienten globalen Optima der einzelnen Ziele liegen. Sinken die Werte von %InM ax in Tabelle 5.25 mit steigender Auftragszahl, so ist diese Entwicklung nun nicht mehr zu beobachten. 62 Es

wurde erneut die echte Distanz auf Basis des API-Operators bestimmt.

5.6

Seite 145 N

M

| E(Π, z) |

MaxDist

%InMax

4

5

3,1000

2,4000

0,4792

4

10

4 4

20 ∅

3,7000 3,4000

3,1000 3,1000

0,5750 0,6208

6

5

3,4000 6,9000

2,8667 7,9000

0,5583 0,5771

6

10

4,5000

6,5000

0,4561

6

20

6 8

∅ 5

9,4000 6,9333

9,0000 7,8000

0,7064 0,5799

8 8

10 20

14,2000 12,3333

12,0000 13,3333

0,4394 0,5312

8



18,6000

15,8000

0,6498

15,1379

13,7241

0,5404

Tabelle 5.26: Distanzanalyse der effizienten Menge

5.6

Zusammenfassung

In diesem Kapitel wurde zunächst überprüft, ob oder wie häufig ein Nachbar im Lösungsraum auch ein Nachbar im Zielraum ist. Dazu war es zunächst notwendig, Konzepte für die Nachbarschaft im Zielraum zu entwickeln. Verschiedene experimentelle Analysen haben anschließend ergeben, daß ein Nachbar im Lösungsraum nur selten auch ein Nachbar im Zielraum ist. Für die API-Nachbarschaft ist die Wahrscheinlichkeit dafür noch am höchsten. Anschließend wurde in diesem Abschnitt die Qualität von Maßen zur Approximation der echten Distanz zwischen zwei Auftragsfolgen untersucht. Dazu wurde ein rekursiver Algorithmus zur Berechnung der echten Distanz vorgeschlagen. Die Analyse der Differenzierungstiefe der Approximationsmaße und der Korrelation mit der echten Distanz hat gezeigt, daß keines der untersuchten Ersatzmaße in der Lage ist, eine gute Abschätzung der echten Distanz zu ermitteln. Auf der Grundlage der echten Distanz wurden, für bzgl. der Anzahl der Aufträge kleine Probleme mit bis zu acht Aufträgen, verschiedene Experimente durchgeführt. Zuerst wurde die Korrelation zwischen der echten Distanz und den Zielfunktionsvektoren aller Elemente des Lösungsraum ermittelt. Die Ergebnisse laufen der Vorstellung der Existenz eines ”Großen Tals” entgegen. Die im Anschluß vorgenommenen Distanzanalysen zwischen den globalen Optima der Ziele haben gezeigt, daß die globalen Optima eines Ziels in einem begrenzten Bereich des Lösungsraums liegen. Die Bereiche der einzelnen Ziele sind jedoch nicht deckungsgleich. Wird die Definition des ”Großen Tals” dahingehend angepaßt, daß es vorliegt, falls

5.6

Seite 146

die globalen Optima eines Ziels in einem begrenzten Bereich des Lösungsraums zusammenliegen, so unterstützt dieses Ergebnis seine Existenz. Der zu untersuchende Bereich des Lösungsraums wächst, wenn alle Elemente der Menge aller effizienten Lösungen betrachtet werden. Für einen Ansatz, welcher die Menge aller effizienten Lösungen bestimmen soll, bedeuten diese Resultate, daß unterschiedliche Bereiche des Lösungsraums ausgewertet werden müssen. Gleiches gilt für Heuristiken zur Bestimmung einer heuristisch effizienten Menge. Im Unterschied zu Ansätzen für nur ein Ziel oder a-priori Ansätzen müssen systematisch unterschiedliche Bereiche des Lösungsraums angesteuert und ausgewertet werden. Dies bedeutet insbesondere, daß die Heuristik Informationen über vielversprechende Bereiche des Lösungsraums wieder vergessen können muß. Diese Informationen werden bei ACO-Algorithmen in den Pheromoninformationen gespeichert. In den im folgenden Kapitel vorgestellten Ameisenalgorithmen ist diese Anforderung das wesentliche Argument für die wiederholte Durchführung von Neuinitialisierungen der Pheromoninformationen.

Kapitel 6

ACO Algorithmen für das multikriterielle PFSP 6.1 6.1.1

Grundlagen der ACO Metaheuristik Die Natur als Vorbild

Neben Genetischen Algorithmen und dem Simulated Annealing gehört auch die Ant Colony Optimization (ACO) Metaheuristik zu einer Gruppe von Verfahren, welche einen natürlichen Prozeß als Vorbild hat.1 Beim Simulated Annealing ist dieses Vorbild der physikalische Abkühlungsprozeß von Stoffen.2 Genetische Algorithmen hingegen stellen eine Analogie des Vererbungsprozesses durch Crossover und Mutation sowie des Prinzips des ’Survival of the fittest’ dar.3 Die ACO-Metaheuristik ist durch die Selbstorganisation von Ameisen bei der Futtersuche inspiriert. Wie auch Termiten und einige Arten von Bienen und Wespen gehören Ameisen zur Gruppe der sozialen Insekten.4 Diese Gruppe von Insekten zeigt ein kollektives Problemlösungsverhalten, welches durch Selbstorganisation erreicht wird.5 Ein Beispiel für ein solches Problemlösungsverhalten läßt sich bei der Futtersuche der argentinischen Ameise (Iridomyrmex humilis) beobachten. Diese Ameisen sind in der Lage, den kürzesten Weg vom Nest zur Futterquelle zu identifizieren. Beobachtet und untersucht wurde dieses Verhalten unter anderem im sogenannten Doppelbrückenex1 In Colorni u. a. (1996, S.3) werden weiterhin Sampling & Clustering Ansätze, Tabu Search und Neuronale Netze zu dieser Gruppe von Verfahren gezählt. 2 Vgl. Krikpatrick u. a. (1983, S.672f.) sowie Laarhoven, van u. Aarts (1987, S.7-15). 3 Vgl. Colorni u. a. (1996, S.4). 4 Vgl. Bonabeau u. a. (1999, S.1). 5 Vgl. Bonabeau u. a. (1999, S.6).

6.1

Seite 148

periment von Goss u. a. (1989).6 Die Ergebnisse ihrer Arbeit sind Anstoß für die Entwicklung des ersten Ameisenalgorithmus durch Dorigo u. a. (1991b) sowie Dorigo u. a. (1991a) gewesen.7 . Im Folgenden soll das Experiment von Goss u. a. (1989) und der Kommunikationsmechanismus, mit dessen Hilfe die Ameisen den kürzesten Weg finden, kurz dargestellt werden.

Abbildung 6.1: Doppelbrückenexperiment von Goss u. a. (1989) Der Versuchsaufbau ist in Abbildung 6.1 dargestellt. Auf dem Weg von ihrem Nest zum Futterplatz haben die Ameisen zweimal die Wahl zwischen einem längeren und einem kürzeren Wegabschnitt. Zu Beginn des Versuchs haben die Ameisen alle Wegabschnitte gleichmäßig genutzt. Nach einiger Zeit haben jedoch die Ameisen alle den jeweils kürzeren Wegabschnitt gewählt, sind also der Strecke A,C,D,E,G gefolgt.8 Die Beobachtung wird von Goss u. a. (1989) über einen indirekten Kommunikationsmechanismus mit Hilfe von Pheromonen erklärt, welche die Ameisen während der Wegsuche ablegen. In Abwesenheit von Pheromonen treffen die Ameisen ihre Wegentscheidungen zufällig. Sind jedoch Pheromoninformationen vorhanden, so beeinflussen diese die Entscheidung. Ein Weg, der eine höhere Pheromonkonzentration aufweist, hat eine höhere Wahrscheinlichkeit, von der Ameise ausgewählt zu werden als ein Weg mit einer niedrigeren Konzentration. Das Resultat ist ein autokatalytischer 6 Vgl.

Goss u. a. (1989, 579-581). Dorigo u. a. (1991b, S.1-20), Dorigo u. a. (1991a, S.1-20). Dorigo hat sich auch im Rahmen seiner Dissertation mit Ameisenalgorithmen beschäftigt (vgl. Dorigo (1992)). Die Dissertation liegt nach Kenntnisstand des Verfassers nur in italienischer Sprache vor. 8 Vgl. zu den bishierigen Ausführungen Goss u. a. (1989, S.579-581). Im Experiment wird das Verhältnis der Länge des längeren Wegabschnitts zur Länge des kürzeren Wegabschnitts variiert. 7 Vgl.

6.1

Seite 149

Prozeß, der die Pheromonkonzentration auf den kürzeren Wegabschnitten immer weiter ansteigen läßt, bis schließlich alle Ameisen diese Wegabschnitte wählen.9 Das folgende Zahlenbeispiel10 (Abbildung 6.2) soll den Prozeß der Selbstorganisation und seine Charakteristika verdeutlichen.

Annahmen: . Zu jedem Zeitpunkt t starten 100 Ameisen vom Nest zur Futtersuche. . Die Ameisen können in einer Zeiteinheit eine Distanz d von 1 zurücklegen. . Jede Ameise legt eine Pheromonmenge von 1 auf dem zurückgelegten Weg ab. . Die Verdunstung der Pheromone wird nicht berücksichtigt.

Abbildung 6.2: Indirekter Kommunikationsmechanismus

t=0: 100 Ameisen starten die Futtersuche im Nest und erreichen Punkt A. Aufgrund des Fehlens einer Pheromoninformation entscheiden sie sich zufällig für eine Richtung. Es gehen daher 50% über Punkt B und 50% über Punkt C. t=1: Die 50 Ameisen, die über Punkt C gegangen sind, erreichen Punkt D und damit die Futterquelle. Die andere Gruppe von Ameisen erreicht erst Punkt B, da dieser Weg doppelt so lang ist. Auf dem Rückweg vom Futterplatz müssen sich die Ameisen an Punkt D erneut entscheiden. Nun existiert bereits eine Pheromonspur auf dem Weg in Richtung Punkt C, aber noch keine in Richtung Punkt B. Ein größerer Teil der 50 Ameisen wird sich daher für den Weg über Punkt C entscheiden. In diesem Beispiel werden 76% angenommen, also 38 Ameisen. Gleichzeitig starten 100 neue Ameisen vom Nest zum Futterplatz. Beide Wege haben eine Pheromonmenge von 50, so daß sich erneut 50 Ameisen für den Weg über Punkt B und 50 Ameisen für den Weg über Punkt C entscheiden. t=2: Die ersten 38 Ameisen mit Futter erreichen das Nest, gleichzeitig erreichen die 50 Ameisen, welche im Zeitpunkt t=0 den Weg über B gewählt haben, 9 Vgl. 10 Das

zu diesen Ausführungen Goss u. a. (1989, 579f.). Beispiel wurde in Anlehnung an die Darstellung in Dorigo u. a. (1996, S.4) formuliert.

6.1

Seite 150 den Futterplatz. Auf dem Rückweg wird ein größerer Teil von ihnen, ca. 69%, über Punkt C zum Nest zurückkehren. Gleichzeitig wird ab diesem Zeitpunkt ein größerer Teil der Ameisen, ca. 57%, welche im Nest starten, ebenfalls den Weg über C wählen.

t=... Mit fortschreitender Zeit wird der Weg über C eine relativ immer höhere Pheromonkonzentration erhalten, so daß ihm immer mehr Ameisen folgen werden.

An dem Beispiel lassen sich die vier von Bonabeau u. a. (1999) angeführten Merkmale der Selbstorganisation, die sich auch in der ACO-Metaheuristik wiederfinden, verdeutlichen.11 Zunächst zeichnet sich der Selbstorganisationsprozeß durch das Prinzip des positiven Feedback aus. Je häufiger ein Wegabschnitt von Ameisen benutzt wird, desto höher ist die Pheromonkonzentration, und desto häufiger wird er daher von nachfolgenden Ameisen verwendet. Dieser Prozeß der Selbstverstärkung wurde von Dorigo u. a. (1991b) auch als autokatalytischer Prozeß bezeichnet.12 Pheromone verdunsten mit der Zeit.13 Dieser Prozeß wirkt dem Ablegen von Pheromonen durch die Ameisen entgegen. Ein solcher, dem positiven Feedback entgegenwirkender Prozeß wird auch negatives Feedback genannt und stellt das zweite Charakteristikum des Selbstorganisationsprozesses dar.14 Des weiteren hat der Prozeß der Selbstorganisation einen stochastischen Charakter.15 So entscheidet eine einzelne Ameise zufällig. Die Pheromonwerte beeinflussen lediglich die Auswahlwahrscheinlichkeiten, schalten aber die zufällige Entscheidung nicht vollständig ab. So ist es möglich, daß eine Ameise trotz extrem hoher Pheromonwerte für einen Weg einem anderen Weg folgt. Als viertes Merkmal führt Bonabeau u. a. (1999) die multiple Interaktion auf. Interaktion oder Kommunikation zwischen den Mitgliedern der Kolonie kann direkt, z.B. durch Berührung, oder aber indirekt erfolgen. Indirekte Kommunikation findet über die Veränderung der Umwelt der Individuen statt. So verändert ein Individuum den Umweltzustand, ein anderes Individuum wertet den Umweltzustand aus und reagiert darauf.16 11 Vgl.

Bonabeau u. a. (1999, S.9-12 und S.41). hierzu und den folgenden Satz Dorigo u. a. (1991b, S.1), welcher auf Dorigo (1992) verweist. 13 Dieser Prozeß wurde aus Übersichtlichkeitsgründen im Zahlenbeispiel nicht berücksichtigt. 14 Vgl. Bonabeau u. a. (1999, S.10). Das negative Feedback ist notwendig, da nicht beschränkte autokatalytische Prozesse explodieren (vgl. Dorigo u. a. (1991b, S.1) oder Dorigo u. a. (1991a, S.1)). 15 Vgl. Bonabeau u. a. (1999, S.10). 16 Vgl. zur direkten und indirekten Kommunikation Bonabeau u. a. (1999, S.14). 12 Vgl.

6.1

Seite 151

Im Beispiel nutzen die Ameisen eine indirekte Kommunikation. Eine Ameise verändert ihre Umwelt durch das Ablegen von Pheromonen. Andere Ameisen erfassen die Pheromonkonzentration und berücksichtigen diese Information in ihrer Handlung. Des weiteren kann eine Ameise sowohl Pheromone ablegen als auch Pheromonkonzentrationen auswerten. In den folgenden beiden Abschnitten wird dargestellt, wie die Funktionalität und Eigenschaften des Verhaltens der Ameisen zur Lösung kombinatorischer Optimierungsprobleme verwendet werden können. Dazu wird zunächst allgemein die ACO-Metaheuristik definiert und ihre Eigenschaften dargestellt. Anschließend werden für das Permutation Flow Shop Problem konkrete Ausgestaltungsmöglichkeiten aufgezeigt.

6.1.2

Definition und Metaheuristik

Eigenschaften

der

ACO-

Damit ein Ameisenalgorithmus als Instanz der ACO-Metaheuristik klassifiziert werden kann, muß er die in Dorigo u. Di Caro (1999) und Dorigo u. a. (1999) beschriebenen Eigenschaften aufweisen.17 Diese sind sehr allgemein gehalten. Die wichtigsten und zentralen Eigenschaften lassen sich wie folgt zusammenfassen:18  Der Algorithmus verwendet eine Kolonie künstlicher Ameisen.  Die Ameisen nutzen eine indirekte Kommunikation in Form künstli-

cher Pheromone.  Die einzelnen Ameisen konstruieren sukzessive eine Lösung.  Die einzelnen Entscheidungen der Ameisen sind stochastisch und

werden von lokal verfügbaren Informationen in Form künstlicher Pheromone beeinflußt. Des weiteren können optional heuristische Werte berücksichtigt werden.  Jede Ameise hat ein Gedächtnis, in der sie die bisher in der Lösung

enthaltenen Elemente speichert. Es wird dazu genutzt, die konstruierte Lösung zu bewerten, die Zulässigkeit der Lösung sicherzustellen und nach der Konstruktion der Lösung Pheromon abzulegen.  Die Ameisen modifizieren die Pheromoninformation durch das Able-

gen von Pheromonen und beeinflussen damit die Entscheidungen anderer Ameisen. Es sind zwei Strategien des Pheromonablegens möglich: 17 Vgl. 18 Vgl.

Dorigo u. Di Caro (1999, S.14-16) sowie Dorigo u. a. (1999, S.143-145). Dorigo u. Di Caro (1999, S.16) sowie Merkle (2002, S.4).

6.1

Seite 152 • Online Step-by-Step Pheromone Update: Das Ablegen der Pheromone findet während der Lösungskonstruktion statt, d.h. unmittelbar nach dem Einfügen eines neuen Lösungselements. • Online Delayed Pheromone Update: Das Ablegen der Pheromone findet erst nach der vollständigen Konstruktion einer Lösung statt.

 Neben dem Ablegen von Pheromon wird das Verdunsten von Phero-

monen als eine von den Ameisen unabhängige Funktion modelliert. Die künstlichen Ameisen der ACO-Metaheuristik weisen im Vergleich mit natürlichen Ameisen Gemeinsamkeiten, aber auch Unterschiede auf. Künstliche Ameisen haben ein Gedächtnis und können sich damit die bereits in die Lösung eingefügten Elemente merken, was die Strategie des Online Delayed Pheromone Updates ermöglicht. Die Menge des abgelegten Pheromons ist dabei in der Regel abhängig von der Lösungsqualität der konstruierten Lösung. Somit werden globale Informationen direkt in der Pheromoninformation gespeichert. Schließlich ist das Zeitumfeld der Ameisen in der ACO-Metaheuristik nicht stetig, sondern diskret.19 Weiterhin können in den Algorithmus Funktionen eingebaut werden, die sich in einer natürlichen Kolonie nicht finden. Dazu gehören die Möglichkeiten, lokale Suchverfahren aufzurufen oder auch Vorausschau oder Backtracking.20 Zu diesen Funktionen gehört auch die Berücksichtigung von globalen Informationen durch die Ameisen. So ist das Ablegen einer von der Lösungsqualität abhängigen Pheromonmenge eine Berücksichtigung globaler Information. Ebenso können globale Informationen über heuristische Werte zusätzlich zu den Pheromonwerten bei der Auswahl des nächsten in die Lösung einzufügenden Elements berücksichtigt werden. Im Algorithmus 2 ist die Basisstruktur eines ACO-Ansatzes wiedergegeben. Zeile 1: Zunächst wird die Phermonmatrix T initialisiert.21 Zeilen 2+14: Die Do-While-Schleife wird solange durchlaufen, bis die Abbruchbedingung erfüllt ist. Zeilen 3+12: In dieser For-Schleife konstruiert jede Ameise ant der Kolonie eine Lösung. In der Kolonie gibt es insgesamt Ants Ameisen (Größe der Kolonie). 19 Vgl.

Dorigo u. a. (1999, S.141-143). Dorigo u. Di Caro (1999, S.17) und Dorigo u. a. (1999, S.142). 21 Die Ausgestalltungsmöglichkeiten der Phermonmatrix T werden in Abschnitt 6.1.3.1 betrachtet. 20 Vgl.

6.1

Seite 153

Algorithmus 2 Basisstruktur eines ACO-Algorithmus 1: Initialisiere Pheromonmatrix T 2: do { 3: for( ant=1; ant≤Ants; ant=ant+1 ) { 4: Intialisiere Menge der nicht ausgewählten Elemente: U={1, 2, ...,N}; 5: Initialisiere aktuelle Teillösung: π e = ∅; 6: while( U 6= ∅ ) { 7: Wähle ein Element n aus U aus; 8: Füge n in π e ein; 9: U=U\{n}; 10: } // end while 11: Führe lokale Suche aus // Optional 12: } // end for 13: Aktualisiere Pheromonmatrix T ; 14: } while( !Abbruchbedingung )

Zeile 4: Bevor eine Ameise ant eine Lösung konstruieren kann, wird die Menge U der (zulässigen) noch in die Lösung aufzunehmenden Elemente initialisiert. Im Fall des PFSP sind dies alle N Aufträge. Zeile 5: Es wird die aktuelle Teillösung π e initialisiert. Da die Ameise ant noch nicht mit der Lösungskonstruktion begonnen hat, ist die aktuelle Teillösung zunächst leer. Im Fall des PFSP kann π e als aktuelle Teilauftragsfolge bezeichnet werden. Zeilen 6+10: In diese While-Schleife konstruiert die Ameise ant eine Lösung. Dabei fügt sie solange Elemente in π e ein, bis alle Elemente aus U berücksichtigt sind, die Menge U also leer ist. Zeile 7: Während der Lösungskonstruktion wählt die Ameise ant zunächst ein Element aus der Menge U aus.22 Zeile 8: Das ausgewählte Element wird anschließend in die aktuelle Teillösung π e eingefügt. Zeile 9: Schließlich ist das ausgewählte Element aus U zu entfernen, da es kein weiteres Mal ausgewählt und in die Lösung eingefügt werden darf. Zeile 11: Nach Abschluß der Lösungskonstruktion durch Ameise ant ist es optional möglich, die konstruierte Lösung durch ein lokales Suchverfahren zu verbessern. 22 In Abschnitt 6.1.3.3 werden unterschiedliche Möglichkeiten aufgezeigt, wie beim PFSP Aufträge ausgewählt werden können.

6.1

Seite 154

Zeile 13: Nach der Konstruktion der Auftragsfolgen durch die Ameisen wird die Pheromoninformation aktualisiert.23 Wie auch andere Metaheuristiken ist die ACO-Metaheuristik robust. Das bedeutet, sie kann auf verschiedene kombinatorische Optimierungsprobleme übertragen werden. Neben dem Traveling Salesman Problem, dem Quadratischen Zuordnungsproblem oder dem Tourenplanungsproblem gibt es für viele weitere Problemtypen ACO-Algorithmen. Einen guten Überblick geben Dorigo u. Di Caro (1999).24 Auch für die von Dorigo u. Di Caro (1999), mit Ausnahme der SMTTP Probleme, nicht aufgeführten Scheduling Probleme gibt es mittlerweile eine Reihe von Ansätzen. Tabelle 6.1 gibt einen Überblick. Problem

Jahr

Arbeit

JSP JSP JSP

1994 1996 2001

Colorni u. a. (1994) Dorigo u. a. (1996) Teich u. a. (2001)

PFSP PFSP PFSP PFSP PFSP

1998 2002 2002 2004 2004

Stützle (1998a) T’kindt u. a. (2002) Rajendran u. Ziegler (2002) Rajendran u. Ziegler (2004) Ying u. Liao (2004)

SMTTP SMTWTP SMTTP / SMTWTP SMTTP SMTTP

1999 2000 2000 2001 2002

Bauer u. a. (1999) den Besten u. a. (2000) Merkle u. Middendorf (2000) Gagne u. a. (2001) Gagne u. a. (2002)

SMTWTP

2003

Merkle u. Middendorf (2003)

SMTEMDP SMTWDP

2001 2001

Merkle u. Middendorf (2002) Merkle u. Middendorf (2001)

Single Machine Problem

2001

Iredi u. a. (2001)

Single Machine Problem

2002

Gravel u. a. (2002)

SMTEMDP: Single Machine Total Earliness with Multiple Due Dates Problem SMTWDP: Single Machine Total Weighted Deviation Problem

Tabelle 6.1: ACO Algorithmen für Scheduling Probleme Um ein Problem mit Hilfe der ACO-Metaheuristik zu lösen, müssen folgende Designaufgaben gelöst werden.25 Zunächst muß das Problem in 23 Vgl. zu unterschiedlichen Strategien der Pheromonaktualisierung auch Abschnitt 6.1.3.2 sowie Abschnitt 6.1.3.4. 24 Vgl. Dorigo u. Di Caro (1999, S.30). 25 Vgl. Dorigo u. a. (1991b, S.18).

6.1

Seite 155

Form eines Graphen repräsentiert werden, der dann von den Ameisen abgesucht werden kann.26 Des weiteren ist die Konstruktionsvorschrift für eine Lösung festzulegen sowie das Gedächtnis der Ameise zu modellieren. Abschließend gilt es, die Regeln für das Ablegen von Pheromon durch die Ameisen sowie die Verdunstung festzulegen und damit den autokatalytischen Prozeß zu modellieren. Im folgenden Abschnitt werden konkrete Ausgestaltungsmöglichkeiten der einzelnen Aspekte für das PFSP dargestellt.

6.1.3

Ausgestaltungsmöglichkeiten für das PFSP

6.1.3.1

Die Pheromonmatrix T

Die Pheromonmatrix ist das Langzeitgedächtnis der Heuristik und speichert die von den künstlichen Ameisen gelegte Pheromonspur.27 Sie ist die Basis der Lösungskonstruktion durch eine einzelne Ameise. Daher muß zunächst für jedes kombinatorische Optimierungsproblem eine geeignete Form der Repräsentation in einer Pheromonmatrix gefunden werden. Für das Permutation Flow Shop Problem sollen zwei Möglichkeiten vorgestellt werden.

Abbildung 6.3: Kodierungsalternativen der Pheromonmatrix Aufgrund der Ähnlichkeit mit dem Traveling Salesman Problem besteht eine Möglichkeit darin, die dort übliche Kodierung zu verwenden. Die Spalten und Zeilen enthalten die N Aufträge. Der Pheromonwert im Schnittpunkt gibt an, wie vorteilhaft es ist, Auftrag j unmittelbar nach Auftrag i zu fertigen (TSP-Kodierung). Für das Permutation Flow Shop Problem und Single Machine Problem hat sich jedoch eine alternative Kodierung durchgesetzt. In der Pheromonmatrix ist kodiert, wie vorteilhaft es ist, Auftrag n auf Position h der Auftragsfolge zu plazieren (Positionskodierung). Im 26 Vgl. zu den formalen Anforderungen an Probleme zur Repräsentation als Graph für ACOAlgorithmen Dorigo u. Di Caro (1999, S.14f.). 27 Vgl. Dorigo u. Di Caro (1999, S.15).

6.1

Seite 156

Folgenden beziehen sich alle Darstellungen auf diese zweite Form der Pheromonkodierung. 6.1.3.2

Anzahl der Ameisen Ants in einer Kolonie

Eine Kolonie kann aus einer oder mehreren Ameisen bestehen. Die Anzahl an Ameisen in einer Kolonie wird im Folgenden mit Ants bezeichnet. Gibt es in einer Kolonie mehr als eine Ameise (Ants > 1), so ist es denkbar, daß die einzelnen Ameisen in einer Iteration nacheinander oder parallel eine Lösung konstruieren. Im letzten Fall verwenden alle Ameisen die gleiche Pheromoninformation. Im ersten Fall ist es möglich, daß jede Ameise andere Pheromoninformationen verwendet. Dies hängt davon ab, wann die Pheromonmatrix T aktualisiert wird. Legt jede Ameise unmittelbar nach Abschluß der Lösungskonstruktion Pheromon ab, so verwenden die Ameisen einer Kolonie jeweils unterschiedliche Pheromoninformationen. Wird die Pheromonmatrix dagegen erst nach Abschluß der Lösungskonstruktion aller ants = 1(1)Ants Ameisen aktualisiert, so verwenden die Ameisen in einer Iteration hingegen die gleichen Pheromoninformationen. Die Aktualisierung der Pheromoninformation sowie die Beurteilung von Elitestrategien wird in Abschnitt 6.1.3.4 beschreiben und diskutiert. 6.1.3.3

Konstruktion einer Auftragsfolge

Die einzelne Ameise konstruiert eine Auftragsfolge durch sukzessives Auswählen und Einfügen von Aufträgen in die aktuelle Teilauftragsfolge π e.28 Die Auswahl eines Auftrags ist dabei ein stochastisches Element im Ameisenalgorithmus. Aufgrund der in der Phermonmatrix gespeicherten Informationen wird für jeden Auftrag eine Auswahlwahrscheinlichkeit berechnet. Viele Ansätze von ACO-Algorithmen unterscheiden sich unter anderem auch darin, wie diese Auswahlwahrscheinlichkeiten berechnet und anschließend die Auswahl von Aufträgen vorgenommen wird. Die im als Ant System29 bekannten ACO-Ansatz vorgeschlagene Berechnung der Auswahlwahrscheinlichkeiten für die Plazierung von Auftrag n auf Position h erfolgt gemäß der folgenden Gleichung:30 28 Die aktuelle Teilauftragsfolge π e besteht aus den während der Lösungskonstruktion durch eine Ameise bereits ausgewählten Aufträgen. Vgl. auch Algorithmus 2 auf Seite 153 und die dazu angegebenen Erläuterungen. 29 Vgl. Dorigo u. a. (1991a, S.2-4), Dorigo u. a. (1991b, S.2-4), Dorigo u. a. (1996, S.5-8). 30 Vgl. Dorigo u. a. (1991a, S.4), Dorigo u. a. (1991b, S.4), Dorigo u. a. (1996, S.6). Die Autoren betrachten ein TSP und verwenden daher die TSP-Kodierung der Pheromonmatrix. Die Kodierung wurde hier auf die Positionskodierung angepaßt.

6.1

Seite 157

pnh =

    



]α ·[ηnh ]β [τnh ]α ·[ηnh ]β

P nh

falls n ∈ U

n∈U

(6.1)

    0

sonst

τnh ist dabei der Pheromonwert, der angibt, wie vorteilhaft es ist, Auftrag n auf Position h zu plazieren. ηnh ist eine lokale Komponente. Mit den Parametern α und β kann die relative Bedeutung von Pheromoninformation und lokaler Komponente gesteuert werden.31 U ist die Menge der zulässigen, noch nicht in die Auftragsfolge eingefügten Elemente. Da in dem in dieser Arbeit betrachteten Modell keine speziellen Restriktionen (z.B. Reihenfolgebeziehungen zwischen den Aufträgen) berücksichtigt werden, sind alle noch nicht in der aktuellen Teilauftragsfolge π e enthaltenen Aufträge Element der Menge U (U = {1, 2, ..., N } \ π e ). Stützle (1998a) verwendet in seiner Auswahlvorschrift zur Konstruktion von Lösungen des Permutation Flow Shop Problems Elemente des Ant Systems sowie des als Ant Colony Systems32 bekannten ACO-Ansatzes.33 Es gibt zwei mögliche Vorgehensweisen, mit denen ein Auftrag aus U ausgewählt werden kann. Welche dieser beiden Möglichkeiten verwendet wird, wird vor der Auswahl jedes Auftrags zufällig bestimmt. Dazu wird zunächst vor jeder Auswahlentscheidung eine gleichverteilte Zufallszahl u im Intervall [0; 1] bestimmt und mit dem beim Start der Heuristik extern vorgegebenen Parameter p0 (0 ≤ p0 ≤ 1) verglichen. Es sind nun zwei Fälle möglich: Fall 1: u ≤ p0 : Mit einer Wahrscheinlichkeit von p0 wird derjenige Auftrag n aus U auf Position h der Auftragsfolge plaziert, der den größten Pheromonwert für diese Position aufweist, also: n ∈ argmax {τnh | n ∈ U }

(6.2)

Fall 2: u > p0 : Mit der Gegenwahrscheinlichkeit von 1 − p0 wird ein Auftrag mit der Wahrscheinlichkeit pnh ausgewählt. Die Wahrscheinlichkeit pnh errechnet sich wie folgt:

pnh =

31 Vgl.

Pτnh

   

n∈U

  

0

τnh

falls n ∈ U (6.3) sonst

Dorigo u. a. (1991b, S.3f.). zum Ant Colony System Dorigo u. Gambardella (1997a, S.74-77), Dorigo u. Gambardella (1997b, S.55f.) sowie Gambardella u. Dorigo (1996, S.622-624). 33 Vgl. Stützle (1998a, S.1561f.). 32 Vgl.

6.1

Seite 158

Es wird im Fall u > p0 also die lokale Pheromonauswertung34 analog zum Ant System verwendet. Allerdings ist die Auswahlwahrscheinlickeit eines Auftrags nun alleine vom Pheromonwert τnh abhängig, eine lokale Komponente ηnh , wie in Gleichung 6.1, wird nicht berücksichtigt. Das Vorgehen, nicht jeden Auftrag mit Hilfe der lokalen Pheromonauswertung auszuwählen, sondern mit einer Wahrscheinlichkeit von p0 denjenigen mit dem größten Pheromonwert auszuwählen, ist unter dem Begriff der Pseudo Random Proportionate Rule im Ant Colony System eingeführt worden.35 Zweck ist es, die bekannten Informationen über eine gute Auftragsfolge stärker zu berücksichtigen (exploitation) und nur mit einer bestimmten Wahrscheinlichkeit neue Bereiche des Lösungsraums durch Anwendung der lokalen Pheromonauswertung zu untersuchen (exploration).36 Im Gegensatz zu Stützle (1998a) verwenden Rajendran u. Ziegler (2002) anstelle der lokalen Pheromonauswertung die Summen-Pheromonauswertung.37 Diese wurde neben der relativen Pheromonauswertung in Merkle (2002) als Möglichkeit vorgestellt, die von ihm beobachtete Verzerrung der Auswahlwahrscheinlichkeiten zu reduzieren.38 Diese bezeichnet für Permutation Flow Shop Probleme die Beobachtung, daß die tatsächliche Verteilung der Auswahlwahrscheinlichkeiten der Aufträge auf die Positionen der Auftragsfolge nicht der theoretischen Verteilung, die sich aus den Pheromonwerten errechnet, entspricht.39 Insbesondere mit der Summen-Pheromonauswertung sind gute Ergebnisse erzielt worden.40 Während bei der lokalen Pheromonauswertung die Plazierungsentscheidung über einen Auftrag allein abhängig vom Wert τnh ist, haben bei der Summen-Pheromonauswertung alle Pheromonwerte von der ersten bis zur aktuellen Position Einfluß auf die Auswahlwahrscheinlichkeit. Dazu werden diese Pheromonwerte aufsummiert:41 34 Der Begriff für diese Form der Berechnung der Auswahlwahrscheinlichkeiten wurde von Merkle (2002, S.25) geprägt, um sie von der in seiner Arbeit untersuchten globalen Pheromonauswertungen (Summen-Pheromonauswertung und relative Pheromonauswertung) abzugrenzen. 35 Vgl. Dorigo u. Gambardella (1997a, S.75f.), Dorigo u. Gambardella (1997b, S.55f.). 36 Vgl. Dorigo u. Gambardella (1997b, S.56). 37 Vgl. Stützle (1998a, S.1561) und Rajendran u. Ziegler (2002, S.733f.). 38 Vgl. Merkle (2002, S.26-51). Siehe auch Merkle u. Middendorf (2000, S.290), Merkle u. Middendorf (2002, S.328f.). Diese beiden Arbeiten enthalten Teile der in Merkle (2002, S.2651) vorgestellten Ergebnisse. 39 Vgl. Merkle (2002, S.20). 40 Vgl. Merkle (2002, S.25). 41 Vgl. Merkle (2002, S.27).

6.1

Seite 159

Tnh =

h X

τnq

(6.4)

q=1

Die Auswahlwahrscheinlichkeit eines Auftrags n für Position h errechnet sich dann als:42 Tnh pnh = P Tnh

(6.5)

n∈U

Neben der Summen-Pheromonauswertung hat Merkle (2002) auch eine Kombination aus Summen-Pheromonauswertung und lokaler Pheromonauswertung sowie die relative Pheromonauswertung vorgestellt.43 Des weiteren hat er Experimente über die Reihenfolge, in der die Positionen der Auftragsfolge belegt werden (vorwärts, rückwärts, zufällig), durchgeführt.44 Auf eine Darstellung der Ergebnisse wird hier verzichtet. Rajendran u. Ziegler (2002) wählen die Aufträge nicht aus der Menge U aus, sondern verwenden bei der Auswahl von Aufträgen eine Kandidatenliste π cand .45 Diese ergibt sich aus den ersten cand noch nicht ausgewählten Aufträgen der bisher besten bekannten Auftragsfolge der Kolonie (π glb ). Schließlich erweitern Rajendran u. Ziegler (2002) im von ihnen als ACO2 bezeichneten Ansatz die Pseudo Random Proportionate Rule um eine weitere dritte Möglichkeit, Aufträge auszuwählen. Diese sieht vor, den ersten noch nicht ausgewählten Auftrag aus π glb auszuwählen.46 Dies entspricht dem ersten Element der Kandidatenliste π cand . Diese Strategie wird im Folgenden als erweiterte Pseudo Random Proportionate Rule bezeichnet. Das Vorgehen bei der Lösungskonstruktion ist im Algorithmus 3 wiedergegeben.47 Die Parameter p1 und p2 werden beim Start des Verfahrens extern vorgegeben.48 Zeile 1: Bevor die Ameise eine Lösung konstruieren kann, wird eine Menge U der (zulässigen) noch in die Lösung aufzunehmenden Elemente initialisiert. Im Fall des PFSP sind dies alle N Aufträge. Zeile 2: Es wird die aktuelle Teilauftragsfolge π e initialisiert. Da die Ameise noch nicht mit der Lösungskonstruktion begonnen hat, ist die aktuelle Teilauftragsfolge zunächst leer. 42 Vgl.

Merkle (2002, S.27). Merkle (2002, S.25-51). 44 Vgl. Merkle (2002, S.53-76). 45 Vgl. Rajendran u. Ziegler (2002, S.733f.). 46 Vgl. Rajendran u. Ziegler (2002, S.734). 47 Vgl. Rajendran u. Ziegler (2002, S.734). 48 In Rajendran u. Ziegler (2002) wird p auf den Wert 0,4 und p auf den Wert 0,8 gesetzt 1 2 (vgl. Rajendran u. Ziegler (2002, S.734)). 43 Vgl.

6.1

Seite 160

Algorithmus 3 Konstruktion einer Auftragsfolge in ACO2 von Rajendran u. Ziegler (2002) 1: Initialisiere Menge der nicht ausgewählten Elemente: U={1, 2, ...,N}; 2: Initialisiere: π e = ∅; 3: for( h=1; h≤N; h=h+1 ) { 4: π cand = Erste cand noch nicht ausgewählte Aufträge aus π glb ; 5: u←U[0;1]; 6: if( u ≤ p1 ) 7: n = Erste Auftrag aus π cand 8: if( p1 < u ≤ p2 ( ) ) 9:

n ∈ argmax Tnh =

h P

τnq | n ∈ π cand

q=1

10: 11:

if ( u > p2 )

wähle einen Auftrag n aus π cand mit Wahrscheinlickeit pnh : pnh =

P

n∈π cand

Pτ P Pτ h

nq

Tnh Tnh

=

q=1

h

nq

n∈π cand q=1

12: Füge Auftrag n auf Position h in π e ein; 13: U = U \ n; 14: } // end for

Zeile 3+14: Es wird für jede der h = 1(1)N Positionen der Auftragsfolge ein Auftrag ausgewählt. Es wird dabei bei der ersten Position begonnen. Zeile 4: Die Kanditatenliste wird bestimmt. Sie besteht aus den ersten cand noch nicht ausgewählten Elementen der gegenwärtig besten bekannten Lösung. Zeile 5: Es wird eine gleichverteilte Zufallszahl u aus dem Intervall [0; 1] gezogen. Mit ihrer Hilfe wird entschieden, welche der drei Möglichkeiten zur Auswahl eines Auftrags für Position h verwendet wird. Zeile 6+7: Gilt 0 ≤ u ≤ p1 , so wird das erste Element aus π cand ausgewählt. Zeile 8+9: Gilt p1 < u ≤ p2 , wähle aus π cand das Element mit dem größten Summen-Pheromonwert nach Gleichung 6.6 aus: ( ) h X cand n ∈ argmax Tnh = τnq | n ∈ π (6.6) q=1

Zeile 10-11: Gilt p2 < u ≤ 1, wähle einen Auftrag aus π cand mit einer

6.1

Seite 161 Auswahlwahrscheinlichkeit gemäß Gleichung 6.7 aus: h P

pnh =

T P nh n∈π cand

Tnh

=

τnq

q=1

P

h P

(6.7) τnq

n∈π cand q=1

Zeile 12: Füge das ausgewählte Element auf Position h in π e ein. Zeile 13: Entferne das ausgewählte Element aus U . 6.1.3.4

Modellierung des autokatalytischen Prozesses

Der autokatalytische Prozeß wird durch das Ablegen von künstlichem Pheromon durch die Ameisen und das Verdunsten von Pheromon modelliert. Die wesentlichen Gestaltungsparameter ergeben sich, indem variiert wird, wann welche Ameisen wieviel Pheromon ablegen dürfen. Dahingegen wird das Verdunsten des Pheromons weitgehend einheitlich über eine einfache Verdunstungsrate modelliert. Allgemein folgt eine Aktualisierung der Pheromoninformationen dem folgenden Prinzip: τnh (t)

:= ρ · τnh (t − 1) + ∆τnh (t) {z } | {z } | Verdunstung Neues Pheromon

(6.8)

τnh (t) ist dabei der neue Pheromonwert im Zeitpunkt t und τnh (t − 1) der alte Pheromonwert bzw. der Pheromonwert nach der letzten erfolgten Aktualisierung oder Initialisierung im Zeitpunkt t − 1. ρ ist die sogenannte Trail-Persistance-Rate, so daß 1 − ρ als Verdunstungsrate des Pheromons interpretiert werden kann. ∆τnh (t) ist die neu hinzuzufügende Pheromonmenge. Dorigo u. a. (1991b) haben für das Ant System drei prinzipielle Möglichkeiten für die Berechnung von ∆τnh (t) untersucht.49 Im Ant Density Ansatz ist ∆τnh (t) eine Konstante.50 Im Ant Quantity Ansatz ist die hinzugefügte Pheromonmenge abhängig von der Kantenbewertung, die beim dort betrachteten TSP der Entfernung zwischen den Städten entspricht.51 Als beste Vorgehensweise hat sich jedoch Ant Cycle herausgestellt.52 Hierbei ist die hinzugefügte Pheromonmenge abhängig von der Lösungsqualität der von der aktualisierenden Ameise erstellten Lösung.53 Im Permutation 49 Vgl.

Dorigo u. a. (1991b, S.4-8) oder Dorigo u. a. (1991a, S.4-7). Dorigo u. a. (1991b, S.4f.) oder Dorigo u. a. (1991a, S.4f.). 51 Vgl. Dorigo u. a. (1991b, S.4f.) oder Dorigo u. a. (1991a, S.4f.). 52 Vgl. Dorigo u. a. (1991b, S.7) oder Dorigo u. a. (1991a, S.7). 53 Vgl. Dorigo u. a. (1991b, S.6f.) oder Dorigo u. a. (1991a, S.6f.). 50 Vgl.

6.1

Seite 162

Flow Shop Problem also:

∆τnh (t) =

  

Q L(π ant )

 

0

falls Auftrag n auf Position h ist (6.9) sonst

Q ist eine Konstante und wird gewöhnlich auf 1 gesetzt.54 L(π ant ) steht allgemein für die Lösungsqualität der von Ameise ant konstruierten Auftragsfolge π ant . In den in dieser Arbeit vorgestellten multikriteriellen Ansätzen wird L(π ant ) durch den Kompromißzielfunktionswert Ψ(π ant ) ersetzt. Das Ablegen von Pheromon durch eine Ameise kann während der Lösungskonstruktion und zusätzlich oder alleine nach deren Abschluß erfolgen. Ist die Pheromonmenge abhängig von der Lösungsqualität, so kann das Ablegen offensichtlich nur nach Abschluß der Konstruktion einer Auftragsfolge erfolgen. Grundsätzlich kann jede Ameise einer Kolonie Pheromon ablegen. Es hat sich aber bereits in den Experimenten zum Ant System von Dorigo u. a. (1991b, 1996) abgezeichnet, daß eine Elitestrategie eine Verbesserung der Optimierungseigenschaft des Algorithmus verspricht.55 Eine Elitestrategie kann z.B. vorsehen, daß nur die beste Ameise einer Iteration die Pheromoninformation aktualisieren darf. Auch die Strategie, daß allein die global beste Lösung für die Aktualisierung verwendet wird, ist ebenso denkbar wie die Verwendung von Mischformen. Im AS rank -Ansatz von Bullnheimer u. a. (1999) werden die Ameisen nach ihrer Lösungsgüte in eine Rangfolge gebracht und die besten rank Ameisen dürfen eine Aktualisierung vornehmen.56 Die Elitestrategie verstärkt damit, wie auch die Verwendung von Kandidatenmengen bei der Konstruktion von Lösungen, die Suche in einem vielversprechenden Bereich des Lösungsraums. Offensichtlich kann auch die Elitestrategie nur angewandt werden, wenn das Aktualisieren der Pheromonspur erfolgt, nachdem alle Ameisen eine Lösung konstruiert haben. Unabhängig von der Aktualisierungsstrategie wird mit dem M AX -M IN Ant System der Grundgedanke eingeführt, die Pheromonwerte in der Pheromonmatrix nach oben und unten zu beschränken.57 Das System soll unter anderem dazu beitragen, die Stagnation der Heuristik zu 54 Gambardella

u. a. (1999, S.69f.) z.B. setzt Q = ρ. Dorigo u. a. (1991b, S.14f.) sowie Dorigo u. a. (1996, S.16). 56 Vgl. Bullnheimer u. a. (1999, S.30f.). 57 Vgl. Stützle (1998a, S.1561), Stützle (1999, S.64-69). Weitere Anwendungen und Arbeiten zum M AX -M IN Ant System finden sich z.B. in: Stützle u. Hoos (1997, S.309-312), Stützle u. Hoos (2000, S.898-904). 55 Vgl.

6.1

Seite 163

vermeiden.58 Bei der Stagnation konstruieren alle Ameisen die gleiche Lösung.59 Das Verhalten ist auf die Entwicklung der Pheromonwerte zurückzuführen, welche mit zunehmender Laufzeit der Heuristik bewirken, daß die Auswahlwahrscheinlichkeit für bestimmte Aufträge und Positionen auf nahe Null absinkt und für andere auf nahe Eins ansteigt. Durch die Beschränkung der Pheromonwerte wirkt das M AX -M IN Ant System dieser Entwicklung entgegen. Übersteigt ein Element der Pheromonmatrix einen oberen Grenzwert τmax , so wird dieses Element gleich τmax gesetzt. Analog werden Elemente der Pheromonmatrix, die den unteren Grenzwert τmin unterschreiten, bis auf diesen heraufgesetzt. Die bisher angeführten Ausgestaltungsmöglichkeiten geben die wesentlichen Entwicklungen von Strategien wieder. In vielen Ansätzen finden sich Mischformen und Abwandlungen der hier vorgestellten Ansätze.60

6.1.4

Ausgestaltungsmöglichkeiten Ansätze

für

6.1.4.1

Allgemeine Ausgestaltungsmöglichkeiten

a-posteriori

A-posteriori Ansätze für multikriterielle Permutation Flow Shop Probleme müssen den Zielraum über die Variation der Parameter einer geeigneten Kompromißzielfunktion absuchen. Für jede Parametereinstellung existieren ein oder mehrere globale Optima für den Kompromißzielfunktionswert. Der Bereich des Lösungsraums, in dem diese globalen Optima liegen, ist zu identifizieren und abzusuchen. Die Ergebnisse der Ziel- und Lösungsraumanalyse aus Abschnitt 5.5.3 zeigen, daß die Elemente der Menge aller effizienten Lösungen in unterschiedlichen Bereichen des Lösungsraums liegen können. Daher müssen Ansätze zur Bestimmung einer heuristisch effizienten Menge in der Lage sein, gezielt unterschiedliche Bereiche des Lösungsraums zu identifizieren und abzusuchen. Diese Anforderung unterscheidet sie von Ansätzen, die nur ein Ziel berücksichtigen bzw. von a-priori Ansätzen. Diese können sich auf die Identifikation und Erkundung einer einzigen Region des Lösungsraums beschränken. In diesem Abschnitt sollen unterschiedliche denkbare Ausgestaltungsmöglichkeiten für a-posteriori Ansätze diskutiert werden. Einen ersten wesentlichen Gestaltungsaspekt stellt die Anzahl der verwendeten Kolonien und ihre Eigenschaften dar. Des weiteren können Varianten der Single Start Strategie und Varianten der Multi Start Strategie unterschieden werden. 58 Vgl.

Stützle u. Hoos (2000, S.899). hierzu und im folgenden Dorigo u. a. (1996, S.11). 60 Vgl. dazu die in Tabelle 6.1 auf Seite 154 angegebenen Ansätze. 59 Vgl.

6.1

Seite 164

In Iredi u. a. (2001) werden zwei Ansätze vorgestellt, um eine heuristisch effiziente Front beim bikriteriellen Single Machine Problem zu ermitteln.61 Der erste Ansatz verwendet eine einzige heterogene Kolonie, wohingegen der zweite Ansatz mehrere heterogene Kolonien verwendet. Eine Kolonie ist eine Menge von Ameisen, wobei jede Ameise eine eigene Auftragsfolge konstruiert. Eine heterogene Kolonie kann dabei wie folgt beschrieben werden: Heterogene Kolonie: Eine Kolonie wird als heterogen bezeichnet, falls die Ameisen in unterschiedlichen Bereichen der effizienten Front und damit in unterschiedlichen Bereichen des Zielraums suchen.62 Analog zur heterogenen Kolonie kann eine homogene Kolonie definiert werden: Homogene Kolonie: In einer homogenen Kolonie suchen alle Ameisen im gleichen Bereich der effizienten Front bzw. des Zielraums. In den Ansätzen von Iredi u. a. (2001) teilen sich alle Ameisen einer heterogenen Kolonie die gleichen Pheromonmatrizen.63 Problematisch erscheint dabei, daß sich in einer Matrix Informationen über unterschiedliche Bereiche des Lösungsraums mischen, da die Ameisen unter Umständen in unterschiedliche Bereiche des Lösungsraums streben. Es ist zu erwarten, daß sich dies bei der Konstruktion von guten Lösungen negativ auswirken kann. Bei homogenen Kolonien tritt dieses Problem nicht auf, da hier alle Ameisen die gleiche Region im Zielraum erforschen und somit auch in die gleiche Region des Lösungsraums streben sollten. Aufgrund dieser Überlegungen erscheint die Verwendung einer oder mehrerer homogener Kolonien der vielversprechendere Ansatz. Single Start mit fixiertem Parametersatz (SSFP): Bei der Single Start Strategie wird zu Beginn der Laufzeit die Pheromoninformation einmalig initialisiert. Fixierter Parametersatz bedeutet, daß die den Ameisen zugeordneten Bereiche der effizienten Front bzw. des Zielraums über die gesamte Laufzeit hinweg unverändert bleiben. Diese Strategie setzt zur Ermittlung einer heuristisch effizienten Menge die Verwendung einer heterogenen oder mehrerer homogener Kolonien voraus. Eine einzige homogene Kolonie sucht nur in einem Bereich des Zielraums und ist die klassische Konfiguration für 61 Vgl.

Iredi u. a. (2001, S.361-366) sowie die Arbeit von Merkle (2002, S.115-128). Merkle (2002, S.116) und Iredi u. a. (2001, S.363). 63 Es wird für jedes Ziel eine eigene Matrix verwendet, die auch eine unterschiedliche Kodierung besitzen, vgl. auch Abschnitt 6.1.4.3. 62 Vgl.

6.1

Seite 165 Probleme mit nur einem zu berücksichtigendem Ziel oder für a-priori Ansätze. Die SSFP-Strategie wird in den Ansätzen von Iredi u. a. (2001) verwendet.64

Single Start mit dynamischem Parametersatz (SSDP): Im Gegensatz zur SSFP-Strategie werden die Zuordnungen zu den Bereichen des Zielraums, in denen die Ameisen suchen, über die Laufzeit hinweg variiert. Die Pheromoninformation wird jedoch nur zu Beginn der Laufzeit einmalig initialisiert. Problematisch bei dieser Strategie erscheint, daß die Kolonien nach der Zuordnung eines neuen Bereichs im Zielraum lange benötigten, bis sie den neuen Bereich des Lösungsraums identifiziert haben. Die Pheromoninformationen lenkt die Suche zunächst noch in den alten Bereich des Lösungsraums. Sollen dynamische Parameter verwendet werden, so bietet sich daher eher die Verbundene Multi Start Strategie an. Verbundene Multi Start Strategie (VMSS): Mit jedem Wechsel der Suchregion im Zielraum wird die Pheromoninformation neu initialisiert. Die Strategie wird als verbunden bezeichnet, da diese Initialisierung von der bisher erreichten Lösung abhängig sein kann. Die einzelnen Starts sind somit nicht völlig unabhängig voneinander. Unverbundene Mulit Start Strategie(UMSS): Bei dieser Strategie werden für jede Region im Zielraum ein oder mehrere vollständig, von vorangegangenen Läufen unabhängige Läufe der Heuristik durchgeführt. Aus den verschiedenen heuristisch effizienten Mengen der einzelnen Läufe wird anschließend die heuristisch effiziente Menge aller Läufe ermittelt.65 Die in dieser Arbeit in den Abschnitten 6.3 und 6.4 vorgestellten Ameisenalgorithmen folgen der VMSS-Strategie. Der SCMO-Ansatz66 verwendet eine einzelne homogene Kolonie. Der MCMO-Ansatz67 setzt mehrere homogene Kolonien ein. Eine dritte denkbare Alternative stellt die Anwendung einer SSFP-Strategie in Verbindung mit mehreren homogenen Kolonien dar. Dieser Ansatz wird hier nicht verfolgt, da jeder Region des Zielraums eine eigene Kolonie zugeordnet werden muß. Insbesondere bei einer Suche mit vielen unterschiedlichen Suchbereichen im Zielraum würde 64 Vgl.

Iredi u. a. (2001, S.361-366) sowie Merkle (2002, S.115-128). Möglichkeit wird auch in der Arbeit von Merkle (2002) diskutiert (vgl. Merkle (2002, S.118-128.), insbesondere die Seiten 118, 123f. u. 128). 66 SCMO steht für Single-Colony-Multi-Objektive. Der Ansatz wird in Abschnitt 6.3 beschrieben. 67 MCMO steht für Multi-Colony-Multi-Objektive. Der Ansatz wird in Abschnitt 6.4 beschrieben. 65 Diese

6.1

Seite 166

die Anzahl der Kolonien bei dieser Strategie stark ansteigen. Die UMSSStrategie wird in dieser Arbeit ebenfalls nicht weiter verfolgt. Sie wurde bereits von Merkle (2002) untersucht. Dort hat sich gezeigt, daß Strategien, welche eine Kooperation von Kolonien verfolgen, bessere Ergebnisse liefern.68 6.1.4.2

Multi Colony Ansätze und Kommunikation

Das Vorgehen, mehrere Kolonien einzusetzen, ist bereits in unterschiedlichen Arbeiten verwendet worden. Mögliche Einsatzgebiete sind multikriterielle Problemstellungen (z.B. Gambardella u. a. (1999), Iredi u. a. (2001)) sowie parallele Implementationen für Probleme mit einfacher Zielsetzung (z.B. Bullnheimer u. a. (1998), Stützle (1998b), Michel u. Middendorf (1999)).69 Ein wesentliches Element der Multi-Kolonie-Ansätze ist in beiden Fällen die Kommunikation der Kolonien untereinander. Stützle (1998b) untersucht die Vorteilhaftigkeit vieler kurzer, unabhängiger Läufe eines ACO-Algorithmus im Vergleich zu einem einzigen, langen Lauf.70 Diese unabhängigen Läufe können parallel ausgeführt werden, was einen Geschwindigkeitsgewinn bewirkt. Stützle (1998b) hat beobachtet, daß sich durch die wiederholte oder parallele Ausführung kurzer Läufe anstelle von einem langen Lauf des M AX -M IN Ant Systems die Lösungsqualität steigern läßt.71 In seiner Untersuchung sind die Kolonien völlig unabhängig voneinander, eine Kommunikation findet nicht statt. Als Möglichkeit dazu werden von Stützle (1998b) zwei Strategien vorgeschlagen, aber nicht weiter untersucht. Zum einen können die vollständigen Pheromoninformationen, also die Pheromonmatrizen zwischen den Kolonien, ausgetauscht werden. Zum anderen können lediglich die besten Lösungen der einzelnen Kolonien untereinander ausgetauscht werden.72 Merkle u. Middendorf (2002) weisen darauf hin, daß das Austauschen der besten Lösung die vorzuziehende Strategie ist.73 Dieses Vorgehen findet sich auch in den Arbeiten von Bullnheimer u. a. (1998) und Michel u. Middendorf (1999)74 . Bei Michel u. Middendorf (1999) suchen mehrere Kolonien parallel zueinander nach Lösungen, wobei sie nach einer bestimmten 68 Diese Möglichkeit wird auch in der Arbeit von Merkle (2002) diskutiert (vgl. Merkle (2002, S.118-128.), insbesondere die Seiten 118, 123f. u. 128). 69 Vgl. Gambardella u. a. (1999, S.67-72), Iredi u. a. (2001, S.361-367), Bullnheimer u. a. (1998, S.91-99), Stützle (1998b, S.725-729), Michel u. Middendorf (1999, S.56f.). 70 Vgl. Stützle (1998b, S.726f.). 71 Vgl. Stützle (1998b, S.728). 72 Vgl. Stützle (1998b, S.727). 73 Vgl. Middendorf u. a. (2000, S.646). Siehe auch Middendorf u. a. (2002, S.308f.). Beide Arbeiten verweisen auf ein unveröffentlichtes Manuskript von Krüger u. a. (1998). 74 Vgl. Michel u. Middendorf (1999, S.57) und Bullnheimer u. a. (1998, S.91-93).

6.1

Seite 167

Anzahl von Iterationen die beste gefundene Lösung austauschen. Ähnlich funktioniert auch der Ansatz von Bullnheimer u. a. (1998).75 Die Verwendung mehrerer Kolonien war in den bisher erwähnten Ansätzen dazu bestimmt, eine Rechenzeitverkürzung oder Verbesserung der Lösungsqualität bei Problemen mit einfacher Zielsetzung zu erzielen. Die Ansätze von Gambardella u. a. (1999) und Iredi u. a. (2001) hingegen sind für multikriterielle Problemstellungen entwickelt worden und die Verwendung mehrerer Kolonien aus einem anderen Aspekt heraus motiviert.76 Gambardella u. a. (1999) betrachten das Tourenplanungsproblem mit Zeitfensterrestriktionen, wobei sie eine lexikographische Ordnung der zwei Ziele Minimierung der Summe der Fahrzeiten und Minimierung der benötigten Fahrzeugzahl betrachten. Jedem der zwei verfolgten Ziele ist eine unabhängige Kolonie zugeordnet. Die Notwendigkeit der Kommunikation der Kolonien ergibt sich schon allein daraus, daß die von der ersten Kolonie ermittelte Fahrzeugzahl eine Restriktion für die zweite Kolonie ist, welche versucht, die Gesamtfahrzeit bei gegebener Fahrzeugzahl zu minimieren.77 Iredi u. a. (2001) betrachten ein multikriterielles Single Machine Problem und lenken die einzelnen Kolonien in unterschiedliche Bereiche der heuristisch effizienten Front.78 Der Ansatz wird im folgenden Abschnitt kurz beschrieben, wobei ein Schwerpunkt der Darstellung auf der Kommunikation zwischen den Kolonien liegt. 6.1.4.3

Der Multi Colony Ansatz von Iredi u. a. (2001)

Iredi u. a. (2001) betrachten ein Single Machine Problem mit den Zielen Minimierung der Summe der Verspätungen und Minimierung der Umrüstkosten.79 Ziel ist die Bestimmung einer heuristisch effizienten Front. Die Suche wird von einer festzulegenden Zahl heterogener Kolonien durchgeführt. Jede Kolonie besitzt für jedes Ziel eine eigene Pheromonmatrix.80 Die Zuordnung zu unterschiedlichen Suchbereichen im Zielraum erfolgt, indem die zwei Matrizen bzw. deren Pheromonwerte bei der Berechnung der Auswahlwahrscheinlichkeit für die Zuordnung eines Auftrags auf eine Position unterschiedlich gewichtet werden.81 Eine Zuordnung der Ameisen zu den 75 Vgl.

Michel u. Middendorf (1999, S.57) und Bullnheimer u. a. (1998, S.91-93). Gambardella u. a. (1999, S.67-72) und Iredi u. a. (2001, S.361-367). Auch bei diesen Ansätzen ist eine Parallelisierung möglich, aber der Zeitgewinn scheint nicht die primäre Motivation zu sein. 77 Vgl. dazu Gambardella u. a. (1999, S.67-72). 78 Vgl. Iredi u. a. (2001, S.361-367). 79 Vgl. für diesen Abschnitt Iredi u. a. (2001, S.360-372) und Merkle (2002, S.111-128). 80 Dieses Vorgehen wird damit begründet, daß die zwei Ziele unterschiedliche Kodierungen der Matrix erfordern. 81 Auf die drei untersuchten unterschiedlichen Strategien zur Festlegung der Gewichtintervalle der Kolonien wird hier nicht genauer eingegangen. 76 Vgl.

6.1

Seite 168

Bereichen des Zielraums über eine Kompromißzielfunktion wird nicht vorgenommen. Die zu Beginn festgelegten Gewichte bleiben über die Laufzeit hinweg unverändert.

Siehe zu den Abbildungen: Iredi u. a. (2001, S.366) oder Merkle (2002, S.119f.). Die ausgefüllten Elemente kennzeichnen die (heuristisch) effiziente Front. Die Pfeile zeigen an, welche Pheromonmatrix welcher Kolonie durch die Auftragsfolge aktualisiert wird.

Abbildung 6.4: Aktualisierungsstrategien nach Iredi u. a. (2001) Die Kolonien teilen sich eine globale, heuristisch effiziente Front (GNDF). Diese stellt die heuristisch effiziente Front bezogen auf die von allen Kolonien auf Effizienz überprüften Lösungen dar. Dagegen bezieht sich die lokale heuristisch effiziente Front (LNDF) nur auf die Lösungen einer einzelnen Kolonie. Die Kommunikation der Kolonien erfolgt über die global heuristisch effiziente Front bei der Pheromonaktualisierung, wobei zwei alternative Strategien verwendet werden. Die erste Strategie wird als Pheromonaktualisierung entsprechend dem Ursprung bezeichnet. Dabei darf eine Ameise die Pheromonmatrizen ihrer eigenen Kolonie aktualisieren, falls ihre Lösung in der globalen heuristisch effizienten Front bereits enthalten ist oder dort eingefügt wurde. In Abbildung 6.4(a) findet Kolonie 1 die Auftragsfolgen A, D und F. Unabhängig von der Lage im Zielraum aktualisieren diese Lösungen stets die Pheromonmatrix der Kolonie 1. Die zweite Strategie wird als Pheromonaktualisierung entsprechend dem Gebiet bezeichnet. Dabei darf eine Ameise eine Pheromonaktualisie-

6.2

Seite 169

rung vornehmen, wenn ihre Lösung in der globalen heuristisch effizienten Front bereits enthalten ist oder dort eingefügt wurde. Dabei aktualisiert sie jedoch die Matrizen derjenigen Kolonie, die dem Bereich der Front zugeordnet ist, in dem die Lösung liegt. Die Zuordnung einer Kolonie zu einem Bereich wird dabei in Abhängigkeit von der globalen heuristisch effizienten Front vorgenommen. Diese wird nach einem Zielkriterium sortiert und anschließend in soviele Teilintervalle zerlegt, wie es Kolonien gibt. Die Berechnung der Teilintervalle kann auch derart vorgenommen werden, daß sich die Intervalle überschneiden. Diese Teilintervalle werden den Kolonien zugeordnet. In Abbildung 6.4(b) aktualisiert die Auftragsfolge A die Pheromonmatrix von Kolonie 1, Auftragsfolge D die Pheromonmatrix von Kolonie 2 und Auftragsfolge F die Phermonmatrix von Kolonie 3. Überlappen sich die Intervalle der Kolonien bei der Pheromonaktualisierung entsprechend dem Ursprung, läßt sich beobachten, daß die beiden beschriebenen Kommunikationsstrategien bessere Ergebnisse generieren als eine Unverbundene Multi Start Strategie. Sind die beiden Strategien bei der Minimierung der Umrüstkosten etwa gleich gut, so ist in den restlichen Abschnitten der heuristisch effizienten Front die Pheromonaktualisierung entsprechend dem Gebiet vorteilhaft.

6.2 6.2.1

Lokale Suchstrategie in zwei Phasen Motivation der zwei Phasen-Strategie

In diesem Abschnitt soll die von den später vorgestellten SCMO-Ansatz82 und MCMO-Ansatz83 verwendete lokale Suchstrategie beschrieben werden. Dabei werden die Ergebnisse aus Kapitel 5 berücksichtigt. Mit Hilfe der lokalen Suche soll ein konkreter Bereich des Lösungsraums gründlicher untersucht werden, indem die Nachbarschaft der Ausgangslösung im Lösungsraum unter Anwendung eines Nachbarschaftsoperators generiert und ausgewertet wird. In Kapitel 5 wurden unterschiedliche Nachbarschaftsoperatoren vorgestellt. Ebenso wurde untersucht, welcher dieser Nachbarschaftsoperatoren die größte Wahrscheinlichkeit aufweist, daß ein Nachbar im Lösungsraum auch ein Nachbar im Zielraum ist. Es wurde argumentiert, daß es zum Ende der lokalen Suche wünschenswert ist, verstärkt Nachbarn der Ausgangslösung im Zielraum zu generie82 SCMO steht für Single-Colony-Multi-Objektive. Der Ansatz wird in Abschnitt 6.3 beschrieben. 83 MCMO steht für Multi-Colony-Multi-Objektive. Der Ansatz wird in Abschnitt 6.4 beschrieben.

6.2

Seite 170

ren. Damit soll die Suche auf den von den Parametern der Kompromißzielfunktion eingestellten Bereich des Zielraums beschränkt bleiben. Es wurde bereits darauf hingewiesen, daß es nicht sinnvoll ist, für jede generierte Auftragsfolge die Nachbarschaft im Zielraum einer Auftragsfolge intensiv abzusuchen. Eine auf diese Weise untersuchte Auftragsfolge bzw. ihr Zielfunktionsvektor sollte in dem durch die Parameter des Kompromißmodells eingestellten Bereich der effizienten Front liegen. Die Konstruktion einer Lösung durch eine Ameise stellt dies nicht grundsätzlich sicher. Die lokale Suche soll daher zunächst versuchen, ausgehend von der Lösung der Ameise eine Auftragsfolge zu finden, die im eingestellten Bereich der effizienten Front liegt. Die lokale Suche wird daher in zwei Phasen unterteilt: Phase 1: In dieser Phase wird die Ausgangslösung lediglich bzgl. ihres Kompromißzielfunktionswertes verbessert. Ziel ist es, möglichst schnell eine Annäherung an den Zielbereich der effizienten Front zu erreichen. Große Sprünge im Zielraum sind daher explizit erwünscht. Dies kann über Nachbarschaftsoperatoren erreicht werden, die in den Experimenten aus Abschnitt 5.3 eine große Abweichung von der Nachbarschaft im Zielraum aufwiesen. Hier werden der Exchange-Operator und der Double-Shift-Operator eingesetzt. Der Einsatz zweier unterschiedlicher Operatoren soll es ermöglichen, die lokalen Optima eines Operators durch die Anwendung des anderen zu verlassen (vgl. Abschnitt 5.2.2). Phase 2: In dieser Phase wird versucht, den Kompromißzielfunktionswert zu verbessern. Weiterhin wird bei Auftragsfolgen, die in die aktuelle heuristisch effiziente Menge eingefügt werden und gleichzeitig den aktuell besten bekannten Kompromißzielfunktionswert nicht verschlechtern, unter Anwendung des API-Operators die Suche in der Zielraumnachbarschaft verstärkt. Die in Phase 1 verwendeten Schemata, das Job Swap Schema (JSS) und das Job Insertion Schema (JIS) werden in Abschnitt 6.2.2 beschrieben. Abschnitt 6.2.3 beschreibt anschließend das in Phase 2 verwendete Job Swap Schema mit rekursive API Suche (JSS-RAPI).

6.2

6.2.2

Seite 171

Lokale Suche in Phase 1: Job Swap Schema (JSS) und Job Insertion Schema (JIS)

Job Swap Schema (JSS) Das Job Swap Schema benutzt den Exchange-Operator, vertauscht also jeweils zwei Aufträge in der Auftragsfolge. Jeder Auftrag wird, sofern möglich, mit den Aufträgen auf range Positionen vor und nach seiner aktuellen Position vertauscht.84 Nachdem ein Auftrag auf alle zulässigen Positionen vertauscht wurde, wird der Zug mit der größten Vorteilhaftigkeit ausgewählt und durchgeführt. Erweist sich keiner der Züge als vorteilhaft, so findet kein Tausch statt. Anschließend wird der nächste Auftrag betrachtet. Das Verfahren ist abgeschlossen, wenn alle Aufträge auf Tauschmöglichkeiten hin überprüft wurden. Ob ein Zug als vorteilhaft beurteilt wird, ist zum einen davon abhängig, ob er den Kompromißzielfunktionswert verbessert und zum anderen davon, ob die Auftragsfolge in die heuristisch effiziente Menge eingefügt wird. Ein Zug gilt als vorteilhaft, wenn er den aktuellen Kompromißzielfunktionswert verbessert. Ein Zug gilt aber auch dann als vorteilhaft, wenn er den aktuellen Kompromißzielfunktionswert nicht verschlechtert, die Auftragsfolge aber in die aktuelle heuristisch effiziente Menge eingefügt wird. Das JSS ist im Algorithmus 4 beschrieben. Zeile 1: Die der Funktion übergebene Auftragsfolge π ◦ wird in π b gespeichert. Zeilen 2+15: In der äußeren For-Schleife wird jede Position der Auftragsfolge angesteuert. Zeile 3: Das InsertFlag merkt sich, ob bereits eine Auftragsfolge während der lokalen Suche in die NDS eingefügt wurde. Initialwert ist f alse. Zeilen 4+12: In der inneren For-Schleife wird der Auftrag auf Position i mit allen Aufträgen, die sich auf range Positionen vor und nach ihm befinden, vertauscht. Zeile 5: Hier wird der Auftrag auf Position i mit dem Auftrag auf Position j vertauscht. Die so erhalten Auftragsfolge wird in π 0 gespeichert. Zeile 6: Es wird versucht, π 0 in NDS einzufügen. Sollte dies erfolgreich sein, so werden gleichzeitig alle Elemente, die bisher in der NDS ent84 Ist die aktuelle Position i eines Auftrages kleiner als der Wert von range, so kann er offensichtlich nur mit den i-1 Aufträgen vor seiner aktuellen Position vertauscht werden. Analoge Überlegungen gelten, wenn die Anzahl der Positionen nach der aktuellen Position i kleiner sind als range. Diese Überlegungen werden in Zeile 4 im Algorithmus 4 berücksichtigt.

6.2

Seite 172

Algorithmus 4 Job Swap Schema (JSS) // // // // // //

Parameterliste: (π ◦ , λ, NDS) π◦ übergebene Auftragsfolge λ aktuelle Parameter des Kompromißmodells NDS Übergebene heuristisch effiziente Menge, in die Lösungen eingefügt werden

1: π b = π ◦ ; 2: for( i=0; i

Suggest Documents