Einsatz von Data-Mining zur Analyse eines Polymerprozesses

Einsatz von Data-Mining zur Analyse eines Polymerprozesses Rolf Burghaus∗, Daniel Leineweber, Jörg Lippert 1 Problemstellung Der hohe Wettbewerbsdr...
0 downloads 0 Views 145KB Size
Einsatz von Data-Mining zur Analyse eines Polymerprozesses Rolf Burghaus∗, Daniel Leineweber, Jörg Lippert

1

Problemstellung

Der hohe Wettbewerbsdruck im Bereich der Commodities zwingt die Unternehmen der chemischen Industrie zur kontinuierlichen Verbesserung der Effizienz und Qualität ihrer Prozesse. Nur wer in der Lage ist, die vom Kunden verlangte Qualität kostengünstig zu produzieren, kann in diesem Umfeld auf Dauer bestehen. Nicht zuletzt deshalb haben in den vergangenen Jahren viele Chemiefirmen in neue Systeme zur Erfassung und Archivierung von Prozess- und Qualitätsdaten investiert. Die gesammelten großen Datenmengen werden in der Praxis allerdings häufig nur unzureichend genutzt, da in den Betrieben meist keine geeigneten automatisierten Analyseverfahren zur Verfügung stehen. Am Beispiel der Analyse eines komplexen, mehrstufigen Polymerprozesses soll gezeigt werden, wie mit Hilfe von Data-Mining wertvolle Information aus vorhandenen Prozess- und Qualitätsdaten extrahiert werden kann. Data-Mining bezeichnet Methoden, die zur automatisierten Entdeckung interessanter Muster und möglicher Zusammenhänge in großen Datenbeständen eingesetzt werden. Aus den Daten werden Vermutungen in Form von expliziten Regeln generiert, die direkt im Anwendungskontext interpretiert werden können. Dadurch lassen sich in den Daten verborgene Informationen aufdecken, die mit klassischen (hypothesengeleiteten) Analyseverfahren nicht ohne weiteres auffindbar sind. Der untersuchte Polymerprozess besteht aus den beiden wesentlichen Prozessabschnitten Polymerisation und Verarbeitung sowie einer Reihe von Nebenanlagen (s. Abb. 1). Die Polymerisation untergliedert sich in mehrere sequentiell verkoppelte Prozessstufen (Batch/Konti), auf die hier nicht im Detail eingegangen werden muss. In der Verarbeitung werden zwei parallel betriebene Verarbeitungsmaschinen (MA1, MA2) betrachtet. Die Nebenanlagen dienen beispielsweise der Aufarbeitung des eingesetzten Lösungsmittels und der Bereitstellung von Additiven. Über ein zentrales Prozessdatenarchiv werden ca. 300 Prozessgrößen aus Polymerisation, Verarbeitung und Nebenanlagen fortlaufend erfasst; die Erfassungsrate liegt im Sekundenbereich. Darüber hinaus werden für das fertige Polymerprodukt 8 Qualitätsgrößen im Labor ermittelt, diese werden allerdings nur einmal am Tag gemessen. Ausgangspunkt der durchgeführten Data-Mining-Analyse war die Frage nach den Ursachen für die beobachteten starken zeitlichen Schwankungen der Produktqualität, hier beispielhaft für eine der Qualitätsgrößen dargestellt (s. Abb. 2 oben). Interessanterweise zeigten sich zudem während einer begrenzten Phase innerhalb des Analysezeitraums von 6 Monaten deutliche Unterschiede zwischen den beiden Verarbeitungsmaschinen MA1 und MA2 hinsichtlich der produzierten Qualität. Auch dieser Umstand verlangte nach einer Erklärung. Ziel der Analyse war somit, die qualitätsbestimmenden Schlüsselgrößen im Prozess zu identifizieren und die zugehörigen Wirkungsketten aufzuklären, um so die Voraussetzungen für eine verbesserte Prozesskontrolle zu schaffen.

2

Verwendete Methoden

Data-Mining hat seine Wurzeln im Umfeld von Datenbanken und künstlicher Intelligenz; das Gebiet hat in den vergangenen Jahren eine stürmische Entwicklung erfahren [1, 2]. Die klassischen Einsatzbereiche sind das Marketing (Customer Relationship Management) sowie das Finanz- und Versicherungswesen (Bonitätsprognose, Betrugserkennung). In jüngerer Zeit konnte eine Reihe neuer, chemie-spezifischer Anwendungsfelder erschlossen werden: so werden bei der Bayer AG speziell angepasste Data-Mining-Technologien in Kombination mit statistischen Methoden und neuronalen Netzen sehr erfolgreich zur Analyse von Prozessdaten und auch in der Katalysator- und Wirkstoffforschung eingesetzt. Die Prozessdatenanalyse mittels Data-Mining eröffnet insbesondere für die schnelle Fehlerdiagnostik bei Prozessen (Troubleshooting) interessante neue Möglichkeiten. Den Kern der von uns entwickelten Data-Mining-Prozessanalysestrategie bildet ein sog. Untergruppensuchverfahren (Subgroup Discovery) [3]. Mit Hilfe dieses Verfahrens kann automatisch aus den vorgegebenen Daten ermittelt werden, welche Teilmengen von Datensätzen (Untergruppen) bezüglich eines bestimmten Merkmals (Zielgröße) am stärksten von der Gesamtheit aller Datensätze abweichen, und durch welche wesentlichen Einflussgrößen diese Untergruppen charakterisiert sind. Hierzu müssen vorab die Zielgröße (abhängiges Attribut, hier eine Qualitätsgröße) und alle zu berücksichtigenden möglichen Einflussgrößen (unabhängige Attribute, hier ∗

Dr. R. Burghaus, Dr. D. Leineweber, Dr. J. Lippert, Bayer Technology Services (BTS), Bayer AG, D-51368 Leverkusen.

– 2/5 –

alle aufgezeichneten Prozessparameter) bereitgestellt werden. Da das Verfahren nur mit diskreten Attributwerten arbeiten kann, müssen kontinuierliche Einflussgrößen zudem in geeigneter Weise diskretisiert werden. Dies geschieht durch Zerlegen der kontinuierlichen Wertebereiche in eine meist relativ geringe Zahl von Teilintervallen, z.B. für "hohe", "mittlere" und "niedrige" Attributwerte. Bei der Analyse des Polymerprozesses ergab sich das Problem, dass aufgrund der unterschiedlichen Erfassungsraten von Prozess- und Qualitätsdaten diese einander nicht direkt zugeordnet werden konnten. Daher wurde im Rahmen der Datenvorverarbeitung (DVV) zunächst eine Datenreduktion für die hochaufgelösten Prozessdaten durchgeführt. Der Analysezeitraum wurde dazu in geeignete Zeitfenster unterteilt, und jede Prozessgröße wurde für jedes Zeitfenster durch eine Reihe von Parametern quasi-stationär charakterisiert (z.B. durch Mittelwert, Standardabweichung, Fourier-Moden, Ereignis-Zähler). Die auf diesem Wege gewonnenen quasi-stationären Prozessdaten konnten dann mit den jeweils zugehörigen Qualitätsdaten zusammengeführt werden. Für die eigentliche Analyse wurden sämtliche generierten quasi-stationären Parameter als mögliche Einflussgrößen betrachtet und jeweils eine der Qualitätsgrößen als Zielgröße ausgewählt. Alle kontinuierlichen Einflussgrößen wurden mit acht Teilintervallen diskretisiert; die Intervallgrenzen wurden dabei so gewählt, dass auf jedes Teilintervall dieselbe Zahl von Datensätzen entfiel. Für die Zielgröße wurde eine äquidistante Diskretisierung mit zehn Teilintervallen verwendet. Das Untergruppensuchverfahren lieferte auf Basis der so vorbereiteten Daten eine Vielzahl von Regeln über mögliche Zusammenhänge zwischen Prozess- und Qualitätsgrößen. Durch eine automatische Regelstabilitätsanalyse wurde sichergestellt, dass letztlich nur Regeln berücksichtigt wurden, die stabil gegenüber gewissen Verschiebungen der Diskretisierungsgrenzen sind. Zufallsregeln konnten auf diese Weise weitgehend eliminiert werden. Beispielsweise wurde die folgende interessante Regel gefunden (in vereinfachter Form wiedergegeben): WENN Mittelwert(MA-Parameter) "hoch" UND [...] DANN Qualitätsgröße "hoch" Diese Regel lässt sich sehr schön anhand der zugrundeliegenden Daten visualisieren (s. Abb. 2 unten); sie erklärt die nur zeitweise auftretenden Qualitätsunterschiede zwischen den Verarbeitungsmaschinen MA1 und MA2 (s. Abb. 2 oben). Eine Regel wie diese hätte im Prinzip auch durch visuelle Inspektion der vorverarbeiteten Daten gefunden werden können, allerdings hätte das in Anbetracht der Vielzahl möglicher Einflussgrößen einen extrem hohen Aufwand bedeutet. Bei komplexeren Regeln, die das Zusammenwirken mehrerer Einflussgrößen beschreiben, stößt das visuelle Vorgehen dann endgültig an seine Grenzen. Im Verlauf der Data-Mining-Analyse zeigte sich, dass die Untergruppensuche alleine noch nicht zum gewünschten Ergebnis führte. Dies lag im wesentlichen daran, dass die Einflussgrößen untereinander stark korreliert sind, was zur Folge hatte, dass zunächst eine sehr große Zahl von Regeln generiert wurde, die nicht unabhängig voneinander sind. Es galt nun, aus der unüberschaubaren Vielzahl von Regeln einen möglichst kleinen Satz unabhängiger Einflussgrößen herauszufiltern, der einerseits eine hinreichend genaue Beschreibung der Zielgröße erlaubt, andererseits aber auch plausibel interpretierbar ist und im Sinne einer verbesserten Prozesskontrolle direkte Eingriffsmöglichkeiten bietet. Hierzu wurde die Untergruppensuche gemeinsam mit der Validierung durch ein neuronales Netz (NN) in einen iterativen Analyseworkflow eingebettet. Die Vorgehensweise bei der Analyse war die folgende: 1. 2. 3. 4.

Untergruppensuche zur Identifikation der jeweils dominanten Einflussgrößen (Bestbeschreiber) Manuelle Auswahl des "plausibelsten" Bestbeschreibers bei korrelierten Regeln NN-Training unter Verwendung der bislang gefundenen Bestbeschreiber als Eingangsgrößen Vergleich von NN-Prognose und gemessener Zielgröße: bei hinreichend guter Übereinstimmung Abbruch des Zyklus, ansonsten Fortsetzung mit Schritt 1.

Dieses Vorgehen führt bei vertretbarem manuellem Aufwand zu einer sinnvoll interpretierbaren Liste wesentlicher Einflussfaktoren, die untereinander weitgehend unkorreliert sind. Zusätzlich steht in Form des neuronalen Netzes ein datenbasiertes Prozessmodell zur Verfügung, das anschließend zur Qualitätsprognose eingesetzt werden kann. Der gesamte Data-Mining-Workflow zur Prozessdatenanalyse ist in Abb. 3 nochmals im Überblick dargestellt. Die DVV-Methoden und das Untergruppensuchverfahren sind Teil unserer "Data Mining Expert Toolbox" (DAMINEX), einer Inhouse-Entwicklung auf der Basis von MATLAB. Für das neuronale Netz wurde die kommerzielle Software NN-Tool [4] verwendet.

3

Ergebnisse

Die Anwendung des beschriebenen Data-Mining-Workflows lieferte für die in Abb. 1 gezeigte Qualitätsgröße lediglich vier wesentliche Einflussfaktoren: die Mittelwerte zweier Dosierverhältnisse und die Standardabweichung eines dritten Dosierverhältnisses (Polymerisation), sowie den Mittelwert eines MA-Parameters (Verarbeitung). Das mit diesen Eingangsgrößen trainierte neuronale Netz (mit nur vier inneren Knoten) erlaubte bereits eine exzellente Beschreibung der Qualitätsgröße (s. Abb. 4 oben). Es zeigte sich, dass nahezu die gesamte beob-

– 3/5 –

achtete Variation der Qualitätsgröße durch die Variation der vier identifizierten Haupt-Einflussfaktoren erklärt werden konnte (der Korrelationskoeffizient zwischen Modellprognose und Daten betrug 0.88). Darüber hinaus ermöglichte das neuronale Netz das Aufstellen einer Rangfolge der Einflussfaktoren. Die Auswirkung des MAParameters wurde bereits im Zusammenhang mit Abb. 1 diskutiert; der entsprechende Einfluss wurde durch das Bedienpersonal der Anlage als physikalisch höchst plausibel bestätigt. Auch der Einfluss der Dosierverhältnisse auf die Qualität entsprach dem existierenden Prozessverständnis. Allerdings tauchte an dieser Stelle sofort die Frage auf, warum die Dosierverhältnisse – und damit die Rezeptur des Polymers – so starken Schwankungen unterworfen waren. Zur Beantwortung dieser Frage wurde eines der Dosierverhältnisse, das bei der Viskositätsregelung für die produzierte Polymerlösung als Stellgröße dient, als neue Zielgröße aufgefasst, und es wurde eine weitere Data-Mining-Analyse gemäß dem oben beschriebenen Verfahren (s. Abb. 3) durchgeführt. Als wesentliche Einflussfaktoren für diese Rezepturgröße ergaben sich die Viskosität der Polymerlösung – ein trivialer Befund – und vor allem der Betriebszustand der Nebenanlage "Lösungsmittel-Aufarbeitung". Bei hohem Durchsatz wird hier ein Parallelstrang zusätzlich in Betrieb genommen, der normalerweise abgeschaltet ist. Es handelt sich somit um einen diskreten Betriebszustand mit zwei möglichen Ausprägungen (Binärattribut). Das Dosierverhältnis konnte durch ein mit diesen beiden Eingangsgrößen trainiertes neuronales Netz sehr gut beschrieben werden (s. Abb. 4 unten); zwischen Modell und Daten ergab sich ein Korrelationskoeffizient von 0.71. Der Hinweis auf den Einfluss der Lösungsmittel-Aufarbeitung erwies sich als entscheidend für die Aufklärung der Ursachen der Qualitätsprobleme. Durch Laboranalysen konnte gezeigt werden, dass das Lösungsmittel aus dem nur zeitweise betriebenen Parallelstrang einen höheren Gehalt an Verunreinigungen besitzt als das Lösungsmittel aus dem Hauptstrang. Die im Lösungsmittel enthaltenen Verunreinigungen führten offenbar zu einer "Vergiftung" der Polymerisationsreaktion und damit, vermittelt über die Viskositätsregelung, zu den beobachteten Rezeptur- und Qualitätsschwankungen.

4

Schlussfolgerungen

Die Gesamtprozessanalyse eines komplexen Polymerprozesses hat gezeigt, dass detaillierte Data-MiningAnalysen nicht nur für einzelne isolierte Prozessstufen, sondern auch für große, mehrstufige Prozesse durchgeführt werden können. Hierdurch wird die Identifikation versteckter nicht-lokaler Effekte ermöglicht, die anderweitig nur schwer zu entdecken sind. Ein besonderer Vorteil von Data-Mining-Verfahren wie der Untergruppensuche ist, dass die generierten expliziten Regeln direkt im Anwendungskontext interpretiert werden können. Mittels einer speziell angepassten Vorverarbeitungsstrategie (quasi-stationäre Beschreibung auf Zeitfenstern) können Prozess- und Qualitätsdaten unterschiedlicher Zeitauflösung einer gemeinsamen Analyse zugänglich gemacht werden. Die Kombination von Untergruppensuche und Validierung durch ein neuronales Netz im Rahmen eines iterativen Analyseworkflows erlaubt das Herausfiltern eines "sinnvollen" Satzes unabhängiger Regeln zur Beschreibung der interessierenden Zielgröße. Die hier am Beispiel eines Polymerprozesses vorgestellte Vorgehensweise kann direkt auf andere Prozesse übertragen werden. Wie inzwischen durch eine Vielzahl erfolgreicher Anwendungen belegt wird, stellt Data-Mining ein überaus mächtiges neues Werkzeug für die Prozessdatenanalyse dar, das insbesondere zur raschen Aufklärung der Ursachen von Prozessstörungen eingesetzt werden kann. Data-Mining ist somit die Methode der Wahl zur automatisierten Identifikation von Special Causes im Zusammenhang mit Statistical Process Control [5]. Durch das Auffinden von qualitätsbestimmenden Schlüsselgrößen im Prozess und die Aufklärung der zugehörigen Wirkungsketten wird ein ganz wesentlicher Beitrag zum Prozessverständnis geleistet.

Literatur [1] Advances in Knowledge Discovery and Data Mining (Eds: U. M. Fayyad, G. Piatetsky-Shapiro, P. Smyth, R. Uthurusamy), MIT Press, Cambridge 1996. [2] S. Wrobel, Künstliche Intelligenz 1998, 12(1), 6-10. [3] S. Wrobel, in Principles of Data Mining and Knowledge Discovery (Eds: H. J. Komorowski, J. M. Zytkow), Lecture Notes in Computer Science 1263, Springer, Berlin 1997, 78-87. [4] F. Bärmann, F. Biegler-König, Neural Networks 1992, 5(1), 139-144. [5] G. Box, A. Luceno, Statistical Control by Monitoring and Feedback Adjustment, Wiley, New York 1997.

– 4/5 –

Prozessdatenarchiv ~30 gemessene Prozessgrößen Erfassungsrate ~1/s LösungsmittelLösungsmittelRecycling Recycling

Edukte

QualitätsQualitätsprüfung prüfung

Verarbeitung Verarbeitung (MA 1/ MA 2) (MA 1/ MA 2)

Polymerisation Polymerisation Prozessdatenarchiv

Qualitätsdaten

~150 gemessene Prozessgrößen

Prozessdatenarchiv (2 Maschinen) ~ 100 gemessene Prozessgrößen

8 gemessene Qualitätsgrößen

Erfassungsrate ~1/s

Erfassungsrate ~1/s

Erfassungsrate ~1/d

Abbildung 1: Schematische Darstellung des untersuchten Polymerprozesses und Charakterisierung der verfügbaren Prozess- und Qualitätsdaten (Zahl der gemessenen Größen, Erfassungsrate).

Qualitätsgröße

100 90 80 70 60 50

MA 1 MA 2

0

50

100 Zeit [Tage]

150

MA−Parameter

3 2.5 2 1.5 1 0.5

MA 1 MA 2

0

50

100 Zeit [Tage]

150

Abbildung 2: Zeitlicher Verlauf einer ausgewählten Qualitätsgröße, aufgeschlüsselt nach den beiden Verarbeitungsmaschinen MA1 und MA2 (oben), Tagesmittelwerte des durch die Analyse identifizierten qualitätsrelevanten MA-Parameters (unten). Im markierten Zeitraum zwischen 35 und 50 Tagen produzieren MA1 und MA2 signifikant unterschiedliche Qualität.

– 5/5 –

Daten mit niedriger Zeitauflösung

DVV

Daten mit hoher Zeitauflösung

Einteilung in Zeitfenster Zusammenführen der Daten

Analyse

Quasi-stationäre Beschreibung

Untergruppensuche nach (weiteren) “Bestbeschreibern“ NN-Modellierung

Wesentliche Einflussfaktoren Analyse der Einflüsse

Abbildung 3: Workflow zur Prozessdatenanalyse mittels Data-Mining, bestehend aus den beiden Phasen Datenvorverarbeitung (DVV) und eigentliche Analyse. In der Analysephase wird ein neuronales Netz (NN) generiert, welches anschließend zur Prognose der Qualitätsgrößen eingesetzt werden kann.

Qualitätsgröße

100 90 80 70 Daten Modell R = 0.88

60 50

0

50

100 Zeit [Tage]

150

−3

Rezepturgröße

7

x 10

Daten Modell R = 0.71

6.8 6.6 6.4 6.2 6

0

50

100 Zeit [Tage]

150

Abbildung 4: Prognosegüte zweier im Rahmen der Analyse erstellten NN-Modelle: Beschreibung der Qualitätsgröße als Funktion des MA-Parameters und einiger weniger Rezepturgrößen (oben), Beschreibung der wichtigsten dieser Rezepturgrößen als Funktion des Betriebszustands der Nebenanlage "Lösungsmittel-Aufarbeitung" und der Viskosität der Polymerlösung (unten). In der Legende ist jeweils der Korrelationskoeffizient R zwischen Modellprognose und Daten angegeben.

Suggest Documents