Integrale Modellierung von Verteilnetzen und verteilter Erzeugung

Integrale Modellierung von Verteilnetzen und verteilter Erzeugung Thomas Eberl, Prof. Dr.-Ing. Hufendiek (IER) Pascal Wiest, Prof. Dr.-Ing. Rudion (I...
Author: Daniela Kneller
0 downloads 5 Views 5MB Size
Integrale Modellierung von Verteilnetzen und verteilter Erzeugung

Thomas Eberl, Prof. Dr.-Ing. Hufendiek (IER) Pascal Wiest, Prof. Dr.-Ing. Rudion (IEH)

Universität Stuttgart

Oktober 2014

Inhaltsverzeichnis 1

Einleitung/Motivation

1

2

Diskussion und Bewertung bereits angewandter Ansätze und Modelle zur Bestimmung optimaler Verteilnetzausbaumaßnahmen und der Nutzung weiterer Integrationsoptionen 3 2.1

4

2.1.1

Methodik

4

2.1.2

Bewertung des Verfahrens anhand ausgewählter Zielkriterien

7

2.1.3

Zusammenfassende Beurteilung der GKA

2.2

Simulation von Verteilnetzstrukturen

10 11

2.2.1

Methodik

12

2.2.2

Bewertung des Verfahrens anhand ausgewählter Zielkriterien

14

2.2.3

Zusammenfassende Beurteilung der DNA

16

2.3

Erweiterungsfaktor

17

2.3.1

Methodik

17

2.3.2

Bewertung des Verfahrens anhand ausgewählter Zielkriterien

19

2.3.3

Zusammenfassende Beurteilung des EF

22

2.4

Komplexe Lastflussanalyse

23

2.4.1

Methodik

24

2.4.2

Bewertung des Verfahrens anhand ausgewählter Zielkriterien

25

2.4.3

Zusammenfassende Beurteilung der komplexen Lastflussanalyse

26

2.5

3

Grenzkurvenanalyse

Probabilistische Lastflussanalyse

27

2.5.1

Methodik

27

2.5.2

Bewertung des Verfahrens anhand ausgewählter Zielkriterien

30

2.5.3

Zusammenfassende Beurteilung der PLA

33

Modellierungskonzept für Verteilnetze zur Ermittlung des optimalen Netzausbaus unter der Berücksichtigung weiterer Integrationsoptionen

35

3.1

Konzept 1

36

3.2

Konzept 2

37

4

3.3

Konzept 3

37

3.4

Einordnung und Konzeptauswahl

38

Ansätze zur Formulierung repräsentativer Aussagen auf Basis der Betrachtung einzelner Verteilnetze 4.1

Dena-Verteilnetzstudie

40 41

4.1.1

Methodik

42

4.1.2

Bewertung anhand ausgewählter Zielkriterien

44

4.2

BDEW – EEG-bedingter Netzausbaubedarf 2020

46

4.2.1

Methodik

47

4.2.2

Bewertung anhand ausgewählter Zielkriterien

48

4.3

Distribution-Network-Assessment-Tool

50

4.3.1

Methodik

50

4.3.2

Bewertung anhand ausgewählter Zielkriterien

51

4.4

Klassifizierung von Verteilnetzen

52

4.4.1

Methodik

53

4.4.2

Bewertung anhand ausgewählter Zielkriterien

54

4.4.3

Weitere Verfahren zur Klassifizierung

54

5

Zusammenfassung

56

6

Literaturverzeichnis

58

Abbildungsverzeichnis Abbildung 1: Umwandlung der Netztopologie (Eigene vereinfachte Darstellung nach [1]) ..... 5 Abbildung 2: Schematische Darstellung einer Netzverstärkungsmaßnahme mit Hilfe der GKA [1] .......................................................................................................................... 7 Abbildung 3: Simulationsprozess............................................................................................. 11 Abbildung 4: Schema des Verteilnetzmodells ......................................................................... 12 Abbildung 5: Histogramm von gemessenen Haushaltslasten [25]........................................... 28 Abbildung 6: Monte-Carlo Methode zur probabilistischen Lastflussrechnung ....................... 29 Abbildung 7: Auftrittswahrscheinlichkeiten der Knotenspannungen in einem NS-Netz ohne Integrationsoptionen, mit Blindleistungsregelung und mit Wirkleistungsregelung [32] ...................................................................................................................... 32 Abbildung 8: Überblick über die drei gewählten Optimierungskonzepte................................ 36 Abbildung 9: Überblick über das methodische Vorgehen der dena-Verteilnetzstudie [1] ...... 41 Abbildung 10: Übersicht über das methodische Vorgehen [12] .............................................. 46 Abbildung 11: Räumliche Zuordnung der Cluster über das Versorgungsgebiet von BadenWürttemberg [34] ................................................................................................ 53 Abbildung 12: Geografische Verteilung der Verteilnetzbetreiber nach den Modellklassen [20] .................................................................................................................................................. 55

Abkürzungsverzeichnis ARegV

Anreizregulierungsverordnung

BDEW

Bundesverband der Energie- und Wasserwirtschaft

BHKW

Blockheizkraftwerk

BMA

Biomasseanlage

BMU

Bundesministerium für Umwelt, Naturschutz, Bau und Reaktorsicherheit (umbenannt in BMUB)

BNetzA

Bundesnetzagentur

DEA

Dezentrale Erzeugungsanlage

DNA

Distribution-Network-Assessment

EE

Erneuerbare Energie

GKA

Grenzkurvenanalyse

HS

Hochspannung

HöS

Höchstspannung

KoLA

Komplexe Lastflussanalyse

KWKA

Kraft-Wärme-Kopplungs-Anlagen

MS

Mittelspannung

NEP

Netzentwicklungsplan

NGK

Netzgebietsklasse

NS

Niederspannung

PLA

Probabilistische Lastflussanalyse

PVA

Photovoltaikanlage

1 Einleitung/Motivation Durch die klima- und energiepolitischen Ziele erfolgt in den letzten Jahren eine signifikante Umstrukturierung des elektrischen Energiesystems. Die deutlichste Veränderung ist auf der Erzeugungsseite ersichtlich, da hier ein verstärkter Ausbau der erneuerbaren Energien erfolgt. Aufgrund der zum Teil geringen Anschlussleistung von fluktuierenden Erzeugungsanlagen, wie Windkraftanlagen oder Photovoltaik, werden diese häufig im Verteilnetz angeschlossen. Das bedeutet die Aufgabe der Verteilnetze verändert sich von reinen Lastgebieten immer stärker zu Erzeugungsgebieten. Als Folge der veränderten Erzeugungsstruktur resultieren negative Residuallasten mit einem Leistungsfluss in Richtung höherer Spannungsebenen. Da die Verteilnetze jedoch ausschließlich auf die Versorgung der Lasten ausgelegt wurden, führt die Einspeisung in diesen Netzen oft zu Problemen, wie beispielsweise in der Spannungshaltung oder der Überlastung der Betriebsmittel. Dies erfordert eine Adaption der bestehenden Netze auf die neue Situation. Teilweise kann dies durch die Ertüchtigung der aktuellen Netzstrukturen sowie durch den Netzausbau erreicht werden. Zusätzlich dazu wird die Planung der Verteilnetze zunehmend komplexer, da weitere Auslegungsfälle berücksichtigt werden müssen. Verschiedene Studien belegen, dass im Verteilnetz ein Ausbau der Stromkreislänge um mehrere tausend Kilometer notwendig ist [1]. Daher stehen aktuell auch verschiedene Flexibilisierungsoptionen zur optimierten Integration der erneuerbaren Energien in der Diskussion. Diese verfolgen allesamt das Ziel den notwendigen Netzausbau zu verringern. Aus diesen Gründen verfolgt diese Studie zum einen das Ziel verschiedene Methoden zur Bestimmung optimaler Ausbaumaßnahmen zu recherchieren und zu bewerten als auch Ansätze zur Formulierung repräsentativer Aussagen zu beschreiben. Zusätzlich dazu sollen Ansätze für neue Modellierungskonzepte für die Verteilnetze entwickelt und beschrieben werden. Die Studie unterteilt sich in insgesamt 3 Arbeitspakete. Zu Beginn sollen bereits angewandte Ansätze und Modelle zur Bestimmung optimaler Verteilnetzausbaumaßnahmen beschrieben werden. In diesem Kapitel erfolgt zusätzlich zur Beschreibung der Methodik eine Bewertung anhand von vordefinierten Zielkriterien. Ausgehend von den bereits angewandten Methoden sollen Ansätze für neue Modellierungskonzepte für die Verteilnetze zur Ermittlung optimaler Ausbaumaßnahmen beschrieben werden. Diese Ansätze können weitere Integrationsoptionen, wie zum Beispiel Last- und Einspeisemanagement oder der Ausbau dezentraler Speichertechnologien, berücksichtigen. Abschließend werden Ansätze zur Formulierung repräsentativer Aussagen beschrieben. Dabei wird analysiert wie aus den Berechnungen des Netzausbaube1

darfs einzelner Gebiete auf den notwendigen Netzausbau größerer Regionen wie zum Beispiel Deutschland geschlossen werden kann.

2

2 Diskussion und Bewertung bereits angewandter Ansätze und Modelle zur Bestimmung optimaler Verteilnetzausbaumaßnahmen und der Nutzung weiterer Integrationsoptionen In diesem ersten Arbeitspaket werden bereits angewandte Ansätze und Modelle zur Bestimmung optimaler Verteilnetzausbaumaßnahmen und der Nutzung weiterer Integrationsoptionen erläutert und mit Hilfe sogenannter Zielkriterien bewertet. Als Erstes werden die Verfahren im Hinblick auf das Zielkriterium Genauigkeit hin untersucht. Dabei wird zum einen abgeschätzt wie exakt die zugrunde liegenden Netztopologien und Verbraucher- bzw. Erzeugungseinheiten berücksichtigt werden. Aufbauend darauf findet eine Abschätzung über die Genauigkeit der Ergebnisse zur Quantifizierung des Leitungsausbaus statt. Des Weiteren fließen die bei der Anwendung eines Verfahrens zu treffenden Vereinfachungen und Annahmen in die Betrachtung mit ein. Neben diesem Aspekt orientiert sich die Untersuchung auch an der jeweiligen Verfügbarkeit von Daten. Es wird analysiert, auf welcher Datengrundlage die jeweilige Methode aufbaut und welche Charakteristika diese sowohl im Hinblick auf deren Umfang als auch auf deren Qualität aufweisen. Als Beispiel sei die Angabe von Anzahl bzw. Typ dezentraler Erzeugungsanlagen, Lasten oder Spannungswerten an verschiedenen Netzknoten genannt. Dieser Bewertung der Datenverfügbarkeit schließt sich in einem nächsten Schritt die Berücksichtigung dynamischer Aspekte und Vorgänge an. Wiederum werden die fünf hier betrachteten Verfahren analysiert und dahingehend bewertet, inwiefern diese eine mögliche Netzentwicklung über mehrere Jahre hinweg abbilden oder Aussagen über die Berücksichtigung von kurzzeitigen dynamischen Effekten1 liefern können. Außerdem wird betrachtet, ob ein Verfahren verschiedene weitere Optionen zur Integration von erneuerbaren Energien (z.B. regelbarer Ortsnetztransformator oder Elektrizitätsspeicher) zulässt, sei es auf Seiten der Netzbetriebsmittel oder auf Seiten der Erzeugung und des Verbrauchs. Als weiteres Zielkriterium wird zudem die Praktikabilität einer Methode untersucht, wobei in diesem Zusammenhang die Benutzerfreundlichkeit der verwendeten Software bzw. das Vorhandensein einer solchen Anwendungshilfe Eingang in die Bewertung findet. Im Gegensatz zu diesen sich größtenteils auf technische Aspekte beziehende Untersuchungskriterien wird in einem weiteren Schritt berücksichtigt, ob und wenn ja, wie hoch deren wissenschaftliche bzw. politische Akzeptanz ist und ob sie als etablierte Methoden angesehen werden. Hierbei können auch mögliche Erfahrungswerte zum Umgang mit einer Methode

1

Damit sind statische Vorgänge beschrieben. Werden transiente Ausgleichsvorgänge beschrieben, so ist dies explizit erwähnt.

3

eine Rolle spielen. Abschließend werden die hier betrachteten Verfahren noch auf die Kosten der Datenbeschaffung und Umsetzung hin untersucht. Bewertet werden in diesem Zusammenhang sowohl finanzielle und personelle Kosten als auch der zeitliche und der gegebenenfalls auftretende rechnerische Aufwand, der der jeweiligen Methode zugrunde liegt.

2.1 Grenzkurvenanalyse Mit der GKA wird im Folgenden ein Verfahren vorgestellt, welches die Auswirkungen des Zubaus an dezentralen Erzeugungsanlagen (DEA) auf das Verteilnetz abbildet, um den Netzausbau anschaulich zu quantifizieren. Es wird die Leistungsfähigkeit von elektrischen (Verteil-) Netzen in Grenzkurven bewertet, indem die übertragbare Wirkleistung einer Leitung in Abhängigkeit der Leitungslänge aufgetragen wird. Verschiedenen Betriebszuständen von Strängen werden in diesem Diagramm verschiedene Arbeitspunkte zugewiesen, die durch ein Wertepaar - bestehend aus einem Leistungswert und einer zugehörigen Leitungslänge - definiert werden. Falls diese Punkte außerhalb eines bestimmten Bereiches liegen, welcher durch zwei Grenzkurven aufgespannt wird, werden gewisse Grenzwerte überschritten und somit kritische Netzzustände detektiert. Mit Hilfe dieser Grenzkurven kann also „die aktuelle Netzbelastung im Vergleich zur maximalen Netzleistungsfähigkeit visualisiert werden, [...] [was] Rückschlüsse auf den zu erwartenden Netzausbaubedarf […] [2]“ ermöglicht. 2.1.1

Methodik

An dieser Stelle soll nun detaillierter auf die Erstellung solcher Grenzkurven eingegangen werden: In einem ersten Schritt müssen sowohl die vorhandene Netztopologie umgewandelt als auch relevante Rechengrößen bestimmt werden. Es sei angemerkt, dass für die im nächsten Kapitel folgende Bewertung digitalisierte Werte für Netzkenngrößen als bekannt vorausgesetzt werden. Mit Ausnahme von geschlossenen Ringen, Maschennetzen und Stützpunktnetzen werden reale Netzstrukturen in vereinfachte Darstellungen übertragen, wobei nur Hauptstränge betrachtet und abgehende Stiche als jeweilige Lasten modelliert werden. Des Weiteren wird die reale Lastverteilung entlang des betrachteten Stranges nicht berücksichtigt, sondern in mehreren Schritten in eine gleichmäßige Lastverteilung überführt. Dies ist in Abbildung 1 zu sehen. In einem zweiten Schritt werden nun die ermittelten Daten in ein sogenanntes Grenzkurvendiagramm aufgenommen und die Lage der resultierenden Wertepaare (Betriebszustände) aus Leistungswert und Leitungslänge in Bezug auf eine Grenzkurve interpretiert. Jene Grenzkur4

ven können nach [2] entweder mit Hilfe eines numerischen oder eines analytischen Verfahrens erstellt werden, wobei Letzteres die Einführung des sogenannten Last-Angriffsfaktors 𝜀𝐿𝑎𝑠𝑡 beziehungsweise DEA-Angriffsfaktors 𝜀𝐷𝐸𝐴 erfordert.

Abbildung 1: Umwandlung der Netztopologie (Eigene vereinfachte Darstellung nach [1])

Das numerische Verfahren basiert gemäß [2] auf einer Modellierung der Netzkonfiguration und ermittelt die Datenpaare der Grenzkurve durch iterative Abläufe. Im Zuge des analytischen Verfahrens wird eine Netzstruktur mit typisierter Lastverteilung, so wie sie beim numerischen Verfahren Verwendung findet, in eine Ersatzlast mit kürzerer Leitungslänge transformiert. Diese Maßnahme wird in den relevanten Gleichungen2 der analytischen Methodik durch die Einführung des Angriffsfaktors 𝜀 berücksichtigt, dessen Werte zwischen 0,5 und 1,0 variieren können. Besteht beispielsweise der betrachtete Strang ausschließlich aus einer Punktlast am Leitungsende, so ist im Prinzip keine Transformation nötig und eine Berücksichtigung in den Gleichungen findet durch Multiplikation mit dem Faktor 1 statt. Weist ein Strang jedoch viele Einspeise- bzw. Entnahmestellen auf, so werden durch die Transformation auf einen Strang mit einer Punktlast große Veränderungen vorgenommen, was durch eine Multiplikation mit einem Angriffsfaktor von 0,5 in den Gleichungen berücksichtigt wird. Dieser Faktor ist demnach abhängig von der Anzahl an Einspeise- bzw. Entnahmestellen entlang eines Stranges einer typisierten Netzstruktur. Basis hierfür ist der physikalische Zusammenhang, dass ein Strang mit homogener Lastverteilung (oder auch DEA-Verteilung) dasselbe physikalische Verhalten aufweist wie ein Strang mit halber Länge und einer Punktlast am

2

An dieser Stelle sei auf die folgenden Gleichungen und auf eine detaillierte Herleitung des analytischen Verfahrens in Quelle [2] verwiesen.

5

Leitungsende. Somit skaliert der Angriffsfaktor 𝜀 homogen verteilte Lasten oder Einspeiser auf eine fiktive Punktlast bzw. punktförmige Einspeisung. [2] Um nun die maximale Wirkleistungsübertragung in Abhängigkeit der Leitungslänge für verschiedene Netzkonzepte zu berechnen, wird die komplexe Spannungsgleichung einer Leitung herangezogen: ̅2 = 𝑈 ̅1 + 𝑈 ̅𝛥 𝑈

(1)

̅1 : 𝑈

Spannung am Anfang eines Stranges

̅2 : 𝑈

Spannung am Ende eines Stranges

̅𝛥 : 𝑈

Spannungsabfall bzw. –anstieg entlang einer Leitung

Nach weiteren Rechenschritten folgt unter Berücksichtigung des Angriffsfaktors ε eine Gleichung für den maximal übertragbaren Wirkstrom. Darauf aufbauend lässt sich eine Gleichung für die maximal übertragbare Wirkleistung ermitteln, wobei eine Fallunterscheidung bezüglich des Nennstromes vollzogen wird [2]: ̅1 | ⋅ |𝑈 ̅𝛥 | √3 ⋅ |𝑈 𝑃(𝐿) = {(𝑅′ ⋅ 𝐿 − 𝑋 ′ ⋅ 𝐿 ⋅ tan 𝜑) ⋅ 𝜀 ̅1 | ⋅ 𝐼𝑁𝐸𝑁𝑁 √3 ⋅ |𝑈

|𝐼 |̅ < 𝐼𝑁𝐸𝑁𝑁 |𝐼 |̅ ≥ 𝐼𝑁𝐸𝑁𝑁

P(L):

Maximal übertragbare Leistung als Funktion der Leitungslänge

𝑅′ :

Widerstandsbelag der Leitung

𝑋′:

Reaktanzbelag der Leitung

L:

Länge einer Leitung

(2)

Nähere Informationen zur Herleitung finden sich in [2] und zu den Angriffsfaktoren in [1] und [3]. Für die analytische GKA werden durchschnittliche Angriffsfaktoren bestimmt und 𝜀𝐷𝐸𝐴 = 0,55 gewählt. Im Zuge eines dritten Schrittes folgt die Anwendung des Verfahrens. Hierbei wird jeder Strang eines Versorgungsgebietes einem Netzkonzept zugeordnet, wobei für jedes Netzkonzept ein Grenzkurvendiagramm existiert. In ein solches Diagramm werden anschließend alle Stränge eines Netzkonzeptes eingetragen, wodurch eine Punktwolke entsteht, deren Lage eine Aussage über die Versorgungssituation zulässt. Da ein prognostizierter Zubau an DEA6

Leistung eine Verschiebung der Punktewolke nach sich zieht und im schlimmsten Fall die Grenzkurven schneidet, können kritische Betriebszustände erkannt und beispielsweise durch Aufteilung des betroffenen Stranges in zwei unkritische Stränge (Parallelverkabelung) aufgelöst werden; als Beispiel dient hier Abbildung 2. Neben der eben genannten Parallelverkabelung existieren bekanntlich noch weitere Netzverstärkungsmaßnahmen, denen in der GKA durch ein Verschieben oder ein Aufweiten der Grenzkurven entsprochen werden kann.

Abbildung 2: Schematische Darstellung einer Netzverstärkungsmaßnahme mit Hilfe der GKA [1]

2.1.2

Bewertung des Verfahrens anhand ausgewählter Zielkriterien

Aus obiger Definition lassen sich nun verschiedenste Vor- und Nachteile ableiten. Mit relativ geringem Rechenaufwand können große Netzdatenmengen automatisiert untersucht werden, sofern digitalisierte Netzdaten vorliegen. Zudem kann die Wirkungsweise sowohl von konventionellen als auch von innovativen Netzkonzepten abgebildet werden. Ein weiterer großer Vorteil dieses Verfahrens liegt in der anschaulichen Visualisierung von Netzzuständen, was ihn von den meisten alternativen Methoden unterscheidet. Mit dem numerischen und dem analytischen Verfahren sind außerdem zwei Vorgehensweisen zur Ermittlung der Grenzkurven gegeben, die zusätzlich auch zur gegenseitigen Validierung geeignet sind. Somit kann die GKA zwar dazu eingesetzt werden kritische Situationen im Netz zu erkennen, eine automatisierte Lösung der auftretenden Probleme liefert dieses Verfahren jedoch nicht; es kann nur die Wirkungsweise möglicher Maßnahmen zur Problembehebung bewerten wie es in Abbildung 2 am Beispiel der Parallelverkabelung gezeigt ist.

7

Nach dieser eher allgemeinen Bewertung wird nun entsprechend der ausgewählten Zielkriterien vorgegangen: Wie bereits in der Detailinformation zur GKA angesprochen, stellen (digitalisierte) Pläne der realen Netzstruktur die Grundlage des Verfahrens dar, jedoch werden einige Vereinfachungen getroffen, die eine hohe Genauigkeit bei der Modellierung der Netztopologie verhindern. Es werden nur Hauptstränge betrachtet und abgehende Stränge als jeweilige Lasten modelliert. Auch die in Abbildung 1 gezeigten Vereinfachungen beeinträchtigen zusammen mit der Verwendung des Angriffsfaktors die Genauigkeit des Verfahrens. Nichtsdestotrotz basiert die GKA auf einer detailgetreuen digitalisierten Netztopologie, was sich beispielsweise im Vergleich zu der Methodik des EF als vorteilhaft erweist. Bisher wurde die Annahme getroffen, dass bereits digitalisierte Pläne der Netztopologie vorliegen. Wird die notwendige Datenfindung und Datenaufbereitung in die Bewertung miteinbezogen, so kann verständlicherweise nicht von einer hohen Verfügbarkeit der Netzdaten gesprochen werden. Liegt dem Anwender jedoch die Netzstruktur in digitalisierter Form vor, so ist die Ermittlung der entsprechenden Grenzkurven beim GKA mit relativ wenig Aufwand verbunden. Zudem werden für die Konstruktion der Grenzkurven nur wenige Leitungsparameter gemäß Formel (2) benötigt, sofern das analytische Verfahren zugrunde gelegt wird. Sowohl das numerische als auch das analytische Verfahren zur Ermittlung der Grenzkurve eines Stranges reduzieren somit die nötige Datenbeschaffung. Nun stellt sich die Frage inwieweit die GKA mit dieser geringen Anzahl an benötigten Daten dynamische Aspekte berücksichtigen kann. Wurde für ein Netzkonzept bereits eine entsprechende Grenzkurve ermittelt, so kann Dynamik insofern berücksichtigt werden, als dass bestimmte Parameter wie die Höhe einer Leistungseinspeisung an einer bestimmten Leitungslänge oder der Ort der Einspeisung solange schrittweise verändert werden bis kritische Zustände auftreten; dies lässt sich an einer Überschreitung der oberen oder unteren Grenzkurve erkennen. Es können also immer nur einzelne Betriebszustände analysiert werden. Somit wird auch eine Betrachtung von längeren Zeiträumen, etwa über mehrere Jahre hinweg, aufgrund der in diesem Fall großen Datenmengen relativ aufwendig. Zusammenfassend lässt sich sagen, dass eine dynamische Betrachtung mit Hilfe der GKA abhängig ist von den gewählten Intervalllängen; denn auch bei sehr kurzen Zeitschritten, wie sie etwa bei der Analyse von Lastschwankungen oder Lastausfällen von Nöten sind, muss jeder sich einstellende Betriebspunkt in das Grenzkurvendiagramm eingetragen und dessen Lage bezüglich der Grenzen analysiert werden, was zeitkontinuierliche Untersuchungen verhindert. Bei längeren Untersu-

8

chungszeiträumen kann hingegen die Menge an anfallenden Daten zum Problem werden, sofern auch hier kleine Schrittweiten gewählt werden. Analog zur Berücksichtigung der Dynamik soll die GKA auch im Hinblick auf mögliche Integrationsoptionen bewertet werden. Da Veränderungen der an der GKA beteiligten Parameter als neue Betriebs- bzw. Arbeitspunkte in das Diagramm miteingehen, können Veränderungen im Netz „durch Entwicklungspfade von Arbeitspunkten abgebildet werden [2]“. Wird beispielsweise die Last, die Leitungslänge oder die Einspeisung aus DEA soweit erhöht, dass ein (bisher zulässiger) Entwicklungspfad von Arbeitspunkten eine Grenzkurve schneidet, so können für diesen Fall verschiedene Netzverstärkungsmaßnahmen getestet werden, was sich in einer Aufweitung oder einer Verschiebung der Grenzkurven äußert. Somit finden Integrationsoptionen auf Seiten der Last bzw. der Erzeugung ebenso Berücksichtigung wie auf Seiten der Netzbetriebsmittel, wobei eine Veränderung Letztgenannter eine Neuberechnung der Grenzkurven bedingt; als Beispiele für solche Änderungen können der Einbau von Blindleistungsquellen oder die Modifikation bestehender Transformatoren zu regelbaren Ortsnetztransformatoren und Spannungsregler sein. Wird in einem weiteren Schritt die praktische Umsetzbarkeit der GKA untersucht, so sind deren relativ einfache Anwendung aufgrund weniger Parameter und deren besondere Visualisierung von Ergebnissen zu betonen. Nur bei der Anwendung des numerischen Verfahrens werden Rechner benötigt, da das analytische Verfahren ohne aufwendige Iterationsschritte auskommt. Des Weiteren existiert nach [2] ein rechnergestütztes Grenzkurvenplanungstool, welches auf dem analytischen Verfahren basiert und „die Vorgabe topologischer und betrieblicher Parameter [ermöglicht], so dass die Vorteilhaftigkeit verschiedener konventioneller und innovativer Netzkonzepte leicht bewertet werden kann [2]“. Dieses Planungstool zeichnet sich zudem durch eine einfache Bedienoberfläche und geringe Systemanforderungen aus. Da das Tool zur Aus- und Weiterbildung von Ingenieuren eingesetzt wird, kann dieses als etablierte Methode bezeichnet werden. Auch die Nennung in der dena-Verteilnetzstudie zusammen mit der sogenannten Detailanalyse zu Untersuchungen im NS-Bereich stützt die Anwendung der GKA, denn diese beiden Verfahren gemäß [1] auf realen Netzstrukturen aus verschiedenen Regionen Deutschlands, da hierfür eine hohe Anzahl von Verteilnetzbetreibern Daten zur Verfügung gestellt hat. Die Bewertung der GKA nach Kostengesichtspunkten hängt stark vom Aufwand ab, der nötig ist, um reale Netzdaten zu gewinnen. Wird angenommen, dass diese bereits existieren und dem Bearbeiter vorliegen, dann kann sowohl der zeitliche als auch der finanzielle Aufwand 9

als gering angesehen werden. Im Vergleich zu der analytischen Methodik ist der Aufwand zur Umsetzung des numerischen Verfahrens aufgrund der benötigten Software und anfallenden Berechnungszeit der iterativen Abläufe höher. Auf dem analytischen Verfahren basierend bietet zudem ein Planungstool eine einfache Anwendung der Grenzkurvenanalyse an. 2.1.3

Zusammenfassende Beurteilung der GKA

Soll der Netzausbaubedarf von Verteilnetzen mit Hilfe der GKA bestimmt werden, so ist zu beachten, dass bereits digitalisierte Pläne und Abbildungen realer Netzstrukturen zur Verfügung stehen sollten. Denn liegen diese Informationen vor, bietet sich mit der GKA eine zeitsparende und kostengünstige Möglichkeit, Auswirkungen von Netzaus- bzw. Netzumbaumaßnahmen zu erforschen, indem Parameter variiert und deren Einfluss visualisiert wird. Konkret arbeitet die GKA dabei mit den folgenden Eingangsdaten: Je untersuchter Netzstrang ist ein Parametersatz nötig, welcher sowohl die Länge des Stranges und dessen Typ als auch die entlang des Stranges anliegenden Leistungen angibt. Dies bedeutet, dass die Leistungen der Verbraucher und die Leistungen der einspeisenden DEA berücksichtigt werden. Zusätzlich zu diesen Parametersätzen gibt [1] auch eine Liste der ONS pro Gemeinde als Eingangsparameter für die Methodik der GKA mit an. Im Unterschied zur Detailanalyse, die ebenfalls in Quelle [1] als alternatives Verfahren zur Bestimmung des erforderlichen Netzausbaus genannt wird, nutzt die GKA demnach eine „Ersatzdarstellung der Netzstränge der Ist-Situation“ [1]. Diese vereinfachten Strukturen werden jedoch auf Basis einer realen Netztopologie erstellt. Stehen diese genannten Eingangsparameter zur Verfügung, so können mit der GKA auch dynamische Aspekte berücksichtigt werden. Zudem existieren bereits Planungstools, die die Arbeit mit dieser Methode erleichtern und auch in der Lehre Einsatz finden. Bei der Berücksichtigung verschiedener Integrationsoptionen sollte zur Kenntnis genommen werden, dass die Integration verschiedener Maßnahmen eine Neuberechnung der Grenzkurve des jeweiligen Netzkonzeptes bedingen können. Außerdem kann ein auftretender Netzverstärkungsbedarf in abgehenden Stichausläufern nicht durch die GKA identifiziert werden, da reale Netzstrukturen vereinfacht und zu Netzkonzepten zusammengefasst werden. Abschließend lässt sich sagen, dass das Einsatzpotential der GKA vor allem in der operativen und strategischen Netzplanung liegt und somit die „wirtschaftlichste Betriebsmittelkombination zur Erfüllung der zukünftigen Versorgungsaufgaben [2]“ identifiziert werden kann.

10

2.2 Simulation von Verteilnetzstrukturen Das im Folgenden beschriebene Distribution-Network-Assessment-Tool (DNA-Tool) ermöglicht die Simulation und Optimierung von Verteilnetzen. Das Betrachtungsgebiet (z.B. BadenWürttemberg) wird dazu in Regionen unterteilt. Der Simulationsprozess ist in Abbildung 3 dargestellt.

Abbildung 3: Simulationsprozess

Für die einzelnen Regionen werden, wie in Abbildung 4 dargestellt, Hochspannungsnetze (HS-Netze) mit nachgelagerten Mittel- und Niederspannungsnetzen (MS- und NS-Netze) abgebildet. In einem Simulationslauf werden die Netztopologie, die Elektrizitätsnachfrage/ einspeisung, der elektrische Lastfluss und der notwendige Leitungsausbau bestimmt. Um die Abhängigkeit von der Ausprägung einer bestimmten Netzstruktur zu vermindern, werden mehrere Simulationsläufe durchgeführt (Monte-Carlo-Simulation). Damit können die durchschnittliche Häufigkeit von Spannungsband- und Strombelastbarkeitsverletzungen sowie die Länge des Leitungsausbaus in den einzelnen Regionen bzw. Netzebenen unter Berücksichtigung der heterogenen Verteilnetzstrukturen abgeleitet werden. Der folgende Abschnitt beschreibt detailliert die einzelnen Schritte eines Simulationslaufes.

11

2.2.1

Methodik

Abbildung 4: Schema des Verteilnetzmodells

Einzelnen Regionen werden Umspannanlagen zwischen Hochspannungs- und Übertragungsnetzebene zugeordnet und nach dem Ort der Umspannanlage benannt. Der Standort, die Leistung und die Netzebene der Photovoltaik-, Windkraft-, Biomasse- und Wasserkraftanlagen sind im EEG-Anlagenregister veröffentlicht [4]. Unter Berücksichtigung ihrer geographischen Lage und der Netzgruppenzugehörigkeit werden diese den einzelnen Regionen zugeordnet. Die Netztopologie wird als Graph modelliert. Ausgehend vom ersten Knoten wird das Netz sukzessive um Verbindungsleitungen und weitere Netzknoten ergänzt. Es wird angenommen, dass die Netze in den zu betrachteten Spannungsebenen eine radiale Struktur aufweisen und aus Netzknoten und deren elektrischen Verbindungsleitungen bestehen. Außerdem wird angenommen, dass die gesamte Leitungslänge des Hochspannungsnetzes einer Region von deren Bevölkerung abhängig ist. Die Netzlänge der Mittel- und Niederspannungsnetze und deren Anschlussdichte entsprechen Durchschnittswerten dieser Spannungsebenen in Deutschland3 [5]. Um die heterogene Struktur von Verteilnetzen abzubilden, wird auf in der Literatur veröffentlichte Beispielnetze zurückgegriffen. Daraus wird eine Wahrscheinlichkeitsverteilung über die Anzahl der Nachfolger der Netzknoten eines Beispielnetzes bestimmt und damit die Anzahl der Nachfolger eines Netzknotens simuliert. Um die Leitungslänge zwischen einem Netzknoten und dessen Vor3

Durchschnittliche Leitungslänge = Leitungslänge in Deutschland/Anzahl der Transformatoren in Deutschland

12

gänger zu simulieren, wird die Verteilung der Leitungslänge zwischen den Knoten und deren Vorgängern der Beispielnetze bestimmt. Danach wird diese auf die Anschlussdichte je Region und Netzebene skaliert und es können die Leitungslängen zwischen den Knoten simuliert werden. Die beschriebene Methodik erlaubt es, spezifische Netze der verschiedenen Spannungsebenen zu simulieren. Diese werden zu einem alle Spannungsebenen umfassenden Verteilnetz je Region zusammengesetzt. In einem Hochspannungsnetz befindet sich demnach an jedem Netzknoten ein weiteres MS-Netz, an dessen Netzknoten wiederum zufällig generierte NS-Netze angeschlossen sind4. Die Elektrizitätsnachfrage, welche einer Netzregion zugeordnet ist, leitet sich aus der Gesamtnachfrage nach Elektrizität in Deutschland ab [6]. Dazu wird eine Proportionalität der Nachfrage zur Einwohnerzahl der jeweiligen Region angenommen. In Regionen mit einer hohen Einwohnerzahl wird demnach eine hohe Nachfrage angenommen. Die Verteilungen über die Spannungsebenen basieren beispielsweise auf den Daten der EnergieDienst GmbH, einem der geographisch größten Verteilnetzbetreiber im Süden von Baden-Württemberg [7]. Deren Verteilung auf die einzelnen Knoten in den Netzen der verschiedenen Spannungsebenen liefern erneut die Beispielnetze. Die Erzeugungsanlagen in einer Region werden den Anschlussknoten zufällig zugewiesen, bis die Erzeugungskapazität einer Region erreicht ist. Das stündliche Leistungssaldo an einem Netzknoten ergibt sich aus der Summe der auf Basis von historischen Profilen simulierten Last und Einspeisung. Bei MS-/HS-Netzen ist eine zusätzliche Addition des Leistungssaldos der untergeordneten Netzebene notwendig. Zur Betrachtung der Auswirkungen dezentraler Elektrizitätserzeugung auf den Verteilnetzbetrieb sind insbesondere die Knotenspannungen und Stromflüsse in den Leitungen zu bestimmen. Die Berechnung der Knotenspannung basiert auf einem linearen Verfahren nach5 [8]. Die relative Spannungsänderung ∆u im Bezug zur Nennspannung am Anschlussknoten beschreibt Gleichung (3):

4

Zur Reduktion der Komplexität ist es möglich, die Anzahl der unterschiedlichen zufällig generierten Netze auf eine bestimmte Anzahl zu reduzieren und damit die Simulationsgeschwindigkeit zu erhöhen. 5 Für die Berechnung werden folgende Annahmen getroffen: A) Die betrachteten Leitungen sind elektrisch kurz. Dazu muss die Leitungslänge deutlich kleiner als die Wellenlänge der Spannung sein. Dies ist bei Freileitungen bei einer Länge von bis zu ca. 6.000 km und bei Kabeln bei einer Länge von bis zu ca. 50 km zulässig [15]. B) Leitungen verhalten sich bereits bei kleinen Leistungen übernatürlich und sind ohmsch-induktiv. Bei einem übernatürlichen Betrieb von Leitungen ist der Lastwiderstand kleiner als der Wellenwiderstand. C) Der Spannungswinkel zwischen Leitungsanfang und Leitungsende ist gleich null. D) Die Spannungsabhängigkeit der Lasten und der Querspannungsabfall werden vernachlässigt.

13

∆u =

S∙(R∙cos|φ|+X∙sin|φ|) U2

S:

Maximale Scheinleistung am Anschlussknoten

φ:

Phasenwinkel des Verbrauchers am Anschlussknoten

R:

Resistanz an Knoten x

X:

Reaktanz an Knoten x

U:

Nennspannung

(3)

Durch den parallelen Ausbau von Leitungen können Spannungsband- und Strombelastbarkeitsverletzungen vermieden werden. Damit kann der Spannungsanstieg durch die Einspeisung von Erzeugungsanlagen gesenkt und gleichzeitig die thermische Belastbarkeit eines Leitungsabschnitts erhöht werden. 2.2.2

Bewertung des Verfahrens anhand ausgewählter Zielkriterien

Obwohl auch das DNA-Tool für alle Netzebenen mit Ausnahme der Höchstspannungsebene eingesetzt werden kann, wird bei diesem Verfahren die Heterogenität der Verteilnetze (in Baden-Württemberg) in besonderer Weise berücksichtigt. Dieser Vorteil gegenüber anderen Methoden resultiert - wie bereits bei der Definition der Methode kurz erwähnt – durch eine geringere Abhängigkeit der Ergebnisse von verschiedenen charakteristischen Netzstrukturen und wird realisiert mit Hilfe der Durchführung mehrerer Simulationsabläufe. Als weiterer positiver Aspekt sollte zudem der geringe Bedarf an Daten genannt werden. Jedoch kann der Einsatz des Verfahrens auch eingeschränkt werden durch die eventuell anfallenden hohen Berechnungsdauern. Im Folgenden wird nun auch die Methodik des DNA-Tools auf die festgelegten Zielkriterien hin untersucht. Die Nutzung von aggregierten Daten kann sich negativ auf die Genauigkeit auswirken. Es werden Beispielnetze genutzt, die Netztopologie durch die Bildung von Graphen modelliert und mit Hilfe einer Monte-Carlo-Simulation Durchschnittswerte ermittelt. Als Ergebnis liefert dieses Verfahren damit auch Aussagen über den benötigten Netzausbau auf Basis verschiedener Szenarien. Dabei wird sowohl der flächendeckende Einbau regelbarer Ortsnetztransformatoren angenommen als auch zwei mögliche Maßnahmen des Netzausbaus betrachtet. Dies bedeutet aber auch, dass neben der Wirkleistungsreduktion und dem tatsächlichen Ausbau des Netzes durch Parallelverkabelung keine weiteren Alternativen Berücksichtigung finden.

14

Ebenfalls basierend auf dem Vorteil der Notwendigkeit einer geringen Datenmenge lässt sich mit dem Punkt der Datenverfügbarkeit ein weiteres Zielkriterium positiv bewerten. Denn die wenigen aggregierten Daten, die für eine erfolgreiche Simulation benötigt werden, entstammen zum einen der Informationsplattform der deutschen Übertragungsnetzbetreiber (Anlagenstammdaten) und zum anderen den Quellen [13] und [14], wobei sämtliche in diesem Zusammenhang betrachtete Quellen dem Anspruch von Aktualität genügen. Das Verfahren kann mit sehr wenigen Beispielnetzen durchgeführt werden. Die Genauigkeit kann durch die Nutzung weiterer Beispielnetze erhöht werden. Im nächsten Schritt wird das DNA-Tool im Hinblick auf dynamische Aspekte untersucht bzw. bewertet. Wie bereits bei den vorherigen Verfahren soll sowohl die Dynamik über einen längeren Zeitraum, als auch über kürzere Zeitdauern - wie etwa Lastschwankungen über den Tagesverlauf - betrachtet werden. Es stellt sich heraus, dass beide Anforderungen durch das DNA-Tool erfüllt werden können. Das Verfahren kann beliebig skaliert werden, jedoch ist keine Berücksichtigung von Ausgleichsvorgängen, wie z.B. keine Kurzschlussstromberechnung, möglich. Denn es werden Lastflüsse analysiert, mit deren Hilfe etwaige Spannungsänderungen mit Auswirkung auf nachfolgende Netzknoten und Strombelastbarkeitsverletzungen infolge der Einspeisung dezentraler Erzeugungsanlagen detektiert werden können. Diese Lastflüsse resultieren aus einer gesamten Elektrizitätsnachfrage in Deutschland, die gemäß [6] proportional zu den Einwohnerzahlen einer bestimmten Region ist. Mögliche Integrationsoptionen berücksichtigt das DNA-Tool nicht nur, indem von einem flächendeckenden Einsatz von regelbaren Ortsnetztransformatoren ausgegangen wird. Es können sowohl die Auswirkungen einer gezielten Wirkleistungsreduktion als auch Elektrizitätsspeicher berücksichtigt werden. Über die eben genannten Maßnahmen hinaus findet jedoch derzeit keine weiteren Optionen Eingang in die Betrachtung. Aus den bisher behandelten Zielkriterien lässt sich bereits ableiten, dass sich die Methodik des DNA-Tools auch bei der praktischen Umsetzbarkeit als vorteilhaft erweist. Denn es werden nur wenige Daten benötigt, wobei eben diese öffentlich zugängig sind. Doch trotz dieser Tatsache kann eine Simulation unter Umständen viel (Rechen-) Zeit in Anspruch nehmen, was sich in erster Linie dadurch begründen lässt, dass es gemäß Abbildung 3 zu mehreren Simulationsdurchläufen kommet. Zwar existiert, etwa im Gegensatz zur Grenzkurvenanalyse (bisher) noch keine einfache Bedienoberfläche, welche eine intuitive Bedienung ohne tiefgreifende Vorkenntnisse des Anwenders erlauben würde, doch ist das DNA-Tool auf Basis von MATLAB aufgebaut und kann über dessen Interface gesteuert werden.

15

Mit Hilfe des hier betrachteten Instruments lassen sich sowohl detaillierte als auch vereinfachte Untersuchungen anstellen, wobei Erstgenannte mehr Berechnungszeit in Anspruch nehmen. Eine solche konkrete und detaillierte Analyse wurde bereits anhand des Netzes von Baden-Württemberg durchgeführt (vgl. [16]). Zum Abschluss dieser Bewertung wird noch auf die entstehenden Kosten eingegangen. Dabei hält sich der Aufwand an Recherchearbeiten in Grenzen, da nur wenige Eingangsdaten benötigt werden und diese zudem öffentlich zur Verfügung stehen. Diese beiden Aspekte begründen die insgesamt niedrigen Kosten der Datenbeschaffung. Neben diesem kostenreduzierenden Aspekt müssen jedoch auch die in bestimmten Fällen auftretenden langen Rechenzeiten in eine gesamtheitliche Betrachtung miteinfließen. 2.2.3

Zusammenfassende Beurteilung der DNA

Die in diesem Kapitel beschriebene Methodik erlaubt es, den notwendigen Netzausbau auf Basis einer Simulation der Verteilnetze zu quantifizieren. Damit kann die Heterogenität der Netzstruktur und weiterer regionenspezifischer Eingangsparameter in verschiedenen Regionen in Baden-Württemberg abgebildet werden. In Abgrenzung zu den beiden anderen hier betrachteten Verfahren arbeitet das DNA-Tool mit vergleichsweise wenigen Eingangsparametern, da es auf Simulationen der Verteilnetzstrukturen basiert. Die Heterogenität von Verteilnetzen wird abgebildet durch die Verwendung von veröffentlichten Beispielnetzen zur Generierung eine Wahrscheinlichkeitsverteilung über die Anzahl der Nachfolger der Netzknoten und der Leitungslänge zwischen den Knoten und deren Vorgängern. Zudem wird die Elektrizitätsnachfrage, die einer Netzregion zugeordnet wird, unter Annahme einer Korrelation zur Einwohnerzahl aus der gesamten Nachfrage in Deutschland berechnet. Die Verteilungen über die Spannungsebenen werden mit Hilfe der Daten eines oder mehrerer Verteilnetzbetreiber bestimmt. Da sich das DNA-Tool auf historische Last- und Einspeiseprofile stützt, müssen diese ebenfalls bekannt sein. Bei einer Beurteilung sind die geringe Zahl an benötigten Datensätzen, die Berücksichtigung sowohl von dynamischen Aspekten als auch von Integrationsoptionen und die öffentliche Verfügbarkeit von Daten von Vorteil. Dahingegen schränken nur die eventuell anfallenden langen Simulationszeiten des DNA-Tools die Anwendung dieses Verfahrens ein. Um die kosteneffizienteste Integration der erneuerbaren Energien zu bestimmen, können zudem weitere Möglichkeiten zur Spannungshaltung und zur Vermeidung von thermischer Überlastung der Leitungen wie das Lastmanagement und der Einsatz von lokalen Speichern betrachtet werden.

16

2.3 Erweiterungsfaktor Erstmals Verwendung findet der Erweiterungsfaktor (EF) im Zuge der Anreizregulierungsverordnung (ARegV) im Jahr 2007. Dort wird jener als „Instrument zur Anpassung der Erlösobergrenzen von Verteilnetzbetreibern an Änderungen der Versorgungsaufgabe innerhalb einer Regulierungsperiode [9]“ vorgestellt. Dabei müssen solche Änderungen nach [10] sowohl „nachhaltig“ als auch „erheblich“ sein. Es wird versucht, aktuelle Entwicklungen im Bereich des Netzum- und -ausbaus zu berücksichtigen und die damit verbundenen Kostensteigerungen für Netzbetreiber zu beziffern. Als Beispiel für eine Veränderung kann der Zubau von PV-Anlagen durch einen Netzbetreiber in dessen zugehörigen Netzgebiet genannt werden. Eine solche Maßnahme beeinflusst dabei die Zahl an Anschluss- bzw. Einspeisepunkten. Der EF kann sowohl für eine bestimmte Spannungs- als auch für eine Umspannebene je mit Hilfe einer modifizierten Formel aus [1] bestimmt werden, welche jeweils auf [10] basiert. Die darin enthaltenen Parameter charakterisieren neben der Fläche des versorgten Gebietes und der Jahreshöchstlast auch die Anzahl der Anschluss- und gemäß Quelle [11] seit dem Jahr 2010 auch die Einspeisepunkte (von dezentralen Erzeugungsanlagen) sowohl im Strom- als auch im Gasversorgungsnetz. 2.3.1

Methodik

An dieser Stelle soll nun die aktuelle Berechnung des EF (Stand 2014) näher betrachtet und dessen Funktionsweise kurz erläutert werden. Für eine Spannungsebene 𝑖 gilt der Zusammenhang 1 𝐹𝑡,𝑖 − 𝐹0,𝑖 𝐸𝐹𝑡,𝐸𝑏𝑒𝑛𝑒 𝑖 = 1 + ⋅ max [ ; 0] 2 𝐹0,𝑖 (𝐴𝑃𝑡,𝑖 + 𝑧𝑖 ⋅ 𝐸𝑃𝑡,𝑖 ) − (𝐴𝑃0,𝑖 + 𝑧𝑖 ⋅ 𝐸𝑃0,𝑖 ) 1 + ⋅ 𝑚𝑎𝑥 [ ; 0] 2 (𝐴𝑃0,𝑖 + 𝑧𝑖 ⋅ 𝐸𝑃0,𝑖 )

(4)

wohingegen für eine Umspannebene 𝑖 die Formel 𝐸𝐹𝑡,𝐸𝑏𝑒𝑛𝑒 𝑖 = 1 + 𝑚𝑎𝑥 [

EFt, Ebene i:

𝐿𝑡,𝑖 − 𝐿0,𝑖 ; 0] 𝐿0,𝑖

(5)

Erweiterungsfaktor der Ebene i im Jahr t der jeweiligen Regulierungsperiode 17

Ft,i:

Fläche des versorgten Gebietes der Ebene i im Jahr t der jeweiligen Regulierungsmethode

F0,i:

Fläche des versorgten Gebietes der Ebene i im Basisjahr

APt,i:

Anzahl der Anschlusspunkte in der Ebene i im Jahr t der jeweiligen Regulierungsperiode

AP0,i:

Anzahl der Anschlusspunkte in der Ebene i im Basisjahr

EPt,i:

Anzahl der Einspeisepunkte dezentraler Erzeugungsanlagen der Ebene i im Jahr t der jeweiligen Regulierungsperiode

EP0,i:

Anzahl der Einspeisepunkte dezentraler Erzeugungsanlagen der Ebene i im Basisjahr

Lt,i:

Höhe der Last in der Ebene i im Jahr t der jeweiligen Regulierungsperiode

L0,i:

Höhe der Last in der Ebene i im Basisjahr

z i:

Äquivalenzfaktor der Ebene i

zu verwenden ist. Detailliertere Angaben hierzu sind der Quelle [3] zu entnehmen. Es sei jedoch angemerkt, dass der Äquivalenzfaktor 𝑧𝑖 den zusätzlichen Netzausbau berücksichtigt, „der sich ab dem Überschreiten von 30% der installierten Erzeugungsleistung an der Jahreshöchstlast ergibt [11]“. Der EF ist also ein Regulierungsinstrument, welches eine Erlösanpassung bewirkt und ausschließlich den im Zuge von Erweiterungsmaßnahmen entstehenden Mehrkosten für Netzbetreiber gerecht wird. Dessen Abhängigkeit von exogenen Parametern unterscheidet den EF von einem weiteren Regulierungsinstrument, den Investitionsmaßnahmen gemäß § 23 ARegV, welche sich auf konkrete Einzelmaßnahmen beziehen, wohingegen beim EF einer allgemeinen Erweiterung der Versorgungsaufgabe Rechnung getragen wird. Die EFs werden zwar dabei separat für eine Netz- oder Umspannebene eines Netzbetreibers errechnet, doch werden diese dann gewichtet und ein Mittelwert gebildet. Bei Betrachtung obiger Berechnungsformel erklärt sich der angewandte Zeitraum von einer Regulierungsperiode. So wird eine Erlösanpassung am Ende einer laufenden Periode gewährt und der EF wieder zurückgesetzt, was bei einer erneuten Änderung der Versorgungsaufgabe gegenüber dem Basisjahr eine neue Beantragung ermöglicht. Weist der EF den Wert 1 auf, so bedeutet dies entweder, dass die Versorgungsaufgabe am Ende des Basisjahres die gleiche ist wie zum Zeitpunkt der Antragstellung oder, dass negative Änderungen aufgetreten sind. Sollten sich jedoch positive Änderungen ergeben, dann nimmt der EF Werte größer als 1 an. [9]

18

Der EF findet auch praktische Anwendung bei der Bestimmung des Ausbaubedarfs in NSNetzen aufgrund von Zubau an PV-Anlagen. Hier werden ausschließlich zusätzliche Anschlusspunkte aufgrund des Anschlusses von PV-Anlagen berücksichtigt, wohingegen in Formel (4) eine Änderung der Zahl an Anschlusspunkten zum Beispiel durch eine Erhöhung der Einwohnerdichte möglich ist. Aus diesen veränderten individuellen Kosten der Netzbetreiber gegenüber der zu Beginn einer Regulierungsperiode ermittelten jährlichen Erlösobergrenze lassen sich anschließend die gesamten Kosten ableiten, die durch Netzausbaumaßnahmen, welche durch eine erhebliche Veränderung der Versorgungsaufgabe im Vergleich zu einem Basisjahr, entstehen. Es wurde die Methodik des EF auf kleine bayerische Netzbetreiber angewandt, wobei nicht mit der Formel der BNetzA, sondern mit einer davon abgeleiteten Formel („Angepasste EBridge Formel aus Bayern 2010“) gearbeitet wurde: 𝑃𝑖𝑛𝑠𝑡,2020 − 𝑃𝑖𝑛𝑠𝑡,2009 4,46 𝑘𝑊 𝐾𝑜𝑠𝑡𝑒𝑛𝑠𝑡𝑒𝑖𝑔𝑒𝑟𝑢𝑛𝑔 = 0,5 ⋅ 𝑃 𝐴𝑃 + 𝑖𝑛𝑠𝑡,2009 4,46 𝑘𝑊 Pinst, 2009:

Installierte PV-Leistung im Jahr 2009

Pinst, 2020:

Installierte PV-Leistung im Jahr 2020

AP:

Anzahl der Anschlusspunkten

(6)

Es wird hierbei angenommen, dass ein Hausanschluss 4,46 kWp an PV-Leistung aufweist. Bei einer Gegenüberstellung der Ergebnisse aus beiden Formeln stellt sich heraus, dass beide Ansätze vergleichbare EF liefern. Grundsätzlich sollte nach [12] jedoch die „angepasste EBridge Formel“ bevorzugt werden, da die Formel der BNetzA stark abhängig ist von der mittleren Anlagengröße der PVA, da hier wiederum rein die Zahl an Anschluss- bzw. Einspeisepunkten betrachtet wird. [12] 2.3.2

Bewertung des Verfahrens anhand ausgewählter Zielkriterien

Der EF als Instrument zur Beurteilung von Maßnahmen des Netzausbaus findet allgemein für jede Netz- und Umspannebene Verwendung. Jedoch wird auf Verteilnetzebene die vereinfachende Annahme getroffen, dass ein eventueller Zubau an Erzeugungsleistung ausschließlich mittels PVA realisiert wird. Ein weiterer Nachteil erschließt sich aus der Tatsache, dass der

19

EF ein finanztechnisches Instrument zur Analyse von Kostensteigerungen ist, welche bei Netzbetreibern im Zuge des Netzausbaus anfallen. Im Folgenden soll nun eine Bewertung des EF anhand der bekannten ausgewählten Zielkriterien erfolgen: Wie bereits erwähnt, setzt sich die Berechnungsformel des EF aus wenigen Parametern zusammen. Zwar wurde in den letzten Jahren unter anderen mit dem Äquivalenzfaktor zi eine neue Berechnungsgrößen miteinbezogen, doch weist dieses Instrument gleichwohl eine relativ geringe Komplexität auf. Dies zeigt sich insbesondere dadurch, dass im Vergleich zu anderen Modellierungsverfahren wie der Lastfluss- oder der Grenzkurvenanalyse weder die detaillierte Netztopologie (z.B. Leitungslängen) noch genaue Leistungswerte (z.B. von Lasten oder dezentralen Erzeugungsanlagen) Eingang in die Berechnung finden, da nur die Anzahl an Anschluss- bzw. Einspeisepunkten einer Netzebene betrachtet wird. Eine qualitative Bewertung dieser Punkte wird nur insofern vorgenommen, als dass die Leistungswerte aller in eine bestimmte Netzebene einspeisenden dezentralen Erzeugungsanlagen als gemittelte Werte in die Berechnungsformel miteinfließen. Zudem wird durch die Definition eines Schwellenwertes eine detaillierte Ermittlung des Netzausbaubedarfs erschwert, da kleine Änderungen der Versorgungsaufgabe keine Berücksichtigung finden. Aus dieser geringen Komplexität des EF folgt aber nicht nur eine geringe Genauigkeit der Analyse, sondern auch ein geringer Bedarf an Daten, um eine Untersuchung des Netzausbaus mit Hilfe des EF zu vollziehen. Ein Blick auf die obige Berechnungsformel macht deutlich, dass mit den Größen Fläche, Zahl an Anschluss- /Einspeisepunkten, Last und Installierter dezentrale Erzeugung eine relativ geringe Zahl an Parametern berücksichtigt werden. Es sei angemerkt, dass diese Werte zwar separat für jede betrachtete Spannungs- bzw. Umspannebene und jeden Netzbetreiber ermittelt werden müssen, doch wird eben diese Aufgabe seitens der Netzbetreiber im Zuge der Bestimmung der Erlösobergrenze ohnehin in gewissen zeitlichen Abständen ausgeübt. Es sollte jedoch beachtet werden, dass die relevanten Parameter in erster Linie dazu dienen, Erlösobergrenzen für die Netzbetreiber festzusetzen. Da deren Ziel in der Regel eine möglichst hohe Erlösobergrenze ist, kann nicht völlig ausgeschlossen werden, dass gewisse von den Netzbetreibern getätigte netztechnische Maßnahmen primär auf eine Optimierung der Erlösobergrenze abzielen und sekundär einer detaillierten Projektion des Kostenumfangs des Netzausbaus. Wird anschließend die Methodik des EF auf eine Berücksichtigung von dynamischen Aspekten hin untersucht, so wird ein weiterer Kritikpunkt deutlich: 20

Bei der Berechnung des EF werden aktuelle Größen stets auf die entsprechende Größe eines Basisjahres - meistens des Vorjahres - bezogen; es werden also sozusagen zwei „IstZustände“ miteinander verglichen, wobei diese in der Regel eine Regulierungsperiode von einem Jahr begrenzen. Kurzfristige Änderungen, die innerhalb dieses Jahres erfolgen, werden somit nicht abgebildet. Somit finden nur längerfristige (jährliche) Veränderungen Berücksichtigung. Auch Unterschiede in Profilen können nicht abgebildet werden, da der EF ein Instrument zur Ermittlung von Kostensteigerungen ist und mit gemittelten Leistungswerten gerechnet wird. Ebenso ist eine Berücksichtigung der Verläufe von Ganglinien nicht vorgesehen. Der EF kann also keine Aussage über eine zeitlich variable Auslastung des Stromnetzes treffen, es sei denn, es wird ein Betrachtungszeitraum von mehreren Jahren zu Grunde gelegt. Ebenso wie dynamische Betrachtungen können mögliche Integrationsoptionen nur bedingt durch den EF abgebildet werden, da die Einbindung neuer Anlagen oder Netzbetriebsmittel ausschließlich über die quantitative Veränderung der Anschluss- bzw. Einspeisepunkte geschehen kann. Doch selbst in diesem Fall ist eine Unterdeckung durch den EF möglich, falls bei Erweiterungen der Erzeugungsleistung die Zahl der Einspeisepunkte nicht zunimmt. Als Beispiel soll hier die Einführung regelbarer Ortsnetztransformatoren (RONT) in Niederspannungsnetzen dienen. Ersetzt dieser einen bestehenden Transformator in einer Ortsstation, so hat dies zwar eine (positive) qualitative Änderung der Spannungsstabilität auf dieser Netzebene zur Folge, eine Berücksichtigung dieser vom Netzbetreiber getätigten Maßnahme im Zuge der Berechnung der Erlösobergrenze ist jedoch nicht vorgesehen. Allgemein können mögliche Integrationsoptionen größtenteils nicht berücksichtigt werden, da der EF nur anhand einer einzigen Formel berechnet wird, in die wiederum nur wenige Parameter miteinfließen. Auch die Annahme, dass in der Niederspannungsebene der Zubau an dezentralen Erzeugungsanlagen ausschließlich durch PV geschieht, zeigt wie unflexibel der EF in Bezug auf die Integration neuer Anlagen oder Betriebsmittel aufgebaut ist. Wird in einem weiteren Schritt der EF auf seine Praktikabilität hin untersucht, so kann aufgrund geringer Komplexität in der Regel auf die Verwendung einer Software verzichtet werden. Dies stellt sich vor allem im Vergleich mit anderen Verfahren wie der komplexen Lastflussanalyse als Vorteil heraus. Des Weiteren sollte im Zuge der Untersuchung der Praktikabilität eine Abwandlung der Formel der BNetzA für den EF genannt werden, die sogenannte „E-Bridge-Formel“. Mit deren Hilfe wurde im Jahr 2010 versucht, die Kostensteigerungen in der Niederspannungsebene für kleine bayerische Netzbetreiber, die durch den Zubau an PV-Anlagen bis ins Jahr 2020 ent21

stehen, zu ermitteln. Folgt man nun Quelle [12], so kann dieser Versuch als erfolgreiche Anwendung des EF angesehen werden. Dies bestätigt zwar die praktische Umsetzbarkeit dieses Verfahrens in Bezug auf netzseitige Kostensteigerungen, zeugt aber wiederum von der Beschränkung dieser Methode auf finanztechnische Zielkriterien. Die Tatsache, dass bereits kurz nach dessen Einführung im Rahmen der ARegV nach möglichen Abwandlungen bzw. Interpretationsmöglichkeiten geforscht wurde, zeigt, dass der EF in politischer und wissenschaftlicher Diskussion stand bzw. nach wie vor steht. Vielseitige und vielschichtige Kritik veranlasste die Bundesregierung den EF in seiner bisherigen Ausführung zu überdenken und zu überarbeiten. In dieser Weiterentwicklung wird versucht folgende Problemfelder zu bearbeiten: Bei „Repowering“ bzw. bei Anschluss neuer Erzeugungsanlagen an bereits bestehende Einspeisepunkte kann der Fall eintreten, dass Erweiterungen der Erzeugungsleistung zu keiner Änderung der Anzahl an Einspeisepunkten führen und sich somit keinen Einfluss auf den EF haben. Auch der bereits diskutierte Zeitverzug zwischen der getätigten Investition und der Erlösanpassung wird äußerst kritisch gesehen. Neben der Wirkung des Schwellenwertes bei einer heterogenen Netzstruktur ist auch die Höhe der Anreize für die Technologiewahl im Zuge des Netzum- bzw. des Netzausbaus Gegenstand der Diskussion. Nähere Details hierzu finden sich in Quelle [9]. Diese Beispiele sollen verdeutlichen, dass aufgrund der starken Vereinfachungen dieser nur bedingt als etablierte Methode zur Qamtifizierung des Leitungsausbaus bezeichnet werden kann. Die Kosten des EF erweisen sich als gering. Denn wird dieser bezüglich der bei dessen Umsetzung entstehenden Kosten untersucht, so fällt zum einen dessen relativ geringer Rechenaufwand ins Auge, welcher durch die einfache Berechnungsformel begründet ist. Dieser wird auch nicht durch eventuelle Modellierungs- oder Simulationsaufgaben erhöht. Diese daraus resultierende geringe Komplexität ist zum anderen auch der Grund, weshalb in der Regel auf die Verwendung einer Software verzichtet werden kann. Gestützt werden diese relativ geringen Kosten auch durch die Tatsache, dass die Netzbetreiber an einer Aktualisierung ihrer Erlösobergrenze hin zu einem möglichst hohen Grenzwert interessiert sind und daher die Daten, die für die Berechnung des EF benötigt werden, sowieso erfassen und ermitteln müssen. 2.3.3

Zusammenfassende Beurteilung des EF

Bei einer Bewertung des EF sollte in erster Linie beachtet werden, dass es sich hier um ein finanztechnisches Instrument handelt, welches die „Anpassung der Erlösobergrenzen von 22

Verteilnetzbetreibern an Änderungen der Versorgungsaufgabe innerhalb einer Regulierungsperiode [1]“ zum Thema hat. Daher kann der EF durchaus dazu genutzt werden durch den Netzumbau entstehende Kosten zu beziffern; jedoch sind etwaige Ergebnisse nur bedingt qualitativ belastbar, da im Zuge der Ermittlung des EF einige vereinfachende Annahmen getroffen und Netze weder modelliert noch simuliert werden. Die dabei benötigten Eingangsparameter lassen sich aus der Berechnungsformel nach [17]ableiten: Neben der Fläche des versorgten Gebietes (F) wird die Anzahl an Anschlusspunkten (AP) und seit einer Überarbeitung der Formel im Jahre 2010 auch die Anzahl an Einspeisepunkten (EP) dezentraler Erzeugungseinheiten für die jeweiligen Netzebenen berücksichtigt. Ebenfalls Eingang in die Berechnung findet die aus einer Umspannebene versorgte Last (L). Für jeden der genannten Parameter liegen in der Berechnungsformel zwei Größen vor, da sich die eine auf das sogenannte Basisjahr und die andere auf das Jahr t der jeweiligen Regulierungsperiode bezieht. Quelle [9] bezeichnet die genannten Parameter als exogen, da durch die Bezugnahme auf eben solche erreicht wird, dass sich der EF an den Veränderungen der Versorgungsaufgabe orientiert und eben nicht an einzelnen Maßnahmen. Die Berechnungsformel weist zudem eine starke Abhängigkeit von der mittleren Anlagengröße auf, da rein die Anzahl an Anschlusspunkten auf NS-Ebene betrachtet wird. Außerdem können weder kurzfristige dynamische Aspekte aufgrund der einjährigen Berechnungsperiode noch mögliche Integrationsoptionen wie der Zubau von regelbaren Ortsnetztransformatoren berücksichtigt werden. Als praktische Anwendung zur Bestimmung des Netzausbaus existiert derzeit nur die veränderte E-Bridge Formel für Kostensteigerungen von PV in Bayern aus dem Jahre 2010. Dies zeigt, dass die Systematik des EF in ihrer derartigen Form noch nicht etabliert ist und sich in der politischen und wissenschaftlichen Diskussion befindet. Unbestritten ist jedoch die Tatsache, dass der EF ein kostengünstiges Instrument darstellt, um die Kosten des Netzum- und -ausbaus für die Netzbetreiber zu berücksichtigen, da aufgrund der einfachen Berechnungsformel keine umfangreiche Modellierung oder Lastflussrechnung mit Hilfe von Softwaretools notwendig ist.

2.4 Komplexe Lastflussanalyse Die komplexe Lastflussanalyse (KoLA) ist eine allgemein akzeptierte Methode zur Berechnung von Netzzuständen. Sie dient der Berechnung von Betriebsmittelauslastungen, der Darstellung von Spannungsverhältnissen und der Bewertung von Netzausbau und Netzzubauszenarien. Mithilfe der komplexen Lastflussrechnung wird beispielsweise an ausgewählten Netz23

gruppen der Ausbaubedarf berechnet. Zur Berechnung werden die Leistungsflüsse, sowie die Knotenspannungen in den gewünschten Verteilnetzabschnitten errechnet. Dafür sind im Vorfeld definierte Extremszenarien für eine Zunahme der Last bzw. Erzeugung notwendig. Diese werden häufig über Entwicklungspläne abgeleitet. Diese Szenarien können Extremfälle für den Verbrauch oder die Erzeugung darstellen [1] aber ebenso geplante Änderungen in der Topologie abbilden. Um den Ausbaubedarf für einen Netzabschnitt zu ermitteln, wird überprüft ob eine Verletzung der zulässigen Betriebsbereiche vorliegt. Hierzu werden gängige Normen für die Merkmale der Spannung, wie z.B. EN 50160, oder einen Betrieb von Erzeugeranlagen im Niederspannungsnetz, wie z.B. VDE AR N 4105, zur Hilfe genommen. Die Einhaltung der entsprechenden Grenzwerte wird durch eine Extremwertsimulation überprüft. Wird durch die KoLA eine Verletzung der gegebenen Normen und Richtlinien festgestellt, müssen in der Regel Gegenmaßnahmen veranlasst werden. Diese sind beispielsweise eine klassische Netzverstärkung durch den Bau einer parallelen Leitung zum überlasteten Netzabschnitt. Ebenso neuartige Technologien, wie regelbare Transformatoren und Spannungslängsregler, können betrachtet werden. Dazu wird die entsprechende Maßnahme im Modell hinzugefügt und anschließend der Lastfluss neu berechnet. Dieses Verfahren wird wiederholt, bis für den prognostizierten Ausbau der Lasten und Erzeuger bzw. für die Berechnungsszenarien ein Netzbetrieb innerhalb der zulässigen Betriebsgrenzen erreicht wird. Die Netzausbaukosten werden bei diesem Verfahren über die Kosten der notwendigen parallelen Leitungen oder zugebauten Beeinflussungsmaßnahmen bestimmt. 2.4.1

Methodik

Die KoLA stellt die Grundlage jeder numerischen Analyse von Energieversorgungsnetzen dar. Bei der KoLA können verschiedene Verfahren zur Berechnung der Ströme bzw. Spannungen angewendet werden. Als gängige Lösungsverfahren seien stellvertretend das NewtonRhapson Verfahren und das Verfahren der Stromiteration genannt. Je nach Softwarelösung wird eines dieser Verfahren oder eine Kombinationen der Verfahren angewendet, um die Konvergenzgeschwindigkeit und Genauigkeit der Ergebnisse zu erhöhen. Das Ziel der KoLA ist hierbei, unabhängig vom Verfahren, die Berechnung der Lastflüsse und Spannungen an den Netzknoten und auf den Netzzweigen, die sich aus vorgegebenen Einspeisungen und Verbräuchen ergeben. Um ein Netzwerk an lösbaren Gleichungen zu schaffen wird meistens ein Übergabepunkt zur überlagerten Netzebene bestimmt und als Slack-Element definiert. Dieses Element übernimmt die Bilanzierung der Leistung und übernimmt die Funktion eines Bezugspunkts für die Berechnung der Spannungen. Zur erfolgreichen Berechnung müssen die 24

Topologie und Schaltzustände vollständig bekannt sein. Weitere Eingangsdaten, die bekannt sein müssen, sind die Einspeise- und Verbrauchsstellen sowie die jeweiligen Leistungen. In der KoLA werden für die Verbraucher ihre maximalen Leistungswerte angesetzt, welche über die Energieverbräuche von Haushalten ermittelt werden oder aus Erfahrungswerten der jeweiligen Netzbetreiber resultieren. Bei dieser Methode ist der Gleichzeitigkeitsfaktor gleich eins, was nur für größere Anzahlen an versorgten Haushalten gilt. Hierbei entsteht eine Unschärfe in der Modellierung. Die Leistungen der Erzeuger werden jeweils mit ihrer installierten Leistung angesetzt. Bei diesem Verfahren ist es jedoch nicht möglich einzelne Vorgänge wie Abschattungen etc. nachzubilden. Zur Berechnung der Lastflüsse müssen anschließend die Leitungsparameter in der Topologie verankert werden. Mit diesen Annahmen erfolgt eine Berechnung der Extremfälle, die sich durch 100% Last bei 0% Erzeugung und durch 0% Last bei 100% Erzeugung abschätzen lassen. Diese zwei Simulationen können Hinsichtlich der Betriebsmittelbelastung und der Spannungsprofile ausgewertet werden und geben Rückschlüsse auf eventuell nötige Netzverstärkungsmaßnahmen. Bei der KoLA können mögliche Überschreitungen der zulässigen Betriebsgrenzen knoten- bzw. betriebsmittelscharf angegeben werden, was zu einer direkten Anpassung der Topologie oder Einspeiser- und Lastverhältnisse führen kann. Nach der Anpassung wird der Simulationszyklus wiederholt und die Ergebnisse erneut ausgewertet. Bei Einhaltung aller relevanten Normen und Richtlinien kann das Szenario als bestanden gewertet werden. Dieses Verfahren ist für jede Änderung an der Topologie oder den Netzteilnehmern zu wiederholen. Fallstudien können durch eine Variation der Eingangsdaten (Last- und Erzeugerskalierung) sowie eine Veränderung an der Topologie erstellt werden. Bei dieser Methode der Lastflusssimulation und der Bewertung der Lastflussergebnisse werden allerdings nur Extremwerte berücksichtigt. Die Berücksichtigung der Extremwerte der Erzeugung und des Verbrauchs kann in beide Richtungen zur Überdimensionierung der Betriebsmittel führen, da der Gleichzeitigkeitsfaktor für Einspeisung bzw. Verbrauch speziell im Niederspannungsnetz oft deutlich kleiner als eins ist. Eine Dimensionierung führt in diesem Fall zu sehr häufig ungenutzten Netzkapazitäten bzw. einem vorzeitigen Ausbau oder einem reduzierten Potenzial der Aufnahmefähigkeit für rrneuerbare Energien. 2.4.2

Bewertung des Verfahrens anhand ausgewählter Zielkriterien

Die KoLA stellt den aktuellen Stand der Technik in z.B. Netzstudien [1], [18], [19] dar und teilt eine hohe Akzeptanz in der Energietechnik. Die Planungsabteilungen der Netzbetreiber verwenden diese Methode ebenfalls, da durch reale Netzdaten eine hohe Genauigkeit bei geringem Rechenaufwand in kurzer Zeit erreicht werden kann, sofern die Anzahl der Szenarien 25

klein ist. Um diese hohe Genauigkeit der Ergebnisse zu erreichen, sind jedoch sehr detaillierte Eingangsdaten, sowohl der Netztopologie als auch der Last- bzw. Erzeuger notwendig, da ohne diese Daten eine Berechnung mit der KoLA nicht möglich ist. Häufig wird die KoLA in den Planungsabteilungen der Netzbetreiber eingesetzt, da diese die notwendigen Daten zur Verfügung haben. Wird KoLA für ein größeres Netzgebiet angewendet, ist eine umfangreiche Datenaufbereitung und Modellierung erforderlich [1], wobei das Ergebnis eine statische Analyse von wenigen Grenzfällen ist. Dies kann zur Überdimensionierung von Ausbaumaßnahmen führen. Bei Betrachtung eines größeren Netzabschnitts werden zusätzlich weitere Ungenauigkeiten in die Simulation getragen durch z.B. eine Annäherung und Mittelung der künftigen Entwicklung der erneuerbaren Energien in Deutschland. Die Berücksichtigung von dynamischen Effekten wie z.B. Netzpendelungen, Einspeiseüberhöhungen durch Wolkenzug ist bei einer statischen Berechnung nicht möglich. Hier kann nur mit Verbrauchs- und Einspeiseannahmen gerechnet werden. Diese bilden dann auch die einzige Möglichkeit um eine dynamische Entwicklung über mehrere Jahre abzubilden. Die Güte derartiger Methoden ist jedoch wiederum stark von den Prognosen abhängig. Aufgrund der statischen Betrachtung einer Lastsituation können die Optionen zur Integration nur in groben Näherungen analysiert werden. Als Beispiel hierfür kann die Begrenzung der Einspeiseleistung angeführt werden, da bei der KoLA nur eine feste Grenze der installierten Leistung vorgegeben werden kann, wie dies in [20] erfolgt. Da die KoLA in den Planungsabteilungen der Netzbetreiber eingesetzt wird, gibt es für diese Methode verschiedene Software Applikation, welche die Analyse durchführen. Dies verdeutlicht zusätzlich, dass für diese Methode eine wissenschaftliche Akzeptanz vorhanden ist. Die Umsetzung dieses Verfahrens und die daraus entstehenden Kosten resultieren hauptsächlich aus der Beschaffung und Aufbereitung der Eingangsdaten, da die Durchführung der Berechnung einen geringeren Aufwand darstellt. 2.4.3

Zusammenfassende Beurteilung der komplexen Lastflussanalyse

Zusammenfassend zeigt sich, dass die KoLA ein gängig genutztes Hilfsmittel ist, um Betriebsmittelauslastungen zu simulieren, die Einhaltung von Normen und Richtlinien zu überprüfen und Studien bzw. Szenarioanalysen in entsprechendem Umfang anzufertigen. Der große Vorteil der KoLA ist die relativ kurze Rechenzeit bei gegebener Topologie und Einspeise/Verbrauchsdaten. Durch zwei Berechnungen können eventuell kritische Netzzustände detektiert werden, Betriebsmittel identifiziert werden, Zu- und Umbauszenarien bewertet werden und Abschätzungen getroffen werden. Dabei muss jedoch klar sein, dass die Simulation von 26

extremen Fällen nicht unbedingt realistische Belastungszustände simuliert und zu Überdimensionierungen (ungenutzte Überkapazitäten) führen kann. Bei einer wachsenden Größe des Betrachtungsrahmens steigt der Aufwand für die Aufbereitung der Daten deutlich. Ebenso wachsen die Unschärfen in den Modellierungen durch Hochrechnungen der Ergebnisse und Mittelungen über z.B. das Zubaupotenzial für erneuerbare Energien, was wiederum Detailaussagen schwierig macht.

2.5 Probabilistische Lastflussanalyse Die Verfahren der probabilistischen Lastflussanalyse (PLA), wie die Monte-Carlo Methode oder auch analytische Verfahren wie in [21] beschrieben sind schon älter, jedoch wird dieses Verfahren zur Bestimmung des Netzausbaubedarfs bislang eher nur in akademischen Studien verwendet. Die markanteste Veränderung gegenüber den weiteren Methoden ist die Verwendung sämtlicher Last- und Erzeugerszenarien zur Analyse der Auslastung der Verteilnetze. Durch diese Betrachtung können die Auftrittswahrscheinlichkeiten der betrachteten Zustände gebildet werden [22]. Dies bietet den Vorteil, dass kompensierende Effekte, durch die gleichzeitige dezentrale Erzeugung mit den Lasten, in die Ermittlung des notwendigen Netzausbaubedarfes einfließen [23]. Die PLA unterscheidet sich gegenüber der komplexen Lastflussanalyse in der Betrachtung der Szenarien. Während bei der komplexen Lastflussanalyse nur Extremszenarios berechnet werden, erfolgt bei der PLA eine Betrachtung aller im Vorfeld definierten Last- und Erzeugerkombinationen. Die Ergebnisse werden anschließend analysiert und der Netzausbau kann mithilfe von Zustände mit bestimmter Wahrscheinlichkeit berechnet werden. Hierfür muss jedoch das statistische Verhalten der Lasten und Erzeuger bekannt sein, welches über Messungen ermittelt werden kann. 2.5.1

Methodik

Die Grundlage für die PLA stellt die Lastflussrechnung, zur Ermittlung der Leistungsflüsse auf den einzelnen Leitungen, in dem betrachteten Netz dar. Jedoch erfolgt vor dieser Berechnung noch die statistische Auswertung der Eingangsdaten. Um eine statistisch signifikante Aussage über das Verhalten sowohl der Lasten und Erzeuger zu erhalten, muss jedoch eine Vielzahl an Messungen vorliegen. Im Niederspannungsnetz werden diese Daten häufig durch Smart Meter Messungen gebildet, da die herkömmlichen Energiezähler keine Informationen über die zeitlichen Lastprofile der Haushalte ermöglichen. Anhand dieser Tatsache wird deut27

lich, dass die PLA in der Niederspannungsebene aktuell noch Gegenstand der Forschung ist, da die notwendigen Messpunkte in Form von Smart Metern im Netz heutzutage erst flächendeckend installiert werden. Aus einer Studie der Deutschen Energie-Agentur GmbH geht dabei hervor, dass eine flächendeckende Umstellung der Haushaltszähler auf Smart Meter in Deutschland nicht vor 2029 zu erwarten ist [24]. Zusätzlich werden in den Entwicklungsplänen für die Verteilnetze, sofern überhaupt solche Studien angefertigt werden, etablierte Methoden bevorzugt. Bislang wurde das Lastverhalten von Haushalten über standardisierte Lastprofile abgebildet. Diese werden von den Energieversorgern verwendet um den Energiebedarf ihrer Kunden abzuschätzen [25]. Betrachtet man nur eine kleine Anzahl von Haushalten, wie dies häufig bei der Analyse von Niederspannungsnetzen der Fall ist, kann die Last jedoch deutlich vom Wert des Standardlastprofils abweichen [25]. Um dies zu verdeutlichen ist in Abbildung 5 ein Histogramm von gemessenen Haushaltsdaten für einen definierten Zeitpunkt dargestellt [25].

Abbildung 5: Histogramm von gemessenen Haushaltslasten [25]

Eine Verwendung von Standardlastprofilen würde für diesen Zeitpunkt den in Abbildung 5 markierten Mittelwert als Leistung verwenden [25]. Anhand der Messung zeigt sich jedoch, dass dieser Wert deutlich überschritten wird. Nimmt man für die Berechnung des Netzausbaubedarfs jedoch ein Extremszenario an, so wird aus Abbildung 5 deutlich, dass dieser Fall nur mit einer sehr niedrigen Wahrscheinlichkeit auftritt. Durch die Betrachtung sämtlicher 28

Lastsituationen getreu ihrer Auftrittswahrscheinlichkeit in der PLA kann nun das statistische Verhalten in der Netzausbauplanung berücksichtigt werden. Ebenfalls in Abbildung 5 dargestellt ist eine Wahrscheinlichkeitsdichtefunktion, die an die Messwerte angenähert ist. Eine Beschreibung von Haushaltslasten mittels Wahrscheinlichkeitsdichtefunktionen wird ebenfalls in [26] verfolgt. Andere Autoren versuchen zusätzlich das zeitliche Verhalten der Haushaltslasten abzubilden [27], [28]. Ziel dieser Arbeiten ist es, eine Methode zu entwickeln, um synthetische Zeitreihen für die Leistung an Haushaltslasten zu generieren. In [28] wird dabei ein Bottom-Up Ansatz, bei dem Messungen von verschiedenen Haushalten verwendet werden um individuelle Tagesverläufe zu generieren, beschrieben. Ziel dieser Forschung ist es ein allgemein gültiges stochastisches Modell für Haushaltslasten zu entwickeln. Anschließend an die Analyse der Messdaten werden die Leistungsflüsse auf den Betriebsmitteln und die Knotenspannungen, auf Basis der Ein- bzw. Ausgespeisten Knotenleistungen, berechnet. Eine gängige Methode zur Berechnung von probabilistischen Leistungsflüssen ist dabei die Monte-Carlo Methode, wie sie in [29] verwendet wird. Dabei werden die einzelnen Leistungsmessungen zufällig den Lasten im Netzmodell zugeordnet und die Leistungsflüsse werden mit dieser Lastsituation berechnet [30]. Dabei kommen die deterministischen Berechnungsverfahren, wie in der komplexen Lastflussanalyse beschrieben, zum Einsatz. Zur Visualisierung ist dieses Verfahren in Abbildung 6 dargestellt.

Abbildung 6: Monte-Carlo Methode zur probabilistischen Lastflussrechnung

Dieses Verfahren, wie Abbildung 6 zeigt, wird mit neuen, zufällig ausgewählten Eingangsdaten wiederholt um anschließend an die Lastflussberechnungen die Auftrittshäufigkeiten der 29

Auslastungen zu ermitteln. Durch eine hohe Anzahl an Wiederholungen, in [29] sind dies 10.000, von dieser zufälligen Auswahl wird das statistische Verhalten der Lasten und damit auch der Leistungsflüsse berechnet. Aufgrund der sehr hohen Rechendauern, verursacht durch die hohe Anzahl an Wiederholungen, werden weitere Ansätze zur Berechnung untersucht. Um die Rechenzeit zu verkürzen, treffen die weiteren Verfahren Vereinfachungen, welche in der Monte-Carlo-Simulation nicht verwendet werden. Ein gängiges Verfahren ist dabei die Anwendung von Faltungsoperationen wie in [30] und [31]. In diesen Verfahren werden für die Knotenleistungen Wahrscheinlichkeitsdichtefunktionen ermittelt und die Leistungsflussgleichungen werden dann mittels Faltungsoperationen gelöst. Daraus resultieren die Verteilungen der Auftrittswahrscheinlichkeiten der Leitungsströme [30]. Erste Ansätze für dieses Verfahren entstanden in den 1970er Jahren und sind in [21] beschrieben. Aktuelle Entwicklungen erweitern die bereits beschriebenen Ansätze mit Zeitreihen, um das zeitliche Verhalten der Lasten und Erzeuger ebenfalls zu berücksichtigen [22], [29]. Die Analyse des notwendigen Netzausbaubedarfs ist im Vergleich zu den anderen Methoden jedoch aufwändiger, da eine qualitative Aussage kaum zu treffen ist [22]. Ein zweckmäßiges Verfahren stellt die Ermittlung der Auftrittswahrscheinlichkeiten dar [22]. Damit kann die Wahrscheinlichkeit berechnet werden, dass Betriebsmittel eine definierte Auslastung überschreitet [22]. Für die PLA gibt es aktuell noch keine einheitlichen Richtlinien bei welchen Überlastungswahrscheinlichkeiten ein Netzausbau notwendig ist. 2.5.2

Bewertung des Verfahrens anhand ausgewählter Zielkriterien

Einer der größten Vorteile der PLA ist, dass die Gleichzeitigkeit zwischen Erzeugung und Last numerisch bestimmt wird und hierfür keine Annahmen getroffen werden müssen [23]. In der Kombination mit den Auftrittswahrscheinlichkeiten bietet dieses Verfahren die Effizienz der Netzplanung zu erhöhen, da jedes Betriebsmittel individuell dimensioniert werden kann [23]. Jedoch erhöht sich durch die effizientere Netzplanung auch das Risiko der Verminderung der Versorgungssicherheit [22]. Eine detaillierte Bewertung der Methode erfolgt im nachfolgenden anhand der bereits bekannten Zielkriterien. Die Genauigkeit der PLA hängt von sehr vielen Faktoren ab und kann daher nur sehr schwer bewertet werden. Die Berechnung der Auslastungen der Betriebsmittel, ist bei Verwendung der Monte-Carlo-Methode sehr genau, da keine Vereinfachungen bezüglich der Abbildung des elektrischen Netzes notwendig sind [30]. Aufgrund der statistisch unabhängigen Kombination der Last- und Erzeugersituationen kann jedoch ein Fehler entstehen. Betrachtet man beispielsweise die Erzeugungsleistung von PV-Anlagen so ist eine Korrelation einzelner An30

lagen über die Globalstrahlung offensichtlich. Eine Aussage über die Korrelationen zwischen den Lasten kann heutzutage nur sehr vage getroffen werden. Eine Verifizierung der PLA mittels historischen Messungen ist demnach unabdingbar [22]. Die Genauigkeit der Eingangsdaten steigt im Vergleich zu KoLA, da das statistische Verhalten der Lasten und Erzeuger bekannt sein muss. Des Weiteren müssen zur Bestimmung des Netzausbaubedarfs Grenzwerte, welche einen Netzausbau verursachen, definiert werden. Aufgrund der Berechnung von Wahrscheinlichkeiten bestimmter Auslastungszustände müssen diese Grenzwerte auf bestimmte Perzentile definiert werden. Diese Festlegung besitzt dann jedoch einen signifikanten Einfluss auf den notwendigen Ausbaubedarf. Wie bereits anhand der notwendigen Verifizierung der Methode für die Genauigkeit deutlich wird, sind für die PLA sehr viele Daten notwendig. Da zu den üblichen Netzdaten noch eine Vielzahl an Messdaten zur Entwicklung der stochastischen Modelle der Lasten und Erzeuger notwendig sind. Wird wie in [22] die Erzeugungsleistung der PV-Anlagen über meteorologische Daten berechnet, so sind noch weitere Daten notwendig. Die Verfügbarkeit der bereits beschriebenen Daten ist sehr unterschiedlich. Während meteorologische Daten über den Deutschen Wetterdient zugänglich sind, müssen Netzdaten von den Netzbetreibern zur Verfügung gestellt werden. Die geringste Verfügbarkeit besitzen jedoch die Messungen der Last- und Erzeugungsleistungen. Aufgrund des sich verzögernden Smart Meter Rollout [24] sind diese Messungen im Niederspannungsbereich teilweise nicht vorhanden, oder die Messdaten werden in den höheren Spannungsebenen von den Netzbetreibern nicht zur Verfügung gestellt. Dies verdeutlicht, dass die Datenverfügbarkeit für die PLA die größte Hürde darstellt. Zeitliche Abhängigkeiten, vor allem der Ausbau der erneuerbaren Energien, kann in der PLA berücksichtigt werden. Für den Zubau der erneuerbaren Energien müssen jedoch auch Prognosen verwendet werden, wie dies in [1] erfolgt. Das zeitliche Verhalten der Lasten und Erzeuger betrachtet über einen Tag kann mit der PLA berücksichtigt werden, hierfür müssen die stochastischen Modelle auf die Generierung von synthetischen Zeitreihen, wie dies in [27] und [28] geschieht, erweitert werden. Hierfür sind jedoch dann zusätzliche Daten notwendig, womit die Datenverfügbarkeit noch stärker eingegrenzt wird. Eine Berücksichtigung von kurzzeitigen dynamischen Effekten ist mit der PLA nicht möglich. Für die Berücksichtigung von Integrationsoptionen stellt jedoch die PLA ein sehr gutes Werkzeug bereit, da sich derartige Methoden objektiv bewerten lassen [23]. So können beispielsweise die Integration von elektrischen Speichern oder Regelung der Anlagenblindleistung in der PLA berücksichtigt werden [23]. Für derartige Konzepte bietet die PLA bereits in der Entwicklung der Regelalgorithmen einen großen Vorteil, da die netztechnischen Rahmen31

bedingungen und Restriktionen bei der PLA sehr genau abgebildet werden. So kann die Funktionstüchtigkeit derartiger Regelungen bereits in der Simulation überprüft werden. Andere Autoren untersuchen mithilfe der PLA die Auswirkung von Wirk- und Blindleistungsregelungen auf das Spannungsband [32], oder die Anwendung von Wärmepumpen [23]. Als Beispiel für derartige Systeme sind in Abbildung 7 die Auswirkungen auf die Auftrittswahrscheinlichkeiten der Knotenspannungen in einem Niederspannungsnetz mit einer Wirk- und Blindleistungsregelung für Photovoltaikanlagen dargestellt [32].

Knotenspannung in p.u.

Referenz Simulation

Blindleistungsregelung

Wirkleistungsregelung

1.14

1.14

1.14

1.12

1.12

1.12

1.1

1.1

1.1

1.08

1.08

1.08

1.06

1.06

1.06

1.04

1.04

1.04

1.02

1.02

1.02

1

1

1

0.98

0.98

0.98

0.96

0.96

0.96

0.94

0.94

0.94

6:00

12:00

18:00

6:00

12:00

18:00

6:00

12:00

18:00

Tageszeit in h

Abbildung 7: Auftrittswahrscheinlichkeiten der Knotenspannungen in einem NS-Netz ohne Integrationsoptionen, mit Blindleistungsregelung und mit Wirkleistungsregelung [32]

Abbildung 7 zeigt in der Referenzsimulation die Spannungsverteilung in einem Niederspannungsnetz ohne jegliche Integrationsoptionen. Dabei repräsentieren die Farben die Auftrittswahrscheinlichkeiten einzelner Spannungswerte über einen Tagesverlauf und die eingezeichnete rote Linie entspricht dem 95. Perzentil um 13:00 Uhr. Durch die Einspeisung der PVAnlagen ist zu den Mittagsstunden eine Spannungserhöhung zu erkennen. In Abbildung 7 ist die Spannungsverteilung mit Blind- und Wirkleistungsregelung dargestellt. Dies zeigt, dass eine Spannungsobergrenze mit derartigen Systemen verringert werden kann. Im Fall der Wirkleistungsregelung ist das System so aufgebaut, dass eine Spannungsobergrenze vorgeben werden kann. Durch die PLA kann sowohl die Funktionalität derartiger Systeme als auch die Auswirkungen auf einen notwendigen Netzausbau untersucht werden. Mithilfe der PLA können demnach viele Methoden des Netzbetriebs berücksichtigt werden. 32

Die praktische Umsetzbarkeit der PLA wird mit zunehmender Anzahl an Integrationsoptionen komplexer, da zusätzlich zur Methode der PLA noch die Regelstrategien der Integrationsoptionen implementiert werden müssen. Des Weiteren ist für die PLA keine Methode in einer der gängigen Netzberechnungssoftwaren integriert, so dass sämtliche Methoden vom Anwender erst aufgebaut werden müssen. Ohne einheitliche Modelle der Lasten und Erzeuger wird sich an diesem Punkt in der nahen Zukunft auch nichts ändern, da die notwendigen Messdaten stets in unterschiedlichen Formen vorliegen. Da die PLA bislang nur in akademischen Studien zur Ermittlung des Netzausbaubedarf angewandt wird, kann die wissenschaftliche Akzeptanz noch schwer beurteilt werden. Die Akzeptanz wird ebenfalls durch die Verwendung von Auftrittswahrscheinlichkeiten verringert, da im Gegensatz zur Verwendung von Extremszenarien ein geringes Risiko bestehen bleibt. Zusätzlich dazu bietet die PLA, wie in [22] vorgeschlagen, die Möglichkeit von einer strikten Betrachtung des (n-1)-Kriteriums Abstand zu nehmen. Da sich dieses Sicherheitskriterium über Jahre im Planungsprozess etabliert hat, wird eine Auflösung dieses Kriteriums auf eine geringe Akzeptanz stoßen. Die Kosten der PLA können als hoch abgeschätzt werden. Dies wird maßgeblich durch den hohen Rechenaufwand geprägt, da dieser hauptsächlich aus der hohen Anzahl an Wiederholungen in der Monte-Carlo-Simulation resultiert und der komplexe Lastfluss mehrfach durchgeführt werden muss [22]. Weitere Verfahren, beispielsweise durch Faltungsoperationen, versprechen zwar einen geringeren Aufwand in der Berechnung, jedoch steigt bei diesen Verfahren der Aufwand der Modellierung. Zusätzlich sind für die PLA sehr viele Daten notwendig, welche häufig mit hohen Kosten verbunden sind. 2.5.3

Zusammenfassende Beurteilung der PLA

Zusammenfassend lässt sich für die PLA festhalten, dass mit dieser Methode ein sehr hoher Rechenaufwand verbunden ist, es dafür jedoch ein sehr genaues Verfahren darstellt. Die größten Restriktionen für die PLA resultieren aus der Datenverfügbarkeit, da zusätzlich zu Netzdaten ebenfalls noch das zeitliche Verhalten der Lasten- und Erzeuger notwendig sind. Durch die Bestimmung der Auftrittswahrscheinlichkeiten steigt zusätzlich die Komplexität zur Interpretation der Ergebnisse. Dies ist einer der ausschlaggebende Grund, dass die PLA aktuell noch Gegenstand der Forschung ist. Der größte Vorteil der PLA ist die Verwendung von Integrationsoptionen der Erneuerbaren Energien, da durch die Betrachtung sämtlicher Last- und Erzeugerszenarien deren Wirkung detailgetreu abgebildet wird. Zusätzlich können damit die Auswirkungen von Netzbetriebsstrategien auf den Netzausbau untersucht werden. 33

Im heutigen Energiesystem wird die PLA noch nicht zur Ermittlung des Netzausbaubedarfs, aufgrund der hohen Datenverfügbarkeit, angewandt. Es wird jedoch davon ausgegangen, dass zukünftig die Komplexität des Energiesystems durch die verschiedenen Integrationsoptionen zunimmt. In dieser Analyse, besonders unter Einbeziehung einer auf den Netzbetrieb abgestimmten flexiblen Einspeisung, besitzt die PLA ihre Vorteile. Daher bietet sich zukünftig die Verwendung der PLA für derartige Studien an.

34

3 Modellierungskonzept für Verteilnetze zur Ermittlung des optimalen Netzausbaus unter der Berücksichtigung weiterer Integrationsoptionen Um ein Optimierungsmodell für die Bestimmung von optimalen Strukturen von Verteilnetzen zu realisieren, wird im folgenden Modellierungskonzept zunächst von einer idealen Abbildung des vollständigen Elektrizitätssystems inklusive des Verteilnetzes in Deutschland ausgegangen. Dabei wird als Ziel eine kostenminimale Deckung der Elektrizitätsnachfrage angestrebt. Um eine solche, möglichst ideale, Abbildung zu erreichen, muss zum einen das Übertragungsnetz und zum anderen jedes von einem Netzknoten abgehende Verteilnetz konkret abgebildet werden. Im Zuge dessen werden auch exakte Lastflüsse berechnet und die Standorte von Großkraftwerken mit deren Kapazitäten und betrieblichen Restriktionen beachtet. Außerdem ist eine Berücksichtigung von Übertragungsnetzrestriktionen, des Elektrizitätssystems im Ausland und von Restriktionen durch Grenzkuppelkapazitäten unumgänglich. In einer solchen idealen Abbildung wird die Annahme getroffen, dass Daten zur Verteilnetztopologie zur Verfügung stehen. Aus diesem Vorgehen erwachsen jedoch vielschichtige Probleme wie beispielsweise die Komplexität der abzubildenden Netzstruktur. Durch eine Begrenzung der verfügbaren Rechenleistung ist der Genauigkeit der Abbildung/Modellierung der Verteilnetze demnach ein Limit gesetzt. Zudem muss bei der Berücksichtigung von Lastflüssen deren Nicht-Linearität beachtet werden. Des Weiteren steht einer idealen Abbildung die Tatsache gegenüber, dass die benötigten Daten in der Regel nicht öffentlich zur Verfügung stehen und heterogener Natur sind. Zur Reduktion dieser Komplexität existieren die folgenden Möglichkeiten: Zum einen kann die Netztopologie vernachlässigt werden. Dadurch sind weniger Informationen notwendig und der Rechenaufwand sinkt. Da dies jedoch explizit berücksichtigt werden soll, bietet sich eine Vereinfachung von Netzstrukturen an. Denn auch hier kann die Komplexität verringert und der Aufwand reduziert werden. Zum anderen kann auch gänzlich auf die Abbildung der realen Netzstrukturen verzichtet werden, indem mit repräsentativen Beispielnetzen gearbeitet wird oder vereinfachte Netze generiert werden. Eine weitere Möglichkeit zur Reduktion der Komplexität liegt in der Linearisierung des Lastflusses, zum Beispiel durch Anwendungen des DC-Lastflusses. Im Folgenden werden drei mögliche Konzepte zur Optimierung erläutert, wobei mit Abbildung 8 ein Überblick gegeben wird: 35

Zielvorstellung: Ideale Abbildung des Elektrizitätssystems Problem einer hohen Komplexität Drei Konzepte zur Reduktion dieser Komplexität

Konzept 1 •ausschließliche Betrachtung von einzelnen Verteilnetzen •vorgegebener Strompreis •keine Berücksichtigung des Einflusses von Großkraftwerken und Übertraungsnetzengpässen •Einsatz möglicher Integrationsoptionen ohne Auswirkung auf die Preisbildung

Konzept 2

Konzept 3

•extreme Vereinfachung der Netztopologie •Vereinfachte Berücksichtigung von Netzrestriktionen •Beachtung des Einflusses von Großkraftwerken auf die Preisbildung •Einsatz möglicher Integrationsoptionen mit Auswirkung auf die Preisbildung

•Abbildung der Netzrestriktionen als Kostenfaktor •exakte Abbildung eines Beispielnetzes •Iterative Optimierungsschritte •Ergänzung um technologiespezifische Kostenfaktoren •Berücksichtigung der Preisbildung

Abbildung 8: Überblick über die drei gewählten Optimierungskonzepte

3.1 Konzept 1 Eine Möglichkeit zur Reduktion der Komplexität ist die ausschließliche Betrachtung von einzelnen Verteilnetzen, womit das restliche Elektrizitätssystem einschließlich der Übertragungsebene vernachlässigt wird. Dabei wird ein Strompreis als gegeben angenommen und die Preisbildung an den Strommärkten außer Acht gelassen. Der Preis wird sozusagen erst am Netzknoten zwischen Verteilungs- und Übertragungsnetz „übergeben“. Dies bedeutet aber auch, dass der Einfluss von Großkraftwerken und eventuell auftretenden Netzengpässen auf der Übertragungsnetzebene nicht in die Betrachtungen miteinfließt und sich nicht wechselseitig beeinflussen. Dem Modell wird demnach ein Preis übergeben, um anschließend ein Verteilnetz abzubilden, Investitionen in verschiedene DEA und in das Elektrizitätsnetz zu berücksichtigen und den Betrieb zu optimieren. Der Einsatz möglicher Integrationsoptionen wie z.B. Wärmepumpen und BHKWs mit Speicheroptionen hat bei Anwendung dieses Ansatzes jedoch keine Auswirkungen auf die Preisbildung an den Märkten. Zudem ist dieser sehr stark von der vorliegenden Netztopologie abhängig.

36

3.2 Konzept 2 Ein zweiter Ansatz basiert auf der Annahme und Vorstellung eines vereinfachten Netzes an jedem Knoten eines Systemmodells. Hierbei wird im Gegensatz zum ersten Ansatz das gesamte Elektrizitätssystem, jedoch in einer weniger komplexen Form, betrachtet. Dies kann nur durch eine extreme Vereinfachung der Netztopologie realisiert werden. Ein solche leicht überschaubare Netzstruktur kann beispielsweise dadurch realisiert werden, dass das Netz eines bestimmten Gebietes ausschließlich durch ein Leitungselement pro Netzebene dargestellt wird oder mit Ausnahme eines vereinfachten Beispielnetzes in der NS-Ebene sämtliche Netzebenen vernachlässigt werden. Jedoch kann hier der Einfluss der Großkraftwerke und deren Flexibilität auf die sich bildenden Strompreise berücksichtigt werden. Netzrestriktionen werden in vereinfachter Form in die Betrachtungen miteinbezogen. So kann beispielsweise die Auswirkung der Einspeisung aus flexiblen DEA mit Speicheroptionen auf die Preisbildung am Strommarkt beachtet werden.

3.3 Konzept 3 Ein dritter Ansatz arbeitet ebenfalls mit der Preisbildung und bildet Netzrestriktionen mit Hilfe von Kostenfaktoren ab. Auf eine detaillierte Abbildung der Netzstrukturen wird verzichtet, stattdessen wird ein exemplarisches Verteilnetz exakt abgebildet. Auf Basis dieses Beispielnetzes werden die Auswirkungen des Anschlusses verschiedener Technologien untersucht. Als Beispiel kann der Anschluss eines BHKWs, möglicherweise durch einen Wärmespeicher ergänzt, genannt werden. Die daraus resultierenden Ergebnisse geben schließlich an, ob durch die Maßnahme ein Netzausbau an einer bestimmten Stelle (und Spannungsebene) nötig wird und wenn ja, welche Kosten damit verbunden sind. Wenn nun eine bestimmte Technologie an das Verteilnetz angeschlossen und betrieben wird, werden zu den jeweiligen Grenzkosten, zu denen eine Anlage am Strommarkt anbieten wird, noch sogenannte technologiespezifische Kostenfaktoren addiert. Des Weiteren wird mit diesen Faktoren die Möglichkeit geschaffen, die Heterogenität von Netzen regionenspezifisch zu berücksichtigen. An einem Beispielnetz werden durch Sensitivitätsrechnungen die Kosten des Verteilnetzausbaus für einzelne Technologien je Region bestimmt, indem zuerst der Betrieb dezentraler Erzeugungsanlagen simuliert wird. Darauf gründet sich die anschließende Bestimmung der resultierenden Netzausbaukosten. Um dem Ziel einer kostenminimalen Lastdeckung gerecht zu werden, müssen also in iterativen Schritten die Kosten zur Behebung von Netzrestriktionen in die weiteren Berech37

nungen miteinbezogen werden. Auch der parallele Betrieb von unterschiedlichen Anlagensystemen in der betrachteten Netzstruktur kann berücksichtigt werden. Die mit Hilfe dieser Methodik gewonnenen Ergebnisse werden als repräsentativ für sämtliche Verteilnetzstrukturen erachtet.

3.4 Einordnung und Konzeptauswahl Nach einer kurzen Beschreibung der Konzepte erscheint es vorteilhaft, diese einander gegenüberzustellen. Anhand einer Auswahl an möglichen Kriterien lassen sich die vorgestellten Optimierungskonzepte bewerten und einordnen: Ein erstes Kriterium beschäftigt sich mit den Auswirkungen des Betriebes der Technologien auf die Preisbildung. Ein solcher Einfluss des Betriebes einer Anlage auf die Bildung des Preises ist sowohl bei Konzept 2 als auch bei Konzept 3 zu finden. In Konzept 1 wird auf diese Kopplung verzichtet. Mit Hilfe eines zweiten Kriteriums wird die Frage geklärt, ob ein Konzept Wechselwirkungen zwischen einem regionalen und einem überregionalen Bereich berücksichtigt. In diesem Punkt unterscheidet sich Konzept 1 erneut von den anderen beiden. Denn die ausschließliche Betrachtung der Verteilnetzebene verhindert die Einbeziehung von Wechselwirkungen mit einem überregionalen Elektrizitätssystem. Bei den anderen beiden Konzepten findet die Kopplung zwischen regionalen und überregionalen Bereichen zwar Eingang in die Überlegungen, jedoch sind Aussagen über solche Wechselwirkungen auch nur bedingt möglich. Zum einen aufgrund einer starken Vereinfachung der Netztopologie und zum anderen aufgrund der Verwendung eines Beispielnetzes. Weitere Wechselwirkungen können zwischen verschiedenen Modellregionen auftreten. Diese werden in Konzept 1 und 3 nicht berücksichtigt, entweder aufgrund der Betrachtung von Einzelnetzen oder aufgrund der Tatsache, dass in den einzelnen Modellregionen ein fixer Kostenfaktor je Technologie angewandt wird so wie es bei Konzept 3 der Fall ist. Allein der zweite Ansatz bezieht solche Wechselwirkungen über das Gesamtsystemmodell mit ein. Des Weiteren wird untersucht, inwiefern die Topologie bzw. Heterogenität eines Netzes Berücksichtigung findet. Diesem Aspekt wird im Sinne der Aufgabenstellung in jedem der drei Konzepte grundsätzlich Beachtung geschenkt, es müssen jedoch Abstriche bei der Genauigkeit gemacht werden. Dies begründet sich beispielsweise in Konzept 1 durch die Beschränkung auf einzelne Verteilnetze. Auch Wechselwirkungen zwischen einzelnen Technologien sind in einem Optimierungsmodell zu beachten. Dies wird in jedem der drei Ansätze umgesetzt, wobei beim dritten Ansatz eine Erhöhung der Komplexität die Folge ist, da verschiedene Sensitivitäten des Ausbaus be38

trachtet werden müssen. Ein letzter Punkt, der einen Vergleich der angewandten Konzepte ermöglicht, ist die Frage nach der Formulierung regionenspezifischer Aussagen. Diese lassen sich mit Hilfe von Konzept 1 je Einzelnetz und bei Konzept 2 je Modellregion formulieren. Konzept 3 ermöglicht solche Aussagen ebenfalls, da für jede Region und jede Technologie prinzipiell ein eigener Faktor berechnet werden kann. Aus dieser Einordnung anhand gemeinsamer Kriterien ergeben sich nun Argumente, welche die Auswahl des richtigen Konzeptes bzw. einer Kombination aus mehreren erleichtert. Erstens ist die Konzeptauswahl abhängig von der Zielsetzung, die verfolgt wird. Soll der optimale Ausbau von Einzelnetzen modelliert werden, so bietet sich in erster Linie Konzept 1 an. Ist die Formulierung allgemeinerer Aussagen das primäre Ziel, dann erweisen sich eher die anderen beiden Konzepte als vorteilhaft. Zweitens richtet sich die Wahl des passenden Konzeptes auch nach der Daten- und Modellverfügbarkeit. Erweist sich letztlich die Fokussierung auf genau ein Optimierungskonzept als schwierig, so ist eine Metastudie auf Basis von allen drei Ansätzen denkbar.

39

4 Ansätze zur Formulierung repräsentativer Aussagen auf Basis der Betrachtung einzelner Verteilnetze Das Ziel dieses Arbeitspaketes besteht darin, unter Berücksichtigung der Heterogenität von Verteilnetzen, verschiedene Methoden zur Ermittlung des gesamten Ausbaubedarfs zu diskutieren. Diese Heterogenität kann durch folgende Faktoren beschrieben werden: Unter dem Begriff der Verbraucherlasten kann sowohl die Anzahl an Verbraucherlasten eines bestimmten Verteilnetzes als auch deren Verteilung verstanden werden. Analog hierzu lassen sich Erzeugungsanlagen sowohl im Hinblick auf Anzahl, Art als auch auf deren Verteilung in einem bestimmten Netzgebiet untersuchen. Als dritter Heterogenitätsfaktor kann das Verteilnetz als Ganzes genannt werden, wobei zu diesem Zwecke nicht nur die Netztopographie, sondern auch der Einsatz bzw. die Verbreitung innovativer Betriebsmittel Berücksichtigung findet. An eine kurze Beschreibung des jeweiligen Verfahrens schließt sich eine detailliertere Erläuterung der dabei verwendeten Methodik der Hochrechnung an, welche unter anderen anhand der Berücksichtigung eben genannter Faktoren erfolgt. Abschließend wird eine Bewertung unter Zuhilfenahme von Zielkriterien durchgeführt. In Anlehnung an Kapitel 2 werden die Kriterien Genauigkeit, Datenverfügbarkeit, praktische Umsetzbarkeit, etablierte Methode und Kosten verwendet. Unter der Genauigkeit der Hochrechnung wird zum einen die Genauigkeit der aus der Hochrechnung resultierenden Ergebnisse verstanden und zum anderen die Genauigkeit des zur Hochrechnung verwendeten Verfahrens. Mit dem Kriterium der Datenverfügbarkeit soll sowohl die Verfügbarkeit der Kenngrößen der Einzelnetze, also der Heterogenitätsfaktoren dieser Netze, als auch die Verfügbarkeit der im Zuge der Hochrechnung auf die Typregionen verwendeten Heterogenitätsfaktoren (z.B. Netzgebietsklassen in der dena-Verteilnetzstudie) bewertet werden. Anschließend wird mit Hilfe des Kriteriums der praktischen Umsetzbarkeit untersucht, wie benutzerfreundlich die Methodik der Hochrechnung ist und in welchem Umfang Soft- und Hardware benötigt werden. Daran schließt sich eine Aussage darüber an, inwiefern das verwendete Verfahren zur Hochrechnung auf politischer bzw. wissenschaftlicher Ebene als etabliert gelten kann oder ob es bereits in anderen Bereichen eingesetzt wurde. Abschließend werden die Kosten der Datenbeschaffung und der Umsetzung des Verfahrens bewertet, indem sowohl benötigte Rechenzeiten als auch der personelle bzw. finanzielle Aufwand in die Betrachtung miteingezogen werden.

40

Mit diesen Zielkriterien werden im Folgenden drei Methoden diskutiert, welche eine Hochrechnung eines den Netzausbau betreffenden Ergebnisses für ein bestimmtes Netzgebiet auf größere Netze, Bundesländer oder auch auf das gesamte deutsche Verteilnetz erlauben.

4.1 Dena-Verteilnetzstudie An erster Stelle soll ein Ansatz untersucht werden, welcher im Rahmen der denaVerteilnetzstudie bei der Hochrechnung der Ergebnisse Verwendung findet. Einen Überblick liefert in diesem Zusammenhang Abbildung 9, wobei das Augenmerk auf den Studienteil A, also auf das technische Gutachten gelegt wird. Aufbauend auf einer großen Anzahl realer Netzdaten „werden deutschlandweite Szenarien zum Zubau von dezentralen Energieumwandlungsanlagen gemeindescharf regionalisiert“ [1], anschließend werden im Zuge einer Clusteranalyse sogenannte Netzgebietsklassen ausgewiesen, deren dazugehörige Gemeindegebiete eine ähnliche Entwicklung ihrer jeweiligen Versorgungsaufgabe aufweisen. Die nun regionalisierten Ausbau-Szenarien werden auf die vorliegenden realen Netzstrukturen angewandt und hieraus die erforderlichen Maßnahmen zur Netzverstärkung abgeleitet. [1]

Abbildung 9: Überblick über das methodische Vorgehen der dena-Verteilnetzstudie [1]

41

4.1.1

Methodik

Nachdem der Netzverstärkungsbedarf für reale Verteilnetzstrukturen ermittelt worden ist, erfolgt die Hochrechnung der Ergebnisse auf Deutschland bei der dena-Verteilnetzstudie mit Hilfe von Netzgebietsklassen (NGK). Diese berücksichtigen sowohl Strukturmerkmale der Gemeinden als auch die heutige Situation und die prognostizierte Entwicklung der Wind- und Solarenergie. Somit ähneln sich die Netze einer NGK bezüglich mehrerer Merkmale. Das bedeutendste solcher Strukturmerkmale ist die Einwohnerdichte einer Gemeinde, weshalb die deutschen Gemeinden in fünf Strukturklassen (A bis E) aufgeteilt werden, je nach deren Einwohnerzahl pro Quadratkilometer. Nach dieser Klassifizierung wird in jeder Gemeinde eine Clusteranalyse durchgeführt mit dem Ziel, eine Gruppenstruktur in einer Menge von Objekten zu erzeugen, wobei jedes Objekt durch mehrere Merkmale charakterisiert ist. Im Anschluss an diese Clusteranalyse lassen sich letztendlich elf Netzgebietsklassen identifizieren, wobei jede für sich Gemeinden mit ähnlichen Merkmalen zusammenfasst. Es ist zu beachten, dass diese NGK auf dem Szenario „NEP B 2012“ basieren und sich daher die Ergebnisse bei Verwendung eines anderen Ausbauszenarios verändern. In einem letzten Schritt werden noch verschiedene Gemeinden innerhalb eines Versorgungsgebietes eines Verteilnetzbetreibers ausgewählt und derart zu Untersuchungsregionen zusammengefasst, sodass „jede Netzgebietsklasse mehrfach in verschiedenen Versorgungsgebieten“ [1] untersucht wird. Nun kann das Ergebnis aus einer Untersuchungsregion auf größere Netzgebiete hochgerechnet werden, selbst wenn jene nicht vollständig untersucht worden sind. Bei dieser Hochrechnung unterscheidet die dena-Verteilnetzstudie zwei Fälle: Im ersten Fall wird davon ausgegangen, dass das untersuchte Netzgebiet kleiner oder gleich dem Gemeindegebiet ist. Als Beispiele können hier NS-Netze oder städtische MS-Netze genannt werden. Um eine Hochrechnung auf das gesamte Gemeindegebiet zu ermöglichen, wird zunächst der untersuchte Anteil der Gemeinde bestimmt. Dies geschieht anhand des Verhältnisses der Transformatorsummenleistungen des untersuchten Gebietes zu der des gesamten Gemeindegebietes. Ist das untersuchte Netzgebiet größer als das Gemeindegebiet, was beispielsweise bei HS- und ländlichen MS-Netzen der Fall ist, so können einem Umspannwerk mehrere Gemeinden zugeordnet werden. Wurde nun für dieses Umspannwerk der Netzverstärkungsbedarf ermittelt, wird dieses Ergebnis auf die unterlagerten Gemeinden anteilig aufgeteilt. In diesem Fall erfolgt die Umrechnung anhand der Zubauprognosen. Hierzu werden alle Zubauprognosen von Gemeinden derselben NGK aufsummiert und auf die Summe aller Gemeindeflächen dieser 42

NGK bezogen. Ergebnis ist demnach „ein gemittelter, flächennormierter Ausbaubedarf“ [1] für die betrachtete NGK. Für eine Hochrechnung der Ergebnisse auf das Verteilnetz einzelner Bundesländer oder ganz Deutschland nutzt die dena-Verteilnetzstudie die folgende Vorgehensweise: Ist der Netzausbaubedarf für eine NGK ermittelt, so wird dieser als repräsentativ für alle Gemeinden angesehen, die Teil dieser NGK sind. Dabei wird „zunächst die Fläche einer jeden Gemeinde mit dem gemittelten, flächennormierten Ergebniswert der zugehörigen NGK multipliziert “

[1]. Wird dies für sämtliche Gemeinden wiederholt, so ergibt sich ein gesamter Netzausbaubedarf für ganz Deutschland. Soll hingegen ein bundesland-spezifisches Ergebnis ermittelt werden, so muss erneut die Summe über die entsprechenden Gemeindeergebnisse des betrachteten Bundeslandes gebildet werden. Es sollte jedoch beachtet werden, „dass die NGKErgebnisse keine spezifischen Bundeslandergebnisse sind, sondern über alle Untersuchungsgebiete in Deutschland gemittelt wurden“ [1] und somit regionale Besonderheiten nicht mehr zugeordnet werden können. Nach dieser Erläuterung der verwendeten Methodik soll nun untersucht werden, inwieweit die bereits erwähnten Faktoren der Heterogenität von Verteilnetzen in der dena-Verteilnetzstudie Berücksichtigung finden. Die Anzahl an Verbraucherlasten geht in die Clusteranalyse mit ein und auch die Erstellung der NGK basiert auf realen Netzstrukturen, d.h. die Anzahl an Verbraucherlasten wird beachtet. Die Verteilung der Lasten wird insofern berücksichtigt, als dass die Gemeinden anhand ihrer Einwohnerzahl pro Quadratkilometer in fünf Strukturklassen vorsortiert werden. Das entscheidende Strukturmerkmal für die Verteilung ist demnach die Bevölkerungsdichte. Die Anzahl an Erzeugungsanlagen wird ebenfalls im Zuge der Clusteranalyse berücksichtigt, da sich die Leistungsdichten der dezentralen Erzeugungsanlagen gemäß [1] aus dem vierdimensionalen Ergebnisraum der Clusteranalyse ergeben. Die Clusteranalyse wird jedoch nicht nur anhand der (heutigen) Strukturmerkmale der Gemeinden durchgeführt, sondern auch anhand der prognostizierten zukünftigen Entwicklung der Wind- und Solarenergienutzung. Die entsprechenden DEA-Zubau-Szenarien wurden dabei bereits gemeindescharf regionalisiert. Bei dieser Regionalisierung wird nicht nur die Anzahl, sondern auch die Verteilung der Erzeugungsanlagen beachtet. Für diese gemeindescharfe Verteilung werden Flächenpotentiale als Verteilschlüssel verwendet, um primäre Treiber wie Wind- und Solarenergienutzung zu berechnen. Die Verteilung der Erzeugungsanlagen wird berücksichtigt, indem die Vorsortierung der Gemeinden in die bereits genannten fünf Strukturklassen durchgeführt wird. Die Art

43

der Erzeugungsanlagen wird insofern beachtet, als dass die dena-Verteilnetzstudie annähernd sämtliche erneuerbare Energiequellen in ihre Betrachtungen miteinbezieht. Neben den Verbraucherlasten und den Erzeugungsanlagen kann die Heterogenität von Netzen unter anderen auch durch deren Netztopographie begründet sein. Dieser Faktor fließt hier ebenfalls in die Betrachtungen mit ein, denn die verwendeten Netzdaten basieren auf realen Netzdaten, die sowohl die Grundlage für die Detailanalyse6 als auch für die GKA bilden. Des Weiteren wird versucht sämtliche Netztopologie abzudecken, indem jede Netzgebietsklasse mehrfach in verschiedenen Versorgungsgebieten untersucht wird. Somit können lokale Spezifika abgegrenzt werden vom Netzausbau aufgrund des Zubaus von EE. Und auch auf den Einsatz bzw. die Verbreitung innovativer Betriebsmittel geht das hier betrachtete Verfahren ein. Denn es werden zwei Szenarien berechnet, auf denen jeweils weitere Varianten aufbauen, die sowohl innovative als auch technische und planerische Alternativen umfassen. 4.1.2

Bewertung anhand ausgewählter Zielkriterien

Im Folgenden wird nun die Methodik der Hochrechnung der Ergebnisse anhand ausgewählter Zielkriterien bewertet. Wie bereits erwähnt, zeichnet sich das in der dena-Verteilnetzstudie angewandte Verfahren durch eine hohe Genauigkeit aus. Denn die Hochrechnung erfolgt über die eingeführten Netzgebietsklassen und unterscheidet zudem zwischen zwei Fällen in Abhängigkeit der Fläche des untersuchten Netzgebietes in Bezug auf die Fläche des Gemeindegebietes. Des Weiteren wird die Gefahr ungenauer Ergebnisse dadurch eingegrenzt, dass Vorsortierung der Gemeinden in Strukturklassen vorgenommen wird. Durch diese Maßnahme wird verhindert, dass die Netzgebietsklassen allein auf unterschiedlichen Einwohnerdichten basieren. Denn die Anzahl der Einwohner pro Quadratkilometer ist „ein stark prägendes Merkmal für die Beschreibung der Versorgungsaufgabe auf Gemeindeebene“ [1]. Ein weiterer Punkt, der die hohe Genauigkeit der Methodik bestätigt, ist die Tatsache, dass neben den primären Treibern wie Wind- und Solarenergienutzung auch sekundäre Treiber wie Biomasse- oder Kraft-Wärme-KopplungsAnlagen berücksichtigt werden. Zudem wird bei der Berechnung des Netzverstärkungsbedarfs sowohl die Detail- als auch die Grenzkurvenanalyse angewandt und deren Ergebnisse anschließend gemittelt, um ein möglichst genaues und repräsentatives Ergebnis zu erreichen. 6

Die Detailanalyse stellt neben der GKA eine weitere Methode zur Bewertung der Auswirkungen des DEA-Zubaus auf die Verteilnetze dar. Dabei werden zunächst die Netzdaten der Verteilnetzbetreiber aufbereitet und digitalisiert, sodass lokale Besonderheiten Berücksichtigung finden und die Netztopologie detailliert analysiert wird. Darauf aufbauend werden für (drei) Betriebsfälle komplexe Lastflussrechnungen durchgeführt und überprüft, ob festgelegte Rahmenbedingungen verletzt werden. [1]

44

Jedoch ist bei der Hochrechnung der Ergebnisse auf einzelne Bundesländer darauf zu achten, dass eine Mittelung über alle Untersuchungsregionen stattfindet und daher eventuell auftretende regionale Spezifika nicht mehr zugeordnet werden können. Wird nun in einem nächsten Schritt die Verfügbarkeit der Daten bewertet, die für eine Hochrechnung nötig sind, so sollte auf die Datenbasis verwiesen werden, auf der die gesamte Methodik der dena-Verteilnetzstudie aufbaut. Diese Basis gründet sich auf Daten vieler verschiedener deutscher Verteilnetzbetreiber, welche einen Anteil von ca. 50% aller deutschen Verteilnetzbetreiber abdecken. Die Daten stammen von 16 Verteilnetzbetreibern, es werden rund 1.900 Systemkilometer in der Niederspannung, etwa 16.000 Systemkilometer in der Mittelspannung und rund 20.000 Systemkilometer in der Hochspannung untersucht. Hierauf aufbauend wird dann mittels Detail- und Grenzkurvenanalyse der Netzverstärkungsbedarf ermittelt. Die Heterogenitätsfaktoren der Einzelnetze, welche die Basis für eine genaue Hochrechnung darstellen, stehen demnach in ausreichendem Maße zur Verfügung. Die Heterogenitätsfaktoren der Regionen, auf denen repräsentative Aussagen aufbauen und formuliert werden stehen nach Bildung der in der dena-Verteilnetzstudie eingeführten Netzgebietsklassen ebenfalls zur Verfügung. Die Datenverfügbarkeit geht demnach mit einer großen Menge an Daten einher, schafft jedoch den Vorteil einer genauen Hochrechnung des Netzverstärkungsbedarfs auf das gesamtdeutsche Netzgebiet. Wie den bisherigen Ausführungen entnommen werden kann, ist der gesamte Ansatz der denaVerteilnetzstudie relativ komplex aufgebaut, was jedoch im Gegenzug genaue und repräsentative Ergebnisse ermöglicht. Die praktische Umsetzbarkeit des Verfahrens ist dadurch ressourcenintensiv und setzt fundiertes Fachwissen voraus. Dies wiederum begründet, warum das Verfahren der dena-Verteilnetzstudie als etablierte Methode bezeichnet werden kann. Verstärkt wird dies auch durch die große Zahl an Instituten, die an der Erstellung der Studie mitgewirkt haben. Abschließend lässt sich aus den letztgenannten Punkten ableiten, dass das hier verwendete Verfahren mit relativ hohen Kosten verbunden ist. Dies wird zum einen unterstrichen durch die hohe Komplexität der Methodik, die wiederum Fachwissen und damit auch Fachkräfte zur Bearbeitung voraussetzt und somit die Umsetzung erschwert. Zum anderen orientieren sich die Kosten auch am hohen Aufwand der Datenbeschaffung und deren Umfang. Diese Aspekte können dann zu einem erhöhten Aufwand an zeitlichen und finanziellen Ressourcen führen.

45

4.2 BDEW – EEG-bedingter Netzausbaubedarf 2020 An zweiter Stelle wird in diesem Kapitel ein Ansatz betrachtet, der in einem durch den BDEW beauftragten Gutachten mit dem Titel „Abschätzung des gesamtdeutschen Investitionsvolumens für Netzausbau in Verteilungsnetzen infolge des bis 2020 zu erwartenden Zubaus an installierter Wind- und Photovoltaikleistung“ [12] angewandt wird.

Abbildung 10: Übersicht über das methodische Vorgehen [12]

Anhand Abbildung 10 wird dabei das allgemeine Vorgehen beschrieben. Um das gesamtdeutsche Investitionsvolumen für den Netzausbau in einem ersten Schritt zu ermitteln, werden die Netznutzungsszenarien für das Jahr 2020 festgelegt, welche einerseits auf dem Energiekonzept der Bundesregierung basieren und andererseits auf dem BMU-Leitszenario. Letzteres unterscheidet sich vor allem durch eine höhere Zubauprognose von Photovoltaikanlagen vom Energiekonzept. In einem weiteren Schritt werden sogenannte Modellregionen definiert und parametriert. Dies geschieht durch ein "Clustern" Deutschlands bezüglich der heute installierten Wind- und Photovoltaikleistung, wodurch ähnlich geprägte Netzregionen entstehen. Dabei werden die Netzbetreiber in Deutschland einer Modellnetzregion zugeordnet. Entscheidend hierfür ist das Verhältnis der installierten Wind- bzw. Photovoltaikleistung pro NSEntnahmestelle. Darauf aufbauend werden im Anschluss für jede Modellregion Strukturparameter wie Einwohnerzahl, Fläche, technischer Anlagenbestand oder auch Absatzmengen bestimmt. Die Hochrechnung der Werte auf ganz Deutschland geschieht dann „auf Basis offizieller Daten statistischer Ämter des Bundes und der Länder sowie Veröffentlichungen der Bundesnetzagentur“ [12]. Nachdem für jede Modellregion ein typisiertes Modellnetz erstellt ist, können mit Hilfe der Durchführung von Simulationen technische Randbedingungen und kritische Netzzustände untersucht werden. [12] 46

4.2.1

Methodik

In diesem Abschnitt wird das angewandte Vorgehen genauer erläutert. Es werden fünf Modellnetzregionen definiert. Neben einem Modellnetz, welches sämtliche städtische Netze Deutschlands abbilden soll, werden vier weitere bestimmt, welche die Flächennetze repräsentieren und sich jeweils durch den Anteil an Windenergie- bzw. Photovoltaik-Nutzung charakterisieren lassen. Daher wird neben einem Modellnetz „Küste“, das sehr stark windgeprägt ist, und einem Netz „Nord-Ost“, welches sich ebenfalls überwiegend durch Windenergienutzung auszeichnet, ein Modellnetz „Süd“ definiert, welches dementsprechend durch eine Stromerzeugung mittels Photovoltaikanlagen geprägt ist. Als fünfte Modellregion weist das Modellnetz „Mitte“ eine gemischte Prägung auf. Die Bezeichnungen der genannten Modellnetzregionen assoziieren bereits eine Verbindung zur geographischen Lage der Regionen innerhalb Deutschlands. Deshalb werden für die jeweilige Netzmodellierung auch die Daten der dort zuständigen Netzbetreiber verwendet. Somit ergeben sich für jede der fünf Modellnetzregionen Kenngrößen wie Netzlänge je Spannungsebene, Anzahl an Umspannwerken bzw. Ortsnetzstationen, installierten Leistungen oder die Anzahl an NS-Kunden. Ist das Clustern Deutschlands in Modellnetzregionen vollzogen, so werden je Region „spezifisch parametrierte[r] Modellnetze zur netzebenenscharfen Ermittlung des Ausbaubedarfs unter Anwendung konventioneller, standardisierter Technik und Planungsgrundsätze“ [12] betrachtet. Es lassen sich für jedes Modellnetz Parameter wie die Anzahl der Modellnetze je untersuchter Region, Transformatorgrößen, die maximale Leistung auf Seiten des HS-Netzes oder der Anzahl an MS- bzw. NS-Kunden ableiten. Die Skalierung erfolgt anteilig anhand der Zahl an versorgten Einwohnern bzw. anhand der Gesamtfläche. Dabei kann eine Modellnetzregion ganze bzw. Teile von Bundesländern umfassen. Darauf folgt eine Hochrechnung der Modellnetzergebnisse auf eine Region bzw. auf ganz Deutschland. [12] Nun soll geklärt werden, inwieweit das hier betrachtete Verfahren die verschiedenen Faktoren, die die Heterogenität von Verteilnetzen bedingen können, berücksichtigt. Die Anzahl an Verbraucherlasten wird in Quelle [12] nicht als Kenngröße genannt. Zwar erfolgt die Ermittlung der Last- und Strukturdaten der Modellnetzregionen durch Zuordnung und Aggregation realer Netze, jedoch tauchen unter anderen nur die Anzahl der Kunden und die Größe der Transformatoren in den Tabellen auf. Daraus wird geschlossen, dass dieser Faktor nur bedingt in die Überlegungen miteinfließt. Dahingegen wird die Verteilung der Verbraucherlasten insofern berücksichtigt, als dass die Skalierung anhand der Einwohnerzahl bzw. an der Gesamtfläche vollzogen wird. 47

Ein weiterer Heterogenitätsfaktor beschäftigt sich mit den Erzeugungsanlagen von Verteilnetzen. Auch hier können nur bedingt Aussagen formuliert werden. Das hier betrachtete Verfahren berücksichtigt die Anzahl an Erzeugungsanlagen dadurch, dass der Netzausbaubedarf für (fünf) Modellnetzregionen bestimmt wird und zwei Zukunftsszenarien miteinander verglichen werden. Als Kenngrößen werden in den Tabellen ausschließlich die gesamte installierte Leistung an Wind- bzw.- Photovoltaikanlagen pro Modellregion aufgeführt. Die Verteilung der Erzeugungsanlagen wird dem EEG-Anlagenregister entnommen. Das heißt, die installierte Leistung an EE wird mit Hilfe dieses Registers zugeordnet, wobei in diesem Zusammenhang nur Wind- und Photovoltaikanlagen als EE zu zählen sind, da andere Technologien außer Acht gelassen werden. Als weiterer Faktor der Heterogenität von Netzen kann die Netztopographie genannt werden. Diese wird hier zwar insofern berücksichtigt, als dass die Ermittlung der Last- und Strukturdaten der Modellnetzregionen durch Zuordnung und Aggregation realer Netze geschieht, jedoch beruhen die Ergebnisse auf Modellnetzannahmen, wodurch „der tatsächliche Bedarf im Einzelfall [..] durch regionale Besonderheiten deutlich vom Modellwert abweichen“ [12] kann. Außerdem werden typisierte Netzstrukturen verwendet. Völlig außer Acht gelassen wird bei diesem Verfahren der Einsatz und die Verbreitung innovativer Netzbetriebsmittel, denn es werden ausschließlich die weiter oben bereits genannten Kenngrößen bzw. die daraus abgeleiteten Parameter betrachtet. 4.2.2

Bewertung anhand ausgewählter Zielkriterien

Wiederum wird an erster Stelle die Genauigkeit des Verfahrens bewertet. In diesem Zusammenhang sollten einige Abstriche gemacht werden, denn die gesamte Methodik ist mit mehreren Annahmen verbunden, die keine genauen und detaillierten Ergebnisse zulassen. Dies sind vor allem Modellnetzannahmen bzw. Annahmen zur Betriebsmittelauswahl. Des Weiteren richtet sich die Anzahl der Modellnetze je Region nach der Anzahl der Umspannwerke der zuständigen Verteilnetzbetreiber. Es werden auch nur fünf Modellnetzregionen gebildet, was die geringe Genauigkeit, beispielsweise im Vergleich zur Dena-Verteilnetzstudie, die elf mögliche Netzgebietsklassen ermittelt, unterstreicht. Außerdem wird für städtische Netzstrukturen nur ein Modellnetz gebildet, wodurch keine regionale Differenzierung des EEGbedingten Netzausbaus in städtischen Netzen möglich ist. Darüber hinaus kann der tatsächliche Bedarf an Netzausbau vom Modellwert in Einzelfällen stark abweichen, da ausschließlich mit typisierten Netzstrukturen gearbeitet wird. Und auch die Tatsache, dass ausschließlich die primären Treiber Windenergie- und Photovoltaiknutzung berücksichtigt und andere Anlagen48

typen wie Kraft-Wärme-Kopplungs-Anlagen (KWKA) oder Biomasse-Anlagen (BMA) vernachlässigt werden, verhindert eine höhere Ergebnisgenauigkeit. Da zudem keine spannungsübergreifende Netzausbauplanung erfolgt, sondern jede Spannungsebene separat betrachtet wird, können die mit dieser Methodik ermittelten Ergebnisse nur geringen Ansprüchen in Hinblick auf deren Genauigkeit genügen. Das Treffen vieler Annahmen und Vereinfachungen wirkt sich zwar negativ auf die Genauigkeit der Ergebnisse aus, bringt aber gleichzeitig auch Vorteile bei der Datenbeschaffung bzw. wirkt sich positiv auf die Datenverfügbarkeit aus. Denn es werden insgesamt weniger Daten benötigt als beispielsweise bei der dena-Verteilnetzstudie. Zum einen werden nur die Daten der großen Netzbetreiber berücksichtigt und die Zuordnung der installierten Leistung der EE erfolgt anhand des Anlagenregisters, das veröffentlicht ist. Zum anderen können die Strukturparameter, die aus den Daten der beteiligten Verteilnetzbetreiber gewonnen werden, zusätzlich mit amtlichen Statistiken abgeglichen werden. Somit stehen die Informationen zur Beschreibung der Heterogenitätsfaktoren der Einzelnetze im gewünschten Rahmen zur Verfügung. Die Daten für die im Rahmen der Hochrechnung entstehenden Modellnetzregionen und deren Heterogenitätsfaktoren sind ebenfalls ausreichend verfügbar, da die Bildung bzw. der Name dieser Modellnetze jene bereits auf ein geographisches Gebiet in Deutschland festlegt und daher die dort ansässigen Netzbetreiber in der Regel eine gute Datenverfügbarkeit gewährleisten können. All diese Punkte tragen demnach zu einer hohen Datenverfügbarkeit bei. Bei einer Bewertung der praktischen Umsetzbarkeit bzw. Anwendung sollte das Folgende beachtet werden. Der verwendete, relativ einfache Ansatz erleichtert den praktischen Umgang. Zudem werden nur für die MS- und HS-Ebene Simulationen durchgeführt, für die Ermittlung des Netzverstärkungsbedarfs auf NS-Ebene wird die Systematik des bereits bekannten Erweiterungsfaktors eingesetzt, der die Kostensteigerungen für Verteilnetzbetreiber aufgrund des Zubaus an Photovoltaikanlagen anhand der Veränderung der Erlösobergrenze abschätzt. Die Methodik des EF wurde bereits in Abschnitt 0 untersucht und bewertet. Im Gegensatz zur dena-Verteilnetzstudie kann das Verfahren weniger als etablierte Methode angesehen werden. Dies liegt unter anderem auch darin begründet, dass das vom BDEW in Auftrag gegebene Gutachten zu Beginn des Jahres 2011 erstellt bzw. veröffentlicht wurde und als erster Versuch einer Abschätzung des in Deutschland erforderlichen Netzausbaubedarfs angesehen wird. Die Kosten der Datenbeschaffung und Umsetzung dieser Methodik orientieren sich wiederum an deren Komplexität. Dies bedeutet unter anderem, dass sich der finanzielle und zeitliche

49

Aufwand aufgrund der beschränkten Anzahl an Beispielnetzen in Grenzen hält. Daher können die Kosten in ihrer Gesamtheit als gering angesehen werden.

4.3 Distribution-Network-Assessment-Tool Ein weiterer Ansatz zur Quantifizierung repräsentativer Aussagen auf Basis der Betrachtung einzelner Verteilnetze ist das Distribution-Network-Assessment-Tool. Ein Überblick zum Netzausbau einzelner Netzstrukturen ist bereits in Kapitel 2.2.1 zu finden. Darin wird das systematische Vorgehen mit Ablauf des Simulationsprozesses beschrieben. Es werden Verteilnetzstrukturen inklusive der Verteilung von Lasten und dezentraler Erzeugungsanlagen simuliert sowie der resultierende Netzausbaubedarfs unter Berücksichtigung weiterer Integrationsmaßnahmen ermittelt. Auf eine detailliertere Beschreibung des Verfahrens wird an dieser Stelle verzichtet. Vielmehr soll die Methodik dieses Absatzes und die Hochrechnung einzelner Simulationsergebnisse für einzelne Verteilnetze betrachtet werden. Zudem wird im folgenden Abschnitt wiederum eine Zuordnung der bekannten Heterogenitätsfaktoren vollzogen. 4.3.1

Methodik

Das DNA-Tool wurde bisher auf das Netzgebiet des Bundeslandes Baden-Württemberg angewandt, jedoch ist dies auch für das gesamte deutsche Netzgebiet denkbar. Das bisher betrachtete Netzgebiet wurde dabei in 30 Modellregionen unterteilt, für welche jeweils MonteCarlo-Simulationen durchgeführt werden. Dabei wird angenommen, dass die gesamte Leitungslänge einer Netzebene von deren Bevölkerung abhängig ist. Aus der Summe der Leitungslängen wird dabei ein öffentlich verfügbarer gesamter Wert für Baden-Württemberg bzw. Deutschland gebildet. Unter Verwendung von veröffentlichten Beispielnetzen werden zudem heterogene Verteilnetzstrukturen simuliert. Es wird eine Wahrscheinlichkeitsverteilung ermittelt und somit die Anzahl der Nachfolger eines Netzknotens simuliert. Ebenso wird die Verteilung der Leitungslänge zwischen den Knoten und deren Vorgängern der Beispielnetze bestimmt. Danach wird diese auf die Anschlussdichte je Region und Netzebene skaliert und es können die Leitungslängen zwischen den Knoten simuliert werden. Die Elektrizitätsnachfrage einer Modellregion leitet sich dabei wiederum aus einem Wert für Deutschland ab. Dies geschieht unter der Annahme der Proportionalität der Nachfrage zur Einwohnerzahl der jeweiligen Region. So können also über eine anschließende Lastflussberechnung kritische Knotenspannungen und Stromflüsse detektiert und deren Behebung durch verschiedene Maßnahmen simuliert werden. Dabei liefern die Monte-Carlo-Simulationen als Ergebnisgröße die 50

durchschnittliche Häufigkeit von Spannungsband- und Strombelastbarkeitsverletzungen sowie eine Aussage über den benötigten Netzausbau pro Modellregion und deren Kosten. Eine „Hochrechnung“ auf ganz Deutschland bzw. auf mehrere Bundesländer kann dadurch erfolgen, dass mehr Modellregionen simuliert werden, also eine größere Fläche betrachtet wird. Dies führt jedoch zu einer deutlich größeren Anzahl an Simulationen und zu längeren Rechenzeiten. Dieses Vorgehen ermöglicht auch die Berücksichtigung von Faktoren der Heterogenität, welche nun an dieser Stelle betrachtet werden. Sowohl die Anzahl als auch die Verteilung der Verbraucherlasten werden bei der Systematik des DNA-Tools berücksichtigt. Die Verteilung der Lasten über die Netzebenen basiert zudem auf einer beispielhaften Verteilung von Verteilnetzbetreibern. Durch die Verwendung aggregierter Lastprofile kann die Ganglinie der Last über 8760 Stunden eines Jahres in die Betrachtungen miteinbezogen werden. Auf Seiten der Erzeugung lässt sich ebenfalls eine Berücksichtigung der betreffenden Faktoren nachweisen. Die Anzahl und die Verteilung der Erzeugungsanlagen werden dem EE-Anlagenregister entnommen, welches von der Bundesnetzagentur regelmäßig aktualisiert und veröffentlicht wird. Des Weiteren werden nicht nur Photovoltaik- und Windenergieanlagen berücksichtigt, sondern auch andere erneuerbare Energieträger wie Biomasse oder Geothermie. Außerdem geht die Art der Erzeugungsanlagen in die Untersuchungen mit ein, indem aggregierte Profile der unterschiedlichen Technologien betrachtet werden. Die Netztopographie wird, wie bereits weiter oben beschrieben, aus aggregierten Netzdaten und Beispielnetzen generiert. Als letzter hier betrachteter Heterogenitätsfaktor ist der mögliche Einsatz bzw. die Verbreitung innovativer Netzbetriebsmittel zu nennen. In diesem Zusammenhang ist hervorzuheben, dass das DNA-Tool diesen Faktor der Heterogenität von Verteilnetzen beachtet. Dies zeigt sich beispielsweise darin, dass flächendeckende Ausbau von regelbaren Ortsnetztransformatoren ausgegangen wird, die Wirkung von Leistungsbegrenzung berücksichtigt werden kann oder auch der resultierende Netzausbau infolge von Wirkleistungsreduktion beschrieben wird (vgl. Quelle [16]). 4.3.2

Bewertung anhand ausgewählter Zielkriterien

Wird die im Zuge des DNA-Tools verwendete Methodik der Hochrechnung anhand von ausgewählten Zielkriterien bewertet, so resultieren daraus folgende Ergebnisse: Aufgrund der Verwendung von aggregierten Daten werden Vereinfachungen durchgeführt, welche die Genauigkeit der Ergebnisse herabsetzen. Jedoch wird die Heterogenität von Verteilnetzen durch mehrere Simulationsdurchläufe (Monte-Carlo-Simulation) abgebildet und 51

berücksichtigt, um die Abhängigkeit von der Ausprägung einer bestimmten Netzstruktur zu vermindern und damit repräsentative Netze zu generieren. Die Verwendung von aggregierten Daten und der Datenbezug aus überwiegend öffentlich zugänglichen Quellen beeinflusst auch die Datenverfügbarkeit. Die Informationen zu den dezentralen Erzeugungsanlagen werden dem EE-Anlagenregister entnommen, welches regelmäßig von der Bundesnetzagentur veröffentlicht wird. Ebenfalls öffentlich zugänglich ist die sogenannte Geodatenbank, welcher unter anderen Informationen zu Gemeinden und Städten zu entnehmen sind. Diese genannten Faktoren tragen zu einer guten Datenverfügbarkeit bei. Wird die Methodik des DNA-Tools des Weiteren auf deren praktische Umsetzbarkeit hin untersucht, so ermöglicht zwar die relativ geringe Komplexität (vor allem im Vergleich zur Methodik der dena-Verteilnetzstudie) einen einfachen Umgang mit diesem Verfahren, aber es zeigen sich auch Grenzen. Denn vor allem bei geografisch großflächiger Anwendung, wie es beispielsweise bei Betrachtung von ganzen Bundesländern oder von ganz Deutschland der Fall ist, resultieren lange Rechenzeiten. Diese können zwar durch eine Verminderung der Anzahl an Simulationsläufen reduziert werden, wirken sich aber gleichzeitig negativ auf die Genauigkeit des Verfahrens aus, da sich die Wahrscheinlichkeit der Abhängigkeit der Ergebnisse von einer bestimmten Netzstruktur erhöht. Eine solche großflächige Anwendung wurde bisher für das Bundesland Baden-Württemberg durchgeführt. Eine Beurteilung darüber, inwieweit das DNA-Tool und dessen Methodik zur Hochrechnung der Ergebnisse als etablierte Methode angesehen werden kann, ist zum jetzigen Zeitpunkt noch nicht möglich. Eine abschließende Bewertung der Kosten lässt sich auf den bisherigen Erläuterungen aufbauen. Durch den einfachen, meist öffentlichen Zugang zu den relevanten Daten und Informationen erweisen sich die Kosten der Anwendung der Methodik der Hochrechnung als gering. Allein der Rechenaufwand sollte beachtet werden.

4.4 Klassifizierung von Verteilnetzen Das Ziel der Klassifizierung von Verteilnetzen ist es, eine Clusteranalyse der elektrischen Parameter von Verteilnetzgebieten. Dies unterscheidet sich von den Ansätzen der DenaVerteilnetzstudie, da diese die Prämisse verfolgt, dass die Gemeindegebiete eine ähnliche Entwicklung bei der Versorgungsaufgabe aufweisen [1]. Das bedeutet, eine Unterteilung in repräsentative Netzgruppen erfolgt aufgrund definierter Strukturklassen. Bei der Klassifizierung von Verteilnetzen sollen hierfür elektrische Parameter, wie zum Beispiel die Widerstandswerte oder Leitungslängen verwendet werden [33]. 52

4.4.1

Methodik

Eine Methodik zur Klassifizierung von Verteilnetzen wird in [33] anhand der Netzdaten der Netze BW GmbH vorgestellt. Diese verfolgt das Ziel Referenznetze zu erstellen, welche mit „hinreichender Genauigkeit alle Niederspannungsnetze der Netze BW repräsentieren“ [33]. In dieser Arbeit werden insgesamt 27 Parameter bestimmt mit denen eine Klassifizierung möglich ist. Da ein System mit einer 27-dimensionalen Clusterzuordnung sehr komplex ist, werden zuerst mithilfe der Faktoranalyse und einer Plausibilitätsprüfung 5 geeignet Parameter ausgewählt [33]. Diese Parameter sind die Leitungslänge, Trafoleistung, Alter, spezifischer Widerstand und die Anzahl an PV [33]. Mithilfe dieser Auswahl der Parameter erfolgt eine Clusteranalyse, welche die Datensätze in plausible Gruppen zusammenfasst. In [33] werden für das Versorgungsgebiet der Netze BW insgesamt 11 Referenznetze ermittelt. Dabei zeigt sich, dass die Cluster sich geographisch über das gesamte Versorgungsgebiet erstrecken und

Ortsnetzstationen der Niederspannung nach Clustern Verhaltens, ist in Abbildung 11 die räumliche Zuordnung der Cluster dargestellt.

keine räumliche Zuordnung der Referenznetze erfolgt. Zur Verdeutlichung dieses räumlichen

Legende Cluster 2 Cluster 3 Cluster 4 Cluster 5 Cluster 6 Cluster 7 Cluster 8 Cluster 9 Cluster 10 Cluster 11

Abbildung 11: Räumliche Zuordnung der Cluster über das Versorgungsgebiet von Baden-Württemberg [33] Datengrundlage: Netze BW

Autor: Ann-Kathrin Krauss

Stand: 03/2014

53

Wie in Abbildung 11 deutlich wird, verteilen sich sämtliche Cluster über das gesamte Gebiet von Baden-Württemberg. Eine regionale Abhängigkeit ist dabei nicht zu erkennen. Zusätzlich wird in Abbildung 11 deutlich, dass in der Clusteranalyse eine große Anzahl an Verteilnetzen keinem Cluster zugeordnet wird, was die Bildung einer repräsentativen Aussage erschwert. 4.4.2

Bewertung anhand ausgewählter Zielkriterien

Eine ausführliche Bewertung des Verfahrens anhand der definierten Zielkriterien ist zum Zeitpunkt der Studie nur begrenzt möglich, da dieses Verfahren bislang nur zur Bildung von Referenznetzen eingesetzt wurde und noch keine Hochrechnung mit diesem Verfahren auf größere Gebiete erfolgte. Aus diesem Grund kann die Genauigkeit sowie die praktische Umsetzbarkeit der Hochrechnung nicht beurteilt werden. Wie in der Methodik beschrieben, werden für die Klassifizierung sehr viele technische Parameter verwendet, die nur den Netzbetreibern vorliegen. Das bedeutet, die Datenverfügbarkeit kann für eine Verallgemeinerung dieses Verfahrens als schlecht bewertet werden. Da diese Methode aus einem aktuellen Forschungsprojekt stammt, kann davon ausgegangen werden, dass die Klassifizierung von Verteilnetzen als nicht etabliert, sowohl auf politischer als auch auf wissenschaftlicher Ebene gilt. Die Kosten des Verfahrens können ebenfalls als hoch angesehen werden, da die notwendigen Daten aus verschiedenen Systemen innerhalb des Netzbetreibers stammen und somit ein hoher personeller als auch zeitlicher Aufwand notwendig ist. 4.4.3

Weitere Verfahren zur Klassifizierung

Die Klassifizierung der Verteilnetze nach ihren elektrischen Parametern wird ebenfalls in anderen Studien angewandt. Dabei unterscheidet sich die Anwendung des Verfahrens durch die Auswahl der Parameter. In [20] beispielsweise werden die unterschiedlichen deutschen Verteilnetzbetreiber anhand ihrer durchschnittlichen Leistung der Photovoltaik bzw. der Windkraftanlagen je Entnahmestelle zusammengefasst. Zusätzlich fließt in diese Betrachtung die durchschnittliche Jahreshöchstlast je Entnahmestelle mit ein. Für die Klassifizierung werden in [20] feste Grenzen vorgegeben. Dies unterscheidet sich signifikant von der Clusterung wie sie in [33] verwendet wird. Jedoch erfolgt wie [33] eine weitere Unterteilung in die Mittelund Niederspannung. Durch die Klassifizierung der Verteilnetzbetreiber in [20] ergibt sich ebenfalls eine unterschiedliche räumliche Zuordnung. Diese Zuordnung ist über ganz Deutschland in Abbildung 12 dargestellt.

54

Abbildung 12: Geografische Verteilung der Verteilnetzbetreiber nach den Modellklassen [20]

Vergleicht man die Klassifizierung für die Niederspannung im Gebiet von BadenWürttemberg aus Abbildung 12 mit Abbildung 11, so sind die Unterschiede ersichtlich. Dies ist auf die Klassifizierung der einzelnen Netze wie in [33] und in Verteilnetzbetreiber wie in [20] zurückzuführen. Mithilfe dieser Klassifizierung werden in [20] typische Netzstrukturen abgeleitet um damit den Verteilnetzausbaubedarf in Deutschland zu bestimmen.

55

5 Zusammenfassung In dieser Studie mit dem Titel ‚Integrale Modellierung von Verteilnetzen und verteilter Erzeugung‘ werden verschiedene Methoden zur Ermittlung des Netzausbaubedarfs im Verteilnetz beschrieben. Dabei werden ausgehend von bereits angewandten Methoden neue Konzepte vorgestellt, mit denen ein optimaler, integrierter Netzausbau unter Verwendung verschiedener Integrationsoptionen der erneuerbaren Energien ermittelt werden kann. Da in all diesen Verfahren Vereinfachungen, sowohl auf regionalspezifische Eigenschaften als auch in der Abbildungsgenauigkeit angewandt werden, erfolgt abschließend eine Beschreibung von Ansätzen zur Formulierung repräsentativer Aussagen auf größere Versorgungsgebiete wie beispielsweise Deutschland. In den bereits angewandten Methoden zur Ermittlung des Netzausbaubedarfs zeigen sich starke Unterschiede sowohl in der Abbildungsgenauigkeit als auch im notwendigen Rechenaufwand und den erforderlichen Eingangsdaten. Methoden wie zum Beispiel die komplexe Lastflussanalyse berechnen den notwendigen Netzausbaubedarf sehr exakt, da die reellen Netzparameter in der Berechnung verwendet werden. Dies ist auch der Grund warum derartige Verfahren in den Netzplanungsabteilungen der Verteilnetzbetreiber eingesetzt werden. Andere Methoden wie die Simulation von Verteilnetzstrukturen benötigen weniger detaillierte Eingangsdaten, wodurch die Abbildungsgenauigkeit sinkt. Vorteilhaft demgegenüber sind der geringere Rechenaufwand und die Möglichkeit allgemeingültiger Aussagen. Mit der Grenzkurvenanalyse, welche in der dena-Verteilnetzstudie Anwendung findet, bietet sich die Möglichkeit, mit einfachen visuellen Darstellungen zu arbeiten, sofern digitalisierte Pläne vorliegen. Unter anderem deshalb kommt die Grenzkurvenanalyse vor allem in der operativen und strategischen Netzplanung zum Einsatz. Der Erweiterungsfaktor hingegen ist ein kostengünstiges, finanztechnisches Instrument, welches eine schnelle Quantifizierung der Kosten des Netzausbaus ermöglicht. Eine praktische Anwendung dieses Faktors ist jedoch kritisch zu sehen, sofern technische Restriktionen berücksichtigt werden sollen. Unter der Annahme einer steigenden Komplexität des Energieversorgungssystems rückt zunehmend die Probabilistische Lastflussanalyse in den Vordergrund, da mit diesem Verfahren zusätzlich die Auswirkungen von Netzbetriebsstrategien auf den Netzausbau untersucht werden können. Ausgehend von den bereits angewandten Methoden werden neue Konzepte entwickelt und vorgestellt, welche unter dem Fokus eines integrierten Ansatzes die Ermittlung optimaler Netzausbaumaßnahmen unter Berücksichtigung der Integrationsoptionen ermöglicht. Aufgrund der sich daraus ergebenden Komplexität der Problemstellung sind Vereinfachungen 56

notwendig, da die verfügbare Rechenleistung hier ein Limit setzt. Dabei werden die Vor- und Nachteile der Betrachtung einzelner Verteilnetze, einer extremen Vereinfachung der Netztopologie und der Abbildung der Netzrestriktionen als Kostenfaktoren gegenübergestellt. Dabei zeigt sich, dass die Auswahl eines Konzepts an die Problemstellung angepasst werden muss, da beispielsweise mit der Betrachtung einzelner Verteilnetze ein optimaler Ausbau ermittelt werden kann, jedoch allgemeingültige Aussagen mit diesem Konzept nur sehr aufwändig gebildet werden können. In einem letzten Abschnitt dieser Studie werden Verfahren für die Formulierung repräsentativer Aussagen durch die Ermittlung des Netzausbaubedarfs in einzelnen Verteilnetzen bestimmt. Für diese Zielstellung existieren Verfahren, welche eine Klassifizierung der Regionen vornehmen und anschließend den spezifischen Netzausbau anhand der Häufigkeit der klassifizierten Regionen auf ein größeres Versorgungsgebiet hochrechnen. Die hier vorgestellten Verfahren unterscheiden sich in der Klassifizierung von Modellregionen. Hier existieren Verfahren, welche sowohl die strukturellen Gegebenheiten der Versorgungsaufgabe berücksichtigen, als auch die elektrischen Parameter der Verteilnetze verwenden. Demgegenüber existieren Verfahren, die repräsentative Aussagen zum Ausbaubedarf des Netzes durch die Verwendung von heterogenen, vereinfachten Netzstrukturen ermöglichen.

Abschließend lässt sich zusammenfassen, dass eine Vielzahl von Methoden sowohl zur Ermittlung des Netzausbaubedarfs als auch zur Formulierung repräsentativer Aussagen existiert. Dabei wird jedoch die integrierte Abbildung von Verteilnetzen und verteilter Erzeugung im Elektrizitätssystem vernachlässigt. Dies kann durch die in Abschnitt 3 entwickelten Konzepte berücksichtigt werden. Es zeigt sich, dass aufgrund der Komplexität des Elektrizitätssystems bei einem integrierten Ansatz Vereinfachungen bezüglich der Topologie und der regionalen Heterogenität getroffen werden müssen. Die drei beschriebenen Konzepte ermöglichen dabei die Quantifizierung der Kosten des Verteilnetzausbaus unter Berücksichtigung von Wechselwirkungen mit dem restlichen Elektrizitätssystems. Außerdem ist eine Kombination der Ergebnisse der drei integrierten Konzepte in Form einer Metastudie zur weiteren Präzisierung möglich.

57

6 Literaturverzeichnis [1]

Deutsche Energie-Agentur GmbH (2012): dena-Verteilnetzstudie. Ausbau-und Innovationsbedarf der Stromverteilnetze in Deutschland bis 2030. Berlin

[2]

Gwisdorf, Björn; Hammerschmidt, Thorsten; Rehtanz, Christian (2011): Praxisgerechte Anwendung innovativer Netzkonzepte mittels Grenzkurvenanalyse zur Unterstützung von Netzplanungsvorgängen. Würzburg: Internationaler ETG-Kongress 2011

[3]

Nagel, Hermann (2008): Systematische Netzplanung. 2. Auflage. Berlin: VWEW Energieverlag GmbH

[4]

Informationsplattform der deutschen Übertragungsnetzbetreiber (EEG/KWK-G): Anlagenstammdaten.

2012,

http://www.eeg-

kwk.net/de/file/Anlagenstammdaten_2010_Aufgeteilt_XLS.zip, 17.10.2012 [5]

Bundesverband der Energie- und Wasserwirtschaft (BDEW): Energiedaten. 2011, http://www.bdew.de/internet.nsf/id/DE_Energiedaten, 02.11.2011

[6]

European Network of Transmission System Operators for Electricity (ENTSO-E): Hourly Load Values for a Specific Country for a Specific Month. 2011, https://www.entsoe.eu/db-query/consumption/mhlv-a-specific-country-for-a-specificmonth/, 12.08.2011

[7]

Energie Dienst Netze GmbH: Netzstrukturdaten. 2011, http://www.energiedienstnetze.de/cms/netznutzung/veroeffentlichungspflichten/netzstrukturdaten.php, 08.09.2011

[8]

Heuck, K.; Dettmann, K. (2005): Elektrische Energieversorgung. Wiesbaden: Vieweg Verlag

[9]

Consentec GmbH (2014): Gutachten zur Weiterentwicklung des Erweiterungsfaktors gemäß § 10 ARegV für Stromverteilnetzbetreiber. Bonn

[10]

Verordnung über die Anreizregulierung der Energieversorgungsnetze (ARegV) vom 29.10.2007 i. d. F. v. 14.08.2013 § 10

[11]

Bundesnetzagentur: Anlage 1 zum Leitfaden zur Anpassung der Erlösobergrenze aufgrund eines Antrages auf Erweiterungsfaktor nach § 4 Abs. 4 Nr.1 i.V.m. § 10 ARegV

für

Stromverteilernetzbetreiber.

2014,

http://www.bundesnetzagentur.de/SharedDocs/Downloads/DE/Sachgebiete/Energie/ Unternehmen_Institutionen/Netzentgelte/Strom/Erweiterungsfaktor/Leitfaden, 58

13.06.2014 [12]

E-Bridge Consulting GmbH (2011): Kurzfassung - Abschätzung des Ausbaubedarfs in deutschen Verteilungsnetzen aufgrund von Photovoltaik- und Windeinspeisungen bis 2020. Bonn/Aachen

[13]

Forschungsgemeinschaft für elektrische Anlagen und Stromwirtschaft e.V. (FGH): INTEGRAL.

Februar

2012,

http://www.fgh.rwth-

aachen.de/www/cms/front_content.php?idcat=34, 06.02.2012 [14]

Rudion, K.; Orths, A.; Styczynski, Z.; Strunz, K. (2006): Design of Benchmark of Medium Voltage Distribution Network for Investigation of DG Integration - Accepted Paper for the 2006 IEEE PES Conference. Montreal

[15]

Schwab, A. (2013): Elektroenergiesysteme - Erzeugung, Transport, Übertragung und Verteilung elektrischer Energie. 2. Auflage. Berlin/Heidelberg: Springer Verlag

[16]

Bundesnetzagentur

(BNetzA):

Wissenschaftsdialog

2013



Tagungsband,

www.netzausbau.de/wissenschaftsdialog-2013, 01.08.2014 [17]

Bundesministerium der Justiz und für Verbraucherschutz; juris GmbH: ARegV - Einzelnorm.

Anlage

2

(zu

§

10),

2007,

http://www.gesetze-im-

internet.de/aregv/anlage_2_51.html, 12.06.2014 [18]

Institut für Elektrische Anlagen und Energiewirtschaft (2011): Abschätzung des Ausbaubedarfs in deutschen Verteilungsnetzen aufgrund von Photovoltaik- und Windeinspeisungen bis 2020. Aachen

[19]

Fachgebiet Elektrische Energieversorgungsnetze (2013): Verteilnetzstudie Bayern 2013: Ausbaubedarf bis 2021 – Basisszenario – Zwischenbericht. München

[20]

E-Bridge; IAEW; OFFIS (September 2014): Moderne Verteilernetze für Deutschland (Verteilernetzstudie). Studie im Auftrag des Bundesministeriums für Wirtschaft und Energie

[21]

Borkowska, B.: Probabilistic load flow. IEEE Trans Power Appa Syst PAS94(3):752-759

[22]

Seack, A.; Kays, J.; Jendernalik, L.; Giavarra, D. (2014): Potentiale und Risiken bei der Verwendung innovatier Netzplanungsansätze – Beitrag für das 13. Symposium Energieinnovation. Graz

[23]

Schmidtner, T. (2012): Probabilistische Methoden in der Netzplanung „Niederspannung“. VDE-Kongress. Stuttgart

[24]

Deutsche Energie-Agentur GmbH (2014): Einfühurng von Smart Meter in Deutschland.. Analyse von Rolloutszenarien und ihrer regulatorischen Implikationen. Berlin 59

[25]

Probst, A.; Braun, M.; Tenbohlen, S. (November 2011): Erstellung und Simulation probabilistischer Lastmodelle von Haushalten und Elektrofahrzeugen zur Spannungsbandanalyse. ETG Kongress. Würzburg

[26]

Herman, R.; Gaunt, C. T. (April 2008): A Practical Probabilis-tic Design Procedure for LV Residential Distribution Systems. IEEE Trans. Power Delivery

[27]

Labeeuw, W.; Deconinck, G. (August 2013): Residential Electrical Load Model Based on Mixture Model Clustering and Markov Models. Industrial Informatics. IEEE Transactions

[28]

Uhrig, M.; Müller, R.; Leibfried, T. (2014): Statistical consumer modelling based on smart meter measurement data. 13th International Conference on Probabilistic Methods applied to Power Systems. Durham

[29]

Eilenberger, S. et. al. (2013): Probabilistic Simulation for LV-Grid optimization with new network components. 22nd International conference on Electricity Distribution (CIRED). Stockholm

[30]

Schwippe, J. et. al. (Juni 2011): Netzausbauplanung unter Berücksichtigung probabilistischer Einflussgrößen. Zeitschrift für Energiewirtschaft, Band 35, Ausgabe 2, S. 125-138.

[31]

Schwippe, J.; Krause, O.; Rehtanz, C. (2009): Probabilistic Load Flow Calculation Based on an Enhanced Convolution Technique. IEEE Power Tech Conference. Bucharest

[32]

Eilenberger, S. et. al. (2014): Power management systems for voltage control in probabilistic simulations. 13th International Conference on Probabilistic Methods applied to Power Systems. Durham

[33]

Walker, G. et. al. (20./21.10.2014): Entwicklung eines standardisierten Ansatzes zur Klassifizierung von Verteilnetzen. VDE-Kongress 2014. Frankfurt

60

Suggest Documents