Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:34

Jürg Aeppli Luciano Gasser Eveline Gutzwiller Annette Tettenborn

Empirisches wissenschaftliches Arbeiten

2. Auflage

Ein Studienbuch für die Bildungswissenschaften

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:34

AEPPLI / GASSER / GUTZWILLER / TETTENBORN EMPIRISCHES WISSENSCHAFTLICHES ARBEITEN

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:34

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:34

EMPIRISCHES WISSENSCHAFTLICHES ARBEITEN Ein Studienbuch für die Bildungswissenschaften

von Jürg Aeppli, Luciano Gasser, Eveline Gutzwiller und Annette Tettenborn

2., durchgesehene Auflage

VERLAG JULIUS KLINKHARDT BAD HEILBRUNN • 2011

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:34

Umschlagbild: Holzschnitt von Albrecht Dürer. Der Zeichner des liegenden Weibes. Aus: Underweysung der messung ... 1538.

Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet abrufbar über http://dnb.d-nb.de. 2011.5.Kag © by Julius Klinkhardt. Das Werk ist einschließlich aller seiner Teile urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Druck und Bindung: AZ Druck und Datentechnik, Kempten. Printed in Germany 2011. Gedruckt auf chlorfrei gebleichtem alterungsbeständigem Papier. ISBN 978-3-7815-1812-4

Powered by TCPDF (www.tcpdf.org)

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:36

Inhalt 1 Wie kommt man zu Wissen? (unter Mitarbeit von Thomas Häcker) ....................................................... 14   1.1 Alltagswissen – Wissenschaftliches Wissen........................................ 15   1.2 Die Bedeutung von Theorie ................................................................. 18   1.3 Der Einfluss der Wissenschaften auf die Gesellschaft......................... 20   1.4 Etappen der Wissensgenerierung und deren Kritik: Ein kurzer Überblick über die Wissenschaftsgeschichte ..................... 22   1.4.1 Vom Mythos zum Logos – die erste Aufklärung ....................... 22   1.4.2 Ein neuer Begriff von Wissenschaft und Methode − die Neuzeit als zweite Aufklärung.............................................. 24   1.4.3 Fortschrittseuphorie und Aufkommen erster Zweifel am Versprechen der Wissenschaft − die dritte Aufklärung.............. 26   1.5 Ansprüche an wissenschaftliches Wissen oder was Wissenschaft ausmacht .............................................................................................. 29   1.6 Zur Rolle der Wissenschaft in einer wissenschaftlichen Lehrerinnenund Lehrerbildung ............................................................................... 30   2 Empirische Forschung.............................................................................. 33   2.1 Was versteht man unter empirischer Forschung? Eine erste kurze Antwort ..................................................................... 33   2.2 Grundbegriffe empirischer Forschung ................................................. 37   2.2.1 Erfahrungen, Beobachtungen, Tatsachen als Ausgangspunkt .... 37   2.2.2 Erklären und Vorhersagen als Ziel ............................................. 41   2.2.3 Beeinflussen und Verändern....................................................... 46   2.3 Empirische Forschung innerhalb verschiedener Wissenschafts- und Forschungsverständnisse ..................................... 47   2.4 Der idealtypische Ablauf eines empirischen Forschungsprozesses ..... 50   2.4.1 Themensuche: Entwicklung und Formulierung einer Fragestellung............................................................................... 51   2.4.2 Untersuchungsplanung ............................................................... 52   2.4.3 Durchführung der Untersuchung: Datenerhebung...................... 52   2.4.4 Datenauswertung ........................................................................ 53   2.4.5 Interpretation und Beantwortung der Fragestellung, Berichterstattung......................................................................... 54   2.5 Wissenschaftliche Integrität − Ethische Richtlinien des wissenschaftlichen Arbeitens............................................................... 55   2.6 Empirische Forschung in den Bildungswissenschaften ....................... 62  

5

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:36

3 Forschungskompetenzen für Lehrpersonen und Forschung von Lehrpersonen ......................................................... 63   3.1 Forschungskompetenzen für Lehrerinnen und Lehrer? ....................... 64   3.1.1 Erwartungen an eine Lehrerinnenund Lehrer-Hochschulbildung .................................................... 64   3.1.2 Förderung der professionellen Kompetenz von Lehrpersonen durch Forschungskompetenzen .................................................. 65   3.1.3 Forschungskompetenzen für eine reflektierte Unterrichts- und Schulentwicklung ............................................ 67   3.1.4 Der Erwerb von Forschungskompetenzen in der Aus- und Weiterbildung ............................................................................. 72   3.2 Forschung von Lehrerinnen und Lehrern............................................. 75   3.2.1 Forschendes Lernen .................................................................... 75   3.2.2 Forschungsansätze für Lehrerinnen und Lehrer: Handlungs-, Praxis- und Evaluationsforschung ......................... 77   3.2.3 Beispiel „Praxisforschung“......................................................... 78   4 Grundlagen für die Planung einer Untersuchung ................................. 87   4.1 Von der Frage zur Untersuchung ......................................................... 89   4.1.1 Ideen für eine Untersuchung finden und bewerten..................... 90   4.1.2 Formulierung von Fragestellung und Hypothesen ..................... 93   4.1.3 Konstrukte, Begriffsdefinitionen und Operationalisierung ........ 98   4.1.4 Qualitative und quantitative Zugänge....................................... 106   4.1.5 Stichproben ............................................................................... 109   4.1.6 Forschungsdesigns .................................................................... 113   4.2 Literatursuche und Beschaffung von Literatur .................................. 121   4.2.1 Quellen finden und bewerten.................................................... 122   4.2.2 Literatursuche und -beschaffung .............................................. 125   4.2.3 Literatur verarbeiten ................................................................. 137   4.2.4 Über die Gestaltung von Literaturverweisen, Zitaten und Literaturverzeichnis .................................................................. 140   4.3 Erstellung eines Untersuchungsplanes............................................... 141   4.3.1 Begründung und Erläuterung der Fragestellung....................... 142   4.3.2 Methode .................................................................................... 143   4.3.3 Zeitplan ..................................................................................... 144   4.3.4 Gliederungsstrategien ............................................................... 144  

6

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:36

5 Durchführung der Datenerhebung ....................................................... 148   5.1 Vorbereitung der Datenerhebung....................................................... 149   5.1.1 Erstellen eines Zeit- und Ablaufplans....................................... 149   5.1.2 Bereitstellen der Instrumente samt Instruktionen ..................... 152   5.2 Aktuelle Durchführung der Datenerhebung....................................... 154   5.2.1 Das Verhindern von Versuchsleiter-Effekten und weiteren Störvariablen............................................................................. 155   5.2.2 Weitere wichtige Aspekte der Datenerhebung ......................... 156   5.3 Nach der Datenerhebung.................................................................... 158   6 Datenerhebungsmethoden...................................................................... 160   6.1   Schriftliche Befragung (von Tina Malti) ........................................... 161   6.1.1 Grundlagen der schriftlichen Befragung .................................. 161   6.1.2 Planung der schriftlichen Befragung ........................................ 162   6.1.3 Erstellung des Fragebogens ...................................................... 170   6.1.4 Durchführung der Befragung.................................................... 172   6.2   Mündliche Befragung (von Stefanie Stadler Elmer) ......................... 175   6.2.1 Das wissenschaftliche Interview............................................... 175   6.2.2 Das Gespräch steuern: Interviewleitfaden erstellen, Fragen stellen............................................................................ 179   6.2.3 Das Interview organisieren und durchführen ........................... 183   6.2.4 Transkript erstellen ................................................................... 184   6.2.5 Schlussbemerkungen ................................................................ 186   6.3   Beobachtung (von Hanni Lötscher)................................................... 186   6.3.1 Elemente der Beobachtung ....................................................... 187   6.3.2 Entwicklung eines Beobachtungsinstruments .......................... 191   6.3.3 Videostudien als besondere Form des wissenschaftlichen Beobachtens.............................................................................. 193   6.3.4 Auswertung der Daten .............................................................. 195   6.4 Fallanalyse (von Tina Malti).............................................................. 196   6.4.1 Grundlagen der Einzelfallstudie ............................................... 197   6.4.2 Vorgehen bei der Einzelfallstudie ............................................ 198   6.5 Evaluation (von Alois Buholzer) ....................................................... 206   6.5.1 Begriffsklärung ......................................................................... 206   6.5.2 Funktionen der Evaluation........................................................ 208   6.5.3 Phasen im Evaluationsprozess .................................................. 210  

7

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:36

7 Auswertungen.......................................................................................... 218   7.1 Datenaufbereitung.............................................................................. 218   7.2   Qualitative Verfahren der Datenauswertung (von Christina Huber und Lukas Lehmann) ...................................... 219   7.2.1 Objektive Hermeneutik............................................................. 222   7.2.2 Grounded Theory...................................................................... 232   7.2.3 Qualitative Inhaltsanalyse......................................................... 238   7.2.4 Gütekriterien ............................................................................. 243   7.3 Statistische Auswertungen: Deskriptive Statistik, Teil I ................... 245   7.3.1 Messen ...................................................................................... 245   7.3.2 Aufbereitung von quantitativen Daten...................................... 248   7.3.3 Tabellarische Darstellung der Häufigkeitsverteilung der Ausprägungen eines Merkmals................................................. 254   7.3.4 Grafische Darstellung der Häufigkeitsverteilung der Ausprägungen eines Merkmals................................................. 259   7.3.5 Masszahlen zur Beschreibung der zentralen Tendenz (Mittelwerte) ............................................................................. 264   7.3.6 Masszahlen zur Beschreibung der Streuung............................. 268   7.4 Statistische Auswertungen: Deskriptive Statistik, Teil II – Beziehungen zwischen zwei Merkmalen........................................... 273   7.4.1 Tabellarische Darstellung der Beziehungen zwischen zwei Variablen mittels Kreuztabellen....................... 276   7.4.2 Grafische Darstellung der Beziehungen zwischen zwei Variablen mittels Streudiagrammen................. 277   7.4.3 Zusammenfassende Beschreibung der „Art“ eines Zusammenhangs: Die Regressionsanalyse ............................... 279   7.4.4 Beschreibung der „Stärke“ eines Zusammenhangs zwischen zwei intervallskalierten Variablen: Die Produkt-Moment-Korrelation ............................................ 285   7.4.5 Beschreibung der „Stärke“ eines Zusammenhangs zwischen zwei nicht-intervallskalierten Variablen ................... 290   7.4.6 Interpretationen von Korrelationen........................................... 291   7.5 Prüfstatistik ........................................................................................ 294   7.5.1 Grundprinzip prüfstatistischer Verfahren ................................. 296   7.5.2 Wann ist ein signifikantes Ergebnis „bedeutsam“? Die Berechnung von Effektstärken........................................... 302   7.5.3 Häufig verwendete hypothesenprüfende Verfahren ................. 304   7.5.4 Deskriptive und prüfstatistische Fragestellungen und die Interpretation der beantworteten Fragestellungen .................... 320  

8

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:36

8 Kommunikation der Forschungsergebnisse ......................................... 322   8.1 Erstellen eines empirischen Untersuchungsberichtes ........................ 322   8.1.1 Inhaltliche Aspekte ................................................................... 323   8.1.2 Formale Aspekte ....................................................................... 334   8.2 Wissenschaftliche Arbeiten mündlich präsentieren ........................... 338   8.2.1 Eine Präsentation planen........................................................... 339   8.2.2 Gliederung der Präsentation ..................................................... 339   8.2.3 Die anschliessende Diskussion ................................................. 341   8.2.4 Vorbereiten des Präsentationsmanuskriptes ............................. 342   8.2.5 Einsatz von Vortragsfolien ....................................................... 343   8.2.6 Handouts ................................................................................... 343   8.3 Posterpräsentationen .......................................................................... 347   8.3.1 Poster vorbereiten ..................................................................... 347   8.3.2 Gliederung und Posterlayout .................................................... 348   Literaturverzeichnis .................................................................................. 351   Stichwortverzeichnis.................................................................................. 362   Anhang: Richtlinien für die Gestaltung von Literaturhinweisen, Zitaten und Literaturverzeichnis....................................................................... 371   A.1 Einleitung .......................................................................................... 371   A.2 Literaturhinweise im Text ................................................................. 372   A.2.1 Grundsätzliches........................................................................ 372   A.2.2 Publikationen mit einem Autor/einer Autorin ......................... 373   A.2.3 Publikationen mit zwei Autor/innen ........................................ 373   A.2.4 Publikationen mit mehr als zwei Autor/innen ......................... 374   A.2.5 Reihenfolge der Nennung von Literaturhinweisen .................. 375   A.2.6 Sekundärzitate.......................................................................... 375   A.2.7 Publikationen als Teil von Sammelwerken ............................. 375   A.2.8 Publikationen von Institutionen, Organisationen und Vereinigungen.................................................................... 376   A.2.9 Quellenangaben für Originalausgaben und Übersetzungen..... 376   A.2.10 Quellen mit fehlenden Angaben ............................................ 377   A.2.11 Persönliche Mitteilungen ....................................................... 377   A.3 Wörtliche Zitate im Text................................................................... 378   A.3.1 Kennzeichnung von Zitaten im Text ....................................... 378   A.3.2 Hinweise auf wörtliche Zitate im Text .................................... 378   A.3.3 Wiedergabe von wörtlichen Zitaten im Text ........................... 379  

9

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:36

A.4 Literaturverzeichnis........................................................................... 380   A.4.1 Grundsätzliches........................................................................ 380   A.4.2 Gestaltung der Einträge im Literaturverzeichnis ..................... 381   A.4.3 Reihenfolge der Einträge im Literaturverzeichnis................... 382   A.4.4 Bücher (Monographien)........................................................... 382   A.4.5 Zeitschriftenartikel................................................................... 384   A.4.6 Buchkapitel, Artikel aus Sammelwerken und Kongressbänden................................................................. 385   A.4.7 Unveröffentlichte Publikationen.............................................. 387   A.4.8 Elektronische Publikationen .................................................... 388  

10

Powered by TCPDF (www.tcpdf.org)

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:37

Vorwort

Das vorliegende Studienbuch ist das Ergebnis mehrjähriger Erfahrungen mit einer zweisemestrigen Lehrveranstaltung „Einführung in wissenschaftliches Arbeiten“ an der Pädagogischen Hochschule Zentralschweiz (PHZ Luzern). Die Studierenden erhalten den Auftrag, eine kleine empirische Erkundung vorzunehmen, d.h. eine eigene Fragestellung zu entwickeln und mit angemessenen Methoden zu beantworten. Die didaktische Grundidee der Lehrveranstaltung lautet: Durchlaufe den gesamten Prozess des wissenschaftlichen Arbeitens. Erlebe die Schwierigkeiten bei der Formulierung einer präzisen Fragestellung und erkenne und formuliere die Bedeutung bisherigen wissenschaftlichen Wissens für alle Deine Entscheide im Arbeitsprozess. Wähle eine der Fragestellung angemessene Datenerhebungsmethode, plane und führe die Erhebung durch. Gehe mit der nötigen Sorgfalt mit den Personen und den erhobenen Daten um und wähle und begründe die einzelnen Auswertungsschritte. Schreibe schliesslich einen wissenschaftlichen Abschlussbericht und stelle Deine Ergebnisse in einer Präsentation vor. Und das Wichtigste: Sei Dir bewusst, dass Du erste Schritte im wissenschaftlichen Arbeiten unternimmst, Vieles nicht bis ins Detail verfolgen kannst und Dir zudem vertiefte Theorie- und Methodenkenntnisse (noch) fehlen. Richte Deine Fragestellung dementsprechend aus. Im Bewusstsein darum, dass Studierende der Bildungswissenschaften, die das empirische wissenschaftliche Arbeiten erlernen, in genau diesem Prozess Begleitung und Anleitung brauchen, wurde das vorliegende Studienbuch verfasst. Es soll den Arbeitsprozess in allen seinen Abschnitten unterstützend begleiten. Ab Kapitel 4 werden daher die einzelnen Schritte in einer handlungsorientierten, praktisch-planerischen Art und Weise vorgestellt: Von der ersten Idee, über die Literaturrecherche und -verarbeitung bis zur Formulierung der Fragestellung; weiter die Planung des Vorgehens und die Durchführung der Datenerhebung bis zur Beschreibung verschiedener qualitativer und quantitativer Vorgehensweisen und Methoden mit den entsprechenden (statistischen) Auswertungen; zuletzt die verschiedenen Formen der Kom-

11

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:37

munikation der Forschungsergebnisse wie schriftlicher Bericht, Präsentation oder Poster. Von der Anlage her ist es möglich, einzelne Kapitel für sich zu bearbeiten und die Inhalte mithilfe der weiterführenden Literatur zu vertiefen. Die ersten beiden Kapitel spannen als Einstieg in das Studienbuch bewusst einen grösseren theoretischen Rahmen. Empirisches wissenschaftliches Arbeiten ist nicht voraussetzungslos, die Wissenschaften und ihre Methoden sind es auch nicht. Eine Anleitung für eine quasi rezeptartige Umsetzung der einzelnen Arbeitsschritte im Ablauf einer empirischen Erkundung nach dem Motto „getan ist getan“, reichte uns für unser Studienbuch nicht. An wissenschaftliches Wissen wird mit Recht ein hoher Anspruch gestellt. Worin dieser Anspruch begründet liegt, davon handelt das Studienbuch in seinen ersten Kapiteln. Das kritisch-aufklärerische Potential können die Wissenschaften und das ihnen eigene wissenschaftliche Wissen erst dann entfalten, wenn man die Ergebnisse wissenschaftlicher Studien nicht als gegeben nimmt, sondern in der Lage ist, diese wiederum hinsichtlich ihrer Voraussetzungen kritisch zu hinterfragen. Die Ausbildung der Kompetenz, gute von weniger guter Wissenschaft unterscheiden zu lernen, sich nicht von Rankings und Grafiken blenden zu lassen und Berichten über Ergebnisse wissenschaftlicher Studien nicht unkritisch Glauben zu schenken, auch dazu möchte das Studienbuch beitragen. Das Studienbuch richtet sich vor allem an Studierende der Bildungswissenschaften. Das Autorenteam unterrichtet an einer Pädagogischen Hoch-schule, an der Lehrpersonen für Kindergarten, Primar- und Sekundarschule aus- und weitergebildet werden. Im Kapitel 3 wird daher ausführlich der Frage nachgegangen, warum der Erwerb von Forschungskompetenzen von Lehrpersonen für die eigene Unterrichts- und Schulentwicklung und nicht nur für das Erarbeiten von Bachelor- und Masterarbeiten von Bedeutung ist. Forschendes Lernen bzw. die Entwicklung einer forschenden Haltung sind ein wichtiger Teil der Professionskompetenzen von Lehrpersonen, entsprechende Forschungsansätze werden vorgestellt. Noch ein Wort zur Abbildung auf dem Buchumschlag. Das Sujet mag irritieren und soll es auch. Es handelt sich um die Abbildung eines Holzschnitts von Albrecht Dürer mit dem Titel „Der Zeichner des liegenden Weibes“. Der kleinformatige Holzschnitt (7,6 x 21,2 cm) wurde posthum veröffentlich in der 2. Auflage von Dürers „Underweysung der Messung mit dem Zirckel und Richtscheyt“ (Nürnberg, 1538). Der Holzschnitt illustriert das Vorgehen bei einer damals aktuellen zeichnerischen Problemstellung, der korrekten perspektivischen Darstellung eines abzubildenden Objekts. Dürers Methode, die er vermutlich auf seinen Reisen in Italien kennenlernte, wird im Holzschnitt

12

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:37

visualisiert. Der konzentriert arbeitende Zeichner mit seinen technischen Hilfsmitteln (aufrecht stehendes Gittermass und liegendes Papier mit gleichem Gittermass, fester Augenpunkt mittels sogenanntem Peilstab) versucht sich an der perspektivisch korrekten Darstellung des vor ihm auf dem gleichen Tisch liegenden weiblichen Aktes. Auf den ersten Blick die Darstellung eines methodisch geleiteten Vorgehens zur Lösung einer Fragestellung. Und doch sehen wir mehr. Zwei Fenster öffnen den Raum in eine Landschaft, das Arrangement findet in einem Zimmer statt, die Frau hat sich irgendwann in die gewünschte Pose gelegt, der Zeichner sich mit seinem Methodeninventar zurecht gesetzt. Nicht nur dass hier auch ein bestimmtes Geschlechterverhältnis gleichsam mit abgebildet wird. Empirisches, methodisch angeleitetes Arbeiten ist immer eine bewusste Konstruktion, die zumeist mehr enthält, als sich allein auf der methodischen Ebene sagen lässt. Verschiedenen Personen möchten wir unseren Dank aussprechen. Da sind einmal unsere Gastautorinnen und -autoren, die das Studienbuch mit ihrer Sachkompetenz bereichert haben: Prof. Dr. Thomas Häcker, Prof. Dr. Tina Malti, PD Dr. Stefanie Stadler Elmer, lic. phil. Hanni Lötscher, Prof. Dr. Alois Buholzer, lic. phil. Christina Huber und lic. phil. Lukas Lehmann. Wir danken Adrian Baumgartner für seine wertvollen inhaltlichen Rückmeldungen nach der Lektüre einer ersten Fassung und wir danken vor allem auch Martina Wey-Huber für ihr umfangreiches Lektorat und insbesondere Adrian Ottiger, der versiert alle Layout-Probleme meisterte und die verschiedenen Abschnitte des Buches gekonnt zusammensetzte. Nicht zuletzt haben wir auch der PHZ Luzern zu danken, die das Projekt finanziell mit unterstützte und in deren Lehrveranstaltungen und Teamdiskussionen die Idee des Studienbuches überhaupt erst geboren wurde. Das Autorenteam

13

Powered by TCPDF (www.tcpdf.org)

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

1 Wie kommt man zu Wissen?

(unter Mitarbeit von Thomas Häcker) Wie ist das einzuschätzen, wenn jemand von sich sagt, dass er etwas weiss? Weiss die Person etwas, weil sie es kennt (Ich kenne die Stadt Luzern), weiss sie etwas, weil sie etwas kann (Ich kann Fahrrad fahren, d.h. ich weiss, wie das geht) oder weiss sie etwas, weil sie es gelernt hat (Hunde sind Säugetiere)? Unter welchen Bedingungen und mit welcher Sicherheit kann jemand etwas wissen? Und: Worin unterscheidet sich eigentlich unser Alltagswissen vom wissenschaftlichen Wissen? Zunahme der Jugendgewalt – aus einem Gespräch zweier Personen „Schlimm, wie die Gewalt unter Jugendlichen zugenommen hat. Es vergeht kein Tag, ohne dass ich in der Zeitung lese, wie wieder jemandem die Tasche, das Handy oder die teuren Klamotten weggenommen werden. Es wird immer schlimmer.“ „Ja, Eltern nehmen ihre Erziehungsverantwortung nicht mehr wahr und auch der Schule gelingt es nicht mehr, den Jugendlichen Grenzen zu setzen. Vor allem ausländische Kinder und Jugendliche sind das Problem. Das zeigt ja auch die Kriminalstatistik.“

Abgesehen davon, dass bei diesen Äusserungen Medienberichte, aber auch die Kriminalstatistik als Begründung von Behauptungen herangezogen werden, gibt das Gespräch wohl eine weit verbreitete Meinung wieder: Die Gewalt unter Jugendlichen hat zugenommen und häufig finden sich unter den Tätern Jugendliche mit Migrationshintergrund. Im Alltag fordern wir, wenn wir unterschiedlicher Meinung sind, meist eine Begründung: „Stimmt das? Woher weisst Du das? Wieso bist Du Dir da so sicher?“ Mit dem Begriff Wissen verbinden wir offenbar etwas, das sicherer ist als die Meinung einer Person.

14

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

1.1 Alltagswissen – Wissenschaftliches Wissen Es geht beim Wissen zum einen um ein Zusichern, zum anderen um ein Fürwahrhalten und schliesslich um die Möglichkeit des Beweises. Wir nehmen beruhigt ein Medikament ein, weil unsere Hausärztin uns zusichert, dass es unsere Beschwerden lindern wird. Sie dagegen weiss um die genauen Wirkungsmechanismen des Medikaments. Eine Vielzahl klinischer Studien konnte den Beweis der Wirksamkeit des Medikaments erbringen. Auch wenn die Hausärztin nicht selber in der Pharmaforschung tätig ist, so vertraut sie doch den klinischen Studien (Fürwahrhalten), da sie um die hohen wissenschaftlichen Anforderungen (Beweiskraft) solcher Studien weiss. Das Beispiel macht deutlich, dass „Wissen“ in unterschiedlichem Masse abgesichert sein kann. Im abendländischen Denken hat sich seit Plato (er diskutiert diese Frage im Dialog Theaitetos) die Auffassung durchgesetzt, Wissen sei eine begründete und wahre Meinung. Die Sicherheit des Wissens kann ihrerseits auf sehr unterschiedlichen Grundlagen beruhen. Der Begriff des Wissens (1) „Der Bedeutungsbereich des Wissensbegriffs reicht von der unhinterfragten Sicherheit, wie sie intuitives oder religiöses Wissen geben kann, über ein nach Rationalitätskriterien abgesichertes Wissen bis hin zu einem auf Hypothesen (griech. hypóthesis, d.h. die Unterstellung, Voraussetzung, Grundlage), Experiment und vor allem auf Widerlegbarkeit beruhenden Wissen“ (Der Brockhaus Philosophie, 2004, S. 369).

Es ist kaum zu erwarten, dass unsere beiden Gesprächspartner im Gespräch über die Jugendkriminalität voneinander eine Begründung ihrer Behauptungen verlangen. Hier sind sich die Gesprächspartner (leider) einig. Wissenschaftliche Studien kommen zum Thema Jugendgewalt zu differenzierteren Erkenntnissen. Dies deshalb, weil Wissenschaft anders und damit genauer hinschaut und das Phänomen der Gewalt von Jugendlichen präziser zu analysieren versucht. Wissenschaft als Institution schafft offenbar in besonderer Weise Wissen. Die Wissenschaften, seien es die Geistes-, Sozial- oder die Naturwissenschaften (vgl. Kap. 2.3), generieren wissenschaftlich gesichertes Wissen, an das im Gegensatz zum Alltagswissen besondere Ansprüche gestellt werden.

15

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

Zunahme der Jugendgewalt? Ergebnis einer Zürcher Studie In einer Zürcher Studie wurden 1999 und 2007 insgesamt ca. 5000 Teenager aus etwa 320 Klassen des Kantons Zürich schriftlich zu ihren in den vergangenen ein- bis zweieinhalb Jahren gemachten Gewalterfahrungen als Täter oder Opfer anonymisiert befragt. Gefragt wurde nach fünf Gewaltformen (Körperverletzung, Waffendrohung, Raub, Erpressung und Belästigung), die jeweils so gravierend waren, dass die betroffene Person die Polizei holen wollte. Ausser bei den Raubdelikten, deren Quote sich auf insgesamt 3.5% verdoppelte, hat die Selbstdeklaration der Jugendlichen keinen statistisch bedeutsamen Anstieg der Gewalterfahrungen zwischen 1999 und 2007 zeigen können. Der Anteil derjenigen, die sich als Täter „outeten“, lag zu beiden Untersuchungszeitpunkten bei etwa 16%. Allerdings werden die Täter gerade bei sexuellen Übergriffen offenbar immer jünger. Die Angaben zum vermuteten Alter der Täter unter 18 Jahren stiegen von 41% auf 57%. Gestiegen ist zudem der Anteil der zu einer Anzeige gebrachten Delikte: In der Kategorie der Körperverletzungen mit einer Waffe stieg der Anteil von 10% auf über 25%. Die Jugendlichen gaben im Vergleich zu 1999 (44%) in einem wesentlich höheren Ausmass (75%) an, von einem Erwachsenen zur Anzeige ermuntert worden zu sein. Dabei werden ausländische Tatverdächtige doppelt so häufig angezeigt wie Täter ohne Migrationshintergrund (vgl. NZZ Online, 2007).

Wissenschaftliches Wissen muss dem Kriterium der Wahrheit im Sinne einer prinzipiell von jedermann möglichen, systematischen Nachprüfbarkeit genügen. Dies erfordert u.a. einen präzisen Umgang mit Beschreibungen: (Fach-) Begriffe sind zu definieren, d.h. in ihrer Bedeutung eindeutig zu bestimmen (vgl. Kap. 2.1 und Kap. 4.1.3), methodische Verfahren sind nachvollziehbar zu beschreiben (vgl. Kap. 4.1 und Kap. 6). Dies wird von der Wissenschaftsgemeinschaft, der scientific community, mit ihren (methodischen) Grundsätzen für die Erkenntnisgewinnung, den Austausch und die Verbreitung des Wissens sichergestellt (vgl. Kap. 2.5 „Wissenschaftliche Integrität - Ethische Richtlinien des wissenschaftlichen Arbeitens“). Den (Grundlagen-)Wissenschaften geht es dabei um einen Erkenntnisfortschritt als Wert an sich, erst in zweiter Linie verfolgen sie Fragen bezogen auf die Anwendung, den Nutzen und die Risiken ihrer Erkenntnisse. Alltagswissen macht sich häufig am selbst erlebten Einzelfall fest. Die Erfahrungen sind subjektiv gefärbt, an die Lebenswelt der Person gebunden, gerade deshalb für sie von Bedeutung und eben nicht für jeden und jede gleich. Alltagswissen dient in erster Linie als Richtschnur für das funktionale Handeln des Einzelnen. Es lässt sich beschreiben als gebündelte, kondensierte Erfahrung des Umgangs mit Alltagsproblemen. Alltagswissen nützt − so könnte man formulieren − dem Handeln vor Ort. Ein Allgemeingültigkeitsanspruch wird nicht erhoben, eine intersubjektiv, d.h. von verschiedenen Personen geteilte, gültige allgemeine Erkenntnis wird nicht angestrebt. Alltagswissen und wissenschaftliches Wissen haben eine je eigene Würde: Beide Wissensformen nehmen ihren Ausgangspunkt zwar letztlich bei Erfah-

16

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

rungen, beruhen aber jeweils auf unterschiedlich strengen Formen der Kontrolle dieser Erfahrungen und führen entsprechend zu unterschiedlich gesicherten bzw. gültigen Erkenntnissen. Der Begriff des Wissens (2) Mit Wissen (engl. knowledge, franz. connaissance) bezeichnen wir in einem engeren, philosophischen und wissenschaftlichen Sinne im Folgenden „die auf Begründungen bezogene und strengen Überprüfungspostulaten unterliegende Kenntnis“, die im Rahmen der Wissenschaft institutionalisiert ist (Mittelstraß, 2004, S. 717f.).

Im Alltag erweitern wir unser Wissen mittels eines Vorgehens, das nicht prinzipiell vom Verfahren in den Wissenschaften abweicht. Wir stellen Erwartungen auf, prüfen diese und ziehen aus den eingetretenen Ergebnissen Rückschlüsse. Aber anders als in den Wissenschaften gehen wir weniger systematisch vor und geben uns mit ersten Erklärungen bereits zufrieden. Alltagswissen ist dann „wahr“, wenn es sich im konkreten Alltag bewährt. Wissenschaftliches Wissen bleibt dort nicht stehen, sondern sucht nach intersubjektiv nachprüfbaren und allgemeingültigen Erklärungen über einen Gegenstandsbereich, die auf Theorien (vgl. Kap. 1.2) bezogen sind und diese im günstigen Fall weiterentwickeln. Forschung Der Begriff Forschung bezeichnet eine Praxis erstens der disziplinär organisierten Wissensproduktion und zweitens der Beobachtung und Analyse der Logik der Erkenntnis in der modernen Wissenschaft. Forschung ist charakterisiert durch den Versuch, Neues zu entdecken. Bei aller Vielfalt ihrer Praxis ist Forschung immer abhängig von Theorien und Methoden. Der Imperativ, Erkenntnis durch Forschung zu gewinnen, entwickelt sich seit dem 18. Jahrhundert. Er gründet in der Kritik der bis dahin gängigen Praxis, die Geltung von Wissen dogmatisch bzw. mit der Tradition zu begründen. Das Prinzip der Erkenntnisgewinnung durch Forschung kennzeichnet seitdem das Wissenschaftssystem der modernen Welt (vgl. Tenorth & Tippelt, 2007, S. 253).

Wissenschaftlich gesichertes Wissen entsteht durch eine je nach Disziplin sehr unterschiedliche und vielfältige Praxis der Erkenntnisgewinnung innerhalb der jeweiligen Wissenschaft. Mit dem Beginn der Neuzeit wird wissenschaftliche Erkenntnisgewinnung zunehmend gleichgesetzt mit Forschung, d.h. mit einer am Vorbild der Naturwissenschaften ausgerichteten Form der Erkenntnisgewinnung. Der Forschungsprozess muss transparent sein, in Begrifflichkeit und Methode eindeutig dokumentiert und er muss zumindest vom Anspruch her von jedermann nachprüfbar und begründet kritisierbar sein.

17

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

Die so genannte empirische Forschung zielt darauf, eigene Annahmen an der Realität oder theoretische Modelle auf ihre Konsistenz (d.h. ihren Zusammenhang) hin zu prüfen (vgl. Tenorth & Tippelt, 2007, S. 253). Der Begriff „empirisch“ kennzeichnet dabei einen Forschungsansatz, der auf methodisch geleiteten Erfahrungen, z.B. auf wissenschaftlichen Beobachtungen, Fragebogenerhebungen, Interviewstudien oder naturwissenschaftlichen Experimenten basiert. Die Erkenntnisgewinnung durch empirische Forschung wird im zweiten Kapitel detaillierter dargestellt. Wissenschaftliches Wissen ist öffentliches Wissen. Zum Forschungsprozess gehören daher auch die Veröffentlichung und das Zur-Diskussion-Stellen der Forschungsergebnisse.

1.2 Die Bedeutung von Theorie „Es gibt nichts Praktischeres als eine gute Theorie.“ (Kurt Lewin zugeschrieben)

Der Begriff Wissenschaft verbindet sich alltagssprachlich mit dem Begriff der Theorie. Theorie wird der Praxis entgegengesetzt und gilt oftmals als abgehoben, weil „Theoretisches“ als nur wenig alltagstauglich betrachtet wird. So sollte das Zitat von der Praxistauglichkeit der Theorie irritieren. Bei der Beantwortung der Frage, wie man zu Wissen kommt, spielen Theorien jedoch eine entscheidende Rolle. Man kann sogar sagen, dass Theoriebildung das eigentliche Ziel empirischer Forschung ist. Funktion der Theorie Theorien haben die Funktion, Sachverhalte zu beschreiben, zu erklären und vorherzusagen. Im Kern bestehen sozialwissenschaftliche Theorien aus einer Vernetzung von gut bewährten Hypothesen bzw. anerkannten empirischen „Gesetzmässigkeiten“ (vgl. Bortz & Döring, 2006, S. 15).

Theorien sind Aussagensysteme, ein zumeist hierarchisch geordnetes Netzwerk von (vorläufig) bestätigten Hypothesen. Als Hypothesen werden Aussagen bezeichnet, die eine Vermutung oder Erwartung über einen Sachverhalt ausdrücken. So kann angenommen werden, dass Prüfungsangst negative Auswirkungen auf die Schulleistungen hat. Empirische Forschung überprüft eine solche Hypothese mit dem Ziel, das Wissen über Prüfungsangst sukzessive zu erweitern (vgl. Kap. 2.2.2 und Kap. 4.1.2). Die Bewährungsprobe einer Theorie besteht in der wiederholten Prüfung der aus ihr abgeleiteten Annahmen. Die Hypothesen sollen verifiziert, d.h. bestätigt werden. Dieses

18

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

Vorgehen der Verifikation von Hypothesen wurde von Karl Popper (1902– 1994), dem Begründer des Kritischen Rationalismus, in seinem Buch „Logik der Forschung“ (1934) kritisiert und durch das Falsifikationsprinzip ersetzt. Popper bemerkte, sicher zu Recht, dass man nie sicher sein kann, ob die empirische Bestätigung einer Hypothese nicht doch bei einem nächsten Versuch scheitern könne. Die Aussage „alle Schwäne sind weiss“ gilt selbstverständlich nur so lange, bis man den ersten schwarzen Schwan sichtet. Die Gültigkeit einer Theorie (z.B. die Theorie der weissen Schwäne) von ihrer empirischen Bestätigung abhängig zu machen, sei ein naiver Empirismus. Popper schlägt dagegen vor, Hypothesen immer so anzulegen, dass sie empirisch scheitern können. Eine Theorie ist dann umso robuster, je häufiger sich die von ihr abgeleiteten Hypothesen in Falsifikationsversuchen bewährt haben. In Bezug auf die Sicherheit des Wissens, das in kondensierter Form in Theorien formuliert vorliegt, lässt sich mit Popper feststellen, dass Wissen immer nur vorläufiges Wissen sein kann. Wir können uns auch mittels Forschung der Realität nur annähern, diese jedoch nicht gänzlich und abschliessend erfassen. Theorien weisen folgende besondere Kennzeichen auf: 1. Widerspruchsfreiheit: Die Sätze, aus denen die Theorien bestehen, müssen in sich widerspruchsfrei sein. 2. Generalisierbarkeit: Theorien enthalten generalisierbare Aussagen, die für mehr als den Einzelfall Gültigkeit beanspruchen. 3. Sparsamkeit: Theorien sollten möglichst umfassend und dennoch einfach formuliert sein. Eine Theorie ist dann eine „starke“ Theorie, wenn nur wenige Grundannahmen ausreichen, um viele Phänomene zu erklären. 4. Brauchbarkeit: Theorien sollten nützlich sein, d.h. die Aussagen, die im Rahmen einer Theorie gemacht werden können, sollten Vorhersagen ermöglichen und damit Hilfen für Entscheidungen bieten. 5. Überprüfbarkeit: Die Vorhersagen, die eine Theorie ermöglicht, müssen überprüfbar sein. Empirische Forschung dient damit immer auch der Prüfung von Theorien. Denn nur eine gute und „starke“ Theorie ermöglicht verlässliche Voraussagen und zuverlässige Entscheidungen. 6. Neugierfunktion: Die Auseinandersetzung mit einer Theorie eröffnet eine theoriespezifische Wahrnehmung auf einen Phänomenbereich. Eine gute Theorie führt dazu, dass Bereiche anders wahrgenommen und interpretiert werden und sich daraus dann wieder neue, zu prüfende Fragestellungen entwickeln.

19

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

Im Alltag verdichten wir unsere Erfahrungen zu subjektiven Theorien. Subjektiv deshalb, weil sie nicht den Anspruch der intersubjektiven (und allgemeinen) Gültigkeit erfüllen. Wie das Alltagswissen können subjektive Theorien also keine Allgemeingültigkeit beanspruchen. Dennoch sind sie starke Erklärungsmuster für unser Denken und Handeln. Forschungen über subjektive Theorien (Groeben, Wahl, Schlee & Scheele, 1988) zeigen, dass diese in ihrer Struktur wissenschaftlichen Theorien sehr ähnlich sind, d.h. individuell bestätigte Annahmen enthalten, eine spezifische Argumentationsstruktur aufweisen und um zentrale, subjektiv bestimmte Begriffe organisiert sind. Wissenschaftliche und subjektive Theorien über einen Gegenstandsbereich können im Widerspruch zueinander stehen. Forschungen zum Lehrerhandeln (Wahl, 1991) konnten zeigen, dass gerade beim Handeln unter Druck, was in vielen Unterrichtssituationen unausweichlich ist, vermehrt auf subjektive Theorien und deren Annahmen zurückgegriffen wird.

1.3 Der Einfluss der Wissenschaften auf die Gesellschaft Dass heute mehr und anderes gewusst wird als noch vor 100, 200 oder gar 1000 Jahren wird von niemandem ernsthaft bestritten. Wissen gilt heute weithin als die bedeutendste Ressource einer Gesellschaft. Das heute verfügbare Wissen ist für den Einzelnen nicht mehr zu überblicken. Manche reden in diesem Zusammenhang von einer „Wissensgesellschaft“ (Lane, 1966). Es ist jedoch weniger das Wissen an sich, sondern es sind vielmehr die Anwendungsbereiche des Wissens, neue Technologien und deren Produkte, die in rasantem Tempo die Welt verändern, in der wir leben. Für den Philosophen Peter Janich (geb. 1942) sind die Wissenschaften zum Ende des 20. Jahrhunderts derart beherrschend geworden, dass sich weltweit kaum ein Bereich der Natur oder der Kultur finden dürfte, der nicht in irgendeiner Weise von Wissenschaft und ihren Folgen berührt ist. „Jeder Mensch, auch der NichtWissenschaftler, ist gleichsam von Geburt an der Wissenschaft ausgesetzt. Wissenschaft ist ein alle Lebensbereiche prägender Faktor geworden […]“ (Janich, 1997, S. 7). An Entscheidungen über die Anwendung wissenschaftlicher Ergebnisse ist in modernen wissenschaftlich-technologischen Gesellschaften idealerweise jede Bürgerin/jeder Bürger zu beteiligen, denn es besteht eine Zuständigkeit durch Betroffenheit.

20

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

Einfluss der Wissenschaften auf Alltagssprache und Weltdeutungen Am Beispiel des Eindringens von Metaphern der Physik in die Sprache zur Beschreibung von Lehr-Lernprozessen kann die Omnipräsenz (d.h. Allgegenwart) und Wirkmächtigkeit der Wissenschaft und ihrer Begriffe exemplarisch verdeutlicht werden: Im Zuge des enormen Aufschwunges, den die Physik, insbesondere die Mechanik und die Dynamik, zu Beginn der Neuzeit nahmen, wurde in vielen gesellschaftlichen und wissenschaftlichen Bereichen damit begonnen, Selbst- und Weltdeutungen auf der Basis physikalischer Modelle vorzunehmen. In dieser Zeit begann man beispielsweise auch, Erziehungs- und Bildungsprozesse mit Begriffen der Dynamik zu beschreiben (Lassahn, 1983). Die Verwendung von Begriffen aus der Dynamik und Mechanik findet auch heute noch einen Niederschlag in der alltagssprachlichen Beschreibung von Lehr-Lern-Prozessen durch Lehrende und Lernende. So geben Lehrende heute einen Anstoss bzw. Impuls, die Trägheit der Schüler und ständige Reibereien kosten viel Kraft und Energie und oft scheint sich nichts zu bewegen. Lassahn vermutet, dass mit der Orientierung am Modellcharakter der Dynamik eine allmähliche Umwandlung des alltäglichen Sprachgebrauchs einhergegangen ist und durch diesen Sprachgebrauch ein neues (dynamisches wie auch mechanisches) Menschenbild geprägt wurde (vgl. ebd., S. 58ff).

Über die allen Menschen gemeinsame Betroffenheit von Wissenschaft hinaus haben wissenschaftliches Wissen und Wissen allgemein für Lehrpersonen eine ganz besondere Bedeutung und Relevanz: Die Vermittlung von (wissenschaftlichem) Wissen in einer von den Wissenschaften geprägten, technologisierten Welt gehört zum beruflichen Auftrag jeder Lehrperson. Diesen Auftrag kann sie aber nur dann angemessen erfüllen, wenn sie nicht nur etwas über das Zu-Stande-Kommen von Wissen und über seine möglichen aufklärerischen und dogmatischen Funktionen weiss. Eine Lehrperson sollte die Qualität von Wissen beurteilen können und darüber hinaus als Experte und Expertin für die Wissensvermittlung eine Vorstellung davon entwickeln, wie Wissen überhaupt in die Köpfe gelangen, d.h. wie Wissen verstanden und mit Wissen weiter umgegangen werden kann. Kurz: Sie muss wissen, wie Menschen lernen. Hierzu bedarf es neben der didaktischen Seite der Wissensvermittlung einer Auseinandersetzung mit erkenntnistheoretischen und wissenschaftstheoretischen Fragen: Welches sind die Bedingungen und Grenzen der menschlichen Erkenntnis? Worin unterscheiden sich die erkenntnismässigen Einstellungen des Wissens, Meinens, Glaubens, Zweifelns, Vermutens usw.? Wer sich mit solchen Fragen ernsthaft befasst, kann ein naives, blindes Vertrauen in die unbedingte Erkenntnisfähigkeit des Menschen (erkenntnistheoretischer Dogmatismus) zugunsten einer begründeten und gebotenen Skepsis überwinden.

21

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

Wissenschafts- und Erkenntnistheorie Erkenntnistheorie ist eine Teildisziplin der Philosophie und beschäftigt sich mit folgenden Fragestellungen: 1. Wie gelangen wir zu wahren Erkenntnissen über reale Zusammenhänge? 2. Wie steht es um die Wahrheit und Gültigkeit von Wissen? 3. Ist ein Erkennen der Wirklichkeit überhaupt möglich (Realismusdebatte)? Wissenschaftstheorie fragt nach den Charakteristika wissenschaftlicher Erkenntnis und analysiert Theorien und Methoden der einzelnen Fachdisziplinen.

Auch oder gerade weil man heute im Vergleich zu früheren Zeiten mehr und anderes weiss und sich unser wissenschaftliches Weltbild bereits mehrfach entscheidend gewandelt hat − so etwa vom geozentrischen (griech. geokentrikó, d.h. erdzentriert) zum heliozentrischen (griech. helios, d.h. Sonne, kentron, d.h. Mittelpunkt) Weltbild, von der Newtonschen Mechanik zur Quantenmechanik − ist von einer prinzipiellen Unsicherheit allen Wissens auszugehen. Für die Lehrer/-innenbildung lässt sich daraus der Schluss ziehen, dass es hier einer Bildung bedarf, die vor allem die Urteilskraft im Umgang mit prinzipiell unsicherem Wissen fördern muss. Im Folgenden werden in groben Zügen einzelne Etappen der Wissenschaftsgeschichte auf dem Weg zu unserer heutigen wissenschaftlich-technischen Zivilisation skizziert. Dies erfolgt aus Platzgründen lediglich exemplarisch. Es soll daran deutlich gemacht werden, dass Wissenschaft und Wissen nur dann ihr kritisch-aufklärerisches Potenzial entfalten können, wenn sie sich nicht selbst gegen die kritische Prüfung ihrer eigenen Sinnansprüche (d.h. auch ihrer Grenzen und Möglichkeiten und ihrer Chancen und Risiken) immunisiert. Anders ausgedrückt: Die Wissenschaft muss sich selbst kritisch hinterfragen lassen, wenn sie nicht selbst zum Dogma werden will.

1.4 Etappen der Wissensgenerierung und deren Kritik: Ein kurzer Überblick über die Wissenschaftsgeschichte 1.4.1 Vom Mythos zum Logos – die erste Aufklärung Zu Beginn der abendländischen Geschichte, im 6. Jahrhundert v. Chr., erwacht in Griechenland ein zugleich kritisches und sachliches Interesse an den Dingen, wie sie wirklich sind, an ihrer möglichst exakten und vollständigen Erkenntnis und Erklärung. Es kommt zu einer allmählichen Emanzipation der Vernunft von überkommenen mythischen Vorstellungsweisen (vgl. Friedlein, 1984, S. 22). Die sogenannten Vorsokratiker unternahmen erstmals den Ver-

22

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

such, „alle Phänomene unvoreingenommen, ohne Rückgriff auf die Religion oder Mythologie, zu prüfen und allein mit dem menschlichen Verstand zu erklären“ (Stückelberger, 2006, S. 11). Damit waren sie die ersten, die Ordnungen und Beständigkeit ahnten und Gesetze suchten. Ihr rationaler Geist bildete, fern von praktischen Sorgen, zum ersten Mal systematisch organisiertes und verallgemeinertes Wissen aus. Ihr Motiv ist eine Suche nach der Wahrheit. Dieser versuchen sie sich rational und kritisch anzunähern (vgl. Vamvacas, 2006, S. 42ff), ein Vorgehen, das eine Emanzipation des Denkens von der Religion beinhaltet und zugleich den Versuch darstellt, die vom Mythos verhüllte Wahrheit aufzudecken und zu enthüllen (vgl. ebd., S. 28f.). Wilhelm Nestle (1942) bezeichnete diesen Vorgang der Entmythologisierung als Schritt vom Mythos zum Logos. Er beinhaltet die zunehmende Einsicht, dass man mittels seines eigenen kritischen Denkens die Wahrheit herausfinden kann. Mythos und Logos Das griechische Wort „mythos“ bedeutet erzählende Rede, erdichtete oder sagenhafte Erzählung. In den Mythen werden Naturvorgänge oder Ereignisse des menschlichen Lebens oft als Handlungen von Göttern und Geistern dargestellt; so z.B. die Entstehung der Welt und des Kosmos. Der Mythos stellt den ersten Versuch dar, die Wirklichkeit in Form von Bildern und Geschichten zu erfassen, die wichtigste Form seiner Verbreitung ist das Heldenepos (vgl. Vamvacas, 2006, S. 29f.). Das ebenfalls aus dem Griechischen stammende Wort „logos“ meint dagegen die beweisbare Rede, die Rede als Äusserung einer Vernunft, die Definitionen, Argumente und Gesetzmässigkeiten kennt. Der Logos führt zu (nachprüfbaren) Erkenntnissen, im Mythos geht es dagegen um umfassende Sinnstiftung.

Die Männer, die diesen Prozess vor allem vorantrieben, gaben sich den Titel „Sophisten“ (= Lehrer der Weisheit; gr. sophón, d.h. Liebe zum wahren Wissen, zum Wissen des Wahren). Gemeinsam war den Sophisten zum einen die Grundüberzeugung von der Erziehbarkeit und Formbarkeit des menschlichen Geistes. Damit wurden sie die Initiatoren der Pädagogik. Zum anderen betrieben sie erkenntnistheoretische Erwägungen, d.h. sie fragten danach, wie die Wahrheit eines Urteils festgestellt werden könnte. Ausgangspunkt ihrer Überlegungen war eine radikale Erhebung des Zweifels zum Prinzip (Skeptizismus). Das grundsätzliche In-Zweifel-Ziehen aller Aussagen, Geltungen, Werte, Lehren und Glaubenssätze erstreckte sich auf alle Einrichtungen in Staat, Gesellschaft, Religion, Moral, Recht, Sitte. Eine tiefe Skepsis gegenüber den von den Vätern überkommenen Anschauungen und Gebräuchen breitete sich aus und verlangte nach einer Neubegründung des Menschenbil-

23

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

des (vgl. Friedlein, 1984, S. 35). Wie ein roter Faden zieht sich die Anschauung von der Autonomie der menschlichen Vernunft durch die Überlegungen der Sophisten. Ein wesentlicher Verdienst der Sophisten ist es, vielfältige Anregungen zu selbstständigem Denken gegeben zu haben (vgl. Friedlein, 1984, S. 34–38). Skeptizismus Der Skeptizismus geht davon aus, dass wir zwar sehr viele Meinungen haben, tatsächlich aber wenig, möglicherweise gar nichts wissen. Auch wahre Meinungen sind aus dieser Sicht noch kein Wissen, denn Menschen können wahren Meinungen anhängen, ohne Evidenzen, d.h. Beweise, dafür zu haben.

Im Zusammenhang mit dieser Auflösung des homerisch-hesiodischen Weltbildes des Epos und Mythos durch die neue Leidenschaft des Erkennens spricht man auch von der ersten Aufklärung. Diese erste Aufklärung war radikal aufklärerisch, d.h. Skepsis und Zweifel machten auch vor der eigenen Leidenschaft des Erkennens nicht halt. Sie zeichnet sich dadurch aus, dass sie auch die Wissenschaft selbst der Skepsis und dem Zweifel unterzog (vgl. Gadamer, 1983b, S. 91). 1.4.2 Ein neuer Begriff von Wissenschaft und Methode − die Neuzeit als zweite Aufklärung Zu Beginn der Neuzeit um 1600 kommt mit Galileo Galilei (1564–1642) eine neue Wissenschaft auf, die nicht nur das geozentrische, sondern auch das theozentrische Weltbild (griech. theos, d.h. Gott; kentron d.h. Mittelpunkt) des Mittelalters zersprengt und Wissenschaft zur Forschung werden lässt (vgl. Gadamer, 1983a, S. 34). Der rasante Aufschwung der Naturwissenschaften zu dieser Zeit wird durch einen neuen methodischen Zugriff möglich: durch die Mathematisierung (oder Metrisierung) der Phänomene. Man versucht immer mehr, qualitative Bestimmungen auf quantitative zurückzuführen, d.h. messbar zu machen (z.B. Wärme, eine Qualität, durch das Thermometer zu messen und dadurch in Zahlen auszudrücken). Die Parole Galileis lautet: „Alles messen, was messbar ist, und versuchen, messbar zu machen, was es noch nicht ist“. Diese Tendenz zur Metrisierung ermöglicht eine sehr effiziente neue Art der Beobachtung und vor allem deren experimentelle Überprüfung. Legendär geworden ist die Geschichte, in der Galileo den versammelten Universitätsprofessoren und angesehenen Bürgern der Stadt vom schiefen Turm von Pisa aus demonstriert, dass zwei Eisenkugeln unterschiedlicher Schwere gleichzeitig zu Boden fallen und damit bewies, dass die Fallgeschwindigkeit nicht vom Gewicht der fallenden Körper abhängig ist, wie es bisher behauptet wurde.

24

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

Die neue, methodisch kontrollierte Form der Erkenntnisgewinnung avanciert in den folgenden Jahrhunderten zu dem Modell der Wissenschaft schlechthin, d.h. immer mehr Wissenschaften wurden an diesem Massstab gemessen bzw. versuchten, den Anforderungen einer methodisch kontrollierten Erkenntnisgewinnung wie auch der Metrisierung der für sie relevanten Phänomene gerecht zu werden. Das Verhältnis zwischen erkennendem Subjekt (Denken) und zu erkennendem Objekt (Sein) scheint nur auf den ersten Blick fraglos klar zu sein. Auf den zweiten Blick ist die Frage, ob die Welt ausserhalb meiner selbst tatsächlich so ist, wie sie mir durch meine Sinne vermittelt erscheint, weit weniger trivial. Weiss ich das, was ich über die Welt weiss, aus meinen Erfahrungen, meinem Handeln in der Welt oder durch meine Vernunft, durch mein Nachdenken über die Welt? Das Aufstreben eines methodisch geleiteten Umgangs mit der Erfahrungswelt (der erlebten Wirklichkeit) lässt zwei grundverschiedene Auffassungen zur Frage „Wie erlange ich Wissen über die Welt?“ erkennbar werden: eine empiristische und eine rationalistische. Der Rationalismus behauptet, dass zumindest einiges, was wir über die äussere Welt wissen, nicht auf Erfahrung beruht, d.h. dass wir über bestimmte Begriffe auch unabhängig von jeder Erfahrung verfügen. Rationalismus – Deduktion Für René Descartes (1576–1650) kann allein das selbsterworbene und selbstgeprüfte Denken, die ratio (Vernunft), sichere Erkenntnis liefern. Jede Art von Gewissheit ist gedanklich vermittelt. Daher sein cogito, ergo sum (Ich denke, also bin ich). Erkennen geschieht dabei durch Ableitung in strenger Deduktion, d.h. im logischen Schliessen vom Allgemeinen zum Besonderen. Die Prinzipien des Denkens sind dem menschlichen Bewusstsein inhärent, d.h. wie „eingepflanzt“.

Dem Empirismus zufolge gewinnen wir demgegenüber unser Wissen über die Welt ausschliesslich aus Sinneserfahrungen, aus Beobachtung und induktivem Denken. In der Tradition des Rationalismus geht alles Erkennen vom denkenden Subjekt aus, das Erkennen einer ausserhalb des Subjekts liegenden Realität wird erstmals in Frage gestellt. Dagegen gibt es für die Empiristen − vereinfacht gesagt − das Gegenüber einer realen Welt, welche über methodisch geleitetes Vorgehen erkannt werden kann (erkenntnistheoretische Position des Realismus).

25

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

Empirismus – Induktion Francis Bacon (1561–1626) gilt als der erste Philosoph der neuzeitlichen Naturwissenschaften und als Vertreter des Induktionismus. Bacon verlangt von der neuen Naturwissenschaft die systematische Berücksichtigung der Erfahrung. Dabei müssen die benutzten Begriffe aus einer umsichtigen vorurteilslosen Beobachtung entspringen. Für Bacon ist Wissenschaft ein in methodischer und organisatorischer Hinsicht systematisches Unternehmen, bei dem neues Wissen generiert wird, das erstens auf vorurteilsfreien Beobachtungen fusst (Ermittlung der Tatsachenbasis), zweitens Hypothesen aus sorgfältigen Verallgemeinerungen dieser Beobachtungen entwickelt und dabei voreilige Schlüsse vermeidet (induktive Verallgemeinerung) und drittens die Verallgemeinerungen durch Ableitung und Untersuchung weiterer Sachverhalte (Experimente) überprüft. Seriöse Wissenschaft bleibt für ihn möglichst nahe an dem, was aus dem Bereich der Beobachtungen bekannt ist. Als Wissen gilt nur, was streng methodisch gewonnen und bestätigt wurde. Der später geborene John Locke (1632–1704) bringt das Erkenntnisverständnis des Empirismus mit seinem Satz „nihil est in intellectu quod non prius fuerit in sensu“ (Nichts ist im Verstand, was nicht vorher in den Sinnen war) auf den Punkt. Empiristen bestreiten vor diesem Hintergrund jedes substantielle apriorische (d.h. erfahrungsunabhängige) Wissen über Dinge vor und ausserhalb unseres Bewusstseins.

Diesen Gegensatz zwischen Rationalismus und Empirismus hat ein Jahrhundert später Immanuel Kant (1724–1804), der Begründer der geistesgeschichtlichen Epoche der Aufklärung, versucht auszugleichen. Kant versucht, zwischen dem Empirismus und dem Rationalismus zu vermitteln: Es gibt nach ihm zwar keine Erkenntnis ohne empirische Wahrnehmung, diese Erkenntnis ist aber immer gebunden an die reinen, d.h. a priori (vor jeder Erfahrung) vorhandenen Verstandesbegriffe (Raum und Zeit). 1.4.3 Fortschrittseuphorie und Aufkommen erster Zweifel am Versprechen der Wissenschaft − die dritte Aufklärung Im 18. Jahrhundert beginnen die sogenannten Erfahrungswissenschaften einen enormen Siegeszug anzutreten. Der Begriff Fortschritt wird zum Zauberwort, man verspricht sich von der Wissenschaft eine allgemeine Wohlfahrt. Gadamer (1983b) spricht von einer „dritten Aufklärung“, in der sich der Wissenschaftsglaube des technischen Zeitalters durchsetzt. Mit den Erfolgen der neuzeitlichen Naturwissenschaften und ihrer Ausrichtung an einem Forschungsverständnis, für das prototypisch die Physik stehen könnte, sind jedoch auch Probleme verbunden: Erstens wird nun schrittweise immer mehr vor allem das zum Gegenstand der Wissenschaft, was beobachtbar und metrisierbar ist und somit überhaupt erst die Bedingungen methodischer Erforschbarkeit erfüllt. Darüber hinaus wird als Wissen zunehmend nur noch wissenschaftliches Wissen anerkannt, d.h. Wissen, das unter Einhaltung

26

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

bestimmter methodischer Verfahrenswege generiert wurde (diese Haltung wird als Szientismus bezeichnet). Zweitens sind damit thematische Reduktionen und methodische Abstraktionen verbunden, die ihrerseits kaum kritisch reflektiert wurden: „Die ‚exakt’ gewordene Naturwissenschaft erkennt Natur unter dem Aspekt der Messbarkeit. Ihr methodischer Zugriff bringt die Natur bloß in der thematisch reduzierten und methodisch abstrakten Form eines mathematischen Modells in Sicht. Die Natur selbst ist jedoch kein mathematisches Modell. Vom Unterschied zwischen Natur und Modell muss die ‚exakte’ Naturwissenschaft jedoch absehen (abstrahieren), weil er sich dem Zugriff der Methode entzieht“ (Anzenbacher, 1992, S. 23). Verliert man diesen Umstand aus den Augen, besteht die Gefahr, den untersuchten Ausschnitt mit dem Ganzen der Wirklichkeit zu verwechseln bzw. den Ausschnitt auf das Ganze unserer Wirklichkeit zu übertragen und damit zu übergeneralisieren. Modell Ein Modell (lat. modulus, d.h. Mass) stellt eine Nachahmung eines Vorbildes dar. Walter Popp (1970) nennt 5 Merkmale von Modellen: 1. Reduktion: Im Modell wird ein kompliziertes undurchschaubares Gefüge reduziert auf einige wenige bedeutsame Merkmale und Grundstrukturen, die gerade durch die Reduktion erst sichtbar hervortreten und wissenschaftlicher Untersuchung zugänglich werden. 2. Akzentuierung: Das Modell akzentuiert bestimmte Bezüge, Faktoren, Funktionen, Gesetzlichkeiten. 3. Transparenz: Durch Reduktion und Akzentuierung entsteht eine hohe Transparenz des komplexen und dadurch weitgehend undurchsichtigen Feldes. 4. Perspektivität: Ein Modell bringt die repräsentierte Wirklichkeit nur aus einer bestimmten Perspektive in den Blick. Damit ist aber der „Gegenstand“ nicht hinreichend erfasst. Eine bessere Erfassung bedarf der Verschränkung mehrerer korrespondierender Sichtweisen. 5. Produktivität: Die Produktivität eines Modells liegt in seiner Herausforderung, immer weitere/andere konkurrierende Sichtweisen herauszubilden, um das „Gegebene“ in immer neuen Modellen zu problematisieren, zu verdeutlichen und zu erklären (Popp, 1970, S. 53−56).

Der Preis des rasanten wissenschaftlich-technologischen Fortschritts der eher erklärend verfahrenden Naturwissenschaften ist aus der Perspektive der eher verstehend verfahrenden, im 19. Jahrhundert sich etablierenden Geisteswissenschaften (vgl. Kap. 2.3) hoch: „Wahrheit reduziert sich damit auf empirisch überprüfbare ‚Tatsachen‘, die für jeden gültig und verbindlich sind. Wahrheit reduziert sich auf Gewissheit im Sinne methodischer Verifizierbarkeit. Daraus ergibt sich die positivistische Auffassung, die nur das empirisch Feststellbare und Nachprüfbare als wahr gelten lässt, allem übrigen aber – der Einsicht in Sinn- und Wertgehalte, die sich uns geschichtlich erschließen – die Wahrheit abspricht“ (Coreth, 1969, S. 178). Aus der Sicht der Geistes-

27

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

wissenschaften geht durch die aufkommende Dominanz der quantitativempirischen Forschung Bedeutendes verloren. Emerson Coreth mahnt daher als Vertreter eines qualitativ-hermeneutischen Wissenschaftsverständnisses (altgr. hermēneuein, d.h. [Gedanken] ausdrücken, interpretieren, übersetzen) an: „Auch Sinnverständnis hat seine Wahrheit; auch geschichtliches Verstehen hat seine Wahrheit. Es ist eine höhere Wahrheit als die Feststellung von Tatsachen, weil sich hier vollere und reichere, menschlich bedeutsamere Sinngehalte erschließen. Ein solcher Sinngehalt kann sich der Einsicht eines einzelnen offenbaren, ohne dass sie für jeden greifbar und verfügbar vorläge. Trotzdem kann sie wahr sein, sogar eine sehr tief dringende und bedeutsame Wahrheit erreichen. Aber Wahrheit bedeutet auch hier, dass unser Verstehen und unsere Aussagen den Sinn der Sache selbst erfassen und diesem Sinn ‚entsprechen’“ (ebd., S. 179). Im 20. Jahrhundert wird die Konzentration der Wissenschaft auf das empirisch Feststellbare und Nachprüfbare als fragwürdige Verengung des wissenschaftlichen Gegenstandsfeldes ebenso kritisiert wie ihre zunehmende Ökonomisierung, d.h. die Abhängigkeit von Wissenschaft und Forschung von wirtschaftlichen Interessen. Gemeinsam ist diesen Kritiken die Mahnung, dass Wissenschaft ihr kritisches, aufklärerisches Potenzial nur dann aufrechterhalten und entfalten kann, wenn sich dieses auch reflexiv auf sich selbst richtet: „In der Selbstauslegung der Wissensgesellschaft als Dienstleistungsgesellschaft, in der alle Produktionsvorgänge wieder in reine Tauschvorgänge überzugehen scheinen, ist jeder jedem in irgendeiner Weise zu Diensten, auch der Wissenschaftler, der sein Handwerk nicht mehr in der Produktion von Wissen, in der intelligenten Arbeit am Wissen, sondern als dessen Manager, Anbieter und Verkäufer versteht. Wissen online ist alles; die Vorstellung, dass Wissen zunächst einmal etwas ist, das entdeckt, hergestellt, bearbeitet und erworben werden muss, das unter anderen Bedingungen als denjenigen eines durchgehenden Ökonomismus steht, geht verloren. Wissen, so scheint es, kommt aus dem Computer wie das Licht aus der Steckdose. Die Frage, wie das Wissen in den Computer − oder, in unserem Zusammenhang: in die Universität − kommt, scheint ebenso uninteressant zu werden wie für viele die Frage, wie der Strom in die Steckdose kommt“ (Mittelstraß, 2006, S. 10).

Die dritte Aufklärung setzt nach Gadamer im 18. Jahrhundert ein – in der Epoche, die auch diesen Namen trägt – entfaltet ihre eigentliche Wirkung aus historischen Gründen aber erst im 20. Jahrhundert, in dem die Wissenschaft beginnt, durch die Expertengesellschaft zu herrschen. Allerdings wird der Wissenschaftsglaube der dritten Aufklärung angesichts zweier Weltkriege, atomarer Bedrohungen und ökologischer Krisen gefolgt von dem nagenden Zweifel an der Zukunft der Menschheit (vgl. Gadamer, 1983b, S. 92), ein

28

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

Zweifel, der neue Chancen für die Wissenschaft enthält, wieder ein radikales Mittel der Aufklärung zu werden.

1.5 Ansprüche an wissenschaftliches Wissen oder was Wissenschaft ausmacht „Wissenschaftliches Wissen unterscheidet sich von anderen Wissenarten, besonders dem Alltagswissen, primär durch seinen höheren Grad an Systematizität.“ (Hoyningen-Huene, 2009, S. 22)

Nach Hoyningen-Huene unterscheidet sich wissenschaftliches Wissen lediglich graduell von anderen Wissensarten. Weder gibt es die eine wissenschaftliche Methode, die Wissen über die Welt generiert, noch kann man sich − so zeigt es die Wissenschaftgeschichte − der einmal gewonnenen Erkenntnisse sicher sein. Die These von einem lediglich graduellen Unterschied zwischen wissenschaftlichem Wissen und anderen Wissensarten schliesst zudem ein, dass auch Wissen ausserhalb der Wissenschaften systematisch aufgebaut sein kann (vgl. Kap. 1.1). Doch was bedeutet ein „höherer Grad an Systematizität“? Hoyningen-Huene konkretisiert seine These an neun Begriffen bzw. Themenfeldern, die immer wieder als besondere Kennzeichen der Wissenschaften aufgeführt werden. Wissenschaftliche Beschreibungen sind systematisch geordnete Darstellungen eines Gegenstandbereichs, sei es in Form logischer Ableitungen wie in der Mathematik, in hierarchisch angeordneten Klassifikationen wie in der Botanik oder in zeitlichen Abfolgen bzw. Periodisierungen wie den Epochen der Kunst- oder Musikgeschichte. Die Metrisierung und damit die Quantifizierung qualitativer Eigenschaften wie etwa Temperatur und Windstärke erleichtern die ordnenden Beschreibungen. Erklärungen und Vorhersagen bauen im Gegensatz zum Alltag auf wissenschaftliche Theorien. Wissenschaftliche Theorien sind gekennzeichnet durch eine eindeutige, präzise und knappe Begrifflichkeit und einen systematischen Aufbau der Aussagen über theoretisch angenommene Zusammenhänge. Unsere Alltagstheorien ermöglichen zwar ebenfalls Erklärungen und Vorhersagen, nur werden diese nicht so systematisiert vorgenommen. Zudem werden uns unsere Alltagstheorien nur selten von anderen streitig gemacht, und wenn doch, so muss das nicht weiter stören. Innerhalb der Wissenschaften dagegen sichert der Kritische Diskurs Weiterentwicklungen im Feld von Theorie und Empirie. Beiträge für Fachzeitschriften durchlaufen zunächst ein Begutachtungsverfahren (peer review), bevor sie angenommen und veröffentlicht werden. Institutionen wie die

29

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

Deutsche Forschungsgemeinschaft (DFG) oder der Schweizer Nationalfonds (SNF) nutzen wissenschaftliche Beiräte, um Forschungsanträge zu prüfen und kritisches Feedback von Fachexpertinnen und -experten an die Antragsstellenden weiterzugeben. Die Beurteilung von wissenschaftlichen Beiträgen folgt den Regeln und Verfahren der Verteidigung von Wissensansprüchen: Ist die vorgenommene Beweisführung schlüssig, ist die Fragestellung methodisch angemessen überprüft, sind die zentralen historischen Dokumente bei der Beweisführung berücksichtigt worden usw.? Als weitere Punkte, in denen sich die höhere Systematizität wissenschaftlichen Wissens zeigen lässt, nennt Hoyningen-Huene die epistemische Vernetztheit, d.h die Bezugnahme auf bereits bestehendes Wissen, das Ideal der Vollständigkeit bzw. die Vermehrung des Wissens und die insgesamt höhere Strukturierung des Wissens; man denke hier nur an die Vielzahl wissenschaftlicher Disziplinen und die verschiedenen disziplinären wie interdisziplinären Forschungstraditionen. Der Autor schliesst mit einem Zitat von Albert Einstein: „Die ganze Wissenschaft ist nur eine Verfeinerung des alltäglichen Denkens“ (Einstein, 1936, zitiert nach Hoyningen-Huene, 2009, S. 27). Hoyningen-Huene schliesst seine Überlegungen mit der Ergänzung: „Die ganze Wissenschaft ist nur eine Systematisierung des alltäglichen Denkens“ (Hoynigen-Huene, 2009, S. 27, Hervorhebung im Text). Im nun folgenden letzten Abschnitt werden die bisherigen Überlegungen zum Wissensbegriff, die Ausführungen zum sich wandelnden Verständnis von Wissenschaft im Verlauf der Wissenschaftsgeschichte und nicht zuletzt das Stichwort der höheren Systematizität als besonderes Kennzeichen der Wissenschaften genutzt, um danach zu fragen, warum und in welcher Art und Weise sich angehende Lehrpersonen mit dem Thema Wissenschaft auseinandersetzen sollten.

1.6 Zur Rolle der Wissenschaft in einer wissenschaftlichen Lehrerinnen- und Lehrerbildung Eingangs wurde betont, dass die Vermittlung von (wissenschaftlichem) Wissen in einer von den Wissenschaften geprägten, technologisierten Welt zum beruflichen Auftrag jeder Lehrperson gehört. Diesen Auftrag können Lehrerinnen und Lehrer aber nur dann angemessen erfüllen, wenn sie nicht nur etwas über das Zu-Stande-Kommen von Wissen und über seine möglichen aufklärerischen und dogmatischen Funktionen wissen und die Qualität von Wissen beurteilen können. Sie müssen auch eine Vorstellung davon entwickelt

30

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

haben, ob bzw. wie Wissen überhaupt in die Köpfe gelangt, d.h. Wissen verstanden und mit Wissen weiter umgegangen werden kann. Lehrpersonen vermitteln im schulischen Alltag nicht nur wissenschaftliches Wissen, sondern sie sollten ihr Handeln an wissenschaftlich vertretbaren Erkenntnissen orientieren und begründen können. Alltagstheorie oder wissenschaftsbezogene Reflexion? Die Frage, wann Lehrpersonen leistungsschwachen Schülerinnen und Schülern bei ihren Aufgaben im Unterricht helfen sollen, könnte man mit seiner Alltagstheorie beantworten und entsprechend auch im Unterricht handeln: Man wird in jedem Fall Hilfe anbieten, weil leistungsschwache Schülerinnen und Schüler in der Regel nicht erkennen können, wann sie Hilfe benötigen oder sich schämen, um Hilfe zu bitten. Solche Überlegungen leuchten unmittelbar ein. Wissenschaftlich ausgebildete Lehrpersonen könnten darüber hinaus wissen, dass dieses Verhalten andererseits auch problematisch ist: Wenn Lehrpersonen beispielsweise Hilfe anbieten, bevor die Schüler darum bitten, bekommen die anderen Schüler den Eindruck vermittelt, der Lehrer traue dem Schüler nicht zu, alleine die Aufgabe erfolgreich abzuschliessen. Schüler schreiben (attribuieren) in solchen Fällen mit höherer Wahrscheinlichkeit ihre Misserfolge ihrer mangelnden Fähigkeit zu, so dass in der Folge die Leistungsmotivation sinken kann (vgl. Graham, 1996). Eine Lehrperson wäre also dann zufriedenstellend ausgebildet, wenn Sie in der Lage ist, die oftmals widersprüchlichen Anforderungen pädagogischer Alltagssituationen mit Blick auf die individuell unterschiedlichen Schüler/-innen immer wieder neu und situativ angepasst auszubalancieren, ihr unterrichtliches Handeln im Lichte wissenschaftlichen Wissens kritisch zu reflektieren und gegebenenfalls zu verändern.

Vor dem Hintergrund dieser Anforderungen stellt sich die Frage, in welcher Weise angehende Lehrpersonen in Kontakt mit wissenschaftlichem Wissen gelangen sollen: Genügt es, über wissenschaftliche Erkenntnisse informiert zu sein, d.h. berufsrelevantes wissenschaftliches Wissen zu erwerben oder sollten angehende Lehrpersonen nicht vielmehr selbst lernen, erstens wissenschaftlich zu denken, zweitens in einem bestimmten Maße auch wissenschaftlich zu arbeiten und drittens ihr eigenes Handeln kritisch zu reflektieren? Geht es im Lehrer/-innenstudium um ein Lernen von Wissenschaft oder um ein Lernen im Medium von Wissenschaft? Aus dem Gesagten wird deutlich, dass der Sinn des wissenschaftlichen Wissens in einer wissenschaftlichen Lehrer/-innenbildung in erster Linie in der Aufklärung liegt, d.h. darin, erkennbar zu machen, dass nichts so heilig und ehrwürdig sein kann, dass es nicht vernünftig-kritisch und begründet bezweifelt und infrage gestellt werden könnte. Es geht in einer wissenschaftlichen Lehrerbildung also nicht nur um eine Aufklärung durch Wissenschaft, sondern auch um eine Aufklärung über Wissenschaft. „Wer zum Abstand von sich selbst, zur Einsicht in die Beschränktheit seiner Lebenskreise und damit zur Offenheit für andere fähig ist, der erfährt ständig Korrektur durch die Wirklichkeit. Die Wissenschaft

31

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

hat das zu ihrer vornehmsten Pflicht gemacht. Ihre Freiheit von Zwecken dient der Befreiung von den zu engen Zwecken, die unsere Wunschillusionen in uns ständig aufbauen. Das ist die berühmte Erziehung zur Objektivität, die den Forscher ausmacht“ (Gadamer, 1983c, S. 85). Weiterführende Literatur Gadamer, H.-G. (1983a) (Hrsg.). Lob der Theorie. Reden und Aufsätze. Frankfurt am Main: Suhrkamp. Janich, P. (1996). Was ist Wahrheit? Eine philosophische Einführung. München: Beck. Becksche Reihe Wissen. Kriz, J., Lück, H.E. & Heidbrink, H., (mit einem Beitrag von H. Werbik & W. Zitterbarth) (1996). Wissenschafts- und Erkenntnistheorie. Eine Einführung für Psychologen und Humanwissenschaftler. (3., überarb. Aufl.). Opladen: Leske und Budrich. Popper, K. R. (2004). Die Logik der Forschung (1. Aufl. 1934; 10. verbesserte Aufl.). Tübingen: Mohr.

32

Powered by TCPDF (www.tcpdf.org)

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

2 Empirische Forschung

„Das Gesundheitswesen fordert mehr evidenzbasierte Medizin: Kostenübernahme nur noch für Behandlungsformen, die auf empirisch gesichertem Wissen, d.h. auf durch Studien belegten Erkenntnissen basieren.“ „Die Bildungschancen sind nach wie vor ungleich verteilt und vor allem in Deutschland stark abhängig vom Bildungshintergrund des Elternhauses, das belegen zahlreiche internationale Vergleichsstudien. Die mangelnde Bildungsgerechtigkeit muss Bildungspolitik zuoberst auf ihre Agenda setzen und hier Abhilfe schaffen.“ Solche Sätze zeigen, dass man den Ergebnissen empirischer Forschung, wie ja der Wissenschaft überhaupt, einiges zutraut. Während im vorherigen Kapitel die Entwicklung unseres heutigen Wissenschaftsverständnisses aufgezeigt wurde, soll im Folgenden konkreter beschrieben werden, was empirische Forschung kennzeichnet.

2.1 Was versteht man unter empirischer Forschung? Eine erste kurze Antwort Bereits Kinder im Vorschulalter haben eine Vorstellung davon, was Forschung bedeutet. So lautete die Antwort eines 5-jährigen Mädchens auf die Frage, was Forscherinnen und Forscher eigentlich machen: „Die gehen bis an den Rand der Erde und wollen wissen, was unter der Erde ist. Ich glaube, die haben grosse Taschenlampen und schauen damit nach unten, denn da ist es ja dunkel. Sie suchen nach Dingen, die die anderen nicht sehen, vielleicht weil sie nicht so neugierig sind. Dabei muss man aber sehr aufpassen, damit man nicht herunterfällt. Aber es ist natürlich spannend, was sie dort sehen. Das schreiben die dann auf und erzählen es weiter und das finde ich ziemlich spannend. Ich möchte auch gerne wissen, was unter der Erde ist.“

Die Antwort, obgleich von einem Kind, zeigt bereits einige zentrale Bestimmungsstücke empirischer Forschung:

33

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

1. Empirische Forschung lässt sich beschreiben als ein spezifisches Handeln von Personen, die neugierig sind und etwas in Erfahrung bringen wollen, was sie noch nicht wissen. 2. Empirische Forschung fordert das gezielte Aufsuchen und Arrangieren von Situationen bzw. Ausschnitten der Wirklichkeit, sei es wie im Beispiel der Gang an den Rand der Erde, der Aufbau eines wissenschaftlichen Experiments, die Arbeit in einem Archiv zwecks Studium alter Schriften oder aber die bewusste Gestaltung eines Interviews. 3. Empirische Forschung benötigt Hilfsmittel und methodische Vorgehensweisen, um Erfahrungen, sprich Daten, über den jeweiligen Ausschnitt der Wirklichkeit zu sammeln. Es braucht gelegentlich eben „grosse Taschenlampen“, besondere Messgeräte oder auch Fragebögen, Interviewleitfäden und Aufnahmegeräte. Zusätzlich benötigt empirische Forschung in der Regel Computer zur Datenanalyse und -auswertung. 4. Das, was in Erfahrung gebracht wurde, wird aufgezeichnet. Die Erfahrungen und sich hieraus ableitende weitergehende Erkenntnisse werden vor dem Hintergrund des bisherigen Wissens ausgewertet, interpretiert und weitererzählt. Empirische Forschung sucht nach Erkenntnissen durch systematische Auswertung von Erfahrung. (empirisch: aus dem Griechischen „auf Erfahrungen beruhend“) (Bortz & Döring, 1995, S. 5)

5. Empirische Forschung ist immer eingebettet in ein bestimmtes Verständnis von Wissenschaft im Rahmen wissenschaftlicher Disziplinen und deren spezifischen Forschungstraditionen. Perspektivität wissenschaftlicher Erkenntnisse – der disziplinäre Blick auf die Welt. Schon die Aufteilung in verschiedene wissenschaftliche Disziplinen (z.B. Mathematik, Geschichte, Pädagogik, Soziologie, Wirtschaftswissenschaften) macht deutlich, dass sich die einzelnen Disziplinen mit je unterschiedlichen Bereichen der Wirklichkeit beschäftigen. Während der Geschichtswissenschaftler historische Quellen analysiert, um z.B. die Entstehung und die Einbettung des Begriffs des Nationalstaates im jeweiligen kulturellen Kontext zu verstehen, startet die Wirtschaftswissenschaftlerin eine Umfrage unter führenden Wirtschaftsunternehmen, um Theorien erfolgreicher Unternehmensführung zu prüfen. In beiden Fällen werden Erkenntnisse durch systematische Auswertung von Erfahrungen gewonnen. Einmal werden verschiedene Quellen im jeweiligen Kontext analysiert und interpretiert, das andere Mal Fragebogen- und Interviewdaten statistisch ausgewertet und zuvor formulierte Annahmen, sogenannte Hypothesen, geprüft.

34

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

Jede wissenschaftliche Disziplin nimmt eine bestimmte Perspektive auf die Wirklichkeit ein und „bearbeitet“ in ihrer Weise einen besonderen Ausschnitt. Die spezifischen Fragstellungen erfordern dabei spezifische Handlungsformen. Während z.B. der Psychologe das Verhalten Jugendlicher beobachtet, auf Video aufzeichnet und das Band gemeinsam mit den Jugendlichen entlang zuvor formulierter Themenbereiche analysiert, um die Ergebnisse im Rahmen der bisherigen Erkenntnisse zum Verhalten und Erleben Jugendlicher zu interpretieren, baut die Chemikerin im Labor verschiedene Versuchsreihen auf zur Klärung der Frage der Reaktionsschwelle der Seltenerdmetalle mit verschiedenen Säuren. Hierzu benötigt sie nicht nur die verschiedenen Metalle in Reinform, sondern auch Apparaturen, die ihr anzeigen, wann im Verlauf der Versuche eine Reaktion stattgefunden hat und wann nicht. Die Messergebnisse muss sie lesen und interpretieren können, um zu weiteren Erkenntnissen über die Seltenerdmetalle zu gelangen. Die beiden unterschiedlichen Disziplinen verwenden dabei spezifische Fachsprachen, um sich innerhalb der Disziplin präzise verständigen zu können. Vorteile und Kennzeichen wissenschaftlicher Fachsprachen. Sprache und Kultur hängen nicht nur im Alltag, sondern auch im Bereich der Wissenschaften eng miteinander zusammen. Für und von etwas einen Begriff zu haben, etwas in Sprache ausdrücken zu können, verändert unsere Erfahrung und lässt uns als Ergebnis unserer erweiterten Sprach- und Begriffsfähigkeiten auch andere Erfahrungen machen. Erkenntnisgewinnung ist sprachabhängig, selbst wenn es um das Ablesen von Messinstrumenten geht. Auch hier braucht es eine sprachliche oder schriftliche Anleitung, wie man mit den Apparaturen zu verfahren hat. Die Abhängigkeit wissenschaftlicher Erkenntnisse von ihrer sprachlichen Form gilt in besonderer Weise für die Formelsprache der Mathematik, die es erst ermöglicht, physikalische Prozesse beschreibbar und vorhersehbar zu machen. Empirische Forschung braucht als Medium die Sprache, wissenschaftliche Erkenntnisse werden über Texte, über wissenschaftliche Publikationen und Vorträge weitergetragen. Was bedeutet dies nun für den Umgang mit Sprache in den wissenschaftlichen Disziplinen bzw. für den Umgang mit Sprache in den Wissenschaften überhaupt?

35

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

Der Zusammenhang zwischen Handlung, Erfahrung und Sprache Wer noch nie Ski gefahren ist, wird wenig mit den verschiedenen Begriffen für Schneequalitäten anzufangen wissen. Die passionierte Skifahrerin kann schon ganz anders über ihre Erlebnisse im Tiefschneehang berichten, und die Inuit sollen mehr als 100 Begriffe besitzen, mit denen sie ihre unterschiedlichen Erfahrungen im Umgang mit Schnee und Eis ausdrücken können (frei nach Benjamin Lee Whorf, 1963).

Ein wichtiges Kennzeichen der Sprache in den (Fach-)Wissenschaften ist die Genauigkeit und Unzweideutigkeit, mit der Begriffe und Verfahren der Erkenntnisgewinnung beschrieben werden. Wissenschaftliche Sprache ist im Vergleich zu unserer Alltagssprache höchst präzise, sachbezogen und effizient, d.h. auf das Wesentliche beschränkt. Im Alltag bezeichnet man eine Person als intelligent, weil sie ein grosses Allgemeinwissen besitzt, intellektuell leistungsfähig oder einfach schnell im Denken ist. Was man genau unter dem Adjektiv „intelligent“ versteht und wie dieses Verständnis begründet werden kann, ist für ein Gespräch im Alltag nicht so entscheidend. Auch ohne Kenntnis der verschiedenen wissenschaftlichen Intelligenztheorien mit ihren jeweiligen Intelligenzbegriffen kann problemlos ein Gespräch über die vermeintliche Intelligenz von Zeitgenossen aus Kultur, Politik und Wirtschaft geführt werden. In den Wissenschaften ist dies jedoch anders. Soll das Wissen über einen Gegenstandsbereich sukzessive erweitert werden, dann muss zunächst festgehalten bzw. definiert oder expliziert werden, was den verwendeten Begriff der Intelligenz genau kennzeichnet bzw. welche Facetten zum Begriff dazugehören (vgl. Kap. 4.1.3 „Konstrukte, Begriffsdefinitionen und Operationalisierung“). Mehrdeutigkeiten, die oftmals gerade den Reiz der Kommunikation im Alltag ausmachen, aber auch dort zu Missverständnissen führen können, kann und darf sich Wissenschaftssprache nicht leisten. Es mag ärgerlich sein, den Expertinnen und Experten auf einem wissenschaftlichen Podium nur schwer folgen zu können, doch besitzt die hoch spezialisierte Sprache der einzelnen Wissenschaftsdisziplinen den grossen Vorteil, dass jeweils spezifische Bereiche der Wirklichkeit sehr präzise und genau beschrieben werden können. Fachbegriffe sind konstitutiver Teil einer Fachdisziplin. Der Erziehungsbegriff beispielsweise erhält innerhalb der Pädagogik eine etwas andere Ausrichtung als in der Pädagogischen Psychologie. Dies hat teilweise historische Gründe, d.h. die jüngere Disziplin der Pädagogischen Psychologie schafft sich ihren eigenen Zugang zum Bereich der Erziehung. Dies hat aber auch mit der Einbettung der beiden Disziplinen in verschiedene Wissenschaftsund Forschungsverständnisse zu tun (vgl. Kap. 2.3). Festzuhalten ist, dass

36

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

Fachsprachen überhaupt erst eine klare Perspektive auf den Forschungsgegenstand ermöglichen. Man könnte auch sagen, mittels der Fachsprachen und den je spezifischen wissenschaftlichen Methoden werden die Forschungsgegenstände und damit die Möglichkeiten wissenschaftlicher Erkenntnisse erst konstituiert.

2.2 Grundbegriffe empirischer Forschung „Ich nehme an, dass das Ziel der empirischen Wissenschaft ist, befriedigende Erklärungen zu finden für alles, was einer Erklärung zu bedürfen scheint“ (Popper, 1957; zit. nach Laucken & Schick, 1978, S. 26).

2.2.1 Erfahrungen, Beobachtungen, Tatsachen als Ausgangspunkt Erfahrungen führen zu Erkenntnissen. Dies gilt für wiederholte Erfahrungen, welche wir im Alltag machen, wie für systematisch erhobene und ausgewertete Erfahrungen im Bereich wissenschaftlicher Forschung (vgl. auch Kap. 1.5). Einer weit verbreiteten Auffassung zufolge leiten sich wissenschaftliche Erkenntnisse aus gezielten Beobachtungen ab bzw. basiert Wissenschaft auf sogenannten Tatsachen. Nach Chalmers (2007, S. 7) sind wissenschaftliche Tatsachen durch folgende drei Komponenten gekennzeichnet: 1. Tatsachen sind den Beobachtern durch sorgfältige und unvoreingenommene Beobachtung direkt zugänglich. 2. Tatsachen gehen der Theorie voraus und sind von ihr unabhängig. 3. Tatsachen konstituieren eine stabile und verlässliche Basis für wissenschaftliche Erkenntnis. Die Beobachtung eines Feedbackgesprächs zwischen Lehrperson und Schülerin anhand von Beobachtungskriterien, der Testwert in einem Schulleistungstest oder eine gemessene Änderung des Hautwiderstandes als Anzeichen eines physiologischen Angstzustandes sind in diesem Sinne als „Tatsachen“ anzusehen, d.h. als etwas, das objektiv resp. intersubjektiv überprüfbar festgestellt werden kann. Wissenschaft bleibt aber nicht bei der Auflistung der Tatsachen stehen, sondern will aus diesen allgemeingültige Erkenntnisse gewinnen, indem sie fortlaufend Fragen stellt und diese zu beantworten sucht (vgl. das Zitat von Popper weiter oben). Weiss man noch sehr wenig über einen Phänomenbereich, so beginnt man zunächst mit dem Sammeln von Einzelbeobachtungen. Zur Erschliessung eines neuen Forschungsgebietes wird daher zumeist ein induktives Vorgehen gewählt. Dies geschieht aber keineswegs theorielos: Um

37

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

überhaupt eine die Fragestellung betreffende Beobachtung anstellen zu können, muss bereits eine Vorstellung davon vorhanden sein, was man warum und wie beobachten möchte. In einem zweiten Schritt werden die aus den Beobachtungen abgeleiteten verallgemeinerten Sätze im Rahmen eines deduktiven Vorgehens überprüft. Man spricht in diesem Zusammenhang vom Formulieren und Prüfen von Hypothesen (vgl. Kap. 4.1.2 bzw. Kap. 7.5.3). Definition Induktion Ausgehend von möglichst vielen Einzelbeobachtungen werden allgemeingültige Aussagen abgeleitet.

Um mit ausreichender Sicherheit von Einzelbeobachtungen auf etwas Allgemeines, allen Beobachtungen Gemeinsames zu schliessen, müssen bestimmte Bedingungen erfüllt sein. So sollten möglichst viele Beobachtungen unter verschiedensten Bedingungen durchgeführt werden, bevor man zu allgemeinen Aussagen über den Beobachtungsgegenstand kommt. Trotzdem bleibt die Unsicherheit, ob die aus den Beobachtungen gezogenen Schlussfolgerungen auch in Zukunft Bestand haben werden. Selbst wenn an verschiedensten Orten in mehreren Ländern immer wieder weisse Schwäne beobachtet werden, so erweist sich die hieraus abgeleitete Schlussfolgerung „Alle Schwäne sind weiss“, genau dann als falsch, wenn der erste schwarze Schwan irgendwo gesichtet wird. Diese Überlegungen führen zu einer abgeschwächten Form des Induktionsprinzips: „Wenn eine grosse Anzahl von A unter einer grossen Vielfalt von Bedingungen beobachtet wird, und wenn alle diese beobachteten A ohne Ausnahme die Eigenschaft B besitzen, dann besitzen wahrscheinlich alle A die Eigenschaft B“ (Chalmers, 2007, S. 43). Beim deduktiven Schlussfolgern werden im Gegensatz zur Induktion von einer allgemeinen Aussage ausgehend Aussagen für einen Einzelfall vorgenommen. So kann aus zwei Prämissen (= Voraussetzungen), von denen die erste eine allgemeine und die zweite eine konkrete Aussage enthält, in einem dritten Schritt eine logisch schlüssige Erkenntnis gezogen werden (logischer Syllogismus): Deduktives Schlussfolgern (Beispiel 1) - Prämisse 1: Alle Menschen sind sterblich. - Prämisse 2: Sokrates ist ein Mensch. - Konklusion: Also ist Sokrates sterblich. Definition Deduktion Aus allgemeinen Aussagen werden Erwartungen für den Einzelfall abgeleitet.

38

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

Immer wenn die beiden Prämissen wahr sind, ist es die logische Ableitung oder Schlussfolgerung ebenfalls. Allerdings sagt die Logik des Schliessens noch nichts darüber aus, wie es um den Wahrheitsgehalt der Prämissen steht. Hier hat das deduktiv-logische Schliessen seine Tücken, wie es zwei weitere Beispiele zeigen (beide in von Matt, 2003, S. 31): Deduktives Schlussfolgern (Beispiele 2 und 3) - Prämisse 1: Alle Kreter (alle Menschen aus Kreta) lügen. - Prämisse 2: Ich bin ein Kreter. - Konklusion: Also lüge ich. Das folgende Beispiel stammt aus den Sudelbüchern von Christoph Lichtenberg (1742–1799) - Prämisse 1: Eine Lammkeule ist besser als nichts. - Prämisse 2: Nichts ist besser als das Himmelreich. - Konklusion: Also ist eine Lammkeule besser als das Himmelreich.

Wie soll man mit dem bekannten Lügen-Paradoxon des kretischen Propheten Epimenides – alle Kreter lügen – umgehen bzw. wie könnte man herausfinden, ob der Satz wahr ist? Geht man empirisch vor und richtet die Frage an eine Gruppe von Kretern („Ist es so, dass alle Menschen aus Kreta lügen?“), so sind drei Antworten möglich: Alle Befragten antworten mit ja, alle beantworten die Frage mit nein oder aber in der Gruppe ist man unterschiedlicher Meinung bzw. die Antwort lautet: „Ja, manchmal halt schon, aber doch nicht immer!“. Diese kleine empirische Untersuchung ist offensichtlich nicht geeignet, den Wahrheitsgehalt der Aussage „Alle Kreter lügen“ zu bestätigen oder aber zu widerlegen. Denn es könnte ja sein, dass die Menschen aus Kreta bei der Antwort auf die Frage gelogen haben. Auch das dritte Beispiel zeigt, wie das Verfahren des deduktiv-logischen Schliessens je nach Wahrheitgehalt und „Zusammenstellung“ der Prämissen nicht unbedingt zu allgemeingültigen Erkenntnissen führt. Zur Problematik von Beobachtungsaussagen. Die Feststellung von Tatsachen, welche oben als Ausgangspunkt wissenschaftlicher Erkenntisgewinnung beschrieben wurde, ist jedoch mit Problemen behaftet: Fachbegriffe, mit denen Beobachtungen festgehalten werden, sind nicht abzulösen von den Fachdisziplinen, in denen sie verwendet und verstanden werden. Sie sind so gesehen immer schon „theorielastig“. Der Mediziner und Wissenschaftssoziologie Ludwik Fleck (1896–1961) hat in seinem Artikel „Über die wissenschaftliche Beobachtung und die Wahrnehmung im allgemeinen“ von 1935

39

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

den Erfahrungs- bzw. Beobachtungsbegriff für die Wissenschaften problematisiert und seine Überlegungen folgendermassen zusammengefasst: „Wo ist denn jene, vorurteilsfreie Beobachtung? Die ‚gute’ Beobachtung, gültig ein für allemal und für alle, unabhängig von der Umgebung, ihrer Tradition und von der Epoche? Sie gibt es nirgends, weder in der Geschichte noch im gegenwärtigen Moment, […] Unmöglich ist ein wirklich isolierter Forscher, unmöglich ist eine ahistorische Entdeckung, unmöglich ist eine stillose Beobachtung. Ein isolierter Forscher ohne Vorurteile und ohne Tradition, ohne auf ihn wirkende Kräfte einer Denkgesellschaft und ohne Einfluss der Evolution dieser Gesellschaft wäre blind und gedankenlos. Das Denken ist eine kollektive Tätigkeit wie der Chorgesang oder das Gespräch. Es unterliegt spezifischen Veränderungen der Zeit; es zeigt die geschichtliche Kontinuität dieser Veränderung auf. Sein Ergebnis ist ein gewisses Bild, sichtbar für den, der an dieser sozialen Tätigkeit teilnimmt oder ein Gedanke, ebenso klar nur für die Mitglieder des Kollektivs. Was wir denken und wie wir sehen, hängt vom Denkkollektiv ab, dem wir angehören.“ (Fleck, 1983, 81f.).

Zur Problematik von Induktionsschlüssen – das Prinzip der Falsifikation. Ist es überhaupt möglich, allgemeingültige Aussagen aus Einzelbeobachtungen abzuleiten, selbst wenn es sich um eine grosse Zahl an übereinstimmenden Beobachtungen handelt? Ist das Problem schon dann gelöst, wenn man sich auf Wahrscheinlichkeitsaussagen abstützt? Am oben ausgeführten Beispiel der weissen und schwarzen Schwäne wurde die prinzipielle Vorläufigkeit der Erkenntnisgewinnung aus Beobachtungsaussagen bereits angesprochen. Da man nicht wissen kann, ob nicht eines Tages auch einmal schwarze, gelbe oder rosa Schwäne beobachtet werden könnten, kann eine „Theorie der weissen Schwäne“ nur vorläufig von Bestand sein. Karl Popper (1902–1994) hat in seiner Position des Kritischen Rationalismus, einer der wichtigsten erkenntnistheoretischen Positionen des 20. Jahrhunderts, die Erkenntnisgewinnung durch Induktion (vom Einzelfall zum Allgemeinen) grundsätzlich in Frage gestellt (vgl. auch Kapitel 1.2). Seiner Ansicht nach kann Forschung mit dem Ziel der Gewinnung neuer Erkenntnisse nicht bei der Feststellung von Tatsachen beginnen, da aus den sogenannten Protokollsätzen aus formallogischen Gründen keine allgemeingültigen Sätze abgeleitet werden können (Induktionsproblem). Immer ist eine neue Beobachtung möglich, die die Allgemeingültigkeit bisheriger Schlussfolgerungen in Frage stellen könnte. Popper fordert daher in seiner Logik der Forschung (Popper, 2004), als Ausgangspunkt des Forschungsprozesses mit der Formulierung theoretischer Überlegungen und Aussagen zu beginnen. Diese Hypothesen sind als sogenannte Basissätze zu formulieren, aus denen sich Prüfverfahren/Experimente ableiten lassen, innerhalb dessen die Annahmen prinzipiell scheitern können. „Mittwochs regnet es nie“ ist ein solcher Basissatz, der

40

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

durch Beobachtung des Wetters widerlegbar ist. Anders dagegen die Annahme „Entweder es regnet oder es regnet nicht“, die prinzipiell nicht widerlegt werden könnte (Beispiele aus Chalmers, 2007). Diejenigen Hypothesen, die den Prüfversuchen – trotz der Möglichkeit des Scheiterns – standhalten, gelten dann als bewährte Annahmen. Dass ein wissenschaftlicher Erkenntnisfortschritt nach Popper allein durch die empirische Widerlegung von Annahmen der Forschenden erreichbar ist, d.h. dass das Forschungshandeln mit Ernsthaftigkeit auf ein Scheitern hin angelegt sein müsste, hat selber wiederum Widerspruch ausgelöst. Paul Feyerabend (1924–1994), ein Schüler Poppers, hat mit seinem Werk „Wider den Methodenzwang. Skizze einer Anarchistischen Erkenntnistheorie“ (Feyerabend, 1976) das methodische Vorgehen des Kritischen Rationalismus kritisiert. Feyerabends These lautet: Erkentnisfortschritt kommt auch dort zustande, wo gegen methodologische Regeln verstossen wird. Sein Schlachtruf „Anything goes“ fordert dazu auf, empirische Forschung jenseits der Bevorzugung oder gar Verordnung einer bestimmten Methode oder einer erkenntnistheoretischen Richtung fortlaufend aus einem kritischen Diskurs, der keine Denkbeschränkungen kennt, heraus weiterzuentwickeln. 2.2.2 Erklären und Vorhersagen als Ziel Der Begriff „empirische Forschung“ umfasst als Oberbegriff all diejenigen Forschungsansätze in verschiedenen Fachdisziplinen, die ihre Erkenntnisse durch systematische Auswertung von Erfahrungen gewinnen. Man möchte Tatsachen (vgl. 2.2.1) oder Sachverhalte erklären, d.h. die Warum-Frage, die Frage nach Gründen und Bedingungen oder auch nach Zusammenhängen beantworten können. In den empirischen Sozialwissenschaften (z.B. Pädagogik, Psychologie, Soziologie) wird versucht, Erklärungen für das Erleben und Verhalten bzw. Handeln von Menschen zu finden, so etwa im Bereich der Forschungen zur Prüfungsangst: Wie entsteht eigentlich Prüfungsangst, was genau ist darunter zu verstehen, welche Bereiche des Fühlens, Denkens und der Körperwahrnehmungen sind in welchem Ausmass beteiligt und wie hängen Prüfungsangst mit Schulleistung oder Berufserfolg zusammen? Aber auch in anderen Wissenschaften, so etwa in den historischen Wissenschaften kann man empirisch forschen, d.h. erfahrungsbasiert, datengestützt nach Antworten auf zuvor formulierte Fragen suchen. Im Rahmen von Quellenforschung und -analyse könnte man etwa der Frage nachgehen, wann zum ersten Mal der Begriff des Nationalstaates in den zentralen Quellen einer bestimmten Region auftaucht und versuchen herauszuarbeiten, wie dieser Begriff im jeweiligen Quellenkontext aufgefasst wurde. Und auch die syste-

41

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

matische Analyse der Lehrplanentwicklungen eines Bundeslandes oder Kantons mittels einer Dokumentenanalyse ist empirische Forschung. Immer geht es darum, gezielte Beobachtungen zu machen, diese Daten zusammenzutragen und methodisch geleitet auszuwerten, zu interpretieren und in den Kontext des bisherigen Wissens zum Themenbereich zu stellen. Erklärungen erster und zweiter Ordnung. Empirische Forschung möchte Sachverhalte also nicht nur beschreiben, sondern vor allem auch erklären und damit genauer verstehen. Das Erklären setzt dabei zunächst eine genaue Beschreibung dessen, was erklärt werden soll, voraus. Die Bedeutung einer genauen Beschreibung (Definition) der Begriffe und Sachverhalte für empirische Forschung und deren Aussagen wird in Kapitel 4.1.3 genauer beschrieben. Einfache Erklärungszusammenhänge (Erklärungen erster Ordnung) halten einen „Wenn-dann“ Bedingungszusammenhang zwischen zwei Sachverhalten fest: Wenn eine wichtige Prüfung bevorsteht, dann leiden Personen mit Prüfungsangst unter Schlafstörungen. Erklärungen zweiter Ordnung wollen darüber hinaus feststellen, was denn diesen „Wenn-dann“ Zusammenhang wiederum erklärt. Was genau führt zu den Schlafstörungen? Ist es ein ständiges Grübeln über die eigenen Fähigkeiten, das sich gerade in der Nacht nicht abschalten lässt oder sind es auch starke Emotionen (Ängste), die sich physiologisch z.B. in einem beschleunigten Pulsschlag äussern, d.h. der Körper kommt nicht zur Ruhe. Um Prüfungsangst zu erklären und zu verstehen braucht es Erklärungen zweiter Ordnung, d.h. es braucht ein tieferes Verständnis oder anders gesagt es braucht eine Theorie der Prüfungsangst. Tabelle 1 und Tabelle 2 (beide S. 45) zeigen für ein weiteres, im Folgenden genauer beschriebenes Beispiel das Prinzip der Erklärungen erster und zweiter Ordnung. Um Erklärungen vorzunehmen, werden zunächst verschiedene Erwartungen oder auch Hypothesen über die interessierenden Sachverhalte formuliert und diese dann im Forschungsprozess geprüft. Nach Bortz & Döring (1995, S. 7) muss eine wissenschaftliche Hypothese drei Kriterien genügen: 1. Sie enthält eine über den Einzelfall hinausgehende Behauptung. 2. Sie enthält eine „Wenn-dann“ oder „Je-desto“ Aussage (Konditionalsatz). 3. Es müssen Ereignisse denkbar sein, die dem Konditionalsatz widersprechen können. Will man etwa den Zusammenhang zwischen der Nutzung gewalthaltiger Video- und Computerspiele (Sachverhalt A) und der Aggression bei Kindern und Jugendlichen (Sachverhalt B) erklären (vgl. Schiller, Strohmeier & Spiel,

42

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

2009), so muss man zunächst genau beschreiben bzw. definieren, was unter „gewalthaltigen Video- und Computerspielen“, „Konsum/Nutzen von Videound Computerspielen“ und „selbstberichteter Aggression“ verstanden werden soll. Verschiedene Erklärungsrichtungen können dann mittels empirischer Forschung überprüft werden: - Hypothese 1: Je häufiger Kinder und Jugendliche gewalthaltige Video- und Computerspiele konsumieren, desto höher ist ihre selbstberichtete Aggression. - Hypothese 2: Wenn Kinder- und Jugendliche gewalthaltige Video- und Computerspiele konsumieren, dann zeigen sie höhere Werte in der selbstberichteten Aggression bzw. – einfacher formuliert – Kinder und Jugendliche, die solche Videos und Computerspiele konsumieren, zeigen im Vergleich zu Kindern und Jugendlichen, die dies nicht tun, eine höhere Agressionsbereitschaft. Anstelle eines Sachverhalts wird in der empirischen Forschung der Begriff Variable verwendet. Definition Variable „Eine Variable ist ein Symbol für eine Menge von Merkmalsausprägungen“ (vgl. Bortz & Döring, 2003, S. 6).

Im angeführten Beispiel sind der Konsum von Video- und Computerspielen und die selbstberichtete Aggression als Variablen zu bezeichnen, die bei den Merkmalsträgern − hier Kinder und Jugendliche − unterschiedlich stark ausgeprägt sein können. Um die Zusammenhangshypothese („Je-desto“) zu prüfen, müsste man die Nutzungshäufigkeit der Video- und Computerspiele und die selbstberichtete Agression bei den Kindern und Jugendlichen feststellen und statistisch überprüfen (genauer vgl. Kap. 7.4), ob der postulierte, d.h. hypothetisch angenommene Zusammenhang gemäss Hypothese 1 zutrifft. Die Autorinnen der Studie (Schiller et al., 2009) sind jedoch anders vorgegangen. Sie interessierten sich für die Hypothese 2, d.h. sie untersuchten die Folgen des Konsums von Video- und Computerspielen, einer beliebten Freizeitbeschäftigung von Kindern und Jugendlichen. Diese Frage ist von einiger Relevanz: Führt bereits der Konsum jeglicher Art von Video- und Computerspielen zu einer erhöhten Agressionsbereitschaft, d.h. besteht allgemein ein „Risiko Videound Computerspiele“, so der Titel der Studie, oder liegt nicht vielmehr ein Risiko allein im Konsum besonderer, eben gewalthaltiger Video- und Computerspiele?

43

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

Zur Überprüfung der Hypothese wurden die Video- und Computerspiele in drei Kategorien eingeteilt (gewaltfrei, mässig gewalthaltig, gewalthaltig) und die Spieler/innen den entsprechenden Kategorien zugeordnet. Zugleich wurden die durch einen Fragebogen festgestellten selbstberichteten „Agressionswerte“ (in der Studie unterteilt in Werte für „offene Aggression“ und „reaktive Aggression“) der Spieler/innen ermittelt. Die Ergebnisse zeigen, dass Spieler und Spielerinnen gewalthaltiger Video- und Computerspiele über eine höhere Agressionsbereitschaft berichten als die anderen beiden Spielergruppen. Dieses Resultat beinhaltet jedoch noch keine Ursachenerklärung. Man kann aber festhalten, dass allein der Konsum der gewalthaltigen Video- und Computerspiele in einem engeren Zusammenhang mit einer selbstberichteten Aggressionsbereitschaft zu sehen ist. Häufig sucht man aber eine Ursachenerklärung für einen Sachverhalt und möchte eben gerade die „Warum-Frage“ (Erklärung zweiter Ordnung) beantworten: Warum zeigen einige Kinder und Jugendliche eine erhöhte Aggressionsneigung im Vergleich zu anderen? Woher kommt das? Welche Bedingungsfaktoren (unabhängige Variablen) haben einen Einfluss auf die Aggressionsbereitschaft (abhängige Variable)? Wie Tabelle 1 (S. 45) zeigt, könnte einmal der Konsum von gewalthaltigen Video- und Computerspielen, einmal aber auch die bereits erhöhte Gewaltbereitschaft als unabhängige Variable resp. abhängige Variable betrachtet werden. Die Annahme eines Bedingungszusammenhangs zwischen zwei Variablen, d.h. was wird als Bedingung für was angesehen, ist ein Entscheid, der zuvor auf der Basis von theoretischen Überlegungen entschieden werden muss. Um eine Ursachenerklärung vornehmen zu können, müsste man die unabhängige Variable systematisch manipulieren, d.h. Personen in unterschiedlichem Masse den Konsum von Gewaltvideos zumuten. Zeitlich anschliessend wären die Personen in Situationen zu bringen, in denen sie die Möglichkeit erhalten, auf ein arrangiertes Ereignis − z.B. die gezielte Provokation durch eine ins Experiment eingeweihte Person − mit aggressivem Verhalten zu reagieren (oder eben nicht). Je nach verfolgter Hypothese ist der Konsum von Gewaltvideos resp. die erhöhte Aggressionsbereitschaft einmal die unabhängige oder die abhängige Variable. Diese Untersuchungsanlage (Forschungsdesign, vgl. auch Kap. 4.1.6) ist allerdings aus forschungsethischen Gesichtspunkten nicht unproblematisch und es gilt bei solchen Fragestellungen den Nutzen für den Erkenntnisgewinn und den möglichen Schaden bzw. die Belastungen für die Versuchsteilnehmenden sorgfältig abzuwägen (vgl. auch Kap. 2.5).

44

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

Tabelle 1: Erklärungen erster Ordnung Variable A Häufiger Konsum von Gewaltvideos (unabhängige Variable) Erhöhte Aggressionsbereitschaft (unabhängige Variable)

Variable B 



Erhöhte Aggressionsbereitschaft (abhängige Variable) Erhöhter Konsum von Gewaltvideos (abhängige Variable)

In den empirischen Sozialwissenschaften werden häufig multikausale Erklärungen (Erklärungen zweiter Ordnung) erwartet: Sachverhalt A ist nicht die direkte und einzige Ursache für Sachverhalt B, sondern beide werden durch eine dritte und vielleicht weitere Variable zusätzlich beeinflusst bzw. moderiert. So kann es sein, dass der Konsum von Gewaltvideos und die Neigung zu Aggressionen durch das soziale Milieu (z.B. Wertvorstellungen der Peergroup) mitbestimmt werden. Tabelle 2: Erklärungen zweiter Ordnung Sachverhalt A Häufiger Konsum von Gewaltvideos

Sachverhalt C  Soziales Milieu 

Sachverhalt B Erhöhte Aggressionsbereitschaft

Ursachen oder doch nur Zusammenhänge? Der Begriff der Ursachenerklärung ist vorsichtig zu gebrauchen. Nur ein experimentelles Vorgehen, wie es vor allem in den Naturwissenschaften, aber auch beispielsweise bei der Erforschung der Grundlagen unserer Wahrnehmungs-, Gedächtnis- und Denkprozesse durch die sich an die Naturwissenschaften anlehnende Allgemeine Psychologie vorgenommen wird, liefert eindeutige Ursachenerklärungen. Experimentelle Untersuchungsbedingungen zeichnen sich dadurch aus, dass sie von den Forschenden selber hergestellt werden, so z.B. in verschiedenen Versuchsreihen zur Reaktion von spezifischen Metallen bei Erwärmung. Sowohl die Ausgangsbedingungen (Auswahl spezifischer Metalle) als auch die Versuchsbedingungen (unterschiedliche Grade der Erwärmung) sind eindeutig feststellbar. Der Forschungsprozess ist von seinem Forschungsdesign (experimentelle Versuchsanordnung entsprechend der vorgenommenen

45

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

Hypothesen) so angelegt, dass eine systematische Kontrolle der Einflussbedingungen möglich wird, wodurch − unter Berücksichtung möglicher Störvariablen − letztlich eindeutige Rückschlüsse auf die Bedingungsfaktoren der Ergebnisse des Experiments möglich werden. Dies heisst im verwendeten Beispiel, dass die im Experiment beobachteten Reaktionen der Metalle eindeutig auf die experimentell vorgenommenen Veränderungen, sprich die Erwärmung, rückführbar sind. Prüfungsangst wird man nicht „herstellen“ wollen, um zu prüfen, ob dies negative Auswirkungen auf die Schulleistungen hat. Wohl aber kann man bei einer Gruppe hoch prüfungsängstlicher Personen im Vergleich zu einer wenig prüfungsängstlichen Gruppe untersuchen, welche Unterschiede sich in Abhängigkeit der Prüfungsängstlichkeit in den schulischen Leistungen zeigen. Oder man kann in Längsschnittstudien, d.h. in Studien, die eine Teilnehmergruppe über mehrere Mess- resp. Befragungszeitpunkte verfolgen, versuchen herauszufinden, wie prüfungsängstliche und weniger prüfungsängstliche Personen ihre Schul- und ggf. auch Berufslaufbahn bewältigen. 2.2.3 Beeinflussen und Verändern Die Erklärung eines Sachverhalts macht Vorhersagen erforderlich. Die Güte (Eintretensgenauigkeit) einer Vorhersage ist von der Güte der Beschreibung (um was genau geht es?), der Güte der Erklärung (welches gesicherte Wissen ist vorhanden und kann zur Vorhersage genutzt werden?), aber auch vom Inhalt und der Zuverlässigkeit der Messung der vorhergesagten Sachverhalte abhängig. Diejenige Variable, die einen Sachverhalt vorhersagt, nennt man auch Prädiktorvariable; der Sachverhalt, der vorhergesagt werden soll, wird als Kriteriumsvariable bezeichnet (vgl. Tabelle 3). Tabelle 3: Empirische Vorhersagen Prädiktorvariable Prüfungsangst im Schulfach A Prüfungsängstlichkeit

Vorhersage  

Kriteriumsvariable Schulleistung im Schulfach A Berufserfolg

Es liegt nahe, dass die Prüfungsängstlichkeit eines Schülers in einem für ihn schwierigen Fach gut seine Leistungen/Zeugnisnoten mit vorhersagt. Möglicherweise wird die Vorhersage dabei durch sein eher geringes Interesse am Fach (Moderatorvariable) moderiert. Weniger hoch dürfte die Prüfungsängstlichkeit mit dem späteren Berufserfolg insgesamt zusammenhängen.

46

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

Dies auch deshalb, weil Berufserfolg nicht so eindeutig vorhersagbar, weil messbar ist, wie etwa die Bewertung in einem Leistungstest. Je genauer die Beschreibung, Erklärung und Vorhersage, umso besser ist in der Regel auch die Möglichkeit zur Intervention gegeben. Lehrperson benötigen beispielsweise Wissen über Entstehung und Diagnose von Prüfungsangst, um Lehr-/Lernsituationen so zu gestalten, dass sich möglichst keine Prüfungsängste entwickeln können. Zusätzlich sollten sie Verfahren kennen und einsetzen können, die bereits vorhandene Prüfungsängste reduzieren. Wie in allen Lehr-/Lernprozessen sind auch hier unklare und unrealistische Zielvorstellungen von Nachteil. Wenn im Rahmen eines aufwändigen und kostspieligen Interventionsprogramms zur Reduktion von Prüfungsangst nur minimale Effekte erreicht wurden, so kann es auch sein, dass die Zielvorstellungen zu weit gesteckt waren bzw. dass es unrealistisch war, von einem kurzzeitigen Training nachhaltige Effekte zu erwarten.

2.3 Empirische Forschung innerhalb verschiedener Wissenschafts- und Forschungsverständnisse Die Einteilung der Wissenschaften. Eine oft gebräuchliche, „klassische“ Unterteilung der Wissenschaften unterscheidet die Naturwissenschaften von den Geistes- und Sozialwissenschaften, wobei letztere sich von den Geisteswissenschaften nachträglich abgegrenzt haben. Die Naturwissenschaften befassen sich mit der unbelebten und belebten Natur und versuchen deren Phänomene zu beschreiben und zu erklären. Als die drei klassischen Naturwissenschaften gelten Physik, Chemie und Biologie. Den Naturwissenschaften gemeinsam ist das experimentelle Vorgehen zur Gewinnung wissenschaftlicher Erkenntnisse. Es werden Vermutungen über den Ablauf und das Ergebnis einer Versuchsreihe aufgestellt (sogenannte Hypothesen) und im Experiment (vgl. Kap. 2.2.2) überprüft. Durch systematisches Experimentieren bestätigte Vermutungen führen letztlich dazu, dass sich das Wissen über einen Phänomenbereich ständig erweitert. Verdichtetes Wissen wird in Theorien über einen Phänomenbereich zusammengefasst. In den Naturwissenschaften werden manche Theorien auch als Naturgesetze bezeichnet (z.B. das Naturgesetz der Schwerkraft). Aufgrund der technologischen Verwertbarkeit naturwissenschaftlichen Wissens haben die Naturwissenschaften einen besonders herausragenden Stand im Kreis der Wissenschaften. Häufig wird im Alltagsverständnis die Wissenschaft mit der Naturwissenschaft, den „exakten Wissenschaften“ gleichgesetzt.

47

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

Die Geisteswissenschaften entwickelten sich als Reaktion auf die Erfolge der Naturwissenschaften im 19. Jahrhundert. Ausgangspunkt bildete die These, dass die Phänomenbereiche der Forschung immer schon kulturell Gegebenes umfassten und dass die Methoden der Naturwissenschaften folglich nicht ausreichen, umfängliches Verstehen zu ermöglichen. Neben einem quantitativen, experimentellen Zugang verspricht ein stärker interpretativ-deutender Zugang zu den Phänomenen weitere und andere Erkenntnismöglichkeiten. Die Hermeneutik als Interpretations- und Deutungskunst verfolgt methodisch einen qualitativen Ansatz mit dem Ziel eines besseren Verstehens. Gegenstände der Geisteswissenschaften sind kulturelle Produkte (Quellentexte, Interviewdaten, visuelle Daten wie Fotos, Film und Video), die mittels qualitativer Verfahren (z.B. Quellenexegese, d.h. die Erklärung und Auslegung historischer Texte, qualitative Inhaltsanalyse) ausgewertet und interpretiert werden. In Kapitel 7.2 werden die verschiedenen Verfahren eines qualitativen Forschungszugangs genauer beschrieben. Die Sozialwissenschaften befassen sich mit Phänomenen des gesellschaftlichen Zusammenlebens von Menschen, mit den Wechselwirkungen zwischen gesellschaftlichen Institutionen und dem Erleben, Verhalten und Handeln von Individuen oder Gruppen. Anders als bei den Naturwissenschaften oder den Geisteswissenschaften sind die Sozialwissenschaften nicht durch eine besondere wissenschaftliche Methode gekennzeichnet. Es werden je nach Forschungstradition und Forschungsgegenstand Methoden der Geistes- oder auch der Naturwissenschaften verwendet. Da die Objekte sozialwissenschaftlicher Forschung anders als in den Naturwissenschaften selber handelnde Subjekte sind (also Menschen Menschen beforschen), ist das Verhältnis von Forschungssubjekt zum Forschungsobjekt ein besonderes. Das mitdenkende Gegenüber „errät“ vielleicht die Forschungsfragestellung, was die Antwort wiederum mitbeeinflussen dürfte. Ergebnisse der Forschung verändern zudem den Forschungsgegenstand, was aber auch prinzipiell auf die Naturwissenschaften zutrifft, denkt man an die Entdeckung und Folgen der Atomspaltung oder an die Gen- oder Biotechnologie. Die Diskussionen um die Ergebnisse der internationalen Schulvergleichsstudien, wie z.B. PISA, führen u.a. dazu, dass Befragungen zur Qualität schulischen Unterrichts vor oder nach PISA anders ausfallen dürften. Die Bildungswissenschaften (als sich zunehmend neu etablierender Oberbegriff für Disziplinen wie Pädagogik und Erziehungswissenschaft oder Teildisziplinen wie die Pädagogische Psychologie und die Bildungsökonomie) widmen sich der Beschreibung, kritischen Analyse und wissenschaftlichen Erklärung von Phänomenen im Bereich von Bildung und Erziehung. Ausbil-

48

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

dungs-, Bildungs- und Erziehungsprozesse in Institutionen (Schule, Weiterbildung), aber auch Sozialisationsprozesse ausserhalb von Institutionen (z.B. beiläufiges, nicht beabsichtigtes Lernen, Mediensozialisation) sind Forschungsbereiche der Bildungswissenschaften. Das methodische Vorgehen in den Bildungswissenschaft ist vielfältig (methodischer Pluralismus): Empirisch-sozialwissenschaftliche Zugänge stehen neben phänomenologischen, historisch-hermeneutischen Zugängen. Zudem werden Erkenntnisse aus benachbarten Disziplinen wie etwa der Soziologie aufgenommen. Nomothetisches und ideographisches Wissenschaftsverständnis. Neben einer Einteilung in Natur-, Geistes- und Sozialwissenschaften lassen sich die Zugänge der verschiedenen Wissenschaften bei der Erkenntnisgenerierung grundsätzlich zwei übergeordneten Wissenschaftsverständnissen zuordnen. Das Ziel eines nomothetischen Wissenschaftsverständnisses ist Aufgliederung und Analyse eines Phänomenbereiches. Es sollen Gesetze („Nomos“ = Gesetz, „These“ = Behauptung) entwickelt werden, die im Prinzip zeit- und kulturunabhängig Gültigkeit beanspruchen können und gezielte Prognosen ermöglichen. In den Naturwissenschaften und einigen Grundlagendisziplinen der Sozialwissenschaften herrscht überwiegend dieses Wissenschaftsverständnis vor. Die quantifizierende Beschreibung von Ausschnitten der Realität sucht mittels statistischer Auswertungsverfahren (vgl. Kap. 7) verallgemeinerbare Aussagen, die eben nicht nur für den Einzelfall zutreffen. Dieser quantitative Forschungsansatz setzt die Messbarkeit der betrachteten Phänomene voraus. Die Aufgliederung eines Phänomenbereichs als Grundbedingung seiner Messbarkeit folgt jedoch bereits Vorannahmen: Welche Gliederung ist sinnvoll, welche Teile eines Ganzen sollen genauer in den Blick genommen werden? Im ideographischen Wissensschaftsverständnis, welches vorwiegend in den Geisteswissenschaften gebräuchlich ist, überwiegt eine stärkere, den Einzelfall in seiner Besonderheit erkundende, Vorgehensweise. Die Ganzheit („Idiom“ = Besonderheit und „Graphik“ = [Beschreib-]Kunst) und nicht in erster Linie die analytische Aufgliederung eines Phänomenbereichs stehen im Zentrum des Forschungsinteresses. Qualitative Forschungsansätze stellen die Bedeutung subjektiver Sichtweisen und die Kultur- und Kontextbezogenheit von Forschungszugängen stärker in Rechnung. Am Beispiel der Forschungen zur Prüfungsangst lässt sich die unterschiedliche Herangehensweise quantitativer und qualitativer Forschungsansätze aufzeigen: In offenen Interviews könnte man beispielsweise mit Studierenden das Thema Erleben und Verhalten vor wichtigen Prüfungen diskutieren. Der Interviewer versucht durch

49

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

Nachfragen und in der Auswertung des Gesprächs dann mittels interpretativer Deutungen genauer zu verstehen, wie die Studierenden verschiedener Studiengänge der Hochschule XY mit bevorstehenden, evtl. verschiedenen Prüfungssituationen umgehen, was sie erleben und wie sie darüber erzählen. Bei einer quantitativen Befragung werden von den Befragten Antworten zu bereits formulierten, standardisierten Fragen und − falls Fragebögen eingesetzt werden − zumeist auch bereits festgelegten Antwortkategorien (z.B. ja, nein, weiss nicht) gefordert. Unterschiedliche, günstige und weniger günstige Formen der Vorbereitung auf eine wichtige Prüfung und die daraus resultierenden Prüfungsergebnisse sind dann durch die gemessenen Ergebnisse im Prüfungsangstfragebogen zu erklären. Viele Bereiche der Wissenschaften benötigen sowohl quantitative als auch qualitative Herangehensweisen. Daher findet zunehmend eine Integration beider Forschungsansätze statt (vgl. Flick, 2007, S. 39ff). Festzuhalten bleibt, dass es nicht die eine Wissenschaft gibt und dass die Ausgangspositionen und die Zielvorstellungen im Prozess der Erkenntnisgewinnung durch empirische Forschung differieren können. Weiterführend ist in jedem Fall ein Wissen darum, bei welcher Fragestellung welches Verfahren vor dem Hintergrund bestehenden Wissens angemessener ist. In den Kapiteln 6 und 7 werden sowohl quantitative als auch qualitative Datenerhebungs- und Auswertungsverfahren vorgestellt.

2.4 Der idealtypische Ablauf eines empirischen Forschungsprozesses Eine empirische Untersuchung zeichnet sich durch systematische, geplante und strukturierte Handlungen und Massnahmen aus, welche einen Anfangsund Endpunkt aufweisen. Diese Handlungen und Massnahmen stehen zueinander in Beziehung und folgen einer vom Untersuchungsgegenstand mitbestimmten inneren Logik. Meist werden im Forschungsprozess fünf Phasen unterschieden (z.B. Bortz & Döring, 2003; Diekmann, 2007; vgl. auch Kap. 3.2.3): - Phase I: Themensuche: Entwicklung und Formulierung einer Fragestellung - Phase II: Untersuchungsplanung - Phase III: Durchführung der Untersuchung: Datenerhebung - Phase IV: Datenauswertung - Phase V: Interpretation und Beantwortung der Fragestellung: Berichterstattung

50

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

Im Folgenden werden die verschiedenen Phasen des Forschungsprozesses kurz beschrieben. Eine vertiefte Darstellung des Vorgehens folgt in den Kapiteln 4 bis 8. 2.4.1 Themensuche: Entwicklung und Formulierung einer Fragestellung Empirische Forschung sucht nach allgemeingültigen Erkenntnissen. Die Fragen, die im Rahmen des Forschungsprozesses gestellt werden und auf die eine Antwort gesucht wird, beziehen sich dabei nicht nur auf einen Einzelfall in einer ganz bestimmte Situation, sondern es wird eine Antwort für mehrere ähnliche Fälle oder aber für den Einzelfall über mehrere verschiedene Situationen gesucht. Die Fragestellung umschreibt das Erkenntnisinteresse und mündet in präzise formulierte, überprüfbare Vermutungen. Beispiel für eine Fragestellung im Rahmen empirischer Forschung Eine Fragestellung aus dem Bereich der Wissenspsychologie zum Problem des trägen Wissens: Es ist aus verschiedenen Untersuchungen bekannt, dass theoretisches Wissen, z.B. aus dem Bereich der Schulmathematik, in der Schule zwar mehr oder weniger erfolgreich vermittelt wird, aber dennoch nur unzureichend im Alltag zur Anwendung gelangt. Das Wissen bleibt träge. Für dieses Phänomen bestehen zurzeit unterschiedliche Erklärungsansätze. Die Situiertheitserklärung behauptet, dass Wissen nicht als eine einmal erarbeitete, losgelöst von der Lernsituation in der Person abgespeicherte Wissenseinheit existiert, welche bei Bedarf zur Lösung einer wie auch immer gearteten Aufgabenstellung dann abrufbar ist. Die Situiertheitserklärung trägen Wissens schlägt dagegen vor anzunehmen, dass Wissen immer nur in Beziehung mit der Auseinandersetzung einer spezifischen Aufgabenstellung vorhanden ist. Will man Wissen erarbeiten, das zur Bewältigung verschiedener Problemstellung im Alltag genutzt wird, dann muss die Erarbeitung des Wissens bereits an Fragestellungen aus dem Alltag erfolgen. Ein Forschungsteam formuliert nun folgende Fragestellung zur Prüfung der Situierheitserklärung: Gelingt es im Rahmen einer situierten Lernsituation zum Prozentrechnen – die Schülerinnen und Schüler müssen den prozentualen Anteil der finanziellen Zuschüsse für ihre Klassenreise je nach Einkommenskategorien der Eltern berechnen – „träges Wissen“ zu vermeiden? Es werden an mehreren Schulklassen einer Jahrgangsstufe Unterrichtssequenzen zum Prozentrechnen nach dem herkömmlichen Lehr-/Lernmodell und dem situierten Modell durchgeführt. Vermutung (Hypothese): Den Schülerinnen und Schülern in den „Versuchsklassen“ gelingt es in höherem Masse, bei einem später vorgegebenen Prozentrechnungsproblem, dieses erfolgreich zu lösen.

Die Fragestellung entsteht dabei nicht aus dem Nichts, sondern geht immer von dem aus, was zum interessierenden Bereich bereits an Erkenntnissen vorliegt. Noch offene Fragen werden aus bestehendem Wissen abgeleitet. Auch wenn mit dem Formulieren einer Fragestellung und dem Aufstellen zu prüfender Hypothesen zunächst nur die erste Phase im Forschungsprozess

51

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

abgeschlossen ist, ist damit bereits ein Hauptteil der Forschungsarbeit geschehen: Das Formulieren einer guten Fragestellung erfordert die intensive Auseinandersetzung mit den im Rahmen der Theorie bereits vorliegenden Erkenntnissen. In Kapitel 4.1 wird genauer beschrieben, wie der Ablauf von der ersten Idee bis zur präzise formulierten Fragestellung aussehen kann. 2.4.2 Untersuchungsplanung Die Untersuchungsplanung setzt die Fragestellungen quasi in ein Handlungsprogramm für die Forschenden um. Wie sind die in der Fragestellung formulierten Sachverhalte festzustellen bzw. wie sind die Variablen in geeigneter Weise zu erfassen? Welche Forschungsinstrumente stehen hierfür zur Verfügung? Je nach Themenstellung kann man auf bereits bewährte Instrumente zurückgreifen, z.B. einen Fragebogen zur Prüfungsangst oder einen Intelligenztest, oder aber man plant die Entwicklung eigener Forschungsinstrumente wie etwa die Entwicklung geeigneter Fragen für ein Leitfadeninterview mit Jugendlichen zum Thema der Berufsfindung. Weiter ist zu planen, bei welchen und mit wie vielen Personen die Untersuchung durchgeführt werden soll und wie die Kontaktaufnahme und die Weitergabe wichtiger Informationen über die Untersuchung zu gestalten sind. Wie sieht überhaupt die Gesamtanlage der Untersuchung aus? Man spricht hier auch vom sogenannten Forschungsdesign (vgl. genauer Kap. 4.1.6). Ist etwa geplant, die Jugendlichen im Verlauf ihres Berufsfindungsprozesses zu mehreren Zeitpunkten wiederholt zu befragen (Längsschnittdesign) oder wird nur zu einem Zeitpunkt, z.B. zu Beginn des letzten obligatorischen Schuljahres eine Befragung vorgenommen (Querschnittdesign). Eine sorgfältige Planung, die auch einen Zeitplan und einen Kostenplan umfasst, tragen entscheidend zur Qualität des Forschungsvorhabens bei. 2.4.3 Durchführung der Untersuchung: Datenerhebung Je nach Wissenschaftsdisziplin und Forschungstradition sind unterschiedliche Methoden entwickelt worden, um zu Daten zu kommen. Verschiedene Fragestellungen verlangen dabei ein der Fragestellung angepasstes Vorgehen. Die Wahl der Methoden ist bedeutsam, weil die Verwendung unterschiedlicher Methoden die Art der Daten und damit das Ergebnis bezüglich der Fragestellung mitbestimmt. Empirische Forschung bedingt deshalb immer eine ausführliche Begründung der verwendeten Datenerhebungsmethoden.

52

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

Methodenabhängigkeit der Daten und damit auch der Ergebnisse Eine studentische Arbeitsgruppe untersuchte die Frage, wie gut Schülerinnen und Schüler mit Migrationshintergrund im Vergleich zu Schülerinnen und Schüler, die in der Schweiz geboren und aufgewachsen sind, in der Klassengemeinschaft jeweils integriert sind. Sie wählten zur Überprüfung ihrer Fragestellung zwei verschiedene Datenerhebungsverfahren: Zur Anwendung kamen zum einen ein Fragebogen mit insgesamt 20 Fragen, auf dem die Schülerinnen und Schüler ankreuzen konnten, ob und wenn ja wie viele Freundinnen und Freunde sie in der Klasse haben und ob sie sich in ihrer Klasse manchmal allein fühlen. Als Antwortkategorien waren vorgegeben: stimmt genau, stimmt ziemlich, stimmt weniger, stimmt gar nicht. Zugleich verwendete die Gruppe ein Datenerhebungsverfahren aus dem Bereich der Soziometrie. Solche Verfahren ermöglichen die Erfassung der Gruppenstruktur hinsichtlich der Sympathie- und Antipathiebeziehungen. Es wurde jedes Kind der Klasse danach gefragt, neben welchem Kind es am liebsten sitzt, welchem Kind es auch Geheimnisse anvertraut oder mit welchem Kind es nicht gerne auf dem Schulhof zusammen ist. Alle Schülerinnen und Schüler konnten jeweils bis zu drei Mitschülerinnen und Mitschüler nennen. Die Arbeitsgruppe hat es sehr erstaunt, dass die Analyse des Fragebogens keine Unterschiede in der Integration der Schülerinnen und Schüler mit oder ohne Migrationshintergrund aufzeigen konnte. Im Soziogramm wurde jedoch deutlich, dass die Kinder mit Migrationshintergrund bei den positiv formulierten Fragen insgesamt seltener gewählt wurden und gegenseitige Wahlen − vor allem in der höheren Klassenstufe − fast ausschliesslich innerhalb der Gruppe der Kinder mit Migrationshintergrund stattfanden. Das Soziogramm stellte in diesem Fall offenbar das „sensiblere“ Verfahren bezogen auf die Fragestellung dar.

2.4.4 Datenauswertung Auch wenn hier der Begriff „Daten“ (personenenbezogene Ergebnisse aus Fragebögen, Interviews etc.) verwendet wird, kann es für die weiterführenden Überlegungen Sinn machen, vereinfachend von Informationen zu sprechen. Die Menge und Art der Informationen ist bereits durch die verwendete Methode vorstrukturiert, d.h. man erhält je nach Fragestellung und Methode Informationen aus Interviews (auf Band aufgezeichnete Texte oder Mitschriften), Fragebögen (Antworten auf die einzelnen Fragen), Einträge in Beobachtungsbögen, eventuell auch Sammlungen von Texten (z.B. historische Quellen eines spezifischen Zeitabschnittes, in denen der Begriff des Nationalstaates vorkommt) oder auch andere „Materialien“ wie Kunstwerke, Fotos usw. Bei der Weiterverarbeitung der Informationen geht es vor allem darum, Beziehungen zwischen den betrachteten „Objekten“ festzustellen. Es stellt sich die Frage, wie viel ist bei Person X und bei Person Y vom Bereich z vorhanden (betreffend spezifischer Inhalte der Antworten bei Interviewfragen oder in Fragebögen). Was zeigt sich bezüglich der Kategorien Z im Kunstwerk A im Vergleich zum Kunstwerk B und C? Werden diese in ein Verhältnis zueinander gesetzt, bezeichnet man dies als empirisches Relativ.

53

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

Definition empirisches Relativ Ein System aus empirischen, d.h. real vorfindlichen Elementen (z.B. Menschen, Texte, Kunstwerke) und den Beziehungen zwischen diesen Elementen: Person X ist grösser als Person Y; Text A enthält eine komplexere Satzstruktur als Text B; Kunstwerk C zeigt mehr zeichnerische Elemente als Kunstwerk D.

Um mit der oftmals vorhandenen Fülle von Informationen weiter verfahren zu können, d.h. die erhobenen Daten auszuwerten, braucht es einen zusätzlichen Schritt der Informationsreduktion. Man denke allein an die Fülle von Einzeldaten, wenn in vier Parallelklassen mit etwa je 24 Schülerinnen und Schülern ein Fragebogen bearbeitet wird, der je 30 Einzelfragen enthält, wobei eine dreistufige Antwortkategorie gewählt wurde (stimmt, weiss nicht, stimmt nicht). Auch bei einem Vergleich der Textqualität von Schulaufsätzen verliert man sicher leicht die Übersicht, wenn mehrere Kategorien der Textqualität vergleichend betrachtet werden sollen. Um die Ergebnisse seiner Beobachtungen kommunizieren zu können, d.h. die Menge an Informationen auf das jeweils Wichtige zu reduzieren, ist es häufig nötig, die empirische Information in eine numerische Information zu übersetzen, d.h. den jeweiligen Merkmalsausprägungen der Objekte Zahlen zuzuordnen. Diesen Vorgang der Abbildung eines empirischen Relativs in ein numerisches Relativ nennt man Messen. Definition Messen Jedem empirischen Element (Person X hat bei Frage 5 die Kategorie Y angekreuzt; die Farbwertanalyse des Kunstwerks zeigt im Bereich des Rots einen mittleren Intensitätsgrad) wird ein Zahlenwert zugeordnet. Die Beziehungen zwischen den empirischen Elementen entsprechen den Beziehung im Zahlenraum (z.B. Person X stimmt einer Aussage stärker zu als Person Y → empirisches Relativ, Person X = 2 > Person Y = 1 → numerisches Relativ).

Die Überführung verbaler Ausgangsdaten in ein objektiviertes, formallogisches System durch den Vorgang des Messens ermöglicht eine einfache und effiziente Kommunikation und umgeht die Subjektivität und Beschränktheit verbaler Kommunikation (vgl. aber auch die anderen Vorgehensweisen und Bewertungen im Rahmen der qualitiativen Forschungsansätze im Kapitel 7.2). 2.4.5 Interpretation und Beantwortung der Fragestellung, Berichterstattung Die gefundenen Ergebnisse sind für sich genommen noch nicht der Endpunkt im Forschungsprozess. Mit der gewählten Methode und den entsprechenden 54

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

Auswertungsverfahren ist die Fragestellung aus einer spezifischen Perspektive bearbeitet worden. Nun geht es nochmals darum, die gewählte Perspektive insgesamt zu reflektieren und zu diskutieren. Hätten etwa andere Erhebungsmethoden (z.B. neben Fragebögen eine zusätzliche Verwendung von Interviews, eine Zusammenstellung weiterer Quellentexte oder die Befragung anderer Personengruppen) die Fragestellung besser, d.h. genauer, beantwortet? Zudem ist der Erkenntnisgewinn der eigenen Studie im Zusammenhang zu bisherigen Forschungsergebnissen zu diskutieren und darzulegen, welchen Beitrag die Forschung zum besseren Verständnis eines Phänomenbereichs leisten konnte und welche Fragen weiterhin offen geblieben sind.

2.5 Wissenschaftliche Integrität − Ethische Richtlinien des wissenschaftlichen Arbeitens Empirische Forschung bzw. gute wissenschaftliche Praxis beinhaltet nicht nur wissenschaftliche Grundkenntnisse einschliesslich Forschungskompetenzen, sondern auch einen „verantwortungsvollen Umgang mit dem menschlichen Wissensdrang und der wissenschaftlichen Neugier“ (Akademien der Wissenschaften Schweiz, 2008, S. 13). „Ethische Fragen und Probleme stellen sich in jedem Schritt des Forschungsprozesses“ (Flick, 2007). Die Akademien der Wissenschaften Schweiz sehen wissenschaftliche Integrität als Grundlage für jegliche Art von Forschungsvorhaben innerhalb der verschiedenen Disziplinen an. Als Voraussetzungen seitens der Forschenden für integres wissenschaftliches Arbeiten definieren sie Wahrhaftigkeit, Offenheit, Selbstdisziplin, Selbstkritik und Fairness. Dementsprechend ist die ethische Reflexion der eigenen, wissenschaftlichen Tätigkeit ein wesentliches Instrument, mit dessen Hilfe wissenschaftliche Integrität gewährleistet werden kann (vgl. Akademien der Wissenschaften Schweiz, 2008). Innerhalb der sozialwissenschaftlichen Disziplinen und ihren fachlichen Organisationen und Gremien wird den ethischen Richtlinien der wissenschaftlichen Forschung ebenfalls ein hoher Stellenwert beigemessen. So haben die verschiedenen Berufsverbände eigene berufsethische Verpflichtungen erlassen. Für die Psychologie hat beispielsweise die Schweizerische Gesellschaft für Psychologie SGP die Ethischen Richtlinien für Psychologinnen und Psychologen herausgegeben (SGP, 2003). Die Deutsche Gesellschaft für Erziehungswissenschaft (DGfE, o.J.) hat einen Ethikkodex veröffentlicht und die Society for Research in Child Development (SRCD, 1991) spezifische, auf die Forschung mit Kindern zugeschnittene ethische Richtlinien

55

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

erarbeitet. Die Unterlagen sind jeweils auf den Websites der Verbände in der jeweils neuesten Fassung abgelegt. Was bedeutet nun wissenschaftliche Integrität − also wahrhaftig, offen und fair zu arbeiten sowie Selbstdisziplin und Selbstkritik zu üben − für den eigenen Forschungsprozess? Folgende Bereiche sind besonders zu berücksichtigen: 1. Der Umgang mit Quellen und mit fremdem Gedankengut, 2. der Umgang mit Personen, welche Daten zugänglich machen oder als Probandinnen und Probanden, d.h. als Teilnehmer/innen von Untersuchungen fungieren, 3. die Gestaltung der Datenerhebung (Vermeidung psychischer und physischer Beeinträchtigungen, Informationspflicht, Gewähren der Freiwilligkeit der Teilnahme), 4. der Umgang mit erhobenen Daten (Sicherung, sichere Aufbewahrung, Vertraulichkeit, Anonymisierung), 5. die Dokumentation und Verbreitung der Forschungsergebnisse (vgl. Bortz & Döring, 2003, S. 46ff). Der Umgang mit Quellen und mit fremdem Gedankengut. Die Durchführung einer wissenschaftlichen Untersuchung und deren Berichtlegung bringen es mit sich, dass Informationen aus verschiedenen Quellen zusammengetragen und verarbeitet werden. Eigenständige Überlegungen oder Thesen, abgeleitet aus fachlichen, nicht-fachlichen, wissenschaftlichen, nicht-wissenschaftlichen usw. Fragestellungen und Leitthemen werden in bereits bestehendes Wissen, Theorien und Erkenntnisse (sprich, in die bestehende Literatur) eingebettet und die Arbeit so verortet. Dabei ist es wichtig aufzuzeigen, wer wann was und wie schon erarbeitet, gedacht, hinterfragt oder erforscht hat, und welches nun der eigene Beitrag in diesem fachlich-wissenschaftlichen Diskurs ist. Somit müssen eigenes und fremdes Gedankengut voneinander unterschieden und letzteres als solches deklariert werden. Dies bedeutet, dass einerseits im Text wörtliche oder sinngemässe Zitate sowie zusammengefasste oder paraphrasierte Gedanken, fremde Forschungsergebnisse und Theorieentwürfe, Aussagen oder Erkenntnisse anhand eines Literaturverweises markiert und gleichzeitig im Literaturverzeichnis, die erwähnten Quellen dazu angeführt werden müssen. Abbildungen, Tabellen, Grafiken, Bilder, Fotografien etc., welche aus Büchern, Zeitschriften, dem Internet oder anderen Quellen entnommen wurden, müssen ebenfalls eindeutig und unter Angabe der entsprechenden Quelle als solche gekennzeichnet resp. beschriftet sein. Wer dies unterlässt, sei es bewusst, aus Nichtwissen

56

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

oder Fahrlässigkeit, setzt sich dem Vorwurf des Plagiarismus aus. Plagiarismus ist „geistiger Diebstahl, also vollständige oder teilweise Übernahme eines fremden literarischen, musikalischen, bildnerischen oder wissenschaftlichen Werkes in unveränderter oder nur unwesentlich geänderter Fassung unter Vorgabe eigener Urheberschaft“ (Brockhaus, 2005-07). Das Ausgeben fremden geistigen Eigentums als eigenes Werk oder Teil eines eigenen Werkes verstösst gegen das Urheberrecht (URG, 2007). Es handelt sich um ein strafbares Vergehen und zieht somit rechtliche Konsequenzen nach sich. Dementsprechend zeichnet sich wissenschaftliche Integrität in diesem Bereich durch Offenlegung der Verwendung fremden geistigen Eigentums aus (vgl. auch Europäische Kommission, 2005). Der Umgang mit Personen. Im Rahmen einer empirischen Untersuchung sind normalerweise verschiedene Personen oder Personengruppen als Untersuchungsteilnehmende oder als Personen, die Daten zugänglich machen, involviert. Dabei handelt es sich beispielsweise bei Untersuchungen im schulischen Bereich meist um Lehrpersonen, Schülerinnen und Schüler, Schulleitungsmitglieder usw. Forschende müssen sich darüber klar werden, welche Personen oder Personengruppen sie im Rahmen ihrer Untersuchung in welcher Rolle beanspruchen. Sollen diese Personen selber Daten liefern, also für die Teilnahme an der Untersuchung gewonnen werden? Oder sollen sie den Zugang zu Daten ermöglichen, indem sie die Kontaktaufnahme mit potenziellen Teilnehmenden ermöglichen oder beispielsweise Archivdaten für eine Analyse zugänglich machen? Wichtig ist, sich zu überlegen, welche Personen oder Instanzen über das Untersuchungsvorhaben informiert oder zusätzlich auch um Erlaubnis gebeten werden müssen. Es reicht beispielsweise nicht aus, mit einer Lehrperson aus dem Bekanntenkreis mündlich eine Datenerhebung in einer Schulklasse zu vereinbaren, ohne dass die Schulleitung schriftlich angefragt und die Eltern der Kinder oder Jugendlichen per Brief kurz über das Vorhaben informiert wurden. Rechtlich anspruchsvoll ist insbesondere der Einbezug von Schüler und Schülerinnen, die noch nicht volljährig, also jünger als 18 Jahre sind. In solchen Fällen sollten die Erziehungsberechtigten immer über die geplante Untersuchung informiert und um ihre aktive schriftliche Zustimmung zur Teilnahme ihrer Kinder ersucht werden. Natürlich müssen auch die Kinder und Jugendlichen selbst mit der Teilnahme an der Untersuchung einverstanden sein und explizit informiert werden, dass sie – wie dies immer für alle Untersuchungsteilnehmenden gilt – jederzeit das Recht haben, ihre Teilnah-

57

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

me zu verweigern oder abzubrechen, ohne dadurch einen Nachteil zu erfahren. Hier sei noch spezifisch auf Studierende als Forschende verwiesen. Studierende, welche im Rahmen ihres Studiums oder Studienabschlusses eine empirische Untersuchung durchführen, agieren hauptsächlich im Kontext zweier Rollen, nämlich als Studentin/Student und als Forscherin/Forscher. Es ist wichtig, dass sie sich dieser beiden unterschiedlichen Rollen bewusst werden (vgl. McGinn & Bosacki, 2004). So sind sie einerseits Lernende, die sich mit einigem Spielraum innerhalb des „schützenden“ Rahmens der Hochschule bewegen. Andererseits sind sie Forschende, welche nach aussen treten und für ihr Forschungsvorhaben Verantwortung übernehmen. Deshalb will der Einbezug anderer Personen sowie die Art und Weise, wie dies geschehen soll, gut durchdacht sein. Die ethischen Aspekte einer wissenschaftlichen Arbeit sollten also mit Betreuungspersonen, Dozierenden, Mitstudierenden etc. diskutiert werden. Die Gestaltung der Datenerhebung. Forschende sind dafür verantwortlich, die Datenerhebung so zu planen und zu gestalten, dass die Untersuchungsteilnehmenden keinen grossen Belastungen ausgesetzt werden. Körperliche oder psychische Beeinträchtigungen sind zu vermeiden (vgl. Bortz & Döring, 2003; Flick, 2007). Dabei sind vermeidbare Beeinträchtigungen solche, welche aus Mangel an Sorgfalt oder Achtsamkeit oder aufgrund überflüssiger, nicht untersuchungsrelevanter Massnahmen verursacht werden. Darunter fallen z.B. Blossstellungen aufgrund ungeschickt formulierter Fragen wie z.B. „Wie wir ja im ersten Teil der Untersuchung gesehen haben, sind Sie im Lösen von Rechenaufgaben nicht sehr geschickt. Worauf könnte dies zurückzuführen sein?“. Unbeabsichtigte Beeinträchtigungen treten aufgrund nicht vorhersehbarer Zwischenfälle auf und sollten den/die Untersuchungsleitende/n zu unverzüglichem Eingreifen veranlassen. Ein weinendes Kind z.B. muss beruhigt werden. Beabsichtigte Beeinträchtigungen, z.B. das Herbeiführen einer anstrengenden Testsituation, um mehr über den Umgang mit Belastung herauszufinden, sollten die Teilnehmenden dennoch so wenig wie möglich beeinträchtigen und daher minimal dosiert werden (vgl. Bortz & Döring, 2003). Das Erheben unnötiger oder sensibler Angaben, welche keinen direkten Bezug zur Untersuchung haben (z.B. bei soziodemografischen Befragungen von Schüler/Innen die Frage nach der sexuellen Orientierung der Eltern), ist ebenfalls zu vermeiden. Bei der Planung der Untersuchung und der Durchführung der

58

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

Datenerhebung empfiehlt es sich, diese im Geiste Schritt für Schritt durchzugehen und zu überlegen, ob und allenfalls welche möglichen Beeinträchtigungen oder Belastungen für die Teilnehmenden damit verbunden sein könnten. Grundsätzlich besteht für Forschende eine Informationspflicht, was bedeutet, dass die Untersuchungsteilnehmenden so weit über die Untersuchung (Inhalt, Ablauf) informiert werden müssen, dass sie fundiert entscheiden können, ob sie tatsächlich teilnehmen wollen oder nicht (vgl. Bortz & Döring, 2003; Flick, 2007). Diese Information muss nicht zu detailliert sein, aber doch den allgemeinen Rahmen der Untersuchung darlegen. Hierzu gehören Angaben zu Thema und Anliegen der Untersuchung und zum weiteren Umgang mit den erhobenen Daten (z.B. Zusicherung der Anonymität und der Vertraulichkeit), weiter auch die Information, dass die Teilnehmenden über die Ergebnisse später informiert werden und wo sie ggf. weitere Auskünfte einholen können. Die Freiwilligkeit der Untersuchungsteilnahme muss in jedem Fall garantiert werden, sodass die Teilnehmenden auch während der Untersuchung jederzeit die Möglichkeit haben, die Teilnahme abzubrechen, ohne dass ihnen dadurch ein Nachteil erwächst (vgl. Bortz & Döring, 2003; Flick, 2007). Bei unmündigen Kindern oder Jugendlichen ist auf Anzeichen von Stress, Überforderung, Frustration oder Unmutsäusserungen zu achten. Diese können Hinweise darauf sein, dass sie die Teilnahme abbrechen möchten. Wenn schriftlich informierte Eltern mit den verantwortlichen Forschenden Kontakt aufnehmen, um ihrem Kind die Untersuchungsteilnahme zu untersagen, so müssen diese sich daran halten und dieses Kind von der Untersuchungsteilnahme ausschliessen. Der Umgang mit Daten. Der Umgang mit den erhobenen Daten bezieht sich einerseits auf deren Sicherung und sichere Aufbewahrung und andererseits auf die Gewährung von Datenschutz und Anonymität gegenüber den Probandinnen und Probanden (vgl. Bortz & Döring, 2003; Flick, 2007). Zur Sicherung der Originaldaten wird empfohlen, Fragebögen und andere Daten in Papierform genau zu kennzeichnen, d.h. mit einem eindeutigen Identifikationscode und allenfalls anderen wichtigen Informationen zu versehen und in Schachteln unzugänglich für Unbefugte aufzubewahren. Von elektronischen Daten sollten Sicherheitskopien erstellt werden, welche physisch an einem anderen Ort aufbewahrt werden als die Originale. Wichtig ist die sichere Aufbewahrung, d.h. der Schutz vor Verlust oder Beschädigung der Originaldaten (vgl. auch Kapitel 5.3).

59

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

In Bezug auf Datenschutz und das Gewährleisten der Anonymität ist wichtig, die Anonymität der (persönlichen) Angaben der Untersuchungsteilnehmenden jederzeit sicher stellen zu können, sonst muss auf die Durchführung der Untersuchung verzichtet werden. Den Untersuchungsteilnehmenden muss versichert werden, dass die von ihnen erhobenen Daten nur zu wissenschaftlichen Zwecken verwendet werden. Sämtliche von den Teilnehmenden erhobenen Daten unterliegen dem Datenschutz und dürfen nicht aktiv an Personen ausserhalb des Forschungsprojekts weitergegeben werden oder sonst in falsche Hände geraten (vgl. Flick, 2007). Dies bedeutet, dass niemand ausser den Forschenden selbst (und im Falle von Studierenden als Forschende deren Betreuungspersonen) Einsicht in die Originaldaten haben. Somit dürfen weder im Rahmen der Datenerhebung kontaktierte oder involvierte Personen noch Personen aus dem persönlichen Umfeld der Forschenden Zugriff auf nicht anonymisierte Originaldaten haben. Dokumentation und Verbreitung der Ergebnisse. Es ist wichtig, das eigene Vorgehen bei der Untersuchung ausreichend und am besten zeitgleich zu dokumentieren, um die Nachvollziehbarkeit dessen, was wann und ggf. von wem erarbeitet wurde, später zu gewährleisten. Die ausreichende Dokumentation beinhaltet, dass die Forschenden möglichst genau angeben, wie sie zu ihren Daten und Informationen gekommen sind und dass sie die Untersuchungsteilnehmenden sowie ihr Umfeld genau beschreiben. Werden z.B. Schülerinnen und Schüler untersucht, so ist es wichtig, Alter, Klasse, Schulstufe, schulischen Kontext etc. zu beschreiben. An diesem Punkt tangiert die Genauigkeit der Darstellung das Recht der Teilnehmenden auf Vertraulichkeit und Anonymität in der Darstellung der Forschung (vgl. Flick, 2007). Daher müssen Teilnehmende und Kontextbedingungen so charakterisiert werden, dass sie nicht identifizierbar sind. Allerdings kann die Anonymität mit dem Einverständnis der Teilnehmenden bis zu einem bestimmten Grad eingeschränkt werden, was bei gewissen Untersuchungsanlagen, z.B. bei der Durchführung biografischer Interviews oder Fallanalysen, erforderlich sein kann. Entsprechend wird z.B. im Rahmen einer Untersuchung an Schulen auf das Nennen von Namen von Ortschaften, Schulen, Lehrpersonen, Schülerinnen und Schülern etc. vollständig verzichtet. Namen von Schulen und Ortschaften werden nur dann verwendet, wenn die Anlage der Untersuchung dies erfordert, z.B. wenn unterschiedliche Modelle schulischer Gesundheitsförderung an spezifisch ausgewählten Schulen miteinander verglichen werden sollen. In solchen Fällen kann es hilfreich oder sogar notwendig sein, zumindest die Schulen namentlich zu nennen. Jegliche Angaben, die zu einer

60

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

Identifikation von Personen beitragen könnten, sollten vermieden werden. Falls es nötig ist, können die Rollen der involvierten Personen offengelegt werden, z.B. bei der Beschreibung von Interviewaussagen, welche ein Mitglied der Schulleitung gemacht hat. Aber auch hier werden keine Namen genannt. Abschliessend ist zu bemerken, dass es nicht genügt, einfach einen Katalog an Richtlinien und Empfehlungen zu befolgen, um den Anspruch an wissenschaftliche Integrität zu erfüllen. Jede wissenschaftliche Arbeit ist in ihrer Art einmalig und weist ihre eigenen, ethisch relevanten Bereiche auf. Daher ist seitens der Forschenden ethische Sensibilität notwendig, um bei allen Schritten des wissenschaftlichen (Forschungs-)Prozesses solche ethisch relevanten Bereiche zu identifizieren und zu berücksichtigen. Ziel ist der professionelle Umgang mit allen Bereichen des wissenschaftlichen Prozesses, welcher eben auch ethische Aspekte umfasst. Für das Entwickeln einer Forschungsidee resp. Fragestellung bedeutet dies, dass Untersuchungsanlagen, welche die Rechte der Teilnehmenden auf Information über die Grundzüge der Studie, Verweigerung der Datenaufnahme, Anonymisierung und Vertraulichkeit sowie Vermeidung von vorhersehbaren Beeinträchtigungen verletzen, nochmals überdacht und so modifiziert werden müssen, dass diese Rechte geschützt sind. Soll beispielsweise der Zusammenhang zwischen dem Körperselbstbild von 13- bis 16-jährigen Jugendlichen und ihrem Essverhalten untersucht werden und findet die Datenerhebung klassenweise in der Schule statt, ist es nicht vertretbar, dass sich die Jugendlichen vor der ganzen Klasse einzeln auf eine Personenwaage stellen und ihr Gewicht bekannt geben müssen. Es besteht die Gefahr, dass dies von den Jugendlichen als Blossstellung wahrgenommen wird und dass z.B. bei übergewichtigen Jugendlichen hämische Bemerkungen fallen oder gelacht wird. Gerade im Jugendalter sind Fragen des Aussehens (und Gewichts) von grosser Bedeutung und können bei den Jugendlichen für Verunsicherung sorgen (bin ich attraktiv genug, schlank genug, sportlich genug …?). Entsprechend müssen die Forschenden sich fragen, ob es nötig ist, über das aktuelle, genaue Körpergewicht zu verfügen und wenn ja, wie dies so erhoben werden kann, dass Scham und Blossstellung vermieden werden können.

61

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

2.6 Empirische Forschung in den Bildungswissenschaften „Grau, teurer Freund, ist alle Theorie und grün des Lebens goldner Baum“ (Goethe, Faust I).

Folgt man Goethes Faust in seiner Enttäuschung im Umgang mit den Wissenschaften, so ist man geneigt, die graue Theorie einer lebendigen, sinnlichen Lebenspraxis gegenüberzustellen. In der häufig bemühten sogenannten Kluft zwischen Theorie und Praxis kommt dies zum Ausdruck. Letztlich haben aber das wissenschaftlich-empirische Vorgehen und unser Denken und Handeln im Alltag in ihren Grundzügen mehr Gemeinsames als Trennendes (vgl. Kapitel 1.5). Zukünftige Lehrpersonen und Lehrpersonen in der Praxis sollten ihre Alltagstheorien zum Thema Bildung und Erziehung, Unterricht und Schule kennen und vor dem Hintergrund neuerer wissenschaftlicher Erkenntnisse reflektieren können. Dass man vor 20 Jahren anders über Unterricht dachte als heute, ist nicht verwunderlich und kein Argument gegen eine Beschäftigung mit Theorien und Befunden der Bildungswissenschaften. Auch die Bildungswissenschaften haben sich weiterentwickelt und dies hat, neben anderem, mit dazu geführt, dass man heute Anderes weiss und auch anders über die Rolle von Schule und Elternhaus, Lehrpersonen, Schülerinnen und Schülern und den im Unterricht ablaufenden Lernprozessen nachdenkt. Ein wissenschaftlicher Zugang zu Themen wie Entwicklung und Lernen hilft Lehrpersonen, das Beschreiben, Erklären und Vorhersagen und damit ihr professionelles Handeln zu verbessern. Die Auseinandersetzung mit (fach-)wissenschaftlichen Studien erweitert und verändert vorhandene Alltagstheorien und führt in Richtung eines forschenden Lernens (vgl. Kap. 3.2.1). Weiterführende Literatur Chalmers, A.F. (2007). Wege der Wissenschaft. Einführung in die Wissenschaftstheorie. (6.,verbesserte Auflage). Berlin: Springer. Popper, K. R. (2004). Die Logik der Forschung (10., verbesserte Aufl.). Tübingen: Mohr. Schneider, N. (1998). Erkenntnistheorie im 20. Jahrhundert. Klassische Positionen. Stuttgart: Reclam. Ströker, E. (1977). Einführung in die Wissenschaftstheorie. Darmstadt: Wissenschaftliche Buchgesellschaft.

62

Powered by TCPDF (www.tcpdf.org)

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

3 Forschungskompetenzen für Lehrpersonen und Forschung von Lehrpersonen

Altrichter und Posch (2007, S. 293f.) berichten von einer österreichischen Privatschule, an welcher schon seit längerem Probleme mit Schülern und Schülerinnen bestanden, so u.a. wegen häufigen Fernbleibens, Zuspätkommens, Mängeln bei den Hausaufgaben (Altrichter & Posch, 1996; Krall, Messner & Rausch, 1995). Deshalb beschloss die Lehrerinnen- und Lehrerkonferenz einen Lehrer/innen-Schüler/innen-Vertrag einzuführen, in welchem die Pflichten der Schüler/innen festgehalten und Sanktionen definiert wurden, die bei Nichterfüllung des Vertrags bis hin zum Ausschluss von der Schule führten. Alle Schülerinnen und Schüler, die an der Schule bleiben wollten, mussten diesen Kontrakt unterzeichnen. Die Erfahrungen und Auswirkungen mit dem Vertrag wurden von den Lehrpersonen ein Jahr lang begleitend untersucht, wobei als Forschungsmethoden Beobachtungen, Interviews und Fragebögen zum Einsatz kamen (vgl. Erker, Hilbert, Tasch & Winners, 1993). Die statistischen Auswertungen der so gewonnenen Rückmeldungen im Prozess der Vertragseinführung waren nach Altrichter und Posch (2007) sehr nützlich, um auftauchende Schwierigkeiten rechtzeitig sichtbar und damit bearbeitbar zu machen. Es zeigte sich nämlich, dass vor allem jene Schülerinnen und Schüler den Vertrag als Vertrauensbruch empfanden und dagegen Widerstand leisteten, die sich in der Vergangenheit ohnehin an die Regeln gehalten hatten. Daneben wurde es von vielen Schülerinnen und Schülern als Zumutung empfunden, dass der Vertrag nicht auch die Pflichten der Lehrpersonen in ähnlicher Weise wie die der Schülerinnen und Schüler präzisierte. Zudem zeigte sich nach Altrichter und Posch (2007) auch sehr bald, dass mehrere Lehrpersonen vor einer konsequenten Durchsetzung der Vertragsinhalte zurückschschreckten (teils wegen der ablehnenden Schülerreaktion, teils aus Bequemlichkeit). Dieses Fallbeispiel zeigt, wie aufgrund begleitender Untersuchungen der Erfolg einer ergriffenen Massnahme – in diesem Fall Einführung eines Leh-

63

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

rer/innen-Schüler/innen-Vertrags – laufend überprüft und neue, angemessenere Strategien bzw. Massnahmen entwickelt werden konnten, um negative, nicht intendierte Nebenfolgen zu verhindern. Solche Untersuchungen können Lehrpersonen selber durchführen, wenn sie über Forschungskompetenzen verfügen.

3.1 Forschungskompetenzen für Lehrerinnen und Lehrer? Nach dem einführenden Fallbeispiel zur Anwendung von Forschungskompetenzen von Lehrerinnen und Lehrern, beantworten die folgenden drei Unterkapitel die Frage, warum Lehrpersonen Forschungskompetenzen erwerben sollen. Danach wird aufgezeigt, welche Aspekte von Forschung in der Ausund Weiterbildung von Lehrpersonen eine Rolle spielen. 3.1.1 Erwartungen an eine Lehrerinnen- und Lehrer-Hochschulbildung Altrichter und Mayr (2004) betrachten Forschung als unverzichtbares Element akademischer Disziplinen und der ihnen zugeordneten Bildungsgänge, weil einerseits der Anspruch besteht, dass akademische Lehrerbildnerinnen und Lehrerbildner zur Weiterentwicklung ihrer Disziplin eigenständige Beiträge durch Forschung leisten, andererseits „ordnen sich Lehrerbildungsstudiengänge jedoch auch dem traditionellen universitären Anspruch unter, zur Bildung durch Wissenschaft beizutragen“ (Huber, 2003, S. 17ff.). Im Rahmen der Bologna-Reform wurde das Studium in ein zweistufiges System unterteilt: In ein Bachelor- und ein Masterstudium. Den Bachelorund Masterstudiengängen liegen Kompetenzprofile zugrunde. Diese Kompetenzprofile orientieren sich an den Dublin Descriptors der Joint Quality Initiative (2004), die international anerkannt sind. Obwohl diese für die jeweiligen Disziplinen unterschiedlich interpretiert werden, sind bereits in diesen allgemein gehaltenen Kompetenzprofilen Forschungskompetenzen notwendig oder zumindest hilfreich, um die geforderten Kompetenzen des Bachelor- bzw. Masterstudiums zu erreichen. Bereits im Bachelorstudium sollen beispielsweise Studierende die Fähigkeit besitzen, relevante Daten zu sammeln und zu interpretieren und sie sollten in ihrem Studienfach bzw. ihren Studienfächern Wissen und Verstehen auf einem Niveau demonstriert haben, das zumindest in einigen Aspekten an neueste Erkenntnisse der (Fach-)Disziplinen anknüpft. Dazu ist es hilfreich oder sogar notwendig, dass Studierende über Forschungskompetenzen verfügen. Der Wissenschaftsrat, das wichtigste wissenschaftspolitische Beratungs-

64

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

gremium in Deutschland, stellte bereits 2001 fest (Wissenschaftsrat, 2001, S. 33), dass es deutschen Lehrerinnen und Lehrern häufig an den Voraussetzungen fehlt, um die Ergebnisse empirischer Studien aufnehmen und verarbeiten zu können. Lehrpersonen mit Forschungskompetenzen dürften hingegen eher in der Lage sein, Daten zu interpretieren (z.B. von UnterrichtsEvaluationen) oder neueste Erkenntnisse der Bildungswissenschaften zu verstehen. So sollten etwa die Ergebnisse der PISA-Studien und die daraus abgeleiteten Massnahmen kritisch beurteilt und die Bedeutung der Ergebnisse bzw. die Wirksamkeit allfälliger Massnahmen für die eigene Schule besser eingeschätzt werden können. Der Begriff „kritisch“ wird dabei nicht in der Bedeutung „missbilligend“ oder „eine negative Bedeutung enthaltend“ verwendet, sondern in der Bedeutung „nach präzisen wissenschaftlichen Massstäben prüfend und beurteilend“. Eine solche ständige kritische Prüfung von Überzeugungen und Annahmen und des eigenen Vorgehens wird durch das Vorhandensein von Forschungskompetenzen erleichtert. 3.1.2 Förderung der professionellen Kompetenz von Lehrpersonen durch Forschungskompetenzen Die Diskussion über die professionelle Kompetenz von Lehrerinnen und Lehrern und die Folgerungen für die Aus- und Weiterbildung von Lehrpersonen verläuft sehr unterschiedlich und so verwundert es nicht, dass verschiedene Kompetenzmodelle entstanden sind (vgl. dazu Baumert & Kunter, 2006). Unabhängig von der Wahl des Kompetenzmodells sind jedoch Forschungskompetenzen nötig oder zumindest indirekt hilfreich, um den Erwerb der geforderten Kompetenzen zu ermöglichen oder zu unterstützen. Am Kompetenzmodell „Standards für die Lehrerbildung: Bildungswissenschaften“ (KMK, 2004) soll dies an einigen Beispielen aufgezeigt werden. Gerade für den Kompetenzbereich „Innovieren“ erleichtern Forschungskompetenzen das Erreichen der für diesen Kompetenzbereich formulierten Standards. Beispielweise heisst es: - „Die Absolventinnen und Absolventen kennen Methoden der Selbst- und Fremdevaluation“ (KMK, 2004, S. 12). Angehende Lehrpersonen müssen somit verschiedene Forschungsmethoden kennen, um Evaluationen selber durchführen zu können, aber auch, um externe Evaluationsberichte interpretieren und die vorgeschlagenen Massnahmen umsetzen zu können. - „Die Absolventinnen und Absolventen nutzen Ergebnisse der Bildungsforschung“ (KMK, 2004, S. 12). Es ist wichtig, dass Lehrpersonen nachvollziehen können, wie die Befunde zustande gekommen sind, um die Befunde besser auf ihre Situation übertragen zu können. Zudem ist es wichtig, dass

65

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

die Ergebnisse nicht einfach „geglaubt“ werden, sondern diese kritisch hinterfragt werden können, da alle Untersuchungen gewisse „Schwachstellen“ haben. Es ist einsichtig, dass Forschungskompetenzen gerade für den Kompetenzbereich „Innovieren“ hilfreich sind. Forschungskompetenzen erleichtern aber auch den Erwerb von Standards in anderen Kompetenzbereichen. Zwei Beispiele aus dem Kompetenzbereich „Beurteilen“ des KMK-Kompetenzmodells (2004) sollen dies illustrieren: - „Die Absolventinnen und Absolventen konzipieren Aufgabenstellungen kriteriengerecht und formulieren sie adressatengerecht“ (KMK, 2004, S. 11). Aufgabenstellungen (und Prüfungen) können als kleine Untersuchungen angesehen werden, anhand derer herausgefunden werden soll, welchen Wissensoder Könnens-Stand Schülerinnen und Schüler aufweisen. Ausgestattet mit eigenen Forschungskompetenzen sind Lehrpersonen eher in der Lage zu überprüfen, inwieweit die Aufgabenstellungen als Indikatoren der (Lern-)Ziele gelten können und ob sie zudem geeignet sind, das Erreichen eines (Lern-)Kriteriums zu überprüfen. Im Forschungsprozess ist eine Frage zentral: Wie können Konstrukte operationalisiert werden? Dies bedeutet in diesem Fall: Wie können Kriterien in Aufgabenstellungen „übersetzt“ werden (vgl. dazu auch Kap. 4.1.3 „Konstrukte, Begriffsdefinitionen und Operationalisierung“)? - „Die Absolventinnen und Absolventen kennen die Grundlagen der Lernprozessdiagnostik“ (KMK, 2004, S. 11). Lernprozessdiagnostik kann als ein „hypothesengeleiteter“ und „hypothesenprüfender“ Prozess angesehen werden und entspricht damit weitgehend dem Prozess einer empirischen Untersuchung, die Hypothesen prüft. Im Rahmen der Lernprozessdiagnostik können darüber hinaus noch verschiedene diagnostische Methoden verwendet werden, die auch im Forschungsprozess eingesetzt werden (z.B. Verhaltensbeobachtung, Einsatz und Auswertung von Tests etc.). Eine experimentelle Haltung von Lehrpersonen erfordert Forschungskompetenz. Immer wieder werden Neuerungen an den Schulen eingeführt, Prozesse weiterentwickelt oder auch „nur“ neue Handlungsstrategien ausprobiert. Einiges davon wird von aussen an die Schule herangetragen, vieles wird von aktiven, innovativen Lehrpersonen selber initiiert. Wenn solche Neuerungen in der Schule eingeführt oder Weiterentwicklungen angeregt werden, so hat dies im Normalfall Folgen. Wie sollen die Folgen von den Lehrpersonen beurteilt werden? Es reicht sicher nicht, wenn man als Lehrperson diese Folgen lediglich intuitiv beurteilt.

66

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

Verstehen sich Lehrpersonen (auch) als Forschende im Feld von Schule und Unterricht und verfügen sie über entsprechende Kompetenzen, so besteht die Möglichkeit, Schulreformen gegenüber eine experimentelle Haltung einzunehmen: Der Umgang mit den viefältigen Neuerungen wird als ein „Experiment“ betrachtet, denn der Prozess vom Planen, Durchführen, Auswerten bis hin zum Bewerten von Massnahmen hat viele Gemeinsamkeiten mit dem Forschungsprozess. In der traditionellen Forschung würde man von der Durchführung eines Feldexperimentes sprechen: - Lehrpersonen stellen Vermutungen auf (= bilden Hypothesen), - sie entwickeln Massnahmen und setzen diese um (= planen das Feldexperiment und führen es durch), - sammeln Informationen über die durchgeführten Massnahmen (= erheben Daten), - beurteilen und bewerten, ob die Massnahmen, etwas gebracht haben (= Hypothesen prüfen und die Ergebnisse kritisch diskutieren). Für Altrichter und Posch (2007, S. 232) hat eine Lehrperson, wenn sie Neues ausprobieren will, nicht die Wahl zwischen „’Experimentieren oder nicht’, sondern nur zwischen ‚bewusstem Experimentieren, bei dem Erfahrungen verantwortungsvoll verarbeitet werden’ und ‚unbewusstem Experimentieren’; ‚alles beim Alten zu belassen’, ist jedoch eindeutig eine Art ‚unbewussten Experimentierens’“. Für die beiden Autoren gehört eine experimentelle Haltung deshalb zum Unterrichten, wenn neue Handlungen oder Massnahmen ausprobiert werden. Forschungskompetenz kann eine solche experimentelle Haltung unterstützen bzw. fördern. 3.1.3 Forschungskompetenzen für eine reflektierte Unterrichts- und Schulentwicklung „Unterricht wird nicht dadurch besser, dass Standards oder andere Ziele vorgegeben und überprüft werden, sondern dadurch, dass LehrerInnen sich durch sie zu Entwicklungsarbeit anregen lassen – zu einer reflektierten Entwicklungsarbeit […], die die Vorgaben nicht „blind“ eins zu eins in die Praxis umsetzt, sondern angesichts der spezifischen Bedingungen vor Ort reflektiert, schrittweise weiterentwickelt, immer wieder Rückmeldung sucht und so deren Potentiale zum Leben bringt“ (Altrichter & Posch, 2007, S. 23).

In der deutschsprachigen Literatur ist man inzwischen der Ansicht, dass Reflexivität und/oder Reflexion ein zentrales Moment weitergehender Professio-

67

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

nalisierung des Lehrberufs darstellt (vgl. Reh, 2005). In den verschiedenen Kompetenzmodellen hat dies ebenfalls Eingang gefunden. So ist beispielsweise im KMK-Kompetenzmodell „Standards für die Lehrerbildung: Bildungswissenschaften“ (KMK, 2004, S. 12) im Kompetenzbereich Innovieren folgender Standard enthalten: „Die Absolventinnen und Absolventen reflektieren die eigenen beruflichen Erfahrungen und Kompetenzen und deren Entwicklung und können hieraus Konsequenzen ziehen“. In der „reflexiven Lehrer/innenbildung“ spricht man ausser von Reflexivität und Reflexion auch von anderen Begriffen, wie reflektierende Haltung, reflektierender Praktiker (reflective practitioner) und reflexiver Habitus. Diese Begriffe werden häufig nicht trennscharf verwendet, auch weil sie teilweise auf unterschiedlichen Ansätzen basieren. Unter Reflexion (lat. re-flectere: zurück beugen) versteht man in der Alltagssprache so viel wie Nachdenken, Überlegen. Unter Reflexion im Professionalisierungs- und Lehrerbildungsdiskurs wird mit dem Begriff „zumeist nicht ein einfaches oder bloßes Nachdenken über irgend eine Begebenheit bezeichnet, sondern ein bestimmter kognitiver oder – weiter gefasst – mentaler Prozess, mit dem versucht wird, eine pädagogische Situation, ein praktisches Problem und bestehendes „Reflexionswissen“, erziehungswissenschaftliches Wissen, Wissen der Profession, zu strukturieren oder zu restrukturieren“ (Reh, 2005). Eine pädagogische Situation, ein praktisches Problem oder auch bestehendes Wissen soll durch Reflexion somit nicht oberflächlich gedeutet werden und dabei schon Gewusstes einfach wiederholt oder implizite Annahmen bestätigt werden. Durch eine kritische Befragung soll diese(s) strukturiert oder restrukturiert werden, um diese(s) gründlicher verstehen und allenfalls erklären zu können. Ansatz des „reflektierenden Praktikers“ von Schön (1987, 1983). Hilzensauer (2008) zeigt die wichtigsten theoretischen Herangehensweisen zum Thema Reflexion auf und bezieht sich dabei auf Dewey, Holzkamp, Kolb, Schön, Boud, Keogh & Walker, Gibbs und Siebert (vgl. Hilzensauer, 2008, S. 2–8). Er stellt fest, das das Thema Reflexion über das Lernen oder Reflexion des Lernens in theoretischen Diskussionen nicht oder nur ansatzweise behandelt wird. Nachfolgend soll auf den Ansatz des „reflektierenden Praktikers“ von Schön (1987, 1983; vgl. dazu auch Altrichter & Posch, 2007, S. 321–329) kurz eingegangen werden, um darzustellen, warum Reflexionen wichtig sind, welche zwei Typen von Reflexionen unterschieden werden können und um vor allem aufzuzeigen, dass Forschungskompetenzen die Reflexion unterstützen.

68

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

Schöns Ansatz (1987, 1983) unterscheidet drei typische Formen des Zusammenspiels von Wissen und Handeln in der Praxis: - Handlung auf der Basis unausgesprochenen Wissens in der Handlung - Typ 1: Reflexion während der Handlung (reflection-in-action) - Typ 2: Reflexion nach einer Handlung (reflection-on-action) Handlung auf der Basis unausgesprochenen Wissens in der Handlung. Eine Lehrperson wird in einfachen Situationen im Unterricht auf der Basis „unausgesprochenen Wissens“ handeln. Charakteristisch dabei ist, dass (1) dabei nicht zwischen Denken und Handeln getrennt wird, dass (2) Lehrpersonen sich zudem oft nicht bewusst sind, wo und wie sie das Wissen erworben haben, das ihre Handlung gerade leitet und dass (3) Lehrpersonen üblicherweise auch nicht ohne Weiteres in der Lage sind, dieses Wissen verbal zu beschreiben (vgl. Altrichter & Posch, 2007, S. 324). Eine Lehrerin, die schon über einige Unterrichtserfahrungen verfügt, muss sich beispielsweise nicht mehr überlegen, wie sie die Aufmerksamkeit der Klasse sichert, wenn sie ihr etwas mitteilen will, sondern sie handelt „einfach“ (routiniert): - Die Stimme der Lehrerin wird lauter und verändert die Tonlage, - sie verändert ihre Körperhaltung, - sie lässt ihren Blick über die Klasse schweifen, bevor sie mit dem Sprechen beginnt, - wenn einige Schülerinnen oder Schüler nicht bereit sind, spricht sie diese direkt an. Solche Handlungsroutinen müssen von Berufsanfängerinnen und Berufsanfängern zuerst eingeübt werden. Altrichter und Posch (2007, S. 325) heben die Bedeutung von Routinen hervor: „Routiniert ablaufendes, auf unausgesprochenem Wissen beruhendes Handeln stellt die Basis kompetenter Lehrertätigkeit dar. Es ist die typische Organisationsform des Handelns in durch Erfahrung einfach gemachten, störungsfreien Situationen.“ Für professionelles Handeln genügt dieser Handlungstyp jedoch nicht. Wenn Handlungen zu Stereotypien erstarren (d.h. Handlungen über längere Zeit wiederholt werden), besteht die Gefahr, dass diese Handlungen mit der Zeit nicht mehr optimal auf die Situation angepasst sind. Dies bedeutet beispielsweise, dass die Handlungen der Lehrerin im obigen Beispiel zur Erlangung der Aufmerksamkeit ihrer Klasse zwar zu Beginn die gewünschten Änderungen gebracht haben, einige Wochen oder Monate später jedoch nicht mehr so erfolgreich sind oder bei einer anderen Klasse gänzlich versagen. Die berufliche Situation von Lehrerinnen und Lehrern zeichnet sich ja gerade dadurch aus, dass sie

69

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

komplex, einzigartig, instabil, ungewiss und oft mit Wert- und Interessenskonflikten behaftet ist (vgl. Bassey, 1980, S. 2; Schön, 1983, S. 14; zit. nach Altrichter & Posch, 2007, S. 322). Die Lehrperson muss somit „laufend“ reflektieren, ob ihre Handlungen noch angemessen sind oder ob sie neue Strategien oder Massnahmen ausprobieren soll. Dazu können nach Schön (1983) zwei verschiedene Typen von Reflexion unterschieden werden: Entweder die Reflexion während der Handlung oder die Reflexion nach einer Handlung. „Reflexion während der Handlung“. Für den Handlungstyp „Reflexion während der Handlung“ ist charakteristisch, dass während des Handelns selbst reflektiert wird. Eine Lehrperson handelt somit nicht „einfach“, sondern sie versucht, die (unbekannte) Situation zu verstehen, indem sie beobachtet und interpretiert (vgl. dazu untenstehendes Fallbeispiel). Fallbeispiel zur „Reflexion in der Handlung“ von Lehrerin A (nach Altrichter & Posch, 2007, S. 325f.) Während Lehrerin A unterrichtet (z.B. etwas erklärt), beobachtet sie die Situation in der Klasse. Besonderes sorgfältig nimmt sie das Verhalten einiger schwächerer Schüler/innen wahr, u.a. jenes von Hans, von dem sie aufgrund früherer Erfahrungen wenig Interesse erwartet. Es fällt ihr z.B. auf, dass Hans sie aufmerksam ansieht und eine vernünftige Frage stellt […]. Der Eindruck, den die Lehrerin gewinnt, verdichtet sich und wird von Interpretationen und Gefühlen begleitet: z.B. „Hans arbeitet mit“; „er dürfte heute seinen guten Tag haben“; „vielleicht habe ich ihn früher doch unterschätzt“ […]. Die Lehrerin ist sich aber nicht ganz sicher: „Ist er wirklich bei der Sache? Oder tut er nur so? Immerhin schreibt er nichts auf“ […]. Sie möchte es genauer wissen und stellt Hans eine Bankfrage, die er beantworten können müsste, wenn er wirklich zugehört hat. Hans kann die Frage beantworten und die Lehrerin wirft ihm einen anerkennenden Blick zu […].

Die Lehrerin A hat im obigen Fallbeispiel während ihres Handelns laufend reflektiert. Dieser Prozess weist mit dem Forschungsprozess Gemeinsamkeiten auf: 1. Die Lehrerin A stellt ein „Problem“ fest: Sie erlebt eine Diskrepanz zwischen ihren Erwartungen und dem realen Geschehen und sucht nach Erklärungen und Vermutungen. 2. Sie formuliert eine Fragestellung: Ist der Schüler Hans wirklich „bei der Sache“ oder tut er nur so? 3. Sie geht implizit von folgender Vermutung (Hypothese) aus: Hans ist „bei der Sache“, weil er sie aufmerksam ansieht. 4. Sie ergreift eine Massnahme, um ihre Vermutung zu überprüfen: Sie stellt eine Frage, mit der sie überprüfen kann, ob Hans wirklich zugehört hat.

70

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

5. Sie erhält ein Ergebnis und interpretiert es: Hans kann die Frage beantworten, d.h. Hans ist „bei der Sache“. Aus dem Fallbeispiel geht nicht hervor, wie sie das Ergebnis interpretiert: Sie könnte schlussfolgern, dass Hans einfach einen guten Tag hatte oder auch der Meinung sein, dass sie Hans früher unterschätzt hat. Lehrerin A hat die wesentlichen Schritte im Forschungsprozess durchgespielt und wurde dabei zu „einer Forscherin im Kontext der Praxis“ (Schön, 1983, S. 68f.). Ein solches Experimentieren, wie es die Lehrerin A gezeigt hat, dürfte erleichtert werden, wenn die Lehrerin über grundlegende Kenntnisse des Forschungsprozesses verfügt, d.h. wenn sie Forschungskompetenzen mitbringt. Im Fallbeispiel hat Lehrerin A eine Situation während des Unterrichtens interpretiert und entsprechend gehandelt. Beim Auftreten gewisser Störungen und Probleme ist es jedoch wichtig, unmittelbar und möglichst rasch einzugreifen. Dies ist z.B. der Fall, wenn ein/e Schüler/in den Unterricht massiv stört. Hier wird durch das notwendige, schnelle Reagieren die Lehrperson nur eine beschränkte Menge an Informationen verarbeiten können und es können Faktoren, die zur Analyse der Unterrichtssituation wichtig sind, übersehen werden. Eine Störungs-Situation dürfte vor allem so interpretiert werden, dass sie mit den eigenen Vorstellungen und der eigenen Sichtweise übereinstimmt. Um aber eine Situation gründlicher analysieren zu können, ist eine kritischere Beurteilung und eine grössere Distanz zum Ereignis notwendig. Dazu dient die „Reflexion nach einer Handlung“. „Reflexion nach einer Handlung“. Bei diesem Reflexionstyp wird nicht mehr während einer Handlung beobachtet, interpretiert und gehandelt, sondern man beschäftigt sich nach der Handlung damit, z.B. nach dem Unterricht oder in einer Planungs- und Vorbereitungsphase, wenn man nicht mehr unter so grossem Handlungsdruck steht und somit das Problem aus einer grösseren Distanz analysieren kann. Hierzu braucht es die Fähigkeiten, Handlungswissen zu verbalisieren und zu ordnen. Zudem sollte man in der Lage sein, seine Handlungen für die Zeit der Reflexion einmal aus einer kritischen Distanz betrachten zu können. Diese Fähigkeiten stellen gemäss Altrichter und Posch ein wichtiges Merkmal professioneller Kompetenz dar und zwar aus folgenden zwei Gründen (2007, S. 329):

71

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

- „Wissen wird analysierbar und reorganisierbar: Bewusstmachung verlangsamt und verunsichert, was vordem eingespielt war; es erleichtert aber auch die Veränderung seiner Struktur (vgl. auch Cranach, 1983, S. 71).“ - „Wissen wird mitteilbar: Das hinter professioneller Tätigkeit stehende Wissen kann für andere Personen transparent gemacht und mit ihnen besprochen werden.“ Gerade bei diesem Reflexionstyp dürften erworbene Forschungskompetenzen die Reflexion unterstützen: Im Forschungsprozess ist eine sachliche, „objektive“ Sichtweise zentral. Zudem gehört es zum Forschungsprozess, dass die getroffenen Massnahmen und das eigene Vorgehen kritisch reflektiert werden. Es kann somit erwartet werden, dass bei Vorhandensein von Forschungskompetenz bewusster und distanzierter vorgegangen werden kann. Forschungskompetenzen können aber auch eingesetzt werden, um aufgrund der Reflexionen nach einer Handlung ein Praxisforschungs-Projekt zu initiieren (vgl. Kap. 3.2.3). 3.1.4 Der Erwerb von Forschungskompetenzen in der Aus- und Weiterbildung Nachdem in den vorangegangenen Unterkapiteln aufgezeigt worden ist, warum Forschungskompetenzen wichtig sein können, wird in diesem Unterkapitel auf die Frage eingegangen, welche Art von Forschungskompetenzen überhaupt als sinnvoll erachtet werden und wie sie in der Aus- und Weiterbildung von Lehrerinnen und Lehrern erworben werden können. Nach Horstkemper (2003, S. 117f.) behindert sowohl eine wissenschaftlich „abgehobene“ als auch eine allzu stark an Alltagsroutinen und als „bewährt“ geltenden Verfahren orientierte Lehrerbildung den Erwerb zentral notwendiger Kompetenzen und befähigt insbesondere nicht zu fortlaufender Reflexion eigenen beruflichen Handelns. Ihrer Ansicht nach wird die dringend erforderliche reflexive Haltung am ehesten durch eine Haltung repräsentiert, die theoretisch geleitete Forschung als wichtiges Mittel zu eigener Selbstaufklärung betrachtet, wobei diese Haltung bereits in der Ausbildung entwickelt werden muss, um sich dann in der weiteren Berufsbiografie zu bewähren. Zudem sind ihrer Ansicht nach eigene praxisbezogene Forschungserfahrungen am ehesten geeignet, die häufig zu beobachtende sogenannte Theoriefeindlichkeit der Studierenden und ihre Abstinenz beim Erwerb forschungsmethodischer Kompetenz zu überwinden. Die Tabelle 4 zeigt eine mögliche Interpretation der Rolle, die „Forschung“ in Studium und Beruf spielen kann (Altrichter & Mayr, 2004, S. 170).

72

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

Tabelle 4: Interpretationen der Rolle von „Forschung“ in der Lehrerinnenund Lehrerbildung (Altrichter & Mayr, S. 170) 1. „Wissensrezeption“: Rezipieren von berufsrelevanten Forschungsergebnissen über Schule Unterricht professionelle Werte usw. aus wissenschafts-journalistisch aufbereiteten Texten Vorträgen oder Originalpublikationen 2. „Basale Methodenkompetenz“: Kennenlernen von Methoden und Strategien der Forschung die helfen sollen sich mit Forschung kritisch auseinanderzusetzen für die eigene Berufstätigkeit auszuwerten und Produkte wissenschaftlicher Entwicklungsarbeit (z.B. Testverfahren Curricula) professionell anzuwenden ohne eigene Forschung zu betreiben 3. „Einübung in Fallverstehen“: Nutzung von Forschungsmethoden und -strategien für die Analyse und Bearbeitung berufsrelevanter Fälle in distanzierten handlungsentlasteten Situationen (z.B. Übungen in Fallverstehen) zwecks Ausbildung eines „professionellen Habitus“ 4. „Mitwirkung in angeleiteter Projektforschung“: Teilverantwortliche Mitwirkung an Projekten oder Durchführung von kleinen Forschungsarbeiten zu schulisch relevanten Themen in Teams die von professionellen Wissenschaftlerinnen und Wissenschaftler angeleitet werden 5. „Durchführen von Praxisforschung“: Aspekte der eigenen (zukünftigen) Berufstätigkeit mit Hilfe von Forschungsmethoden und -strategien beobachten auswerten und weiterentwickeln sowie die dabei gemachten Erfahrungen in einer professionellen Bezugsgruppe zur Diskussion stellen (meistens ohne Anspruch eines Impacts auf den Diskurs der scientific community) 6. „Forschung mit der primären Zielgruppe scientific community“: Eigene Forschungs- und Entwicklungsarbeiten konzipieren durchführen und publizieren mit dem Anspruch einen originären Beitrag zur Wissenschaftsentwicklung zu leisten.

Der Erwerb von Forschungskompetenzen in der Ausbildung. Angehende Lehrerinnen und Lehrer, die sich im Rahmen ihrer Ausbildung mit Aspekten von Forschung auseinandersetzen, sind gegenüber Forschung zunächst häufig skeptisch eingestellt: Sie sehen teilweise nicht ein, warum es beispielsweise nützlich und sinnvoll ist, Forschungsmethoden zu beherrschen oder sich kritisch mit Forschungsbefunden auseinanderzusetzen. Studierende wollen in erster Linie wissen, ob es ihnen gelingt, „guten Unterricht“ zu gestalten, oder beispielsweise, wie sie die Aufmerksamkeit ihrer Schülerinnen und Schüler erreichen können und wie man mit Unterrichtsstörungen umgeht. Dieser Wunsch ist auf der einen Seite verständlich, da Studierende Anfänger in einem komplexen, kaum zu überblickenden Umfeld sind und wenige Routinen zur Verfügung haben. Es ist deshalb naheliegend, dass sie sich auf altbekannte Verhaltensweisen beziehen und froh sind um Tipps und Rezepte zur Gestaltung des Unterrichts. Auf der anderen Seite zeichnet sich aber ein professioneller Zugang dadurch aus, dass Lehrerinnen und Lehrer in der Lage

73

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

sind, ihre Arbeit kritisch und im Sinne eines lebenslangen ständigen Verbesserungsprozesses zu reflektieren und weiter zu entwickeln. Dies erfordert eine offene, neugierige und forschende Haltung. Im Zentrum der Auseinandersetzung steht dann nicht die Frage „Wie gut war mein Unterricht?“, sondern die Frage „Wie kann ich meinen Unterricht aufgrund der gemachten Erfahrungen weiterentwickeln?“. Studierende sollen sich auf das Wagnis, Neues auszuprobieren, einlassen können und dazu ermutigt werden. Sie sollen Fehler machen dürfen und nicht – etwas provozierend gesagt – darauf fokussieren, ob eine Lektion erfolgreich war oder nicht. Mit einer solchen Haltung schulen Studierende schon in der Ausbildung die Fähigkeit, mit Unsicherheiten und Mehrdeutigkeiten umzugehen: Sie werden dann Unterrichten vermehrt als ein Problemlösen betrachten. Probleme werden damit nicht als Krisen und als Versagen betrachtet, sondern der konstruktive Umgang mit Fehlern und Irrtümern wird als ein wichtiger Teil der Praxis gesehen. Dazu gehört aber auch, dass die Rahmenbedingungen so sind, dass bei der Beurteilung und Bewertung der Lernprozesse der Studierenden nicht nur das Ergebnis, sondern auch der Prozess, der zum Ergebnis geführt hat, und seine mögliche Weiterentwicklung aufgrund der Erfahrung mitberücksichtigt werden. Der Erwerb von Forschungskompetenzen in der Weiterbildung. Forschungskompetenzen spielen aber nicht nur in der Ausbildung eine Rolle, sondern sind auch für Lehrpersonen in der Praxis von Bedeutung. Altrichter & Mayr (2004, S. 174) erwähnen folgende drei Gründe, warum sich Lehrpersonen nach der Ausbildung auf Forschungs- und Entwicklungsprozesse einlassen sollen: - Es könnte als „Abwehrstrategie gegen unsichtbar einsetzende Monotonie langjähriger Unterrichtstätigkeit“ (Dick, 2003, S. 43) angesehen werden. - Forschungsqualifikationen gehören zu einer voll ausgebildeten Professionalität, so dass es nahe liegt, ihnen auch im formellen Karrieresystem ihren Stellenwert einzuräumen (vgl. Keuffer & Oelkers, 2001, S. 16; Altrichter, 1996, S. 158f.). - Forschung von Lehrpersonen bildet eine Strategie, um nachhaltige Entwicklung in Praxissystemen zu fördern. Während in deutschsprachigen Ländern in der Praxis der Fort- und Weiterbildung von Lehrpersonen wenig Forschungsorientierung entdeckt werden kann, spielen in vielen anglo-amerikanischen Ländern Hochschulen mit ihrer Wissenschaftsorienierung eine aktivere Rolle in der Fort- und Weiterbildung von Lehrpersonen und verleihen u.a. Qualifikationen, die für den Aufstieg im

74

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

Schulsystem Bedeutung haben können. In diesem Kontext konnte sich eine lebhafte Tradition forschungsorientierter Fortbildung entwickeln (vgl. Altrichter & Mayr, 2004, S. 175).

3.2 Forschung von Lehrerinnen und Lehrern Wie bereits in Kap. 2 „Empirische Forschung“ aufgezeigt, existiert Forschung in zahlreichen Variationen mit Unterschieden im Wissenschaftsverständnis, in Methodologie, in Darstellungsweisen etc. Es soll in diesem Kapitel geklärt werden, welche Forschungsansätze für Lehrerinnen und Lehrer nützlich sein können. Zuerst wird auf den in der Literatur erwähnten Begriff forschendes Lernen kurz eingegangen, bevor die drei für Lehrpersonen interessanten Forschungsansätze Handlungsforschung, Praxisforschung und Evaluationsforschung kurz charakterisiert werden. 3.2.1 Forschendes Lernen In der Literatur wird der Begriff forschendes Lernen unterschiedlich definiert. Bezüglich „Wissenschaftlichkeit“ und „Forschung“ kann forschendes Lernen je nach Definition verschiedene Ausprägungen zwischen folgenden beiden Polen annehmen: - Beim forschenden Lernen ging es „ursprünglich durchaus in einem strengen Sinne um ein Lernen durch Forschung bzw. Beteiligung an Forschung“ (Huber, 2003, S. 15f.). Forschendes Lernen in diesem Sinne wird als Forschung betrachtet, welche die planmässige und zielgerichtete Suche nach neuen Erkenntnissen in einem Wissensgebiet beinhaltet (vgl. Kap. 2). - Der Begriff Forschung bzw. forschendes Lernen kann aber auch weiter gefasst werden und im weitesten Sinne als Denkleistung angesehen und in Anlehnung an den amerikanischen Pragmatisten John Dewey (1859–1952) verstanden werden: „Wir drücken uns oft so aus, als ob eigenes Forschen ein besonderes Vorrecht der Forscher oder wenigstens der fortgeschrittenen Studierenden wäre. Alles Denken ist jedoch Forschung, alle Forschung ist eigene Leistung dessen, der sie durchführt, selbst wenn das, wonach er sucht, bereits der ganzen übrigen Welt restlos und zweifelsfrei bekannt ist.“ (Dewey, 1993, S. 198) Bei Forschung wird üblicherweise als Erkenntnisziel das objektiv Neue angesehen. Beim forschenden Lernen kann wie oben dargestellt – je nach Auslegung des Begriffs – als Erkenntnisziel der objektive Erkenntnisgewinn oder auch „nur“ der subjektive Erkenntnisgewinn im Zentrum stehen. Das for-

75

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

schende Lernen nach subjektiv Neuem wäre dann mehr als ein didaktisches Prinzip und nicht schon als Forschung zu betrachten. Forschendes Lernen in diesem Sinne ist gut vereinbar mit „neueren“ Lerntheorien, wie z.B. konstruktivistischen Ansätzen, der Theorie des situierten Lernens, Problembasiertem Lernen etc. Forschendes Lernen setzt sich von solchen verwandten Lerntheorien ab, indem es einen wissenschaftsorientierten, methodisch kontrollierten Bezug betont und die kritisch-prüfende Haltung ein zentrales Element des Lernens darstellt. Arens et al. (2006) gehen von folgender Zielsetzung von forschendem Lernen für Lehrpersonen im schulpraktischen Kontext aus (in Anlehnung an Schneider & Wildt, 2004, S. 154): „Forschendes Lernen im Kontext schulpraktischer Studien bezeichnet einen wissenschaftsgeprägten Zugang zur pädagogischen Berufspraxis“ (alternativ zu einem eher rezeptologischen Zugang). Zentral für einen solchen Habitus ist die Bereitschaft zur kontinuierlichen Reflexion des Praxisfelds mit Hilfe wissenschaftlicher Theorien und Methoden, eine distanzierte und problemorientierte Haltung gegenüber vermeintlich ‚sicheren Erkenntnissen’, hypothesenentwickelndes bzw. hypothesenüberprüfendes Herangehen an Unterricht sowie die Orientierung an solchen Erhebungs- und Auswertungsmethoden, die kritische Analysen und intersubjektive Nachvollziehbarkeit erlauben (Arens et al., 2006, S. 11f.).

Grundhaltung beim forschenden Lernen. Egal, ob nun forschendes Lernen zum subjektiven oder objektiven Erkenntnisgewinn betrieben wird, zentral ist folgende Grundhaltung: Das Wissen in einem Gebiet wird als unabgeschlossen und „offen“ aufgefasst. Durch eine neugierige Haltung ergeben sich Fragen, auf die man eine Antwort finden will. Forschendes Lernen wird eingesetzt, um Antworten auf solche Fragen zu erhalten. Die Suche nach Antworten wird begleitet von einer prüfend-kritischen Distanz dem Inhalt und sich selbst gegenüber. Mit einer solchen Grundhaltung werden Probleme nicht als Krisen oder als individuelles Versagen verstanden, sondern als „Normalfall“ pädagogischer Praxis. Versehen mit einer solchen Grundhaltung wird die Fertigkeit geschult, mit Unsicherheiten und Mehrdeutigkeiten umzugehen. Probleme werden „gelassener“ und mit einer distanzierteren (= wissenschaftlicheren) Sichtweise betrachtet. Gefühle einer permanenten Überforderung und häufigen Versagens dürften bei Lehrpersonen mit einem forschenden Blick auf ihre Schulpraxis weniger aufkommen. Wenn forschendes Lernen in diesem Sinn verstanden wird, dann eignet sich dieses nicht nur für Lehrpersonen in der Praxis, sondern auch für deren Schülerinnen und Schüler, aber auch für Hochschuldozierende, die ihr Fach nicht als fertiges und festes Lerngebäude behandeln, sondern Wissenschaft im

76

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

Sinne Humboldts auffassen, auch wenn vermeintlich Gesichertes vorgetragen wird (vgl. z.B. bei Schleiermacher (1808/1956, S. 238; zit. nach Huber, 2003): „Wenn Wissenschaft bildet, dann nur Wissenschaft, die man – als unabgeschlossene – selbst ‚treibt’, nicht die, die man – als abgeschlossene – vermittelt bekommt.“ Gerade für zukünftige Lehrerinnen und Lehrer könnte es wichtig sein, wenn Hochschuldozierende diese Haltung als Modell vorleben. Insbesondere dann, wenn erwartet wird, dass Studierende später im Berufsalltag über eine solche Haltung verfügen sollen. 3.2.2 Forschungsansätze für Lehrerinnen und Lehrer: Handlungs-, Praxis- und Evaluationsforschung Drei Forschungsansätze, die sich durch Feldnähe auszeichnen und auf eine Optimierung von Schule und schulischen Lernens zielen, dürften für Lehrerinnen und Lehrer besonders interessant sein: Handlungsforschung, Praxisforschung und Evaluationsforschung. In der Literatur werden diese Begriffe unterschiedlich definiert und verwendet. Nachfolgend wird von einer von Prengel, Heinzel und Carle (2004, S. 184f.) vorgeschlagenen Differenzierung ausgegangen. Definition Handlungs-, Praxis- und Evaluationsforschung (Prengel et al., 2004, S. 184f.): Handlungsforschung: „Unter Handlungsforschung verstehen wir … jene Untersuchungen in Schulen, in denen Lehrpersonen und Wissenschaftler bzw. Wissenschaftlerinnen zusammen arbeiten, um Theorie und Praxis sowie Forschen und Handeln enger zu verbinden. … Handlungsforschung zielt sowohl auf die Optimierung pädagogischen Handelns am Ort als auch auf die Publikation von – den wissenschaftlichen Erkenntnisstand erneuernden – Ergebnissen“. Praxisforschung: „Unter Praxisforschung verstehen wir … das in die pädagogische Praxis eingelassene Forschen, das durch Lehrpersonen (oder auch Angehörige anderer im Schulsystem tätiger Berufe, z.B. aus Schulleitungen und Schulaufsicht) selbst betrieben wird. Ziele sind ein besseres Verständnis von Kindern und Jugendlichen, die Selbstreflexion der beruflich Handelnden, eine Optimierung von Unterricht und Schulleben oder auch die Publikation als Praxisbericht“. Evaluationsforschung: „Unter Evaluationsforschung verstehen wir Forschungsprojekte, die eine bestimmte schulische Praxis in einem klar umrissenen Forschungsfeld daraufhin untersuchen, ob zuvor definierte oder im Prozess gewonnene Qualitätskriterien erreicht werden. Dabei kann es sich um formative oder summative Evaluation handeln oder um Mischformen“.

Diese drei genannten Forschungsansätze können angewandter Forschung zugerechnet werden. Diese wird häufig im Zusammenhang bzw. in Abgrenzung von reiner Forschung oder Grundlagenforschung genannt. Die Zweitei-

77

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

lung „Grundlagenforschung – angewandte Forschung“ wird aber von vielen Forschenden abgelehnt, weil viele Erkenntnisse einstiger Grundlagenforschung heute längst konkrete Anwendung finden und in der Forschungspraxis die Grenzen zwischen Grundlagen- und angewandter Forschung fliessend sind. Im Bewusstsein der Problematik einer solchen Zweiteilung kann Handlungs-, Praxis- und Evaluationsforschung vereinfachend wie folgt von Grundlagenforschung unterschieden werden (Prengel et al., 2004, S. 184): „Handlungs-, Praxis- und Evaluationsforschung fokussieren vor allem auf Einzelfälle mit dem Ziel Praxis im Einzelfall zu verbessern und darauf, verallgemeinerbare Erkenntnisse für die Übertragung auf ähnlich gelagerte Fälle zu erlangen. Wissenschaftliche Grundlagenforschung fokussiert auf allgemeine Strukturen und regelhafte Prozesse mit dem Ziel generalisierendes Wissen zu gewinnen.“ Evaluations-, Praxis- oder Handlungsforschung von Lehrpersonen sind somit grundsätzlich nicht weniger wert als Grundlagenforschung, sondern die mit der Forschung verfolgten Ziele unterscheiden sich. Auf Praxisforschung wird im nachfolgenden Kap. 3.2.3 näher eingegangen. Dem Thema Evaluationsforschung ist ein eigenes, grösseres Kapitel gewidmet (s. Kap. 6.5 „Evaluation“). 3.2.3 Beispiel „Praxisforschung“ Zum Begriff „Praxisforschung“. Wenn im Folgenden auf die Praxisforschung von Lehrpersonen näher eingegangen wird, muss beachtet werden, dass in der deutschsprachigen Literatur nicht nur der Begriff Praxisforschung verwendet wird. Anstatt von Praxisforschung spricht man auch von Aktionsforschung, Handlungsforschung, Praktikerforschung oder Lehrer/innenForschung. In der englischsprachigen Literatur werden dafür die Begriffe action research, teacher as a researcher und practitioner research verwendet. Im Rahmen dieses Kapitels wird für diese Begriffe der Sammelbegriff Praxisforschung verwendet, auch wenn die jeweiligen Konzepte sich bezüglich Ansprüchen und Zielen unterscheiden können und von Autorinnen und Autoren unterschiedlich definiert werden. So unterscheiden sich beispielsweise die im vorhergehenden Abschnitt von Prengel et al. (2004) erwähnten Definitionen von Handlungsforschung und Praxisforschung. Dieser Abschnitt geht aus von der von Prengel et al. (2004) aufgeführten Definition von Praxisforschung. Eine andere, sehr prägnante und kurze Definitionen von Praxisforschung (dabei wird der Begriff Aktionsforschung verwendet) stammt von Elliott (1981, S. 1; zit. nach Altrichter & Posch, 2007,

78

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

S. 13): „Aktionsforschung ist die systematische Untersuchung beruflicher Situationen, die von Lehrerinnen und Lehrern selbst durchgeführt wird, in der Absicht, diese zu verbessern“. Praxisforschung als Strategie. Praxisforschung kann man unter mindestens drei Perspektiven betrachten (Altrichter & Feindt, 2004, S. 88): 1. Praxisforschung als Entwicklungsstrategie: … „als Vorschlag, wie man Innovationen sinnvoll und effektiv ‚implementieren’ könnte, nämlich unter aktiver und führender Beteiligung von Lehrer/innen, die ‚Innovationsideen’ im Zuge der Implementation erforschen und weiterentwickeln.“ 2. Praxisforschung als Professionalisierungsstrategie: „Im Zentrum stehen Überlegungen und Aktivitäten, die LehrerInnen solche Bedingungen für ihre Arbeit und Ihr Weiterlernen verschaffen sollen, die ihnen ermöglichen, als kompetente, reflektierende, weiterentwickelnde und sozial verantwortliche Professionelle ihrer Tätigkeit nachzugehen.“ 3. Praxisforschung als Forschungsstrategie: „Hier wird gefragt, durch welche Forschungsarrangements und -methoden unter Beteiligung von ‚BewohnerInnen des pädagogische[n] Feldes’ Erkenntnisse für pädagogische Fragen gewonnen und diese für die Weiterentwicklung pädagogischer Praxis und Wissenschaft genutzt werden können.“ Es ist durchaus möglich, dass Praxisforschung als Forschungsstrategie auch zur Weiterentwicklung der pädagogischen Praxis und der Wissenschaft betrieben wird. Es sind dann jedoch bezüglich Qualität erhöhte Ansprüche zu stellen, die von Lehrpersonen, die in der Praxis tätig sind, nur schwer zu erfüllen sein dürften. Wenn Praxisforschung als Entwicklungsstrategie oder Professionalisierungsstrategie betrieben wird, kann diese für Unterrichts- und Schulentwicklung eingesetzt werden. In der Einleitung zum Kapitel „Forschungskompetenzen für Lehrpersonen und forschendes Lernen von Lehrpersonen“ ist das Fallbeispiel einer österreichischen Privatschule erwähnt, das aufzeigt, wie mit Praxisforschung als Entwicklungsstrategie Schulentwicklung betrieben werden kann. Im folgenden Fallbeispiel von Marilyn wird aufgezeigt, wie eine junge Lehrerin Praxisforschung als Professionalisierungsstrategie betreibt und sich bzw. ihren Unterricht weiter entwickelt.

79

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

Fallbeispiel eines Praxisforschungs-Projektes (nach Schmuck, 2006, S. 60–66): Marilyn Lund, 31 Jahre alt, unzufrieden mit ihrem ersten Jahr als Lehrerin Nach einem ersten Jahr als Lehrerin mit 11-jährigen Schülerinnen und Schülern macht sich Marilyn Gedanken, ob sie als Lehrperson am richtigen Platz ist. Sie wollte mit der Klasse viel erreichen, aber Verschiedenes lief von Anfang an nicht gut. Der Schulleiter bewertete bei ihr vor allem Klassenführung, Verhältnis zu den Schülerinnen und Schülern und Schülerverhalten als verbesserungsbedürftig. Marilyn ist einerseits enttäuscht und wütend über sich, andererseits will sie es nach einem Jahr dennoch wieder mit 6.Klässlerinnen und 6.Klässlern versuchen. Sie will Massnahmen ausprobieren und laufend überprüfen, ob diese etwas gebracht haben. Sie will verhindern, dass sie erst nach einem Jahr vom Schulleiter ein Feedback zur Qualität erhält. Sie will laufend Informationen einholen; sie will „Praxisforschung“ betreiben. Dabei geht sie wie folgt vor: 1. Sie setzt sich mit der eigenen Praxis kritisch auseinander, indem sie verschiedene Situationen in der Vergangenheit überdenkt und sich überlegt, wie sie es in Zukunft haben will. 2. Sie sucht nach zusätzlichen Informationen zu den identifizierten Problemen. Dabei greift sie vor allem auf Material eines Workshops über Kooperatives Lernen zurück, den sie in den Sommerferien besucht hat. Darüber hinaus studiert sie noch ein Buch über Gruppenprozesse im Klassenraum. 3. Marilyn plant das Klassenklima durch mehrere Massnahmen zu verbessern. Unter anderem bildet sie mit je drei Mädchen und Knaben eine Gruppe, mit der sie während des Jahres Probleme, Ziele und Verbesserungen besprechen will. Für die ersten Wochen des Jahres möchte sie die Phase des Kennenlernens sorgfältig planen, um in der Klasse ein WirGefühl entwickeln und eine produktive Gemeinschaft bilden zu können. 4. Marilyn will drei Methoden einsetzen, die Aufschluss über den Erfolg ihrer Massnahmen geben sollen: - Sie will Beobachtungen über sich und die Schülerinnen und Schüler in ein Tagebuch schreiben. - Sie plant verschiedene Einzel- und Gruppeninterviews mit den drei Mädchen und Knaben über Probleme, Klima, Anregungen etc. - Sie will einen Fragebogen zum Klassenklima einsetzen und die Meinungen aller Schülerinnen und Schüler erheben. 5. Die gewonnenen Daten sollen auf vier verschiedene Arten interpretiert werden: - Marilyn will ihre Reflexionen im Tagebuch festhalten, - sie will die Ergebnisse mit der Schülergruppe diskutieren, - wie will die Ergebnisse mit einem Lehrerkollegen einer anderen Schule diskutieren, - sie will mit ihrem Schulleiter einmal im Monat zusammensitzen. Durch die Reflexion und die Gespräche soll herausgefunden werden, welche Massnahmen erfolgreich waren und was verbessert werden kann, aber auch, welche alternativen Massnahmen ausprobiert werden könnten. Marilyn Lund führt dies so durch, verfeinert die ergriffenen Massnahmen und probiert neue Massnahmen aus. Nach mehreren Monaten zieht sie ein Fazit zu ihrem Praxisforschungs-Projekt: Sie ist erfreut, wie positiv sich die Situation entwickelt hat und will diesen kreativen Prozess während des ganzen Jahres weiter führen.

80

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

Praxisforschung als Professionalisierungsstrategie kann für Lehrpersonen wichtige Impulse liefern, um sich oder ein ganzes Schulhaus-Team weiterzuentwickeln. In letztgenanntem Fall wird Unterrichts- oder Schulentwicklung nicht als individueller Prozess (wie im Fallbeispiel Marilyn) gesehen, sondern als gemeinsame Aufgabe eines Lehrerinnen- und Lehrer-Teams. Gütekriterien von Praxisforschung. Je nachdem, welche Strategie verfolgt wird, sind die Ansprüche an Praxisforschungs-Projekte unterschiedlich. Generell können drei Gütebereiche unterschieden werden (vgl. Altrichter & Posch, 2007, S. 116ff): 1. Erkenntnistheoretische (epistemologische) Kriterien beziehen sich auf die Güte der Befunde. In der traditionellen empirischen Forschung sind folgende drei Gütekriterien zentral: Objektivität, Reliabilität und Validität (vgl. genauer Kap. 4.1.6). Prozeduren zur Überprüfung dieser drei Gütekriterien können von Lehrerinnen und Lehrern kaum angewendet werden, da diese einerseits einen Aufwand erfordern, der von forschenden Lehrerinnen und Lehrern kaum zu erwarten ist, und andererseits die Überprüfung im Rahmen von Praxisforschung nur in einem eingeschränkten Sinne möglich ist. Die Güte von Praxisforschungs-Projekten kann gesteigert werden, wenn unterschiedliche Perspektiven berücksichtigt werden, indem zum Beispiel Perspektiven verschiedener Personen, verschiedene Forschungsmethoden oder andere vergleichbare Untersuchungen herbeigezogen und miteinander verglichen werden. Beispielsweise können Beobachtungen einer Lehrperson mit denen einer externen Beobachterin verglichen werden. Dadurch können Schwächen und Einseitigkeiten besser aufgedeckt werden, wobei Diskrepanzen auch durch die unterschiedlichen Perspektiven verursacht werden können und diese nicht (nur) auf Schwächen und Einseitigkeiten zurückzuführen sind. 2. Pragmatische Kriterien beziehen sich auf die Verträglichkeit mit der Praxis, d.h. darauf, dass der Forschungsprozess und die Untersuchungsinstrumente so gestaltet sind, dass sie von forschenden Lehrerinnen und Lehrern ohne übermässigen zusätzlichen Aufwand für die Weiterentwicklung der Praxis genutzt werden können (vgl. die Ausführungen weiter unten). 3. Ethische Kriterien beziehen sich auf die Vereinbarkeit des Forschungsprozesses mit den pädagogischen Zielen. Es wird geprüft, ob der Forschungsprozess vereinbar ist mit ethischen Grundsätzen, d.h. die Forschungsaktivitäten müssen sich an ethischen Prinzipien orientieren. Gerade wenn einzelne Klassen untersucht werden, genügt eine Anonymisierung der Daten durch Weglassen oder Verändern des Namens häufig nicht, weil einzelne

81

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

Schülerinnen und Schüler für Eingeweihte immer noch erkennbar sind (vgl. zu dieser Problematik Kap. 2.5). Es können bei Praxisforschungs-Projekten grundsätzlich zwei verschiedene Ansätze unterschieden werden: Beschreibende Praxisforschung vs. „hypothesenprüfende“ Praxisforschung. Zuerst soll auf beschreibende Praxisforschung eingegangen werden. Beschreibende Praxisforschung. Wenn eine Lehrperson eine Situation, eine Handlung, Einstellungen von Schülerinnen und Schülern etc. in der Schule oder im Klassenzimmer besser verstehen will, so will sie Informationen über eine Ist-Situation erhalten. Das Ziel solcher Untersuchungen besteht in der Beschreibung hinsichtlich ausgewählter Merkmale. Beispielsweise … - will eine Lehrerin wissen, wie Schülerinnen das Unterrichtsklima beurteilen, - möchte ein Lehrer herausfinden, was die Schülerinnen und Schüler über die aufgestellten Regeln zum Klassenrat halten, - will eine andere Lehrperson feststellen, wie viele Kontakte pro Tag sie mit sogenannten „stillen“, eher scheuen Schülerinnen und Schülern hat. „Hypothesenprüfende“ Praxisforschung. Hat eine Lehrperson eine Vermutung, warum ein Problem auftaucht, kann sie diese Vermutung überprüfen: Sie ergreift Massnahmen, mit denen dieses Problem gelöst werden kann, und schaut, ob diese Massnahmen tatsächlich eine positive Wirkung gezeigt haben. Dies ist beispielsweise der Fall, wenn … - eine Lehrperson ein Problem feststellt (z.B. „bis alle Schülerinnen und Schüler letzte Woche nach einem erteilten Auftrag zu arbeiten begannen, vergingen jeweils 4 bis 5 Minuten“), - sie daraufhin eine Vermutung (Hypothese) aufstellt, mit welcher Massnahme das Problem gelöst werden kann („wenn ich als Lehrperson Aufträge klarer erteile, sind die Schülerinnen und Schüler schneller an der Arbeit“) - und sie schliesslich überprüft, ob die Vermutung zutrifft (z.B. „in der nächsten Woche versuche ich Aufträge klarer zu erteilen und stoppe unauffällig die Zeit von der Auftragserteilung bis zum Zeitpunkt, an dem alle Schülerinnen und Schüler arbeiten, und schaue, ob sich die Situation verbessert hat“). Dieses Vorgehen kann hypothesenprüfend genannt werden: Für den obigen Fall formuliert die Lehrperson aufgrund ihrer Erfahrungen eine Hypothese („wenn ich als Lehrperson Aufträge klarer erteile, sind die Schülerinnen und

82

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

Schüler schneller an der Arbeit“) und prüft diese, indem sie die Klasse einmal vor und einmal nach der getroffenen Massnahme untersucht. Falls ein Unterschied auftritt, wird dies auf die getroffene Massnahme zurückgeführt. In der Forschung würde die Situation vor und nach der getroffenen Massnahme „gemessen“ und ein prüfstatistisches Verfahren gewählt werden, um die Hypothese zu prüfen (vgl. Kap. 7.5 „Prüfstatistik“). Als Lehrperson wird man kaum so aufwändig vorgehen können: Wenn sich die Ausgangslage verändert hat, wird man dies auf die getroffene Massnahme zurückführen und schlussfolgern, dass die getroffene Massnahme erfolgreich war, es sei denn, eine kritische Prüfung der Situation lässt Zweifel aufkommen. Praxisforschungs-Projekte mit beschreibender Ausrichtung dürften üblicherweise in Projekte mit hypothesenprüfender Ausrichtung münden, da sich aufgrund des neu gewonnenen Wissens neue Handlungsmöglichkeiten und Massnahmen aufdrängen bzw. neue Möglichkeiten gesehen werden, die ausprobiert sein wollen. Verschiedene Phasen im Ablauf von Praxisforschungs-Projekten. In Tabelle 5 (S. 84) sind die verschiedenen Phasen im Ablauf von Praxisforschungs-Projekten dargestellt: Einmal für ein Projekt mit beschreibender Ausrichtung und einmal für eines mit hypothesenprüfender Ausrichtung. Man beachte: Die Parallelen zu „traditioneller“ Forschung sind offensichtlich (vgl. Kap. 2.4). Methoden der Praxisforschung. Bei Praxisforschungs-Projekten können vielfältige Methoden eingesetzt werden: Mündliche Befragungen (Einzeloder Gruppeninterviews), Beobachtungen, Dokumentenanalysen (schriftliche Produkte von Schülerinnen und Schülern, Dokumente und Materialien, wie z.B. Lehrbücher, Klassenbuch, Lehrplan, Literatur etc.), Bestandesaufnahmen (z.B. Ausstattung in Schulzimmern), Fallbesprechungen in Supervisionsgruppen, Erinnerungsprotokolle (z.B. Lehrerinnen- bzw. Lehrer-Tagebuch), die nach dem Unterricht geschrieben und später analysiert werden usw. Ermöglichen die an den Schulen herrschenden Rahmenbedingungen überhaupt Praxisforschung? Angesichts bereits vielfältiger Aufgaben im Rahmen von (Schul-)Projekten und (Schul-)Reformen stellt sich die Frage, ob engagierten Lehrerinnen und Lehrern, die Praxisforschung betreiben wollen, damit nicht noch zusätzliche Aufgaben aufgebürdet werden und deshalb Praxisforschung zwar eine gute Idee, aber wegen ungünstiger Rahmenbedin-

83

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

gungen nicht durchführbar ist. Auf den ersten Blick mag dem so sein.

Tabelle 5: Gegenüberstellung der Phasen eines Praxisforschungs-Projektes mit beschreibender Ausrichtung und eines Praxisforschungs-Projektes mit hypothesenprüfender Ausrichtung Phasen eines Praxisforschungs-Projektes mit beschreibender Ausrichtung 1 Problem definieren, Fragestellung entwickeln 2 Informationen einholen (Wissen, Forschungsstand feststellen) 3 – 4

5 6

7

Geeignete Methoden und Vorgehen bestimmen bzw. Forschungsplan entwerfen „Untersuchung“ durchführen und auswerten Ergebnisse einordnen, bewerten und reflektieren

Eventuell: Ergebnisse darstellen und präsentieren oder allenfalls publizieren

Phasen eines Praxisforschungs-Projektes mit hypothesenprüfender Ausrichtung 1 Problem definieren, Fragestellung entwickeln 2 Informationen einholen (Wissen, Forschungsstand feststellen) 3 Vermutung(en) aufstellen, Massnahmen festlegen 4 Geeignete Methoden und Vorgehen bestimmen bzw. Forschungsplan entwerfen 5 „Untersuchung“ durchführen und auswerten 6 Haben sich die aufgestellten Vermutungen bestätigt oder nicht? Ergebnisse einordnen, bewerten und reflektieren 7 Eventuell: Ergebnisse darstellen und präsentieren oder allenfalls publizieren

Auch wenn Praxisforschung für Lehrpersonen kurzfristig grössere Belastungen verursachen kann, gilt Folgendes zu bedenken: In den meisten Fällen dürfte dies längerfristig positive Auswirkungen haben, indem mit Schwierigkeiten und Herausforderungen professioneller umgegangen werden kann. Dies zeigte sich im Fallbeispiel von Marilyn Lund eindrücklich: Hätte sich diese Junglehrerin nicht so aktiv verhalten und Praxisforschung betrieben, wäre ein Scheitern im Beruf durchaus möglich gewesen. Die Frage, die sich Lehrpersonen stellen müssen, ist eigentlich nicht, ob Praxisforschung durchgeführt werden soll oder nicht, sondern wie sie den bestehenden Zeitrahmen möglichst optimal nutzen können, um Praxisforschung betreiben zu können, damit sie sich und ihren Unterricht weiterentwickeln können. Denn auch unter den gegebenen Rahmenbedingungen besteht durchaus ein gewisser Spielraum, um Praxisforschungs-Projekte zu ermöglichen.

84

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

Dieser Spielraum muss ausgenützt werden. Die Lehrperson wird mit der zur Verfügung stehenden Zeit sorgfältig umgehen und abwägen, wie „wissenschaftlich“ sie vorgehen muss, um ihre Fragestellungen zu beantworten. Im Extremfall könnte Praxisforschung auch in wenigen Minuten und mit einem Minimum an Aufwand durchgeführt werden (vgl. dazu das Fallbeispiel von Lehrerin A zur Reflexion in der Handlung in Kap. 3.1.3, S. 70), auch wenn dann nicht von einer eigentlichen Untersuchung oder von Praxisforschung gesprochen werden kann, sondern allenfalls von einer forschender Haltung der Lehrperson. Zwischen diesen Extremfällen von einerseits Praxisforschung mit keinem hohen und andererseits Praxisforschung mit hohem wissenschaftlichem Anspruch sind vielfältige Variationen von Praxisforschung – mit unterschiedlichem Aufwand – möglich. Praxisforschungs-Projekte können aber auch so angelegt werden, dass dadurch nicht einfach zusätzliche Aufgaben zum Unterrichten hinzukommen, sondern solche Projekte können in den Unterricht eingebettet sein bzw. als Unterricht stattfinden, indem z.B. Probleme und Fragestellungen mit Schülerinnen und Schülern diskutiert, Massnahmen mit den Schülerinnen und Schülern gemeinsam festgelegt und Ergebnisse miteinander diskutiert werden etc. Eine solche partizipative Unterrichts- und Schulentwicklung (vgl. Reinhardt, 2005) ist aber nicht nur aus Ökonomie-Gründen sinnvoll, sondern es lassen sich auch gewichtige pädagogische Gründe finden, warum Schülerinnen und Schüler bei der Unterrichts- und Schulentwicklung mitreden und mitbestimmen sollen. Eine Lehrperson muss bei solchen Überlegungen auch berücksichtigen, welche Ziele sie mittel- und längerfristig erreichen will, damit sie diese im hektischen „Tagesgeschäft“ nicht aus den Augen verliert. Gerade für grössere Lerneinheiten und Projekte, die man über eine längere Zeit verfolgt, könnte es bezüglich Lernerfolg bei Schülerinnen und Schülern nützlich sein, wenn z.B. bei der Vorbereitung des Unterrichts etwas Zeit gespart wird, dafür laufend oder zu mehreren Zeitpunkten folgende Fragen überprüft werden: Was haben die Schülerinnen und Schüler tatsächlich gelernt? Wo gibt es Schwierigkeiten? Was kann verbessert oder angepasst werden, um die Ziele zu erreichen? Was es ebenfalls zu beachten gilt: Eine Lehrperson muss nicht alles selber entwickeln, wenn sie Neuerungen einführen will und plant, dazu Forschungsinstrumente einzusetzen. Viele Instrumente (wie Beobachtungsbögen, Fragebögen etc.), Konzepte und Umsetzungsbeispiele sind schon einmal ausprobiert und dokumentiert worden und müssen durch eine Literatursuche (vgl. Kap. 4.2) nur noch „entdeckt“ werden.

85

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:39

Darüber hinaus können sich Lehrpersonen durch Praxisforschungs-Projekte zusätzliche Kompetenzen aneignen, auf die andere Lehrpersonen in einem Schulhaus-Team zurückgreifen können. Dadurch kann ein Wissensaustausch in einem Schulhaus-Team angeregt werden. Als Beispiel sei eine Lehrperson erwähnt, die im Rahmen einer Weiterbildung in „Praxisforschung“ eingeführt worden ist und sich in dieser Weiterbildung mit dem Thema Klassenrat auseinandergesetzt hat. Durch die Auseinandersetzung mit diesem Thema wurde diese Lehrperson in ihrem Schulhaus Expertin für Klassenrat und hat dazu dann selber eine schulhausinterne Weiterbildungsveranstaltung durchgeführt. Nach einiger Zeit wurde diese Lehrperson von anderen Schulen angefragt, ob sie zu Klassenrat nicht auch in anderen Schulgemeinden Weiterbildungen anbiete (was die Lehrerin dann auch tat). Weiterführende Literatur Altrichter, H. & Posch, P. (2007). Lehrerinnen und Lehrer erforschen ihren Unterricht: Unterrichtsentwicklung und Unterrichtsevaluation durch Aktionsforschung. Bad Heilbrunn: Klinkhardt. Dana, N. Fichtman & Yendol-Silva, D. (2008). The reflective educator's guide to professional development: Coaching inquiry-oriented learning communities. Thousand Oaks, CA: Corwin Press. Sagor, R. (2005). The action research guidebook: A four-step process for educators and school teams. Thousand Oaks, CA: Corwin Press. Schmuck, R. (2006). Practical Action Research for Change. Thousand Oaks, CA: Corwin Press.

86

Powered by TCPDF (www.tcpdf.org)

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

4 Grundlagen für die Planung einer Untersuchung

Die Kapitel 4–8 dieses Buchs konkretisieren nun auf einer praktischplanerischen Ebene, wie im Rahmen von empirischer Forschung Wissen generiert werden kann und befasst sich in den folgenden Kapiteln mit dem Ablauf des Forschungsprozesses selbst: Was ist zu tun, zu planen und vorzubereiten, um eine wissenschaftliche Untersuchung durchzuführen? Wie startet man ein Forschungsprojekt? Welchem Ausschnitt der Wirklichkeit soll wie Beachtung geschenkt werden? Worauf ist bei der konkreten Untersuchungsplanung zu achten? Welche Methoden eignen sich für die Bearbeitung der Fragestellung? Wie werden Daten erhoben, aufbereitet und analysiert? Und schliesslich: Wie werden Forschungsergebnisse einer empirischen Untersuchung kommuniziert? Unter einer empirischen Untersuchung wird eine Untersuchung verstanden, in deren Verlauf systematisch Erfahrungsdaten erhoben und ausgewertet werden, um daraus Rückschlüsse zu ziehen. Empirische Untersuchungen werden nicht zum Selbstzweck durchgeführt, sondern es sollen Erkenntnisse über einen Gegenstandsbereich bezüglich bestimmter Fragen und Ziele gewonnen werden (vgl. Beller, 2004).

In Kapitel 2.4 und in Kapitel 3.2.3 wurden die einzelnen Phasen der Planung und Durchführung einer empirischen Untersuchung bereits kurz vorgestellt (vgl. Bortz & Döring, 2003; Diekmann, 2007): - Phase I: Themensuche (Entwickeln von Ideen, Formulierung und Präzisierung des Forschungsproblems) - Phase II: Untersuchungsplanung - Phase III: Durchführung der Untersuchung - Phase IV: Datenauswertung - Phase V: Berichterstattung Das Ziel von den folgenden fünf Kapiteln 4 bis 8 ist es, einerseits einen Einblick in den prototypischen Ablauf eines Forschungsprozesses mit seinen Zwischenstationen zu erhalten. Andererseits sollen die Inhalte als Anleitung

87

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

für die Planung und Durchführung einer eigenen Untersuchung dienen. Dabei darf trotz linearer Darstellungsweise der einzelnen Schritte nicht ausser Acht gelassen werden, dass der Forschungsprozess zyklisch verläuft und von wiederholten Rückkoppelungen geprägt ist. In den folgenden Unterkapiteln des Kapitels 4 werden zunächst die Grundlagen für die Planung einer empirischen Untersuchung behandelt. Es geht schwerpunktmässig um die ersten beiden Phasen im Forschungsprozess: Wie werden aus Ideen und Fragen Forschungsthemen (Phase I)? Wie geht es nach der Themenfindung weiter, bis dann anschliessend die Datenerhebung starten kann (Phase II)? Die Ausgangsidee, den konkreten Ablauf eines Forschungsprozesses mit all seinen wichtigen Entscheiden darzustellen, macht es notwendig, bereits in der Beschreibung der Planungsphase wichtige Begriffe und Zugangsweisen empirischer Forschung zu klären (z.B. Operationalisierung der Konstrukte, Stichprobenarten, Forschungsdesigns, Gütekriterien). Einige der Themen werden in späteren Kapiteln in anderen Zusammenhängen (vgl. Kapitel 6 „Datenerhebungsmethoden“) nochmals vertiefend behandelt werden.

88

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

4.1 Von der Frage zur Untersuchung Beispiel aus dem Alltag einer Lehramtsstudierenden: Die merkwürdige Vorlesung Sabine Kaulis ist auf dem Weg zum Vorlesungssaal und bemerkt, dass ihr junge Erwachsene mit bunt bemalten Gesichtern und glänzenden Augen entgegen kommen und dabei eifrig miteinander diskutieren. Einen Moment lang stutzt sie, da sie sich in einem Vorlesungsgebäude befindet und ihr nicht klar ist, woher diese bemalten jungen Leute kommen. Sie geht weiter zur Tür ihres Vorlesungssaals und sieht, dass dort weitere bemalte Leute, scheinbar Studierende, stehen. Ist es möglich, dass hier, an der Hochschule, eine Veranstaltung stattgefunden hat, in der die Studierenden ihre Gesichter bemalten? Soeben kommen zwei weitere bemalte Personen aus der Tür des Vorlesungssaals heraus, und im Hintergrund sieht sie die Professorin, deren Vorlesung sie gleich besuchen wird, am Vorlesungspult stehen und mit einigen bemalten Personen angeregt sprechen. Auch ihr Gesicht ist bemalt. Jetzt kommen ihr viele Fragen in den Sinn (Phase I – Themensuche): Warum sind alle Personen, die in diesem Vorlesungssaal sind oder waren, bemalt? Warum diskutieren sie alle so eifrig miteinander? Warum hat die Professorin auch ein bemaltes Gesicht? Hat die Bemalung etwas mit ihrer Veranstaltung zu tun? Wird Sabine selbst auch ein bemaltes Gesicht bekommen? Was hat die Bemalung mit ihrer Ausbildung zur Lehrperson zu tun? Aus der letzten sozialpsychologischen Vorlesung weiss sie, dass Menschen in einer Gruppe einem gewissen Konformitätsdruck ausgesetzt sind (d.h. dem Druck, gleich zu sein wie andere), was ein möglicher Erklärungsansatz für das Phänomen der bemalten Gesichter sein könnte. Sie beschliesset, dass sie der Sache nachgehen will und überlegt sich, wie sie dies am geschicktesten tun kann (Phase II – Untersuchungsplanung). Welche Fragen will sie unbedingt beantwortet haben? Es sind dies die Fragen, aus welchem Anlass sich erwachsene Personen das Gesicht bemalen, ob die Bemalung mit der Veranstaltung zu tun hat und ob sie selber auch ein bemaltes Gesicht erhalten wird. Vor allem letztere Frage ist für sie wichtig, da sie eine Allergie auf in gebräuchlichen Schminkfarben enthaltene Substanzen hat. Damit ist klar, dass ihre Abklärungen praktische Relevanz haben. Anschliessend denkt sie darüber nach, wie sie zu Antworten auf diese drei Fragen kommt. Sie entscheidet sich, ihre Fragen direkt an relevante Personen zu richten. Für die ersten beiden Fragen will sie sich an eine der beiden bemalten Studentinnen wenden, die soeben aus dem Vorlesungssaal kommen. Die dritte Frage will sie ihrer Professorin stellen. Da die Studentinnen gleich woanders hingehen werden, ist ihr klar, dass sie diese zuerst befragen muss (Reihenfolge der Datenerhebungen). Sie geht also ihre Fragen stellen (Phase III – Durchführung der Datenerhebung). Die Studentinnen berichten, dass sie sich im Verlauf der Vorlesung zu Humor im Unterricht gegenseitig die Gesichter bemalt haben. Anschliessend erfährt sie von der Professorin, dass diese vorhat, in der bald beginnenden Veranstaltung ebenfalls die Gesichter bemalen zu lassen. Sabine Kaulis nimmt die Informationen entgegen und überlegt, was dies nun für sie bedeutet (Phase IV – Datenauswertung). Aufgrund der Informationen erklärt sie der Professorin, dass sie leider beim Bemalen nicht mitmachen kann und begründet ihre Entscheidung. Am Abend sitzt sie in ihrer Wohngemeinschaft beim Abendessen und erzählt die ganze Geschichte (Phase V – Berichterstattung).

Im Beispiel waren es die bemalten Gesichter, die die Studentin veranlassten, sich Fragen zu stellen und auf diese in einem systematischen Vorgehen Ant-

89

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

worten zu suchen. Wie kommt man aber zu interessanten, relevanten und vor allem untersuchbaren Fragestellungen für eine wissenschaftliche Untersuchung? Anhand welcher Kriterien können Fragestellungen hinsichtlich ihrer Qualität bewertet werden? Wie können die in der Fragestellung angesprochenen Themen und Begriffe gefasst, definiert und „messbar“ gemacht werden? Und schliesslich: Wie können Fragestellungen adäquat formuliert werden? 4.1.1 Ideen für eine Untersuchung finden und bewerten Beim Sammeln und Bewerten von Ideen für eine Untersuchung und der anschliessenden Festlegung auf ein Thema sind mehrere Aspekte zu beachten. Interesse: Das Interesse an einem Thema für eine wissenschaftliche Untersuchung ist wichtig. Schliesslich setzen sich Forschende während einer längeren Zeitspanne vertieft mit dem gewählten Thema auseinander, was bedingt, dass sie sich genügend für das Thema interessieren sollten. Ansonsten besteht die Gefahr, im Verlauf der Forschungsarbeiten das Interesse am Thema zu verlieren und lieber etwas Anderes untersuchen zu wollen. Damit ist ein weiterer wichtiger Punkt angesprochen: Sei es im Rahmen einer studentischen Arbeit oder eines von einem Geldgeber bewilligten und finanzierten Forschungsprojektes, das einmal gewählte Thema kann nicht einfach beliebig gewechselt werden. Gegen Ende der Phase I, wenn die Phase der Untersuchungsplanung sich anbahnt, muss das Thema samt den zentralen Forschungsfragen festgelegt sein, um weiterarbeiten und den Forschungsprozess vorantreiben zu können. Daher ist es ratsam, zuerst mehrere interessierende Themenbereiche zu sammeln und mögliche Themen anhand der hier weiter aufgeführten Kriterien miteinander zu vergleichen und zu bewerten. Eine informierte Wahl stellt sicher, dass trotz schwieriger Phasen (welche jeder Forschungsprozess mit sich bringt) am Thema festgehalten werden kann. Ist ein breiter Themenbereich bereits vorgegeben (z.B. Mobbing im Kindergarten), so geht es darum, interessierende Teilbereiche wie z.B. die Rolle von Gruppenprozessen bei der Entstehung von Mobbing oder den Zusammenhang zwischen Aggression und Mobbing zu identifizieren. Quellen für Ideen: Quellen für Forschungsideen können Zeitungsartikel, das Internet, persönliche Gespräche, Fachliteratur oder bereits vorhandene Interessen sein. Alltagserlebnisse, die einen innehalten und nachdenken lassen, liefern oftmals guten Stoff für ein Thema, so wie im Beispiel der Studentin, die die bemalten Gesichter bestaunte. Wichtig ist, dass man sich Fragen stellt, deren Beantwortung für einen selber von Interesse ist. Bortz und Döring (2004) geben wertvolle Hinweise zur Themensuche. So empfehlen sie u.a. das Anlegen einer Ideensammlung, die Replikation, d.h. Wiederholung einer

90

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

bestehenden Untersuchung mit einer neuen Stichprobe, oder die Bearbeitung von Themen innerhalb von bereits bestehenden Forschungsprojekten. Die Replikation einer Studie kann z.B. Hinweise darauf liefern, ob es sich bei den früher gefundenen Ergebnissen um stabile Effekte handelt, die auch einer neuerlichen Überprüfung standhalten und so eine Generalisierung (Verallgemeinerung) dieser Ergebnisse zulassen. Bekanntheit und Zugänglichkeit: Des Weiteren ist es von Vorteil, wenn zum möglichen Thema bereits einschlägige wissenschaftliche Literatur vorhanden ist (vgl. Recherche in Bibliothekskatalogen, Kap. 4.3.2). Hilfreich ist, wenn ein minimales Vorwissen zum Thema vorhanden ist. Zum einen ist es sehr zeitaufwändig, sich in ein unbekanntes Themengebiet einzuarbeiten und zum anderen besteht aufgrund des fehlenden Wissens die Gefahr, uninformierte Fragestellungen zu formulieren. Das neu generierte Wissen sollte anschlussfähig sein, d.h. bestehende Forschungslücken füllen und Erkenntnisse erweitern, z.B. unter Verwendung anderer Forschungsinstrumente (z.B. Interviews anstatt Fragebögen) und/oder unter Einbezug neuer Variablen oder Stichproben (z.B. Einbezug weiterer Altersgruppen). Bei Themen, die aus der eigenen Biografie gespeist und somit schon vertrauter sind, besteht die Gefahr, zu sehr involviert zu sein und die kritische Distanz zum Thema zu verlieren. So kann es problematisch sein, eine betroffene Person zum Thema Schulangst zu interviewen, wenn der/die Interviewende selber darunter gelitten hat. Dabei könnten aus der eigenen Erfahrung heraus z.B. suggestive Fragen gestellt werden, die das eigene Erleben bestätigen sollen und dem aktuellen Erleben der interviewten Person zu wenig Raum lassen. Entsprechend bedarf es einer bewussten Anstrengung zur Sachlichkeit und Offenheit, vor allem bei der Literaturrecherche, Durchführung der Datenerhebung und Auswertung der Ergebnisse. Realisierbarkeit: Die Bewältigbarkeit eines Themas hängt nicht nur von dessen Breite, sondern auch von den zeitlichen und persönlichen Ressourcen ab, die einem zur Verfügung stehen. Manche Themen stellen interessante Untersuchungsgegenstände dar, sind aber innerhalb des vorgesehenen Zeitbudgets zu ehrgeizig. Auch kann ein Thema methodische Kompetenzen voraussetzen, die man sich erst erwerben muss (zum Beispiel der Einsatz soziometrischer Verfahren, um herauszufinden, welche Kinder wen als Freunde/ Freundinnen nennen, vgl. Diekmann, 2007), was wiederum einen Einfluss auf die zeitliche Planung hat. Der Aspekt der Realisierbarkeit bedingt, dass genügend Ressourcen (Energie, Zeit, Geld, Unterstützung, methodische Kenntnisse) zur Bearbeitung der Fragestellung vorhanden sein müssen. Eine empirische Untersuchung kann mit einem Marathonlauf verglichen werden:

91

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Wer untrainiert oder ungenügend vorbereitet ist, dem/der geht nach den ersten Kilometern bereits die Luft aus. Es gehört zur Forschungsrealität, dass trotz sorgfältigster Planung unvorhergesehene Ereignisse eintreffen oder sich Hindernisse aufbauen, welche bewältigt und überwunden werden müssen. Wie bei einem Marathonlauf sind das Dranbleiben und Durchhalten auch für das Gelingen einer Forschungsarbeit zentral, und wie auch bei einem Marathonlauf ist eine solide Vorbereitung das wichtigste Erfolgskriterium. Eingrenzung: Schliesslich sollte das Forschungsproblem präzise formuliert und somit eingegrenzt werden, sodass klar wird, was der eigentliche Gegenstand der Untersuchung ist. Ein Thema wie „Angst in der Schule“ ist zu wenig präzise formuliert, da nicht klar ist, ob es sich um Angst allgemein, um Schulangst oder Angst vor Mobbing etc. handelt. Zudem ist nicht ersichtlich, wer Angst hat (oder wer wem Angst einflösst), ob es sich um die Schule als Lebensraum, um den Unterricht resp. einzelne Fächer oder das Zusammenleben mit Schüler/innen, Lehrpersonen, schulischem Personal etc. handelt, um welche Schulen/Schularten oder Schulstufen es geht usw. Wird der Fokus hingegen auf die erlebte Prüfungsangst von Schüler/innen der Sekundarstufe I im Fach Mathematik eingegrenzt, so ist klarer ersichtlich, was untersucht werden soll. Atteslander (2006, S. 20) nennt zur Präzisierung und Eingrenzung des Forschungsproblems am Beispiel des Themas „Arbeitslosigkeit“ Kriterien, welche sich für die Eingrenzung der unterschiedlichsten Forschungsbereiche und -probleme eignen (s. Beispiel, S. 93). Die hauptsächliche Schwierigkeit bei der Eingrenzung des Themas liegt meist darin, dass man sich im Themenbereich noch nicht auskennt und somit nicht weiss, in welche Teilbereiche es sich gliedert. Deshalb ist für eine effektive Themensuche zunächst eine umfassende Literaturrecherche notwendig (vgl. Kap. 4.2). Bei der Sichtung wissenschaftlicher Texte wird am ehesten klar, in welcher Weise das Thema einzuschränken und zu differenzieren ist. So würde man beispielsweise bei einer Recherche zum Thema „Freundschaft“ bald bemerken, dass es eine Vielzahl von Texten zum Thema gibt und deshalb eine Einschränkung auf eine bestimmte Altersgruppe und einen bestimmten Aspekt von Freundschaft unbedingt nötig ist. Bei der Literaturrecherche zu einem anderen Themengebiet könnte dagegen auffallen, dass es praktisch keine Literatur dazu gibt. In solchen Fällen muss – sofern richtig recherchiert wurde – überlegt werden, ob das Thema von fragwürdigen oder überholten Annahmen ausgeht (und deshalb verworfen werden muss), oder ob das Thema einfach innovativ und neuartig ist (und deshalb unbedingt beibehalten werden soll).

92

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Beispiel: Problembenennung für eine Untersuchung zum Thema „Arbeitslosigkeit“ (vgl. Atteslander, 2006, S. 20) - Ausschnitt der sozialen Wirklichkeit: Welcher Ausschnitt der sozialen Wirklichkeit wird gewählt (z.B. Arbeitslose im Sinne des Gesetzes, Arbeitslose insgesamt?) - Bezugsgruppe: Um welche Gruppen von Menschen handelt es sich (Frauen, Jugendliche, Ältere, Gelernte, Ungelernte, hoch Qualifizierte)? - Zeitliche resp. örtliche Bereiche: Welche Zeit resp. welche örtlichen Bereiche sollen erfasst werden (städtische oder ländliche Gebiete, typische Gebiete mit hoher resp. geringer Arbeitslosigkeit, Langzeitstudie oder Momentaufnahme)? - Umfassende Untersuchung oder Einzelfragen: Soll Arbeitslosigkeit umfassend nach Ursachen und Folgen untersucht werden oder stehen Einzelfragen im Vordergrund (Schwierigkeiten der Wiedereingliederung von Langzeitarbeitslosen, Diskriminierung weiblicher Arbeitssuchender, Verringerung des Selbstwertgefühles bei Hochqualifizierten und dadurch schlechte Ausnützung tatsächlicher Chancen)? - Weitere Zusammenhänge: In welchen weiteren Zusammenhängen soll untersucht werden (weitere wissenschaftliche Disziplinen, die sich gleicher Problemfelder annehmen, Vergleiche mit anderen Bevölkerungen)? - Bestehende wissenschaftliche Erkenntnisse: Welche wissenschaftlichen Erkenntnisse liegen vor (Widerlegung oder Bestätigung von Befunden, Erfassung neuer Tatbestände, explorative Untersuchung bislang unbekannter Zusammenhänge)?

Werden die gesammelten Untersuchungsideen anhand der hier genannten Kriterien (Interesse, Quellen für Ideen, Bekanntheit und Zugänglichkeit, Realisierbarkeit und Eingrenzung) miteinander verglichen resp. durchgearbeitet, so zeigt sich bald, welche Ideen weiter verfolgt und Gegenstand einer Untersuchung werden könnten. 4.1.2 Formulierung von Fragestellung und Hypothesen Das Erkenntnisinteresse, aber auch die Positionierung einer wissenschaftlichen Arbeit drücken sich in der/den darin formulierten Fragestellung/en aus. Daher ist es zentral, sich während der Eingrenzung des Themenbereiches und der Identifikation relevanter Konstrukte (vgl. Kap. 4.1.3) nicht nur damit zu befassen, welche Fragen gestellt werden können, sondern auch wie diese Fragen formuliert und welche Sachverhalte damit ausgedrückt werden sollen. Die Eingrenzung des Themas und die Formulierung der Fragestellung/en entwickeln sich somit Hand in Hand. Grundlagen. Zu Beginn einer empirischen Untersuchung ist meist der ungefähre Themenbereich, innerhalb dessen sie sich bewegt, bekannt. Entsprechend sind erste mögliche Fragestellungen meist allgemein und undifferenziert formuliert. Die Präzisierung einer Fragestellung ist die zentrale Aufgabe in der ersten Phase des Forschungsprozesses. Die endgültige Festlegung der

93

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Fragestellung benötigt normalerweise mehrere Schritte und entwickelt sich entlang der Recherche und Auseinandersetzung mit vorhandener wissenschaftlicher Literatur, in der Auseinandersetzung mit ethischen Fragen und Fragen der Operationalisierbarkeit von Konstrukten (vgl. Kap. 2.5 und 4.1.3), aber auch im Rahmen von Diskussionen, Brainstorming etc. mit Wissenschaftlerinnen und Wissenschaftlern, welche im selben (breiten) Themenbereich arbeiten. Während dieser inhaltlich-thematischen Auseinandersetzung wird letztlich festgelegt, worauf genau der Fokus gelegt werden soll: auf eine spezielle Perspektive, einen spezifischen Zeitraum, einen spezifischen räumlichen oder (sub-)kulturellen Kontext, einen spezifischen Aspekt des interessierenden Phänomens oder auf einen Vergleich weniger Theorien und Positionen. Genauere Ausführungen dazu, wie Themenbereich und Fragestellung auch anhand der Literaturrecherche und -verarbeitung eingegrenzt werden, finden sich in den Kapiteln 4.2.2 und 4.2.3. Formulierung der Fragestellung. Wurde das Thema präzise eingegrenzt bzw. mit Blick auf seine Bearbeitung identifiziert, sollte die Formulierung einer geeigneten Fragestellung vergleichsweise einfach fallen, denn für sie gelten die gleichen Ansprüche: Sie sollte nach Durchsicht der bisherigen Forschung ausreichend präzise formuliert sein, so dass bei ihrer Bearbeitung neue Erkenntnisse im identifizierten Themenbereich zu erwarten sind. Entsprechend können einige der oben angeführten Eingrenzungsmöglichkeiten nach Atteslander (2006) – Ausschnitt der sozialen Wirklichkeit, Bezugsgruppe, zeitliche resp. örtliche Bereiche, umfassende Untersuchung oder Einzelfragen – auch für die eigentliche Ausformulierung der Fragestellung verwendet werden. Beispiel: Unpräzise und präzise Fragestellungen Die Frage „Welche Rolle spielen Freundschaften für die Entwicklung?“ ist zu allgemein, um theoretisch oder empirisch bearbeitet werden zu können. Präzisierung der Fragestellung durch Eingrenzung: „Welche Rolle spielen Freundschaften für die Bewältigung persönlicher Probleme im Jugendalter?“

Neben der leitenden, übergeordneten Fragestellung werden häufig auch spezifischere, untergeordnete Fragestellungen formuliert.

94

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Beispiel: Übergeordnete und untergeordnete Fragestellungen Übergeordnete Fragestellung: „Welche Rolle spielen Freundschaften für die Bewältigung persönlicher Probleme?“ Untergeordnete Fragestellungen: (a) „Welche Probleme besprechen Freunde untereinander?“; (b) „Wie unterstützen sich Freunde bei persönlichen Problemen“; (c) „Sprechen Jugendliche mit ihren Freunden eher über persönliche Probleme als mit ihren Eltern?“

Im Folgenden soll näher auf das Fragenstellen selbst eingegangen werden. Nach Rost (2005) lassen sich fünf Gruppen von Fragen unterscheiden, welche sich überlappen können und miteinander kombinierbar sind: Existenz, Beschreibung, Kovariation, Struktur und Ursache. Erläuterungen, mögliche Formulierungen und Beispiele zu den Fragetypen sind in Tabelle 6 dargestellt. Anhand der in der Tabelle 6 (S. 96) dargelegten Beispiele lässt sich erkennen, dass Fragen auf unterschiedlichste Art formuliert werden können und die gewählte Formulierung bereits eine Betonung spezifischer Aspekte beinhaltet. Bei der Frage Lässt sich vandalistisches Verhalten Jugendlicher durch deren gezielte Einbindung in Freizeitprogramme reduzieren? wird aufgrund der Verwendung von „lässt sich … reduzieren“ bereits erkennbar, dass eine Reduktion des beschriebenen Verhaltens als wünschenswert angesehen wird und die Erwartung besteht, dass die gewählte Intervention dies bewirken kann. Bereits mit der Formulierung der Fragestellung kann deren praktische Relevanz untermauert werden. Formulierung der Hypothesen. Häufig haben Forscher/innen spezifische Erwartungen und Annahmen zu ihren Fragen. Solche lassen sich in Form von Hypothesen festhalten (vgl. Kap. 2.2.2). Ähnlich den untergeordneten Fragestellungen konkretisieren die Hypothesen die übergeordnete Fragestellung. Hypothese Eine Hypothese ist eine Annahme, mit der vorläufig gearbeitet wird – solange, bis sie entweder bestätigt oder widerlegt wird (vgl. Fisseni, 1997).

Allerdings sollten nicht vorschnell Hypothesen aufgestellt werden, es sei denn, es liegen überzeugende theoretische oder empirische Gründe dafür vor. Hypothesen engen zumeist den Blick ein, da ganz bestimmte Ergebnisse erwartet werden, während Fragestellungen eine gewisse Offenheit gegenüber den Ergebnissen einer Untersuchung bewahren (vgl. Reinders, 2005).

95

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Tabelle 6: Gruppen von Fragen nach Rost (2005) Fragegruppe

Erläuterung

Existenz

Befasst sich mit dem Vorhandensein von etwas

Mögliche Formulierungen „Gibt es …?“

„Ist … real oder … Erfindung?“

Beschreibung

Befasst sich mit der „Erscheinung“ eines Phänomens

„Wie gestalten sich …?“

„Welche … kennzeichnen …?“

Kovariation

Befasst sich damit, ob resp. wie Phänomene zusammenhängen

„Wie (hoch) korreliert … mit …?“ „Wie hängen … und … zusammen?“

Struktur

Befasst sich damit, wie etwas aufgebaut oder zusammengesetzt ist

„Ist … aufgebaut?“

„Setzt sich … zusammen?“ Ursache

Befasst sich mit Ursachen und (möglichen) Wirkungen von Phänomenen

„Fördert x … y …?“

„Lässt sich … durch … reduzieren?“

96

Beispiel Gibt es hyperaktive, überdurchschnittlich intelligente Vorschulkinder? Ist das Phänomen des Mobbing im Kindergarten real oder eine Erfindung überbesorgter Eltern? Wie gestalten sich Geschwisterbeziehungen von Jugendlichen, wenn eines der Geschwister an einer chronischen Krankheit leidet? Welche Verhaltensweisen kennzeichnen ein aktives Zuhören seitens einer Lehrperson ihren Schüler/innen gegenüber? Wie hoch korrelieren Intelligenz und Schulleistung bei Grundschulkindern? Wie hängen soziale Perspektivenübernahmefähigkeit und empathische Anteilnahme bei jungen Erwachsenen zusammen? Verläuft die Entwicklung der moralischen Urteilskompetenz in einer hierarchisch aufgebauten Abfolge von Stufen? Setzt sich Empathie aus mehreren distinkten Dimensionen zusammen? Fördert der Konsum von medialen Gewaltdarstellungen die Aggressionsbereitschaft Jugendlicher? Lässt sich vandalistisches Verhalten Jugendlicher durch deren gezielte Einbindung in Freizeitprogramme reduzieren?

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Insbesondere Untersuchungen, welche einen qualitativen Fokus (vgl. Kap. 4.1.4) aufweisen, sollten weder implizit noch explizit bereits eine Hypothese enthalten, die zu bestätigen oder zu widerlegen wäre. Im Rahmen von qualitativen Studien können jedoch vor der Datenerhebung Kriterien formuliert werden, anhand derer die Gültigkeit einer Erwartung/Hypothese im Rahmen der Datenanalyse überprüft werden kann. In Studien mit quantitativem Fokus werden die Fragestellungen üblicherweise mit inferenzstatistischen Methoden bearbeitet und erfordern die Formulierung von statistischen Hypothesen (vgl. Kapitel 7.5 „Prüfstatistik“). Wissenschaftliche Hypothesen werden normalerweise als Konditionalsätze („Wenn-dann“ resp. „Je-desto“) formuliert (vgl. Bortz & Döring, 2003; Diekmann, 2007) und beziehen sich auf Zusammenhänge (Zusammenhangshypothese) oder Unterschiede (Unterschiedshypothese). Es wird zwischen ungerichteten und gerichteten sowie unspezifischen und spezifischen Hypothesen unterschieden. Bei ungerichteten Hypothesen wird die Richtung des erwarteten Zusammenhangs oder Unterschieds offen gelassen, es wird lediglich ein Zusammenhang oder Unterschied postuliert, während bei gerichteten Hypothesen die Richtung präzisiert wird. Entsprechend ist die Hypothese „Physisches Mobbing bei Kindern hängt mit ihrem Alter zusammen“ ungerichtet, während die Hypothese „Je älter Kinder sind, desto weniger setzen sie physisches Mobbing ein“ gerichtet formuliert ist. Bei unspezifischen Hypothesen können keine Angaben über die Grösse des erwarteten Zusammenhangs oder Unterschieds gemacht werden, während dies bei spezifischen Hypothesen der Fall ist. Um spezifische Hypothesen formulieren zu können, muss die bisherige Forschung genügend Grundlage, d.h. mehrfach abgesicherte Ergebnisse bieten, damit solche Grössen von Zusammenhängen resp. Unterschieden begründet erwartet werden können (vgl. Bortz & Döring, 2003). Spezifische Hypothesen werden in statistische Hypothesen mit einer klar definierten sogenannten Effektgrösse überführt und erfordern inferenzstatistische Analysen (vgl. Kap. 7.5), um sie belegen (verifizieren) oder widerlegen (falsifizieren) zu können. Ein Beispiel für eine spezifische Hypothese wäre „Die mittlere Intelligenzleistung von Gruppe A im standardisierten Intelligenztest Y liegt mindestens fünf Punkte über der mittleren Intelligenzleistung von Gruppe B in demselben Test“. Genaue Ausführungen zu hypothesenprüfenden Untersuchungen und den entsprechenden inferenzstatistischen Verfahren finden sich z.B. bei Bortz (2005), Bortz und Döring (2003) oder Diekmann (2007). Kann aufgrund vorliegender Befunde aus anderen empirischen Arbeiten oder auf der Basis theoretischer Überlegungen vermutet oder vorausgesagt wer-

97

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

den, wie gross die Unterschiede oder Zusammenhänge ausfallen sollten, können präzise Hypothesen formuliert werden. Im unten angeführten Exzerpt aus einem wissenschaftlichen Artikel werden einerseits allgemeinere Fragestellungen formuliert und andererseits, gekennzeichnet durch die Formulierung „wir erwarten“, präzise (gerichtete) Zusammenhänge postuliert (vorausgesagt). Liegen Fragestellung bzw. Hypothese in einer ersten Version vor, geht es im nächsten Schritt darum, die verwendeten Begriffe zu definieren und sich Gedanken dazu zu machen, wie sie der Messung zugänglich gemacht werden können. Exzerpt aus einem wissenschaftlichen Artikel: In der vorliegenden Studie werden Zeugenreaktionen von Kindergartenkindern in Abhängigkeit von Geschlecht, Alter und Mobbingrolle untersucht. Wir erwarten mehr Opfer unterstützendes Verhalten von Seiten der Mädchen und mehr Mobber unterstützendes Verhalten von Seiten der Mobber. Ansonsten lassen wir die Hypothesen offen, da die bisherige Forschungsgrundlage keine weiteren präziseren Annahmen zulässt. Gestützt auf den Befund von Salmivalli und Voeten (2004), die zeigen konnten, dass das Verhalten der Gruppenmitglieder ein wichtiger Prädiktor für das Verhalten eines einzelnen Kindes ist, soll geprüft werden, wie das Verhalten der Kinder in der Gruppe mit den Zeugenreaktionen der einzelnen Kindern zusammenhängt. Wir erwarten, dass in Gruppen, in welchen viel aggressives Verhalten vorkommt, mehr Mobber unterstützendes Verhalten vorkommt. (S. 61) Quelle: Hauser, D., Gutzwiller-Helfenfinger, E. & Alsaker, F. D. (2009). Kindergartenkinder als Zeugen von Mobbing. Schweizerische Zeitschrift für Bildungswissenschaften, 31(1), 5772.

4.1.3 Konstrukte, Begriffsdefinitionen und Operationalisierung Wer kennt nicht die Diskussionen über das Ordnunghalten, die zwischen Kindern und ihren Eltern bzw. zwischen Paaren geführt werden und die oftmals zu Spannungen führen, weil man zusammen in einem Haushalt lebt. Auseinandersetzungen, ob beispielsweise eine Jacke über der Stuhllehne schon Unordnung bedeutet, sind auf unterschiedliche Vorstellungen, was unter dem Begriff „Ordnung“ zu verstehen ist, zurückzuführen. Muss alles, was nicht unmittelbar gebraucht wird, weggeräumt werden oder dürfen Bücher und Magazine auf dem Tisch liegen? Und sollen sie in letzterem Fall irgendwie herumliegen oder sollen sie ordentlich sortiert und gestapelt werden? In der Wissenschaft verhält es sich ähnlich: Begriffe werden unterschiedlich verstanden. Um sicherzustellen, dass Wissenschaftler und Wissenschaftlerinnen sich optimal verständigen können, werden alle wichtigen Begriffe mög-

98

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

lichst genau definiert. Überdies muss klar sein, wie Begriffe erfasst, d.h. mit anderen Worten, wie sie gemessen werden können. So könnten zur Erfassung des Ausmasses von Ordnung resp. Unordnung die Anzahl herumliegender Gegenstände gezählt oder andere aussagekräftige Anzeichen oder Merkmale (Indikatoren) für Ordnung berücksichtigt werden. Grundlagen. Wie werden die in einer Fragestellung verwendeten Begriffe definiert und der Beobachtung/Messung zugänglich gemacht? Manchmal sind Begriffe direkt beobachtbar oder leicht erfassbar. So können z.B. Informationen zum Geschlecht, zum Alter oder auch zur Höhe des Einkommens meist ohne Schwierigkeiten schriftlich festgehalten werden. Dies jedenfalls dann, wenn es um das im Geburtsschein eingetragene Geschlecht und um das Alter, ausgedrückt in Lebensjahren und nicht etwa um das „gefühlte“ Alter geht. In den Bildungs- und Sozialwissenschaften wird hauptsächlich mit theoretischen resp. abstrakten Begriffen gearbeitet, welche nicht direkt beobachtbar oder messbar sind. Solche theoretischen (abstrakten, gedanklichen) Begriffe werden Konstrukte genannt. Ein Konstrukt [lat. construere: bauen) ist ein Begriff, der nicht unmittelbar fassbar ist und sich auf Entitäten [Grössen] oder Eigenschaften bezieht, welche nicht direkt beobachtet werden können (vgl. Häcker & Stapf, 2004).

Begriffe wie „lernförderliches Klima“, „Unterrichtsstörungen“ oder „Strukturierung“ sind solche Konstrukte. Diese erklären sich nicht von selbst, lassen sich nicht direkt beobachten und folglich auch nicht direkt im Forschungsprozess erfassen. Konstrukte müssen „übersetzt“ werden, um erfasst (festgehalten) werden zu können. Dieser Übersetzungsvorgang, welcher Operationalisierung genannt wird, umfasst normalerweise mehrere Schritte und ist – wie sich nachfolgend zeigen wird – mit einigen Herausforderungen verbunden. Beispiel: Konstrukte in verschiedenen Aussagen - Bei einem lernförderlichen Klima treten Unterrichtsstörungen seltener auf. - Eine klare Strukturierung des Unterrichts wirkt sich positiv auf den Lernerfolg aus. - Inhaltliche Klarheit fördert den Aufbau von vernetztem Wissen.

Um nachvollziehen und verstehen zu können, was eine Wissenschaftlerin bzw. ein Wissenschaftler unter einem Konstrukt versteht, ist es in einem ersten Schritt unbedingt notwendig, dass dieses erst einmal möglichst klar und eindeutig definiert wird. Tut man dies nicht (wie im Beispiel zum Thema

99

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Ordnung im Wohnbereich), sind Missverständnisse und Konflikte leicht möglich. Grundsätzlich sollten daher zentrale Begriffe/Konstrukte in einem Forschungsbericht bei ihrer ersten Nennung definiert werden. Unter Definition [lat. definitio: Abgrenzung] versteht man die Bestimmung resp. Darstellung eines Begriffs anhand einer vollständigen Aufzählung seiner wesentlichen Merkmale (vgl. Häcker & Stapf, 2004). „Eine Definition ist eine Gleichsetzung eines Begriffs mit den zur Bestimmung herangezogenen Erklärungen und Hinweisen. Definitionen werden deshalb sprachlich häufig mit dem Verb ‚sein’ in der Form Ein X ist … ausgedrückt“ (Bünting, Bitterlich & Pospiech, 2002, S. 101).

Untersucht man z.B. die Frage möglicher Ursachen von Unterrichtsstörungen, muss man präzise definieren, was man unter Unterrichtsstörungen versteht. Soll das lernförderliche Klima in verschiedenen Schulklassen miteinander verglichen werden, muss ein/e Wissenschaftler/in definieren, was er/sie genau damit meint. Aber es wird noch komplexer: Unterschiedliche Wissenschaftler/innen definieren den Begriff lernförderliches Klima eventuell sehr verschieden, je nach Theorie oder Modell, auf das sie sich abstützen. Definitionen sind somit immer theorie- bzw. modellabhängig. Wie am unten angeführten Beispiel der Definition von lernförderlichem Klima nach Meyer (2004) resp. der Definition von Unterrichtsklima nach Eder (2002) ersichtlich ist, kann derselbe Aspekt – hier der Begriff „Lernen“ – unterschiedlich innerhalb verschiedener Definitionen des Konstrukts „Klima“ verwendet werden. Beispiel: Definition „lernförderliches Klima“ nach Meyer (2004, S. 47) „Ein lernförderliches Klima bezeichnet eine Unterrichtsatmosphäre, die gekennzeichnet ist, durch: (1) gegenseitigen Respekt, (2) verlässliche Regeln, (3) gemeinsam geteilte Verantwortung, (4) Gerechtigkeit des Lehrers gegenüber jedem Einzelnen und dem Lernverband insgesamt und (5) Fürsorge des Lehrers für die Schüler und der Schüler untereinander.“ Beispiel: Definition „Unterrichtsklima“ nach Eder (2002, S. 215) „Das Unterrichtsklima bezieht sich auf den Kernbereich in der Schule, nämlich das Lehren und Lernen, und erscheint in dreifacher Hinsicht bestimmbar, - als die subjektive Repräsentation der Lehr-/Lernerfahrungen einer Klasse aus allen Fächern bzw. mit allen Lehrern - als die subjektive Repräsentation der Lehr-/Lernerfahrungen mit einer konkreten Lehrperson im Kontext dieser Klasse - als die subjektive Repräsentation der Lehr-/Lernerfahrungen in einem bestimmten Fach“ .

100

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Bei Meyer wird Lernen zur näheren Charakterisierung des Klimabegriffs verwendet, indem er definiert, wodurch sich ein Klima, das als lernförderlich bezeichnet wird, auszeichnet. Eder hingegen betont, dass das Unterrichtsklima sich grundsätzlich auf Lehren und Lernen resp. die Lehr-/Lernerfahrungen der Schüler/innen bezieht. Entsprechend ist es notwendig, verschiedene Definitionen der zentralen Konstrukte zusammenzutragen, miteinander zu vergleichen und entweder eine dieser Definitionen zu übernehmen oder auf Basis bereits vorliegender Definitionen eine eigene Definition zu erarbeiten. Dadurch, dass wir ein bestimmtes Wort nennen („Leistungsmotivation“) haben wir noch keinen eindeutigen Begriff davon, was mit dem Wort gemeint sein soll. Begriffe lassen sich dabei grundsätzlich auf zwei Arten bestimmen: Entweder man klärt den Begriff durch eine Inhaltsbeschreibung und zeigt die Eigenschaften auf, die den Begriff kennzeichnen und ihn von anderen unterscheiden. Oder aber man bestimmt den Begriff durch seinen Umfang und zählt die Unterbegriffe auf, die alle dem Oberbegriff zugeordnet werden können (Säugetiere: Katzen, Hunde, Pferde etc.). Bei obiger Definition von lernförderlichem Klima handelt es sich um eine extensionale Definition, bei welcher alle Elemente/Bestandteile des zu definierenden Konstruktes vollständig aufgezählt werden. In der Definition des Konstrukts Unterrichtsklima wird die subjektive Repräsentation bzw. Einschätzung der Lehr/Lernerfahrung aus verschiedenen Perspektiven des Unterrichts im Sinne einer Eigenschaft des Unterrichtsklimas bestimmt (intensionale Definition). Eine operationale Definition liegt vor, wenn der Begriff durch eine Handlungsanweisung bestimmt wird. „Eine operationale Definition standardisiert einen Begriff durch die Angabe der Operationen, die zur Erfassung des durch den Begriff bezeichneten Sachverhaltes notwendig sind, oder durch Angabe von messbaren Ereignissen, die das Vorliegen dieses Sachverhaltes anzeigen (Indikatoren)“ (Bortz & Döring, 2006, S. 63).

Die Definition der Konstrukte, wie sie z.B. in der Fragestellung enthalten sind, bildet einen wichtigen frühen Schritt im Forschungsprozess. Nachfolgend wird aufgezeigt, wie einem Konstrukt beobachtbare Sachverhalte zugeordnet werden können. Um das Konstrukt möglichst gut zu erfassen, werden aus seiner Definition die inhaltlichen Aspekte des Begriffs abgeleitet. In diesem Zusammenhang spricht man auch von der Bestimmung der Dimensionen eines Konstruktes. Je nach Art der Ableitung bzw. Strategie zur Bestimmung der einzelnen Dimensionen eines Konstrukt werden diese auch als Faktoren, Komponenten, Aspekte, Facetten oder Merkmale bezeichnet.

101

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Das in Tabelle 7 (S. 103) aufgeführte Beispiel zeigt auf, wie in vier verschiedenen Fragebögen das Konstrukt „Klima“ in unterschiedliche Dimensionen unterteilt ist. Die Gegenüberstellung der Dimensionen des Konstrukts „Klima“ in Tabelle 7 (S. 103) macht deutlich, wie sehr der Inhalt eines Konstrukts variieren kann. Keine einzige Dimension kommt in allen vier Fragebögen vor. Es wird damit deutlich, dass die Auffassungen der Autoren über die einzelnen Dimensionen und Bestandteile des Klimas weit auseinander gehen. Diese unterschiedliche Bestimmung des Begriffs „Klima“ veranschaulicht beispielhaft die Schwierigkeit im Umgang mit Konstrukten. Es kann ein Hinweis darauf sein, dass es sich um ein schwierig zu definierendes Konstrukt handelt und/oder die Forschenden von unterschiedlichen Modellen und Theorien ausgegangen sind. Darüber hinaus wird an diesem Beispiel ersichtlich, dass es in den Bildungs- und Sozialwissenschaften keine abschliessende, „objektiv richtige Beschreibung“ geben kann. Wie sollen jetzt die Merkmale bzw. Dimensionen eines Begriffs (z.B. die Dimensionen „Fürsorglichkeit der Lehrperson“, „Engagement des Lehrers“ in Tabelle 7, S. 103) der Beobachtung zugänglich gemacht bzw. in Forschungsaktivitäten übersetzt werden? Eine mögliche Lösung besteht darin, Indikatoren zu bestimmen. Indikatoren sind empirisch messbare Hilfsgrössen, die nicht direkt messbare Merkmale anzeigen sollen. Sie dienen als (beweiskräftiges) Anzeichen oder Hinweis für das Vorkommen eines Merkmals bzw. einer Eigenschaft.

Direkt beobachtbare Grössen, die der Erfassung eines Konstrukts dienen, werden als Indikatoren bezeichnet. Werden zu einem Konstrukt passende Indikatoren gesucht, so spricht man von Operationalisierung (messbar machen). Operationalisierung bezeichnet das Verfahren (oder dessen Ergebnis), ein nicht direkt beobachtbares Merkmal oder eine nicht direkt beobachtbare Eigenschaft (z.B. Schülerbeteiligung im Unterricht, Leistungsmotiv) für die Beobachtung bzw. für die experimentelle Manipulation zugänglich zu machen, indem man eine mit ihr verknüpfte, gut beobachtbare Variable (z.B. Sprechzeit der Schüler/innen in Minuten, Punktzahl in einem Test) auswählt.

102

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Tabelle 7: Dimensionen wichtiger Klima-Instrumente für die Sekundarstufe I (nach Eder, 2002; Bessoth, 2000) Linzer Fragebogen zum Schul- und Klassenklima (Eder, 1998; Eder & Mayr, 2000)

Landauer Skalen zum Sozialklima (Saldern & Littig, 1987)

Wiener Klima Skalen (Oswald, Pfeifer, RitterBerlach & Tanzer, 1989)

Pädagogisches Engagement Mitsprachemöglichkeiten Restriktivität

Fürsorglichkeit des Lehrers Aggression gegen den Lehrer Zufriedenheit mit dem Lehrer Autoritärer Führungsstil des Lehrers Bevorzugung und Benachteiligung durch den Lehrer Ausmass der Cliquenbildung Hilfsbereitschaft der Mitschüler Aggression gegen Mitschüler Diskriminierung von Mitschülern

Engagement des Lehrers Toleranz

Zufriedenheit von Mitschülern Konkurrenzverhalten von Mitschülern Leistungsdruck Zufriedenheit mit dem Unterricht Disziplin und Ordnung Fähigkeit des Lehrers zur Vermittlung von Lehrinhalten Resignation der Schüler Reduzierte Unterrichtsteilnahme

Leistungsüberforderung

Gerechtigkeit Rivalität

Leistungsdruck Unterrichtsdruck Vermittlungsqualität Schülerbeteiligung

Kontrolle der Schülerarbeit Komparation Gemeinschaft Mitarbeit Störneigung

Unterrichtsqualität (Unterrichts-Klima und Kulturinstrument) für Schweizer Schulen (Bessoth & Weibel, 2000) Mitarbeit der Klasse Klassengemeinschaft

Anonymität

Leistungsbereitschaft

Vertrauen

Kooperationsverhalten Unterstützung des Lernens

Mitbestimmung

Kohäsion Konkurrenz Toleranz Betonung von Disziplin

Konzentration auf das Lernen Ordnung und Organisation Klarheit der Regeln Wertschätzung der Lernenden (durch die Lehrperson) Abwechslung/ Mitwirkung

103

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Beispielsweise wird die Lernstrategie „Zeitmanagement“ operationalisiert, indem beobachtbare Merkmale, also Indikatoren, ausgewählt werden, anhand derer festgestellt werden kann, ob eine explizite Zeitplanung vorgenommen und eingehalten wird. Meist ist es empfehlenswert, sich nicht nur mit einem Indikator pro Dimension zu begnügen, sondern mehrere Indikatoren zu bilden, um die Dimension möglichst gut erfassen zu können. Die Verwendung mehrerer, auch unterschiedlicher Indikatoren stellt sicher, dass nicht ein Indikator alleine eine Dimension abbilden muss, weil dies oft nicht ausreichend ist. Wie bei den Indikatoren zur Dimension „Zeitmanagement“ im Beispiel unten ersichtlich wird, beinhaltet Zeitmanagement verschiedene Aspekte wie das Vorhandensein eines Zeitplans, das Festlegen von Lernzeit und -dauer etc. Würde nur aufgrund des Vorhandenseins (ja/nein Antwortalternative) eines Zeitplans auf das Zeitmanagement einer Person rückgeschlossen, würden wichtige Aspekte, die ebenfalls ein Zeitmanagement ausmachen, ausser acht gelassen. Wer also nicht mit einem genauen Zeitplan arbeitet, sich aber vor jeder Lernphase kurz Überlegungen zu Lernzeit und -dauer macht, würde, da letzteres nicht gemessen wurde, als Person mit nicht vorhandenem Zeitmanagement identifizert. Beispiel: Vier Indikatoren, welche die Dimension „Zeitplanung“ einschätzen sollen (nach LIST; Wild & Schiefele, 1994) - Beim Lernen halte ich mich an einen bestimmten Zeitplan. - Ich lege bestimmte Zeiten fest, zu denen ich dann lerne. - Ich lege die Stunden, die ich täglich mit Lernen verbringe, durch einen Zeitplan fest. - Ich lege vor jeder Lernphase eine bestimmte Zeitdauer fest.

Die Operationalisierung der Dimension „Zeitmanagement“ ist mit dem Formulieren oben angeführter Aussagen (Indikatoren) noch nicht abgeschlossen, sondern erfordert eine Skalierung, d.h. die Festlegung der Antwortmöglichkeiten, z.B. mittels einer vierstufigen Skala von „trifft sehr zu“ bis „trifft gar nicht zu“ oder dichotom als „Ja“ vs. „Nein“ (vgl. Kapitel 6.1.2). Anleitung. Welches Vorgehen empfiehlt sich, um einen theoretischen Begriff (Konstrukt) für die Beobachtung zugänglich zu machen bzw. um ihn zu erfassen? Es werden vier Schritte zur Operationalisierung eines Konstruktes vorgeschlagen: 1. Identifikation der Konstrukte. Die Konstrukte, d.h. die theoretischen resp. nicht direkt beobachtbaren Begriffe innerhalb der Fragestellung, werden bestimmt.

104

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Beispiel: Identifikation der Konstrukte Fragestellung: „Unterscheiden sich Schülerinnen und Schüler mit niedrigem Lernerfolg hinsichtlich Lernstrategien von solchen mit hohem Lernerfolg? Konstrukte: Lernerfolg, Lernstrategien.

2. Definition der Konstrukte. Die Konstrukte werden präzise definiert, damit klar ersichtlich wird, in welcher Weise sie verwendet werden. Dabei ist es wichtig, bereits vorliegende wissenschaftliche Auseinandersetzungen zu einem Begriff aufzugreifen und in der Literatur nach Definitionen für einen Begriff zu suchen. Bei eigenen Definitionen ist grosse Sorgfalt geboten, damit wichtige Merkmale nicht übersehen werden und das Konstrukt folglich nur teilweise erfasst wird. Beispiel: Definition eines Konstruktes Definition Kognitive Lernstrategie (Wild, 2000, S. 59): „ Unter einer kognitiven Lernstrategie wird ein Set spezifischer kognitiver Prozeduren und diese unterstützende Verhaltensweisen gefasst, das Personen zur Enkodierung und Speicherung neuer Wissensbestände einsetzen.“ Anmerkung zur obigen Definition: Diese ist zwar präzise, doch sie dürfte nur von Leserinnen und Lesern verstanden werden, die schon über ein gewisses Fachwissen verfügen. Eine auf den ersten Blick einfachere Definition stammt von Friedrich und Mandl (2006; in Anlehung an Weinstein & Mayer, 1986). Die beiden Autoren bezeichnen als Lernstrategien „jene Verhaltensweisen und Gedanken, die Lernende aktivieren, um ihre Motivation und den Prozess des Wissenserwerbs zu beeinflussen und zu steuern“.

3. Auflistung der inhaltlichen Aspekte bzw. Dimensionen eines Konstruktes. In diesem Schritt werden alle zum Konstrukt zugehörigen Dimensionen (Aspekte, Komponenten) aufgelistet. Diese können von der Definition abgeleitet werden. Beispiel: Dimensionen eines Konstruktes Dimensionen des Konstruktes „Lernstrategien“ (nach Wild & Schiefele, 1994): Organisieren, Elaborieren, Kritisches Prüfen, Wiederholen, metakognitive Strategien (mit den Subdimensionen: Planung, Überwachung und Steuerung), Anstrengung, Aufmerksamkeit, Zeitmanagement, Lernumgebung, Lernen mit Studienkollegen, Literatur. Die oben in der Definition von Wild (2000) angesprochenen kognitiven Prozeduren bestehen aus den Dimensionen Organisieren, Elaborieren etc., die sie unterstützenden Verhaltensweisen werden als Anstrengung, Aufmerksamkeit etc. gefasst. Anmerkung zu den obigen Dimensionen: Damit verstanden wird, was mit diesen Dimensionen gemeint ist, müssen auch diese definiert oder zumindest beschrieben werden.

105

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

4. Operationalisierung des Konstruktes. Die Dimensionen werden „messbar“ gemacht (operationalisiert), indem Indikatoren formuliert werden. Beispiel: Operationalisierung der Lernstrategie-Dimension Organisieren (LIST; Wild & Schiefele, 1994) Beschreibung der Dimension Organisieren: Gemeint sind „[…] Studientätigkeiten, die durchgeführt werden, um einen zu bewältigenden Stoff in geeigneter Weise zu reorganisieren. Dies umfasst u.a. das Erstellen von Zusammenfassungen und Gliederungen, das Kennzeichnen wichtiger Textstellen sowie das Anfertigen von Tabellen und Schaubildern.“ Acht Indikatoren (und gleichzeitig Items resp. „Fragen“ des Fragebogens) gibt es zur Erfassung der Dimension Organisieren: - Ich fertige Tabellen, Diagramme oder Schaubilder an, um den Stoff der Veranstaltung besser strukturiert vorliegen zu haben. - Ich mache mir kurze Zusammenfassungen der wichtigsten Inhalte als Gedankenstütze. - Ich gehe meine Aufzeichnungen durch und mache mir dazu eine Gliederung mit den wichtigsten Punkten. - Ich versuche, den Stoff so zu ordnen, dass ich ihn mir gut einprägen kann. - Ich stelle mir aus Mitschrift, Skript oder Literatur kurze Zusammenfassungen mit den Hauptideen zusammen. - Ich unterstreiche in Texten oder Mitschriften die wichtigen Stellen. - Für grössere Stoffmengen fertige ich eine Gliederung an, die die Struktur des Stoffs am besten wiedergibt. - Ich stelle wichtige Fachausdrücke und Definitionen in eigenen Listen zusammen.

Zusatzbemerkung: Die Operationalisierung eines Konstruktes kann die spätere Auswertung der erhobenen Daten beeinflussen. Bei einer quantitativen Auswertung wird die Operationalisierung nach Möglichkeit so angelegt, dass auf Intervallskalenniveau ausgewertet werden kann bzw. keine triftigen Gründe gegen die Annahme einer Intervallskala sprechen. Die Antwortmöglichkeiten auf einzelne Fragen sind dabei so angelegt, dass die Abstände zwischen den Antwortalternativen (z.B. vierstufige Skala von „trifft sehr zu“ bis „trifft gar nicht zu“) der Rangordnung der Zahlendifferenzen zwischen den Merkmalsunterschieden entsprechen (vgl. Kap. 7.3.1). 4.1.4 Qualitative und quantitative Zugänge Da sich die Wahl einer geeigneten Forschungsmethode aus der Fragestellung selber ergibt und damit auch eine Entscheidung bezüglich des Forschungszugangs getroffen werden muss, ist es notwendig, sich vertieft mit der Unterscheidung zwischen qualitativer und quantitativer Forschung und den entsprechenden Forschungszugängen auseinander zu setzen.

106

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Rekapitulation und Vertiefung. Sozialwissenschaftliche Forschung kennt zwei Ausrichtungen, welche einander oft gegenübergestellt werden, jedoch besser als einander ergänzend angesehen werden können: die qualitative und die quantitative Forschung. Jede Ausrichtung verfügt über eigene Methoden der Stichprobenauswahl, der Datengewinnung und -auswertung und beruht auf unterschiedlichen theoretischen Annahmen bezüglich empirischer Sozialforschung (z.B. Diekmann, 2007). Während quantitative Forschung auf einer Quantifizierung der Beobachtungsrealität beruht (messen, zählen), operiert qualitative Forschung mit Interpretationen von verbalem Material (z.B. Tagebücher, Dokumente, Protokolle aus offenen Interview; vgl. Bortz & Döring, 2003).

In der quantitativen Forschung werden demnach Fragen gestellt, deren Antworten entweder aus Zahlen bestehen oder in Zahlen transformiert und anschliessend mittels statistischer Verfahren ausgewertet werden, während qualitative Forschung stärker auf „ganzheitliche“ Wahrnehmung, Beschreibung und Interpretation ausgerichtet ist. Tabelle 8 (S. 108) stellt einige Charakteristika quantitativer und qualitativer Forschung einander gegenüber. Wie aus Tabelle 8 ersichtlich wird, können dieselben Datenerhebungsmethoden – als Beispiel sind hier schriftliche Befragung (Fragebogen), mündliche Befragung (Interview) und Beobachtung angeführt – sowohl innerhalb der qualitativen als auch der quantitativen Forschung eingesetzt werden. Trotz Gegenüberstellung der beiden Ansätze und ihrer Charakteristika wäre es also verfehlt, diese als unvereinbare Gegensätze anzusehen. Die dargestellten Charakteristika können nicht eindeutig und ausschliesslich der einen oder anderen Forschungsrichtung zugeordnet werden. So können qualitative Methoden in quantitative überführt werden. Beispielsweise lassen sich offene Antworten nachträglich kategorisieren und mit Zahlenwerten versehen, d.h. quantifizieren. Zudem werden häufig anhand von qualitativen Methoden konkrete Hypothesen überprüft resp. möchte man mittels qualitativer Methoden nicht nur den Einzelfall genau beschreiben sondern auch über den Einzelfall hinausgehende allgemeingültige Aussagen machen. Trotzdem sind manche Forschungsmethoden (wie z.B. teilnehmende Beobachtung) besser für qualitative Fragestellungen geeignet. Es stellen sich also Fragen nach der Angemessenheit und der Verhältnismässigkeit der Methodenwahl in Bezug auf die Fragestellung (vgl. Kapitel 7.2 „Qualitative Verfahren der Datenauswertung“).

107

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Tabelle 8: Charakteristika qualitativer und quantitativer Forschung (vgl. Bortz & Döring, 2003) Quantitativ Messen, zählen Quantifizieren psychologischer Merkmale

Fragebögen und Interviews mit geschlossenen Fragen Ausgezählte Beobachtungen Statistische Analysemethoden, vorgegebene Verfahren Aufdecken von psychologischen Gesetzmässigkeiten in bestimmten Merkmalsbereichen Deduktiv (Hypothesen überprüfen) Grosse Stichproben

Qualitativ Wahrnehmen, beschreiben Erfassen und Ordnen von Worten, Bildern, Situationen, Begriffen, Zusammenhängen; Aufdecken von Bedeutungs- und Sinnstrukturen; Interpretation Fragebögen und Interviews mit offenen Fragen Beschreibende Beobachtungen Weniger standardisierte Verfahren, Analysemethode kann im Lauf der Untersuchung entwickelt werden Der Anspruch, Erleben und Verhalten ganzheitlich zu erklären Induktiv (Hypothesen entwickeln) Versuch, dem Einzelfall gerecht zu werden

Die jeweilige Fragestellung (oder Fragestellungen) einer Untersuchung bestimmt mit, ob qualitative oder quantitative Methoden oder eine Kombination von beiden eingesetzt werden. Qualitative Methoden werden oft explorativ, d.h. bei der Erkundung eines Forschungsfeldes verwendet (Generieren von Hypothesen), währenddem quantitative Methoden hauptsächlich zur Überprüfung von Hypothesen eingesetzt werden. Es ist von zentraler Bedeutung, bei der Operationalisierung der Konstrukte der Frage der qualitativen oder quantitativen Fassung eines Indikators ausreichend Beachtung zu schenken. Soll ein einzelner Indikator qualitativ oder quantitativ gefasst werden, oder macht es sogar Sinn, ein bestimmtes Konstrukt sowohl anhand von qualitativen als auch quantitativen Indikatoren zu erfassen? Soll beispielsweise das altruistische Verhalten (helfen, teilen) von Kindergartenkindern untersucht werden, so kann die Kindergartenlehrperson in einem Fragebogen zu jedem Kind das Zutreffen einzelner Aussagen zum altruistischen Verhalten auf einer fünfstufigen Skala einschätzen (hilft anderen Kindern, teilt seine Spielsachen mit anderen Kindern etc.). Dies würde einem quantitativen Zugang entsprechen. Oder die Kinder könnten zu ihrem Umgang miteinander interviewt werden und erzählen, ob und wie sie anderen helfen und wer von ihnen (und warum) anderen behilflich ist, was einem qualitativen Zugang entsprechen 108

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

würde. Werden beide Zugänge gewählt, um das Konstrukt „altruistisches Verhalten“ breiter und unter Einbezug verschiedener Informanten (Personen, die Daten/Informationen liefern) zu fassen, würde dies die Konstruktvalidität, d.h. die Güte der Operationalisierung des Konstrukts „altruistisches Verhalten“ erhöhen. Auf die sogenannten Gütekriterien empirischer Forschung wird in Kapitel 4.1.6 näher eingegangen. Auch Stichproben können qualitativer oder quantitativer Natur sein. Darauf wird im nächsten Abschnitt eingegangen. 4.1.5 Stichproben Da in einer empirischen Untersuchung normalerweise nicht alle möglichen Untersuchungsteilnehmenden (z.B. alle Schweizer Frauen) untersucht werden können, muss die Untersuchung an einer Stichprobe, d.h. einer Teilmenge aller möglichen Teilnehmenden, durchgeführt werden. Von den untersuchten Personen werden dann Rückschlüsse auf die Gesamtpopulation (d.h. die interessierende Personengruppe, hier eben die Gruppe der Schweizer Frauen) gezogen. Selbstverständlich soll die Gruppe der Personen, die für die Untersuchung letztlich ausgewählt wird, die interessierende Gesamtpopulation repräsentieren. Die Stichprobe muss repräsentativ für die entsprechende Gesamtpopulation sein, diese also bezüglich zentraler Merkmale möglichst gut abbilden. Soll in einer Untersuchung die Einstellung von Schweizer Frauen zur Vereinbarkeit von Mutterschaft und Erwerbsarbeit erhoben werden, so ist es entsprechend wichtig, z.B. nicht nur jüngere Frauen aus der Deutschschweiz zu befragen. „Eine Stichprobe ist dann repräsentativ, wenn das Auswahlverfahren keine Elemente der Population in Bezug auf die interessierenden Merkmale bevorzugt. Dies lässt sich durch Zufallsauswahl der Elemente einer Population in die Stichprobe erreichen“ (Beller, 2004, S. 87).

Eine zufällig zusammengesetzte Stichprobe (Zufallsstichprobe) gewährleistet, dass alle Personen die gleiche Chance haben, in die Stichprobe aufgenommen zu werden und keine systematischen Auswahlfehler gemacht werden. Repräsentativität für sich alleine sagt dabei nichts aus. Sie muss sich – wie in Bellers (2004) Definition dargelegt – auf zentrale, für die Fragestellung wichtige Merkmale der Untersuchungsobjekte (Proband/innen, sonstige Datenquellen) sowie der Kontexte, in welchen diese sich befinden, beziehen. Eine grosse Stichprobe, die sich jedoch bezügliche zentraler Merkmale von der Grundgesamtheit unterscheidet, auf die die Ergebnisse bezogen werden, birgt die Gefahr, dass die gewonnenen Daten ein verzerrtes Bild ergeben und so zu falschen Schlussfolgerungen führen. 109

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Der Einbezug einer kleinen, bezüglich der zentralen Merkmale sorgfältig ausgewählten und angemessen beschriebenen Stichprobe hilft, dieses Problem zu vermeiden (vgl. Bortz & Döring, 2003, S. 401). Eine möglichst grosse Stichprobe ist also nicht in jedem Fall „besser“. Bei der Untersuchungsplanung müssen daher folgende Fragen dargestellt und diskutiert werden: Für welche Population gelten die Untersuchungsergebnisse? Nach welchem Verfahren und aufgrund welcher Überlegungen wird die Stichprobe ausgewählt und die Stichprobengrösse festgelegt? Welche Einschränkungen bezüglich der Generalisierbarkeit der Ergebnisse bringt das gewählte Auswahlverfahren mit sich? (s. dazu auch Bortz & Döring, 2003, S. 483). Qualitative Studien kommen bereits mit sehr kleinen Stichproben aus. Eine im Laufe einer explorativen (erkundenden) Untersuchung aufgestellte Theorie kann somit anhand einer kleinen, laufend durch neue Fälle ergänzten Stichprobe überprüft werden. Dabei werden solche Teilnehmenden ausgewählt und miteinander verglichen, die eine oder mehrere interessierende Kategorien gemeinsam haben und hinsichtlich theoretisch bedeutsamer Merkmale entweder große Unterschiede oder Ähnlichkeiten zueinander aufweisen. Dieses Vorgehen wird als theoretical sampling bezeichnet (Glaser & Strauss, 1967; vgl. Kap. 7.2 „Qualitative Verfahren der Datenauswertung“). Wichtig für qualitative Studien ist die Auswahl einer möglichst heterogenen Stichprobe, um alle möglichen Probleme, Sichtweisen, Einstellungen etc. in der Stichprobe abzubilden. Um beispielsweise die Einstellungen der Dozierenden einer Pädagogischen Hochschule bezüglich wünschenswerter Persönlichkeitseigenschaften von Lehramtsstudierenden zu erheben ist es sinnvoll, Männer und Frauen, jüngere und ältere, Dozierende verschiedener Nationalitäten und aus den verschiedenen Fachbereichen (Sprachen, Naturwissenschaften etc.) mit einzubeziehen, um ein möglichst umfassendes Bild der vertretenen Einstellungen zu erhalten. Die Stichproben quantitativer Studien sollten dagegen möglichst gross sowie bezüglich zentraler Merkmale statistisch repräsentativ sein. Letzteres wird, wie bereits erwähnt, durch die Zufallsauswahl der Untersuchungsteilnehmenden erreicht. Es können jedoch nicht immer alle relevanten Merkmale in einer Population für die Stichprobenziehung systematisch berücksichtigt werden. So ist es möglich, dass die Merkmale einerseits nicht bekannt sind oder dass andererseits eine zu grosse Heterogenität der Merkmale und Bedingungen in einer Population vorherrscht. Daher ist es wichtig, die Kriterien für die Stichprobenauswahl informiert zu treffen, z.B. auf der Basis vorangegangener Studien oder unter Verwendung öffentlich zugänglicher statistischer Daten zu interessierenden Personengruppen. Wird eine genügend grosse Zu-

110

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

fallsstichprobe gezogen, kann davon ausgegangen werden, dass sie bezüglich zentraler, für die Studie relevanter Merkmale repräsentativ ist. Für verschiedene Arten und Anlagen von Studien (vgl. Kap. 4.1.6) finden sich in der einschlägigen Literatur Erfahrungswerte sowie – wenn die Art der einzusetzenden inferenzstatistischen Verfahren sowie die geschätzte Grösse des erwarteten Effekts bekannt sind – spezifische Formeln, anhand derer der optimale Stichprobenumfang berechnet werden kann (vgl. Kap. 7.5). Der optimale Stichprobenumfang bezeichnet dabei die „ideale“ Anzahl an (Versuchs-)Teilnehmenden, die nötig ist, um vorhandene Effekte (z.B. einen Zusammenhang zwischen der Einstellung gegenüber der Vereinbarkeit von Mutterschaft und Erwerbsarbeit und dem Alter der befragten Frauen) statistisch abgesichert zu entdecken und zugleich nicht mehr Personen zu befragen, als nötig (vgl. Bortz & Döring, 2003, S. 602 f.). In Kapitel 7.5 zur Prüfstatistik wird näher auf die Grundlagen der statistischen Überprüfung von Hypothesen eingegangen. Für die Ziehung einer Zufallsstichprobe gibt es verschiedene Vorgehensweisen und somit Stichprobenarten: die einfache Zufallsstichprobe, die geschichtete Zufallsstichprobe und die Klumpenstichprobe. Diese sollen kurz charakterisiert werden. Die genauen Vorgehensweisen sind ausführlich etwa bei Beller (2004) und Diekmann (2007) beschrieben. 1. Die einfache Zufallsstichprobe zeichnet sich dadurch aus, dass alle Mitglieder einer Population die gleiche Wahrscheinlichkeit haben, ausgewählt zu werden. Zufallsstichproben werden in einem Schritt, d.h. in einem „einstufigen Auswahlvorgang“ (Diekmann, 2007, S. 330) gezogen. Dies geschieht bereits, wenn beispielsweise Lose aus einem Hut gezogen werden. Eine einfache Zufallsstichprobe wird dann gezogen, wenn die Grundgesamtheit homogen in Bezug auf die interessierenden Merkmale sowie vollständig bekannt ist, z.B. wenn lückenlose Adresslisten vorliegen (vgl. Atteslander, 2006). Diekmann (2007) unterscheidet zwischen Listenauswahl und Flächenauswahl. Eine Listenwahl ist dann möglich, wenn ein vollständiges Verzeichnis sämtlicher Elemente der Grundgesamtheit existiert. Unter Verwendung von Zufallszahltabellen resp. – wenn das Verzeichnis elektronisch vorliegt – unter Verwendung einer Zufallszahlenfunktion auf dem Computer kann dann eine entsprechende Stichprobe gezogen werden. Bei einer Flächenauswahl (Gebietsauswahl) wird zunächst ein entsprechendes Gebiet festgelegt, innerhalb dessen auf der Basis eines Verzeichnisses der Elemente der Grundgesamtheit eine Zufallsauswahl getroffen wird. Damit handelt es sich eigentlich um ein zweistufiges Verfahren.

111

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Beispiel für die Ziehung einer einfachen Zufallsstichprobe (Listenauswahl). An einer Pädagogischen Hochschule soll untersucht werden, über welche wissenschaftlichen Vorkenntnisse die Studierenden im ersten Semester verfügen. Da alle 320 Studierenden über ein Email-Konto an der Hochschule verfügen, wird über eine nummerierte Liste der EmailAdressen mittels Zufallszahlenfunktion eine Auswahl von 60 Studierenden getroffen.

2. Ist die Grundgesamtheit bezüglich der zu untersuchenden Merkmale sehr heterogen, setzt sich also aus verschiedenen (homogenen) Teilmengen resp. Schichten zusammen, empfiehlt sich die Ziehung einer geschichteten Zufallsstichprobe (vgl. Atteslander, 2006). Innerhalb jeder Schicht wird eine einfache Zufallsstichprobe gezogen. Der/die Forschende kann auch bezüglich ausgewählter Variablen wie „Geschlecht“, „Alter“, „Ort“, „Schulbildung“ etc. Schichten bilden. Im nachfolgenden Beispiel beziehen sich die Schichten auf die „Art der Gemeinden“. Beispiel für die Ziehung einer geschichteten Zufallsstichprobe. Es soll untersucht werden, wie zufrieden die Eltern von Primarschulkindern (Erstklässler) eines Schweizer Kantons mit der Einführung von Blockzeiten, d.h. einem einheitlichen Unterrichtsbeginn und -ende sind. Dazu werden in der Gruppe der ländlichen Gemeinden, der Agglomerationsgemeinden und der städtischen Gemeinden per Zufallsauswahl je fünf Primarschulen ausgewählt. Jeweils zehn zufällig ausgewählte Elternpaare der dort in der ersten Klasse unterrichteten Kinder erhalten einen Fragebogen zum Ausfüllen.

3. Klumpenstichproben werden ähnlich wie geschichtete Zufallsstichproben auf der Basis einer ersten Auswahl von Gruppen (und allenfalls Untergruppen) innerhalb der Population gezogen. Anders als bei geschichteten Zufallsstichproben werden aber natürlich vorkommende Gruppen („Klumpen“) identifiziert, wie z.B. Universitäten, Fachbereiche, Schulen, Klassen etc. Innerhalb dieser ausgewählten Gruppen werden sämtliche Proband/innen ausgewählt. Im unten stehenden Beispiel beziehen sich die Klumpen auf die Strafanstalten. Beispiel für die Ziehung einer Klumpenstichprobe. Um die Wirkung eines AntiAggressionstrainings (Einzelcoaching) auf wegen Gewalttaten verurteilte Straftäter zu überprüfen, werden aus der Gruppe der Strafanstalten, an denen das spezifische Training angeboten wird, per Zufall drei Strafanstalten ausgewählt. Alle Teilnehmer des Trainigs werden vor, während und nach dem Training beobachtet.

Schliesslich muss festgehalten werden, dass bildungs- und sozialwissenschaftliche Studien auch oft mit sogenannten Anfalls- oder Gelegenheitsstichproben arbeiten (z.B. Diekmann, 2007). Das heisst, dass Proband/innen ausgewählt werden, die einfach zugänglich sind und keine aufwändige Stich112

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

probenziehung erfordern. An Universitäten durchgeführte gedächntnispsychologische Experimente werden z.B. häufig unter der Teilnahme von Studierenden durchgeführt. In solchen Fällen sind die gefundenen Ergebnisse nur mit Einschränkungen generalisierbar. Rückschlüsse darauf, inwieweit sich die gefundenen Effekte auf die interessierende Population verallgemeinern lassen, müssen daher mit Vorsicht gezogen werden. Forschende, welche Gelegenheitsstichproben verwenden, beschreiben diese normalerweise sorgfältig, um aufzuzeigen dass, obwohl eine Zufallsauswahl nicht möglich war, die Merkmale der Proband/innen diejenigen der Population oder zumindest eines beträchtlichen Teils der Population abbilden und die Ergebnisse somit verallgemeinerbar sind (vgl. McMillan & Schumacher, 2006). 4.1.6 Forschungsdesigns Der Begriff Forschungsdesign umschreibt den Plan für die Auswahl der Proband/innen, den Ort der Datenerhebung sowie die genauen Datenerhebungsmethoden, welche für die Beantwortung der Fragestellung/en erforderlich sind (vgl. McMillan & Schumacher, 2006). Im deutschen Sprachgebrauch werden auch die Begriffe Versuchsanlage oder Versuchsplan verwendet (vgl. Musahl & Schwennen, 2002). In wissenschaftlichen Arbeiten wird meist bei der Beschreibung der Methode in einem eigenen Unterkapitel das Design der Studie – sozusagen als Zusammenfassung der Versuchsanlage – dargestellt, oft verbunden mit einer oder mehreren Abbildungen. Abbildung 1 (S. 114) zeigt das Beispiel eines quasi-experimentellen (Längsschnitt-)Designs, welches in einer Interventionsstudie zum jugendlichen Vandalismus eingesetzt wurde (Gutzwiller-Helfenfinger, Flammer & Wicki, 2000). Im dargestellten Design erfahren die Schüler/innen der sogenannten Experimentalgruppe eine Intervention (Rollenspieltraining). Vor und nach der Intervention (also im Prä- und im Posttest) wird u.a. das selbst berichtete vandalistische Verhalten erfragt. Die Schüler/innen der sogenannten Kontrollgruppe werden lediglich im Prä- und Posttest befragt, ohne eine Intervention mitgemacht zu haben. Die Abbildung ist sehr einfach gehalten, d.h. das Design könnte bei Bedarf durch genauere Angaben ergänzt werden (z.B. Stichprobengrösse in Experimental- und Kontrollgruppe, genauere Angaben über die zeitliche Dauer der einzelnen Abschnitte, in Prä- und Posttest verwendete Instrumente etc.). Die einfache, schematische Darstellung sorgt jedoch dafür, dass die Versuchsanlage auf einen Blick deutlich wird, ohne durch unnötige Details abzulenken. Es gibt verschiedene Gruppen und Arten von Designs, wobei unterschiedliche Klassifikationen und z.T. auch Terminologien existieren. McMillan und Schumacher (2006) unterscheiden z.B. zwischen quantitativen, qualitativen

113

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

sowie methodisch gemischten („mixed methods“) Designs. Quantitative Designs umfassen experimentelle und nicht-experimentelle Designs, während qualitative in interaktive und nicht-interaktive Designs unterteilt werden. Methodisch gemischte Desings kombinieren quantitative und qualitative Methoden. Auf der nächsttieferen Gliederungsebene folgen dann jeweils die konkreten Designs. Diese Klassifikation geht also von übergeordneten Gruppen von Designs aus. Experimentalgruppe

Fortbildungskurs mit den Lehrpersonen Prätest

Kontrollgruppe



Prätest

Trainingsprogramm



Posttest

Posttest

→ Zeitachse →

Abbildung 1: Quasi-experimentelles Design der Vandalismusstudie (Gutzwiller-Helfenfinger, Flammer & Wicki, 2000). Diekmann (2007) ordnet die verschiedenen Forschungsdesigns ebenfalls Hauptgruppen zu, ergänzt seine Klassifikation aber um eine von den Daten ausgehende Sichtweise. So unterscheidet er zwischen Querschnittdaten, Zeitreihendaten, Paneldaten und Verlaufs- und Ereignisdaten, um auf verschiedene Zeitbezüge der Messwerte hinzuweisen. Damit rückt er, sozusagen in einem induktiven Schritt, die zu erhebenden Daten ins Zentrum, was für die Planung einer Untersuchung hilfreich ist. Statt sich nur zu fragen, wen man wann mit welchen Instrumenten und wie oft untersuchen will, lautet die Frage nun: Welche Daten sollen gewonnen werden und wie sehen diese aus? In einem nächsten Schritt kann dann aufgrund dieser Überlegungen ein erstes Design skizziert werden. Es ist nicht möglich, an dieser Stelle eingehend auf alle möglichen Forschungsdesigns, ihre Eigenschaften und Verwendung einzugehen. Stattdessen werden die wichtigsten Arten und Klassifikationen von Designs kurz erläutert. Vertiefte Darstellungen finden sich bei Diekmann (2007), McMillan und Schumacher (2006), sowie bei Schnell, Hill und Esser (2008).

114

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Beispiel für die Planung eines Forschungsdesigns „von den gewünschten Daten ausgehend“. Eine Forscherin möchte den Verlauf des Wohlbefindens von Lehrpersonen beim Berufseinstieg untersuchen und diesen mit dem Verlauf des Wohlbefindens von erfahrenen Lehrpersonen derselben Schule/n über einen zuvor festgelegten Zeitraum vergleichen. Ihr wird klar, dass sie dazu zu mehreren Zeitpunkten Daten erheben wird (Längsschnittdesign), dass ein systematischer Vergleich unter sogenannten Feldbedingungen – also in der natürlichen Umgebung und nicht in einem Forschungslabor – vorgenommen werden muss und die Proband/innen daher nicht zufällig den Untersuchungsgruppen (Berufseinsteigende versus erfahrene Lehrpersonen) zugeordnet werden können (quasi-experimentelles Design). Des Weiteren kann sie sich überlegen, ob beispielsweise die Grösse der Schule für das Wohlbefinden der Lehrpersonen, der Berufseinsteiger/innen und der erfahrenden Lehrpersonen, eine Rolle spielen könnte und sie die Schulgrösse deshalb mit berücksichtigen soll. In letzterem Fall erkennt sie, dass sie geeignete Indikatoren für die Grösse einer Schule finden (z.B. Anzahl Schüler/innen, Lehrpersonen, Einwohnerzahl der Gemeinde etc.) und auf deren Basis die Schulen in mindestens zwei Gruppen (grössere Schulen / kleinere Schulen) einteilen muss. Anhand dieser Überlegungen werden die ersten Eckpfeiler des zu erarbeitenden Designs für sie ersichtlich.

Forschungsdesigns lassen sich, wie bereits angesprochen, in unterschiedlicher Weise klassifizieren. Dies geschieht auf der Basis relevanter Dimensionen wie z.B. dem gewählten Forschungszugang (qualitative vs. quantitative vs. methodisch gemischte Designs), der Zeitperspektive der Untersuchung (Längsschnittdesigns mit mehreren Messzeitpunkten versus Querschnittdesigns mit nur einer Messung), dem Ausmass der Kontrolle der Untersuchungsbedingungen (experimentelle vs. nicht-experimentelle Designs) oder – bei qualitativen Designs – der Art der Datengewinnung (interaktive vs. nichtinteraktive Designs). Die Art der Datengewinnung bezieht sich bei interaktiven vs. nicht-interaktiven Designs darauf, ob die Daten aufgrund einer direkten, „face-to-face“-Interaktion in der natürlichen Umgebung der Proband/innen gewonnen oder ob Konzepte und Ereignisse auf der Basis von Dokumenten analysiert werden (McMillan & Schumacher, 2006; vgl. Tabelle 9, S. 116). Im Folgenden werden in einem Überblick qualitative und quantitative Forschungsdesigns genauer dargestellt, wobei beide Forschungszugänge Überschneidungsbereiche aufweisen. A) Qualitative Forschungsdesigns Interaktive Designs. Während ethnographische Studien sich mit der Beschreibung und Interpretation von kulturellen oder sozialen Gruppen und Systemen befassen, beschreiben phänomenologische Studien die Bedeutung erlebter Erfahrung, d.h. wie Personen erlebten Situationen und Erfahrungen Sinn und Bedeutung zuschreiben (z.B. auf der Basis tiefgründiger Inter-

115

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

views). In einer Fallstudie (auch Fallanalyse genannt) wird ein Fall (ein Programm, eine Person, eine Schulklasse etc.) unter der Verwendung verschiedenster Datenquellen detailliert über eine festgelegte Zeitspanne untersucht (vgl. Kap. 6.4 „Fallanalyse“). Tabelle 9: Qualitative Forschungsdesigns (in Anlehnung an McMillan & Schumacher, 2006) Interaktiv Ethnographische Studie Phänomenologische Studie Fallstudie Grounded Theory Kritische Studien

Nicht-interaktiv Konzeptanalyse Historische Analyse

Im Rahmen der Grounded Theory werden Daten als Basis für die Erarbeitung einer gehaltvollen Theorie zum untersuchten Gegenstand verwendet (vgl. Kapitel 7.2 „Qualitative Verfahren der Datenauswertung“). Kritische Studien bezeichnen einen Forschungszugang, der sogenannt „gängiger Forschung“ kritisch gegenüber steht, da dort die Machtstrukturen und -beziehungen, welche in den Datenerhebungsanlagen und -techniken implizit mitabgebildet werden, nicht hinterfragt und andere Arten von Wissen und Erkenntnis somit ausgeschlossen würden. Andere resp. ergänzende Perspektiven (feministische, ethnische, postmoderne Erklärungsansätze) werden bei diesem Zugang daher bewusst in den Forschungsprozess miteinbezogen. Nicht-interaktive Designs. Konzeptanalysen befassen sich mit der Untersuchung von Konzepten, wie z.B. dem pädagogischen Konzept des Kooperativen Lernens, um deren verschiedene Bedeutungen und den sich hieraus ableitenden Gebrauch zu beschreiben. Demgegenüber kennzeichnen historische Analysen zumeist die Sammlung, Beschreibung und methodisch geleitete Interpretation von Dokumenten, etwa um herauszuarbeiten, welche Wirkungen vergangener Ereignisse und Zustände von damals bis heute festzustellen sind. So könnten etwa Erziehungsvorstellungen aus verschiedenen Zeitabschnitten auf ihre gegenseitige Beeinflussung und ihre Auswirkung auf das Erziehungsverhalten von heute analysiert werden (vgl. McMillan & Schumacher, 2006). B) Quantitative Forschungsdesigns Quantitative Designs (vgl. Tabelle 10, S. 117) werden grundsätzlich in expe-

116

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

rimentelle versus nicht-experimentelle Designs unterteilt. Im Rahmen experimenteller Designs manipulieren/kontrollieren die Forschenden die Erfahrungen der Proband/innen, indem einige von ihnen eine Intervention erfahren (die sogenannte Experimental- oder Interventionsgruppe), während andere keine Intervention mitmachen (die sogenannte Kontrollgruppe, vgl. Abbildung 1, S. 114 zur Vandalismusstudie). „Echte“ experimentelle Designs müssen drei Bedingungen erfüllen (Diekmann, 2007). Erstens müssen mindestens zwei Gruppen von Versuchsteilnehmenden gebildet werden. Zweitens werden die Versuchspersonen den Gruppen zufällig zugewiesen (sogenannte Randomisierung). Und drittens werden die Versuchsbedingungen anhand mindestens einer unabhängigen Variablen manipuliert, d.h. die Gruppen anhand der unabhängigen Variable gebildet. Die abhängige Variable bezeichnet die Messung, also die Merkmalsvariable, die untersucht werden soll (vgl. Kap. 7.5.3 zu den hypothesenprüfenden Verfahren). Tabelle 10: Quantitative Forschungsdesigns (in Anlehnung an McMillan & Schumacher, 2006) Experimentelle Designs „Echte“ experimentelle Studie Quasi-experimentelle Studie Einzelfallstudie

Nicht-experimentelle Designs Beschreibende Studie Vergleichende Studie Korrelationsstudie Umfrage Ex post facto-Studie Sekundäranalyse

Unterscheidung zwischen unabhängiger und abhängiger Variable. „Wir unterscheiden abhängige und unabhängige Variablen und bringen damit zum Ausdruck, dass Veränderungen der einen (abhängigen) Variablen mit dem Einfluss einer anderen (unabhängigen) Variablen erklärt werden sollen (z.B. Dosierung eines Schlafmittels als unabhängige Variable und Schlafdauer als abhängige Variable)“ (Bortz & Döring, 2003, S. 6).

Quasi-experimentelle Designs (als Untergruppe der experimentellen Designs, vgl. obige Abbildung) unterscheiden sich in einem wesentlichen Punkt von den echten experimentellen Designs: Die Proband/innen werden nicht zufällig den Versuchsbedingungen (unabhängige Variable) zugeordnet. Im oben genannten Beispiel zum Verlauf des Wohlbefindens von berufseinsteigenden versus erfahrenen Lehrpersonen können die Lehrpersonen nicht zufällig den Bedingungen („berufseinsteigend“ vs. „erfahren“) zugeordnet werden, sie bringen die entsprechende Ausprägung auf der unabhängigen Variablen

117

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

schon mit. Einzelfallstudien (als weitere Untergruppe der experimentellen Designs), die aufgrund der Zielrichtung einer umfassenden Beschreibung des (Einzel-)Falls zumeist eher der Kategorie der qualitativen Zugänge zuzuordnen sind, werden dann durchgeführt, wenn es nicht möglich, praktikabel oder von der Fragestellung her gefordert ist, Gruppen von Proband/innen zu untersuchen. Dabei werden Methoden spezifiziert, welche bei einem einzelnen oder einigen wenigen Individuen verwendet werden können. Wie bei quasiexperimentellen Studien wird aber keine Randomisierung, d.h. zufällige Zuordnung der Proband/innen zu den Versuchsbedingungen, vorgenommen (vgl. Diekmann, 2007; McMillan & Schumacher, 2006). Nicht-experimentelle Forschungsdesigns beschreiben Ereignisse, die sich (bereits) zugetragen haben und untersuchen Zusammenhänge oder Unterschiede, ohne dass sie die Bedingungen, innerhalb derer die Erfahrungen gemacht werden, manipulieren. Während deskriptive Designs einfach eine zusammenfassende Beschreibung eines Phänomens ansteuern, werden in vergleichenden Studien Unterschiede zwischen zwei oder mehreren Gruppen bezüglich des interessierenden Phänomens untersucht. So könnte z.B. der Unterschied zwischen Männern und Frauen bezüglich ihrer Einstellung gegenüber Körperstrafen untersucht werden. Korrelationsstudien befassen sich mit dem Zusammenhang zwischen zwei oder mehreren Phänomenen und verwenden normalerweise das inferenzstatistische Verfahren der Korrelationsanalyse (vgl. Kap. 7.4.4 zur Produkt-Moment-Korrelation und Kap. 7.5.3 zu den hypothesenprüfenden Verfahren). Umfragen bezeichnen Studien, in welchen anhand von Fragebögen oder Interviews Einstellungen, Haltungen, Meinungen und andere Arten von Informationen erfragt werden. In einem expost-facto-Design werden mögliche Zusammenhänge zwischen Phänomenen als Resultat vorangegangener, interessierender Faktoren oder Einflüsse untersucht. Dabei werden zwei oder mehrere Stichproben, die sich nur bezüglich eines festgelegten Faktors (z.B. das Ereignis „Bestehen der Bachelorprüfung im ersten Anlauf“) unterscheiden, miteinander verglichen. Die zu möglichen Unterschieden führenden Faktoren gehören dabei zur Zeit der Datenerhebung bereits der Vergangenheit an. Beispielsweise kann untersucht werden, ob Kinder, die aus ähnlichen Familienverhältnissen stammen, sich bezüglich Schulreife unterscheiden, je nachdem, welche Art von Tagesbetreuung sie besucht haben (vgl. McMillan & Schumacher, 2006). In einer Sekundäranalyse schliesslich werden Daten analysiert, die durch andere Forschende bereits einmal erhoben wurden. Oft werden dazu grosse, z.B. in nationalen Studien erhobene Daten verwendet (vgl. McMillan & Schumacher, 2006).

118

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Gütekriterien empirischer Forschung: Sowohl für quantitative als auch für qualitative empirische Forschung resp. die im Forschungsprozess enthaltenen Teilbereiche sind sogenannte Gütekriterien, also Qualitätskriterien, formuliert worden. Die drei grundlegenden Bereiche von quantitativen Gütekriterien, die sogenannten Gütekriterien der Messung (Diekmann, 2007), umfassen die Objektivität, die Reliabilität (Zuverlässigkeit) und die Validität (Gültigkeit). Auf diese wird im folgenden Abschnitt kurz eingegangen. Ausführlichere Darstellungen finden sich z.B. bei Bortz und Döring (2003), Diekmann (2007), McMillan und Schumacher (2006) sowie Schnell et al. (2008). Die Gütekriterien qualitativer Forschung werden in Kapitel 7.2.4 dargestellt. Basis für die hier dargestellten Gütekriterien ist die klassische Testtheorie, welche an einem naturwissenschaftlichen Messmodell orientiert ist und annimmt, dass „das Testergebnis direkt dem wahren Ausprägungsgrad des untersuchten Merkmals entspricht, dass aber jedes Testergebnis zusätzlich von einem Messfehler überlagert ist“ (Bortz & Döring, 2003, S. 192). Ein Testwert einer Person in einem Fragebogen, z.B. die Angabe „5“ auf die Frage, wie viele Stunden sie innerhalb der letzten sieben Tage fern gesehen hat, repräsentiert damit die wahre Ausprägung (hier Anzahl Stunden) auf diesem Merkmal „Fernsehen innerhalb der letzten sieben Tage“ zuzüglich einer Fehlerkomponente, die eine Abweichung nach unten (eigentlich waren es 6 Stunden) oder nach oben (eigentlich waren es nur vier Stunden) beinhaltet. Abweichungen können auftreten, weil z.B. die Person bei der Befragung müde und unkonzentriert war, die Frage ungeschickt gestellt war, die Bedingungen zum Ausfüllen des Fragebogens ungünstig waren, weil zu wenig Zeit zur Verfügung stand etc. Um einschätzen zu können, wie gut ein Messinstrument (Fragebogen, Leistungstest, Intelligenztest etc.) resp. die damit durchgeführte Messung den „wahren“ Sachverhalt erfasst und abbildet, wird die Testgüte anhand geeigneter Verfahren beurteilt bzw. berechnet. Eine vertiefende Darstellung der Grundannahmen der klassischen Testtheorie sowie der Gütekriterien und der Möglichkeiten ihrer Überprüfung findet sich beispielsweise bei Lienert und Ratz (1998) oder Anastasi und Urbina (1997). 1. Objektivität. Die Objektivität eines Messinstruments bezieht sich auf die Unabhängigkeit der Messergebnisse von der Person, die die Messung durchführt. Es sollte also keine Rolle spielen, wer einen Test durchführt (Durchführungsobjektivität) resp. wer die Resultate auswertet (Auswertungsobjektivität) oder interpretiert (Interpretationsobjektivität). Die Ergebnisse sollten immer dieselben sein. Als statistisches Mass der Übereinstimmung der Messungen wird der Korrelationskoeffizient verwendet, dessen Werte sich zwischen 0 (keine Übereinstimmung resp. kein Zusam-

119

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

menhang) und 1 (perfekte Übereinstimmung resp. perfekter Zusammenhang) bewegen (z.B. Diekmann, 2007; vgl. Kap. 7.4.4). 2. Reliabilität. Geht es darum festzuhalten, wie zuverlässig oder präzise ein Instrument ein Merkmal misst, so wird die Reliabilität oder Messgenauigkeit ermittelt. Eine perfekte Reliabilität würde bedeuten, dass bei der Messung kein Messfehler auftritt, was in der Praxis nie der Fall sein kann, da, wie bereits erwähnt, Proband/innen müde oder unkonzentriert sein können, Messgeräte (z.B. zur Messung der Herzfrequenz) technischen Störungen unterliegen können etc. Als Mass der Reproduzierbarkeit der Messergebnisse wird der Korrelationskoeffizient, ein Mass für die Höhe des Zusammenhangs zwischen zwei Variablen (vgl. Kap. 7.4) verwendet. Üblicherweise werden drei Arten der Reliabilität unterschieden: die RetestReliabilität (derselbe Test wird derselben Stichprobe innerhalb eines Zeitintervalls zweimal vorgelegt), die Paralleltest-Reliabilität (dieselbe Stichprobe wird mit zwei vergleichbaren Messinstrumenten untersucht) und die Split-Half-Reliabilität (der Test wird nach der Durchführung in zwei Hälften aufgeteilt; auch Testhalbierungs-Reliabilität genannt). Bei der internen Konsistenz wird überprüft, wie hoch Indikatoren, die dasselbe Konstrukt abbilden, zusammenhängen, dieses Konstrukt also „en bloc“ (als Skala) abbilden. 3. Validität. Das wichtigste Testgütekriterium ist die Validität. Sie gibt an, „ob ein Test das misst, was er messen soll bzw. was er zu messen vorgibt“ (Bortz & Döring, 2003, S. 199). Der reliabelste Test kann unbrauchbar sein, wenn er etwas anderes misst, als er zu messen verspricht. Die Inhaltsvalidität („face validity“, Augenscheinvalidität, logische Validität) bezieht sich darauf, ob der Inhalt des Tests das zu messende Konstrukt in seinen wichtigsten Aspekten erfasst. Soll ein Interview zu aggressivem Verhalten durchgeführt werden und es tauchen im Interview keine Fragen zu solchen Verhaltensweisen auf, so ist das Interview nicht inhaltsvalide. Bei der Kriteriumsvalidität wird überprüft, in welchem Grad die mit einem Messinstrument erzielten Resultate mit anderen relevanten Merkmalen (mit denen ein Zusammenhang erwartet werden kann) in einem statistisch messbaren Zusammenhang stehen (z.B. Eignung für das Lehramtsstudium und Studienerfolg). Die Konstruktvalidität bezieht sich auf die „Brauchbarkeit von Messinstrumenten für die Entwicklung von Theorien“ (Diekmann, 2007, S. 224). Können aus dem zu messenden Zielkonstrukt Hypothesen abgeleitet werden, welche anhand der Testwerte bestätigt werden, so ist ein Test oder Messinstrument konstruktvalide (vgl. Bortz & Döring, 2003, S. 200). Mit Ausnahme der Inhaltsvalidität wird die Validität anhand

120

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

von Korrelationskoeffizienten ermittelt. Empirische Untersuchungen, welche in wissenschaftlichen Zeitschriften veröffentlicht werden, enthalten in der Methodenbeschreibung immer Angaben zu den für die Messung relevanten Gütekriterien. Exzerpt aus dem Methodenteil eines wissenschaftlichen Artikels. Berkeley Puppeninterview Alle Kinder wurden individuell in separaten Räumen ihres Kindergartens oder zu Hause von intensiv trainierten Psychologinnen untersucht. Die Interviews wurden wie oben beschrieben durchgeführt und ausgewertet. In der vorliegenden Studie wurden unter anderem psychopathologische Symptome erfasst. Die Skalen und Beispielitems sind in Tabelle 2 zu finden. Die Interrater-Reliabilität war sehr hoch (durchschnittliche Intraclass-Korrelation = .95). Die internen Konsistenzen der sechs Symptomskalen (Depressivität, Trennungsangst, Überängstlichkeit, Oppositions-/Trotzverhalten, Aggressivität, Impulsivität/Hyperaktivität) waren zufriedenstellend bis gut (Cronbach-α: 0.45–0.73). Quelle: Perren, S. & von Klitzing, K. (2008). Untersuchung von Kindergartenkindern mit einem Puppeninterview: Bedeutsamkeit und Anwendung. Kinder- und Jugendmedizin, 8(1), 25-30.

Im oben angeführten Exzerpt wird mit der Interrater-Reliabilität angegeben, inwieweit verschiedene Auswerter/innen beim Auswerten des Interviews auf dieselben Ergebnisse kamen (vgl. Auswertungsobjektivität oben). Bei der internen Konsistenz wird darauf eingegangen, inwieweit die verschiedenen Indikatoren für die einzelnen Konstrukte (z.B. Depression) inhaltlich zusammenhängen.

4.2 Literatursuche und Beschaffung von Literatur Um eine Untersuchungsidee einzugrenzen, eine lohnende Fragestellung zu formulieren und die geeigneten Indikatoren und Operationalisierungen abzuleiten, ist es notwendig, den aktuellen Stand der Forschung in diesem Bereich zu kennen und ihn genügend präzise zu erfassen, auch um verwandte Bereiche abgrenzen zu können. Die Ausführungen in den folgenden Unterkapiteln stellen dar: 1. Welche Informationen man aus welchen Quellen erhält, 2. wie die relevanten Quellen für eine Forschungsfrage gefunden werden, 3. wie man diese Quellen beschaffen kann, 4. wie Literatur verarbeitet wird und 5. wie Literaturverweise, Zitate und Literaturverzeichnisse gestaltet werden.

121

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Im Rahmen der gesamten Literaturrecherche fliessen diese Arbeitsschritte ineinander über. Zur Einführung werden die einzelnen Aspekte einer Literaturrecherche getrennt dargestellt. Die Begriffe Quelle, Literatur resp. Quellen- bzw. Literaturverzeichnis werden im Folgenden synonym verwendet, auch wenn in manchen Fachdisziplinen, so z.B. in den Geschichtswissenschaften, mit dem Begriff der Quelle jeweils ein Primärtext, z.B. eine historische Urkunde, bezeichnet wird. 4.2.1 Quellen finden und bewerten Unterschiedliche Arten von Quellen helfen, sich in ein Thema einzulesen, dieses einzugrenzen und später eine Fragestellung zu entwickeln. Im Folgenden werden die für wissenschaftliches Arbeiten in den Bildungswissenschaften relevanten Quellen und ihre wichtigsten Charakteristika dargelegt. Während Lehrbücher, Lexika und Handwörterbücher dazu dienen, sich einen Überblick zu einem Thema zu verschaffen, finden sich neueste Erkenntnisse in Fachzeitschriften und aktuellen Forschungsberichten sowie Dissertations- oder Habilitationsschriften. Ein Lehrbuch erlaubt die erste Orientierung in einem Themengebiet. Lehrbücher werden von einzelnen oder mehreren Autor/innen verfasst. In ihnen wird der allgemein anerkannte Wissensstand zu einem Themengebiet dargestellt. Neuere, auch kontrovers diskutierte Forschungsfragen und aktuellere Untersuchungsergebnisse sind kaum aufgeführt. Die Quellennachweise zur zitierten Literatur in den Lehrbüchern geben Ansatzpunkte für die weitere Literatursuche. Das (Fach-)Lexikon bietet alphabetisch geordnete, zu vielen Stichworten auf wenige Zeilen zusammengefasste Kurzbeiträge. Diese stark verdichteten Informationen sind sehr knapp gehalten und enthalten Hinweise auf zentrale Begriffe und Themen. Somit helfen sie bei einer ersten begrifflichen Orientierung. Offene online-Lexika wie z.B. Wikipedia enthalten Informationen zu den verschiedensten Fachgebieten (de.wikipedia.org/wiki/Wikipedia: Hauptseite). Die Beiträge werden von freiwilligen Autorinnen und Autoren kostenlos verfasst, wobei deren fachlicher Hintergrund und Qualifikation nicht direkt ersichtlich sind. Wikipedia ist auf der ganzen Welt frei zugänglich. Die Gemeinschaft der „Wikipedianer“ kontrolliert und ergänzt die Beiträge fortlaufend. Nur wer sich in einem Fachgebiet bereits auskennt, kann erkennen, wie seriös (d.h. umfassend, fachlich relevant und inhaltlich korrekt) die einzelnen Beiträge sind. Wie andere Nachschlagwerke und Lexika dienen die Beiträge auf Wikipedia einer ersten allfälligen Orientierung und können die vertiefte Auseinandersetzung mit einschlägiger Literatur keinesfalls ersetzen.

122

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Ein Handwörterbuch lässt sich zwischen Fachlexikon und Fachenzyklopädie einordnen. Im Handwörterbuch Pädagogische Psychologie (Rost, 1998) geben etwa 5-seitige Artikel eine Übersicht zu den einzelnen Stichworten. Die Artikel, von anerkannten Expertinnen und Experten verfasst, sind alphabetisch von A („Anlage und Umwelt“) bis Z („Zielorientierung“) geordnet. Die Fachenzyklopädie ist eine hilfreiche Quelle, um einen genaueren Einblick in ein Thema zu erhalten. Enzyklopädien haben den Anspruch, den wissenschaftlichen Fortschritt eines Faches oder Fachgebietes resp. seinen aktuellsten Stand zu dokumentieren und dienen als Orientierungs- und Nachschlagwerke. Sie können aus mehreren, thematisch gegliederten Bänden oder gar Serien bestehen. Die Enzyklopädie der Psychologie (Hogrefe Verlag) umfasst beispielsweise 25 Serien, die vier Themenbereichen zugeordnet sind. Jede dieser Serien umfasst einen oder mehrere Einzelbände. Die Herausgeberschaft arbeitet mit Expertinnen und Experten für einzelne Themenbereiche zusammen. So findet sich beispielsweise in der Enzyklopädie der Psychologie im Themenbereich C: Theorie und Forschung Serie II: Kognition. Band G: Wissenspsychologie ein Artikel von Reusser (1998), in welchem Theorieentwicklung und Forschungsstand im Bereich des Aufbaus von Wissen und der Entwicklung von Denkstrukturen beschrieben werden. In Fachzeitschriften werden aktuelle Forschungsergebnisse publiziert und diskutiert, neue Ansätze vorgestellt und Theorien besprochen sowie neue Bücher rezensiert. (Öffentliche) Bibliotheken veröffentlichen Listen mit den dort erhältlichen Fachzeitschriften. Immer häufiger sind Fachzeitschriften auch elektronisch zugänglich. Um ein Thema vertieft zu erfassen, bieten sich auch Monographien an. Monographien sind Bücher zu einem Spezialgebiet, welche von der angeführten Autorenschaft verfasst wurden und nicht wie Herausgeberwerke auch Beiträge weiterer Autorinnen und Autoren enthalten. Dissertationen und Habilitationsschriften sind ebenfalls Monographien. Erstere werden durch Universitätsbibliotheken zunehmend auch online veröffentlicht. Zu einem spezifischen Themenbereich ermöglichen zudem Sammel- oder Herausgeberwerke einen vertieften Einblick. Verschiedene Autorinnen und Autoren werden vom Herausgeber angefragt, ihren spezifischen Beitrag zum Themenbereich darzustellen. Weinert (2002) als Herausgeber gibt beispielsweise im Sammelband Leistungsmessungen in Schulen einen Überblick über den Stand der Diskussion, weitere Autorinnen und Autoren beleuchten die Thematik aus verschiedenen Perspektiven und stellen unterschiedliche Studien vor.

123

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Mit der Bearbeitung der genannten Quellen in der Orientierungsphase (vgl. weiter unten), kann die Fragestellung in ein theoretisches Umfeld gestellt werden. Begriffe werden definiert, Konstrukte differenziert, erste Eingrenzungen im Thema können vorgenommen werden. Zudem werden Stichworte für die weitere Literaturrecherche identifiziert. Anleitung. Die Suche nach relevanten Informationen in geeigneten Quellen und das Verarbeiten der gefunden Literatur sind miteinander verbundene Aktivitäten im Forschungsprozess. Die Schritte von Literaturrecherche, Literaturbeschaffung und Literaturverarbeitung werden normalerweise mehrfach durchlaufen, bevor ein guter Ein- und Überblick in die für einen Themenbereich relevante Literatur gewonnen ist. Bei der Suche nach Informationen für die Entwicklung einer Fragestellung lassen sich zwei Phasen unterscheiden: Die Orientierungs- und die Vertiefungsphase (Bortz & Döring, 2003). In den beiden Phasen (vgl. Tabelle 11, S. 125) sind unterschiedliche Informationsträger hilfreich. 1. Phase: Sich im Thema orientieren. Mit Hilfe von Lehrbüchern, Handwörterbüchern und Fachenzyklopädien wird ein Einblick in die Thematik gewonnen. Die gefundenen Quellen werden verarbeitet, wobei von Anfang an die entsprechenden Quellenangaben festgehalten sowie zentrale Begriffe und Autoren für die weitere Literaturrecherche notiert werden. 2. Phase: Sich im Thema vertiefen. Mit Hilfe von vertiefender Literatur können Theorieansätze unterschieden, Begriffe definiert und schliesslich die Fragestellung eingegrenzt bzw. präzisiert werden. Im Laufe des Forschungsprozesses erfolgen weitere, ergänzende Recherchen. Je intensiver man sich mit einer Thematik auseinandersetzt, umso vielfältiger werden die Sichtweisen, die dann genauer unterschieden und miteinander verglichen werden können. Vertiefung. Die oben angeführten Quellen werden in Primär- und Sekundärliteratur unterteilt. Sekundärliteratur umfasst jene Quellen, welche einen Überblick über den aktuellen Stand der Forschung (theoretisch und empirisch) geben. Diese Art der Literatur lässt viele der Einzelheiten von Primärliteratur aus (z.B. wie die Stichprobe zusammengesetzt war, wie die eingesetzten Methoden genau aussahen usw.) und enthält eine Fülle von Quellenangaben (McMillan & Schumacher, 2006). Beispiele von Sekundärliteratur sind Monographien, Artikel in (Fach-) Enzyklopädien und Handwörterbüchern sowie in Fachzeitschriften, welche Übersichtsartikel enthalten (sogenannte Reviews). Online-Bibliothekskataloge

124

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

(z.B. von Universitätsbibliotheken) sowie elektronische Datenbanken sind gute erste Ausgangspunkte, um Sekundärliteratur zu finden. Primärliteratur umfasst empirische Studien, Forschungsberichte, offizielle Berichte seitens Institutionen (auch nationale Berichte) und wissenschaftliche Monographien wie Dissertationen und Habilitationsschriften (McMillan & Schumacher, 2006). Elektronische Stichwortverzeichnisse (Indizes) mit einer Kurzzusammenfassung („abstract“) sowie direkten Verweisen darauf, wo das Original lokalisiert werden kann, sind die wichtigsten Quellen, um Primärliteratur zu lokalisieren. Die meisten dieser Stichwortverzeichnisse sind im Internet zu finden (z.B. ERIC Database, FIS Literaturdatenbank oder PsycINFO). Tabelle 11: Unterschiedliche Informationsträger in der Orientierungs- und Vertiefungsphase der Informationssuche Phasen der Informationssuche Orientierungsphase

Vertiefungsphase

Hilfreiche Quellen (Fach-)Lexika (auch online) Lehrbücher Handwörterbücher Fachenzyklopädien/Handbücher Fachenzyklopädien/Handbücher Herausgeber-/Sammelwerke Monographien Fachzeitschriften

4.2.2 Literatursuche und -beschaffung Um sich einen Überblick in die für die eigene Forschungsfrage wichtige wissenschaftliche Literatur zu verschaffen, gilt es, anhand informierter Schritte die relevanten Quellen zu recherchieren und zu konsultieren. Da wissenschaftliches Arbeiten normalerweise auch mit einer Form der Dokumentation oder Berichtlegung verbunden ist, kommt den Ergebnissen von Literatursuche und Literaturstudium – dem Verfassen einer Übersicht über die einschlägige Literatur – somit eine weitere, zentrale Funktion zu. Die folgenden Abschnitte behandeln Ziel und Funktion von Literatursuche und Literaturstudium, Fragen der Angemessenheit von Quellen sowie die einzelnen Schritte der konkreten Recherche. Ziel und Funktion von Literatursuche und -studium. McMillan und Schumacher (2006) identifizieren sechs Ziele beim Verfassen einer Übersicht über die einschlägige Literatur zu einem Thema (vgl. Kap. 8.1 zum Verfassen eines empirischen Untersuchungsberichts):

125

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

1. Das Eingrenzen und Definieren des Themas hilft, sich mit den wichtigsten Arbeiten im Themenbereich vertraut zu machen und zu sehen, wie breit und tief er bereits erforscht wurde. Auf diese Art kann eine erste Präzisierung einer generellen Forschungsidee erfolgen. 2. Das Festlegen eines Blickwinkels und das Platzieren der Untersuchung in einer (forschungs-)historischen Perspektive dienen dazu, den Wissens- und Erkenntnisfortschritt zu dokumentieren und den einzigartigen Beitrag der eigenen Untersuchung darzulegen. 3. Das Vermeiden unnötiger Replikationen bezieht sich darauf, zu wissen, was bereits wie untersucht wurde, um nur dann, wenn dies beabsichtigt ist, eine bereits bestehende Untersuchung mit einer neuen Stichprobe zu wiederholen. 4. Die Literatursuche dient auch dazu, Erfolg versprechende methodische Zugänge für die eigene Untersuchung zu identifizieren. D.h. welche Instrumente, welche Stichproben und Arten ihrer Ziehung etc. wurden bereits mit welchem Erfolg eingesetzt? Dies hilft, den eigenen methodischen Zugang zu schärfen sowie diesen angemessen einzuordnen und zu begründen. 5. Die Resultate einer Studie werden aufgrund des Wissens um den aktuellen Erkenntnisstand in diesen eingebettet und dargelegt, wie die geplante eigene Studie dieses Wissen erweitert. Gleichzeitig enthält sie normalerweise auch Hinweise darauf, welche zukünftige Forschung zu erbringen ist, um offen gebliebene Fragen zu klären. Diese Hinweise können wertvolle Informationen dazu liefern, wo und wie eine eigene Fragestellung platziert werden kann. 6. Schliesslich besteht ein weiterer Zweck der Literaturrecherche darin, das Formulieren eigener spezifischer Fragestellungen und Forschungshypothesen aufgrund früherer Befunde zu begründen. So können diese im theoretischen Teil einer Berichtlegung (Artikel, Forschungsbericht) genau hergeleitet und begründet werden. Zur Angemessenheit von Primär- und Sekundärliteratur. Das Internet ist zu einem wichtigen Mittel der Informationsbeschaffung geworden. Beim Durchforsten des World Wide Web – vor allem, wenn keine einschlägigen wissenschaftlichen Datenbanken und Bibliothekskataloge verwendet werden, – wird man jedoch mit einer riesigen Fülle von Informationen konfrontiert, deren Qualität z.T. unklar ist. Zudem besteht normalerweise in intensiv beforschten Gebieten und Themenbereichen bereits eine grosse Fülle an elektronisch und auf Papier publizierter Literatur, was die Auswahl der für die

126

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

eigene Arbeit relevanten Quellen und Literatur erschwert. Deshalb ist es vor allem für die Arbeit mit Primärliteratur wichtig, sich neben dem generellen Wissen um relevante wissenschaftliche Quellen auch im entsprechenden Fachbereich darüber zu informieren, welches beispielsweise gute wissenschaftliche Zeitschriften oder Buchverlage sind, um sicher zu gehen, dass man möglichst nur die relevanteste Literatur vertieft liest und verarbeitet. Im Falle von wissenschaftlichen Zeitschriften ist es beispielsweise im Bereich der psychologischen Literatur (vor allem englischsprachigen Literatur) angebracht, zu schauen, ob die Beiträge vor ihrer Veröffentlichung einer externen Begutachtung („peer review“) unterzogen werden. Dies bedeutet, dass zwei bis drei einschlägige Fachpersonen einen Artikel kritisch begutachten, allenfalls Überarbeitungen verlangen oder ihn gar ablehnen. Meist geschieht dies blind, d.h. weder die Begutachtenden noch die Autor/innen wissen um die Identität der jeweils anderen Seite. Es lohnt sich auch, elektronisch auf der Homepage oder im Impressum einer Zeitschrift oder eines Buchverlags resp. einer Buchreihe eines Verlags, Ziel, Zweck sowie Zielpublikum der entsprechenden Publikation/en nachzulesen. Auf diese Weise kann man sich ein genaueres Bild der Zeitschrift oder Buchreihe und somit auch der darin publizierten Beiträge machen. So ist beispielsweise die Zeitschrift Diagnostica eine gute Quelle, um deutschsprachige einschlägige Literatur zu psychologischen Tests und Untersuchungsmethoden zu identifizieren. Zum Vorgehen einer konkreten Literaturrecherche. Die einzelnen Hauptschritte bestehen in der Vorbereitung der Literaturrecherche, der Eingabe von Suchbegriffen in Suchmaschinen, in Bibliothekskatalogen und Literaturdatenbanken. A) Vorbereiten einer gezielten Suche. Bevor mit der eigentlichen Literatursuche begonnen wird, sollte genug Zeit in die Vorbereitung der Suche investiert werden. So empfiehlt es sich, eine Liste mit stichwortartigen Suchbegriffen zusammenzustellen, die das Thema der wissenschaftlichen Arbeit möglichst umfassend umschreiben. Ob bei einer Recherche rasch die gewünschte Literatur gefunden wird, hängt stark davon ab, wie gut die verwendeten Stichwörter das Suchthema umschreiben. Natürlich fällt es leichter, geeignete Stichwörter zu finden, wenn man sich im betreffenden Fachgebiet bereits auskennt. Oft ist es jedoch so, dass man sich in das Thema einer wissenschaftlichen Arbeit neu einarbeiten muss. Wie also findet man die am besten geeigneten Suchbegriffe für die Recherche? In einem ersten Schritt teilt man die wissenschaftliche Fragestellung in ver-

127

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

schiedene Teilaspekte ein. Dazu bestimmt man dann einen Hauptsuchbegriff für jeden dieser Teilaspekte. Für jeden Teilaspekt sammelt man möglichst viele alternative Suchbegriffe, wie z.B. Synonyme, Oberbegriffe, Unterbegriffe oder sinnverwandte Wörter (vgl. Beispiel unten). Will man in englischen Datenbanken recherchieren, so müssen die Suchbegriffe ins Englische übersetzt werden, wobei der Einsatz eines Deutsch-Englischen Wörterbuchs empfehlenswert ist (z.B. von Langenscheidt oder online unter www.leo.org). Beispiel: Hauptsuch-Begriffe identifizieren und mögliche Suchbegriffe auflisten Das Forschungsthema „Die Bedeutung unterschiedlicher Unterrichtsmethoden in der Grundschule“ enthält zwei Hauptsuchbegriffe.

Suchbegriff Synonyme Oberbegriffe Verwandte Begriffe Englischer Begriff

Hauptsuchbegriff 1 Unterrichtsmethode Lehrmethode Unterricht Unterrichtsform teaching method

Hauptsuchbegriff 2 Grundschule Primarschule

primary school elementary school

B) Eingabe von Suchbegriffen in Suchmaschinen. Ein einzelner Suchbegriff reicht für eine erfolgreiche Suchabfrage oft nicht aus. Erscheinen zu viele Treffer, war der Suchbegriff womöglich zu weit gefasst und muss unter Einbezug von ergänzenden Begriffen eingeengt werden. Idealerweise arbeitet man mit mehreren Suchbegriffen, was bedeutet, dass diese Suchbegriffe miteinander logisch verknüpft, also verbunden werden können. So kann etwa im obigen Beispiel der Begriff Grundschule einmal mit dem Begriff Unterrichtsmethode, dann mit dem Begriff Lehrmethode und schliesslich mit dem Begriff Unterricht verknüpft werden. Eine Suchmaschine ist ein Programm zur Recherche von Dokumenten, die in einem Computer oder einem Computernetzwerk (wie z.B. dem World Wide Web) gespeichert sind. Nach Eingabe eines Suchbegriffs liefert eine Suchmaschine eine Liste von Verweisen auf möglicherweise relevante Dokumente, meistens dargestellt mit Titel und einem kurzen Auszug des jeweiligen Dokuments.

Am häufigsten werden die Bool’schen-Operatoren AND/OR/NOT oder ihr deutsches Pendant benutzt, um verschiedene Suchbegriffe miteinander zu kombinieren.

128

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

AND (bzw. UND) wird benutzt, wenn Dokumente gesucht werden, in denen alle eingegebenen Suchbegriffe zwingend vorkommen sollen. Diese Verknüpfung wird bei den meisten Suchmaschinen (z.B. Google) standardmässig verwendet. OR (bzw. ODER) benutzt man, wenn Dokumente gesucht werden, in denen entweder der eine oder der andere Begriff oder beide Begriffe vorkommen sollen. NOT (bzw. NICHT) wird eingesetzt, wenn ein oder mehrere Suchbegriffe vorkommen sollen, gleichzeitig aber ein bestimmter Suchbegriff ausgeschlossen werden soll. Kommt der auszuschliessende Suchbegriff in einem Dokument vor, wird dieses nicht als Treffer angezeigt. Die Benutzung von Operatoren wird am nachfolgenden Beispiel verdeutlicht: Tabelle 12: Beispiele Verknüpfungs-Operatoren Logische Kombination Grundschule AND Unterrichtsmethode

Resultat sind Webseiten und Dokumente … … in denen die Suchbegriffe Grundschule und Unterrichtsmethode zwingend vorkommen.

Grundschule OR Unterrichtsmethode

… in denen mindestens einer der Suchbegriffe vorkommt oder in denen beide Suchbegriffe vorkommen.

Grundschule NOT Unterrichtsmethode

… in denen der Suchbegriff Grundschule aber nicht der Suchbegriff Unterrichtsmethode vorkommt.

Schnittmenge

Diese drei Operatoren lassen sich auch sinnvoll miteinander in der gleichen Suche kombinieren. Beispielsweise ist die Kombination von UND/ODER vor allem geeignet, wenn man verschiedenen Begriffe kombinieren, aber gleichzeitig auch nach Synonymen suchen möchte. Dabei sollte in zwei Schritten vorgegangen werden: Zunächst werden alle Begriffe, die in der Wortliste in einer Spalte untereinander stehen, mit dem Operator ODER verknüpft. Dies ergibt als Zwischenergebnis mehrere Begriffsketten resp. potenzielle Tref-

129

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

fermengen, die recht gross sein können. Im zweiten Schritt werden diese Zwischenergebnisse mit dem Operator UND verknüpft. Beispiel: Verknüpfungs-Operatoren 1. Schritt: Verknüpfen der verwandten Begriffe mit ODER (Unterrichtsmethode ODER Lehrmethode ODER Unterrichtsform); (Grundschule ODER Primarschule) 2. Schritt: Verknüpfen der mit ODER verbundenen Begriffsketten mit UND (Unterrichtsmethode ODER Lehrmethode ODER Unterrichtsform) UND (Grundschule ODER Primarschule)

C) Suche im Internet, in Bibliothekskatalogen und Literaturdatenbanken. Nachdem die Recherche mit einer guten Stichwortliste vorbereitet wurde, müssen in einem nächsten Schritt eine oder mehrere für die Recherche geeignete Suchmaschinen ermittelt werden. Eine der bekanntesten Suchmaschinen ist Google (www.google.com). Google ist eine globale Suchmaschine, welche das Internet nach Webseiten und Dokumenten absucht, die einen direkten Bezug zum eingegebenen Suchbegriff haben. Allerdings werden alle Arten von Dokumenten einbezogen, sodass die Qualität dieser Dokumente und ihr Ursprung nicht geklärt sind. Will man also möglichst effizient nach einschlägiger wissenschaftlicher Literatur suchen, lohnt es sich, eine Spezialsuchmaschine zu benutzen. Es gibt z.B. Spezialsuchmaschinen für wissenschaftliche Publikationen (www.scholar.google.com) und für wissenschaftliche InternetSeiten (www.scirus.com). Bei diesen und anderen Spezialsuchmaschinen werden nur diejenigen Webseiten oder Dokumente abgesucht, die sich mit dem ausgewählten Themenbereich beschäftigen. Es gibt auch Spezialsuchmaschinen, die auf ein bestimmtes Fachgebiet (z.B. Pädagogik oder Psychologie) spezialisiert sind und/oder die nur nach bestimmten Literaturquellentypen (z.B. Zeitschriftenartikel, Bücher) suchen, wie z.B. Questia (www.questia.com), Bookfinder (www.bookfinder.com) oder Find Articles (findarticles.com). Die Suche nach einer geeigneten Suchmaschine für nutzbringende Literaturquellen beginnt man am besten mit der Frage, welche Arten von Literaturquellen (siehe vorhergehendes Kapitel) für die geplante Untersuchung oder Arbeit von Bedeutung sind. Die wichtigsten Suchmaschinen für wissenschaftliche Arbeiten sind zunächst Bibliothekskataloge oder fachspezifische Literaturdatenbanken. Wie oben dargelegt wurde, beginnt man bei der Literaturrecherche am besten mit der Suche nach Werken, die einen guten Ein- und Überblick in das Themengebiet geben, wie z.B. Lehrbücher, Sammelwerke, Enzyklopädien, Handbücher oder Lexika. Bei der Sichtung dieser Literatur sollte man auch auf Suchbegriffe, Autoren, Quellen- und Literaturhinweise achten, die bei der

130

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

weiteren Literatursuche hilfreich sein können. Übersichts- und Grundlagenliteratur finden sich in Bibliothekskatalogen. Eine (Fach-)Literaturdatenbank ist eine durchsuchbare Datenbank, die Quellenangaben und Fachtextinformationen zu einer Sammlung von Publikationen (oft zu einem bestimmten Fachbereich) enthält. Literaturdatenbanken sind in elektronischer Form übers Internet abrufbar. Standardmässig stehen unter anderem folgende Suchfelder (Eingabefelder in einer Suchmaske) zur Verfügung: Autor, Titel, Verlag, Erscheinungsjahr. Ein Bibliothekskatalog ist eine Literaturdatenbank von Publikationen (traditionell sind vor allem Bücher verzeichnet) in einer Bibliothek (vgl. z.B. McMillan & Schumacher, 2006).

Den aktuellen Stand der Forschung und Entwicklung findet man vor allem in Aufsätzen von wissenschaftlichen Zeitschriften. Nur: Bibliothekskataloge enthalten keine Angaben zu Zeitschriftenaufsätzen. Von den Bibliotheken oder Hochschulen abonnierte Zeitschriften stehen zwar oft im Bibliothekskatalog, ihr Inhalt, d.h. die einzelnen Aufsätze, werden jedoch nicht in den Bibliothekskatalog aufgenommen. Die Suche nach Zeitschriftenaufsätzen zu einem Themengebiet erfolgt über spezielle Literaturdatenbanken. Eine Fachliteraturdatenbank ist eine spezielle Datenbank, die eine Sammlung von Publikationen zu einem bestimmten Fachbereich enthält. Im nächsten Abschnitt werden einige Bibliothekskataloge und Literaturdatenbanken, die bei Ihrer Literatursuche behilflich sein können, vorgestellt und ihre Anwendung erläutert. Anleitung. Wie soll bei einer Literatursuche am besten vorgegangen werden? A) Stichwortliste erstellen. Zunächst werden die für die Recherche relevanten Suchbegriffe zusammengestellt. B) Suchmaschine auswählen. Im Internet und auf CD-ROMs stehen eine Vielzahl von Bibliothekskatalogen und Datenbanken zur Verfügung. Im Internet kann einerseits in den Katalogen einzelner Bibliotheken sowie andererseits in gemeinsamen Katalogen mehrerer Bibliotheken (Meta-Kataloge) recherchiert werden. Für die Suche nach Büchern zu einem Thema wählt man am besten einen Katalog einer (Hochschul-)Bibliothek in der Nähe aus, weil diese Literatur in der Regel problemlos beschaffbar ist. Meta-Kataloge verfügen normalerweise über eine übergeordnete Suchmaske, in welcher die Suchbegriffe und deren logische Verknüpfung eingegeben werden. Ein Beispiel eines solchen Meta-Katalogs ist der Karlsruher Virtuelle Katalog (KVK; vgl. Abbildung 2).

131

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Im KVK können die Kataloge gewählt werden, die durchsucht werden sollen, wie z.B. der Bayerische Verbundskatalog BVB (s. vorher). Dem KVK sind alle grossen, deutschen, einige österreichische und schweizerische Bibliotheksverbünde sowie fremdsprachige Bibliothekskataloge und deutsche sowie ausländische Buchhandels- und Antiquariatsverzeichnisse angeschlossen. In Tabelle 13 (S. 133) sind wichtige BibliotheksMetakataloge und Suchmaschinen im deutschsprachigen Raum aufgeführt.

Abbildung 2: Suchmaske des Karlsruher Virtuellen Katalogs.

Gute Literaturdatenbanken, die für das Auffinden von Zeitschriftenaufsätzen behilflich sein können, finden sich auf den Internetseiten der Universitätsbibliotheken sowie von grösseren öffentlichen Bibliotheken. Meist findet sich schon auf der Homepage ein direkter Link zur Literaturrecherche. Als Beispiel ist in Abbildung 3 (S. 134) die Hauptseite des „e-menu“ (elektronisch zugängliche Datenbanken, Suchmaschinen und Nachschlagewerke) der Zen-

132

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

tral- und Hochschulbibliothek Luzern aufgezeigt. Dabei ist in der linken Leiste die Option „Fachdatenbanken“ angezeigt, und die Option „Psychologie & Pädagogik“ ist geöffnet. Tabelle 13: Wichtige Bibliotheks-Metakataloge und Suchmaschinen im deutschsprachigen Raum Suchmaschine IDS Gesamtabfrage

URL http://aleph.unisg.ch/idsmbs/start.htm

Karlsruher Virtueller Katalog (KVK)

http://www.ubka.unikarlsruhe.de/kvk.html

Südwestdeutscher Bibliotheksverbund Baden-Württemberg, Saarland, Sachsen (SWB)

http://www2.bszbw.de/cms/index_html

Bielefeld Academic Search Engine (BASE) - Multidisziplinäre Suchmaschine der Universität Bielefeld für wissenschaftliche Internet-Quellen OPUS Metasuche nach elektronischen Hochschulschriften auf dem Hochschulschriftenserver der Universität Stuttgart

http://base.ub.unibielefeld.de/de/index.php

http://elib.unistuttgart.de/opus/gemeinsame_suche.php

Verbund Über 300 Bibliotheken der Deutschschweiz Über 50 (National-) Bibliotheken / Verbünde und Buchhandlungen weltweit 1’200 wissenschaftliche Bibliotheken in Südwestdeutschland sowie Spezialbibliotheken aus weiteren Bundesländern 1’404 wissenschaftliche Dokumenten-, Publikations- und Archivserver weltweit

Bestand Ca. 6 Mio. Bücher

100 deutsche Hochschulen

Sämtliche an den Hochschulen veröffentlichte elektronische Publikationen

Ca. 500 Mio. Bücher

14 Mio. Titel und 52 Mio. Bestandsnachweise

Mehr als 22 Mio. Dokumente

Grundsätzlich ist zu beachten, dass – sobald Suchmaschinen, Datenbanken etc. auf dem Internet resp. elektronisch via CD-ROM für eine Verwendung vor Ort an der jeweiligen Bibliothek eingesetzt werden – man sich mit deren Aufbau, Logik und Inhalt näher befassen muss.

133

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Der aktuelle Bildschirminhalt sollte, so banal dies klingt, genauer angeschaut und gelesen werden. Jede Anwendung enthält wichtige Links und Gliederungen und hat ihre eigene Logik.

Abbildung 3: e-menu der Zentral- und Hochschulbibliothek Luzern. Normalerweise sind auf dem Startbildschirm direkte Links auf Hilfe, Anleitungen etc. angegeben. Es lohnt sich, sich zuerst kurz mit den Gegebenheiten und der Logik der entsprechenden Recherche-Seiten, Suchmaschinen etc. vertraut zu machen, um sich sicherer in diesen virtuellen Strukturen bewegen zu können. Dies ist notwendig, um jederzeit zu wissen, welche Arten von Quellen, Literatur und Informationen aktuell zugänglich sind, wie diese mit weiteren Quellen verlinkt sind und auf welcher Ebene von Informationen man sich jeweils befindet. Nur so kann eine erfolgreiche Such-Logik aufgebaut werden.

134

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Sucht man z.B. nach Artikeln in wissenschaftlichen Zeitschriften in einem Bibliothekskatalog einer Universitätsbibliothek, der lediglich die bibliographischen und Standort-Angaben von Büchern und wissenschaftlichen Zeitschriften enthält (z.B. IDS, vgl. Tabelle 13, S. 133) wird man keine einzelnen Artikel zum Thema finden und irrtümlicherweise annehmen, dass keine solchen vorhanden sind. Sucht man hingegen bei derselben Universitätsbibliothek statt im Bibliothekskatalog in der entsprechenden elektronischen Fachdatenbank, in welcher wissenschaftliche Zeitschriftenartikel zum gewünschten Fachbereich erfasst sind, so wird man fündig werden. Tabelle 14: Relevante Literaturdatenbanken für die Fachbereiche Psychologie und Pädagogik Datenbank

Fachgebiet

Web of Science

Fachübergreifend

Sprache (vorwiegend) Englisch

ERIC

Bildung

Englisch

FIS Bildung Literaturdatenbank

Bildung

Deutsch

PsycINFO

Psychologie

International

PsycArticles

Psychologie

Englisch

WISO-PSY

Psychologie

Deutsch und Englisch

Quellen Über 8500 Zeitschriften Über 1500 Zeitschriften Über 500 Zeitschriften, dazu noch Bücher und Sammelwerksbeiträge Über 1800 Fachzeitschriften und dazu noch Bücher Über 50 Fachzeitschriften (die zugleich mit der Datenbank abonniert worden sind) Rund 1800 Fachzeitschriften und Bücher

Bei (Universitäts-)Bibliotheken gilt, dass – je nach Art der Berechtigung als Benutzer/in und je nach Bibliothek und Ort der Suche (z.B. von einem universitären Institut aus, direkt in der Bibliothek oder von zu Hause aus) – es aus technischen und lizenzrechtlichen Gründen oft nicht möglich ist, das gesamte Angebot zu benutzen. Tabelle 14 führt einige für die Bildungswissenschaften, hier die Fachbereiche Psychologie und Pädagogik, relevante elektronische Bibliographien

135

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

an. Universitäts- und andere öffentliche Bibliotheken bieten oft Schulungen an, die über Möglichkeiten zur Literaturrecherche sowie den Zugängen zu verschiedenen Quellen informieren. In den Hochschulbibliotheken arbeiten zudem für jeden Fachbereich zuständige wissenschaftliche Fachreferentinnen und -referenten, welche den Bereich betreuen und wichtige Ansprechpersonen sind. Es empfiehlt sich, wenn man die englische Sprache beherrscht, auch in englischsprachigen Literaturdatenbanken zu suchen, weil wichtige Fachpublikationen vorwiegend in Englisch publiziert werden. Englisch ist die Sprache der meisten wissenschaftlichen Disziplinen geworden, um die Verständigung zwischen Wissenschaftler/innen aus aller Welt zu vereinfachen. C) Suche ausführen. Suchmaschinen sehen zwar alle unterschiedlich aus und sind in der Bedienung etwas anders, aber alle funktionieren nach dem gleichen Prinzip: Man gibt einen oder mehrere Suchbegriffe in ein Suchfeld ein und die Suchmaschine liefert die gefundenen Ergebnisse (je nach Suchmaschine z.B. eine Liste von Webseiten, Bibliotheksbüchern oder Zeitschriftenartikeln) zum gesuchten Themenbereich. Suchmasken von Spezialsuchmaschinen bieten meistens verschiedene Suchfelder für die Formulierung einer Anfrage an. Z.B. können Suchbegriffe eingegeben werden, die im Feld Titel, Autor, Schlagwort oder Verlag vorkommen müssen (Schlagwörter sind normierte Bezeichnungen, die den Büchern zugewiesen werden, andere Bezeichnung: Deskriptoren). Gibt man beispielsweise den Suchbegriff „Kinderpsychologie“ im Feld Titel an, werden nur Ergebnislisten von Bücher oder Zeitschriftenartikel geliefert, bei denen dieser Suchbegriff im Titel vorkommt. Es gibt bei den meisten Datenbanken auch das Suchfeld Freitext, oft auch Alle Felder genannt. Mit diesem Suchfeld werden die Suchbegriffe gleichzeitig in allen vorhandenen Suchfeldern (Titel, Schlagwort etc.) gesucht. Dieses Vorgehen liefert daher die höchste Trefferquote. D) Die genaue Quellen- und Literaturangabe notieren. Das Resultat einer erfolgreichen Recherche ist eine Ergebnisliste mit Literaturangaben zum Suchthema. Wichtig für die Beschaffung dieser Literatur sind vor allem die Quellenangaben, welche angeben, wo, d.h. in welcher Bibliothek, in welcher Zeitschrift etc. sich die entsprechende Quelle befindet. All diese Angaben können entweder als ausgewählte Trefferliste gespeichert oder ausgedruckt werden (dies hängt von Ort und Art des Zugangs ab) oder man notiert sie sich kurz. Bei Büchern notiert man sich neben Autor/in und Titel des Buches die Bibliothek, welche das gewünschte Buch im Bestand hat. Bei Zeitschriftenarti-

136

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

keln notiert man sich wiederum Autoren und Autorinnen und Titel des Artikels und zudem Jahr, Heftnummer und Seiten der Zeitschrift, in welcher der Artikel erschienen ist. Die meisten Literaturdatenbanken bieten die Möglichkeit, die Suchergebnisse zu speichern. Die recherchierte Literatur kann dann bei der entsprechenden Bibliothek ausgeliehen werden, entweder direkt vor Ort oder via Fernleihe (im Falle von Büchern) resp. Mithilfe eines Zeitschriftenlieferdienstes (elektronisch oder per Post). Die meisten (Universitäts-)Bibliotheken bieten Artikel aus von ihnen abonnierten wissenschaftlichen Zeitschriften kostenlos als pdf-Datei zum Herunterladen an. Es gibt auch via Internet zugängliche, kostenpflichtige Zeitschriftenlieferdienste wie z.B. „www.subito-doc.de“ oder einzelne Universitätsbibliotheken, die diesen Service auch anbieten. Es lohnt sich, die Preise, Lieferfristen und sonstigen Bedingungen und Anforderungen zu vergleichen. 4.2.3 Literatur verarbeiten Nach der Suche und Beschaffung von wissenschaftlichen Quellen zu einem Thema werden diese bearbeitet. Ziel der Verarbeitung von Literatur ist, aus den Texten relevante Informationen zu entnehmen, um das eigene Thema einzuordnen, Begriffe zu klären und die Fragestellung zu präzisieren. Das Verarbeiten von wissenschaftlicher Literatur ist nicht nur für die Berichtlegung einer wissenschaftlichen Arbeit wichtig, sondern stellt eine Schlüsselqualifikation in Studium und Beruf dar (vgl. Ballstaedt, 2006, S. 121). Die folgende Anleitung beschreibt drei Schritte für das Gewinnen und Nutzen von Informationen aus Texten: Überblicken, Bearbeiten und Verarbeiten (vgl. Senn & Widmer, 2005). Innerhalb dieser drei Schritte werden einzelne Verfahren und Fertigkeiten als Lese- bzw. Verarbeitungstechniken näher erläutert. Es sind Methoden, die vor, während und nach dem Lesen eines Textes eingesetzt werden können. 1. Überblick gewinnen. Zunächst verschafft man sich einen Überblick über den Text, indem das Inhaltsverzeichnis, die Überschriften oder die Zusammenfassung näher angeschaut werden. Dies ermöglicht einen ersten Eindruck von Inhalt und formaler Organisation des Textes. Möglicherweise kann bereits erkannt werden, welche Teile (Kapitel, Abschnitte) des Textes für die eigene Arbeit von besonderer Bedeutung sind und welche ausser Acht gelassen werden können. In einem kursorischen Lesen oder Querlesen werden die wichtigsten Inhalte und Abschnitte überflogen. Dies gibt einen Einblick in die Struktur des Textes und dessen Inhalt und lässt erkennen, welche Fragen/Themen im Text wie

137

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

behandelt werden. Danach kann der Leser/die Leserin jene Anschlussfragen formulieren, die sich für die eigene Arbeit nach dem Lesen neu ergeben haben. So vermeidet man, abzuschweifen und unwichtigen Hinweisen nachzugehen (vgl. Bünting, Bitterlich, & Pospiech, 2002, S. 65). Bevor zur eigentlichen Bearbeitung der relevanten Textteile übergegangen wird, wird der Text als Ganzes durchgelesen. 2. Bearbeiten. In einem zweiten Schritt geht es darum, die Wichtigkeit von einzelnen Textstellen und die Hauptidee des Textes zu erkennen. Oft findet man im Text Aussagen, die einen grösseren Abschnitt bereits zusammenfassen. Diese finden sich meist am Anfang oder Ende eines Abschnitts. Grundsätzlich lassen sich für das Bearbeiten des Textes zwei Möglichkeiten unterscheiden: Das Hervorheben von relevanten Aussagen und das Gliedern des Textes. Das Hervorheben von relevanten Aussagen (markieren oder unterstreichen) ist dann ertragreich, wenn gezielt und nicht zu viel markiert wird. Dies gelingt unter Beachtung folgender zusätzlicher Regeln: - Sich zunächst einen Überblick über den Text verschaffen, erst beim zweiten Lesen hervorheben oder gliedern - auf bedeutungsanzeigende Signalwörter achten wie: „Besonders zu beachten gilt …“ oder „die Hauptpunkte lassen sich …“ Mit dem Markieren wird über eine motorische Handlung der mentale Prozess des Reduzierens von Informationen unterstützt (vgl. Ballstaedt, 2006, S. 121). Dies gilt auch für eine zweite Technik der Arbeit am Text, dem Gliedern. Man kann Abschnitte mit Zwischentiteln oder Randbemerkungen (Marginalien) gliedern. Falls es sich um ein ausgeliehenes Bibliotheksbuch handelt, kann dies mit Hilfe von farbigen Post-it-Zetteln oder auf einem Beiblatt geschehen. Für Randbemerkungen können auch unterschiedliche Farben, Zahlen, Buchstaben oder Symbole genutzt werden. Dieses Gliedern hilft, die Gesamtaussage stets im Auge zu behalten. Einschlägige Untersuchungen zeigen, dass Personen, welche die Struktur eines Textes beachten, Textinformationen besser behalten (vgl. Ballstaedt, 2006, S. 122). Die Gliederung des gesamten Textes kann auch mit Hilfe von visuellen Darstellungen wie Grafiken, Tabellen oder Mindmaps erfolgen. Bei der Bearbeitung des Textes sollen zudem unverständliche Fachwörter und Begriffe nachgeschlagen werden. Damit verschafft man sich Klarheit über deren Bedeutung, um diese dann auch fachgerecht nutzen zu können.

138

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

3. Verarbeiten. Der nächste Schritt geht über die Arbeit am eigentlichen Text hinaus. Nach Ballstaedt (2006, S. 120) ist das korrekte Zusammenfassen von Texten ein zuverlässiger Indikator für das Verstehen derselben. Eine hilfreiche Technik, Texte so zu verarbeiten, dass sie später für die eigene wissenschaftliche Arbeit genutzt werden können, ist das Exzerpieren. Exzerpieren bedeutet „herauspflücken“. Man pflückt also relevante Informationen aus dem Text heraus. Der Inhalt und die Struktur eines Textes und die Gedankengänge der Autorin oder des Autors werden sinngemäss und nachvollziehbar dargestellt. Ein Exzerpt ist demnach eine besondere Form des Protokolls und bildet die Grundlage für den späteren eigenen Text (vgl. Bünting et al., 2002, S. 33). Es lohnt sich, beim Exzerpieren die folgenden Aspekte zu beachten: 1. Bibliografische Angaben machen 2. Zusammenfassung in eigenen Worten anfügen 3. Festhalten von wörtlichen Zitaten 4. Trennung von Textzusammenfassung und eigenen Gedanken Bibliografische Angaben. Bereits zu Beginn des Exzerptes sollten die bibliographischen Angaben so festgehalten werden, dass diese später für das Literaturverzeichnis genutzt werden können. Es ist ansonsten sehr mühselig, kurz vor Abgabe einer Arbeit nochmals die genauen Literaturangaben suchen zu müssen. Zusammenfassung in eigenen Worten. Einzelne Abschnitte oder Kapitel werden in eigenen Worten zusammengefasst. Ohne den Anspruch zu haben, schon druckreife Formulierungen zu schreiben, lohnt es sich, ganze Sätze bereits frei zu formulieren. Wenn nur Stichworte aufgeschrieben werden, besteht die Gefahr, dass die genauen Zusammenhänge des Originaltextes später nicht mehr nachvollzogen werden können (vgl. Bünting et al., 2002, S. 66–68). Fasst man das von einem Autor/einer Autorin Gesagte in eigenen Worten zusammen, so entspricht dies der Verwendung fremden Gedankenguts resp. einem sinngemässen Zitat. Entsprechend muss eine Quellenangabe gesetzt werden, sonst besteht die Gefahr, sich des Plagiarismus schuldig zu machen (vgl. Kapitel 2.5). Wörtliche Zitate. Erscheint eine Aussage in einem Text besonders zutreffend formuliert, so kann sie auch wörtlich in den eigenen Text übernommen werden. Wichtig ist, diese Passage unverändert abzuschreiben. Falls dennoch eine Einfügung oder Hervorhebung vorgenommen oder etwas weglassen wird, muss dies genau angegeben werden. Wörtliche Zitate werden in der eigenen Arbeit mit Anführungszeichen gekennzeichnet. Es folgt eine genaue

139

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Quellenangabe inkl. Seitenzahl (vgl. Anhang „Richtlinien für die Gestaltung von Literaturverweisen, Zitaten und Literaturverzeichnis“). Trennen von Zusammenfassung und eigenen Gedanken. Das Bearbeiten und Verarbeiten des Gelesenen eröffnet in der Regel Bezüge zu weiteren Texten, führt zu neuen Überlegungen und weitergehenden (Forschungs-)Ideen. Deshalb ist es zentral, die Produkte des eigenen Denkens deutlich von jenen anderer Autor/innen abzugrenzen. Fremdes Gedankengut soll als solches gekennzeichnet werden. Diese Unterscheidung ist für das spätere Verfassen des eigenen Textes im Rahmen der Berichtlegung hilfreich. 4.2.4 Über die Gestaltung von Literaturverweisen, Zitaten und Literaturverzeichnis In der Wissenschaft ist informiertes, auf früheren Erkenntnissen aufbauendes Arbeiten nur auf der Basis von einschlägiger Literatur möglich. Die Berichtlegung, d.h. die Kommunikation der eigenen Arbeit, ist daher von grundlegender Bedeutung, damit andere wissenschaftlich Arbeitende auf die gewonnenen Erkenntnisse zurückgreifen und darauf aufbauen können. Wie wissenschaftliche Texte gestaltet werden und wie mit Quellen adäquat umgegangen wird, ist grundsätzlich innerhalb der einzelnen Disziplinen (Psychologie, Pädagogik, Soziologie, Geschichtswissenschaft etc.) geregelt. Wie bereits in Kapitel 2.5 angesprochen, müssen gemäss dem Urheberrechtsgesetz alle Quellen, auf die sich die eigenen Überlegungen abstützen, in der Berichtlegung angegeben werden. Wie diese Quellen im Text sowie im Literaturverzeichnis aussehen müssen, wird ebenfalls innerhalb der einzelnen Disziplinen geregelt. Es ist wichtig, sich an die innerhalb der eigenen Disziplin geltenden Regeln und Normen zu halten und diese konsistent anzuwenden. Die American Psychological Association (APA) hat für die Psychologie ein solches Regelsystem entwickelt, welches von der Deutschen Gesellschaft für Psychologie übernommen wurde, und an welchem sich oft auch pädagogische Fachzeitschriften orientieren. In beiden Regelsystemen ist zudem die genaue Gestaltung von Manuskripten festgelegt. Viele (internationale) wissenschaftliche Zeitschriften sowie Buchverlage halten sich an diese Richtlinien resp. geben den Autor/innen von Beiträgen entsprechende Hinweise (z.B. auf der Homepage der entsprechenden Zeitschrift oder des Verlags). Nachfolgend sollen die wichtigsten Regeln der Gestaltung von Literaturverweisen und Zitaten im Text und von Literaturverzeichnissen dargelegt werden. Allgemeine Regel. Bei der Berichtlegung erscheinen im Text selbst nur der/die Namen der Autorenschaft und das Jahr der Publikation. Im Literatur-

140

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

verzeichnis werden dann die genauen Quellenangaben gemacht. Jede Quellenangabe im Text muss sich im Literaturverzeichnis wiederfinden und jede Quelle, die im Literaturverzeichnis aufgeführt ist, muss irgendwo im Text verarbeitet worden sein. Im Text (Theorieteil, Methode, Diskussion) erfolgt der Literaturverweis unter Angabe von Nachname und Erscheinungsjahr der Publikation. Bei wörtlichen Zitaten wird zudem die Seitenzahl angegeben. Hier folgt ein Beispiel für einen Literaturverweis im Text: Chalmers (1999) zeigt auf, dass Beobachtende zwar dasselbe wahrnehmen können, aber dabei nicht dasselbe hören oder sehen, und er folgert daraus, dass Fakten problematisch sein können, selbst wenn sie für alle Beobachtenden gegeben sind.

Jeder Eintrag im Literaturverzeichnis enthält den/die Namen der Autorenschaft, das Erscheinungsjahr der Publikation sowie den Titel. Je nachdem, ob es sich um ein Buch, ein Buchkapitel, einen Zeitschriftenartikel oder um ein elektronisches Medium handelt, werden nun Name, Band und allenfalls Heftnummer angegeben (Zeitschrift) oder der Erscheinungsort und der Verlag (Buch). Im Anhang A wird ausführlich dargelegt, wie ein Literaturverzeichnis zu erstellen ist und welche Angaben je nach Medium in welcher Reihenfolge gemacht werden müssen. Die im Literatur- oder Quellenverzeichnis gemachten Angaben müssen ausführlich genug sein, um ein Werk eindeutig identifizieren und so in Bibliotheken und Datenbanken einfach wiederfinden zu können. Zum genannten Beispiel eines Literaturhinweises gehört im Literaturverzeichnis folgende Angabe: Chalmers, A.F. (1999). What is this thing called science? Maidenhead: Open University Press.

Nach der Literatursuche und -verarbeitung der für die eigene Fragestellung relevanten Quellen kann mit der Erstellung des Untersuchungsplans begonnen werden.

4.3 Erstellung eines Untersuchungsplanes Jede empirische Studie erfordert einen Untersuchungsplan oder ein Konzept, in welchem festgehalten wird, was (und was nicht) mit welchen Mitteln untersucht wird. Der Untersuchungsplan soll helfen, die Ziele einer theoretischen oder empirischen Arbeit zu klären und den Arbeitsprozess zu organisieren. Zu einem Untersuchungsplan gehört, dass man die zentrale Fragestel-

141

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

lung und ggf. vorhandene Hypothesen formuliert und begründet. Dies beinhaltet, dass man sich in der Literatur über bestehende Theorien und Befunde informiert und diese in einem argumentativen Zusammenhang ordnet. Schliesslich umfasst ein Untersuchungsplan Ausführungen hinsichtlich einer angemessenen Methode zur Beantwortung der Fragestellung. Ein Untersuchungsplan oder Konzept beinhaltet folgende Elemente: - Themenwahl (inkl. Themeneingrenzung) - Leitende sowie untergeordnete Fragestellungen und Hypothesen - Begründung der Fragestellung: a) Klärung von Begriffen und Konstrukten; b) Darstellung des Forschungsstandes und des Bedarfs für weitere Forschung; c) Vorschlag einer Gliederung resp. einer Argumentationsstrategie - Methode: a) Begründung der Instrumentenwahl (evtl. bereits einen detaillierten Vorschlag für eine Erhebungsmethode); b) Kriterien der Stichprobenwahl (Grösse, Zusammensetzung); c) Planung der Durchführung - Zeitplan - Literaturverzeichnis Diese Elemente eines Untersuchungsplanes werden in den nächsten Unterkapiteln ausführlicher dargestellt. 4.3.1 Begründung und Erläuterung der Fragestellung Die Fragestellung repräsentiert das übergeordnete Erkenntnisinteresse und stellt somit den Ausgangspunkt jeder empirischen Arbeit dar. Entscheidend für die Entwicklung einer präzisen Fragestellung ist die Wahl eines geeigneten Themas. Die Fragestellung muss bereits im Untersuchungsplan begründet und erläutert werden, damit ihre wissenschaftliche Bedeutung nachvollziehbar wird. An erster Stelle steht dabei die Klärung der zentralen Begriffe resp. Konstrukte (vgl. Kap. 4.1.3), welche in der Fragestellung enthalten sind. Im Weiteren beinhaltet die Begründung der Fragestellung, dass der Stand der Forschung wiedergegeben wird, indem die verschiedenen theoretischen Positionen und die wichtigsten Befunde zur Fragestellung herausgearbeitet werden. Damit das Wissen aus gelesenen Texten nicht gleich verloren geht, ist es hilfreich, wenn jeweils Exzerpte (vgl. Kap. 4.2.3) verfasst werden. Die Begründung der Fragestellung im Untersuchungsplan bildet die Basis für den späteren Theorieteil der Arbeit (vgl. Kap. 8.1). Um den theoretischen Teil eines Untersuchungsberichtes oder empirischen Artikels vorzubereiten, soll bereits im Konzept eine erste Gliederung resp. ein erstes Inhaltsverzeichnis erstellt werden. Diese/s sollte logisch strukturiert sein und den „roten Faden“ der Argumentation erkennbar machen.

142

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

4.3.2 Methode In einen Untersuchungsplan gehören auch Vorüberlegungen über das methodische Vorgehen. An erster Stelle steht dabei die Frage, welche Methode (Beobachtung, schriftliche Befragung, Interview etc.) zur Beantwortung der Fragestellung am besten geeignet ist (vgl. Kapitel 6 „Datenerhebungsmethoden“). Hierbei ist zunächst abzuklären, ob die Fragestellung eher quantitativ oder qualitativ ausgerichtet ist. Auch müssen die jeweiligen Stärken und Schwächen der verschiedenen Methoden mitbedacht werden, um deren Angemessenheit für das eigene Forschungsvorhaben abschätzen zu können. Die obige Frage nach der Rolle von Freundschaften für die Bewältigung persönlicher Probleme beispielsweise zielt auf Erfahrungen und subjektive Erlebnisse von Jugendlichen ab (und hat damit stark qualitative Züge), welche besonders gut über Interviews erfasst werden können. In einem Fragebogen mit geschlossenen Fragen bestünde kein Raum zur Mitteilung persönlicher Erfahrungen. Auch eine Beobachtung wäre problematisch, da die Jugendlichen vor Erwachsenen kaum über persönliche Ereignisse sprechen würden. Nachdem die Erhebungsmethode festgelegt wurde, folgen Angaben zur Stichprobe und zur Durchführung der Untersuchung. Dabei sind folgende Fragen zu beantworten: Welches sind die Kriterien bei der Stichprobenwahl? Wie viele und welche Personen sollen untersucht werden? Unter welchen Bedingungen (z.B. Räumlichkeiten) und mit welchen Materialien soll die Untersuchung durchgeführt werden? Ein Untersuchungsplan ist „work in progress“. Es muss nicht gleich zu Beginn eines Forschungsprojektes ein ausgefeiltes Konzept vorliegen. Ein Konzept verändert sich in dem Masse, wie man sich in ein Thema einliest und dadurch zunehmend differenziertere Vorstellungen hinsichtlich sinnvoller Fragestellungen und methodischer Vorgehensweisen entwickelt. Es macht deshalb Sinn für eine Arbeit, die sich über einen längeren Zeitraum erstreckt, zwischen einem Grob- und einem Feinkonzept zu unterscheiden. Ein Grobkonzept (ca. 1–2 Seiten) steht am Anfang einer Arbeit und dient dazu, erste Überlegungen zum Thema und zu möglichen Fragestellungen sowie zu einem angemessenen methodischen Vorgehen zu formulieren. Eine solche erste Orientierung im Thema erfordert bereits eine Literaturrecherche. Im Grobkonzept ist deshalb auch anzugeben, welche Literatur bedeutend sein könnte und daher bearbeitet werden soll. Das Feinkonzept (ca. 5–8 Seiten) enthält neben der leitenden Fragestellung weitere untergeordnete Fragestellungen und evtl. Hypothesen, die auf der Basis der gelesenen Literatur hergeleitet und begründet werden können. Auch

143

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

liegen schon präzise methodische Vorstellungen vor (inkl. Erhebungsinstrument), wie die Erhebung durchgeführt werden soll. 4.3.3 Zeitplan Während der Entwicklung des Konzeptes wird der Arbeitsaufwand für die verschiedenen Teile der Arbeit klarer. So wird es möglich, die weiteren Arbeitsschritte konkreter zu planen. Der laufend aktualisierte Zeit- und Arbeitsplan hat die Funktion, den „grossen Brocken“ in verschiedene überschauund bewältigbare Teilaufgaben zu unterteilen. Sind mehrere Forschende an der Studie beteiligt, gilt es abzuklären, wer für welche Aufgaben zuständig ist. Genauere Hinweise zum Erstellen eines Zeitund Ablaufplans finden sich im nächsten Kapitel zur Durchführung der Datenerhebung (vgl. Kap.5.1.1). 4.3.4 Gliederungsstrategien Es ist eine der schwierigsten Aufgaben, eine geeignete Gliederung und Struktur für das Verfassen eines Berichtes oder empirischen Artikels zu finden, welche den Gang der Argumentation logisch erscheinen lassen. Dies ist jedoch zugleich eine der wichtigsten Aufgaben, denn ein logischer Aufbau macht den „roten Faden“ und damit die Überzeugungskraft einer Arbeit aus. Wie findet und entwickelt man aber den „roten Faden“? Dafür gibt es kein einfaches Rezept. Manchen fällt es schwer, bereits vor dem Schreiben auf der Ebene des Konzeptes eine sinnvolle Gliederung zu finden. Für sie ist es leichter, einfach drauflos zu schreiben und allmählich, während des Schreibens, eine Gliederung zu finden. Trotzdem: Es hilft sehr viel, wenn man sich bereits im Konzept mit einer möglichen Gliederung befasst und versucht, das bisher Gelesene in eine Argumentationsstrategie zu integrieren. Ein erster Gliederungsversuch muss nicht fix sein, sondern darf sich im weiteren Prozess und während dem Schreiben verändern. Jeder Text enthält mindestens eine Einleitung, einen Hauptteil und einen Schluss. In der Einleitung wird in den Themenbereich eingeführt, das Thema benannt, die Fragestellung erörtert und erklärt, Vorgehensweise und der Aufbau der Arbeit werden beschrieben. Der Hauptteil beantwortet die Fragstellung und enthält mehrere Teile und Begründungsschritte. Im Schlussteil werden die Ergebnisse des Hauptteils zusammengefasst, Schlussfolgerungen gezogen und ein Ausblick formuliert (vgl. auch Kap. 8.1). Bünting und Mitarbeiter (2000) sprechen von drei verschiedenen Strategien, wie Einleitung, Hauptteil und Schluss gegliedert werden können. In

144

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Abbildung 4 bis Abbildung 6 bezeichnen das erste und das fünfte Element Einleitung und Schluss, die mittleren Elemente drei mögliche Schritte im Hauptteil. Die Kette. Das Typische an der Kette ist, dass der Argumentationsgang linear aufgebaut ist. Eine Argumentationskette eignet sich für - die chronologische Darstellung einer Entwicklung oder die Beschreibung eines Phasenverlaufs.

1

2

3

4

5

Abbildung 4: Argumentative Kette.

Der Rhombus. Nach diesem Modell wird die Fragestellung (1) aus drei unterschiedlichen Perspektiven (2, 3, 4) beleuchtet. Diese werden im Hauptteil separat behandelt und erst im Schlussteil (5) aufeinander bezogen und integriert. Der Text ist so gegliedert, dass anschliessend an die Einleitung drei einzelne Textteile aufgeführt werden, deren wechselseitige Bezüge erst im Schluss erläutert werden. Die Argumentationsstrategie eignet sich für - die dreifache Begründung einer Fragestellung oder - die zunächst isolierte Erörterung von drei ausgewählten Aspekten des Themas. 1

2

3

4

5

Abbildung 5: Argumentativer Rhombus. 145

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Die Waage. Dieses Modell erlaubt es, zwei Elemente des Mittelteils (2, 3) einander gegenüber zu stellen und gegenseitig abzuwägen. Diese Strategie ermöglicht - den argumentativ abwägenden Vergleich zweier Positionen oder Situationen oder - die Erörterung von Gründen und Gegengründen bzw. Vorteilen und Nachteilen oder - die Darstellung dreier Elemente, Theorien, Positionen in der Struktur These-Antithese-Synthese (Integration von These und Antithese). 1 2

3 4

5

Abbildung 6: Argumentative Waage. Nach dieser eingehenden Darstellung der Grundlagen für die Planung einer Untersuchung, d.h. den Phasen des Forschungsprozesses, der Entwicklung und Formulierung der Fragestellung bzw. der Hypothesen, der Literatursuche und -beschaffung sowie dem Erstellen eines Untersuchungsplans, soll im nächsten Kapitel dargelegt werden, was bei der Vorbereitung und Durchführung einer Datenerhebung zu beachten ist. Weiterführende Literatur Altrichter, H. & Mayr, J. (2004). Forschung der Lehrerbildung. In S. Blömeke, P. Reinhold, G. Tulodziecki & J. Wild (Hg.), Handbuch Lehrerbildung (S. 164–184). Bad Heilbrunn/Obb.: Klinkhardt. Anastasi, A., & Urbina, S. (1997). Psychological testing (7th ed.). Upper Saddle River, NJ: Prentice Hall. Atteslander, P. (2006). Methoden der empirischen Sozialforschung (11., neu bearb. u. erw. Aufl.). Berlin: Erich Schmidt Verlag.

146

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Beller, S. (2004). Empirisch forschen lernen. Konzepte, Methoden, Fallbeispiele, Tipps. Bern etc.: Huber. Bortz, J. & Döring, N. (2003). Forschungsmethoden und Evaluation für Human und Sozialwissenschaftler. Berlin: Springer. Diekmann, A. (2007). Empirische Sozialforschung. Grundlagen, Methoden, Anwendungen (17. Aufl.). Reinbek bei Hamburg: Rowohlt. Lienert, G. A. & Ratz, U. (1998). Testaufbau und Testanalyse (6. Aufl.). Weinheim: Psychologie Verlags Union. McMillan, J. H., & Schumacher, S. (2006). Research in education. Evidence-based inquiry (6th ed.). Boston etc.: Pearson. Pyerin, B. (2003). Kreatives wissenschaftliches Schreiben: Tipps und Tricks gegen Schreibblockaden. Weinheim und München: Juventa Verlag. Topsch, W. (2006). Leitfaden Examensarbeit für das Lehramt: Bachelor- und Masterarbeiten im pädagogischen Bereich. Weinheim und Basel: Beltz Verlag.

147

Powered by TCPDF (www.tcpdf.org)

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

5 Durchführung der Datenerhebung

Nach eingehender Auseinandersetzung mit den theoretischen und methodischen Grundlagen, welche für die Planung einer Untersuchung nötig sind, folgt nun die Auseinandersetzung mit der aktuellen Durchführung der Untersuchung, also der Erhebung der Daten. Die Darstellung beschränkt sich auf Datenerhebungssituationen, in welchen Daten mittels verschiedener Methoden, d.h. hauptsächlich anhand von Beobachtung, Interview und Fragebogen, generiert werden. Andere methodische Zugänge, z.B. die Dokumentenanalyse und die damit verbundene Konstruktion eines Korpus (Gesamtheit der zu analysierenden Dokumente) oder die Analyse visueller Daten (Foto, Film Video) sowie die Auswahl geeigneter Objekte/Passagen/Sequenzen werden ausführlich in Flick (2007) dargelegt. Interessanterweise wird in den meisten Methodenlehrbüchern der Durchführung der Untersuchung kein grosses Gewicht zugemessen. Es wird davon ausgegangen, dass alles sorgfältig geplant und vorbereitet wurde und dass höchstens fehlerhaftes Verhalten seitens der Durchführenden eine potenzielle Störquelle darstellt, die die Qualität der Untersuchung beeinträchtigen kann (z.B. Bortz & Döring, 2003). Entsprechend sind diese Kapitel eher kurz gehalten, fehlen ganz, oder die Durchführung der Datenerhebung wird innerhalb der einzelnen Methoden behandelt. Da Daten jedoch wertvoll sind – verschiedene Menschen, auch die Untersuchungssteilnehmenden, haben Zeit und Energie investiert – und eine missglückte Datenerhebung nicht einfach wiederholt werden kann, ist es sinnvoll, sich mit den relevanten organisatorischen und inhaltlichen Aspekten genau auseinander zu setzen. Mögliche Fehlerquellen müssen erkannt werden, um Massnahmen zu ergreifen, diese auszuschalten bzw. zu minimieren. Dies ist umso wichtiger, als nicht jeder Aspekt der Datenerhebung erschöpfend behandelt werden kann und für eine Untersuchungsdurchführung viel von dem benötigt wird, was im Englischen als presence of mind (Geistesgegenwart) bezeichnet wird. Es können nämlich jederzeit unvorhersehbare, äussere Störfaktoren auftreten und die Planung empfindlich durcheinander bringen. So kann ein Aufnahmegerät plötzlich

148

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Funktionsprobleme bekommen oder ein Zug, mit dem die Reise zum Ort der Datenerhebung gemacht werden soll, massive Verspätung haben. Oder der Raum, der für die Datenerhebung organisiert wurde, steht kurzfristig doch nicht zur Verfügung. In solchen Situationen sind Geistesgegenwart und Improvisationsvermögen wichtige Fertigkeiten.

5.1 Vorbereitung der Datenerhebung Die Vorbereitung der Datenerhebung kann in mehrere Schritte gegliedert werden, die – obwohl sie hier chronologisch aufgeführt sind – einander überlappen. Es sind dies das Erstellen eines Zeit- und Ablaufplans, das Bereitstellen der Instrumente (samt Instruktionen), die Organisation der Datenerhebung, die Schulung der Untersuchungsleitenden, d.h. der Personen, die die Untersuchung durchführen (auch Versuchsleitende genannt) sowie die Durchführung einer Pilotierung. Diese Schritte werden nicht einfach sequenziell abgearbeitet, sondern werden zum Teil parallel oder auch mehrfach durchlaufen. 5.1.1 Erstellen eines Zeit- und Ablaufplans Der Zeit- und Ablaufplan dient dazu, die Eckdaten und einzelnen Vorbereitungsschritte bis zur Datenerhebung festzuhalten und allenfalls noch offene Entscheidungen anzusprechen resp. einzuleiten. Er ist zu Beginn so etwas wie eine grobe Einschätzung, was bis wann vorbereitet sein muss, damit die Daten erhoben werden können und hält fest, bis wann welche Aufgaben von wem erledigt sein müssen. Mit der fortschreitenden Planung und Vorbereitung wird der Zeit- und Ablaufplan konkreter, d.h. durch neue Informationen ergänzt und somit laufend an den aktuellen Status Quo der Arbeiten angepasst und verfeinert. Folgende Punkte sind wichtig und sollten sorgfältig durchdacht werden: 1. Zeitfenster für die Datenerhebung/en: In welchem Zeitraum soll die Datenerhebung stattfinden, welcher Zeitraum ist dafür geeignet und welcher nicht? So stellt sich z.B. die Frage, wie sinnvoll eine Datenerhebung in Schulen kurz vor den Sommerferien ist, da in dieser Zeit letzte Prüfungen geschrieben und Arbeiten abgeschlossen werden. 2. Untersuchungsteilnehmende: Welches sind potenzielle Untersuchungsteilnehmende und wie werden sie rekrutiert? Braucht es für deren Rekrutierung Bewilligungen resp. die Information von oder Anfrage an vorgesetzte Stellen oder andere relevante Personen? Beispielsweise muss im Fall von

149

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Schulklassen die Schulleitung einverstanden sein, und die Eltern der Schülerinnen und Schüler müssen informiert werden und die Möglichkeit haben, ihr Kind von der Teilnahme auszuschliessen. Aber auch die Information der Teilnehmenden gehört hierher: Wann sollen Einverständniserklärungen verteilt sowie Informationen zur Studie versendet werden? 3. Technische Hilfsmittel: Braucht es für die Datenerhebung bestimmte technische Hilfsmittel? Wo sind diese erhältlich und welches sind die Nutzungsbedingungen? Braucht es eine Schulung oder Instruktion für die Personen, welche diese Hilfsmittel verwenden? 4. Erhebungsinstrumente: Welche Erhebungsinstrumente (Interviewleitfaden, Beobachtungsraster etc.) sollen eingesetzt werden? Werden bereits bestehende Instrumente übernommen, werden bestehende Instrumente modifiziert oder soll ein neues Instrument entwickelt werden? Wie kann ein bestehendes Instrument beschafft werden? 5. Pilotierung: Wann, wo und mit wem soll eine Pilotierung (Vortesten) der Datenerhebung resp. der Instrumente durchgeführt werden? 6. Ort der Datenerhebung und Untersuchungsleitende: Wann und wo soll die Datenerhebung stattfinden? Wer agiert als Untersuchungsleiterin/Untersuchungsleiter? Braucht es eine Schulung der Untersuchungsleitenden für den Einsatz der Erhebungsinstrumente? 7. Detailplanung und Aufgabenzuteilung: Wer ist für welchen Teil der Vorbereitungen zuständig? Bis wann müssen die Instrumente und technischen Hilfsmittel bereitgestellt, die Untersuchungsteilnehmenden rekrutiert, die Pilotierung durchgeführt worden sein etc.? Natürlich hängt es von der Art der geplanten Untersuchung, der gewählten Erhebungsmethode und den konkreten Instrumenten ab, wie der Zeit- und Ablaufplan im Einzelnen aussieht. So wird beispielsweise eine Fragebogenstudie, in welcher ein bereits bestehender Fragebogen eingesetzt wird, weniger Zeit und Aufwand für die Bereitstellung der Instrumente in Anspruch nehmen als eine Studie, bei welcher der Fragebogen zuerst entwickelt und pilotiert, d.h. vorgetestet werden muss. Die oben angeführten Punkte sind nicht erschöpfend, können aber als Richtschnur für die Zeit- und Ablaufsplanung verwendet werden. Pilotierung. Eine so genannte Pilotierung ist ein Vorversuch, während dem die ganze Datenerhebung oder einzelne Teile daraus durchgespielt und auf Fehler, Unklarheiten etc. untersucht werden. Dies kann in einem oder in mehreren Schritten geschehen. So ist es sinnvoll, ein selber entwickeltes

150

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Instrument mehrfach an geeigneten Personen zu testen und laufend zu verbessern, bevor es in der eigentlichen Untersuchung eingesetzt wird. Dabei werden freiwillige Teilnehmende, welche den für die Untersuchung vorgesehenen Untersuchungsteilnehmenden möglichst ähnlich sind, für eine Erprobung einzelner Instrumente oder der gesamten Datenerhebung eingesetzt. Sie erhalten den Auftrag, sich bei Schwierigkeiten und Unklarheiten bei der Durchführung der Untersuchung zu melden bzw. diese zu notieren und werden (falls nötig) am Schluss zu Aspekten wie Verständlichkeit von Instruktionen, Abläufen etc. sowie zu aufgetretenen Schwierigkeiten und Unklarheiten befragt. Eine Pilotierung ist vor allem dann notwendig, wenn Kinder oder Jugendliche als Untersuchungsteilnehmende agieren. Was für die Forschenden verständliche Instruktionen und Aufgabenstellungen oder gut zu lösende Aufgaben sind, kann für Kinder oder Jugendliche unverständlich oder nur unter Schwierigkeiten lösbar sein. Die längere Auseinandersetzung mit inhaltlichen und methodischen Aspekten des Forschungsvorhabens bewirkt oftmals eine „Blindheit“ für unklare und problematische Aspekte bei Instrumenten, Instruktionen, Abläufen etc. Daher ist sorgfältig zu überprüfen, ob das, was als Aufgabenstellung gedacht ist, tatsächlich als solche wahrgenommen und verstanden wird und die Aufgabe innerhalb der dafür vorgesehenen Zeit bewältigbar ist. So ist beispielsweise die schriftliche Beantwortung offener Fragen für jüngere Kinder weniger geeignet, da sie dazu oft keine Lust haben oder ihnen schlicht die Schreibkompetenzen fehlen. Organisation der Datenerhebung. Die konkrete Organisation der Datenerhebung dreht sich um folgende Frage: Wann werden die Daten wo und mit wem erhoben? Es geht also um Zeitpunkte, Orte und Räumlichkeiten sowie anwesende Personen. Instrumente, Instruktionen und technische Hilfsmittel werden in einem gesonderten Unterkapitel behandelt. - Zeitpunkte: Termine müssen vereinbart und es muss sichergestellt werden, dass alle beteiligten Personen den Ort der Datenerhebung problemlos aufsuchen können (z.B. anhand von Wegerklärungen oder räumlichen Orientierungshilfen). Wenn die Gelegenheit dazu besteht, sollten die Untersuchungsleitenden selbst an den geplanten Ort der Datenerhebung gehen, um sicher zu stellen, dass Ort, Zeit und Raum für die geplanten Zwecke geeignet sind. - Orte und Räumlichkeiten: Egal, ob mit Einzelpersonen, kleineren oder grösseren Gruppen gearbeitet wird, müssen Räumlichkeiten für die Datenerhebung gefunden werden. Dabei ist es wichtig, einen möglichst ungestör-

151

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

ten Rahmen zu finden. So ist beispielsweise ein lärmiges Café ein eher ungeeigneter Ort für ein Interview, da sowohl die interviewende als auch die interviewte Person leicht abgelenkt oder gestört werden und im Falle von Audioaufnahmen die Hintergrundgeräusche die Aufnahmequalität empfindlich stören können. Den Untersuchungsteilnehmenden vertraute Räumlichkeiten können eine beruhigende Wirkung ausüben, müssen aber ebenfalls möglichst störungsfrei sein. - Anwesende Personen: Die anwesenden Personen sind diejenigen Personen, die bei der Datenerhebung entweder anwesend sein müssen oder anwesend sein können. Nebst dem/der Untersuchungsleitenden sind dies natürlich die Teilnehmenden. Aber auch weitere Personen werden manchmal benötigt, sei es jemand, der/die Videoaufnahmen macht oder – im Falle von Beobachtungen in einer natürlichen Umgebung – diejenigen Personen, die zu dieser Umgebung gehören. Wenn beispielsweise das Verhalten von Kindergartenkindern einer bestimmten Klasse auf dem Pausenhof einer grossen Schule beobachtet werden soll, so werden dort auch ältere Kinder (und Lehrpersonen als Aufsichtspersonal) anwesend sein. Je nach Fragestellung ist es sogar nötig, dass auch ältere Schüler/innen auf dem Pausenplatz sind. So können die Interaktionen von Kindergartenkindern mit älteren Kindern nur unter Einbezug letzterer untersucht werden. Dies bedeutet organisatorisch gesehen, dass sicher gestellt werden muss, dass die älteren Schüler/innen zum Zeitpunkt der Datenerhebung tatsächlich auch dort sind. 5.1.2 Bereitstellen der Instrumente samt Instruktionen Ein wichtiger Teil der Vorbereitungen betrifft die einzusetzenden Instrumente (Fragebogen, Interviewleitfaden, Beobachtungsraster etc.). Von der/den gewählten Erhebungsmethode/n (schriftliche Befragung, mündliche Befragung, Beobachtung etc.) und den daraus abgeleiteten Instrumenten hängt der Aufbau und die Organisation der gesamten Datenerhebung ab. Bei der Bereitstellung der Instrumente sind verschiedene Teilaufgaben zu bewältigen. Werden bereits bestehende Instrumente verwendet, so müssen die Originale beschafft und bei Bedarf kopiert werden. Bei standardisierten psychologischen Tests sind dabei Aspekte des Copyrights zu beachten (vgl. Kap. 2.5), bei anderen Instrumenten ist das Einverständnis des Autors/der Autorin einzuholen. Werden bestehende Instrumente modifiziert oder neue konstruiert, so ist für diesen Schritt genügend Zeit einzuplanen. Dabei sind die entsprechenden „Regeln der Kunst“ zur Konstruktion solcher Instrumente zu befolgen (z.B. die Gestaltung von Fragen mit Mehrfachauswahlaufgaben für einen Fragebo-

152

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

gen, vgl. Kapitel 6.1.2). Zudem ist es wichtig, diese Instrumente mehrfach zu pilotieren, um Verständnisprobleme, unklare Instruktionen etc. auszuschalten (siehe weiter unten). 1. Im Falle von Fragebögen müssen diese sowohl formal (Orthographie, Layout) als auch inhaltlich einwandfrei sein, was eine mehrfache Durchsicht erfordert. Dabei sind Aspekte des Layouts wie z.B. Seitenumbrüche nicht zu vernachlässigen. Das Kopieren, Heften etc. muss zudem in der Zeitplanung berücksichtigt werden. Dies vor allem, da organisatorische oder technische Schwierigkeiten wie z.B. ein besetzter Kopierapparat oder eine leere Tonerkassette eines Druckers den Zeitplan empfindlich stören können. 2. Bei (qualitativen) Interviews muss jeder Interviewer/jede Interviewerin über eine korrekte Version des Leitfadens verfügen. Wird das Interview mit Hilfe technischer Geräte aufgenommen, so müssen die Geräte rechtzeitig reserviert, überprüft und ausprobiert werden, um allfällige Störungen zu entdecken. Der Akku sollte aufgeladen sowie ein Netzanschluss vorhanden sein, um ein vorzeitiges Aussteigen des Geräts zu verhindern. Zudem lohnt es sich, ein paar Minuten vor dem Interview einen letzten Betriebstest zu machen. Wer ganz sicher gehen will, nimmt ein Ersatzgerät mit. Um im Falle von Pannen einen möglichst geringen Datenverlust zu haben, lohnt es sich auf jeden Fall, sich im Verlauf des Interviews die Aussagen des Interviewpartners/der Interviewpartnerin stichwortartig zu notieren. 3. Bei Beobachtungen gelten dieselben Hinweise wie bei den Interviews, d.h. das korrekte Beobachtungsraster (resp. die Beobachtungsanleitung) muss für alle Beobachtenden zur Verfügung stehen und technische Geräte wie Videokameras müssen ebenfalls reserviert, überprüft und ausprobiert werden. Falls nötig, muss der/die Untersuchungsdurchführende in der Handhabung des Geräts geschult werden. Dies beansprucht zusätzlich Zeit. Zudem sollten die Bedingungen der Beobachtung (Situation/en, Tageszeit, Setting etc.) gut überlegt werden (vgl. Kap. 6.3). Beobachtungen, ob offen, verdeckt, teilnehmend, nicht teilnehmend, systematisch etc. erfordern möglichst konstante, der Planung entsprechende Bedingungen, um nicht verfälschte resp. systematisch verzerrte Daten zu generieren. Die Herstellung vergleichbarer Bedingungen oder die geplante, kontrollierte Einführung von Variationen und Manipulationen benötigen eine sorgfältige Planung sowie eine laufende Überprüfung, ob diese Bedingungen eingehalten werden/wurden.

153

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Klare, schriftlich festgehaltene Instruktion. Unabhängig von der gewählten Methode und den entsprechenden Instrumenten kommt der Instruktion – sowohl der Untersuchungsdurchführenden als auch der Untersuchungsteilnehmenden – eine wichtige Rolle zu. Die Instruktionen sind sozusagen das Drehbuch für die Durchführung. Jede Person muss genau wissen, wann sie wo was wie zu tun hat und wie im Falle von Schwierigkeiten vorzugehen ist. Die Untersuchungsdurchführenden (auch Untersuchungs- oder Versuchsleitende genannt) müssen wissen, wie die Instrumente und allfällige technische Geräte gehandhabt werden und worauf bei der Datenerhebung zu achten ist. Idealerweise wird eine Schulung durchgeführt und alles Wesentliche auf einem Instruktionsblatt festgehalten. Die Untersuchungsteilnehmenden werden zu Beginn der Datenerhebung ausser bei postalischen oder Online Befragungen in der Regel mündlich durch den/die Durchführende instruiert und erhalten im Falle von Fragebögen auch ergänzende schriftliche Instruktionen auf dem Fragebogen selbst. Dabei sind auch die mündlichen Instruktionen zu standardisieren (d.h. sie werden allen Teilnehmenden immer gleich gegeben) und sollten daher z.B. von einem Instruktionsblatt abgelesen werden. Die Verständlichkeit und Vollständigkeit sämtlicher Instruktionen ist ein Aspekt, auf den bereits bei der Durchführung einer Pilotierung besonders sorgfältig zu achten ist. Zudem müssen die Instruktionen folgende Angaben enthalten: Begründung der Untersuchung (was wird weshalb untersucht); Anleitung, was genau zu tun ist; Angaben zum Ablauf und zur Verfügung stehenden Zeit; Zusicherung der Anonymität der Teilnahme oder, falls dies nicht möglich ist, Zusicherung der Vertraulichkeit der Angaben; Hinweise zur Anonymisierung der Daten und Zusicherung des Datenschutzes (siehe unten); sowie das Recht, die Teilnahme zu verweigern oder jederzeit ohne Erfahren eines Nachteils abzubrechen (vgl. ethische Richtlinien des Forschens in Kap. 2.5). Schliesslich soll den Teilnehmenden zu Beginn und am Schluss für ihre Mitarbeit/Teilnahme gedankt werden.

5.2 Aktuelle Durchführung der Datenerhebung Bei der aktuellen Durchführung der Datenerhebung geht es für den/die Untersuchungsdurchführenden bzw. die Versuchsleitung vor allem darum, nebst der sorgfältigen Umsetzung der einzelnen Planungsschritte ungewollte Einflüsse während der Datenerhebung zu verhindern.

154

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

5.2.1 Das Verhindern von Versuchsleiter-Effekten und weiteren Störvariablen Versuchsleiter-Effekte sind „Fehler im eigenen Verhalten bzw. im Verhalten von Dritten, die als Versuchsleiter, Interviewer, Test-Instrukteure etc. engagiert werden.“ (Bortz & Döring, 2003, S. 86). Die Art und Weise, wie der/die Untersuchungsleitende auftritt, d.h. die Teilnehmenden begrüsst, sie instruiert und auf deren Fragen reagiert, vermittelt den Teilnehmenden einen ersten Eindruck und kann damit ihr späteres Verhalten während der aktuellen Datenerhebung beeinflussen. Vor allem auf die emotionale Atmosphäre kann die untersuchungsleitende Person massiv Einfluss nehmen. So werden Teilnehmende bereitwilliger mitarbeiten, wenn eine freundlich, ruhig und organisiert auftretende Person sie instruiert als wenn diese mürrisch, nervös und zerstreut auftritt. Im Fall eines Interviews ist zudem je nach Art des Interviews ein genau geplantes, den Bedingungen angepasstes Auftreten notwendig (genauso wie bei der teilnehmenden vs. passiven Beobachtung; vgl. dazu die Kapitel 6.2 und 6.3). Ein weiterer bedenkenswerter Aspekt ist die Überlegung, was es bedeutet, wenn mehrere Personen die Daten erheben und somit jede ihren eigenen Einfluss auf die Datenerhebung ausübt. In solchen Fällen ist eine gemeinsame Absprache resp. Schulung von grosser Bedeutung, da zumindest die Instruktionen und Abläufe standardisiert werden müssen (vgl. oben) und der Umgang mit Fragen und Schwierigkeiten zu einem grossen Masse abgestimmt werden muss. Zudem kann, je nach Art und Umfang der Untersuchung und der organisatorischen Gegebenheiten, in Erwägung gezogen werden, dass immer dieselbe Person die Datenerhebung durchführt. Weitere Möglichkeiten zur Verhinderung oder Abschwächung eines Versuchsleiter-Artefakts sind die oben angesprochene Standardisierung der Instruktionen und Abläufe, die Nachbefragung der Untersuchungsteilnehmenden sowie die Pilotierung der Datenerhebung. Bortz und Döring (2003) erwähnen zudem folgende Vorgehensweisen, um weitere Störfaktoren zu minimieren: - Die Untersuchungsbedingungen möglichst konstant halten, also für vergleichbare Rahmenbedingungen sorgen. So macht es beispielsweise einen Unterschied, wenn von zwei Schulklassen die eine vor und die andere nach der grossen Pause beobachtet wird (Müdigkeit, Aufmerksamkeit, Hunger usw.). Mangelnde Aufmerksamkeit kann als Störvariable, d.h. als störender Einfluss, wirken und das zu beobachtende Verhalten der Schüler/innen beeinflussen.

155

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

- Protokollieren von Zwischenfragen, Verständnisschwierigkeiten sowie weiteren für die Ergebnisse möglicherweise relevanter Vorkommnisse. Wenn z.B. Lehramtsstudierende einen Fragebogen ausfüllen und mehrere von ihnen den/die Untersuchungsleitende/n bei derselben offenen Frage zu sich herbitten und fragen, wie diese zu verstehen sei, so ist dies ein wichtiger Hinweis. Vielleicht wird später bei der Auswertung festgestellt dass einige der Antworten nicht zu dieser Frage passen. So hat man aufgrund der Notizen einen Hinweis darauf, dass die Frage so nicht verständlich genug formuliert war. - Konstante (identische) Abfolge der Teilschritte bei Untersuchungen, die aus mehreren Teilschritten bestehen. Werden beispielsweise Sekretärinnen zu ihren Belastungen am Arbeitsplatz interviewt und füllen einen Fragebogen zu ihrer Arbeitszufriedenheit aus, so sollten alle entweder zuerst interviewt und dann schriftlich befragt werden oder umgekehrt. Es ist anzunehmen, dass das Erzählen über die Belastungen die nachfolgenden Aussagen zur Arbeitszufriedenheit beeinflusst (und umgekehrt; Stichwort „Reihenfolgeeffekte“). Wäre die Reihenfolge nicht immer gleich, so wäre dieser Einfluss nicht kontrolliert. Eine weitere Möglichkeit der Kontrolle wäre das Ausbalancieren, d.h. je die Hälfte der Teilnehmenden wird per Zufall der einen resp. der anderen Reihenfolge zugeordnet. Somit ist der mögliche Einfluss der Reihenfolge ausgeglichen worden. - Festhalten der Untersuchungsumstände und sämtlicher bewusst in Kauf genommener oder unerwartet eingetretener Unregelmässigkeiten in einem Untersuchungsprotokoll. Dieses fliesst in verkürzter Form später in den Projektbericht ein (Durchführung der Datenerhebung mit Analyse des Untersuchungsprotokolls). Es ist nicht möglich, hier alle möglichen Störfaktoren einer Datenerhebung aufzuführen, zumal die Art der Störfaktoren von der Art der Untersuchung abhängt. Wichtig ist, sich für die geplante Untersuchung vor Augen zu führen, wo mögliche Störquellen lauern und welche unerwünschten Einflüsse auch die Untersuchungsleitenden selbst möglicherweise ausüben können. 5.2.2 Weitere wichtige Aspekte der Datenerhebung Nach den Ausführungen zur Durchführung der Datenerhebung folgen zwei weitere wichtige Aspekte: das Gewähren der Anonymität und das Kontrollieren und Aufbewahren der Daten. Gewähren der Anonymität. Den Teilnehmenden einer Studie muss Anonymität zugesichert werden (vgl. Kap. 2.5). Dies bedeutet, dass – falls möglich

156

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

– die Daten bereits bei der Datenerhebung anonymisiert werden, z.B. durch Verwendung von Codes (anstatt der Namen) für die Identifikation der Teilnehmenden. Dies ist bereits bei der Bereitstellung der Instrumente zu beachten. So ist z.B. bei der Konstruktion eines Fragebogen dafür zu sorgen, dass die Teilnehmenden entweder bereits einen Fragebogen mit Code erhalten oder dass sie am Anfang ihren Code selber erstellen (siehe Beispiel). Erstellen eines anonymen Identifikationscodes für die Untersuchungsteilnehmenden Bitte erstelle hier deinen persönlichen, anonymen Identifikationscode: 1. Erster Buchstabe des Vornamens deiner Mutter: _______ 2. Letzter Buchstabe des Nachnamens deines Vaters: _______ 3. Dritter Buchstabe des Namens deiner Strasse: _______ 4. Letzter Buchstabe deines Vornamens: _______

Sind für die Datenerhebung und Auswertung Personendaten erforderlich, so kann Anonymität dadurch gewährt werden, dass sämtliche Informationen, welche zur Identifikation einer teilnehmenden Person oder Personengruppe führen könnten, verschlüsselt werden. Dies ist vor allem für den Projektbericht wichtig. So sind in einem Bericht zu einer Studie, an der verschiedene Schulhäuser mit ihren Klassen teilgenommen haben, weder die teilnehmenden Schulen, Klassen oder Lehrpersonen, noch die Dörfer oder Städte, in welchen diese Schulen beheimatet sind, namentlich zu nennen. Ausnahmen, z.B. wenn die Fragestellung es erfordert, müssen sorgfältig mit den betroffenen und beteiligten Personen abgesprochen und deren Einverständnis eingeholt werden. Auskünfte an Dritte über Personendaten oder Informationen darüber, welche Personen oder Gruppen teilgenommen haben, sind nicht erlaubt. Verabschiedung der Untersuchungsteilnehmenden. Nach der Erhebung der Daten ist es wichtig, sich von den Teilnehmenden zu verabschieden und ihnen nochmals für die Teilnahme an der Untersuchung zu danken. Dies geschieht einerseits mündlich durch den/die Untersuchungsleitende. Andererseits kann im Falle von Fragebögen zuunterst nochmals schriftlich für die Teilnahme herzlich gedankt werden.

157

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

5.3 Nach der Datenerhebung Kontrolle und Aufbewahrung der Daten. Sind die Daten erhoben, sollten sie in einem ersten Schritt kurz kontrolliert resp. gesichtet werden: Sind alle Datensätze vollständig vorhanden, z.B. alle ausgefüllten Fragebögen oder sämtliche Tonträger mit Audioaufnahmen aus Interviews? Gerade bei Fragebögen ist es empfehlenswert, dafür zu sorgen, dass alle Bögen zurückgegeben werden, auch diejenigen, die nicht ausgefüllt wurden, weil einzelne Personen nicht teilnehmen wollten oder die Teilnahme abgebrochen haben. Ansonsten besteht die Gefahr, dass die unausgefüllten Bögen ohne Wissen der Untersuchungsleitenden weitergegeben oder weiter verwendet werden. In einem nächsten Schritt geht es darum, die Daten, die ja Originale sind, zu beschriften sowie zu ordnen und in geeigneten Behältern (Boxen, Ordner, Kisten) an einem sicheren Ort aufzubewahren. Im Falle von Fragebögen bedeutet dies, dass jeder Bogen mit einer eindeutig zuzuordnenden Kennziffer versehen und durchnummeriert wird. Einmal verlorengegangene Daten können nicht mehr ersetzt werden. Papier sollte also an einem trockenen und evtl. auch lichtgeschützten Ort (wegen des Ausbleichens) aufbewahrt werden, Bild- und Tonträger sollten nicht zusammen mit privaten Bild- und Tonträgern gelagert und somit möglichen Verwechslungen ausgesetzt werden usw. Zur Sicherung der Daten gilt es, folgendes zu beachten: Fragebögen und andere Daten in Papierform sollten genau gekennzeichnet und z.B. in Schachteln aufbewahrt werden. Von elektronischen Daten sollten unbedingt Sicherheitskopien erstellt werden, welche physisch an einem anderen Ort gelagert werden als die Originale. Wichtig ist die sichere Aufbewahrung, d.h. Schutz vor Verlust oder Beschädigung. Der Schutz der Rohdaten (Originaldaten) bezieht sich jedoch nicht nur auf physische Sicherheit, er umfasst auch den Datenschutz und das Gewährleisten der Anonymität: Rohdaten dürfen nicht in falsche Hände geraten. Dies bedeutet, dass Personen, welche nicht direkt an der Untersuchung beteiligt sind keinen Zugriff auf die Rohdaten oder nicht anonymisierte Daten haben dürfen. Wie bereits gesagt sind Daten wertvoll, hinter ihrer Gewinnung stecken Zeit, Energie und Arbeit. Und nach all den Mühen, die man auf sich genommen hat, um sie zu erhalten, ist ihre sorgfältige Aufbewahrung professionelle Notwendigkeit. Zum Thema Sorgfalt noch eine Anmerkung: Es versteht sich von selbst, dass die Rückmeldung der Ergebnisse an die Versuchsteilnehmenden, z.B. in Form einer Zusammenfassung oder einer Version des For158

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

schungsberichtes nach Abschluss des Forschungsvorhabens eingeplant und auf die Liste der noch zu erledigenden Aufgaben (Pendenzenliste) gesetzt wird. Nach eingehender Auseinandersetzung mit der Planung und Durchführung der Datenerhebung folgt nun im Kapitel 6 eine Beschreibung und Diskussion der verschiedenen, in den Bildungs- und Sozialwissenschaften gebräuchlichen Forschungsmethoden.

159

Powered by TCPDF (www.tcpdf.org)

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

6 Datenerhebungsmethoden

Im Bereich der Bildungs- und Sozialwissenschaften findet sich eine Vielfalt an Datenerhebungsmethoden, welche unterschiedliche Forschungsperspektiven und -ziele widerspiegeln und die Gewinnung von verschiedensten Arten von Daten ermöglichen. Ihnen allen ist gemeinsam, dass sie die gewünschten Daten auf möglichst angemessene Weise erschliessen, dass sie also der „Natur“ der Daten und den Eigenschaften der Daten- oder Informationsquellen möglichst gerecht werden sollen. Will man beispielsweise die sprachliche Entwicklung von Babies im Alter von sechs bis zwölf Monaten untersuchen, so kann man diese nicht interviewen, auch wenn ein Teil der zu gewinnenden Daten auditiver Natur sein wird. Gleichzeitig soll die gewählte Methode der Datenerhebung eine möglichst gute Operationalisierung der zu untersuchenden Konstrukte zulassen (vgl. Kap. 4.2). Dies, um Daten zu produzieren, deren Analyse in Ergebnisse mündet, die eine Beantwortung der Fragestellung/en ermöglichen. Es müssen also Passungen hergestellt werden, die je nach Situation auch die Entwicklung geeigneter, so noch nicht vorhandener Datenerhebungsmethoden oder die Anpassung vorhandener Methoden beinhalten können. In den folgenden Abschnitten werden die gängigsten Methoden der Datenerhebung behandelt: die schriftliche Befragung, die mündliche Befragung und die Beobachtung. Diese stellen eigentliche Gruppen von Methoden dar, innerhalb derer sich wiederum spezifische Arten und Formen unterscheiden lassen. Anschliessend werden mit der Fallanalyse und der Evaluation Forschungsformen dargelegt, welche an keine bestimmte Methode gebunden sind sondern die Kombination unterschiedlichster Methoden zulassen resp. dies oft sogar erfordern.

160

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

6.1 Schriftliche Befragung (von Tina Malti) Im Alltag sind wir sehr häufig mit schriftlichen Befragungen konfrontiert: Beim Einkaufen, beim Reisen oder im Sportclub kann es vorkommen, dass wir gefragt werden, ob wir nicht bereit wären, einen kurzen Fragebogen auszufüllen. So wird beispielsweise die Zufriedenheit mit einem bestimmten Produkt erfragt, werden Vorschläge für die Erneuerung des Tennisplatzes gemacht, die beurteilt werden sollen etc. In der Wissenschaft ist die schriftliche Befragung eine der zentralen Erhebungsmethoden, um Informationen von Personen zu erlangen. Dies liegt sicherlich zum einen daran, dass die schriftliche Befragung häufig sehr ökonomisch eingesetzt werden kann. Zum anderen ist die schriftliche Befragung auch beliebt, weil sie der befragten Person bei einem hohen Mass an Anonymität Gelegenheit zur Selbstbeschreibung und Auskunftgabe gibt, was bei bestimmten Themenbereichen von Vorteil sein kann (Mummendey, 2003, S. 18). In diesem Kapitel werden Grundlagen erläutert, die bei der Planung, Erstellung sowie der Durchführung einer schriftlichen Befragung zu beachten sind. Diese Grundlagen sollen dabei unterstützen, eine eigene schriftliche Befragung angemessen planen und durchführen zu können. 6.1.1 Grundlagen der schriftlichen Befragung Was versteht man unter einer schriftlichen Befragung? Eine schriftliche Befragung ist eine Methode der Datenerhebung, bei der sich die teilnehmenden Personen schriftlich zu dem zu untersuchenden Themenbereich äussern.

Fragebögen geben uns Aufschluss darüber, wie Personen in ganz bestimmten (Untersuchungs-)Situationen über ihr Verhalten und Erleben, ihre Einstellungen und ihre Auffassungen von sich selbst berichten (Mummendey, 2003, S. 49). Die Angaben in Fragebögen sind also subjektive Einschätzungen, die von individuellen Merkmalen und den situativen Umständen abhängen. So kann das Ausfüllen eines Fragebogens beispielsweise davon beeinflusst werden, wie man sich in dem Moment gerade fühlt, ob man den Fragebogen zu Hause ausfüllt oder aber auf der Strasse. Die schriftliche Befragung ist also ein „subjektives Messverfahren“. Ihr Wert liegt gerade darin, die subjektiven

161

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Einschätzungen der befragten Person zu erfassen. Fragebögen können daher nicht dasselbe Objektivitätsniveau, also eine der Realität angemessene Widerspiegelung der Dinge, wie standardisierte Tests (beispielsweise ein Intelligenztest) erreichen (Mummendey, 2003, S. 19). Bei der Durchführung einer schriftlichen Befragung lassen sich grob drei Schritte unterscheiden: Zuerst plant man die Konzeption des Fragebogens und damit die Erhebung der Daten. Dann erstellt man den Fragebogen, und schliesslich führt man die Erhebung durch. 6.1.2 Planung der schriftlichen Befragung Bevor man sich auf die eigentliche Planung der Befragung einlässt, ist abzuklären, ob die Fragebogen-Methode überhaupt die geeignete Erhebungsmethode darstellt. Darauf wird in diesem Kapitel zuerst eingegangen. Anschliessend wird erläutert, wie Themen und Fragen bestimmt und zugehörige Antwortformate formuliert werden können. Wahl der schriftlichen Befragung als Erhebungsmethode. Als Beispiel diene das Interesse, welche Motive angehende Lehrpersonen für Ihre Berufswahl haben. Diese Frage soll mittels einer schriftlichen Befragung untersucht werden. Bevor dies definitiv getan und umgesetzt wird, ist es wichtig, die Vor- und Nachteile einer schriftlichen Befragung gegenüber anderen Methoden sorgfältig abzuwägen: - Was sind die Vorteile einer schriftlichen Befragung? Wenn viele Personen befragt werden sollen, ist die schriftliche Befragung sicher weniger aufwändig als beispielsweise eine mündliche Befragung; es werden nicht nur bei der Durchführung, sondern auch bei der Auswertung Zeit und Kosten gespart. Wenn auch „heikle“ Themen angesprochen werden sollen, so kann die Anonymität der schriftlichen Befragung dazu verhelfen, dass die Personen ehrlicher antworten als in einem mündlichen Interview. - Welche Nachteile können bei einer schriftlichen Befragung auftreten? Zu bedenken ist, dass häufig nicht kontrolliert werden kann, wer den Fragebogen tatsächlich ausgefüllt hat: Ist es die Zielperson gewesen oder wurde der Fragebogen einfach an eine andere Person, die gar nicht hätte befragt werden sollen, weitergegeben? Eine schriftliche Befragung ist auch weniger lenkbar als eine mündliche Befragung, denn häufig ist der/die Untersuchungsleiter/in während der Befragung nicht anwesend. Das kann manchmal dazu führen, dass die Motivation der Befragten zum Ausfüllen des Fragebogens eher gering ist. Zudem erhalten Forschende in der Regel nicht alle Fragebögen zurück, wenn die Fragebögen beispielsweise postalisch ver-

162

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

sendet werden (Rücklaufquote). Im Gegensatz zur mündlichen Befragung, bei der sowohl der/die Befrager/in als auch die befragte Person bei Unverständlichkeiten klärend nachfragen und die unmittelbare Interaktion zum Vertrauen zwischen Forschendem und Befragtem beitragen kann, ist diese Möglichkeit bei einer schriftlichen Befragung meist nicht oder nur rudimentär vorhanden. Es besteht zudem die Gefahr, dass die Fragebögen nur oberflächlich durchgearbeitet werden und Ermüdungserscheinungen auftreten. Formen der schriftlichen Befragung. Wenn man zu dem Schluss kommt, dass zur Untersuchung der Forschungsfrage eine schriftliche Befragung am besten passt, so stellt sich als nächstes die Frage, welche Form der schriftlichen Befragung verwendet werden soll. So kann ein „klassischer“ Fragebogen auf Papier verwendet werden, oder aber ein Online-Fragebogen. Zudem kann der Fragebogen der zu befragenden Person schriftlich zugestellt werden (per Post oder via Internet), oder aber er kann in Anwesenheit des/der Untersuchungsleitenden ausgefüllt werden. Bei Verständnisproblemen kann der/die Untersuchungsleitende in letzterem Falle Hilfestellungen geben. Bestimmung des Themas und der Fragen. Bevor mit der Konstruktion des Fragebogens begonnen wird, ist es unabdingbar, die Fragestellung so präzise wie möglich zu formulieren und sich genau zu überlegen: Was ist mein Erkenntnisinteresse? Denn: Nur so steht fest, welche Konstrukte im Fragebogen erhoben werden sollten (siehe dazu auch Kap. 4.1.3 „Konstrukte, Begriffsdefinitionen und Operationalisierung“). Und nur so besteht eine Chance, das herauszufinden, was auch herausgefunden werden soll. Die Praxis sollte das Ergebnis des Nachdenkens sein, nicht umgekehrt. (Hermann Hesse)

Angenommen das Thema sei „Berufswahlmotive angehender Lehrpersonen“ und die Forschungsfrage lautet: Welche Motive haben angehende Lehrpersonen zu ihrer Berufswahl geführt? Nun stellt sich die Frage, wie zu diesem Thema die geeigneten Fragen gefunden werden. Es bieten sich zwei Möglichkeiten dazu an: - Ein zu diesem Thema vorhandener Fragebogen wird eingesetzt bzw. als Orientierung benutzt. Wurde von Wissenschaftler/innen bereits etwas Wichtiges zu dem Thema geschrieben? Liegen bereits Fragebögen zu dem Thema vor? Es wurden bereits zu sehr vielen Themen und Fragen (gute)

163

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Fragebögen konstruiert. Deshalb lohnt es sich, zunächst eine eingehende Literaturrecherche zu machen, um zu sehen, ob nicht evtl. ein vorhandener Fragebogen eingesetzt werden kann. Vor dem Entscheid ist eingehend zu prüfen, ob der bereits bestehende Fragebogen wirklich gut geeignet ist, um ihn für die eigene Fragestellung und die Zielgruppe einzusetzen: So ist beispielsweise wichtig, ob die im Fragebogen verwendete Sprache für die zu untersuchenden Teilnehmerinnen und Teilnehmer (Kinder vs. Erwachsene) geeignet ist. Oder ob die darin enthaltenen Fragen die Themenbereiche, die mit der Fragestellung untersucht werden sollen, in geeigneter Weise abdecken (Barth, 1998). Zudem ist anzumerken, dass es sich manchmal als schwierig gestalten kann, die in der Literatur referierten Fragebögen auch tatsächlich zu erhalten. - Ein Fragebogen wird selber konstruiert: Es ist wichtig, die Fragen aus vorhandenen Theorien oder anderen Fragebögen abzuleiten. Man kann auch Expert/innen und/oder Laien befragen, welche Themenbereiche sie als besonders relevant erachten. Als reichhaltigste Quelle für die Formulierung von Elementen/Themen eines neu zu konstruierenden Fragebogens bietet sich das Studium von Literatur an. Zu denken ist hier an Fachliteratur (Fachzeitschriften, Handbücher, Lehrbücher, Monographien, Reader etc.) und nicht-fachliche Literatur, die sich beide auf den zu erforschenden Bereich beziehen (Mummendey, 2003, S. 59–60). Steht fest, welche Themen und Konstrukte für die Fragestellung relevant sind, so können diese in Teilbereiche resp. Dimensionen gegliedert werden, um für jeden der Bereiche Fragen formulieren zu können (vgl. Bortz & Döring, 2003, S. 254). Die Formulierung von Themenbereichen bzw. Elementen des Fragebogens ist sehr wichtig, weil davon die Qualität der ganzen Untersuchung abhängt. Wird hier beispielsweise ein sehr wichtiger Teilbereich vergessen, kann dies später nicht mehr nacherhoben werden. Ist beim Thema „Berufswahlmotive von angehenden Lehrpersonen“ der Bereich „Interesse an Entwicklungsprozessen Heranwachsender“ in dem Fragebogen nicht mit aufgenommen worden, werden zu diesem Bereich keinerlei Informationen gesammelt, obwohl dies ein sehr wichtiger Teilbereich des Themas ist (vgl. dazu auch Kap. 4.1.3).

164

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Literatursuche zu „Berufswahlmotive von angehenden Lehrpersonen“ und Gliederung des Themas in Teilbereiche: Nach einer eingehenden Literatursuche zum Thema „Berufswahlmotive von angehenden Lehrpersonen“ hat sich gezeigt, dass zwar ein Fragebogen zu Berufswahlmotiven bereits vorliegt,, dass aber nicht alle Themenbereiche, die in der Literatur erwähnt werden, mit dem bestehenden Fragebogen abgedeckt werden. Auf der Basis der wichtigsten Literatur können folgende Bereiche unterschieden werden: - „Umgang mit Kindern und Jugendlichen“, - „Gesellschaftliches Engagement“, - „Interessante Tätigkeit“. Zu diesen Bereichen können nun Fragen formuliert werden.

Formulierung von Fragen (Items). In einem Fragebogen sind häufig nicht (nur) Fragen enthalten, sondern beispielsweise (auch) Aussagen, Einstellungen, Behauptungen etc., zu denen von den Befragten Stellung genommen wird. Man spricht deshalb häufig nicht von Fragen, sondern von Items. Als Items bezeichnet man die Bestandteile (Fragen, Aussagen, Behauptungen, Aufgaben, etc.) eines Fragebogens, die eine Antwort hervorrufen sollen.

Wenn nachfolgend von Fragen die Rede ist, gilt zu bedenken, dass damit häufig eben nicht nur Fragen, sondern Items gemeint sind. Es können zwei verschiedene Typen von Fragen unterschieden werden: offene und geschlossene Fragen. Eine offene Frage überlässt die Antwortformulierung dem/der Befragten. Eine geschlossene Frage legt hingegen bestimmte Antwortalternativen nahe resp. gibt diese gleich vor.

In der Literatur wird empfohlen, bei schriftlichen Befragungen vor allem geschlossene Fragen zu stellen. Es ist jedoch sinnvoll, zumindest einige offene Fragen mit aufzunehmen. Diese dienen der Auflockerung und können auch Ermüdungserscheinungen vorbeugen, die beim Ankreuzen nach einigen Seiten auftauchen können. Zudem haben die befragten Personen durch offene Fragen die Möglichkeit, auf das eigene Erleben und eigene Erfahrungen einzugehen, da die Antworten nicht durch den oder die Forschende vorstrukturiert werden. Dies kann den positiven Nebeneffekt haben, dass sich die befragte Person mit ihren eigenen Erfahrungen wertgeschätzt fühlt.

165

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Beispiel einer geschlossenen und einer offenen Frage. Geschlossene Frage: Wenn Sie Ihre Arbeit insgesamt beurteilen, wie zufrieden sind Sie damit? Ich bin insgesamt mit meiner Arbeit … ❑ Sehr unzufrieden

❑ Eher unzufrieden

❑ Teils-teils

❑ Eher zufrieden

❑ Sehr zufrieden

Offene Frage: Welche Umstände tragen für Sie zur Arbeitszufriedenheit bei? ---------------------------------------------------------------------------------------------

Offene Fragen sind besonders gut geeignet, um der individuellen Vielfalt der Antworten, z.B. bei Fragen zur Biografie einer Person, gerecht zu werden. Allerdings stellen sie höhere Anforderungen an die Befragten als geschlossene Fragen, schon allein weil die freien schriftlichen Antworten bestimmte sprachliche Voraussetzungen benötigen. Offene Fragen eignen sich insgesamt somit eher für mündliche Befragungen. Geschlossene Fragen bringen einheitlichere Antworten mit sich und erleichtern dadurch die Auswertung. Manchen Befragten kommen geschlossene Fragen entgegen, da sie nicht durch die Formulierung von Antworten sprachlich oder von ihrem Wissensstand her überfordert werden. Bei geschlossenen Fragen besteht aber die Gefahr, dass die vorformulierten Antwortvorgaben (vgl. unten „Wahl eines Antwortformats“) unvollständig sind. Es ist auch möglich, dass die Antwortvorgaben einen Einfluss auf das Antwortverhalten haben. So kreuzen beispielsweise manche Personen häufig die „mittlere“ Kategorie (z.B. „teilsteils/manchmal“) an, wenn eine ungerade Anzahl von Antwortalternativen vorgegeben ist, was nicht besonders informativ ist. Werden in einem Fragebogen geschlossene Wissensfragen gestellt, so besteht zudem die Möglichkeit, dass die Befragten die richtige Antwort erraten. Regeln zur Formulierung der Fragen. Neben verschiedenen Typen von Fragen und Antwortvorgaben gibt es auch einige hilfreiche Tipps, die man bei der Formulierung der Fragen beachten sollte. Im Folgenden werden einige dieser Regeln beschrieben. Diese sind aber eher als allgemeine Orientierungsrichtlinien zu verstehen, denn je nach konkreter Fragestellung ist es wichtig, über deren Gültigkeit bei jeder Frage neu zu reflektieren (Barth, 1998).

166

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Zu beachtende Regeln bei der Frageformulierung 1. Welche Fragen sind überflüssig, weil man die Information auch auf andere Art erhalten kann? Generell ist es gut, den Fragebogen möglichst kurz zu halten. 2. Sind die Fragen einfach und eindeutig formuliert? Zielt die Frage auf mehrere Inhalte ab, sollte sie in Einzelfragen zerlegt werden. 3. Sind die Fragen zu allgemein, zu spezifisch oder hypothetisch formuliert? 4. Fragen, die von (fast) allen Befragten mit ja oder nein beantwortet werden, sind nicht geeignet, denn sie differenzieren nicht zwischen den Befragten. 5. Formulierungen, die Begriffe wie „immer“, „alle“, „keiner“ etc. enthalten, sollten vermieden werden, denn sie führen dazu, dass man sie als Befragte/r als unrealistisch bewertet. 6. Wörter wie „kaum“, „selten“ etc. sind problematisch, denn wenn man bestimmte Antwortvorgaben verwendet (z.B. von „trifft gar nicht zu“ bis „trifft sehr zu“) kommt es zu sprachlichen Konfundierungen (z.B. „trifft selten sehr zu“), also Vermengungen, die das Beantworten und Interpretieren schwierig machen. 7. Sind die Fragen suggestiv formuliert? Dies sollte vermieden werden. Ein Beispiel für eine Suggestivfrage wäre: „Denken Sie nicht auch, dass es besser wäre eine verkehrsberuhigte Zone in Strasse x einzuführen?“

Wahl eines Antwortformats. Bei geschlossenen Fragen sind sogenannte Antwortvorgaben (oder Antwortformate) zu wählen. Antwortvorgaben sind die Skalen, die man zur Beantwortung einer Frage in einem Fragebogen vorgibt.

In Tabelle 15 (S. 168) sind häufig verwendete Fragetypen und jeweils ein dazugehörendes Item-Beispiel mit Antwortvorgabe aufgeführt. Bei offenen Fragen werden zur Beantwortung der Fragen häufig Textfelder angeboten. Antwortformat einer offenen Frage Bitte beschreiben Sie in 1–2 Sätzen, welche Aspekte Sie an Ihrer Partnerschaft besonders schätzen.

167

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Tabelle 15: Verschiedene Fragetypen und dazugehörendes Item-Beispiel mit Antwortvorgabe Fragetyp Single Choice (EinfachauswahlAufgaben) Multiple Choice (MehrfachauswahlAufgaben)

Item-Beispiel Welche Antwort ist zutreffend? Der aktuelle Präsident der USA heisst … Welche Musik hören Sie gerne?

Rating-Skala (Einschätzungs-Skala)

Wie stark trifft die folgende Aussage auf Sie zu: Ich bin ein gesprächiger Mensch.

Wahlmatrix I (eine Antwort pro Zeile) Wahlmatrix II (mehrere Antworten pro Zeile)

Wie oft essen Sie die verschiedenen Gerichte? Mein Bruder und ich mögen die folgenden Gerichte.

Antwortvorgabe-Beispiel a) Bill Clinton b) Barack Obama c) Ronald Reagan a) Klassik b) HipHop c) Rap d) Soul e) Pop Trifft gar nicht zu (1) Trifft nicht zu (2) Trifft eher nicht zu (3) Trifft eher zu (4) trifft zu (5) trifft voll zu (6) Pizza nie -------------- immer Pasta nie -------------- immer Pizza Pasta Bruder   ich  

Verbale, grafische und numerische Unterstützung bei Antworten. Es ist hilfreich, die einzelnen Abstufungen eindeutig verbal zu bezeichnen. Zudem ist es sinnvoll, den verbalen Bezeichnungen (z.B. „sehr unzufrieden“, „eher unzufrieden“ etc.) semantisch (also der Bedeutung der sprachlichen Zeichen gemäss) entsprechende numerische Abstufungen zuzuordnen (z.B. von „1“ bis „5“). Der Übersichtlichkeit halber ist es auch gut, verbale und numerische Bezeichnungen durch graphische Gestaltungen zu unterstützen. Beispiel: Unterstützungsmöglichkeiten bei geschlossenen Antwortvorgaben. Wenn Sie Ihre Arbeit insgesamt beurteilen, wie zufrieden sind Sie damit? Ich bin insgesamt mit meiner Arbeit … ❑ 1 Sehr unzufrieden

❑ 2 Eher unzufrieden

Verbale Bezeichnung

168

❑ 3 Teils-teils

Grafische Unterstützung

❑ 4 Eher zufrieden

❑ 5 Sehr zufrieden

Numerische Unterstützung

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Es gibt verschiedene Arten, wie man Einschätzskalen verbal bezeichnen kann. Tabelle 16: Verbale Bezeichnungen von Ratingskalen Häufigkeiten Intensität Wahrscheinlichkeit Bewertung von Aussagen

nie (1), selten (2), gelegentlich (3), oft (4), immer (5) gar nicht (1), kaum (2), mittel (3), ziemlich (4), ausserordentlich (5) keinesfalls (1), wahrscheinlich nicht (2), vielleicht (3), ziemlich wahrscheinlich (4), ganz sicher (5) gar nicht (1), eher nicht (2), eher (3), ganz (4)

Wie Tabelle 16 zeigt, kann bei den Skalen eine gerade oder ungerade Anzahl an Stufen vorgegeben werden. Gibt man eine gerade Anzahl an Skalenstufen vor, so wird die befragte Person dazu gezwungen, sich für eine Richtung (Zustimmung oder Ablehnung) zu entscheiden. Dies soll verhindern, dass Personen immer in der Mitte ankreuzen (die „teils-teils“-Kategorie; im obigen Beispiel „mittel“ und „vielleicht“). Wenn man dieses Vorgehen wählt, ist es häufig angebracht, der Person Ausweichkategorien (z.B. die Kategorie „weiss nicht“) zur Verfügung zu stellen. Beispiel: Ungerade und gerade Anzahl Skalenstufen. Ungerade Anzahl Skalenstufen: Warum wollen Sie LehrerIn werden?

Trifft nicht zu

… weil ich gerne mit Kindern zusammen bin.

❑1

Trifft eher nicht zu ❑2

Trifft teils zu

Trifft eher zu

Trifft voll zu

❑3

❑4

❑5

Trifft eher nicht zu ❑2

Trifft eher zu

Trifft voll zu

❑3

❑4

Gerade Anzahl Skalenstufen: Warum wollen Sie LehrerIn werden?

Trifft nicht zu

… weil ich gerne mit Kindern und Jugendlichen zusammen bin.

❑1

169

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Auswertung der Items (Fragen). Die Items können qualitativ und/oder quantitativ ausgewertet werden. Bei Antworten auf offene Fragen werden häufig qualitative Auswertungen vorgenommen. So können beispielsweise per Inhaltsanalyse ähnliche inhalt-liche Aussagen zu Kategorien zusammengefasst werden. Diesen Kategorien können dann z.B. Zahlen zugeordnet werden, die mit einer Häufigkeitsanaly-se dargestellt werden können (vgl. Kapitel 7.2 und 7.3). Antworten auf geschlossene Fragen werden meist quantitativ ausgewertet (vgl. Kapitel 7.3). Welche statistischen Analysen anschliessend durchgeführt werden dürfen (z.B. Berechnung von Mittelwert, Median etc.), hängt vom sogenannten Skalenniveau der vorgegebenen Antwortskala ab (vgl. Kapitel 7.3.1 „Messen“). 6.1.3 Erstellung des Fragebogens Bei der Erstellung des Fragebogens ist auf den Aufbau des Fragebogens, die Einführung und Instruktion, den Umfang und die grafische Gestaltung zu achten. Aufbau des Fragebogens. Neben der Auswahl der Fragen ist auch dem Aufbau des Fragebogens Beachtung zu schenken. Der Aufbau des Fragebogens ist wichtig, weil dieser die Akzeptanz bei dem/der Befragten und damit die Motivation, den Fragebogen auch bis zum Ende auszufüllen, beeinflusst. Beginnt der Fragebogen beispielsweise gleich mit einer „heiklen“ Frage, so wird die Person das weitere Ausfüllen evtl. vermeiden bzw. einen negativen Eindruck von der Befragung erhalten. Zu beachten ist: Der Fragebogen muss klar, verständlich und so kurz wie möglich sein. Die Befragten sollten nicht überfordert werden durch schwierige Fragen.

Ein möglicher Aufbau des Fragebogens kann wie folgt aussehen: - Einführung: Sätze, die das Ziel der Befragung prägnant, klar und verständlich beschreiben sowie weitere allgemeine Hinweise geben. So sollte immer auf die Anonymität der Befragung hingewiesen werden. - Instruktion zum Ausfüllen der Fragen: Wie werden die Fragen richtig ausgefüllt? - Fragen zum Thema: Allenfalls Einstiegsfragen bzw. so genannte „Eisbrecherfragen“, die neutrale Themen betreffen. Fragen zu den interessierenden Themengebieten, Überleitungsfragen /-sätze einbauen; beginnend mit leichten Fragen. Fragen gegen Schluss des Fragebogens so einfach wie möglich halten (da Motivation gegen Schluss hin sinkt).

170

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

- Soziodemografische Angaben: Alter, Geschlecht, Wohnort, etc. Soziodemografische Angaben werden häufig auch unmittelbar nach der Instruktion erfragt. Zudem wird oft ein sogenannter Code eingefügt, damit nicht der Name der befragten Person erfasst werden muss und so die Anonymität gewährleistet ist. Zugleich ist aber eine Zuordnung der befragten Person zum Fragebogen möglich, was für die spätere Auswertung wichtig ist. Dazu wird auf der Liste der befragten Personen jeder Person ein Code zugewiesen (z.B. eine Zahl oder eine Buchstabenkombination). Dieser Code wird dann auf den Fragebogen geschrieben und der entsprechenden Person wird dieser Fragebogen zum Ausfüllen gegeben. Einführung und Instruktion. Bei der Einführung und der Instruktion ist unbedingt darauf zu achten, dass der Text klar verständlich ist, so dass keine zusätzlichen (mündlichen) Erklärungen mehr notwendig sind. Ein Beispiel, wie ein Einführungstext und eine Instruktion zum Ausfüllen der Fragen (vgl. oben Schritte 1 und 2) in einem Fragebogen aussehen können, ist im Folgenden dargestellt. Liebe Teilnehmende! Herzlichen Dank dafür, dass Sie sich Zeit für diesen Fragebogen nehmen! Mit dieser Befragung soll das Einführungspraktikum untersucht werden. Deshalb werden wir Sie vor und nach dem Einführungspraktikum dazu befragen, was Ihre Erwartungen an das Praktikum sind bzw. wie Sie Ihren Lernprozess während des Praktikums wahrgenommen haben. Alle Angaben, die Sie hier machen, werden absolut vertraulich behandelt. In der Berichterstattung werden keine Rückschlüsse auf Einzelpersonen möglich sein. Wenn keine Antwortmöglichkeit exakt zutrifft, so bitten wir Sie, jene Antwort zu markieren, die am besten passt. Trifft eine Frage/Aussage auf Ihre Situation gar nicht zu oder kennen Sie die Antwort nicht, so lassen Sie diese einfach aus. Markieren Sie pro Frage/Aussage bitte nur eine Antwort (Ausnahme: Fragen mit dem Vermerk „Mehrfachantworten möglich“). Das Ausfüllen des Fragebogens wird ca. 30 Minuten in Anspruch nehmen. Selbstverständlich ist Ihre Teilnahme freiwillig. Wir würden uns aber sehr freuen, wenn Sie uns unterstützen würden bei dieser Befragung. Herzlichen Dank!

Umfang des Fragebogens. Der Fragebogenumfang sollte angemessen sein. Obwohl in der Literatur als Richtlinie gilt, dass ein Fragebogen maximal 12– 16 Seiten umfassen sollte und das Ausfüllen maximal zwischen 30 und 60 Minuten beanspruchen darf, ist Folgendes zu bedenken: 1. Die Bereitschaft, einen Fragenbogen auszufüllen, dürfte kleiner sein, wenn das Ausfüllen sehr viel Zeit in Anspruch nimmt (ausser man hat einen persönlichen Nutzen davon).

171

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

2. Die Konzentration nimmt mit zunehmender Länge der Befragung ab. Gerade bei Schülerinnen und Schülern ist dies zu beachten. 3. Ein Fragebogen, der nur 20–30 Items umfasst und für die Beantwortung und Einschätzung der Items 5–10 Minuten in Anspruch nimmt, wird wahrscheinlich eher ausgefüllt werden als ein Fragebogen mit 50 oder mehr Items. Grafische Gestaltung des Fragebogens. Die grafische Gestaltung des Fragebogens ist wichtig, da dadurch die Übersichtlichkeit für die Befragten erhöht, die Eindeutigkeit der Anweisungen und die Übertragbarkeit der Angaben zur weiteren statistischen Auswertung beeinflusst werden kann. Beispiel: Schattierung der Items als Möglichkeit, die Übersichtlichkeit für die Befragten zu verbessern. Warum wollen Sie LehrerIn werden? … weil ich gerne mit Kindern zusammen bin. … weil man als Lehrer gut berufliche und politische Arbeit verbinden kann. … weil die Tätigkeit als Lehrer/in interessant, vielseitig und abwechslungsreich ist.

Trifft nicht zu

Trifft teils zu

Trifft eher zu

Trifft voll zu

❑1

Trifft eher nicht zu ❑2

❑3

❑4

❑5

❑1

❑2

❑3

❑4

❑5

❑1

❑2

❑3

❑4

❑5

Wichtig ist, dass allen Antwortkategorien bereits beim gedruckten Fragebogen ein numerischer Wert zugeordnet wird. Dies erleichtert das anschliessende Auswerten der Daten erheblich. Insgesamt sollte der Fragebogen nicht zu dicht wirken, etwas Lockerheit erhöht die Akzeptanz zum Ausfüllen. Visuelle Stützen und ein klares Layout helfen ebenfalls, die Akzeptanz zu erhöhen und verringern zudem Ermüdungseffekte. 6.1.4 Durchführung der Befragung Bevor mit der Durchführung der Befragung begonnen wird, wird empfohlen zu überprüfen, ob die wichtigsten Regeln bei der Erstellung des Fragebogens eingehalten wurden (vgl. Regeln zur Formulierung der Fragen und Fragebogenaufbau in den vorherigen Abschnitten).

172

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Es empfiehlt sich zudem, den fertig erstellen Fragebogen zunächst einigen Zielpersonen zum Probe-Ausfüllen zu geben. Dieser Vortest („Pilotierung“, vgl. Kapitel 5.1.1) hilft einerseits, etwaige Unklarheiten in der Instruktion zu klären. Andererseits können aber auch Items, die nicht verständlich sind oder nicht gut funktionieren (beispielsweise, weil alle Befragten mit „weiss nicht“ antworten), verbessert werden. Wenn der Fragebogen fertig erstellt ist und etwaige Items durch Erfahrungen aus dem Vortest geändert wurden, sollten zunächst Informationen an die Beteiligten zusammengestellt werden. So kann beispielsweise ein Begleitbrief erstellt werden, der die zu Befragenden über die Ziele der Studie informiert und ihnen allenfalls einen Gegenwert in Aussicht stellt. Zudem wird darin erklärt, warum die Teilnahme an der Studie wichtig ist, dass die Anonymität gewährleistet ist und man sich zudem für die Teilnahme im Voraus bedankt. Bei Minderjährigen muss die schriftliche Einverständniserklärung der Eltern eingeholt werden. Wird eine Befragung in Schulen durchgeführt, müssen zudem die Schulleitung und die Lehrpersonen informiert und um Erlaubnis gebeten werden (vgl. Kap. 2.5). Erst dann kann der Fragebogen an die Befragten verteilt werden. Oft wird der Fragebogen auf postalischem Weg zugestellt, und die teilnehmenden Personen senden ihn per Post zurück. Bei einer postalischen Befragung ist es zentral, dass die Gestaltung und die Einleitung zum Ausfüllen des Fragebogens verständlich und selbsterklärend sind. Auch die Antwortvorgaben müssen eindeutig sein. Ein Begleitbrief erläutert Ziele und Rahmenbedingungen der Befragung. Zudem sollte ein frankiertes Rücksendecouvert enthalten sein, um möglichst viele Fragebögen zurückgesendet zu bekommen. Bei Online-Befragungen ist auf die Länge zu achten, eine sehr lange Befragung führt oft zu hohen Abbruchquoten. Zudem ist zu bedenken, dass dann nur Bevölkerungssegmente erreichbar sind, die einen Zugang zu einem Computer und ggf. einem E-mail Account haben. Die Rücklaufquote bezeichnet den prozentualen Anteil an den Fragebögen, die man nach dem Versand der Fragebögen wieder zurückerhält. Man kann den Rücklauf verbessern, wenn man die Befragung telefonisch und schriftlich ankündigt und die zu Befragenden möglichst genau informiert. Auch ist es wichtig, das Thema attraktiv zu gestalten. Nachfassaktionen und Mahnungen können auch hilfreich sein. Bei Postversendungen sollte unbedingt ein frankiertes Rücksendecouvert enthalten sein. Auch ein persönlicher Nutzen (z.B. Erhalt der Ergebnisse in Form einer attraktiven Broschüre) oder Belohnungen erhöhen in der Regel die Teilnahmebereitschaft.

173

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Nimmt die Person, die die Befragung durchführt, das Austeilen und Wiedereinsammeln der Bögen selbst vor, so hat man häufig nicht das Problem, nur wenige Fragebögen zurückzuerhalten, wie es bei einer postalischen Befragung z.B. passieren kann (vgl. Rücklaufquote). Häufig erfolgt einige Zeit nach Versand der Fragebögen der sogenannte Nachkontakt (Nachfass-Aktion). Damit wird versucht, die Rücklaufquote zu erhöhen. So kann beispielsweise 2–3 Wochen nach Ablauf des gesetzten Rücksendedatums eine Postkarte mit einem Dank und einer freundlichen Erinnerung, den Fragebogen noch auszufüllen, an die befragte Person versandt werden. Vertiefung. Beim Einsatz einer schriftlichen Befragung kann es zu verschiedenen Verfälschungstendenzen kommen. Eine wichtige Tendenz ist die sogenannte Tendenz zur sozialen Erwünschtheit. Damit ist gemeint, dass eine Person sich bemüht, eine Frage so zu beantworten, dass die Antwort voraussichtlich dem gesellschaftlich Wünschenswerten, dem Wünschenswerten gemäss dem Ziel der Studie, oder dem, was der Person selbst als wünschenswert erscheint, entspricht. Dies kann dazu führen, dass die befragte Person beispielsweise „beschönigend“ antwortet. Eine Möglichkeit, dem Problem entgegenzuwirken, bieten bestimmte Skalen, welche die Tendenz zur sozialen Erwünschtheit messen. Dabei werden bestimmte Items wie „ich war noch nie unpünktlich“ erfragt. Wer dieses oder ähnliche Items mit „ja“ beantwortet, zeigt vermutlich auch bei anderen Fragen die Tendenz sozial erwünscht zu antworten, denn jeder und jede war schliesslich schon einmal unpünktlich (Pilshofer, 2001, S. 9–10). Deshalb ist es ratsam, Fragen präzise zu formulieren und Rahmenbedingungen zu vermeiden, die sozial erwünschte Antworten begünstigen. Weiterführende Literatur Bortz, J. & Döring, N. (2003). Forschungsmethoden für Human- und Sozialwissenschaftler. Berlin: Springer. Kirchhoff, S. (2003). Fragebogen. Opladen: Leske + Budrich. Mummendey, H. D. & Grau, I. (2008). Die Fragebogen-Methode. Göttingen: Hogrefe.

174

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

6.2 Mündliche Befragung (von Stefanie Stadler Elmer) Im Alltag kommt es oft vor, dass wir andere Personen „mündlich“ befragen und Information oder Berichte über Erfahrungen einholen. Die mündliche Befragung ist somit etwas Alltägliches. Definition: Die „mündliche Befragung“ ist ein Wortwechsel zwischen Personen, bei welchem die eine Person von einer anderen möglichst viel interessante oder relevante Information erhalten will. Die Begriffe „Interview“ und „mündliche Befragung“ werden bedeutungsgleich (synonym) verwendet. Das Ziel besteht darin, durch Fragen Information von einer oder mehreren Personen zu erhalten.

Es gibt viele Berufsfelder, in welchen Befragungen eine wichtige Rolle spielen, z.B. das Verhör im Rahmen der Rechtsprechung oder das Gespräch zwischen Patient und Arzt zur Diagnosestellung im medizinischen Kontext. Allen ist gemeinsam, dass mindestens zwei Personen beteiligt sind: Die eine Person braucht Information, und die andere Person möchte oder sollte diese Information geben wollen und können. 6.2.1 Das wissenschaftliche Interview In den Sozialwissenschaften ist die mündliche Befragung eine wichtige und häufig angewendete Methode (König, 1966; Diekmann, 2007). Sie unterscheidet sich wesentlich vom Befragen in Alltagsgesprächen. „Der Glaube, man müsse nur ein paar geschickte Fragen zusammenfügen, um damit etwas sachlich Relevantes zu erfahren, ist eine Illusion. Das Wichtigste bleibt nach wie vor die theoretische Vorbereitung der Erhebung, die dann sowohl über die Art der Befragung wie über die Auswahl und die Auswertung entscheidet“ (König, 1966, S. 11). Was kennzeichnet ein wissenschaftliches Interview? Es erfordert eine Planung, einen reflektierten und kritischen Umgang mit der Art des Fragens und der Kommunikationssituation samt ihren Fehlerquellen, eine systematische Durchführung und Auswertung (Bell, Staines, & Mitchell, 2001). Dementsprechend geht man in folgenden Schritten vor (Bell, 1999): Als erstes klärt man, was man wissen will, welche Art Information dazu nötig ist, und warum man diese Information braucht. Dann muss man klären, ob eine mündliche Befragung die geeignete Methode ist, die notwendige Infor-

175

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

mation zu erhalten, oder ob es dazu Alternativen gibt. Falls man die mündliche Befragung als Forschungsmethode wählt, gilt es die Form zu entscheiden: Ein strukturiertes Interview ergibt eher strukturierte Ergebnisse, hingegen bietet ein wenig strukturiertes Interview einen eher offenen, erkundenden Zugang zu Information (vgl. unten). Nach diesen Entscheidungen geht es darum, konkret das Interview zu planen und anzuwenden. In diesem Kapitel werden zunächst verschiedene Charakteristiken und verschiedene Formen des Interviews erläutert. Dann folgen Anleitungen zum Erstellen des Interviewleitfadens, zur Steuerung des Gesprächsverlaufs, zur Durchführung und zur Transkription (übersetzen des mündlichen Gesprächs in einen schriftlichen Text). Die Auswertung von Interviewtranskriptionen erfolgt inhaltsanalytisch. Dies wird in Kapitel 7.2 „Qualitative Verfahren der Datenauswertung“ behandelt. Wann eignet sich das Interview als Forschungsmethode? Da die mündliche Befragung im Wesentlichen ein gezieltes Gespräch zwischen zwei oder mehr Personen ist, kann es bei sehr vielen Forschungsfragen angewendet werden. Breakwell (2002, S. 239) bezeichnet das Interview als „ein praktisch unendlich flexibles Forschungsinstrument“. Ein Interview kann beispielsweise eine schriftliche Befragung ersetzen oder ergänzen. Typische Anwendungen sind die Darstellung eines individuellen Falles oder von mehreren Fällen (Bureau of Applied Social Research, 1966), das Ermitteln von subjektiven, emotionalen Erlebnisqualitäten, oder das Erkunden eines neuen Forschungsfeldes. Da es je nach Ziel der Befragung unterschiedliche Formen gibt, lässt sich nicht allgemein sagen, welches Vor- oder Nachteile sind. Bevor man sich auf diese Forschungsmethode einlässt, ist es nützlich, die allgemeinen Charakteristiken und die Grundformen zu kennen. Charakteristiken des Interviews. Das Hauptmerkmal der mündlichen Befragung ist die sprachliche Kommunikation zwischen zwei oder mehreren Personen über einen Inhalt. Es geht um verbales Verhalten und nicht um Handlungen, Beobachtungen oder um Produkte menschlicher Tätigkeit (Texte, Bilder, Werkzeuge, Instrumente usw.). Die soziale Situation einer mündlichen Befragung ist komplex: Die teilnehmenden Personen haben Erwartungen, sie beeinflussen sich gegenseitig, und sie gestalten den Inhalt und den Verlauf des Gesprächs, etwa durch die Art des Fragens und Antwortens, die nonverbale Kommunikation, Interessen und situative Gegebenheiten (Atteslander & Kneubühler, 1975). Auch das Verstehen und die Verwendung von Sprache ist ein komplexer Vorgang. Er ist durch soziale Herkunft, Zugehö-

176

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

rigkeit, Bildung, Normen, Erfahrung und momentane Befindlichkeit geprägt. Ein weiteres Charakteristikum der kommunikativen Situation ist die asymmetrische Interessenslage: Die befragende Person hat meist mehr Interesse am Inhalt als die befragte Person (vgl. Lamnek, 1995; Atteslander & Cromm, 2008). Anders als in einer schriftlichen Befragung ist es der fragenden Person im Interview möglich, von einer Person gezielte Information und Berichte über persönliche Erfahrungen, Bewertungen und Meinungen zu erhalten, auf neue, zuvor nicht bedachte Inhalte einzugehen, sich dem sprachlichen Niveau der befragten Person anzupassen, Nachfragen zu stellen und die gegenseitige Verständigung zu sichern. Voraussetzungen. Damit die Methode des Interviews realisiert werden kann, braucht es bestimmte Voraussetzungen (Diekmann, 2007): 1. Die befragte Person muss bereit sein zu kooperieren. 2. Die Teilnehmenden müssen gegenseitig davon ausgehen können, dass aufrichtige und ehrliche Aussagen gemacht werden. 3. Die Teilnehmenden müssen eine „gemeinsame Sprache“ haben. Das heisst, die Bedeutungen der sprachlichen Aussagen müssen in ähnlicher Weise interpretiert werden. Zwischen Generationen, sozialen Schichten, den zwei Geschlechtern oder ethnischen Gruppen kann die Verwendung derselben Sprache stark variieren. Formen des Interviews. Das Befragungsziel bestimmt die Form, in welcher man eine mündliche Befragung plant und durchführt. Es werden zwei Grundformen von Interviewsituationen unterschieden, zwischen denen es unterschiedliche Abstufungen und Variationen gibt (Bell, 1999; Breakwell, 2002; Laatz, 1993; Lamnek, 1995; Diekmann, 2007; Atteslander & Cromm, 2008): Die eine Grundform ist das strukturierte Interview, bei welchem alle Fragen mit vorgegebenen Antwortkategorien in einer fixierten Reihenfolge vorgelegt werden. Durch diese strenge Formalisierung liegt der Schwerpunkt auf dem „Messen“ oder Erfassen quantitativer Aspekte der Information. Die individuelle Bandbreite an Reaktionsmöglichkeiten ist sehr klein. Die andere Grundform bildet das wenig strukturierte1 oder auch „offene“ Interview, bei welchem weder der Ablauf noch die Art der Fragen festgelegt sind. Es handelt sich um ein eher informelles Gespräch, bei welchem qualitative Aspekte und 1

In der Literatur ist auch die Rede vom „unstrukturierten“ Interview (vgl. Wittkowski, 1994; Breakwell, 2002), was eine unzutreffende Formulierung ist, weil jedes Gespräch eine Struktur hat.

177

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

individuelle Vielfalt erwünscht sind. Die am häufigsten verwendete Interviewform, das halb- oder teilstrukturierte Interview, liegt zwischen diesen beiden Extremen: Der Verlauf, die Themen und die Art des Fragens sind zwar vorbereitet, werden jedoch der befragten Person und dem thematischen Gesprächsverlauf angepasst. Zu dieser Kategorie des halb- oder teilstrukturierten Interviews gehören viele Variationen, die alle durch eine flexible Gesprächsführung gekennzeichnet sind: Beim narrativen Interview (lat. narrare = erzählen) steht das Erzählen – über biografische oder historische Ereignisse – im Vordergrund (Lamnek, 1995; Reinders, 2005). Eine Person wird gebeten, möglichst viel und nach eigenem Gutdünken über ein Thema zu berichten, beispielsweise zu biografischen Begebenheiten, und wird dabei durch Fragen unterstützt. Narrative Gesprächsteile seitens der befragten Person können sich in verschiedenen Formen von halbstrukturierten Interviews ergeben. Beim fokussierten Interview werden der befragten Person Stimuli (Filmausschnitt, Bild, Musikstück usw.) vorgegeben, und die Interviewsituation wird durch einen halbstandardisierten Leitfaden strukturiert. Ähnlich ist das problemzentrierte Interview: ein gesellschaftlich relevantes Problem steht als Gegenstand im Vordergrund. Weiter gibt es das Tiefen- oder Intensivinterview, das themenzentrierte Interview, das rezeptive Interview und die Struktur-Lege-Technik (siehe ausführlich Lamnek, 1995; Reinders, 2005). Die beiden Formbezeichnungen „strukturiertes“ und „halb“- oder „teilstrukturiertes“ Interview beziehen sich gemäss Atteslander & Cromm (2008) auf die Struktur der Interviewsituation. Hingegen bezieht sich die Bezeichnung standardisiertes – nicht-standardisiertes Interview auf das Instrument (mündlicher Fragebogen, Interviewleitfaden) und dabei auf die Art der möglichen Antworten. Ein standardisierter mündlicher Fragebogen gibt die Antworten als Kategorien zusammengefasst vor, während ein nicht- oder halbstandardisierter Leitfaden keine Antwortkategorien vorgibt; eine Kategorisierung der Antworten geschieht erst später im Rahmen der Inhaltsanalyse. Bei der Einteilung von Interviews wird auch nach der Anzahl der beteiligten Personen unterschieden: Einzel-, Paar- und Gruppenbefragung (vgl. Laatz, 1993). Gelegentlich wird der Kommunikationsstil thematisiert und dabei zwischen den zwei Extremtypen „weich“ und „hart“ unterschieden (Lamnek, 1995; Diekmann, 2007). Beide Stile stellen gemäss Lamnek (1995) den Versuch dar, mit der mangelnden Kooperationsbereitschaft der befragten Person umzugehen: Im einen Fall wird durch erhöhten Ausdruck von Einfühlung und Verständnis, und im anderen Fall durch erhöhten Druck, „wie in einem Verhör“ (Lamnek, 1995, S. 58), die Gesprächsbereitschaft zu beeinflussen

178

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

versucht. Zur Planung gehört die Vorwegnahme von solchen und anderen Schwierigkeiten und den Möglichkeiten und Grenzen der sozialen Beeinflussung. Ein wichtiger Bestandteil jeden Interviews ist die Art des Fragens, wodurch der Gesprächsverlauf und die Inhalte beeinflusst werden. 6.2.2 Das Gespräch steuern: Interviewleitfaden erstellen, Fragen stellen In einer mündlichen Befragung hat die Art und Weise zu fragen zwei Funktionen: Die Fragen dienen dazu, die Forschungsfragen zu klären, und sie tragen dazu bei, den Gesprächsverlauf günstig zu beeinflussen oder zu steuern. Die Art des Fragens beeinflusst selbstverständlich die Art des Antwortens. Fragen lenken die Aufmerksamkeit auf bestimmte Aspekte des Themas, sie können das Denken, die Erinnerung, das Fantasieren und Reden anregen oder hemmen. Zu Beginn eines Interviews ist es gemäss Atteslander und Cromm (2008) wichtig, der befragten Person anhand einer einleitenden Frage Zeit zu geben, mit der Gesprächssituation vertraut zu werden und sich in das Thema einzudenken. Oft veranlasst ein Interview, über etwas nachzudenken, worüber man sonst nicht nachdenken würde. Daher wird in einer mündlichen Befragung zunächst ein Thema eingeführt und ein allgemeiner Kontakt hergestellt, bevor die inhaltlich wichtigen Fragen gestellt werden. Die Fragen werden je nach der gewählten Form des Interviews – strukturiert, teil- oder wenig strukturiert – anders vorbereitet. Ein strukturiertes Interview enthält schriftlich formulierte Fragen, die der Reihe nach gestellt werden. Dieser Fragebogen – so die Bezeichnung von Atteslander und Cromm (2008, S. 133) – kann entweder vorgegebene Antwortkategorien haben; dann ist er standardisiert und erleichtert die Vergleichbarkeit, oder er kann auf Antwortvorgaben verzichten, dann ist er nicht-standardisiert. Im Fall des strukturierten Interviews gelten dieselben Überlegungen wie bei Fragen im Kontext der schriftlichen Befragung (vgl. Kap. 6.1). Im Falle des wenig strukturierten Interviews werden keine oder nur wenig Fragen vorbereitet. Da das teilstrukturierte Interview mit seinen vielen Variationsmöglichkeiten die wohl häufigste Form darstellt, wird hier näher darauf eingegangen. Interviewleitfaden erstellen. Eine notwendige Vorbereitung für jede Form des Interviews ist das Studium von Fachliteratur zum Inhalt, der befragt wird. Dies inspiriert, die Breite und Tiefe des Themas zu erkunden und Ideen für die Gliederung von Teilthemen oder inhaltlichen Komponenten zu finden. Zur Erstellung eines Interviewleitfadens werden die dabei entstehenden Fragen formuliert, gesammelt, geordnet, und schliesslich ausgewählt und verfei-

179

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

nert. Es empfiehlt sich, die geordneten Fragen mit thematisch passenden Oberbegriffen zu Teilbereichen zusammenzufassen und dann zu prüfen, ob inhaltlich das gesamte Themenfeld abgedeckt ist. Das Ordnen der Fragen nach inhaltlichen Komponenten oder Teilbereichen erleichtert es, während des Gesprächs sicher zu stellen, dass alle vorbereiteten Themenbereiche angesprochen werden. Der Interviewleitfaden für ein halbstrukturiertes Interview enthält schliesslich eine geordnete Liste von Stichworten (Oberbegriffe oder Themenbereiche) und entsprechende Fragen. Er kann auch zusätzliche Fragen oder Stichworte enthalten, etwa für den Fall, dass die antwortende Person nicht die wesentliche Information liefert. Bei einem wenig strukturierten Interview kann es wichtig sein, den Gesprächseinstieg bei allen Befragungen gleich zu gestalten, um die Interviews später leichter vergleichen zu können. Der Interviewleitfaden ist eine wichtige Vorbereitung für den Gesprächsverlauf und dient dabei der Sicherstellung, dass alle theoretisch relevanten Teilbereiche angesprochen werden. Der Leitfaden ist zudem wichtig für die anschliessende Auswertung des Transkripts. Die Themenbereiche können bei der Auswertung (vgl. Kapitel 7.2 „Qualitative Verfahren der Datenauswertung“) verwendet werden, um inhaltliche Kategorien zu bilden. Ein Beispiel eines Interviewleitfadens ist in Tabelle 17 gegeben. Das Vorgehen war durch folgende Forschungsfrage bestimmt: Wie haben immigrierte Jugendliche die anfängliche Zeit der Integration in ein neues Land erlebt? Da es um das Ermitteln der Erfahrungen während eines kritischen Übergangs geht, wurden zur Strukturierung der Befragung zeitliche Aspekte als Oberthemen gewählt. Die Fragen zielen darauf ab, die jugendliche Person anzuregen, sich an den Verlauf zu erinnern, von persönlichen Erfahrungen zu erzählen und Bewertungen und Meinungen zu äussern. Die Fragen in diesem Interviewleitfaden sind nicht auf Fakten, sondern auf die subjektive, emotionale Erlebnisqualität gerichtet. Fragen stellen. Zwar enthält ein Interviewleitfaden Oberthemen, eventuell auch Unterthemen mit jeweils ausformulierten Fragen. Während eines halbstrukturierten Interviews dienen diese jedoch eher der Orientierung oder als Leitfaden, um das Gespräch flexibel zu steuern. Bei der mündlichen Befragung gelten dieselben Regeln für das Fragen stellen wie bei der schriftlichen Befragung (vgl. Kap. 6.1). Jedoch kommt hinzu, dass die Fragen in einer Interviewsituation schnell und flexibel formuliert werden müssen. Daher ist es wichtig, einen Interviewleitfaden vor dem Einsatz auszuprobieren (d.h. zu pilotieren), das Fragen zu üben und die Art des Fragens und deren Wirkun-

180

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

gen auf den Gesprächsverlauf zu beachten. Ein solches Pilotieren ist nützlich, um den Interviewleitfaden zu überarbeiten und zu verfeinern. Tabelle 17: Beispiel eines Interviewleitfadens Vor der Immigration 1. Aus welchen Gründen sind Sie in die Schweiz gekommen? 2. Wie alt waren Sie damals? 3. Welche Vorstellungen und Erwartungen hatten Sie von der Schweiz? (Angst, Vorfreude, Neugierde, Ungewissheit)? Der Anfang in einem neuen Land 4. Wie haben Sie die ersten Tage in der Schweiz erlebt? 5. In welchen Bereichen haben Sie sich schnell, in welchen weniger schnell wohl gefühlt? 6. Machten Sie damals auch negative Erfahrungen (kulturelle Hürden)? 7. An welche lustige oder komische Begegnung mit der neuen Kultur können Sie sich erinnern? Situation heute 8. In welchen Situationen lässt sich Ihre Herkunftskultur nicht mit derjenigen der Schweiz vereinbaren? (Konflikte) 9. Fühlen Sie sich heute integriert? 10. Beschreiben Sie Ihren heutigen Freundeskreis in der Schweiz. Die alte Heimat 11. Was vermissen Sie aus Ihrer alten Heimat? 12. Was würden Sie in der alten Heimat vermissen, das Sie hier haben? 13. Würden Sie gerne wieder in Ihre alte Heimat zurückgehen? Retrospektive zur Integration 14. Wer oder was hat Ihnen das Leben in der Schweiz erleichtert? 15. Wer oder was hat Ihnen das Leben in der Schweiz erschwert? 16. Wie lange hat es gedauert, bis Sie sich im Umgang mit der deutschen Sprache wohl gefühlt haben? 17. Inwiefern haben sich Ihre Lehrpersonen für Ihre Integration engagiert? Wo konnten diese helfen? 18. Sind Sie zufrieden mit den schulischen und beruflichen Möglichkeiten, die Ihnen offen standen? Was könnte besser sein? 19. Welchen Ratschlag würden Sie jemandem geben, der als Jugendlicher neu in die Schweiz kommt?

Formen des Fragens: In der Literatur wird in erster Linie zwischen offenen und geschlossenen Fragen unterschieden. Eine offene Frage – zum Beispiel: Wie haben Sie Ihren Urlaub verbracht? – lässt Raum zum Antworten oder gar Erzählen. Offene Fragen sind solche, bei welchen die befragte Person die Antwort frei gestalten kann, indem sie auf selbst gewählte Inhalte in selbst bestimmtem Ausmass eingeht. Fragen nach Beschreibungen, Begründungen,

181

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Bewertungen (Emotionen) sind meist offene Fragen (vgl. Beispiele in Tabelle 17). Eine geschlossene Frage – zum Beispiel: Waren Sie in Italien? – lässt als Antwort meist nur ein Ja oder Nein zu. Offene Fragen eignen sich, den Redefluss anzuregen, während geschlossene Fragen diesen bremsen. Geschlossene Fragen werden gestellt, um gezielte Information zu erhalten oder um die Aussagen einer viel redenden Person zu fokussieren. Suggestive Fragen lassen sich ebenfalls gezielt einsetzen. Zwar wird gesagt, dass bei der mündlichen Befragung suggestive Fragen zu vermeiden sind (Diekmann, 2007; Atteslander & Cromm, 2008). Eine suggestive Frage enthält sprachliche Angebote, mit denen die fragende Person das Antworten erleichtern oder provozieren will. Suggestive Fragen beeinflussen die Antwort in die Richtung der Erwartung der fragenden Person. Dies kann man als Nachteil beurteilen. Aber solche Antwortangebote können auch empathisch wirken. Die befragte Person fühlt sich verstanden, wenn sie Formulierungen sucht und dann solche zur Auswahl angeboten bekommt, die subjektiv passen und vielleicht auch sozial erwünscht sind. Der suggestive Charakter von Antwortangeboten ist daher nicht grundsätzlich zu vermeiden. Entscheidend ist vielmehr die Einschätzung der befragenden Person, inwiefern Fragen mit möglichen Antwortangeboten den Gesprächsfluss positiv beeinflussen. Im folgenden Kasten findet sich ein Beispiel für suggestive Antwortangebote. Beispiel des Einsatzes von suggestiven Fragen mit emphatischer Wirkung. Ausschnitt aus einem Interview mit einer Immigrantin. Es werden suggestive Fragen eingesetzt, um den Gesprächsverlauf zu erleichtern. I: Und in der Schweiz fühlen Sie sich im Allgemeinen akzeptiert, integriert? Zum Beispiel, wie ist der Kontakt zu den Schweizer Familien? F: Zu wenig. I: Wegen der Sprache? F: Ja. I: Weil, ich habe gesehen, dass es hier im Quartier ein bisschen alles gibt, oder? Schweizer und Ausländer durchmischt. F: Alles. Es gibt Portugiesen, Türken, Schweizer. Oben wohnt eine Schweizerin. Sie ist meine Kollegin und ich habe ihr gesagt, ja, dass ich zu wenig Schweizer Freunde habe, oder. (Engelberger, 2007, S. 134-135)

Eine andere Klassifikation von Fragen schlagen Atteslander und Cromm (2008) vor: Fragen nach Werthaltungen, nach der Klärung von Gefühlen, nach Verhaltensregeln, nach vergangenem und aktuellem Verhalten, nach der Rationalisierung von Werten oder Verhaltensregeln, oder anders gesagt, nach Normen der befragten Person.

182

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Folgende Fragen helfen zu prüfen, ob die vorbereiteten Fragen oder auch das Probeinterview die beiden Funktionen – Forschungsfrage beantworten, Gespräch steuern – erfüllen: 1. Ist die Einstiegsfrage anregend? 2. Ist jede Frage wichtig? Dient jede der Beantwortung der Forschungsfrage? 3. Ist die Abfolge der Fragen sinnvoll gewählt? 4. Gibt es Wiederholungen oder Überschneidungen? 5. Ist jede Fragen einfach und eindeutig formuliert? 6. Ist jede Frage jeweils auf nur einen Sachverhalt bezogen? 7. Gibt es negativ formulierte Fragen? 8. Gibt es zu allgemeine, zu schwierige Fragen? 9. Wie wird die befragte Person dabei unterstützt, Information zu liefern? 10. Wie ist ein höflicher Abschluss zu gestalten? 11. Wird der vorgesehene Zeitrahmen eingehalten? 6.2.3 Das Interview organisieren und durchführen Mündliche Befragungen sind zeitaufwändig. Bei der Entscheidung, welche und wie viele Personen befragt werden, muss der gegebene Zeitrahmen beachtet werden. Der institutionelle Rahmen, in welchem eine mündliche Befragung durchgeführt wird, sollte geklärt sein, z.B. sollte bei einer Befragung in einer Schulklasse die Schulleitung, die Lehrpersonen und die Eltern informiert und mit dem Vorhaben einverstanden sein. Erst danach werden mögliche Interviewpartner oder -partnerinnen kontaktiert. Die Person, die befragt werden will, muss über die Ziele, Inhalte, mögliche Dauer der Befragung und über die Rechte als Versuchsperson informiert werden. Gemäss den gängigen ethischen Richtlinien in der Forschung (vgl. Barrett, 2002) nehmen die befragten Personen freiwillig teil und haben jederzeit das Recht, die Teilnahme abzubrechen oder Antworten zu verweigern. Interviews mit Kindern erfordern einerseits die schriftliche Information und Zustimmung der Eltern, und andererseits eine erhöhte Aufmerksamkeit gegenüber nonverbalen Reaktionen, die auf Unbehagen oder Wunsch nach Abbruch deuten lassen. An Forschung teilnehmende Personen müssen zudem informiert werden, dass die Transkripte und Ergebnisse der mündlichen Befragung vertraulich behandelt werden, dass Anonymität und Datenschutz gewährleistet werden. Das gehört zu den ethischen Prinzipien des wissenschaftlichen Arbeitens (Barrett, 2002) (vgl. Kap. 2.5). Dementsprechend werden weder im Transkript noch im Bericht Namen, Wohn- oder Arbeitsorte und Funktionen von befragten Personen genannt, sondern es werden Abkürzungen oder Ersatznamen verwendet. Bei der Durchführung ist es zudem wichtig dafür zu sorgen, dass die befragte

183

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Person sich wohl fühlen kann, d.h. eine angenehme Umgebung gewählt wird. In der Regel wird von einem Interview eine Audio-Aufnahme gemacht. Dies ist jedoch nicht immer möglich. Notizen während eines Interviews oder ein anschliessendes Gedächtnisprotokoll sind je nach Interviewform und Forschungsfragen auch Möglichkeiten, Gespräche zu konservieren (vgl. Atteslander & Cromm, 2008), aber sie erfordern eine besondere Schulung der fragenden Person. Gesprächsnotizen oder Gedächtnisprotokolle sind aus mehreren Gründen problematisch: Die Aufmerksamkeit kann nur beschränkt gleichzeitig auf die Gesprächsführung und auf genaues Notieren konzentriert sein; es kann der Vorwurf aufkommen, wichtige Aussagen vergessen, gezielt oder unabsichtlich ausgelassen oder zugefügt zu haben, oder nicht wortgetreu aufgeschrieben und somit Bedeutungen geändert zu haben. Aus diesen Gründen ist es wichtig, Interviews auf Tonträger aufzunehmen und den Gesprächsinhalt wörtlich wiederzugeben. Die folgende Liste fasst wichtige Stichworte der Organisation zusammen und ergänzt obige Liste zum Interviewleitfaden: 1. Sind die ethischen Richtlinien eingehalten? Werden diese mitgeteilt? 2. Ist der institutionelle Rahmen geklärt? 3. Sind die Eltern und/oder Lehrpersonen informiert und einverstanden? Werden der institutionelle Rahmen, die eigene Person, Ziele, ethische Richtlinien und die Dauer des Interviews erläutert? 4. Ist der Zeitrahmen der Durchführung geplant: Anzahl Personen, Zeitpunkte, Dauer, Orte? 5. Sind die technischen Geräte für die Audio-Aufnahme bereit, hat die befragte Person ihre Zustimmung zur Aufnahme gegeben? (Ausnahme: geschulte Personen erstellen Notizen: Ist Zeit für die Überprüfung der Richtigkeit der Aussagen eingeplant?) 6. Wird der Datenschutz durchgehend beachtet? 6.2.4 Transkript erstellen Die Audio-Aufnahme der Befragung wird anschliessend transkribiert. Ein Transkript beschreibt in wörtlichen Formulierungen, was während eines Gesprächs oder einer mündlichen Befragung gesagt wurde. Gesprächsnotizen oder Gedächtnisprotokolle sind keine Transkripte. Transkripte dienen mehreren Zwecken: 1. Sie sind eine wichtige Grundlage zur Auswertung des Interviews. 2. Sie erlauben, das Gesagte aus Distanz und ohne Zeitdruck und daher genauer zu studieren. Viele Aspekte der Dynamik von Gesprächen sind erst

184

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

auf der Ebene der Transkripte sichtbar. Bei der Auswertung kann ein Interview weiter verarbeitet werden, beispielsweise können neue Sichtweisen an das dokumentierte Gespräch herantragen werden. 3. Transkripte erlauben anderen Personen, die das Interview selbst nicht durchgeführt haben, sich ein Bild über den Gesprächsverlauf zu machen und das Interview nach denselben oder auch nach anderen Kriterien auszuwerten. Dies kann wichtig sein für eine Einschätzung der Reliabilität (Zuverlässigkeit) der Ergebnisse (vgl. Kap. 7.2.4). 4. Es ist möglich, der befragten Person das Transkript zu einem späteren Zeitpunkt vorzulegen, um die Richtigkeit der Aussagen bestätigt zu bekommen oder um auf darin geäusserte Inhalte zurückzukommen. 5. Regeln des Transkribierens. Es gibt nicht eine, sondern viele Regeln, wie ein Transkript erstellt werden kann. Die Regeln wählt man so, dass sie die Beantwortung der Forschungsfragen unterstützen. Wie oben erwähnt, ist eine wichtige Regel die wörtliche Transkription. Hier sind mehrere Variationen möglich: - Man dokumentiert jede Lautäusserung, somit auch alle paraverbalen Merkmale (Räuspern, Pausen, Hebung und Senkung der Stimme, Lachen, verschluckte Wortteile usw.) und auffallende nonverbale Äusserungen (Mimik, Bewegungen usw.). - Man transkribiert nur alle geäusserten Wörter und keine anderen Lautäusserungen. - Man bearbeitet das Gesprochene so, dass es einfacher zu lesen ist. Beispielweise lässt man Stockungen, aufeinanderfolgende Wortwiederholungen oder das Suchen nach einem Ausdruck aus. Übersetzen aus Dialekten. Oft ist das wörtliche Transkribieren erschwert, weil das Interview in einem Dialekt stattfand. Ist es besser, die gesprochene Sprache zu transkribieren oder direkt von der Tonaufnahme in die Schriftsprache zu übersetzen? Entscheidend ist, welche Absichten mit dem Transkript verfolgt werden. Interessiert man sich für die lokale oder regionale Redeweise, welche oft nicht ohne Bedeutungsverlust übersetzt werden kann, so transkribiert man direkt die Mundart. Soll das Interviewtranskript über den lokalen Dialekt hinaus verständlich sein, so übersetzt man ins Schriftdeutsche, ausgenommen vielleicht Wörter oder Redewendungen, die nicht oder schwierig zu übersetzen sind. Es geht darum, den Gesprächsinhalt optimal und mit geringem Zeitaufwand genau darzustellen. Um das Problem mit Dialektübersetzungen zu umgehen, ist es je nach Interviewpartner oder -partnerin möglich, das Interview in der Schriftsprache zu führen.

185

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

6.2.5 Schlussbemerkungen Die Auswertung von Interviews richtet sich nach der gewählten Form: strukturierte Interviews (evtl. mit standardisierten Antworten) werden wie schriftliche Fragebögen ausgewertet (vgl. Kap. 7.3). Hingegen erfolgt die Auswertung von halbstrukturierten Befragungen inhaltsanalytisch. Dabei werden die Transkripte, Gesprächsnotizen oder Gedächtnisprotokolle nach inhaltlichen Kriterien strukturiert und schliesslich zusammengefasst. In Kapitel 7.2 wird ausführlich auf die Methode der Inhaltsanalyse eingegangen. Bei der Methode der mündlichen Befragung ist zu beachten, dass es um Sprache und Kommunikation geht. Sprachliche Bedeutung ist nie eindeutig. Der wissenschaftliche Umgang mit Vieldeutigkeit ist sehr anspruchsvoll. Er eröffnet ein Spannungsfeld zwischen dem Anspruch, möglichst objektive und eindeutige Aussagen zu gewinnen und gleichzeitig der Komplexität der Situation und der Bedeutungsvieldeutigkeit gerecht zu werden. Zudem sind die Normen der Sprache und der Kommunikation in ständigem Wandel. Der Versuch, zuverlässige, objektive und wahre Aussagen aus Interviews zu gewinnen erfordert ein Verhandeln über Aussagen und deren Bedeutungen und ein stetes Bemühen um einen sorgfältigen Umgang mit Sprache. Weiterführende Literatur Atteslander, P. & Cromm, J. (2008). Methoden der empirischen Sozialforschung (12., durchges. Aufl.). ESV basics. Berlin: Erich Schmidt Verlag. Lamnek, S. (1995). Qualitative Sozialforschung (3., überarb. Aufl.). Weinheim: PsychologieVerlags-Union.

6.3 Beobachtung (von Hanni Lötscher) Im Alltagsgeschehen gehen Wahrnehmung und Beobachtung fliessend ineinander über. Eine Strasse entlang schlendernd, nehmen wir Verkehrsmittel, Menschen, Schaufensterdekorationen usw. wahr. Wollen wir jedoch eine Strasse überqueren, erfolgt der Wechsel vom Wahrnehmen zum Beobachten: Wir schauen ganz gezielt, wann zwischen den vorbeifahrenden Autos genügend Abstand ist, damit wir die Strasse überqueren können. Im Alltag nutzen wir gezieltes Beobachten, um uns zu orientieren und Entscheidungen treffen

186

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

zu können. Solche Beobachtungen erfolgen routiniert und benötigen keine spezielle Planung oder gar Reflexion. Im pädagogischen Feld ist das gezielte Beobachten eine der zentralen Tätigkeiten. Sie bildet die Grundlage für die individuelle Beratung und Förderung von Schülerinnen und Schülern. Einer Lehrperson fallen beispielsweise bei einem Schüler problematische Verhaltensweisen auf. Sie fragt sich, ob und wieweit diese für die schwankenden Leistungen des Schülers mitbestimmend sind. Sie geht dieser Frage nach, indem sie den Schüler in der Folge gezielt beobachtet. Sie legt fest (= Planung), in welchen Situationen, sie auf welche Verhaltensweisen achten will. Sie kann den Schüler auch anregen, sich selber zu beobachten. Sie beobachtet, wie der Schüler verschiedene Arbeiten angeht (= Beobachtung) und dokumentiert sein Verhalten (= Ergebnisse). Die Analyse der durchgeführten Beobachtung (= Interpretation) kann dann helfen, eine angepasste Unterstützung bereitzustellen. Dieses gezielte Beobachten, Analysieren und Interpretieren sowie das Ableiten von Massnahmen nennt man „Pädagogische Diagnostik“ (vgl. Ingenkamp, 1988). Die Lehrperson agiert dabei als aktiv-teilnehmende Beobachterin, da sie im Beobachtungsfeld, d.h. in diesem Fall im Unterricht, gleichzeitig selber handelnd und beobachtend tätig ist. Das pädagogische Beobachten ist mit dem wissenschaftlichen Beobachten zu vergleichen. In beiden Fällen geht es darum, eine Fragestellung geplant, systematisch, und nachvollziehbar mit Hilfe von Beobachtungen zu untersuchen. Im Folgenden soll die Methode der wissenschaftlichen Beobachtung erläutert werden. 6.3.1 Elemente der Beobachtung Beobachten als wissenschaftliche Methode meint „das systematische Erfassen, Festhalten und Deuten sinnlich wahrnehmbaren Verhaltens zum Zeitpunkt seines Geschehens“ (vgl. Atteslander, 2000, S. 85). Systematisches Vorgehen setzt einen sogenannten Beobachtungsplan voraus, der beschreibt, was, wann, wo, von wem beobachtet und wie protokolliert und ausgewertet wird (Bortz & Döring, 2003, S. 263). Die festgelegten und dokumentierten Regeln zur Datenerhebung und Datenauswertung ermöglichen Aussenstehenden, den Forschungsprozess und die Ergebnisse nachzuvollziehen. Eine wissenschaftliche Beobachtung lässt sich über vier Elemente beschreiben (vgl. Atteslander, 2000, S. 81): 1. Beobachtungsfeld (wo) 2. Beobachtungseinheit (was, wann) 3. Beobachter/in (wer) 4. Beobachtete/r (wen)

187

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Beobachtungsfeld. Grundsätzlich lassen sich Feldbeobachtung und Laborbeobachtung unterscheiden (vgl. Atteslander, 2000, S. 84; Flick, 2006, S. 200). Bei einer Feldbeobachtung findet die Beobachtung in der natürlichen Umgebung der beobachteten Personen statt, beispielsweise in Schulzimmern oder auf Pausenplätzen. Die Bedingungen der natürlichen Situation werden nicht verändert. Man spricht daher auch von natürlicher Beobachtung. Kennen Forschende Personen und Bedingungen einer Schule gut, erleichtert dies den Zugang zum Feld. Zugleich besteht aber auch die Gefahr, die kritische Aussenperspektive zu verlieren und unhinterfragt die Sichtweisen des Feldes zu übernehmen (Flick, 2006, S. 210). Bei Laborbeobachtungen werden die Beobachtungsbedingungen von den Forschenden festgelegt. So wird beispielsweise ein Zimmer mit verschiedenen, ausgewählten Spielsachen eingerichtet, um das Kommunikations- und Interaktionsverhalten von Kindern zu beobachten. Es wird eine „künstliche“ Situation erzeugt. Laborbeobachtungen werden daher auch künstliche Beobachtungen genannt. Beobachtungseinheit. Mit der Definition der sogenannten Beobachtungseinheit wird präzise festgelegt, wer und was, zu welchem Zeitpunkt, wie lange beobachtet wird. Beobachten, d.h. ein gezieltes Wahrnehmen, bedeutet immer auch zu entscheiden, was ins Zentrum der Aufmerksamkeit gerückt wird und was entsprechend ausser Acht gelassen werden kann (vgl. Bortz & Döring, 2003, S. 263). Mit diesem systematischen Vorgehen wird den aus der Sozialpsychologie bekannten Verzerrungseffekten bei der menschlichen Wahrnehmung entgegengewirkt. Eine solche Wahrnehmungsverzerrung ist beispielsweise der Primacy-Effekt: Der erste Eindruck, der erste Kontakt prägen die weitere Wahrnehmung. Bei einem Menschen, der einem spontan sympathisch ist, übersieht man, was nicht in dieses positive Bild passt (vgl. Marmet, 1996). Das Festlegen der Beobachtungseinheit hängt von der Fragestellung des Forschungsvorhabens und der Phase im Forschungsprozess ab (Flick, 2006, S. 208). Geht es darum, sich in einem noch relativ unbekannten Feld zu orientieren und Zugang zu finden, werden offene, beschreibende (deskriptive) Beobachtungen genutzt, um die Komplexität des Feldes zu erfassen (Flick, 2006, S. 207). Aus der Analyse dieser Beschreibungen werden konkretere Fragen entwickelt und danach fokussierte Beobachtungen vorgenommen. So wurde beispielsweise das Interaktionsverhalten von männlichen und weiblichen

188

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Jugendlichen in Discotheken untersucht, indem alle längeren und kürzeren Interaktionen zwischen Jungen und Mädchen protokolliert und später ausgewertet wurden (vgl. Atteslander, 2000, S. 85). Dieses Vorgehen entspricht qualitativen Forschungsstrategien (vgl. Kap. 7.2). Bei quantitativ orientierten, hypothesenprüfenden Forschungsstudien werden tendenziell kleinere und kürzere Beobachtungseinheiten gewählt. So werden beispielsweise in einer Videobeobachtungsstudie zur kooperativen Lernform „Gruppenpuzzle“ innerhalb einer bestimmten Zeitspanne alle Fragen der Gruppenmitglieder analysiert. Mit statistischen Verfahren wird danach geprüft, ob ein Fragetraining im Rahmen der Arbeit mit der Methode Gruppenpuzzle das Frageverhalten bei Schülerinnen und Schülern der 3. Jahrgangstufe positiv beeinflusst (Kronenberger & Souvignier, 2005). Solch hoch-strukturierte Beobachtungen können als Ereignis- oder Zeitstichproben erfasst werden (Bortz & Döring, 2003, S. 270–272): Bei einer Ereignisstichprobe wird festgehalten, ob und wie oft ein Verhalten (Ereignis) auftritt, beispielsweise wie oft eine Lehrperson im Unterricht kognitiv anspruchvolle oder wenig anspruchsvolle Fragen stellt. Bei einer Zeitstichprobe wird die Beobachtung in feste Zeitabschnitte gegliedert. Im folgenden Beispiel (vgl. Tabelle 18) wird eine Zeitstichprobe mit 1 Minuten-Intervall definiert. Für jede Minute wird eingetragen, mit welcher Sozialform im Unterricht gearbeitet wird (1 = Klassenunterricht, 2 = Einzelarbeit, 3 = Partnerarbeit, 4 = Gruppenarbeit). Tabelle 18: Auszug aus einem vorab definierten Beobachtungsschema (Beispiel) Zeit-Intervall in Minuten Sozialform

1

2

3

4

5

6

7

1

1

1

1

2

2

2

Grundsätzlich eignen sich Zeitstichproben eher für die Beschreibung eines gesamten Geschehens, Ereignisstichproben dokumentieren eher bestimmte Verhaltensweisen. Ereignisstichproben sind dann sinnvoller, wenn das zu beobachtende Ereignis selten auftritt oder das vollständige Festhalten in einem kontinuierlichen Verlauf wichtig ist (vgl. Bortz & Döring, 2006, S. 270). Beobachter. Beobachten erweist sich als anspruchvolle Forschungsmethode, da bei der Datenerhebung Forschende als Beobachtende zumeist Teil des

189

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

sozialen Feldes sind, das sie erforschen. Das meint beispielsweise, dass Forscherinnen und Forscher in einer Schulklasse präsent sind und Schülerinnen und Schüler sowie deren Lehrpersonen beobachten. Je nach Forschungsverständnis, Forschungsfrage und Design variiert dieser Beobachterstatus: Es lassen sich der Grad der Teilnahme sowie die Rollen als Beobachter und als Teilnehmer im sozialen Feld unterscheiden (vgl. Atteslander, 2000, S. 86). Beim Grad der Teilnahme reicht das Spektrum von aktivteilnehmender Beobachtung, bei der die beobachtende Forscherin auch als Mitglied einer sozialen Gruppe interagiert, bis hin zur personellen Trennung von Beobachteten und Forschenden. Bei Schul- oder Unterrichtsentwicklungsprozessen sind nicht selten Forscherinnen und Forscher auch als Beratende in einem Schulteam tätig. Sie beraten Lehrpersonen bei der Umsetzung neuer Lernformen und erforschen gleichzeitig mit aktiv-teilnehmender Beobachtung den Prozess einzelner Lehrpersonen oder des Teams. Mit der kritischen Reflexion des Forschungsprozesses wird der Gefahr einer Überidentifikation mit dem Feld und damit dem Verlust der kritischen Distanz entgegengewirkt. Beobachten Forschende beispielsweise das Unterrichtsgeschehen in einer Klasse, ohne sich am Unterricht zu beteiligen, spricht man von passivteilnehmender Beobachtung. Videostudien können so verstanden werden, da Kameras die apparative Beobachtung übernehmen. Das heisst, die Aufzeichnung des Geschehens erfolgt hier über ein technisches Gerät. Die Aufnahmen werden nicht unbedingt vom Forschungsteam gemacht, jedoch von diesem nachher analysiert. Bei automatischen Aufzeichnungen beispielsweise in Chat-Foren im Rahmen von e-learning-Arrangements werden die Forschenden als Beobachter auch nicht direkt wahrgenommen (vgl. Petko, 2003). Aus ethischen und rechtlichen Gründen müssen aber auch hier die Teilnehmenden ihr Einverständnis geben, dass ihre Daten für Forschungszwecke genutzt werden dürfen (vgl. Kap. 2.5). Beobachtete. Bei der Bestimmung des Beobachtungsfeldes wird bereits festgelegt, wer beobachtet wird. In einem nächsten Schritt wird definiert, wie weit die Beobachtung den Beobachteten transparent gemacht wird. Bei einer offenen Beobachtung wissen die Beobachteten, dass sie beobachtet werden. Damit besteht die Gefahr, dass sie sich anders als üblich verhalten. Es zeigt sich aber auch, dass solche methodenbedingte Verzerrungen im Laufe der Untersuchung verschwinden (Girtler, 1992; zit. nach Atteslander, 2000, S. 95). Die beobachteten Personen gewöhnen sich mit der Zeit an eine Kamera oder an eine teilnehmende Beobachterin.

190

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Das Aufstellen einer Videokamera provoziert eine offene Beobachtung. Oft aber handelt es sich um eine halb-offene Beobachtung, da bei videobasierter Unterrichtsforschung die Schüler/innen und Lehrpersonen nicht ganz genau wissen, welche Aspekte später analysiert werden. So wurde beispielsweise das kooperative Interaktionsverhaltens von zwei Kindern bei einem kooperativen Spiel (Stapelmännchen) beobachtet (Malti, 2003). Da die Kamera im Zimmer stand, wussten die Kinder zwar, dass sie beobachtet werden, aber das Ziel der Untersuchung war ihnen unbekannt. Das Interaktionsverhalten der Spielpartner war trotz aufgestellter Kamera sehr natürlich, vermutlich weil die Kinder vergassen, dass sie aufgezeichnet werden. Verdeckte Beobachtungen erfolgen in psychologischen Studien häufig in Laborsituationen hinter einer Einwegscheibe. Diese ist auf der Beobachterseite durchsichtig. Auf der Seite der Studienteilnehmenden erscheint sie als Spiegel. Es fragt sich auch hier, wieweit das Verhalten in dieser speziellen Situation verzerrt wird. Auch wenn die Beobachteten nicht genau wissen, was untersucht wird, wissen sie doch, dass sie beobachtet werden (vgl. Bortz & Döring, 2003, S. 268). Die folgende Tabelle 19 zeigt einen Überblick möglicher Formen des wissenschaftlichen Beobachtens. Diese lassen sich über die drei Dimensionen Strukturiertheit, Offenheit und Teilnahme definieren. Möglich sind auch Zwischenformen. Tabelle 19: Klassifikation der Beobachtungsformen nach Atteslander (2000, S. 98) inklusive Beobachtungsinstrument Strukturiertheit Strukturiert → Kategoriensystem

Offenheit verdeckt offen

Unstrukturiert → Beobachtungsprotokoll

verdeckt offen

Teilnahme passiv-teilnehmend aktiv-teilnehmend passiv-teilnehmend aktiv-teilnehmend passiv-teilnehmend aktiv-teilnehmend passiv-teilnehmend aktiv-teilnehmend

6.3.2 Entwicklung eines Beobachtungsinstruments Die Entwicklung eines Beobachtungsinstruments wird über den Grad der Strukturierung der Beobachtung bestimmt. Grundsätzlich lassen sich hochstrukturierte von unstrukturierten Beobachtungen unterscheiden. Möglich sind auch hier Zwischenformen.

191

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Hochstrukturierte Beobachtung. Hochstrukturierte oder hoch standardisierte Live-Beobachtungen verlangen ein vorab definiertes Beobachtungsschema oder Kategoriensystem. Dies kann entwickelt werden, sofern umfassende Kenntnisse zum Forschungsgegenstand vorhanden sind und die einzelnen Kategorien des Beobachtungsschemas mit entsprechenden Indikatoren (vgl. auch Kapitel 4.1.3 „Konstrukte, Begriffsdefinitionen und Operationalisierung“) und Beispielen trennscharf voneinander abgegrenzt werden können. Die entsprechenden Zuweisungsregeln werden im Beobachterhandbuch festgehalten. Die Zuweisungsregeln oder Kodierregeln geben genau an, welche Beobachtung welcher Kategorie entsprechen. Diese Vorgehensweise lässt sich mit inhaltsanalytischen Verfahren bei verbalen Daten vergleichen (vgl. Kap. 7.2.3). Werden in einem sozialen Raum (z.B. Klasse in Schulzimmer) mehrere Personen beobachtet, muss genau festgelegt werden, welche Beobachterperspektive (z.B. welche Gruppe von Schüler/innen fokussiert wird) in welchen Zeitintervallen eingenommen wird (vgl. Bortz & Döring, 2006, S. 270). Beobachterschulung und die Pilotierung des Beobachtungsinstruments stellen sicher, dass die Zuordnung der Beobachtungen zu den einzelnen Kategorien nicht (zu sehr) auf Interpretationen angewiesen ist und zufällig erfolgt (vgl. Atteslander, 2000, S. 89–91). Unstrukturierte Beobachtung. Unstrukturierte (freie, nicht standardisierte) Beobachtungsprotokolle bilden oft den Ausgangspunkt von Feldforschungen in einem komplexen Feld (Flick, 2006, S. 207). Im Mittelpunkt des Interesses stehen die Beschreibung der Akteure und ihres Verhaltens in unterschiedlichen Situationen und/oder Zusammenhängen (vgl. Atteslander, 2000, S. 92). Bei passiv-teilnehmender Beobachtung können Notizen zum Verlaufsprotokoll teilweise während des Geschehens gemacht werden. Ansonsten soll das Protokoll der Beobachtung möglichst zeitnah erfolgen, damit die Gefahr subjektiver Verzerrungen möglichst klein gehalten wird. Das Protokoll soll so vollständig wie möglich sein und den realen Verlauf der Beobachtungssituation wiedergeben. Es wird angegeben, was die Personen machen und verbale Kommunikation wird so weit wie möglich wortwörtlich aufgeschrieben. Das Beobachtete ist zu beschreiben, jede Interpretation ist zu vermeiden (vgl. Bortz & Döring, 2003, S. 265).

192

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

6.3.3 Videostudien als besondere Form des wissenschaftlichen Beobachtens Technische Fortschritte im Bereich der Datenträger und Datenübermittlung ermöglichen zunehmend den Einsatz von Videos in Forschung und Lehre (Pauli & Reusser, 2006). Seit den TIMSS-Videostudien, in welchen verschiedene Länder hinsichtlich ihres Mathematikunterrichts untersucht wurden, hat sich Unterrichtsforschung mittels Videoaufzeichnungen vermehrt etabliert (Klieme, 2006). Die im Rahmen von Forschungsprojekten entstandenen Unterrichtsvideos werden auch in der Aus- und Weiterbildung von Lehrpersonen genutzt (Krammer & Hugener, 2005; Krammer, Schnetzler, Ratzka, Reusser, Pauli, Lipowsky & Klieme 2008). Eine Videostudie ist eine passiv-teilnehmende, (halb-)offene und apparative Beobachtung. Kameras halten bei Unterrichtsbeobachtungen nur Ausschnitte des gesamten Unterrichts fest. So bestimmt die Fragestellung der Forschenden und allenfalls die weitere Verwendung der Aufnahmen in der Aus- und Weiterbildung die Perspektive der Aufnahme und damit die Positionierung der Kameras (vgl. Seidel & Prenzel, 2003). Geht es beispielsweise darum, das Interaktionsverhalten von Lernpaaren zu erkunden, ist die Kamera nur auf diese beiden Schüler/innen gerichtet. Die Lehrperson, welche die Anweisungen erteilt, wird nicht aufgenommen. Bei der Analyse und Auswertung von Videodaten bieten die neuen technischen Möglichkeiten einige Vorteile: Aufnahmen lassen sich wiederholt und von verschiedenen Personen betrachten. Zudem sind Videoanalyse-Programme erhältlich, mit denen Kategorien definiert, Videosequenzen codiert und die gewonnen Daten für statistische Auswertungen in andere Programme exportiert werden können. Das IPN der Universität Kiel hat mit Videograph® (Rimmele, 2003) ein solches Programm entwickelt. Videoanalyseprogramme werden jedoch erst eingesetzt, nachdem ein Kategoriensystem entwickelt und getestet worden ist. Abbildung 7 (S. 194) zeigt im Überblick, welche Schritte notwendig sind, um ein Kategoriensystem zu entwickeln und danach die Videodaten zu kodieren und auszuwerten (vgl. Bos & Tarnai, 1999). Ein Kategoriensystem wird in Bezug auf die theoretischen Hintergründe und der aktuellen Forschungsfrage oder der zu prüfenden Hypothese entwickelt. Bei einem Forschungsprojekt der PHZ Luzern (Senn, Lötscher & Malti, 2005) wurde untersucht, wie Aufgabenstellung und Anleitung die Fremdund Selbstbeurteilungsprozesse der Schülerinnen und Schüler in gemeinsamen Schreibkonferenzen stützen: In Schreibkonferenzen besprechen zwei (oder mehr) Schülerinnen und Schüler ihre Schreibideen, die entstehenden Texte (Entwürfe) und deren Überarbeitung. Die Hintergründe zu den meta-

193

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

kognitiven Strategien der Steuerung und Regulation von Lernprozessen (Artelt et al., 2001) und die Beurteilungskonzeption von „Ganzheitlich Beurteilen und Fördern GBF“ (Lötscher et al., 2005) mit den vier Teilschritten im Förderkreislauf (Ziele setzen, Lernprozess und Lernergebnis beobachten, Lernprozess und Lernergebnis beurteilen und Förderung ableiten) wurden genutzt, um das Kategoriensystem zu entwickeln. Wird die Kategorienbildung von theoretischen Hintergründen abgeleitet, spricht man von einem deduktiven Vorgehen. Es kann jedoch auch sein, dass die Kategorien aus dem Datenmaterial heraus entwickelt werden (induktives Vorgehen). Oft werden diese beiden Vorgehensweisen miteinander gekoppelt. Dieses methodische Vorgehen ist mit der Entwicklung von Kategorien bei der qualitativen Inhaltsanalyse nach Mayring (2000) zu vergleichen (vgl. Kap. 7.2.3)

1. Theorie Theoretischer Hintergrund, Forschungsberichte, Fragestellung, Hypothesen

2. Entwicklung von Kategoriensystemen Definition von Analyseeinheit und Kategorien mit Codierregeln und Ankerbeispielen

3. Überarbeitungsphase Probecodierung, Überarbeitung, definitives Kodierhandbuch (Kategorien mit Codierregeln und Ankerbeispielen)

4. Codierung Schulung, Reliabilitätstest, definitive Codierung

5. Datenauswertung Aufbereitung der Daten, Statistische Analysen, Interpretation, Diskussion in Bezug auf Fragestellung

Abbildung 7: Vorgehen zur Entwicklung und Anwendung von inhaltsanalytischen Beobachtungsverfahren nach Bos und Tarnai (1999) 194

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Damit voneinander unabhängige Beobachtende bei demselben Datenmaterial zu gleichen Resultaten kommen, müssen die Kategorien mit Hilfe von Codierregeln und Ankerbeispielen mit entsprechender Fundstelle auf der Videoaufzeichnung genau definiert werden. All diese Definitionen werden in einem Kodierhandbuch oder Kodiermanual festgehalten. Tabelle 20 zeigt einen Auszug aus dem Kodierhandbuch zur oben erwähnten Analyse von Selbst- und Fremdbeurteilungsprozessen von gemeinsam lernenden Schülerinnen und Schülern in Schreibkonferenzen. Das vorläufige Kategoriensystem wird mit Probecodierungen überprüft (mit Reliabilitätstests) und gegebenenfalls revidiert, wenn deutliche Diskrepanzen zwischen verschiedenen Kodierenden bestehen. Erst dann wird das Datenmaterial mit Hilfe von Videoanalyseprogrammen definitiv codiert. Später werden diese Kodierungen mit Hilfe von Statistik-Programmen ausgewertet, die Ergebnisse dargestellt und interpretiert. Tabelle 20: Auszug aus einem Kodierhandbuch (Senn et al., 2005) Hauptkategorie Zielaussagen

Codierregeln Aussagen zu Lernzielen und zur Aufgabenstellung - Besprechen der Ziele und der Aufgabenstellung - Bezug nehmen auf die Aufgabenstellung und die Ziele

Ankerbeispiel „Was bedeutet das‚ ihre Antworten beziehen sich auf das vorher Gesagte“ ROO A21 28.55-29:00 „Mmh, aber steht da nicht (auf dem Aufgabenblatt) Joel muss mit der Klasse in der Nähe diese Strandes …?“ ROO A11 8:25 ff

6.3.4 Auswertung der Daten Ausführliche Hinweise zur Auswertung von Daten sind in Kapitel 7 („Auswertungen“) zu finden. Die folgenden Ausführungen geben daher nur einen kurzen Überblick. Quantitative Daten. Wurden die Beobachtungen in einem hochstrukturierten Kategoriensystem festgehalten, kann jeder Kategorie ein Code, eine Zahl (vgl. das Beispiel in Tabelle 20) zugeordnet werden. Diese Codierungen können nun in Excel oder ein Statistikprogramm exportiert und analysiert werden. Mit Hilfe von Tabellen und Grafiken werden die Ergebnisse danach dargestellt.

195

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Qualitative Daten. Die Auswertung von wenig strukturierten Beobachtungsprotokollen erfolgt über qualitative Verfahren. Der Fragestellung entsprechend kann beispielsweise nach Interaktionsmustern gesucht werden. Beobachtungsprotokolle werden ähnlich wie verbale Daten aus Interviews ausgewertet (vgl. Kap. 7.2). Weiterführende Literatur Atteslander, P. (2006). Methoden der empirischen Sozialforschung (11., neu bearb. u. erw. Aufl.). Berlin: Erich Schmidt Verlag. Fassnacht, G. (2007). Systematische Verhaltensbeobachtung. Eine Einführung in die Methodologie und Praxis. München: Reinhardt. Flick, U. (2007). Qualitative Sozialforschung. Eine Einführung (vollst. überarb.u. erw. Aufl.). Hamburg: Rowohlt.

6.4 Fallanalyse (von Tina Malti) „Wer nicht gewahr werden kann, dass ein Fall oft Tausende wert ist, und sie alle in sich schliesst, […], der wird weder sich noch anderen jemals etwas zur Freude und zum Nutzen fördern können.“ (Johann Wolfgang Goethe)

Bereits Goethe hat in seiner Naturlehre intensiv über das Wesentliche einzelner Phänomene (auch „Fälle“) nachgedacht, und darüber, was man daraus für andere Phänomene und/oder deren Beziehungen untereinander ableiten kann. Im Alltag beschäftigen uns häufig die besonders eindrucksvollen oder auch besonders tragischen Phänomene bzw. (Einzel-)Fälle. So fragt man sich beispielsweise, warum ein bestimmter Flugunfall geschehen musste. Wie kam es zum Unfall? Was genau passierte, bevor das Flugzeug abstürzte? Welche Personen waren involviert? Gab es technische Defekte etc.? Ziel dieser Analyse ist es, die Situation so zu rekonstruieren, dass man die Ursachen und Begleitumstände des Unfalls erklären kann. In der Wissenschaft ist die Einzelfallanalyse ein wichtiger Forschungsansatz. Dies liegt zum einen daran, dass durch eine genaue und komplexe Analyse bestimmter Phänomene (Beispiel „Flugunfall“) differenziertes Wissen erlangt werden kann, das nicht nur zum Verstehen des Falls und der damit verbundenen Forschungsfrage an sich beiträgt, sondern auch als eine Grundlage oder Ergänzung für die Erklärung anderer Phänomene genutzt werden kann. Be-

196

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

zogen auf das Beispiel des Flugunfalls könnte man beispielsweise Muster von Gefahrenquellen erkennen, die bestimmte Typen von Unfällen wahrscheinlich machen. Fallanalysen kombinieren zum einen verschiedenste methodische Vorgehensweisen. Der Forschungsansatz der Einzelfallanalyse ist in diesem Sinne gekennzeichnet durch ein „holistisches“ (d.h. ganzheitliches) empirisches Vorgehen (Stake, 1995). Zum anderen wird durch die Einzelfallanalyse ermöglicht, die Prozesshaftigkeit von Phänomenen stärker zu berücksichtigen als dies gewöhnlich mit anderen Forschungsansätzen möglich ist. In diesem Kapitel werden Grundlagen erläutert, die bei der Planung, Erstellung sowie der Durchführung einer Einzelfallstudie zu beachten sind. Diese Grundlagen sollen dabei unterstützen, eine eigene Einzelfallstudie angemessen planen und durchführen zu können. 6.4.1 Grundlagen der Einzelfallstudie Der Begriff der Einzelfallstudie bezeichnet keine bestimmte Erhebungs- oder Auswertungstechnik, sondern vielmehr einen Forschungsansatz, also eine bestimmte Anschauungsweise über und Herangehensweise an Forschung. Dieser Forschungsansatz bedient sich unterschiedlichster, zumeist qualitativer Forschungsmethoden. Die Einzelfallstudie ist also ein eigenständiger empirischer Zugang zur (sozialen) Wirklichkeit. Bei der Einzelfallstudie wird einer bestimmten Untersuchungseinheit (dem einzelnen Fall) eine besondere Bedeutung zugewiesen. Ziel der Einzelfallstudie ist es, den einzelnen Fall intensiv zu analysieren und möglichst genau zu rekonstruieren. Wichtig ist, dass der/die Forschende in allen Phasen des Forschungsprozesses offen für das individuell Spezifische des Falls ist. Als Fall bezeichnet man die Untersuchungseinheit, die zum Gegenstand der detaillierten Analyse gemacht wird.

Um zu einer möglichst ganzheitlichen Beschreibung des Falls zu kommen, werden in der Regel verschiedene Methoden der Datenerhebung und -auswertung (wie beispielsweise Interviews, teilnehmende Verhaltensbeobachtungen, Tagebuch- und Biographieanalysen, etc.) kombiniert eingesetzt (sogenannte Methodentriangulation). Dies ermöglicht, vertiefte Erkenntnisse über den Einzelfall bzw. die Untersuchungseinheit (z.B. eine/n Schüler/in oder eine Schulklasse) zu erhalten. Einzelfallstudien werden in der empirischen Sozialforschung zu verschiedenen Zwecken eingesetzt:

197

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

- Hypothesenbildung: Anhand von Einzelfallstudien können Hypothesen für grössere Forschungsprojekte gewonnen werden. - Analyse typischer oder seltener Fälle: Einzelfallstudien eignen sich besonders zur vertieften Analyse seltener oder besonders typischer Fälle. - Illustration von Forschungsergebnissen: Einzelfallstudien eignen sich, um Forschungsergebnisse grösserer Studien anschaulich – anhand des Einzelfalles – zu verdeutlichen und Zusammenhänge darzustellen (vgl. Häder, 2006, S. 350). Eine Einzelfallstudie (auch: Fallanalyse, Case Study, Kasuistik) ist eine Forschungsform, bei der ein einzelnes Element (die sog. „Untersuchungseinheit“) zum Gegenstand detaillierter Exploration und Analyse gemacht wird. Ein einzelnes Element kann eine Person, eine Gruppe oder eine Organisation sein.

6.4.2 Vorgehen bei der Einzelfallstudie Bevor man sich auf die eigentliche Planung der Einzelfallstudie einlässt, ist zu klären, ob die Durchführung einer Einzelfallstudie überhaupt die geeignete Forschungsform bzw. einen geeigneten Forschungsansatz darstellt. Darauf wird in diesem Kapitel zuerst eingegangen. Anschliessend wird erläutert, wie die Planungsschritte bei zwei verschiedenen Typen von Einzelfallstudien umgesetzt werden. Wahl der Einzelfallstudie als Forschungsansatz. Angenommen, man hat aus den Medien erfahren, dass in einem Schulhaus ein Schüler Amok lief und seine Mitschüler/innen und Lehrperson mit einem Messer bedrohte. Es interessiert nun, wie es zu diesem Ereignis kommen konnte und es sollen möglichst verschiedene Perspektiven und Informationsquellen herangezogen werden, um das Ereignis genauer zu verstehen und verschiedene Hypothesen dazu generieren zu können. Bevor dieses Forschungsinteresse in einer Untersuchung umgesetzt werden kann, ist es wichtig, die Vor- und Nachteile einer Einzelfallstudie gegenüber anderen Forschungsformen sorgfältig abzuwägen: Was sind die Vorteile einer Einzelfallstudie? Der wichtigste Vorteil der Einzellfallstudie liegt darin, eine grosse Anzahl verschiedenster Informationen zu einer Untersuchungseinheit sammeln zu können, d.h. die Untersuchungseinheit möglichst in ihrer Ganzheit zu erfassen. Dadurch können Informationen zusammengetragen werden, die sonst eher schwer zugänglich sind (z.B. biographische Entwicklungen des Schülers und Rekonstruktion seiner Entwicklungsgeschichte im Kontext von Schule, Familie und Freizeit, etc.). Es ist in diesem Sinne eine besonders „sensible“ Vorgehensweise, um Phäno198

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

mene besser zu verstehen. So ist es im Rahmen einer Fallstudie möglich, Ursachen für das Verhalten eines Schülers, der mit einem Amoklauf gedroht oder diesen sogar wie im erwähnten Beispiel auch durchgeführt hat, vertieft zu analysieren. Dadurch gewinnt man andere Erkenntnisse, als wenn man in der Bevölkerung eine Umfrage durchführt, in der man danach fragt, welche Gründe allgemein einen Schüler oder eine Schülerin dazu bewegen könnten, in der Schule Amok zu laufen. Welche Nachteile können bei einer Einzellfallstudie auftreten? Der/die Forschende muss eine gewisse Vorsicht walten lassen und sich nicht durch die Fülle an Materialien (Daten) dazu verleiten lassen, mehr Fragen über den Fall bzw. die Untersuchungseinheit klären zu wollen als dies aufgrund der vorliegenden bzw. zugänglichen Daten möglich ist. Dies erfordert einerseits kontinuierliche Offenheit und Flexibilität, andererseits aber auch stetige Reflexion über die eigenen Grenzen im Forschungsprozess. Formen der Einzelfallstudie. Wenn man zu dem Schluss kommt, dass für die Beantwortung der eigenen Forschungsfrage eine Einzelfallstudie sehr gut als Forschungsansatz passen würde, so stellt sich als nächstes die Frage, welche Form der Einzelfallstudie verwendet werden sollte. Generell kann man zwei verschiedene Formen von Einzelfallstudien unterscheiden: Zum einen rekonstruktive Einzelfallstudien, bei denen es vor allem darum geht, zu rekonstruieren, wie es zu einem bestimmten Ereignis (z.B. Amoklauf) kam resp. warum etwas heute so ist, wie es ist (z.B. weshalb wurde jemand Lehrperson und nicht Schreinerin). Dabei kommt meist eine Kombination qualitativer Methoden zum Einsatz. So werden beispielsweise Gruppendiskussionen, narrative Interviews, Dokumentenanalysen, etc. eingesetzt (vgl. Kap. 7.2). Zum anderen werden Einzelfallstudien im Rahmen von sog. Interventionsstudien durchgeführt, d.h. das Verhalten einer Person wird vor, während und nach einer Intervention untersucht. Methode der Wahl sind in diesem Fall meist systematische Verhaltensbeobachtungen. Eine Intervention bezeichnet ein pädagogisches, psychologisches, oder psychotherapeutisches Eingreifen, um das Entstehen oder Andauern bestimmter problematischer Verhaltensweisen, Lernstörungen oder psychischer Probleme zu verhindern oder diese abzubauen.

Planung der Einzelfallstudie. Wie bereits erwähnt, können zwei Typen von Einzelfallstudien unterschieden werden: Typ 1 „Rekonstruktive Einzelfallstudien“ und Typ 2 „Einzelfall-Interventionsstudien“.

199

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Typ 1: Rekonstruktive Einzelfallstudien. Dieser erste und häufigere Typ der Einzelfallstudie wird vor allem dann eingesetzt, wenn man bestimmte Untersuchungsbereiche explorativ untersuchen will, also wenn man „Neuland“ erforscht. Ein weiterer Anwendungsbereich ist die Analyse von Biographien einzelner Personen oder von anderweitig nur schwer zugänglichen Gegenstandsfeldern (wie beim obigen Beispiel zum Drohen mit Amoklauf). Häufig wird diese Art der Einzelfallstudie auch zur Vorbereitung oder in Ergänzung grösserer Untersuchungen eingesetzt. In Deutschland führen die Verantwortlichen der Shell-Jugendstudien eine LangzeitBerichterstattung über die Entwicklung der jungen Generation in Deutschland durch. Dabei wird eine grosse, repräsentative Anzahl von Jugendlichen mündlich interviewt. Um jedoch zusätzlich tiefere Einsichten in bestimmte Bereiche der Entwicklung von Jugendlichen zu erhalten, die über die Möglichkeiten einer mündlichen Befragung einer grossen Anzahl von Jugendlichen hinausgehen, werden zusätzlich Einzelfallstudien durchgeführt. Dabei werden einige wenige Jugendliche von den Forschenden intensiv portraitiert. Diese Portraits geben beispielsweise einen vertiefenden Eindruck darüber, welches Verhältnis Jugendliche zur älteren Generation haben, etc.

Bei rekonstruktiven Einzelfallstudien geht es darum, einzelne Fälle (beispielsweise Personen oder Schulen) intensiv zu betrachten und dabei die Wirklichkeit möglichst dicht und nachvollziehbar aus verschiedenen Perspektiven zu beschreiben. Durch eine Verschränkung der verschiedenen Perspektiven sollen Hinweise darauf herausgearbeitet werden, welche verschiedenen Aspekte der Untersuchungseinheit beim Verstehen des Forschungsgegenstands relevant sind. Bei der Planung lassen sich fünf Schritte unterscheiden (vgl. Abbildung 8, S. 201): - Formulieren der Fragestellung: Bevor mit der Planung der einzelnen Durchführungsschritte begonnen und überlegt wird, welche Methoden verwendet werden, sollte die Fragestellung so präzise wie möglich formuliert werden: Was ist mein Erkenntnisinteresse und welche Bereiche und Informationen müssen daher in der Einzelfallstudie berücksichtigt werden? (vgl. Kap. 4.1). - Auswahl des Falls: Wenn die Fragestellung gefunden wurde, geht es im nächsten Schritt darum, einen geeigneten Fall bzw. eine geeignete Untersuchungseinheit auszuwählen. Der Fall sollte möglichst sorgfältig ausgewählt werden, und es muss begründet sein, warum genau dieser Fall und nicht ein anderer gewählt wurde. Soll es beispielsweise ein Extremfall

200

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

oder besser ein Idealfall sein? Oder ist man daran interessiert, einen besonders typischen (häufigen) Fall bzw. einen besonders untypischen (seltenen) Fall auszuwählen? Auch theoretisch interessante Fälle können Gegenstand der Analyse werden. Wichtig ist deshalb vor allem eine angemessene Begründung der getroffenen Auswahl.

Formulieren der Fragestellung

Auswahl des Falls

Bestimmen der Methoden

Aufarbeitung des Materials

Interpretation der Befunde

Abbildung 8: Planungsschritte bei der Durchführung einer Einzelfallstudie des Typs 1. - Bestimmen der Datenerhebungsmethoden: In einem nächsten Schritt wird festgelegt, welche Methoden eingesetzt bzw. welche Materialien gesammelt werden sollen. Wichtig ist zu beachten, dass die Einzelfallstudie die Kombination verschiedener qualitativer Methoden voraussetzt. Denn nur die Triangulation, d.h. die Vernetzung verschiedener Methoden stellt sicher, dass keine einseitige Sichtweise entsteht sondern möglichst verschiedene Perspektiven miteinbezogen werden. So kann man je nach Fragestellung und Fall beispielsweise mit narrativen Interviews, teilnehmender Beobachtung, Dokumentenanalysen etc. arbeiten. Zugleich zeigt dies, dass

201

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

eine gute und vielseitige Methodenkenntnis für Fallanalysen grundlegend und notwendig ist. - Aufbereiten des Materials: Hat man die Datenerhebungsmethoden bestimmt und das Material gesammelt, geht es um die angemessene Aufbereitung des Materials. Wie sollen beispielsweise die Informationen (z.B. Fallprotokolle, Interviewtranskripte, Beobachtungsprotokolle) fixiert werden? Soll das Material kommentiert werden? Häufig sind auch zusätzliche Eindrücke, die der/die Forschende während der Sammlung des Materials gewinnen konnte, wichtig und geben weitere Informationen über den Kontext, in dem die Studie durchgeführt wurde. Es ist zudem hilfreich, während dem Prozess der Datenerhebung stets sogenannte Memos anzufertigen, auf denen solche Eindrücke, aber auch Ideen oder Erkenntnisse festgehalten werden können. Liegen die Daten so vor, dass sie analysiert werden können, werden in einem nächsten Schritt die wichtigsten Eckpunkte des Falles zusammenfassend dargestellt (Fallzusammenfassung). Bei der Untersuchung des Amoklaufs etwa wäre dies die chronologische Darstellung bedeutender Ereignisse, die zum Amoklauf geführt haben könnten und/oder die chronologische Darstellung bedeutender Ereignisse im Leben des Amokläufers. Schliesslich wird das Material nach induktiv oder deduktiv gewonnen Kategorien geordnet resp. strukturiert (Fallstrukturierung, vgl. Mayring, 2002, S. 43; siehe auch Kapitel 7.2.3). Diese zusammenfassenden beschreibenden Schritte sind die notwendige Grundlage für den nächsten Schritt, die Interpretation der Befunde. - Interpretation der Befunde: Auf der Basis der Fallzusammenfassung und strukturierung werden die Ergebnisse interpretiert und in einen grösseren Zusammenhang eingebettet. Dies kann auch den Vergleich mit anderen Fällen beinhalten. Letzteres ist besonders dann interessant, wenn bereits ähnliche oder besonders andersartige Fälle existieren. Typ 2: Einzelfall-Interventionsstudien. Beim zweiten Typ der Einzelfallstudie, der Einzelfall-Interventionsstudie, wird etwas anders vorgegangen als bei der rekonstruktiven Einzelfallforschung. Die Einzelfall-Interventionsstudie zielt auf die Überprüfung der Auswirkungen einer Intervention auf ausgewähltes Verhalten bei einer Person ab. Als Beispiel sei eine Untersuchung genannt, die prüfen will, ob durch eine Intervention das aggressiv-störende Verhalten eines Schülers wirksam reduziert wird. Das Vorgehen bei Einzelfall-Interventionsstudien beinhaltet fünf Schritte (vgl. Abbildung 9, S. 204).

202

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Eine klassische Einzelfallstudie ist die Studie „Die Arbeitslosen von Marienthal“ (1933) von Marie Jahoda, Paul F. Lazarsfeld & Hans Zeisel. Ausgangspunkt der Untersuchung war die Fragestellung, wie man die Folgen der Arbeitslosigkeit besser verstehen kann. Als Fall wurde dazu der Ort Marienthal ausgewählt, dessen Erwerbsarbeit vor allem von einer einzigen Textilfabrik abhing, die 1929 bankrott ging. Die Arbeitslosenquote im Ort betrug daraufhin rund 75%. Die Forschenden untersuchten die Auswirkungen der Arbeitslosigkeit in Marienthal in den Jahren 1931–1932. Es wurde eine grosse Vielfalt von Methoden eingesetzt, die die Forschenden mit Aktionen verbanden, die den Kontakt zur Bevölkerung des Orts herstellten und sie für die Studie gewinnen sollten: So wurden beispielsweise vom Forscherteam Kleidersammlungen oder Hausbesuche durchgeführt, die dann mit teilnehmenden Beobachtungen verbunden wurden. Auch mündliche Befragungen und biographische Interviews kamen zum Einsatz. Die Informationen wurden schriftlich nach bestimmten Kriterien festgehalten, die dann ausgewertet wurden. Die Forschenden konnten aufgrund ihrer Materialsammlung vier Kategorien der „Haltung“ definieren, in die sich die Familien in Marienthal einordnen liessen: „Ungebrochene“; „Resignierte“, „Verzweifelte“ und „Apathische“. Die methodische Vielfalt und das qualitative Vorgehen sowie die Auswertung nach bestimmten Kriterien ermöglichten es den Forschern, einen detaillierten Überblick über das damalige Leben in Arbeitslosigkeit zu geben. Zugleich war die Studie auch theoriebildend, indem verschiedene Typen von Haltungen bei Arbeitslosigkeit identifiziert wurden.

- Formulieren der Fragestellung: Auch bei der Einzelfall-Interventionsstudie ist es zentral, zunächst die Fragestellung so präzise wie möglich zu formulieren und sich Folgendes genau zu überlegen: Was ist mein Erkenntnisinteresse bezüglich der Intervention? Die Fragestellung muss sich also im Gegensatz zum ersten vorgestellten Typ der Einzelfallstudie auf eine Intervention beziehen. - Auswahl des Falls: Wenn die Fragestellung gefunden ist, so geht es darum, einen geeigneten Fall auszuwählen und die Fallauswahl zu begründen. Da man jedoch auf eine Intervention fokussiert, ist der Fall meist durch die Praxisnotwendigkeit schon gegeben. Dann wird ein Kategoriensystem entwickelt, das der systematischen Verhaltensbeobachtung zugrunde gelegt wird. Will man beispielsweise die Reduktion aggressiven Verhaltens bei einem verhaltensauffälligen Kind untersuchen, so könnte man z.B. verbale Formen der Aggression beobachten und für diese Verhaltensweisen Beobachtungskategorien definieren. - Verhalten vor der Intervention: Im Gegensatz zum ersten Typ der Einzelfallstudie ist die Einzelfall-Interventionsstudie immer mit systematischer Verhaltensbeobachtung (vgl. Kapitel 6.3 „Beobachtung“) verknüpft. Das heisst, dass die Methode der Datenerhebung bereits feststeht und nicht mehr vom Forschenden im Einzelfall definiert werden muss. Allerdings ist es sehr lohnenswert, zusätzlich beispielsweise Selbst- und/oder Fremdein-

203

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

schätzungen heranzuziehen. Die Person (oder die wenigen Personen), die an der Intervention teilnehmen, wird/werden nachfolgend zu mehreren Zeitpunkten untersucht. Dabei wird der Ist-Zustand der im Kategoriensystem ausgewählten Verhaltensweisen systematisch und wiederholt beobachtet, ohne jedoch bereits die Intervention durchzuführen.

Formulieren der Fragestellung

Auswahl des Falls

Verhalten vor Intervention

Verhalten während Intervention

Wirkungsüberprüfung

Abbildung 9: Planungsschritte bei der Durchführung einer Einzelfallstudie des Typs 2. - Verhalten während der Intervention: In einem nächsten Schritt wird dann die Intervention durchgeführt. So wird beispielsweise ein Verhaltenstraining mit dem aggressiven Kind durchgeführt. Die Intervention wird dabei von wiederholten Beobachtungen begleitet. - Überprüfung der Wirkung: Abschliessend wird die Wirkung der Intervention auf die ausgewählte(n) Verhaltenweise(n) überprüft. Das Verhalten derselben Person vor der Intervention wird mit dem Verhalten der Person während und nach Abschluss der Intervention verglichen. Dabei wird in der Darstellung des Veränderungsprozesses häufig mit Grafiken gearbeitet,

204

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

um die Entwicklung des Verhaltens während der Interventionsphase beschreibend zu illustrieren. Als Beispiel ist in Abbildung 10 die Auswirkung von Belohnung auf das kooperative Verhalten eines aggressiven Kindes aufgeführt.

Abbildung 10: Visuelle Darstellung der Wirkung einer Intervention zur Erhöhung kooperativen Verhaltens bei einem aggressiven Kind. Dieser Typ der Einzelfallstudie erlaubt interventionsbegleitende Messungen und ist gut geeignet, um individuelle Interventionen zu evaluieren. Die Einzelfall-Interventionsstudie ist repräsentativ für das Verhalten der jeweils untersuchten Person. Zur Beurteilung der Qualität der Wirksamkeit von Einzelfall-Interventionsstudien werden sehr häufig visuelle Grafiken (Darstellung als Kurvenverläufe) herangezogen. Auch Anzahl und Zeitpunkt der Messung sowie Replikation (Wiederholung) mit weiteren Personen geben Aufschluss über die Güte der Intervention. Neben Einzelfallstudien gibt es auch sog. Mehrfach-Fallstudien. Diese untersuchen den gleichen Sachverhalt bei verschiedenen Fällen. Es werden folglich mehrere Fälle untersucht, um herauszufinden, ob sie gleiche oder ähnliche Ergebnisse liefern (vgl. Yin, 1994). Dieses Vorgehen hat den Vorteil,

205

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

dass es häufig als robuster eingeschätzt wird, da es im eigentlichen Sinne eine Replikation der (einzelnen) Fallstudie darstellt. Weiterführende Literatur Hildenbrand, B. (1995). Fallrekonstruktive Forschung. In U. Flick, E. von Kardoff, H. Keupp, v. Rosenstiel, L. & S. Wolff (Hrsg.), Handbuch qualitative Sozialforschung. Grundlagen, Konzepte, Methoden und Anwendungen (S. 256–260). Weinheim: Psychologie Verlags Union. Horstkemper, M. & Tillmann, K. J. (2003). Schulformvergleiche und Studien zu Einzelschulen. In W. Helsper & J. Böhme (Hrsg.), Handbuch der Schulforschung (S. 287–324). Opladen: Leske + Budrich. Kern, H. J. (1997). Einzelfallforschung. Eine Einführung für Studierende und Praktiker. Weinheim: Psychologie Verlags Union. Stake, R. E. (1995). The art of case study research. London: Sage. Yin, R. (1994). Case study research. Designs and methods. London: Sage.

6.5 Evaluation (von Alois Buholzer) Werden in Schule und Unterricht Neuerungen eingeführt, ist der Ruf nach einer Evaluation nah. Es interessiert beispielsweise, ob eine durchgeführte Unterrichtseinheit oder das selbst entwickelte Förderprogramm die geplanten Wirkungen bei den Lernenden auch tatsächlich erzielen. Mit Hilfe einer Evaluation möchte man den Erfolg eines Projekts oder Programms messen und/oder Hinweise für den weiteren Prozess erhalten. Vor diesem Hintergrund werden Informationen zusammengetragen, analysiert und ausgewertet. Bei näherer Betrachtung handelt es sich dabei jedoch häufig nicht um eine Evaluation, die wissenschaftlichen Kriterien genügt, sondern eher um eine „Auswertung“ oder „Begutachtung“ mit mehr oder weniger zufälligen Beurteilungen und unklarem Verwendungszweck. Welche Anforderungen an eine Evaluation mit wissenschaftlicher Ausrichtung gestellt werden, soll im Folgenden ausgeführt werden. 6.5.1 Begriffsklärung Der Begriff Evaluation stammt vom lateinischen Wort „valor“ (Wert) ab und kann folglich mit den Begriffen Bewertung oder Beurteilung umschrieben werden. Diese ursprüngliche Bedeutung findet sich noch heute in zahlreichen Definitionen des Begriffs Evaluation. So bezeichnen Altrichter und Buhren

206

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Evaluation als eine „informierte Bewertung einer bestehenden Praxis“ (1997, S. 6). Um eine Bewertung vorzunehmen, ist eine detaillierte und systematische Erfassung der aktuellen Situation erforderlich. Hierzu kommen verschiedene empirische Methoden (zum Beispiel Fragebogenerhebung oder Interview) zum Einsatz. Liegen die Daten vor, werden diese beurteilt und interpretiert, beispielsweise hinsichtlich der Zielerreichung des evaluierten Projekts. Im Gegensatz zu einer Evaluation im Alltagshandeln werden die Beurteilungskriterien offen gelegt und das methodische Vorgehen transparent gemacht. Dadurch ist es möglich, den Erkenntnisprozess zu hinterfragen und die Evaluationsergebnisse einer intersubjektiven Nachprüfung zugänglich zu machen. Lehrerinnen und Lehrer können beispielsweise nachvollziehen, wie man die Wirkungen eines Projekts gemessen hat und mit welchen Bezugsgrössen die Ergebnisse verglichen worden sind. Definition Evaluation: Im Allgemeinen verstehen wir unter Evaluation „ […] die Methode systematischer Datensammlung, die Analyse und eine an Kriterien orientierte Bewertung der Befunde mit dem primären Ziel, Impulse für die Verbesserung von Massnahmen oder Systemen zu liefern“ (Böttcher, Holtappels & Brohm, 2006, S. 9).

Evaluationen überprüfen die Zielerreichung von Massnahmen und/oder die Qualität von Strukturen, Prozessen und Interventionen mit dem Ziel, einen Beitrag zur Optimierung zu liefern. Entsprechend diesem Ziel der Evaluation kann sie sich auf verschiedene Bereiche beziehen. Im Bildungswesen können die Bereiche Input, Prozess, Output und Kontext unterschieden werden (vgl. z.B. Altrichter & Buhren, 1997, S. 14): - Die Evaluation von Inputs richtet den Fokus auf die in das Bildungssystem eingehenden Faktoren, wie z.B. die Qualifikationen der Lehrpersonen, die materielle Ausstattung der Schule, die Leitungsstrukturen der Schule sowie die geltenden Regelungen und Bestimmungen. - Wird der Prozess evaluiert, richtet sich die Überprüfung auf Merkmale wie das Schulleben und die Schulkultur, die Interaktionen der involvierten Personen sowie den Unterricht, die Gestaltung der Lehr-Lernprozesse, Projekte und weitere Aktivitäten an der Schule. - Die Evaluation von Outputs umfasst die Wirkungen eines Programms oder Projekts, beispielsweise die Leistungsergebnisse der Lernenden, die Zufriedenheit von Lehrpersonen und Eltern, die Anzahl der Schulabschlüsse oder das Image der Schule. - Die Evaluation von Kontextmerkmalen bezieht sich schliesslich auf die Überprüfung von Faktoren, welche vom Umfeld her auf die Schule einwir207

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

ken. Es handelt sich dabei um einen indirekten Einfluss auf schulische Prozesse, beispielsweise die Freizeitgestaltung der Kinder, das Bildungsinteresse des Elternhauses oder die Anforderungen der weiterführenden Schulen. Bei einer Evaluation, die sich hauptsächlich mit dem Prozess beschäftigt, spricht man auch von formativer Evaluation (vgl. Rossi et al., 2004, S. 34– 36). Eine formative Evaluation findet (oft zu verschiedenen Zeitpunkten) während eines Programms oder Projekts statt, um den aktuellen Stand der Arbeiten zu ermitteln. Es wird überprüft und beurteilt, ob die Zwischenziele erreicht werden und inwiefern Abweichungen von der Planung oder vom Konzept zu beobachten sind. Die Ergebnisse einer formativen Evaluation haben eine lenkende Funktion und greifen in den weiteren Projektverlauf ein, indem den Akteuren die Ergebnisse zum Zwecke der Steuerung zugänglich gemacht werden. Von einer summativen Evaluation spricht man dann, wenn nach Projektende eine abschliessende Bewertung vorgenommen wird. Zu diesem Zweck ist es nicht nötig, den genauen Projektverlauf zu erfassen. Vielmehr besteht die Aufgabe darin, die Wirkungen der Projektumsetzung mit der vorangehenden Situation zu vergleichen. Ist es beispielsweise mit der Durchführung einer Projektwoche zur Gesundheitsförderung gelungen, eine Haltungs- und Verhaltensänderung bei den Teilnehmenden zu erzielen? Um diese Evaluationsfrage zu beantworten, sind vor dem Start des Projekts die Ernährungspraxis und die Einstellungen z.B. zur Gesundheit zu erfassen. Nach Projektende sind die Beteiligten nochmals zu befragen, um einen Vergleich vor und nach der Intervention zu ermöglichen. Zu einer Evaluation gehören deshalb immer eine Vorher- und eine gleichgeartete Nachmessung. 6.5.2 Funktionen der Evaluation Evaluationen stellen keinen Selbstzweck dar, sondern haben eine pragmatische Ausrichtung. Der Nutzen einer Evaluation besteht darin, den evaluierten Gegenstand zu dokumentieren, Projektverläufe wie auch Zusammenhänge (erwünschte wie nicht erwünschte) aufzuzeigen. Die Evaluationsergebnisse bieten so Entscheidungsgrundlagen, um beispielsweise ein Projekt zu optimieren, die Wirkung zu erhöhen oder die Nachhaltigkeit zu sichern. Wird eine Evaluation in Betracht gezogen, ist deshalb die Frage zentral, welche Funktion die Evaluation im Rahmen des Gesamtkontexts erfüllen soll. Die Bestimmung der Funktion ist sowohl bei eigenen Projekten wie auch bei der Vergabe von Evaluationsaufträgen an Dritte zu klären, hängen doch je nach Ausrichtung weitere Entscheide wie die Fragestellungen, das methodische Vorgehen und insbesondere die Verwertung der Evaluationsergebnisse

208

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

von einer Funktionsklärung (wozu dient die Evaluation?) ab. So macht es einen Unterschied, ob mit einer Evaluation Rechenschaft abgelegt werden soll, beispielsweise über den Einsatz von finanziellen Mitteln und der aufgewendeten Arbeitszeit oder ob damit neue Erkenntnisse über einen Projektverlauf gewonnen werden sollen, um Optimierungen vorzunehmen und die Wirkung zu erhöhen. In Anlehnung an Stockmann (2006, S. 29f.) können bei Evaluationen folgende Funktionen unterschieden werden: - Steuerungsfunktion: Die erfassten Evaluationsdaten dienen primär der Steuerung und Optimierung eines Entwicklungsprozesses oder eines Projekts. Die Ergebnisse unterstützen beispielsweise die Steuergruppe einer Schule darin, festgestellte Defizite bei einem internen Projekt zur Leseförderung zu beseitigen oder das Angebot von unterrichtsergänzenden Angeboten zu verbessern. - Kontrollfunktion: In diesem Fall wird mit Hilfe einer Evaluation die Einhaltung von Normen oder Standards überprüft. Eine wichtige Bedeutung besitzt in diesem Bereich die Überprüfung von Kompetenzen bei Schülerinnen und Schülern: Werden die angestrebten Kompetenzniveaus in den Fächern erreicht? Welche Kompetenzen werden zu Beginn und am Ende einer Fördereinheit festgestellt? Welche Aussagen können zu den individuellen Verläufen der Kompetenzentwicklung angesichts der unterschiedlichen Lernausgangslagen gemacht werden? - Stimulierungsfunktion: Ergebnisse von Evaluationen können als Innovationsimpulse interpretiert werden und die Schule anregen, neue Entwicklungsschritte in Angriff zu nehmen. Ein Beispiel dafür ist die Evaluation von Förderlektionen. Die Ergebnisse dienen in diesem Fall der Schule dazu, die Förderlektion von einer unspezifischen „Hausaufgabenhilfe“ hin zu einem Förderangebot mit vielfältiger Angebotsstruktur weiterzuentwickeln. - Rechtfertigungsfunktion: Evaluationsergebnisse können nachweisbar aufzeigen, welche Massnahmen und Wirkungen innerhalb einer bestimmten Zeitspanne erzielt worden sind. Zudem können mit Messungen Aussagen über die Nachhaltigkeit bestimmter Programme (beispielsweise in der Gesundheitsprävention) gemacht werden. Die Evaluationsergebnisse ermöglichen die Rechtfertigung der gesprochenen Aufwendungen und Ausgaben. Es ist davon auszugehen, dass die hier genannten Evaluationsfunktionen in der Praxis teilweise auch miteinander verbunden sind und nicht in jedem Fall losgelöst voneinander betrachtet werden können. Trotzdem ist die Schwerpunktsetzung resp. der Hauptzweck in der Planungsphase einer Evaluation zu klären.

209

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

6.5.3 Phasen im Evaluationsprozess Bei der Realisierung von Evaluationen können verschiedene Phasen unterschieden werden. Anhand eines Fallbeispiels werden im Folgenden in Anlehnung an Abs, Maag Märki & Klieme (2006, S. 99–108) die wichtigsten Planungs- und Durchführungsschritte einer Evaluation aufgezeigt. Beim Fallbeispiel handelt es sich um den Auftrag der Bildungsbehörde des Kantons Luzern, den momentanen Stand des Projekts „Weiterentwicklung der Sekundarstufe I“ zu evaluieren. Die Evaluation wurde durch ein Evaluationsteam des Instituts für Schule und Heterogenität (ISH) der Pädagogischen Hochschule Zentralschweiz (PHZ) durchgeführt. Das zu evaluierende Projekt „Weiterentwicklung der Sekundarstufe I“ sollte eine Optimierung sowohl der Schulstrukturen wie auch eine Weiterentwicklung des Unterrichts bewirken. Veränderungen der Schulstrukturen: Die Schulen wurden aufgefordert, eines von drei vorgeschlagenen Schulmodellen – unter Vorbehalt der Minimalanforderungen (z.B. Anzahl Schülerinnen und Schüler) – an ihrer Schule zu implementieren. Folgende Modelle standen zur Auswahl: - Typengetrenntes Modell (Aufteilung der Schülerinnen und Schüler nach Leistungskriterien in vier Sekundarschultypen in separaten Klassen), - Integriertes Modell (Aufteilung der Schülerinnen und Schüler in Stammklassen ohne Leistungsselektion, mit leistungsdifferenzierten Niveaukursen) und - Kooperatives Modell (Aufteilung der Schülerinnen und Schüler in Stammklassen nach Leistungskriterien, mit leistungsdifferenzierten Niveaukursen). Weiterentwicklung des Unterrichts: Beispielweise wurde die Einführung des Projektunterrichts in den Abschlussklassen oder die Weiterentwicklung der (Schüler- und Schülerinnen-) Beurteilung angestrebt. Mit dem Projekt sollten u.a. die folgenden Ziele erreicht werden: Die Jugendlichen werden in ihren unterschiedlichen Begabungen und Leistungsmöglichkeiten gefördert. Die Durchlässigkeit der unterschiedlichen Bildungsangebote wird erhöht. Die Angebote der Sekundarstufe I stehen den Jugendlichen möglichst wohnortsnah und in vergleichbarer Qualität und Breite zur Verfügung (vgl. Buholzer, Ottiger & von Büren, 2008, S. 3).

1. Phase: Vorabklärungen treffen: Bei der Entscheidung, eine Evaluation durchzuführen, sind vorgängig die Eckwerte des Vorhabens zu klären. In diesen Vorabklärungen werden der Evaluationsbereich und die Ausrichtung der Evaluation grob umrissen. Im Detail sind die folgenden Fragen zu prüfen: - Hauptfragestellung: Was ist die Hauptfragestellung der Evaluation? - Funktion der Evaluation: Welche Funktion hat die Evaluation im Rahmen des Gesamtprojekts? - Teilnehmende/Untersuchte und Untersuchungsgegenstand: Wer und was soll evaluiert werden? 210

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

- Zugang zum Feld: Ist der Zugang zum Feld gesichert? - Verwertungszusammenhang: Auf welche Art und Weise werden die Evaluationsergebnisse genutzt? Wird eine Evaluation in Auftrag gegeben (z.B. durch eine Projektleitung oder Bildungsbehörde), liegen in der Regel eine Umschreibung des Evaluationsbereichs und die entsprechenden Einwilligungen vor. Falls eine Evaluation aus eigener Initiative geplant wird, sind diese Fragen frühzeitig mit den verantwortlichen Personen zu klären. Es lohnt sich, die Eckpunkte der Evaluation in einer Vereinbarung mit den involvierten Institutionen verbindlich festzuhalten. Dazu gehört u.a. auch die Regelung, welchem Verwertungszusammenhang die Auswertung dienen soll. Der Verwertungszusammenhang betrifft die Art und Weise der Nutzung der Evaluationsergebnisse. Die Vorabklärungen zur Evaluation des Projekts „Weiterentwicklung der Sekundarstufe I“ lassen sich mit den folgenden Punkten zusammenfassen: Hauptfragestellung: Wie wurden die Ziele des Projekts „Weiterentwicklung der Sekundarstufe I“ umgesetzt? Funktion der Evaluation: Summative Evaluation nach Abschluss der Implementierung. Teilnehmende/Untersuchte: Lehrerinnen und Lehrer, Schulleitungen, Schülerinnen und Schüler, Absolventinnen und Absolventen, Erziehungsberechtigte, Abnehmerschulen und weitere. Untersuchungsgegenstand: Schulkultur, Schulstrukturen, Unterricht, Akzeptanz. Zugang zum Feld: Gesichert durch die Bildungsbehörde und die involvierten Schulleitungen. Verwertungszusammenhang: Die Ergebnisse sollen in Form eines schriftlichen Berichts vorliegen, welcher an den Auftraggeber geht. Die weitere Informierung (z.B. von Schulbehörden) soll in Absprache mit dem Evaluationsteam durch den Auftraggeber erfolgen. Für wissenschaftliche Zwecke sollen die Daten (anonymisiert) weiterverwendet werden können.

2. Phase: Präzisierung der Fragestellungen und Entwicklung von Dimensionen und Indikatoren: Im nächsten Schritt werden die Eckwerte verfeinert, indem die Evaluationsfragen präzisiert und die zugrunde gelegten Dimensionen und Indikatoren festgelegt werden. Diese Festlegung bildet die Entscheidungsgrundlage zur Ausarbeitung des methodischen Vorgehens und die Entwicklung der Evaluationsinstrumente. In diesem Planungsschritt sind deshalb die folgenden Fragen von Bedeutung: - Fragestellungen: Welches sind die detaillierten Evaluationsfragen? - Dimensionen und Indikatoren: Mit welchen Dimensionen und Indikatoren werden die Evaluationsfragen überprüft?

211

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Die Präzisierung der Fragestellungen kann erreicht werden, indem die Hauptfragestellung in enger umrissene Unterfragen aufgeteilt wird (vgl. Kap. 4.1.2). Die Unterfragen beziehen sich jeweils auf einen bestimmten Teil des Evaluationsbereichs und stehen in einem logischen Zusammenhang zur Hauptfragestellung. Unterfragen weisen eine geringere Reichweite und Komplexität auf und sind so einer empirischen Überprüfung besser zugänglich. Es kann auch sein, dass zur Beantwortung der Hauptfragestellung wichtige ergänzende Fragen nicht abgedeckt werden können. Auch diese ergänzenden Nebenfragestellungen sind zu berücksichtigen. Fragestellungen: Für das vorliegende Evaluationsprojekt wurden die Haupt- und Nebenfragestellungen durch den Auftraggeber vorgegeben. In erster Linie ging es um die Prüfung, ob die Neuerungen tatsächlich in den Schulen umgesetzt wurden und in das fein gesponnene Netz der bestehenden Regulierung des Bildungswesens eingreifen. Konkret ergaben sich daraus die folgenden vom Auftraggeber festgelegten Evaluationsfragestellungen: - Feststellen wie die Ziele und Schwerpunkte des Projekts „Weiterentwicklung der Sekundarstufe I“ (und der jeweiligen Schulmodelle) erreicht worden sind - Feststellen des Realisierungsgrades der zusätzlichen Themen auf der Unterrichtsebene (z.B. Einführung des Projektunterrichts im Abschlussjahr) - Feststellen der Akzeptanz der realisierten Schulmodelle - Aufzeigen des Handlungsbedarfs in den Schulen und bei der Bildungsbehörde (vgl. Buholzer et al., 2008, S. 3).

Zur Überprüfung der Evaluationsfragen werden die zentralen Dimensionen der Untersuchung festgelegt. Die Dimensionen bilden die Kernkonstrukte einer Evaluation und stellen sozusagen das inhaltliche Hauptgerüst für die zu entwickelnden Erhebungsinstrumente dar. Sie setzen sich aus Indikatoren zusammen, die als „Anzeiger“ besser beobachtbar und einschätzbar sind als die abstrakteren Dimensionen. Die gemessenen Indikatoren lassen zusammenfassend ihrerseits Rückschlüsse auf die übergeordneten Dimensionen zu. Die Einschätzung der Indikatoren erfolgt durch die eingangs definierten Personengruppen. Dimensionen und Indikatoren sind theoretisch abgestützt auf theoretische Konzepte und Modelle z.B. der Fachdidaktik oder der Organisationspsychologie. Die verwendeten Dimensionen und Indikatoren müssen im Evaluationsprozess begründet werden (vgl. Kap. 4.1.3).

212

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Dimensionen: Zur Evaluation der Zielerreichung des Projekts „Weiterentwicklung der Sekundarstufe I“ wurden verschiedene Dimensionen zusammengestellt. - Zur gewählten Dimension „Lernmotivation“: Bei der Dimension zur Lernmotivation konnte auf das Modell von Spinath, Stiensmeier-Pelster, Schöne und Dickhäuser (2002) zurückgegriffen werden, das die Lern- und Leistungsmotivation anhand von vier Skalen überprüft. Diese Dimension wurde gewählt, um mögliche Auswirkungen der Schulmodelle auf das Verhalten von Schülerinnen und Schülern zu messen. - Zur gewählten Dimension „Machbarkeit“: Anders gestaltete sich die Zusammensetzung der Dimension zur Machbarkeit des jeweils gewählten Schulmodells. Die Indikatoren zur Dimension wurden für die Untersuchung eigens zusammengestellt. Grundlage dafür bildete eine Dokumentenanalyse sowie Vorgespräche mit involvierten Lehrkräften. Die Angaben wurden verdichtet und in vier Indikatoren zusammengeführt (siehe Tabelle S. 215). Mit der Dimension „Machbarkeit“ sollten der Grad der Umsetzung und die damit verbundenen Schwierigkeiten erfasst werden.

In der Tabelle 21 (S. 215) werden exemplarisch zwei Dimensionen und ihre dazugehörigen Indikatoren aufgeführt. Zudem ist festgehalten, wer zu den entsprechenden Dimensionen und Indikatoren befragt wird. 3. Phase: Festlegung des methodischen Vorgehens und Konstruktion von Instrumenten: Im dritten Arbeitsschritt steht die Klärung von methodischen Fragen im Vordergrund. Es muss festgelegt werden, wie die Evaluationsfragen auf der Grundlage der oben genannten Dimensionen und Indikatoren beantwortet werden können. Die dafür notwendigen Instrumente zur Datenerhebung müssen ausgewählt, angepasst oder neu entwickelt werden. In diesem Planungsschritt sind die folgenden Punkte von Bedeutung: - Methodisches Vorgehen: Welches methodische Vorgehen eignet sich zur Beantwortung der Evaluationsfragen? - Instrumente zur Datenerfassung: Welche Instrumente zur Datenerfassung eignen sich und gelangen zur Anwendung? Das methodische Vorgehen legt fest, mit welchem Forschungsansatz (qualitativ oder quantitativ) die Erhebung durchgeführt wird. Hinsichtlich der Zeitperspektive muss bestimmt werden, ob ein Quer- oder ein Längsschnitt durchgeführt wird. Zudem werden die Auswahl und die Zusammensetzung der Stichprobe definiert und begründet. Schliesslich folgen Angaben zu den Analyseverfahren. In den Ausführungen zum Instrumentarium wird über die Beschaffenheit der Erhebungsinstrumente informiert. Es lohnt sich in dieser Arbeitsphase eine gründliche Recherche anzustellen, um auf überprüfte Instrumente oder gesicherte Skalen zurückgreifen zu können. Nicht nur neu entwickelte Instrumente, sondern das gesamte Instrumentarium soll im Rahmen einer Pilotierung

213

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

auf seine Qualität und Eignung zur Beantwortung der Evaluationsfragen hin überprüft werden. Methodisches Vorgehen: Die vorliegende Evaluation basierte auf einem quantitativen Forschungsansatz, der punktuell mit einem qualitativen Zugang (Fokusgespräche) sowie mit weiteren statistischen Auswertungen ergänzt wurde. Die Daten wurden mit einer einmaligen Querschnitterhebung im Frühjahr 2008 erfasst. Die Stichprobe bei der Fragebogenerhebung setzte sich aus insgesamt 17 Schulen zusammen. Es wurde darauf geachtet dass die Schulmodelle und die Schulgrössen (grosse Schulen mittelgrosse Schulen kleine Schulen) proportional zur Grundgesamtheit (d.h. den Schulgrössen im untersuchten Kanton) in der Stichprobe vertreten waren. Bei der Befragung der Schulleiterinnen und Schulleiter wurde eine Vollerhebung bei allen Schulleitungen Sek I des Kantons durchgeführt. Instrumente zur Datenerfassung: In unserem Evaluationsbeispiel kamen die drei Methoden Fragebogenuntersuchung, Fokusgespräche, sekundärstatistische Analysen mit verschiedenen Instrumenten zur Anwendung (vgl. Buholzer et al., 2008, S. 4ff): Die Fragebogenuntersuchung beinhaltete eine schriftliche Befragung von Schulleitungen Lehrkräften, Schülerinnen und Schülern (alle Sek I), Eltern sowie Absolventen/-innen der Sek I (Lernende am Kurzzeitgymnasium und Berufsmatura). Thematisch orientierten sich die Fragebogen an den vorangehend aufgestellten Dimensionen und Indikatoren. Im Rahmen von vier Fokusgesprächen wurden u.a. Vertreterinnen und Vertreter der Schulpflegen, der Schulleitungen, der Schulverwaltungen und der Berufsschulen in Gruppen zu spezifischen Themen (Akzeptanz der Modelle, Einschätzung der Zielerreichung, spezielle Herausforderungen beim momentanen Projektstand) mit Hilfe eines Interviewleitfadens befragt. Die Weiterentwicklung der Sekundarstufe I hatte unter anderem zum Ziel, die Durchlässigkeit des Schulsystems zu erhöhen. Mit einer sekundärstatistischen Analyse sollte die Anzahl der Umteilungen (z.B. in eine andere Schulklasse) ermittelt und so ein Faktor der Durchlässigkeit in den verschiedenen Schulmodellen berechnet werden.

4. Phase: Datenerhebung und -analyse: Die eigentlichen Umsetzungsarbeiten der Evaluation erfolgen mit dem Beginn der Datenerhebung. Liegen die Daten vor, werden sie gesichert und zur Datenanalyse aufbereitet (z.B. in elektronischer Form). Anschliessend erfolgt die Datenanalyse. Bei diesem Evaluationsschritt sind folgende Punkte zu beachten: - Organisation der Datenerhebung: Wie ist die Datenerhebung zu organisieren und durchzuführen, damit eine möglichst hohe Datenqualität erreicht werden kann? - Datenauswertung: Wie werden Daten ausgewertet? Die Datenerhebung ist sorgfältig zu organisieren und mit den Verantwortlichen des zu evaluierenden Sachverhalts abzusprechen. Der gewählte Zeitpunkt der Datenerhebung, eine frühzeitige Informierung der beteiligten Per-

214

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

sonengruppen sowie ein reibungsloser technischer Ablauf der Datenerhebung helfen, den Rücklauf zu optimieren und die Datenqualität zu erhöhen (vgl. Kapitel 5 „Durchführung der Datenerhebung“). Tabelle 21: Dimensionen, Indikatoren und befragte Personengruppen (vgl. Buholzer et al., 2008, S. 5) Befragte Personengruppen Dimensionen zur Überprüfung der Zielerreichung

Lernmotivation

Machbarkeit des realisierten Modells



Lernende

AbsolventInnen

Lernzielorientierung

X

X

Annäherungsleistungsziele

X

X

Vermeidungsleistungsziele

X

X

Vermeidungstendenzen

X

X





Indikatoren

Pensenplanung, Stundenplanung Übertritte, Zuweisungen, Wechsel Infrastruktur, Raumbelegungen

SchulleiterInnen

Lehrkräfte

X

X

X

X

X

X

Unterricht, Lektionen

X

X







Eltern



Nach der Erhebung werden die Daten ausgewertet. Die Form der Datenauswertung hängt einerseits vom gewonnenen Datenmaterial (Einschätzung auf Ratingskalen, verschriftlichte Interviews, Gesprächsprotokolle etc.) ab, andererseits wird die Ausrichtung der Analyse durch die Evaluationsfragen vorgegeben. Nähere Angaben zur Datenanalyse finden sich im Kapitel 7 („Auswertungen“).

215

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Datenerhebung: Die Datenerhebung erfolgte in unserem Evaluationsbeispiel in enger Kooperation mit den Schulleitungen der involvierten Schulen. Die Schulleitungen wurden telefonisch kontaktiert und über die Evaluation informiert. Die Lehrkräfte wurden mittels E-mail und per Briefpost eingeladen, anonym an der Befragung teilzunehmen. Der Fragebogen wurde den Lehrkräften online zur Verfügung gestellt. Für die Eltern lag der Fragebogen in Papierform und in fünf Sprachen übersetzt vor. Datenauswertung: Die quantitativen Daten der Befragung wurden mittels der Statistiksoftware SPSS analysiert. Zuerst wurden die Daten deskriptiv ausgewertet. Im zweiten Schritt wurden die Mittelwerte und die Standardabweichungen berechnet, um einen Überblick über die erhobenen Daten zu erlangen und eine erste Einschätzung der Werte zu erhalten. Zusätzlich wurden Vergleiche zwischen Subgruppen (z.B. Schulmodelle) angestellt. Die transkribierten Fokusgespräche wurden mit einer qualitativen Inhaltsanalyse ausgewertet. Bei den sekundärstatischen Analysen wurde die Quote der Umteilungen in andere Schulklassen (mit einem anderen Anforderungsniveau) errechnet.

5. Phase: Interpretation, Empfehlungen und Dokumentation: Die Evaluationsergebnisse werden schliesslich interpretiert und beurteilt. Es folgen Empfehlungen zur Weiterentwicklung des evaluierten Sachverhalts wie auch die Dokumentation des gesamten Evaluationsprozesses. Folgende Punkte stehen bei diesem Evaluationsschritt im Vordergrund: - Dateninterpretation: Wie werden die gewonnenen Ergebnisse interpretiert und beurteilt? - Empfehlungen: Welche Empfehlungen leiten sich aus den Evaluationsergebnissen ab? - Dokumentation: Wie werden die Ergebnisse adressatengerecht dokumentiert? Die Interpretation der Daten erfolgt, indem die Ergebnisse kritisch hinterfragt und zu Theorien und bereits vorliegenden Forschungsergebnissen in Bezug gestellt werden. Die Beurteilung wird zum einen durch einen Vergleich der Evaluationsergebnisse mit den intendierten Zielen des Projekts oder Programms vorgenommen. Aufgrund der Ergebnisse wird beurteilt, inwiefern die Projektziele erreicht werden oder unter welchen Umständen eine Zielerreichung wahrscheinlicher ist. Die Beurteilung kann zum andern auf den Vergleich zwischen den beteiligten Gruppen (z.B. verschiedene Schulklassen oder Schulen) oder auf einen Vergleich der verschiedenen Zeitpunkte erfolgen (z.B. vor und nach der Intervention). In die Beurteilung fliesst häufig eine Bilanzierung der Stärken und Schwächen des evaluierten Sachverhalts mit ein.

216

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:40

Abgeschlossen wird eine Evaluation mit Empfehlungen oder mit einem Fazit. Die Empfehlungen stützen sich auf die Evaluationsergebnisse ab und liefern Hinweise zur Optimierung des evaluierten Programms oder zeigen mögliche Alternativen zur Weiterentwicklung auf. Die Empfehlungen sind mit Vorteil konkret und auf die verschiedenen Adressaten der Evaluation hin zugeschnitten. Dateninterpretation: Die Interpretation der Evaluationsergebnisse erfolgte bei unserem Beispiel in Bezug auf die Hauptfragestellung. Es wurde beurteilt, wie gut die einzelnen Projektziele in den Schulen umgesetzt worden sind. Zudem wurden die Ergebnisse der verschiedenen Schulmodelle miteinander verglichen. So zeigte sich beispielsweise, dass die Durchlässigkeit in den kooperativen Schulmodellen am besten gelingt. Empfehlung: Aufgrund der Ergebnisse wurden verschiedene Empfehlungen formuliert. In Bezug auf den oben aufgeführten Sachverhalt wurde folgende Empfehlung an die Adresse der kantonalen Bildungsbehörde gerichtet: „Die Durchlässigkeit in den typengetrennten Schulen soll erhöht werden. Mit spezifischen Massnahmen, wie beispielsweise einer ‚Durchlässigkeitskonferenz’ kann es gelingen, die Quote zu erhöhen […]“ (Buholzer et al., 2008, S. 103). Dokumentation: Die Ergebnisse der Evaluation wurden dem Auftraggeber im Rahmen einer Präsentation vorgestellt und in einem schriftlichen Bericht dokumentiert. Darüber hinaus informierte der Auftraggeber via Webseite und weiterer Publikationsorgane über die Ergebnisse der Studie. Die untersuchten Schulen wurden mit einem Kurzbericht und einer individuellen Auswertung ihrer Daten (inkl. Vergleichsmöglichkeiten) bedient.

Der gesamte Evaluationsprozess wie auch die Evaluationsergebnisse werden häufig in Berichtsform dokumentiert. Dieser Schritt ist im Rahmen einer Evaluation von nicht zu unterschätzender Bedeutung, richten sich doch Evaluationsergebnisse häufig an einen relativ grossen Kreis von Adressatinnen und Adressaten. Damit der Feedbackkreislauf geschlossen werden kann, sind die gewonnenen Erkenntnisse auch an die Personen zurückzuspiegeln, die an der Datenerhebung teilgenommen haben. Weiterführende Literatur Altrichter, H., Messner, E. & Posch, P. (2004). Schulen evaluieren sich selbst. Ein Leitfaden. Seelz: Kallmeyer. Böttcher, W., Holtappels, H. G. & Brohm, W. (2006). Evaluation im Bildungswesen: Eine Einführung in Grundlagen und Praxisbeispiele. Weinheim: Juventa. Stockmann, R. (Hrsg.) (2007). Handbuch zur Evaluation. Sozialwissenschaftliche Evaluationsforschung, Band 6. Eine praktische Handlungsanleitung. Münster: Waxmann.

217

Powered by TCPDF (www.tcpdf.org)

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

7 Auswertungen

Nach erfolgreich durchgeführter Datenerhebung geht es darum, die gesammelten Daten auszuwerten, um zu sehen, zu welchen Ergebnissen die Untersuchung geführt hat. Im Folgenden wird beschrieben, wie nach der Datenaufnahme schrittweise vorgegangen wird, um die gesammelten Daten aufzubereiten und sie qualitativen (Kap. 7.2) und/oder quantitativen Analysen (Kap. 7.3 bis 7.5) zuzuführen. Wie bereits in Kapitel 4 ausgeführt wurde, hängt die Art der erhobenen Daten und somit die Analyse dieser Daten von der Fragestellung, der gewählten Methode sowie dem Forschungsinstrument ab. Daher wird zuerst grob zwischen qualitativen und quantitativen Daten, Analysen und Ergebnissen unterschieden. Dabei lassen sich qualitative und quantitative Forschungsansätze nicht immer streng trennen, vielmehr gibt es häufig Kombinationen beider Forschungszugänge (Kap. 4.1.4). Dies bedeutet, dass oft in ein und demselben Forschungsprojekt sowohl quantitative als auch qualitative Daten vorhanden sind und weiter verarbeitet werden.

7.1 Datenaufbereitung Die erhobenen Daten sind vorerst in Rohform (z.B. in ausgefüllten Fragebögen, in Videoaufzeichnungen, in aufgenommenen Interviews etc.) vorhanden. Die Aufbereitung der Rohdaten, d.h. deren weitere Verarbeitung, um sie in eine analysegerechte Form zu bringen, ist ein wichtiger Zwischenschritt. Bei Fragebogendaten bedeutet dies das Erstellen eines Codeplans und die Aufnahme der Daten ins Excel (oder in ein Statistikprogramm wie z.B. PASW Statistik/SPSS). Wie genau ein Codeplan und eine dazugehörige Urliste (Datentabelle) erstellt werden, wird in Kapitel 7.3.2 näher dargelegt. Bei Audiodaten aus Interviews werden die Verbaldaten (also das, was auf der Aufnahme zu hören ist) teilweise oder ganz transkribiert (verschriftlicht). Je nach Art der Fragestellung ändern sich Form und Genauigkeit des Transkripts (vgl. Flick, 2007). Sollen der Kommunikationsfluss sowie die verwendete Sprache genauer untersucht werden, enthält ein Transkript eine wort-

218

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

wörtliche Transkription mit Angaben zur Länge von Sprechpausen, zu Stocken oder Stottern, anderen lautlichen Äusserungen usw. Sind vor allem inhaltliche Überlegungen für die Beantwortung der Fragestellung bedeutsam, werden die Hauptaussagen schriftlich erfasst oder gar nur zusammengefasst, ohne auf paraverbale Merkmale einzugehen. In letzterem Fall wird eine solche zusammenfassende Darstellung dem Interviewpartner resp. der Interviewpartnerin zur Überprüfung und allfälliger Korrektur übergeben. Bei Videodaten können beispielsweise die relevanten Sequenzen zusammengeschnitten werden, Ausschnitte von Zeichnungen können eingescannt werden usw. Bereits bei diesen ersten Aufbereitungsschritten setzt die von nun an parallel mitlaufende Fehlerkontrolle ein, in deren Verlauf aufgefundene Fehler in den Daten bereinigt (d.h. korrigiert) resp. fehlerhafte und fehlende Angaben ausgeschlossen oder speziell vermerkt werden (vgl. Diekmann, 2007). Erst wenn die Rohdaten aufbereitet und in eine analysegerechte Form gebracht worden sind – was bedingt, dass das Analyseprozedere zumindest grob festgelegt wurde – kann mit der eigentlichen Analyse der Daten begonnen werden.

7.2 Qualitative Verfahren der Datenauswertung (von Christina Huber und Lukas Lehmann) Qualitative Forschung will zuerst einmal verstehen. Sie will Lebenswelten „von innen heraus“ beschreiben und ihren Sinn rekonstruieren. Ihr Ziel ist es, so zu einem besseren Verständnis der sozialen Wirklichkeit zu kommen. Fragestellugen, die man mit solchen Verfahren untersuchen möchte, fokussieren bspw. die Sicht von Subjekten (z.B. „Wie erleben Junglehrer/innen den Einstieg in die Berufspraxis?“), die Rekonstruktion der Bedeutung einer spezifischen Situation (z.B. „Wodurch kennzeichnet sich das Verhältnis von Lehrpersonen und Schüler/innen?“) oder sozialer Ordnung (z.B. „Welche gesellschaftlichen Aufgaben erfüllt die Schule aus der Sicht von Kindergartenlehrpersonen?“) sowie die Analyse tiefer liegender Strukturen, welche Handlungen beeinflussen (z.B. „Welchen Sinn verleihen Lehrpersonen ihrem Beruf?“) (vgl. Flick, von Kardoff & Steinke, 2007, S. 18ff). Hierzu wird meist auf nicht oder wenig standardisierte Verfahren der Datenerhebung zurückgegriffen oder es werden Daten verwendet, welche der Forschungsgegenstand resp. die Forschungsobjekte selbst erzeugt haben z.B. verschiedene Arten von Quellentexten, Dokumentationen, Tagebücher, Förderberichte, Bilder usw. (vgl. Kapitel 6 „Datenerhebungsmethoden“).

219

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Im Folgenden werden drei verschiedene Verfahren der qualitativen Datenauswertung näher vorgestellt und anhand von Beispielen verdeutlicht. Hierfür werden bei jedem der Ansätze (a) die Zielsetzung (geeignete Schlüsselfragen und Gegenstandsfelder der Verfahren), (b) der theoretische Hintergrund, (c) das methodische Vorgehen (die „Techniken“) beschrieben sowie (d) eine kritische Würdigung der Verfahren vorgenommen. Die ausgewählten Ansätze – die Objektive Hermeneutik, das Verfahren der Grounded Theory sowie die qualitative Inhaltsanalyse – können für Forschungsarbeiten im Bereich der Lehrerinnen- und Lehrerbildung besonders ertragreich genutzt werden. Auch wurde die Auswahl so getroffen, dass sich die wesentlichen Pole qualitativer Ansätze darin repräsentiert finden. Überblick. Das Feld der qualitativen Methoden ist in verschiedene „Denkschulen“ eingeteilt, ihre Vertreterinnen und Vertreter sehen sich entsprechend verschiedenen Denkansätzen und Grundannahmen verpflichtet und die verwendeten Methoden bauen darauf auf. Die einzelnen Verfahren lassen sich jedoch nicht nur hinsichtlich ihres theoretischen Hintergrundes unterscheiden, sondern auch anhand der konkreten Vorgehensweisen im Forschungsprozess. Zentral dabei ist, wie mit dem Datenmaterial umgegangen wird. Oft werden qualitative Vorgehen in einer Art Negativselektion benutzt, d.h. Studierende und andere Forschende entscheiden sich primär und generell gegen quantitative Verfahren. Aus einer solchen Selektion entstehen dann nicht selten Unklarheiten, da der oder die Forschende nicht klar weiss, welche Bedeutung diese Wahl hat. Die Arbeiten enden dann häufig in einem Durcheinander zwischen quantitativer Forschungslogik, paraphrasierendem Nachvollzug und unsystematischem Interpretieren (vgl. Przyborski & Wohrab-Sahr, 2009, S. 18ff). Mit den vorliegenden Beschreibungen und Beispielen soll dem entgegengewirkt werden. Wer qualitativ forscht, muss gewisse, von der Methodik verlangte Regeln befolgen, um zu gültigen Resultaten zu kommen. Was es heisst, „rekonstruktiv“ zu forschen, wird auf den nächsten Seiten genauer dargelegt. Es geht dabei nicht darum, die eine Methode gegen die andere auszuspielen. Es kann nämlich ausgesprochen sinnvoll sein, in aufeinanderfolgenden Schritten verschiedene methodische Zugänge miteinander zu verknüpfen. Jeder Schritt für sich verlangt aber nach methodischen Kenntnissen, damit man weiss, welche Aussagen mit welchen Vorgehen erstellt werden können.

220

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Methodenwahl. Grundsätzlich wurden die hier vorzustellenden Methoden so ausgewählt, dass sie in ihrem Vorgehen klar formuliert sind und sich nicht auf bestimmte disziplinäre Anwendungsgebiete beschränken. Und auch wenn die Vertreterinnen und Vertreter der verschiedenen Ansätze teils polemisch gegeneinander argumentieren, schliessen sich die Verfahren nicht aus, sondern können sich – insbesondere im Fall der Grounded Theory und der Objektiven Hermeneutik – sogar gut ergänzen. Getreu dem Motto „all is data“ (Glaser, 2007, S. 57) sind alle drei Verfahren wenig auf bestimmte Erhebungsformen spezialisiert. Gerade bei der Grounded Theory liegt der Schwerpunkt nicht so sehr auf der Art der Datenerhebung, sondern zielt auf die Bildung von Hypothesen und deren Überprüfung und Zusammenführung zu einer Theorie über den untersuchten Gegenstand ab. Glaser, als einer der Erstautoren, präferiert Beobachtungsprotokolle (vgl. Glaser, 2007, S. 53) gegenüber Interviews. Nichtsdestotrotz kommen viele Materialien in Frage, so etwa Interviews, Gruppendiskussionen, Beobachtungen, Dokumente u.v.m. Obwohl das Vorgehen eine grundsätzliche Offenheit vorsieht – die Theorie soll am Gegenstand geradezu „entstehen“ – setzt das „Codieren“ auf Seiten der Forschenden „theoretische Sensibilität“ voraus. Diese erlangt man durch die vorbereitende Lektüre und durch Forschungserfahrung. Weiter kann es unter bestimmten Voraussetzungen und entsprechender Vorsicht (gegenüber falscher Schlüsse und Kreativitätsverlust) im Rahmen des Ansatzes zulässig sein, bereits bekanntes „theoretisches“ Wissen einzuschleusen – etwa in der Weise, dass weitere Quellen in ähnlicher Weise durchcodiert werden wie „Primärquellen“. Letztlich will die Grounded Theory die möglichen Beziehungen, die zwischen den gebildeten Kategorien bestehen, aufzeigen. „Die (nicht ganz so triviale) Leitfrage hierbei lautet: Was hängt wie mit was zusammen?“ (vgl. Schallberger, 2005, S. 30ff). Das ursprüngliche Anwendungsgebiet der Objektiven Hermeneutik war vor allem die Auswertung transkribierter Interviews im Rahmen familiensoziologischer Studien. Mit der Zeit wurde die Methode aber auf die Analyse weiterer Textdokumente ausgedehnt und sogar auf Kunstwerke und Bildmaterial angewendet (vgl. Flick, 2002). Von den Anwendenden bevorzugt werden in der Regel Daten, in denen ein längerer Ausschnitt aus der Praxis des interessierenden Falles vollständig protokolliert ist. Idealerweise sind dies „natürliche Protokolle“; Daten also, die nicht einfach zu Forschungszwecken künstlich erzeugt wurden (vgl. Schallberger, 2005).

221

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Als Methode eignet sich die Objektive Hermeneutik speziell für die Analyse noch wenig erforschter Phänomene und überall dort, wo Neuland betreten wird. Denn das Vorgehen eröffnet nicht nur Verständnis für die spezifische Logik im Handeln einer Person, sondern stellt diese immer auch in den Zusammenhang mit dem Allgemeinen. Als Analysetechnik zeigt die Objektive Hermeneutik, wie man Untersuchungsmaterialien systematisch verwerten kann, um zuverlässige und generalisierbare Erkenntnis über einen Fall zu gewinnen. Eine typischer Hinderungsgrund, sich mit den Methoden der Objektiven Hermeneutik einzulassen, versteckt sich in der Kritik, dass sich damit keine schnellen Ergebnisse finden lassen. Dem lässt sich jedoch entgegnen, dass das forschungspraktische Verfahren dieser Methodologie durchaus ökonomisch ist, weil typischerweise die intensive Auswertung bereits kurzer Textausschnitte in der Regel zu einer präzisen Rekonstruktion führt und das übrige Material nur noch zur gezielten Falsifikation verwendet werden kann. Die qualitative Inhaltsanalyse klassifiziert eher, als dass sie Sinn rekonstruktiv nachzeichnet und stellt eigentlich eine Mischform zwischen qualitativen und quantitativen Vorgehen dar. Umgekehrt formuliert heisst dies, dass sie vor allem dort sinnvoll ist, wo es um eben diese Klassifikation geht und ein Kategorienraster bereits vorhanden ist (bspw. erstellt auf der Basis des Literaturstudiums oder durch andere, rekonstruktive Verfahren). Die qualitative Inhaltsanalyse eignet sich für die systematische, theoriegeleitete Bearbeitung von Textmaterial und durch ihr Vorgehen sind auch grosse Textmengen zu bewältigen. So oder so gilt für alle methodischen Belange und für die qualitativen Vorgehensweisen vielleicht besonders: Der Umgang mit der Datenerhebung (Auswahl der möglichen Quellen, Interviewführung etc.) muss eingeübt werden. Das „Sich-kümmern“ um methodische Zugänge sollte also nicht erst mit dem Schreiben des Abschlusstextes beginnen, denn das Gelingen und Scheitern einer wissenschaftlichen Arbeit hängt stark mit dem „sich-Zeit-lassen“ zusammen. 7.2.1 Objektive Hermeneutik Der Begriff Hermeneutik stammt aus dem Griechischen und bedeutet die „Kunst der Auslegung, der Deutung“. Sie ist die Methode zur sinngemässen Auslegung und Deutung von Schriftstücken (oder anderen Manifestationen) entsprechend den Absichten ihrer Produzenten. Vom Begriff und Inhalt der konventionellen Hermeneutik unterscheidet sich die Objektive Hermeneutik (OH) besonders bezüglich der im Namen enthaltenen Objektivität. Die OH

222

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

bezieht sich nämlich nicht auf die (subjektive) Absicht des Verfassenden, sondern auf die objektive Bedeutung eines Textes. Als allgemeingültiger Wahrheitsanspruch hört sich dies natürlich reichlich überheblich an und führt bisweilen zu Missverständnissen. Die Bedeutung von Objektivität im hier gemeinten Sinn verdeutlich sich jedoch beispielhaft daran, dass die objektive Bedeutung eines Werkzeugs in seiner Funktion liegt. Dabei spielt es keine Rolle, wer das Werkzeug verwendet und wie es dem Konstrukteur bei dessen Erstellung erging. Der objektiven Hermeneutik geht es also nicht um die Rekonstruktion des subjektiven Gehalts einer Aussage, sie interessiert sich nicht für Absichten oder Wünsche, zumal diese den Forschenden grundsätzlich unzugänglich bleiben. Objektiver Sinn. Der Unterschied zwischen dem objektivem und dem (subjektiv-) intentionalen Sinn ist für die OH also entscheidend: Ein Text generiert Bedeutungsstrukturen, die „jenseits von Selbstverständnis und Selbstbild einer sozialen Praxis [bspw. einer Person, Anm. der Autoren] liegen und die sich nicht in den Meinungen, Intentionen oder Wertorientierungen dieser Praxis erschöpfen“ (Wernet, 2000, S. 18). Anders als bei anderen qualitativen Verfahren, wird bei der objektiven Hermeneutik deshalb darauf geachtet, durch den oberflächlichen Informationsgehalt eines Textes hindurch zu dringen und zu den tiefer liegenden (den so genannten latenten) Sinn- und Bedeutungsschichten zu gelangen. Beispiel 1 Die Lehrerin K. tritt vor die Klasse und sagt: „Guten Tag miteinander!“ Für die OH ist anfänglich nicht interessant, ob die Aussage tatsächlich mit der Intention von K. übereinstimmt, Schülerinnen und Schüler zu begrüssen. Wichtiger ist vielmehr, welche Funktion diese Aussage im Kommunikationszusammenhang – im sogenannten Interaktionssetting – hat. Dabei sind verschiedene Funktionen denkbar und plausibel: (1) K. will damit signalisieren, dass die Schulstunde offiziell begonnen hat, (2) sie will das allgemeine Geplauder unterbrechen und damit die Aufmerksamkeit der Schülerinnen und Schüler auf sich ziehen, (3) K. führt damit eine rituelle Begrüssung zu Tagesbeginn an etc. Diese Funktionen müssen der Lehrerin K. nicht unbedingt bewusst sein.

Hintergrund des Ansatzes. Gründer dieser Forschungsmethode ist der Frankfurter Soziologe Ulrich Oevermann (zur Geschichte der OH und zum Werdegang von Ulrich Oevermann vgl. u.a. Reichertz, 1997). Er entwickelte die Methode in den 1960er Jahren im Zuge eines Forschungsprojekts zu „Elternhaus und Schule“ (Krappmann, Kreppner & Oevermann, 1968). Oevermann und Mitarbeitende entwickelten dabei ein Verfahren, das die

223

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Interaktionen zwischen Eltern und Kindern besser erfassen sollte. Im Zuge gründlicher Textinterpretationen stellten sie fest, dass gesellschaftliche Subjekte in Handlungszusammenhänge eingebunden sind, denen sie sich aber nicht zwangsläufig bewusst sind. Aus dieser Feststellung entwickelte sich eine erste wichtige theoretische Grundlage: Soziales Handeln richtet sich nach Regeln. Wer beispielsweise stimmig etwas zum Ausdruck bringen will, bedient sich zwangsläufig den syntaktischen, semantischen und pragmatischen Regeln der Sprache. Handelnde können sich diesen Regeln weder entziehen, noch können sie die Regeln ausser Kraft setzen, sie können die regelgeleitete Welt nicht verlassen. Im Sinne des oben genannten Beispiel hiesse dies: Beispiel 2 Die Lehrerin tritt vor die Schüler und sagt: „Guten Tag miteinander!“. Mögliche Reaktionen könnten sein: (a) „Guten Tag“, (b) „Guten Tag Frau K“, (c) „Salut Y.“ oder (d) Stille. Die als Begrüssung identifizierbare Eröffnung einer Interaktion durch die Lehrerin erfordert im Sinne der Regelgeleitetheit sozialen Handelns also immer eine Reaktion. Und diese ist selbst dann geschehen, wenn die Schüler beschliessen, die Begrüssung der Lehrerin zu ignorieren, denn die Regel gilt auch dann, wenn man die geltenden Regeln – eine Begrüssung verlangt nach einer Erwiderung – verletzt.

Das Konzept der Regel ist nicht zu verwechseln mit den sozialen Normen, denn „das Konzept der Regelgeleitetheit formuliert, anders als soziale Normen, nicht, was zu tun ist, sondern was es heisst, etwas zu tun“ (Wernet, 2000, S. 134). Die Regelgeleitetheit eröffnet Handlungsalternativen und verleiht den Reaktionen einen spezifischen Sinn. Die vom Handelnden vorgenommenen Entscheidungen – ich reagiere auf die Begrüssung so und nicht anders – geschehen nicht willkürlich, sondern sie folgen einer Entscheidstruktur, welche als Identität bezeichnet werden kann. Die Rekonstruktion dieser singulären Identität nennt Oevermann „Fallstruktur“. Bei der Fallstruktur handelt es sich um den Kern, um das generative Prinzip, das es in der Folge zu rekonstruieren gilt. Text als Ausgangsbasis. Um den Geltungsanspruch einer Interpretation einzulösen bzw. für verschiedene Personen nachvollziehbar zu machen (intersubjektive Überprüfbarkeit), muss sich die Wissenschaft an die in Protokollen festgehaltene Wirklichkeit halten. Im Klartext: Den Ausgangspunkt der objektiven Hermeneutik bilden alle Arten von Texten: „Jenseits von Texten hat die Wissenschaft ihr Recht verloren, da wissenschaftliche Aussagen erst dann formuliert werden können, wenn und insoweit Ereignisse Niederschlag bzw. eine Spur hinterlassen und

224

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

diese wieder eine Interpretation erfahren haben“ (Garz & Kraimer, 1994, S. 8). Die OH geht also davon aus, dass die Welt durch Sprache konstituiert ist und demnach in Texten fassbar gemacht werden kann. Der Text bietet somit die „materiale Instanz für die Überprüfung jedweden Typs sozialwissenschaftlich bedeutsamer Interpretation“ (Oevermann, 1986, S. 45). Eine Beobachtung selbst ist nach Oevermann wissenschaftlich nicht relevant, sondern sie wird es erst durch die Niederschrift. Das heisst nun nicht, dass ursprünglich NichtSprachliches (z.B. ein Bild, Tonaufnahmen oder eine Beobachtung) nicht bearbeitet werden können, sondern dass diese Informationen zuerst versprachlicht werden müssen, damit sie der Interpretation zur Verfügung stehen können. Sequenzanalyse. Es gibt verschiedene Verfahren der objektivhermeneutischen Textinterpretation. Hitzler & Honer (1997, S. 38ff) arbeiten fünf typische Formen der Forschungspraxis der Objektiven Hermeneutik heraus, welche aber – trotz Differenzen – ein gemeinsames Grundverständnis haben. Den eigentlichen Kern aller Verfahren bildet die Variante der Sequenzanalyse. Sie interessiert sich für jeden einzelnen aufeinander folgenden Interaktionsbeitrag und man arbeitet in der Regel ohne den Beizug von Vorwissen über den Gegenstand, d.h. man arbeitet kontextfrei: „Der Fall belehrt den Wissenschaftler und nicht umgekehrt“ (Reichertz, 1997, S. 42). Dies bedeutet nicht, dass die Umstände einer Handlung nicht von Bedeutung sind – im Gegenteil, sie spielen eine tragende Rolle bei der Einbettung des Analysematerials – jedoch soll dieses Wissen erst nach der erfolgten Interpretation in Betrachtung gezogen werden. Als weiteres Prinzip bei der Analyse gilt die Wörtlichkeit: Will man die Textanalyse als Wirklichkeitsanalyse gelten lassen, dann ist das Prinzip der wörtlichen Analyse selbstredend und zwingend. Die Interpretation darf auch dann nicht vom Text abweichen, wenn dieser in sich widersprüchlich wird. „Das Prinzip der Wörtlichkeit verpflichtet die Interpretation, den Text „auf die Goldwaage zu legen“ in einer Weise, die uns in alltäglichen Verstehenskontexten als inadäquat und kleinlich erscheinen würde“ (Wernet, 2000, S. 24). Damit hängt auch das streng sequenzielle Vorgehen zusammen. Trivial formuliert bedeutet das Sequentialitätsprinzip, dass man nicht zwischen Textstellen hin- und herspringt, um nach geeigneten Passagen zur Interpretation zu suchen, sondern man folgt dem Protokoll Schritt für Schritt. Es gilt insofern, den Text als Text ernst zu nehmen und ihn nicht nach brauchbaren Stellen „auszuschlachten“. Damit verbunden ist auch das Prinzip der Extensivität. Um der Argumen-

225

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

tationslogik eines Falles nicht zu widersprechen, sollen alle protokollierten Textinhalte interpretiert werden. Nachfolgende Sequenzen werden erst beachtet, wenn vorherige bereits abgeschlossen sind. Diese minutiöse Analyse zieht auch mit sich, dass beim Protokollieren von Gesprächen auf jedes Detail geachtet werden muss. Dadurch soll gewährleistet werden, dass keine Selektion oder Vorinterpretation durch den Forschenden geschieht. Die sequenzanalytische Technik der gedankenexperimentellen Fortschreibung (Bildung von so genannten Lesearten) zielt in besonderer Weise auf die Rekonstruktion des „So-und-nicht-anders-Geworden-Seins“ einer Argumentationskette. Das Wandern im Text ist erst dann unproblematisch, wenn dieses im Anschluss an vollständig durchgeführte Sequenzanalysen geschieht. Das Gebot der Sparsamkeit schliesslich besagt, dass diejenigen gedankenexperimentellen Deutungen (Lesearten) auszuschliessen sind, welche nicht von vorne herein mit dem Text kompatibel sind. Es sollen also nur solche Lesearten gebildet werden, die sich ohne weiteres in den Zusammenhang des Textes stellen lassen. Damit werden der extensiven Auslegung Grenzen gesetzt, und sie wird durch eine zielgerichtete Bedeutungssuche gezügelt. Die OH spricht dabei nicht von Einzelfallanalysen, da in jedem analysierten Fall das Allgemeine – die allgemeingültigen Regeln – und das Besondere – der subjektive Entscheid im Umgang mit den Regeln – vorhanden ist. Vorgehensweise. In der Literatur finden sich etliche Beschreibungen des Vorgehens der OH. Im Folgenden wird eine auf drei Schritte reduzierte Vorgehensweise vorgestellt, welche den gemeinsamen Kern der verschiedenen Ansätze repräsentiert. Das konkrete Analysevorgehen wird zudem am Beispiel einer Interviewpassage aus Wernet (2000, S. 47 ff) dargestellt. Die drei wesentlichen Schritte umfassen: 1. Die Interpretation der objektiven Daten, 2. die Feinanalyse und 3. die Bildung einer Strukturhypothese. Es handelt sich hierbei nicht um eine Abfolge von Schritten, die mechanisch befolgt und immer in der gleichen Weise praktiziert werden: Qualitative „Interpretationen lassen sich nicht nach der Logik von Computerprogrammen organisieren. Die Analyseschritte sollen primär zur Sorgfalt der Explikation anleiten“ (Przyborski & Wohlrab-Sahr, 2009, S. 263).

226

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Beispiel 3 Schüler (S): Wann geben Sie uns die Klassenarbeiten wieder? Lehrperson (L): Nächste Woche. S: Oh, Sie haben sie doch schon drei Wochen. L: Und wenn ich sie fünf Wochen hätte. S: Meine Mutter denkt schon, ich hätt die weggeschmissen.

Interpretation der objektiven Daten. Beim ersten Schritt geht es darum, das Feld zu beschreiben resp. die Interaktion in ihren Zusammenhang einzubetten. Mit „objektiven Daten“ sind bspw. Angaben über die soziale Herkunft (Bildungsbiographie, Beruf, Einkommen etc.) und die familiäre Einbettung (Beruf der Eltern, Geschwister) einer Person oder die „Beschaffenheit“ des Milieus (bspw. Anzahl Klassen in einer Schule, Ausländeranteile, sozioökonomische Daten der Schule) gemeint. Je nach Art des Materials, das untersucht werden soll, gehören dazu auch Vorstellungen über die Beschaffenheit eines Textes (z.B. Welcher Text-Typ ist ein Reglement, was beinhalten Lehrpläne und welche Funktion haben sie typischerweise?). Auf jeden Fall sind damit klar identifizierbare Sachverhalte gemeint. Die Analyse dieser Daten wird in der Regel zur Erzeugung von ersten, sehr allgemeinen Hypothesen gebraucht und dient im Sinne von „Normalitätsfolien“ zur Einbettung möglicher Interpretationen sowie zur Spezifizierung der Fragestellung. Voraussetzung für diesen Schritt ist natürlich, dass die objektiven Daten erhoben werden bzw. die Informationen über ein Feld vorhanden sind. Interpretation der objektiven Daten zum Beispiel 3 Anhand des oben angeführten Beispiels hiesse dies: Es handelt sich um eine Beobachtung einer Unterrichtssequenz und die protokollierte Interaktion findet in einem Schulzimmer statt. Die primären Interaktionspartner sind eine Lehrperson und ein Schüler. Die objektiven Daten, die hier interessieren, sind nicht die biographischen Angaben zur Lehrperson, sondern das Interaktionssetting „Lehrperson-Schüler“. Diese an sich triviale Beschreibung ist für die spätere Deutung insofern wichtig, als dass uns beispielsweise ein Interview zwischen Vater und Sohn, zwischen Anwalt und Klient etc. vor andere Prämissen stellen würde. Das Kommunikationsmuster zwischen den Beteiligten ist – ungeachtet des Erziehungsstils – in der Regel nicht ein gleichberechtigtes (symmetrisches), sodass im schulischen Kontext die Lehrperson die Rahmenbedingungen vorgibt. Diese Asymmetrie im Schulalltag (Hierarchie) typisiert den Lehrberuf insofern, als dass sie ein typisches Spannungsfeld von Lehrerarbeit darstellt. Für die Interaktionseinbettung kann weiterhin auch wichtig sein, dass sich die Kommunikation im Klassenraum abspielt, also einen öffentlichen Charakter hat. Mit diesen Vorgaben kann man sich jetzt dem Interview zuwenden in der Erwartung, etwas über dieses Spannungsfeld im Lehrberuf zu erfahren.

227

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Wichtig ist, dass diese Interpretation der objektiven Daten die weiteren Interpretationen nicht leiten sollte, weil man ansonsten gegen das Prinzip der Kontextfreiheit (siehe oben) verstossen würde. Zweck der Auseinandersetzung mit den „objektiven Daten“ ist es, die nachfolgenden Interpretationen auf ein spezifisches Erkenntnisinteresse zu fokussieren. Natürlich ist es nicht ausgeschlossen, dass sich dieses während des Analyseprozesses ändern kann: „Es ist selbstverständlich möglich, eine Interpretation vorzunehmen, ohne die vorbereitenden Operationen auszuführen“ (Wernet, 2000, S. 60). Die Interpretation der objektiven Daten dient aber dazu, sich den Kontext des Datenmaterials zu verdeutlichen und in dieser Hinsicht forschungsökonomisch sowie forschungslogisch vorzugehen. Feinanalyse. Die Feinanalyse beginnt grundsätzlich mit dem Anfang eines Texts (vgl. Sequentialitätsprinzip). Dies begründet sich damit, dass anfangs Weichen gestellt werden, die den weiteren Verlauf einer Argumentation massgeblich beeinflussen: „In lebensgeschichtlichen Interviews z.B. präsentieren sich die befragten Personen zu Beginn häufig in besonders verdichteter Form, so dass hier oft geradezu das „Motto“ einer Lebensgeschichte erkennbar wird“ (Przyborski & Wohlrab-Sahr, 2009, S. 262). Auch bei anderen Texten (Geschichten, Werbebotschaften etc.) werden die zentralen Argumente und Ideen oft zu Beginn dargelegt. Die Feinanalyse durchläuft in der Regel zwei Schritte: A) Geschichten erzählen und Lesearten bilden sowie B) Vergleich mit real existierendem Text. A) Beim „Geschichten erzählen“ geht es um die gedankenexperimentelle Produktion von Deutungsvarianten: Um herauszufinden, welche Bedeutungen in einer Aussage stecken, erfinden die Forschenden Geschichten, in denen dieselbe Aussage vorkommen könnte. Dies hilft dabei, den vorliegenden Fall unvoreingenommen zu analysieren. Die zentrale Frage, die das Geschichten erzählen leitet, ist also: Was kann das alles objektiv bedeuten? Dieser Schritt impliziert die Explikation von allgemein möglichen Bedeutungen einzelner Begriffe sowie von allgemein möglichen Verwendungsweisen einzelner Wendungen und Formulierungen. Auf der Grundlage der Geschichten erfolgt die Leseartenbildung, indem die Geschichten auf ihre Gemeinsamkeiten hin untersucht werden. Bei diesem Schritt der Interpretation, bei dem es um die Explikation textadäquater Lesearten (meistens sind es mehrere!) geht, soll es also (vorerst) nicht interessieren, welchen Sinn der Handelnde selbst mit seiner Aussage verbindet. Die objektive Hermeneutik rekonstruiert also in einem ersten Schritt den (mögli-

228

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

chen) „objektiven“ und nicht den subjektiv gemeinten oder intendierten Sinn von Aussagen (deshalb „objektive“ Hermeneutik). Hilfreich bei solchen Gedankenexperimenten sind folgende Leitfragen (vgl. Kleemann, Krähnke & Matuschek, 2009, S. 128ff): - Welche Bedeutung steckt in einem Wort, in einem Satz? (evtl. unter Zuhilfenahme eines Wörterbuchs) - Welche unterschiedlichen Konnotationen hat ein Begriff? - Gibt es Auffälligkeiten in der Wortwahl? - In welchen Kontexten verwendet man normalerweise solche Formulierungen? Welche sinnmachenden Geschichten und Lesearten lassen sich für die Aussage „Wann geben Sie uns die Klassenarbeiten wieder?“ also erfinden? Geschichten und Lesearten zum Beispiel 3, Teil I Geschichte 1: Die Arbeit wurde gerade geschrieben und ein Schüler erkundigt sich nach dem Rückgabetermin. Geschichte 2: Die Arbeit wurde noch nicht geschrieben und der Schüler erkundigt sich nach dem Terminplan. Leseart 1: Bei beiden Geschichten handelt es sich um eine reine Informationsfrage, und die Antwort darauf müsste die Information wiedergeben. Geschichte 3: Die Arbeit wurde bereits geschrieben. Der Rückgabetermin ist bekannt und die Lehrperson hat sich nicht daran gehalten. Geschichte 4: Die Arbeit wurde bereits geschrieben. Üblicherweise werden Klassenarbeiten von der Lehrperson in einer bestimmten Frist bearbeitet, was diesmal aber nicht der Fall ist. Leseart 2: In beiden Fällen würde ein Versäumnis vorliegen und der Schüler unternimmt mit seiner Frage eine Kritik im Sinne von „Wann geben sie uns die Arbeit endlich zurück?“ Falls die Kritik berechtigt wäre, müsste die Antwort auf die Beschwerde eingehen und unter Umständen eine Entschuldigung beinhalten. Geschichte 5: Die Arbeit wurde bereits geschrieben, ein Termin für die Rückgabe ist bekannt und es liegt kein Versäumnis seitens der Lehrperson vor. Leseart 3: Die Frage würde eine Gegenfrage aufwerfen: Warum fragt der Schüler? Will er sich beschweren oder ist etwas eingetreten, das den Rückgabetermin verändert?

Ein Dauerproblem der OH besteht in der Frage, wann die Lesearten erschöpft sind. Diese Frage lässt sich nicht absolut bestimmen, sondern entscheidet sich letztlich an der Analyse. Grundsätzlich zeigt sich, dass die Feinanalyse viel Zeit erfordert, wenn man sicher gehen will, dass man alle möglichen Lesearten entwickelt hat. Es empfiehlt sich daher auch, die Analysearbeiten in einer Gruppe vorzunehmen.

229

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Das Sparsamkeitsprinzip begrenzt aber auch die Anzahl möglicher Geschichten und schliesst bspw. folgende Leseart von vornherein aus: Geschichten und Lesearten zum Beispiel 3, Teil II Geschichte 6: Der Schüler hat ein angespanntes Verhältnis zur Lehrperson und will ihn ärgern, indem er eine unsinnige Frage stellt. Diese Geschichte passt insofern nicht, weil sie auf jede denkbare Interaktion anwendbar ist und deshalb für die Textanalyse unbrauchbar ist. Die Unterstellung, dass der Schüler ein notorischer Querulant ist, müsste dann durch weitere Textstellen belegt werden können.

Zwischenfazit: Die dargestellten Lesearten lassen sich auf zwei Bedeutungen reduzieren: Entweder die Frage zielt auf einen Informationsaustausch oder sie zielt auf die Frage der Verbindlichkeit, die durch das Versäumnis der Lehrperson verletzt wurde. Bei Letzterem kann die Lehrperson durch eine Entschuldigung oder eine Erklärung die verletzte Verbindlichkeit zumindest anerkennen und reparieren. B) Im zweiten Schritt geht es darum, die vorher formulierten Lesearten mit dem tatsächlichen Text zu vergleichen. Aufschlussreich ist dabei nicht nur, welche Anschlusshandlung tatsächlich realisiert wird, sondern analysiert wird eben auch deren Auswahl, d.h. was gesagt und was nicht gesagt wurde. Folgende Frage steht also im Zentrum: Was kann es bezogen auf den interessierenden Fall bedeuten, dass gerade diese Anschlusshandlung gewählt wurde? Interpretation zum Beispiel 3 Die Antwort der Lehrperson lässt vorerst darauf schliessen, dass es sich um Informationsaustausch handelt: Für die Rückgabe nennt sie den Termin „nächste Woche“. Die dritte Zeile und die folgende Reaktion der Lehrperson zeigen dann aber, dass es sich bei der Frage des Schülers eben nicht um einen Wunsch nach Information handelt, sondern dass beide, Lehrperson und Schüler, davon ausgehen, dass die Lehrperson säumig ist. Die erste Antwort der Lehrperson stellt also eine „Regelverletzung“ dar, weil sie der in der Frage formulierten immanenten Kritik keine Beachtung schenkt. Mit Blick auf den gesamten Textausschnitt kann festgehalten werden, dass ein anfänglicher Verdacht, die Lehrperson würde auf ein mühsames Insistieren des Schülers mit Ungehaltenheit reagieren als falsch heraus. Denn die eigentliche Missachtung geschieht bereits durch die Lehrperson, indem sie nicht auf die Kritik des Schülers eingeht. Der Schüler wird in diesem Sinn „regelkonform“ fast dazu gedrängt, seinen Unmut nochmals zu formulieren, da er davon ausgeht, dass die Lehrperson diesen als solchen nicht verstanden hat oder nicht verstehen will.

Hypothesenbildung. Aus der Interpretation der ganzen Sequenz ergibt sich nun ein erstes Strukturmuster in Bezug auf das Lehrerhandeln. Die Hypothe-

230

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

se, die so genannte Fallstruktur, formuliert die Zusammenhänge und setzt sie in Bezug zur Fragestellung. Hypothesenbildung zum Beispiel 3 Die Frage danach, wie es denn um das Spannungsfeld im Lehrerhandeln stehe, kann man mit diesem kleinen Textausschnitt wie folgt beantworten: Die Lehrperson, welche die Frage des Schülers beantwortet, erzeugt ein Interaktionsproblem und zwar ohne dass es einen zwingenden Grund dafür gäbe. Ein Spannungsfeld ist im vorliegenden Fall nicht einfach durch die Schwierigkeiten des Lehrberufs vorgegeben, sondern wird hier durch die Lehrperson erst erzeugt, indem sie an einfachen Kommunikationsregeln scheitert. Dieser erste Befund kann nun weiter verwendet werden und es kann überprüft werden, ob ein solches Handeln bei der untersuchten Lehrperson auch in anderen Situationen erkennbar ist.

Nachdem in der Feinanalyse eine erste Hypothese erarbeitet wurde, können weitere Sequenzen analysiert werden. Dabei muss jedoch wieder kontextfrei vorgegangen werden, d.h. vorangehende Feinanalysen werden nicht zur Deutung von neuen Stellen beigezogen. Die Fortsetzung der Feinanalyse an den jeweiligen Folgesequenzen dauert so lange, bis eine schlüssige Fallstrukturhypothese ausformuliert werden kann, d.h. bis alternative (d.h. bis dahin ebenfalls textkompatible Lesarten) begründet ausgeschlossen werden können. In der Praxis hat sich gezeigt, dass drei weitere Segmente in der Regel reichen, um die Hypothese zu festigen. Der Rest eines Textes oder Interviews dient dann nunmehr der Überprüfung der Fallstrukturhypothese. Generalisierbarkeit und Verwendung. Das Verfahren der OH eignet sich hervorragend für die Ausarbeitung von Typologien. Mit Hilfe des Theoretical Samplings (vgl. Kapitel 4.1.5 „Stichproben“) können weitere Fälle nach dem Kriterium der maximalen Kontrastivität gesucht werden. Hier empfiehlt es sich, jeden neuen Text oder jedes neue Interview zuerst zu analysieren. Damit ist eine Schärfung der Fragestellung möglich und die Anzahl der neu dazukommenden Interviews kann so reduziert werden. Bei einem solchen Vorgehen ist damit auch eine empirische Generalisierung möglich, sofern nicht nach der Häufigkeit der rekonstruierten Typs gefragt wird, sondern eine vollständige Typologie Ziel des Erkenntnisinteresses ist. Kritische Würdigung. Das Markenzeichen der OH ist die detaillierte Rekonstruktion von Sinn. Dabei werden nicht nur die tatsächlich vorgefundenen Bedeutungen herausgearbeitet, sondern mit der Herstellung von Lesearten wird das jeweilige Deutungsfeld insgesamt beleuchtet. Angebracht ist ein solches ganzheitliches Vorgehen gerade dort, wo wenig über ein Phänomen bekannt ist und ein Feld explorativ erschlossen werden soll.

231

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Die OH findet man vor allem in der Biographie-, der Sozialisations- und der Milieuforschung. Es gibt aber auch eine Reihe von klinischen Anwendungsfeldern (Polizeiarbeit, klinische Psychotherapie, Unternehmensberatung, Sozialarbeit etc.), in denen mit OH gearbeitet wird. Die Schwierigkeiten und deshalb auch die Hauptkritik beziehen sich auf eben diese Genauigkeit beim Vorgehen: Bei der OH handelt es sich um eine sogenannte „Kunstlehre“, für die es dem Namen nach keine präzisierten methodischen Standards gibt. Für eine verlässliche Bildung der objektiven Bedeutungen eines Textes (Lesearten) empfiehlt es sich daher, in einer Gruppe zu arbeiten. Zudem braucht es, um das Prinzip der Wörtlichkeit ernst zu nehmen, vertiefte Kenntnisse der Sprache oder des Dialekts, in dem der Text produziert wurde. Die Analyse eines fremdsprachlichen Textes schliesst sich damit eigentlich aus. Was einerseits für die Sprachkenntnisse gilt, zählt andererseits auch für den untersuchten Gegenstand: Um die in einem spezifischen Feld gültigen Wissensbestände als Kontrastfolie nutzen zu können, braucht es viel Zeit und Mühe, sich diese anzueignen. Denn: „Viele subjektive Meinungen machen zusammen noch keine objektive.“ 7.2.2 Grounded Theory Unter Grounded Theory ist nicht eine Analysemethode im engeren Sinne zu verstehen, sondern vielmehr ein Forschungsansatz oder ein Forschungsstil, also eine bestimmte Art, Forschung zu betreiben. Ziel dieser Art zu forschen ist es, eine „grounded theory“ zu formulieren, also eine Theorie, die dem untersuchten Gegenstand gerecht wird und in diesem verankert ist (vgl. Strauss & Corbin, 1996, S. 7). Deshalb wird im deutschsprachigen Raum oft auch von der „gegenstands- oder datenverankerten Theorie“ gesprochen. Hintergrund des Ansatzes. Die „Grounded Theory“ wurde in den 1960er Jahren durch die Soziologen Barney Glaser und Anselm Strauss als Alternative zu den vorherrschenden quantitativen Forschungsansätzen begründet. Die Entwicklung des Ansatzes war wesentlich geprägt durch die Denkschulen des Pragmatismus und des Symbolischen Interaktionismus. Schlüsselthemen dieser Ansätze sind soziale Interaktionen sowie Prozesse des Wandels (vgl. Hildenbrand, 2007, S. 32ff). Zirkulärer Forschungsprozess. Im Gegensatz zum klassischen Forschungsprozess, bei welchem die Datengewinnung der Datenanalyse vorangeht, wird hier ein zirkulärer Forschungsprozess propagiert: Datengewinnung und Datenanalyse finden gleichzeitig statt und beeinflussen sich gegenseitig. Man

232

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

geht also ins Feld, erhebt erste Daten (z.B. Beobachtungen, Befragungen, Dokumente wie Förderberichte usw.), analysiert diese und versucht erste Hypothesen zu bilden. Dann geht man erneut ins Feld, um weitere Daten zu gewinnen, auf deren Basis man die Hypothesen weiterentwickeln kann. Das heisst, die Stichprobe wird laufend angepasst und erweitert. Es wird nach Daten gesucht, welche zur Weiterentwicklung und Sättigung der zu entwickelnden Theorie beitragen (sog. theoretisches Sampling, vgl. Kapitel 4.1.5 „Stichproben“) (vgl. Hildenbrand, 2007, S. 476; Przyborski & Wohlrab-Sahr, 2009, S. 194ff). Unvoreingenommenheit. Wichtig ist, dass man möglichst unvoreingenommen an das Forschungsfeld herangeht, d.h. sich auf die Daten einlässt und genau beobachtet, was passiert. Keinesfalls sollen allfällige Forschungsergebnisse schon vorweg genommen werden. Es geht also nicht darum, Hypothesen, die man bspw. aufgrund der Lektüre von Fachliteratur entwickelt hat zu überprüfen, sondern vielmehr darum, solche Hypothesen aus der empirischen Wirklichkeit (resp. den Daten) heraus zu entwickeln und zu erklären: „In Untersuchungen mit der Grounded Theory möchten Sie Phänomene im Licht eines theoretischen Rahmens erklären, der erst im Forschungsverlauf selbst entsteht. Sie möchten nicht dadurch eingeengt werden, dass Sie an einer vorab entwickelten Theorie festhalten müssen, die sich auf den untersuchten Wirklichkeitsbereich anwenden lässt oder auch nicht“ (Strauss & Corbin, 1996, S. 32). Das bedeutet nun nicht, dass bestehende Theorien und Erklärungsansätze bei dieser Art zu forschen überflüssig werden. Ganz im Gegenteil: Jegliches Fachwissen, das bereits vorgängig bekannt ist, kann bei der Analyse und Interpretation der Daten hilfreich sein (vgl. Strauss & Corbin, 1996, S. 33ff). Analysetechniken. Das Analyseverfahren, welches gleichzeitig das Herzstück dieses Forschungsansatzes ist, besteht darin, dass Daten codiert, also aufgebrochen, interpretiert und auf neue Art zusammengesetzt werden (vgl. Strauss & Corbin, 1996, S. 39ff). Konkret bedeutet dies, dass man den Daten (in der Regel sind es Texte wie Beobachtungsprotokolle, transkribierte Interviews) Codes zuordnet. Diese werden zunächst möglichst nahe am Text und später immer abstrakter formuliert, so dass Kategorien entwickelt werden können.

233

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

In der Literatur werden drei Formen des Codierens unterschieden: 1. Offenes Codieren 2. Axiales Codieren 3. Selektives Codieren Diese drei Codierverfahren sind nicht klar voneinander abzugrenzen und finden auch nicht notwendigerweise in einer bestimmten Abfolge statt, sondern man pendelt zwischen den verschiedenen Codierformen hin und her, was es letztlich nicht leicht macht, den Analyseprozess so zu dokumentieren, dass er für andere Forschende nachvollziehbar ist (vgl. Kapitel 7.2.4 „Gütekriterien“). Nichtsdestotrotz zeigt sich in Bezug auf die Anwendung der Codierarten eine gewisse Reihenfolge. Das offene und axiale Codieren findet eher zu Beginn des Analyseverlaufs statt, währenddessen das selektive Codieren eher gegen Ende des Prozesses bedeutsam wird (vgl. Flick, 2002, S. 259). Der ganze Prozess des Codierens wird begleitet durch so genannte CodeNotizen, welche die gefundenen Codes ergänzen, und Memos, in denen Ideen festgehalten werden (vgl. Flick, 2002, S. 259). Diese Notizen helfen Zusammenhänge zu erkennen und sind gerade beim Niederschreiben der Arbeit sehr hilfreich. Zudem können die Memos auch dazu beitragen, dass man sich von den Daten distanziert und eine eher analytische Perspektive einnimmt, d.h. nicht einfach nur deskriptiv beschreibt, was vor sich geht (vgl. Böhm, 2007, S. 477). Offenes Codieren. Das offene Codieren stellt meistens den ersten Schritt des Analyseprozesses dar. Ziel ist es, Phänomene zu benennen, die Daten aufzubrechen, zu untersuchen, zu vergleichen und Fragen an sie zu stellen. Es geht also um „das Herausgreifen einer Beobachtung, eines Satzes, eines Abschnittes und das Vergeben von Namen für jeden einzelnen darin enthaltenen Vorfall, jede Idee oder jedes Ereignis – für etwas, das für ein Phänomen steht oder es repräsentiert“ (Strauss & Corbin, 1996, S. 45). Das Arbeitsergebnis des offenen Codierens ist eigentlich ein Interpretationstext, der das Nachdenken über das Phänomen festhält. In diesem Sinne ist das offene Codieren ein ausdehnendes Verfahren, in welchem zu einem kleinen Stück Originaltext Interpretationstext hinzugefügt wird (vgl. Böhm, 2000, S. 478). Der Prozess des offenen Codierens kann unterschiedlich angegangen werden: Man kann Zeile-für-Zeile, Wort-für-Wort oder auch Abschnitt-für-Abschnitt codieren (vgl. Strauss & Corbin, 1996, S. 53ff). In der Regel ist es hilfreich, die ersten Daten Wort-für-Wort zu analysieren, da es dadurch möglich wird,

234

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

richtiggehend in die Daten einzutauchen und sich mit ihnen auseinanderzusetzen. Im späteren Verlauf können dann durchaus ganze Satzteile oder Abschnitte codiert werden. Wichtig ist, dass man die Daten nicht einfach zusammenfasst, sondern konzeptualisiert, d.h. auf eine abstraktere Ebene bringt. Dies soll anhand eines Interviewausschnittes mit einer Sozialpädagogin, die Menschen mit geistiger Behinderung betreut, verdeutlicht werden. Das Beispiel stammt aus einer Untersuchung sonderpädagogischen Handelns in ausserschulischen Kontexten (vgl. Huber, 2006). Beispiel Da kamen wir zurück vom Spazieren, es ging mega gut mit dieser Person, 1/ der kam zur Tür rein, 2/ da sitzt jemand anders, eine Therapeutin auf der Treppe, 3/ er geht gleich auf sie los und „butzt“ ihr eines 4/ und es ist die Situation für mich, dann solltest du ruhig bleiben, 5/ dann solltest du pädagogisch gesehen, solltest du schauen, wo ist das Problem, 6/ aber du kannst es nicht nachvollziehen, also du weisst nicht wieso und warum 7/ und ich denke, es ist schwierig, 8/ in diesen Situationen kannst du dir fast nicht mehr überlegen, was ist jetzt richtig, was ist jetzt falsch, wie handelst du, 9/ sondern du handelst einfach mal aus der Situation raus. 10/ Und ich denke im Nachhinein ist es für, finde ich es wichtig, dass du es anschaust, was war, was können Möglichkeiten sein, 11/ und manchmal findet man auch gar nicht raus, was es gewesen ist. 12/ 1. „Normale“ (gute) Interaktion mit dem Klienten 2. Wechsel der (räumlichen) Umwelt 3. Wechsel in der (personalen) Umwelt 4. (plötzliches) aggressives Verhalten des Klienten: unerwartete Situation 5. normative Anforderung (ruhig bleiben sollen) 6. normative (fachliche) Anforderung (Problemanalyse) 7. Unwissenheit, fehlende Erklärung 8. Belastungserleben 9. keine Reflexionsmöglichkeit, in Situation nicht reflexionsfähig 10. Routinehandeln 11. normative Anforderung (Problemanalyse) 12. fehlende Erklärung

Es ist normal, dass in diesem Prozess sehr viele Codes generiert werden. Ebenso kann es durchaus sein, dass ein Text – je nach Fragestellung und Stil der interpretierenden Person – ganz unterschiedlich codiert wird. Im nächsten Schritt geht es darum, die für die Fragestellung relevanten Phänomene auszumachen und die Codes zu ordnen. Diesen Schritt nennt man Kategorienbildung. Dabei empfiehlt es sich, die Kategorien so zu benennen, dass man sich daran erinnert, darüber nachdenken und insbesondere beginnen kann, diese analytisch zu entwickeln. Der Name der Kategorie soll abstrakter sein als die Namen der um das Phänomen gruppierten Konzepte (vgl. Strauss & Corbin, 1996, S. 47ff).

235

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Im vorliegenden Fallbeispiel könnte man beispielsweise den Code „Routinehandeln“ näher untersuchen und fragen: Weshalb kommt es zu diesem Routinehandeln? Es lässt sich feststellen, dass das Routinehandeln in einer unerwarteten Situation notwendig wird, einer Situation, die ein rasches Eingreifen erfordert, weil jemand bedroht wird. Ebenso zeigt sich im Interviewausschnitt, dass Routinehandeln sich offenbar vom fachlich geforderten, reflektierten Handeln unterscheidet. Dem Routinehandeln geht keine Reflexion voran, weil man in dieser Situation keine Zeit zur Reflexion hat (man muss sofort reagieren) und/oder weil man aufgrund des „Schocks“ der unerwarteten Aggression nicht dazu in der Lage ist. Weiter zeigt sich, dass Routinehandeln, dem keine Reflexion vorangeht, eine nachträgliche Reflexion erfordert, die jedoch nicht immer klärend wirkt. Wir stellen also fest, dass normativ (fachlich) reflektiertes Handeln gefordert wäre, die Sozialpädagogin in der Praxis aber die Erfahrung macht, dass keine Zeit zur Reflexion bleibt und dass Reflexion auch nicht immer (er)klärend wirkt. Dies könnten wir als „Graben zwischen (normativer) Anforderung und Praxis“ bezeichnen. Nun stellt sich natürlich die Frage, ob dieser Graben irgend etwas zu bedeuten hat, ob sich daraus irgendwelche Konsequenzen ergeben. Deshalb könnte man sich in einem nächsten Schritt auf die Suche nach Handlungsbeschreibungen machen, in denen es keinen Graben zwischen (normativen) Anforderungen und der Praxis gibt, man könnte also dieses Phänomen mit einem anderen Phänomen (normative Anforderungen werden in der Praxis umgesetzt) vergleichen und untersuchen, ob es Gemeinsamkeiten und Unterschiede gibt. Axiales Codieren. Das axiale Codieren zielt darauf ab, Kategorien (Phänomene), die man gewonnen hat, zu verfeinern. Dabei wird nach den Ursachen des Phänomens gefragt. Ebenso wird untersucht, in welchen Kontext das Phänomen eingebettet ist, wie mit dem Phänomen umgegangen oder wie es bewältigt wird und was die Konsequenzen davon sind (vgl. Strauss & Corbin, 1996, S. 76). Das abgebildete Schema kann hierfür hilfreich sein. Für die beim offenen Codieren gewonnene Kategorie „Graben zwischen (normativen) Anforderungen und Praxis“ wissen wir bspw. noch nicht, ob es sich hierbei um die Ursache für etwas anderes oder um eine Konsequenz aus etwas anderem handelt. Untersuchen wir dies auf der Basis des vorherigen Interviewausschnittes, dann stellen wir fest: Die Sozialpädagogin musste rasch auf die Aggression des Klienten (= Ursache) reagieren (Phänomen: Handlungsdruck). Dies tat sie mit Routinehandeln (= Strategie) und die Konsequenz daraus ist der Graben zwischen den ihr bekannten Handlungsanforderungen und ihrem tatsächlichen Handeln. Nun könnten wir bspw. die

236

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Hypothese wagen, dass dieser „Graben“ zu intrapersonalen Konflikten auf Seiten der Sozialpädagogin, also zu Belastungserleben führt und diese Hypothese anhand des bereits vorliegenden oder neu zu gewinnenden Datenmaterials überprüfen. Das heisst, man beginnt sich nun immer stärker zwischen induktivem und deduktivem Denken hin und her zu bewegen. Wie beim offenen Codieren ist es auch hier wichtig, Fragen an den Text zu stellen und Vergleiche zu machen. Anders als beim offenen Codieren geht man nun aber fokussierter vor.

Intervenierende Bedingungen

Kontext des Phänomens Ursachen

Phänomen

Strategien

Konsequenzen

Abbildung 11: Codierschema (modifiziert nach Strauss & Corbin 1996, S. 78). Selektives Codieren. Der Prozess des selektiven Codierens integriert die im Vorfeld gewonnenen Kategorien zu einer Grounded Theory. Grundsätzlich unterscheidet sich die Integration nicht sehr stark vom axialen Codieren, doch findet sie auf einer höheren bzw. abstrakteren Ebene der Analyse statt. Das heisst, der Fokus des Codierprozesses liegt auf einer Schlüsselkategorie (Phänomen): Man konzentriert sich nur noch auf diejenigen Konzepte und Kategorien, welche einen bedeutenden Bezug zur ausgewählten Schlüsselkategorie haben. Der erste Schritt des selektiven Codierens „besteht im Offenlegen des roten Fadens der Geschichte. Der zweite besteht aus dem Verbinden der ergänzenden Kategorien rund um die Kernkategorie mit Hilfe des Paradigmas. Der dritte umfasst das Verbinden der Kategorien auf der dimensionalen Ebene. Der vierte beinhaltet das Validieren dieser Beziehungen durch die Daten. Der fünfte und letzte Schritt besteht im Auffüllen der Kategorien, die einer weiteren Verfeinerung und/oder Entwicklung bedürfen“ (Strauss & Corbin, 1996, S. 95 [Hervorhebungen im Original]). Ziel dieses

237

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Schrittes ist es letztlich mit Hilfe der bis dahin erarbeiteten Kategorien, Codenotizen und Memos eine gegenstandsverankerte Theorie (grounded theory) zu erstellen. In Bezug auf unser Beispiel könnte man also eine Theorie über das professionelle Handeln von Sozialpädagoginnen und -pädagogen entwickeln, mit der bspw. Routinehandeln erklärt werden könnte. Da es im Rahmen vieler Forschungsarbeiten aber nur selten um die Entwicklung einer neuen Theorie geht, dient dieser Schritt jedoch vor allem dazu, die im Verfahren gewonnenen Hypothesen anhand der produzierten Memos und Codenotizen zu untermauern. Kritische Würdigung. Der hier beschriebene Forschungsansatz erfordert eine gewisse Kreativität auf Seiten der Forschenden. Strauss und Corbin (1996, S. 39ff) betonen denn auch, dass nicht rigide an den von ihnen vorgestellten Verfahren und Techniken festgehalten werden soll, sondern dass man die Verfahren dem Forschungsgegenstand anpassen müsse. Dies kann gerade bei Forschungsanfängerinnen und -anfängern zu Verunsicherung führen. Genauso wie die Forderung danach, dass man nur so viele Daten sammelt, wie sie zur Entwicklung und Überprüfung der Hypothesen notwendig sind, also bis eine theoretische Sättigung erreicht ist. Deshalb empfiehlt es sich, dieses Verfahren eher in Forschungsteams als in Einzelarbeit anzuwenden. Dies nicht zuletzt auch, weil sich in der Diskussion viel mehr Einsichten und Interpretationsmöglichkeiten ergeben, als dies bei einer Einzelperson möglich ist. 7.2.3 Qualitative Inhaltsanalyse Ziel der Inhaltsanalyse ist es, Material, das aus irgendeiner Art von Kommunikation bzw. Interaktion stammt, systematisch zu bearbeiten (vgl. Mayring, 1993, S. 11; 2007, S. 468). Sie eignet sich insbesondere zur Auswertung von transkribierten Interviews, Beobachtungsprotokollen, Videoaufnahmen oder anderen Quellen (z.B. Förderberichte, Zeitungsartikel usw.). Die Inhaltsanalyse zielt primär auf die verdichtende Beschreibung ab. Ob mit diesem Verfahren auch der dahinter liegende Sinngehalt, welcher den Datenquellen innewohnt, erschlossen werden kann, ist umstritten (vgl. Schallberger, 2005). Hintergrund des Ansatzes. Vorläufer der qualitativen Inhaltsanalyse wurden in den 1920er Jahren in den USA entwickelt. Im Vordergrund stand damals die systematische Auswertung der Massenmedien. Die Ausrichtung der Analyse war primär quantitativ, d.h. man zählte bspw. bestimmte Textbe-

238

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

standteile aus (z.B. wie oft in einer Zeitung der Lehrberuf thematisiert wird). Ab den 1960er Jahren wurde dieser Ansatz in verschiedenen Disziplinen (u.a. Psychologie, Geschichtswissenschaft, Soziologie) weiterentwickelt, aber auch kritisiert. Es wurde vor allem eingewendet, dass der Ansatz zu oberflächlich sei und etwa keine latenten Sinnstrukturen erfasse. Deshalb wurde eine qualitative Orientierung der Inhaltsanalyse gefordert und entwickelt (vgl. Mayring, 2000). Auswertungsprozess. Der Ablauf eines inhaltsanalytischen Auswertungsprozesses ist relativ linear und lässt sich in neun Schritten beschreiben (vgl. Lamnek, 1989, S. 202ff): 1. Festlegung des Materials, d.h. es werden nicht zwingend alle Interviewtranskripte vollständig ausgewertet, sondern nur diejenigen, welche zur Beantwortung der Fragestellung von Interesse sind, eventuell werden auch nur Ausschnitte aus den Transkripten verwendet. 2. Analyse der Entstehungssituation, d.h. Informationen über den Zusammenhang, in welchem Daten entstanden sind, müssen festgehalten werden (z.B. Beschreibung der Interviewsituation). 3. Formale Charakterisierung des Materials, d.h. eine Beschreibung dessen, in welcher Form das Interviewmaterial vorliegt. In Bezug auf Interviews bedeutet dies, dass auch Transkriptionsregeln offen gelegt werden. 4. Richtung der Analyse bestimmen, d.h. sich fragen, was man anhand der Daten herausfinden möchte (z.B. emotionale Befindlichkeit der befragten Person oder Informationen und Themen, welche die befragte Person zu Sprache bringt). 5. Theoriegeleitete Differenzierung der Fragestellung, d.h. der aktuelle Forschungsstand muss aufgearbeitet werden. Auf dieser Grundlage wird die Fragestellung geklärt und allfällige Unterfragestellungen entwickelt. 6. Bestimmung der Analysetechnik, d.h. Entscheid darüber, welche Analysetechniken angewendet werden sollen (zusammenfassende, explizierende und/oder strukturierende Inhaltsanalyse). 7. Definition der Analyseeinheiten, also Bestimmung derjenigen Text-/ Interviewausschnitte, die mittels des ausgewählten Verfahrens ausgewertet werden sollen. 8. Analyse des Materials (vgl. hierzu weiter unten Analysetechniken). 9. Interpretation der Ergebnisse in Bezug auf die Hauptfragestellung.

239

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Analysetechniken. Es können drei Vorgehensweisen unterschieden werden: 1. Zusammenfassende Inhaltsanalyse 2. Explizierende Inhaltsanalyse 3. Strukturierende Inhaltsanalyse Diese Vorgehensweise können wahlweise miteinander kombiniert oder auch einzeln angewendet werden. Zusammenfassende Inhaltsanalyse. Bei der zusammenfassenden Inhaltsanalyse steht die Reduktion des Datenmaterials im Vordergrund, so dass die zu bearbeitende Datenmenge überschaubar wird (vgl. Mayring, 1993, S. 54; 2007, S. 472). Mayring (1993) hat hierfür Regeln entwickelt, anhand derer die Daten in mehreren reduktiven Schritten zusammengefasst werden können (vgl. Tabelle 22, S. 241): 1. Paraphrasierung: Textteile (Analyseeinheiten) werden so umformuliert, dass sie kurz und bündig den Inhalt beschreiben. Textbestandteile, die für den Inhalt nicht oder nur wenig wichtig sind, werden dabei gestrichen (also Füllwörter, Wiederholungen, Ausschmückungen usw.). 2. Generalisierung: Die Paraphrasen werden generalisiert, d.h. alle auf dasselbe, allgemeine Abstraktionsniveau gebracht. Für diesen Schritt kann es hilfreich sein, auf theoretisches Vorwissen zurückzugreifen. 3. Erste Reduktion: Bedeutungsgleiche Paraphrasen werden gestrichen, ebenso diejenigen Paraphrasen, die auf dem neuen Abstraktionsniveau (Generalisierung) nicht als wesentlich inhaltstragend erachtet werden. 4. Zweite Reduktion: Paraphrasen mit gleichem oder ähnlichem Gegenstand werden zu einer Paraphrase gebündelt. Der Prozess der zusammenfassenden Inhaltsanalyse kann dazu genutzt werden, Kategorien aus dem Datenmaterial heraus zu entwickeln (sogenannte induktive Kategorienbildung) (Mayring, 2007, S. 472). Explizierende Inhaltsanalyse. Ziel der explizierenden Inhaltsanalyse ist es, unklare Textbestandteile verständlich zu machen, d.h. es werden zusätzliche Materialien an den Text herangetragen. Im Gegensatz zur zusammenfassenden Inhaltsanalyse wird das Datenmaterial hier also nicht reduziert, sondern erweitert. Es handelt sich hierbei um nichts anderes als eine Kontextanalyse, die hilfreich sein kann, um Erkenntnisse, die man vorgängig gewonnen hat, zu interpretieren und zu verstehen. Dabei kann zwischen einer engen und einer weiten Kontextanalyse unterschieden: - Enge Kontextanalyse: Im Text selbst wird nach Aussagen gesucht, welche die unklare Textstelle verständlich machen könnte.

240

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

- Weite Kontextanalyse: Es wird zusätzliches Datenmaterial gesucht, das im Hinblick auf die unklare Textstelle erhellend wirkt (z.B. Material über die Entstehungssituation des Textes, zusätzliche Informationen zum Befragten resp. Autor eines Textes usw.) (Mayring, 1993; 2007). Tabelle 22: Beispiel einer zusammenfassenden Inhaltsanalyse (die Interviewauszüge stammen aus Beglinger, 2008) Analyseeinheit Schon als Drittklässler wollte ich Lehrer werden. Lehrer oder Hotelier. Auf jeden Fall sollte mein Beruf mit Menschen zu tun haben, der Umgang mit anderen Leuten hat mich stets fasziniert. [...] Für mich war nie entscheidend, dass die Schüler am Ende der dritten Sekundarklasse perfekt Englisch sprachen. Das kann man auch in der Migros-Klubschule lernen. Wichtig war für mich, aus diesen Jugendlichen junge Menschen zu formen, die man mit gutem Gewissen ins richtige Leben hinausschicken kann, die einen guten Umgang und einen soliden Realitätsbezug haben. Ich halte das für eine sehr ehrenvolle Aufgabe, und darauf war ich, ja, also, stolz. Warum ich trotzdem nicht mehr Lehrer sein will? [...] Die Ansprüche von allen Seiten erdrücken mich.

Paraphrase Berufswunsch früh klar

Generalisierung Früher Berufswunsch

Umgang mit anderen Menschen als zentrales Kriterium für Berufswunsch

Berufswunschkriterium

Perfekte Englischkenntnisse sind nicht Ziel, weil man dies auch später noch lernen kann.

Aufgaben Lehrberuf: Wissensvermittlung nicht Primärziel

Ziel ist die Erziehung („Formung“) junger Menschen zum guten Umgang und zum Realitätsbezug.

Aufgaben Lehrberuf: Erziehung als Primärziel

Lehrberuf ist ehrenvolle Aufgabe. Stolz auf Berufsaufgabe Nicht mehr Lehrer sein wollen. Erdrückende Ansprüche

Charakterisierung Lehrberuf: Ehrenvolle Aufgabe Charakterisierung Lehrberuf: Stolz Berufsaufgabe

Reduktion K1: Früher Berufswunsch aufgrund klarer Kriterien K2: Aufgaben Lehrberuf: - primär: Erziehung - sekundär: Wissensvermittlung K3: Charakterisierung Lehrberuf: Ehrenvolle Aufgabe K4: Gründe für Berufsaufgabe: - erdrückende Ansprüche - viele Vorurteile - Beruf macht kaputt

Grund für Berufsaufgabe

241

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Mein Beruf macht mich kaputt. All die Sprüche über die Lehrer, diese ‹Berufsjammerer in der geschützten Werkstatt›, die ‹Ferientechniker mit ihren dreizehn freien Wochen pro Jahr›: Ich kann sie nicht mehr hören.

Beruf macht kaputt. Vorurteile nerven.

Grund für Berufsaufgabe Grund für Berufsaufgabe

Strukturierende Inhaltsanalyse. Bei der strukturierenden Inhaltsanalyse geht es darum „bestimmte Themen, Inhalte, Aspekte aus dem Material herauszufiltern und zusammenzufassen“ (Mayring, 1993, S. 83). Ein Codierleitfaden steuert dabei den Analyseprozess. Im Codierleitfaden werden Kategorien, die induktiv (z.B. infolge einer zusammenfassenden Inhaltsanalyse) oder deduktiv (aufgrund theoretischen Vorwissens) gewonnen wurden, definiert und mittels „Ankerbeispielen“ (das sind typische Textpassagen) veranschaulicht. Ebenso werden – sofern notwendig – Codierregeln formuliert, um sicher zu stellen, dass alle Personen, welche einen Text mittels dieser Regeln analysieren, zum selben Resultat kommen (sog. Intercoderreliabilität). Mit diesem Vorgehen soll die Objektivität der Analyse sicher gestellt werden (vgl. Mayring, 1993; 2007). Das untenstehende Beispiel in Tabelle 23 zeigt einen Codierleitfaden, mit dem eine skalierende Strukturierung der Umsetzungsabsichten von Lehrpersonen in Bezug auf partizipative Unterrichtsformen vorgenommen werden soll. Kritische Würdigung. Die Systematik dieses Auswertungsverfahrens ist leicht erlernbar und eignet sich deshalb auch für Forschungsanfängerinnen und -anfänger. Zudem bietet das systematische Vorgehen ein gutes Mass an Nachvollziehbarkeit. Das Verfahren bietet sich auch für grössere Stichproben an, weil sich relativ leicht quantitative Schritte einbauen lassen. Damit bietet dieses Verfahren auch eine Überwindung des Grabens zwischen qualitativer und quantitativer Vorgehensweisen (vgl. Mayring, 2007, S. 474). Weniger geeignet ist das Verfahren bei Fragestellungen, die sehr offen sind oder eher explorativen Charakter haben.

242

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Tabelle 23: Codierleitfaden: Umsetzungsabsicht Umsetzungsabsicht vorhanden

Umsetzungsabsicht nicht-vorhanden

Umsetzungsabsicht unklar

Definition a) wurde in der Berufspraxis bereits umgesetzt b) Umsetzungsabsicht wird explizit ausgedrückt a) es wird explizit ausgedrückt, dass keine Umsetzungsabsicht vorhanden ist b) negative Äusserungen zur Umsetzung c) wurde noch nie umgesetzt es wird zwar von dieser Partizipationsmöglichkeit gesprochen, aber die Umsetzungsabsicht bleibt unklar

Ankerbeispiele „Die Klassenstunde werde ich auf jeden Fall beibehalten“

Codierregeln Mind. einer der beiden Aspekte der Definition muss zutreffen

„Ja, also Rechnungsheft, da müssen wir nicht diskutieren, dort werde ich es vorgeben, da haben die Schüler nichts zu sagen“

entweder trifft erster Aspekt (explizit ausgedrückt) zu oder dann deuten die beiden anderen Aspekte auf nichtvorhandene Umsetzungsabsicht

„Da gehört zum Beispiel auch die Vorbereitung für Prüfungen rein, bei der man selber bestimmen kann, wie viel man üben möchte“

Kann weder der Unterkategorie „Umsetzungsabsicht vorhanden“ noch „Umsetzungsabsicht nicht-vorhanden“ zugeordnet werden.

7.2.4 Gütekriterien Die Frage danach, welche Qualität eine Forschung aufweist, kann anhand von sogenannten Gütekriterien beantwortet werden. Quantitative Forschung wird gemeinhin an den drei zentralen Kriterien Objektivität, Reliabilität (Verlässlichkeit) und Validität (Gültigkeit der Ergebnisse) gemessen. Diese können nicht einfach auf qualitative Vorgehensweisen übertragen werden, zumal die methodischen Grundlagen völlig verschieden sind. Qualitative Forschung hat mindestens den folgenden Kriterien zu genügen: - Intersubjektive Nachvollziehbarkeit - Angemessenheit des Forschungsprozesses - Empirische Verankerung - Reflektierte Subjektivität (vgl. Steinke, 2007, S. 323ff). Intersubjektive Nachvollziehbarkeit. Der Forschungsprozess muss so dokumentiert werden, dass er auch von anderen Personen nachvollzogen werden kann. Das heisst, sowohl das Vorverständnis der Forschenden, als auch

243

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

die Methoden der Datenerhebung, -aufbereitung und -auswertung müssen dargestellt werden. Die intersubjektive Nachvollziehbarkeit kann zudem erhöht werden, wenn Textinterpretationen nicht alleine, sondern in Forschungsteams durchgeführt werden (insbesondere im Rahmen Objektiv Hermeneutischer Verfahren oder Verfahren der Grounded Theory) (vgl. Steinke, 2007, S. 324ff). Angemessenheit des Forschungsprozesses. Qualitative Forschung muss stets der Fragestellung und dem Forschungsgegenstand angemessen sein. Das heisst, es muss begründet werden, welche Fälle untersucht werden (Auswahl der Stichprobe), welche Methoden verwendet werden und wie diese zueinander passen (vgl. Steinke, 2007, S. 326ff). Empirische Verankerung. Hypothesen sollen aus den Daten heraus entwickelt werden. Ihre Überprüfung erfolgt wiederum anhand von empirischen Daten, d.h. die Forschungsergebnisse sind in den Daten (empirisch) verankert (vgl. Steinke, 2007, S. 327f.). Reflektierte Subjektivität. Die Rolle der Forschenden als Subjekte (mit ihren Forschungsinteressen, Vorannahmen, Lebenserfahrungen) muss ebenfalls methodisch reflektiert werden. Das heisst, der Forschungsprozess sollte laufend durch Selbstbeobachtung und -reflexion begleitet werden, um bspw. festzustellen, ob man bestimmte Aspekte der Erkenntnisse verdrängt, weil sie einem nicht zusagen (vgl. Steinke, 2007, S. 330f.). Weiterführende Literatur Objektive Hermeneutik Przyborski, A. & Wohlrab-Sahr, M. (2009). Qualitative Sozialforschung. Ein Arbeitsbuch (2. korr. Aufl.). München: Oldenbourg. Wernet, A. (2000). Einführung in die Interpretationstechnik der Objektiven Hermeneutik. Opladen: Leske und Budrich. Grounded Theory Böhm, A. (2007). Theoretisches Codieren: Textanalyse in der Grounded Theory. In U. Flick, E. von Kardoff & I. Steinke (Hrsg.), Qualitative Forschung. Ein Handbuch (5. Aufl., S. 475– 485). Reinbek bei Hamburg: Rowohlt. Przyborski, A. & Wohlrab-Sahr, M. (2009). Qualitative Sozialforschung. Ein Arbeitsbuch (2. korr. Aufl.). München: Oldenbourg. Strauss, A. & Corbin, J. (1996). Grounded Theory: Grundlagen qualitativer Sozialforschung. Weinheim: Psychologie Verlags Union.

244

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Qualitative Inhaltsanalyse Mayring, Ph. (1993). Qualitative Inhaltsanalyse. Grundlagen und Techniken (4., erw. Aufl.). Weinheim: Deutscher Studienverlag. Mayring, Ph. (2007). Qualitative Inhaltsanalyse. In U. Flick, E. von Kardoff & I. Steinke (Hrsg.), Qualitative Forschung. Ein Handbuch (5. Aufl., S. 468–475). Reinbek bei Hamburg: Rowohlt.

7.3 Statistische Auswertungen: Deskriptive Statistik, Teil I Nach der eingehenden Auseinandersetzung mit qualitativen Verfahren der Datenauswertung wird in den folgenden Abschnitten erläutert, wie quantitative Daten ausgewertet werden. Dabei wird zuerst genauer auf den Messvorgang und die Datenaufbereitung eingegangen, bevor deskriptiv- und inferenzstatistische Verfahren der Datenanalyse dargestellt werden. Deskriptive Statistik Die Deskriptive Statistik befasst sich mit statistischen Methoden zur Beschreibung und Charakterisierung von Daten in Form von Tabellen, Grafiken und einzelnen Kennwerten.

7.3.1 Messen Wie bereits angesprochen, befasst sich sozialwissenschaftliche Forschung mit Menschen und ihren Eigenschaften, welche sie näher untersucht. Werden Daten erhoben, um diese Eigenschaften und ihre jeweiligen Ausprägungen festzustellen, wird dies als Messvorgang bezeichnet. So wird etwa in einem Fragebogen u.a. gefragt, wie gerne man Schokolade mag und es werden die Antwortmöglichkeiten „sehr gerne“, „eher gerne“, „eher nicht gerne“ und „gar nicht gerne“ vorgegeben. Somit hat das Merkmal „Schokolade mögen“ vier mögliche Ausprägungen. Sollen nun diese jeweiligen Merkmalsausprägungen bei allen befragten Personen angeschaut und miteinander verglichen werden, ist es hilfreich, ihnen Zahlenwerte zuzuordnen. Das Vorhandensein von Zahlenwerten ermöglicht es beispielsweise, auszuzählen, wie oft eine bestimmte Merkmalsausprägung (z.B. „sehr gerne Schokolade mögen“) vorkommt. Dies ist vor allem bei Merkmalen mit vielen Ausprägungen und bei grösseren Stichproben von Nutzen. Die den Messobjekten zugeordneten Zahlen heissen Skalenwerte oder Messwerte. Die Zuordnung der Zahlen muss nach der Regel erfolgen, dass die numerischen Relationen (Verhältnisse zwischen den Zahlen) den empirischen Relationen (beobachtete Verhältnisse der Ausprägung eines Merkmals) entsprechen, d.h. dass die entsprechende Abbildung homomorph,

245

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

also strukturerhaltend, ist (vgl. Bortz & Döring, 2003; Diekmann, 2007; vgl. Kap. 2.4.4). Skalenniveau (Messniveau, Massstabstypen) Für die Beschreibung von Merkmalsausprägungen stehen vier verschiedene Massstabstypen oder Skalenniveaus zur Verfügung: (1) die Nominalskala, (2) die Ordinalskala (Rangskala), (3) die Intervallskala und (4) die Verhältnisskala (Rationalskala). Die Skalenniveaus legen fest, wie man die Zahlen interpretieren darf und welche Operationen mit den Zahlen sinnvoll sind.

Für jedes z.B. mithilfe eines Fragebogens erhobene Merkmal mit seinen Ausprägungen muss zunächst das zutreffende Skalenniveau ermittelt werden, um die Skalen- oder Messwerte strukturerhaltend zuordnen zu können. Die vier wichtigsten Skalenniveaus (Skalenarten) sind: Nominalskala, Ordinalskala (Rangskala), Intervallskala, Verhältnisskala (Rationalskala). Diese Aufzählung entspricht bereits einer aufsteigenden Ordnung, wobei die Nominalskala dem einfachsten Skalenniveau entspricht, welches am wenigsten Aussagen über die Relationen zwischen den Merkmalsausprägungen zulässt (vgl. Bortz & Döring, 2003). Die Kenntnis dieser Skalenniveaus ist entscheidend, da die Zulässigkeit statistischer Verfahren vom jeweiligen Skalenniveau eines Merkmals resp. seiner Ausprägungen abhängt. Das heisst, das bestimmte statistische Verfahren nur bei gewissen Skalenniveaus verwendet werden dürfen. Im Folgenden werden die vier genannten Skalenniveaus vorgestellt. Weiterführende Hinweise finden sich beispielsweise bei Diekmann (2007). Nominalskala. Von einem nominalskalierten Merkmal spricht man, wenn die Ausprägungen des Merkmals zwar unterschieden, aber nicht in eine Rangfolge gebracht werden können. Ein Merkmal wird durch die Beschreibung von Kategorien messbar gemacht, indem den Ausprägungen Zahlen („1“, „2“) oder auch Beschreibungen („ja“, „nein“) zugeordnet werden. Um welche Zahlen oder Beschreibungen es sich dabei handelt, ist unwichtig. Die zugeordneten Zahlen (Symbole) haben nur eine kategorielle, also einordnende Funktion. Ihre Zuordnung erfolgt willkürlich. Damit lassen sich Merkmale kennzeichnen, die keine unterschiedlichen Ausprägungsgrade (Intensitätsgrade) bei den einzelnen Objekten besitzen, die aber verschiedenen Kategorien zugeordnet werden können. So liegt beispielsweise das Merkmal „Geschlecht“ in zwei Ausprägungen vor, wobei Männer nicht „besser“ oder „höher“ als Frauen, sondern einfach anders sind.

246

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Beispiele nominal skalierter Merkmalsausprägungen: Geschlecht, Blutgruppe, Haarfarbe, Freizeitaktivitäten, Familienstand („ledig“, „verheiratet“, „geschieden“ etc.). Ordinalskala (Rangskala). Die Ordinalskala ordnet den Objekten die Zahlen so zu, dass das Objekt mit der grösseren/höheren Merkmalsausprägung die grössere Zahl erhält. Die Zahlen haben hier eine ordnende Funktion und erlauben die Bildung einer Rangfolge bezüglich der Ausprägung eines Merkmals. Aufgrund der Rangfolge kann jedoch nicht entschieden werden, wie weit die Merkmalsausprägungen auseinander liegen, da der „grösseren“ Ausprägung lediglich irgendeine höhere Zahl zugeordnet werden kann als der „kleineren“ Ausprägung. Es geht also um die Beschreibung von Relationen wie „grösser als“, „kleiner als“, „mehr als“, „weniger als“ usw. Beispiele ordinalskalierter Merkmalsausprägungen: Schulnoten, abgestufte Kategorien von Häufigkeiten („nie“, „manchmal“, „oft“, „immer“), WetterAbstufungen („sonnig“, „teilweise bedeckt“, „bewölkt“, „stark bewölkt“ etc.), militärische Ränge. Intervallskala. Die Intervallskala ordnet den Merkmalsausprägungen Zahlen in der Weise zu, dass Differenzen zwischen den Zahlen (numerisches Relativ) den empirischen Differenzen (empirisches Relativ) entsprechen. Dazu braucht es eine definierte Masseinheit, d.h. die Abstände müssen gleich sein. Beispiel Celsiusskala: Die Abstände auf der Skala (z.B. 1–4°C und 8–11°C) entsprechen gleichen Temperaturdifferenzen in der Realität. Bei der Intervallskala wird sowohl die Masseinheit als auch der Nullpunkt willkürlich festgelegt. Es können deshalb keine Aussagen über das Verhältnis von Skalenwerten gemacht werden. Es wäre beispielsweise falsch zu sagen, in Florida (36°C) sei es dreimal wärmer als in Luzern (12°C), weil sich die Temperaturangaben nicht auf den absoluten Nullpunkt beziehen (in Wahrheit ist es in Florida bezogen auf den absoluten Nullpunkt von -273.15°C nur 1.08 Mal wärmer als in Luzern). Das gleiche gilt bei vielen Tests: Wer in einem Leistungsmotivationstest 40 Punkte erreicht, ist nicht „doppelt so motiviert“, wie jemand, der 20 Punkte erreicht. Beispiele intervallskalierter Merkmalsausprägungen: Temperatur (Celsius), Kalenderzeit. Verhältnisskala (Rationalskala). Im Gegensatz zur Intervallskala besitzt die Verhältnisskala einen absoluten Nullpunkt. Es können deshalb Aussagen über die Verhältnisse von Skalenwerten gemacht werden. Dies ist zum Bei-

247

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

spiel bei der Körpergrösse der Fall: Wenn Maria 140 cm gross ist und Martin 70 cm, so kann man sagen, Maria ist doppelt so gross wie Martin. Beispiele verhältnisskalierter Merkmalsausprägungen: Grösse, Gewicht, Einkommen. In Tabelle 24 (S. 249) sind die vier oben erwähnten Skalenniveaus in einer Übersicht dargestellt. In der Literatur wird nicht immer zwischen Verhältnisskala und Intervallskala unterschieden, sondern diese beiden Skalenniveaus werden in einer Kategorie zusammengefasst: Man spricht dann von einem metrischen Skalenniveau. Ohne Kenntnis des Skalenniveaus der (quantitativen) Daten der eigenen Untersuchung sind weiterführende statistische Analysen nicht möglich. Bereits einfache deskriptiv-statistische Verfahren, wie die Ermittlung der zentralen Tendenz (Durchschnitt) der Antworten auf die Frage „Wie viele Stunden sehen Sie pro Tag fern?“ erfordern es, dass das Skalenniveau des Merkmals („täglicher Fernsehkonsum“) bekannt ist, um den geeigneten Kennwert auszuwählen (vgl. Kap. 7.3.5). Schliesslich ist im Zusammenhang mit den Skalenniveaus und den damit möglichen statistischen Analysen auch die Unterscheidung zwischen stetigen (kontinuierlichen) und diskreten (diskontinuierlichen) Variablen von Belang. Stetige und diskrete Variablen Stetige Variablen zeichnen sich dadurch aus, dass sich „in jedem beliebigen Intervall unendlich viele Merkmalsausprägungen befinden (z.B. die Variablen Gewicht, Länge oder Zeit)“ (Bortz & Döring, 2003, S. 7). Beispiele: Körpergrösse, Temperatur, Gewicht. Bei einer diskreten Variable finden sich in einem (begrenzten) Intervall nur eine endliche Anzahl Ausprägungen, z.B. die „Anzahl Bücher zu Hause“ oder die „Anzahl Wörter, welche in zehn Minuten auswendig gelernt werden können“ (vgl. Bortz & Döring, 2003).

Wird also in einem Experiment gemessen, wie schnell jemand auf einer Leinwand einen projizierten Buchstaben erkennt, so ist die Variable „Reaktionszeit“ als stetige Variable zu bezeichnen. Stetige Variablen kann man daran erkennen, dass bei Messungen resp. den mit ihr verbundenen Messeinheiten eine unendliche Anzahl Stellen nach dem Komma möglich wäre. 7.3.2 Aufbereitung von quantitativen Daten Quantitative Daten können auf verschiedene Weise erhoben werden und liegen zunächst als Antworten bzw. Daten in Fragebögen, Beobachtungs-, Interview- oder Versuchsprotokollen vor.

248

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Tabelle 24: Übersicht über die vier Skalenniveaus Skalenniveau Nominalskala

Ordinalskala

Intervallskala

Rationalskala

Eigenschaften - Es gibt verschiedene Gruppen, die nebeneinander bestehen - Keine Gruppe ist der anderen übergeordnet (oder besser) - Es gibt keine Rangfolge - Es gibt verschiedene Gruppen, die übereinander liegen - Obwohl es eine Rangfolge gibt, kann nicht gesagt werden, wie weit die Gruppen auseinander liegen (die Abstände der Gruppen sind unklar) - Es liegt eine klar definierte, regelmässige Skala vor - Der Abstand zwischen den Gruppen ist klar messbar - Der Abstand zwischen den Gruppen ist immer gleich - Der Nullpunkt ist willkürlich gewählt - Zwischen den Gruppen können keine Verhältnisse gebildet werden - Es liegt eine klar definierte, regelmässige Skala vor - Der Abstand zwischen den Gruppen ist immer gleich - Der Nullpunkt ist sinnvoll definiert resp. absolut - Zwischen den Gruppen können Verhältnisse gebildet werden

Beispiele - Lieblingsfarben - Parteien - Freizeitaktivitäten - Feriendestinationen - Schulnoten - Richter’sche Erdbebenskala - Test-Rohwerte

- Temperatur (Celsius) - Kalenderzeit

-

Alter Dienstalter Körpergrösse Einkommen

Die Daten sind damit zwar vorhanden, dies aber in einer noch ungeordneten und unübersichtlichen Form. In diesem Kapitel wird aufgezeigt, wie quantitative Daten aufbereitet, geordnet und zusammengefasst werden. Aufbereitung von quantitativen Daten Quantitative Daten werden aufbereitet, indem die Antworten bzw. Daten aus Fragebögen, Beobachtungs-, Interview- oder Versuchsprotokollen zunächst kodiert und danach in einer Urliste aufgelistet werden. Die Kodierung wird in einem Kodeplan festgehalten. Bevor mit der eigentlichen Auswertung begonnen wird, müssen die Daten selber einer Untersuchung unterzogen werden, um Eingabefehler entdecken und um z.B. nicht seriös ausgefüllte Fragebögen oder Items, die missverstanden wurden, ausschliessen zu können.

249

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Die Erstellung einer Urliste. Daten werden üblicherweise computergestützt (z.B. mittels Excel, PASW Statistik/SPSS) ausgewertet. Vor der Dateneingabe in eine entsprechende Datei müssen einige Vorüberlegungen angestellt werden, damit die Daten in eine für die Auswertung geeignete Form gebracht werden können. Anhand des folgenden Fallbeispiels soll das genaue Vorgehen beim Erstellen einer solchen Datentabelle aufgezeigt werden: Studierende wurden mittels Fragebogen nach ihren Erfahrungen bei der Bearbeitung einer Online-Lerneinheit befragt. Die Daten liegen somit als Antworten zu den Fragen des Fragebogens vor. Die Daten aus allen Fragebögen müssen nun in einer Datei aufgelistet werden. Wie aus Abbildung 12 (S. 251) ersichtlich ist, wird für jede Antwort, d.h. für jede Variable, eine Spalte benutzt, welche mit einer Kurzbezeichnung der Frage betitelt ist. Häufig wird für das Merkmal eine Kurzbezeichnung gewählt, da bei computergestützter Auswertung gewisse, vor allem auch ältere Versionen von Statistikprogrammen für die Kennzeichnung der Merkmale nur eine beschränkte Anzahl Buchstaben und/oder Ziffern zulassen (in der Abbildung wurde für das Merkmal „Geschlecht“ die englische Kurzbezeichnung „sex“ gewählt). Die Antworten der Studierenden werden in je einer Zeile festgehalten. Man spricht bei den eingetragenen Ausprägungen eines Merkmals auch von Rohwerten. Bei den Rohwerten handelt es sich um kodierte Daten, d.h. jeder sprachlichen Antwortmöglichkeit muss vorgängig ein numerischer Wert zugeordnet werden (s. weiter unten „Datenkodierung“). In Abbildung 12 wurde beispielsweise für das Merkmal „Geschlecht“ die Ausprägung „1“ für männlich und „2“ für weiblich gewählt. Zur Kennzeichnung der Zeilen wird dem Datensatz eine Indexspalte zur Identifikation der Befragten vorangestellt. In Abbildung 12 beinhaltet die Indexspalte die Fragebogen-Nummern (mit „nr“ bezeichnet). Dazu wurden vorgängig alle ausgefüllten Fragebögen durchnummeriert. Anstatt der Nummer des Fragebogens kann hier auch der Code der befragten Person eingetragen werden (vgl. Kap. 5.2.2). Durch diese Massnahme können die in der Urliste eingetragenen Antworten bis auf den ausgefüllten Fragebogen zurückverfolgt werden. Nach der Auflistung liegen die Daten in Form einer so genannten Urliste vor. In dieser Urliste sind die Merkmale (z.B. „Geschlecht“, „Alter“) als Spaltentitel eingetragen und die Rohwerte dazu für jeden Fragebogen jeweils in einer Zeile festgehalten. Für den in Abbildung 13 (S. 251) aufgeführten Fragebogen Nummer 1 werden folgende Werte eingetragen: 19 (= alter), 2 (= sex), 3 (= lernstil), 1.5 (= dauer). In Abbildung 13 ist zum Fallbeispiel ein Ausschnitt aus der Urliste, die mit der Software Excel erstellt wurde, dargestellt.

250

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Abbildung 12: Auflistung von Antworten aus einem Fragebogen in einer Urliste.

Abbildung 13: Urliste mit Indexspalte, welche die Fragebogen-Nummern enthält.

251

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Dokumentation der Datenkodierung in einem Kodeplan. In einem Kodeplan wird die Datenkodierung dokumentiert. Durch diese Dokumentation ist eine übersichtliche Darstellung von wichtigen Informationen zum Datensatz gegeben. Damit kann die Kodierung auch später noch nachvollzogen und die Bedeutung der Werte erschlossen werden. Ein Kodeplan sollte (mindestens) folgende Angaben enthalten: - Kurzbezeichnung für das Merkmal in der Urliste, - Bedeutung des Merkmals bzw. Wortlaut der Frage, - zugelassene Werte (welche Ausprägungen darf ein Merkmal annehmen?) und Bedeutung der Ausprägungen, - Bezeichnung fehlender Werte (wie sind fehlende Angaben bezeichnet und eingetragen?), Anmerkung zur Bezeichnung fehlender Werte: Wenn in gewissen Fällen keine Antwortvorgaben vorliegen, weil die Antwort z.B. verweigert wurde oder weil aus Unwissenheit eine Frage nicht beantwortet werden konnte, kann bei gewissen Statistikprogrammen (z.B. SPSS/PASW) ein Zahlenwert bestimmt und dieser Zahlenwert als „fehlende Angabe“ deklariert werden. Damit wird diese Angabe aus den weiteren statistischen Auswertungen ausgeschlossen. Werden Auswertungen mit der Software Excel gemacht, so ist darauf zu achten, dass solche Zahlenwerte für fehlende Angaben (missing values) nicht für weitere Auswertungen verwendet werden. Fehlende Angaben können ausgelassen oder allenfalls auch mit „x“ bezeichnet werden. - Skalenniveau des Merkmals (vgl. Kap 7.3.1). In Tabelle 25 (S. 253) ist der Kodeplan zu der in Abbildung 13 dargestellten Urliste aufgeführt. Sobald die Urliste und der Kodeplan erstellt sind, kann mit der eigentlichen Datenauswertung begonnen werden. Datenexploration. Wenn die Daten eingegeben worden sind, sollte danach nicht gleich mit der eigentlichen Auswertung begonnen werden, sondern die Daten selber sollten einer eingehenden Untersuchung unterzogen werden (Datenexploration). Dabei sind folgende Fragen zu klären: 1. Sind die Dateneingaben korrekt vorgenommen worden oder können Eingabefehler entdeckt werden? 2. Sind die Items von den Personen wohl richtig verstanden worden? Sind Ausreisser und Extremwerte vorhanden? Müssen einzelne Personen oder einzelne Angaben wegen „Unstimmigkeit“ von weiteren Auswertungen ausgeschlossen werden?

252

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Tabelle 25: Beispiel des Kodeplans zur Urliste in Abbildung 13 Kurzbezeichnung

Bedeutung

Ausprägungen

Skalenniveau

1–120

Bezeichnung fehlender Werte leere Zelle

nr

FragebogenNummer

alter

Alter

Alter in Jahren

leere Zelle

Metrisch

sex

Geschlecht

1=männlich 2=weiblich

leere Zelle

Nominal

lernstil

Repetition des Lehrstoffs

5=täglich 4=wöchentlich 3=monatlich 2=in den Semesterferien 1=vor der Prüfung

leere Zelle

Ordinal

dauer

Bearbeitungsdauer für den Lernschritt

Bearbeitungsdauer in Stunden: 0.5, 1.0, 1.5, 2.0, 2.5, 3.0, 3.5

leere Zelle

Metrisch

Nominal

Eingabefehler sind am besten zu erkennen, wenn eine Häufigkeitsaufzählung der auftretenden Werte vorgenommen wird. Beispielsweise kann ein Fehler entdeckt werden, indem bei der Häufigkeitsverteilung zu „Momentanes Gewicht“ bei einer Schülerinnen- und Schülerbefragung die Ausprägung „645 kg“ vorkommt, was nicht stimmen kann. Eine solche Häufigkeitszählung kann tabellarisch oder grafisch dargestellt werden (s. dazu Kap. 7.3.3 und 7.3.4). Neben der Darstellung von Häufigkeitsverteilungen können auch Kennwerte berechnet und die Verteilungsform überprüft werden (dies interessiert vor allem bei intervall- und verhältnisskalierten Variablen, da die Wahl von passenden analytischen Tests von der Form der Verteilung – insbesondere Normalverteilung – abhängt). Mit etwas Geschick und Einfallsreichtum lassen sich weitere Fehler entdecken. So könnte z.B. durch den Vergleich zweier Fragen mittels Kreuztabelle festgestellt werden, dass etwas nicht stimmen kann: Eine Schülerin hat auf die Frage, ob Tanzen eine Freizeitbeschäftigung von ihr sei, mit nein geantwortet hat; bei einer anderen Frage hat sie jedoch angegeben, dass sie pro Woche zwischen 4 und 6 Stunden tanze.

253

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Wenn in einen Fragebogen Kontrollfragen eingebaut worden sind, könnte herausgefunden werden, wie sorgfältig ein Fragebogen ausgefüllt worden ist. Wenn Fehler entdeckt werden oder „unstimmige“ Werte auftreten, sollten diese korrigiert bzw. Personen von weiteren Auswertungen ausgeschlossen werden. Welche Auswertungen könnten nun interessieren? Beispielsweise interessiert die Frage, wie viele Stunden die befragten Studierenden zur Bearbeitung eines Online-Lernschrittes aufgewendet haben. Univariate, bivariate und multivariate Auswertungen Bei der univariaten (d.h. auf eine Variable bezogenen) Datenanalyse interessiert die Frage, was bei einem ausgewählten Merkmal über die erhobenen Ausprägungsgrade ausgesagt werden kann. Bei bivariaten Datenanalysen interessiert der Zusammenhang zwischen zwei Merkmalen (z.B. ob es einen Zusammenhang zwischen Alter und Lernstil gibt). Bei multivariaten Auswertungen wird das Zusammenwirken mehrerer Merkmale untersucht. Untersucht man z.B., wie „Alter“ und „Lernstil“ mit der „Bearbeitungsdauer für den Lernschritt“ zusammenhängen, so spricht man von einer multivariaten Datenanalyse.

Auf die univariate Datenanalyse beziehen sich die folgenden Kapitel 7.3.3 bis 7.3.6. Auf bivariate Datenanalysen wird in Kapitel 7.4 genauer eingegangen. 7.3.3 Tabellarische Darstellung der Häufigkeitsverteilung der Ausprägungen eines Merkmals Was wird unter einer Häufigkeitsverteilung verstanden? Die Häufigkeitsverteilung beschreibt, wie sich die untersuchten Personen auf die Merkmalsausprägungen eines Merkmals verteilen. Beispielsweise kann zum Merkmal „Bearbeitungsdauer“ folgende Häufigkeitsverteilung erstellt werden: - 1 Person hat für die Bearbeitung des Lernschritts 0.5 Stunden aufgewendet, - 6 Personen gaben an, 1 Stunde aufgewendet zu haben, - 29 Personen gaben 1.5 Stunden an, - 32 Personen gaben 2 Stunden an, - etc. Es können zu allen Merkmalen – im Fallbeispiel zu „Alter“, „Geschlecht“, „Lernstil“ und „Bearbeitungszeit für den Lernschritt“ – Häufigkeitsverteilungen berechnet werden. In Tabelle 26 (S. 255) ist eine solche Häufigkeitstabelle zum Merkmal „Bearbeitungsdauer“ enthalten.

254

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Die tabellarische Darstellung der Häufigkeitsverteilung der Ausprägungen eines Merkmals Die Häufigkeitsverteilung der Ausprägungen eines Merkmals kann mittels Tabelle dargestellt werden, indem zu den einzelnen Ausprägungen die absoluten, relativen oder kumulierten (absoluten bzw. relativen) Häufigkeiten angegeben werden. Um eine bessere Überschaubarkeit zu erzielen, kann die Anzahl der Ausprägungen reduziert werden, indem Kategorien gebildet und die einzelnen Ausprägungen den verschiedenen Kategorien zugeordnet werden.

Tabelle 26: Angabe von absoluten und relativen Häufigkeiten für die Bearbeitungsdauer des Lernschritts von Studierenden Dauer für die Bearbeitung des Lernschritts in Stunden 0.5 1.0 1.5 2.0 2.5 3.0 3.5 Total

Absolute Häufigkeit

1 6 29 32 35 11 4 118

Relative Häufigkeit (in %)

0.8 5.1 24.6 27.1 29.7 9.3 3.4 100.0

Sollen absolute oder relative Häufigkeiten angegeben werden? In einer Häufigkeitstabelle können die absoluten oder die relativen Häufigkeiten angegeben werden. Im Normalfall wird in Tabellen nur eine der beiden Häufigkeiten aufgeführt. Um die Unterschiede zwischen absoluten und relativen Häufigkeiten besser erfassen zu können, sind in Tabelle 26 jedoch beide Häufigkeitsangaben angegeben. Werden zu jedem Merkmal die Häufigkeiten seiner Ausprägungen ausgezählt, spricht man von absoluten Häufigkeiten. Wie aus der Tabelle ersichtlich ist, gaben beispielsweise 35 Studierende an, 2.5 Stunden für die Bearbeitung aufgewendet zu haben. Oft ist die Berechnung der prozentualen Anteile von Interesse, d.h. es werden die relativen Häufigkeiten angegeben. Dabei wird die Gesamtzahl der Personen, welche zu einem Merkmal gültige Antworten abgegeben haben, als 100% gesetzt und davon ausgehend die jeweiligen Anteile der einzelnen Ausprägungen ermittelt. Personen, die eine Frage nicht beantwortet haben, werden in der Regel nicht mitgezählt. Die Angabe prozentualer Anteile hat

255

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

gegenüber der Angabe absoluter Häufigkeiten den Vorteil, dass die Ausprägungen untereinander und über Merkmale hinweg – vor allem auch bei ungleich grossen Gruppen – besser miteinander verglichen werden können. Bei der Angabe von relativen Häufigkeiten ist es üblich, dass die Stichprobengrösse n mitgeteilt wird, um anzugeben, auf wie viele Befragte sich die Prozentangaben beziehen. Dies geschieht z.B. dadurch, dass im Tabellentitel die Stichprobengrösse n in Klammern angegeben wird. Im Beispiel könnte dies wie folgt aussehen: „Tabelle 26: Angabe von absoluten und relativen Häufigkeiten für die Bearbeitungsdauer des Lernschritts von Studierenden (n=118)“ Die Berechnung der relativen Häufigkeit. Im Beispiel aus Tabelle 26 ist ersichtlich, dass 35 Studierende für die Bearbeitung rund 2.5 Stunden aufgewendet haben. Damit diese Information besser interpretiert werden kann, ist es nötig, dass man dies mit der Anzahl der Studierenden, die auf die anderen Ausprägungen fallen, oder mit dem Total der Studierenden vergleichen kann. Es soll deshalb die relative Häufigkeit berechnet werden. Diese berechnet sich wie folgt:

Die relative Häufigkeit der Ausprägung „2.5 Stunden“ beträgt 0.297:

Dies entspricht 29.7%. Das bedeutet, dass 29.7% der Studierenden für die Bearbeitung des Lernschritts rund 2.5 h aufgewendet haben. Die Summe aller relativen Häufigkeiten in einer Häufigkeitstabelle ist immer 1 bzw. 100%. Die Angabe von kumulierten absoluten Häufigkeiten. Häufigkeiten können kumuliert werden. Es wird dabei zwischen kumulierten relativen Häufigkeiten und kumulierten absoluten Häufigkeiten unterschieden. Die kumulierte absolute Häufigkeit gibt an, wie häufig ein bestimmter Ausprägungsgrad und alle niedrigeren Ausprägungsgrade eines Merkmals beobachtet wurden.

256

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Beispiel zur Tabelle 26: Wie viele Studierende haben für die Bearbeitung des Lernschritts 1.5 Stunden oder weniger aufgewendet? Antwort: 36 Studierende (1 + 6 + 29 Studierende) haben 1.5 Stunden oder weniger zur Bearbeitung aufgewendet. Häufiger wird jedoch die kumulierte relative Häufigkeit angegeben. Die Angabe von kumulierten relativen Häufigkeiten. Die kumulierte relative Häufigkeit gibt in Prozenten an, wie häufig eine bestimmte Ausprägung und alle niedrigeren Ausprägungen eines Merkmals beobachtet wurden. Die kumulierten relativen Häufigkeiten werden auch als Prozentränge bezeichnet. Wie wird die kumulierte relative Häufigkeit berechnet? Der kumulierte Prozentsatz summiert zeilenweise die prozentuale Häufigkeit der Antworten auf. Im Beispiel aus Tabelle 27 bestimmt sich die kumulierte relative Häufigkeit von 2 Stunden als Summe der relativen Häufigkeiten der Ausprägungsgrade 0.5h, 1.0h, 1.5h und 2h. Es gaben rund 57.6% der Studierenden an, dass Sie für die Bearbeitung zwei Stunden oder weniger aufgewendet haben (0.8% + 5.1% + 24.6% + 27.1%). Tabelle 27: Beispiel der Angabe von absoluten, relativen und kumulierten relativen Häufigkeiten für die Bearbeitungsdauer des Lernschritts (n=118) Dauer für die Bearbeitung des Lernschritts in Stunden 0.5 1.0 1.5 2.0 2.5 3.0 3.5 Total

Absolute Häufigkeit 1 6 29 32 35 11 4 118

Relative Häufigkeit (in %) 0.8 5.1 24.6 27.1 29.7 9.3 3.4 100.0

Kumulierte relative Häufigkeit (in %) 0.8 5.9 30.5 57.6 87.3 96.6 100.0

Relative kumulierte Häufigkeiten können zur Beantwortung von drei Fragetypen benutzt werden: 1. Fragetyp „Höchstens“: Wie groß ist der Anteil der Studierenden, die höchstens 1.5 Stunden zur Bearbeitung aufgewendet haben? (Antwort: 30.5% der Studierenden) 2. Fragetyp „Größer als“: Wie hoch ist der Anteil der Studierenden, die mehr als 2.5 Stunden für die Bearbeitung einsetzten? (Antwort: 12.7% der Studierenden = 100% - 87.3%)

257

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

3. Fragetyp „Zwischen“: Wie hoch ist der Anteil der Studierenden, die zwischen 2 und 2.5 Stunden für die Bearbeitung aufgewendet haben? (Antwort: 56.8% der Studierenden = 87.3% - 30.5%) Kategorienbildung bei Problemen der Anschaulichkeit von Tabellen mit vielen Merkmalsausprägungen. Die bisher besprochene Darstellung einer Häufigkeitstabelle, in denen alle Merkmalsausprägungen aufgeführt sind, ist nur sinnvoll, wenn die Merkmale im Datensatz eine eng begrenzte Anzahl von Merkmalsausprägungen besitzen. Bei mehr als 10 bis 15 verschiedenen Merkmalsausprägungen sind die bisher vorgestellten Häufigkeitstabellen nicht mehr anschaulich. In Tabelle 28, in welcher die Altersausprägungen von Studierenden dargestellt sind, ist ersichtlich, dass es zu diesem Merkmal Ausprägungen von „19 Jahre“ bis „53 Jahre“ geben kann und somit 35 verschiedene Ausprägungen zum Merkmal „Alter“ vorkommen können. Um eine bessere Überschaubarkeit zu erzielen, kann die Anzahl der Ausprägungen reduziert werden. Dies geschieht durch eine Zusammenfassung von Ausprägungen zu Gruppen, d.h. es werden Kategorien gebildet und die einzelnen Ausprägungen den verschiedenen Kategorien zugeordnet. Im Beispiel wurden zum Merkmal „Alter“ Ausprägungskategorien gebildet. Die Kategorienbreite wurde auf fünf Jahre festgesetzt. Dadurch werden die 35 verschiedenen möglichen Ausprägungen auf 8 Ausprägungskategorien reduziert. Tabelle 28: Beispiel zweier tabellarischer Häufigkeitsverteilungen – einmal ohne und einmal mit Kategorienbildung für das Merkmal „Alter“ Alter 19 20 21 22 23 24 25 26 27 … 53

258

Absolute Häufigkeit 3 14 23 12 5 7 5 6 7 … 1

Alterskategorie (Kategoriebreite=5) 16-20 21–25 26–30 31–35 36–40 41-45 46–50 51–55

Absolute Häufigkeit 17 52 28 18 6 2 1 3

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Bei der Festlegung von Ausprägungskategorien wird durch die Verdichtung der Merkmalsausprägungen zu Kategorien einerseits Übersichtlichkeit erzielt, andererseits gehen aber immer auch Informationen verloren: Je breiter die Kategorien dabei gewählt werden, desto grösser ist der Informationsverlust. Würde man im obigen Beispiel etwa nur zwei Kategorien festlegen, z.B. von „Personen bis und mit 40 Jahren“ und „Personen ab 41 Jahren“, so wären in der ersten Kategorie 121 Personen zu finden und in der zweiten Kategorie sechs Personen. Über die effektive Altersverteilung in der Stichprobe liessen sich kaum mehr differenzierte Aussagen bilden, ausser, dass die Mehrheit der befragten Personen unter 40 Jahre alt ist. Bei der Kategorienbildung ist deshalb jeweils zwischen dem Verlust an Informationen und dem Gewinn an Übersichtlichkeit abzuwägen. Eine generelle Regel für die Wahl einer sinnvollen Kategorienbreite gibt es nicht: Die Festlegung von Ausprägungskategorien kann nur inhaltlich, d.h. in Bezug auf die konkrete Zielsetzung, begründet werden. Bei der Kategorienbildung ist darauf zu achten, dass eine Ausprägung eindeutig einer Kategorie zugeordnet werden kann. Überlappungen benachbarter Kategorien dürfen nicht bestehen, d.h. Kategorienbreiten von „20–25 Jahren“ und von „25–30 Jahre“ wären nicht zulässig, weil dann nicht eindeutig zu entscheiden wäre, welcher Kategorie eine 25-jährige Person zugeordnet werden soll. Man spricht davon, dass Kategorien disjunkiv (also einander ausschliessend) sein müssen. 7.3.4 Grafische Darstellung der Häufigkeitsverteilung der Ausprägungen eines Merkmals Es ist manchmal schwierig, die Verteilung von Ausprägungen eines Merkmals in einer Häufigkeitstabelle rasch zu überblicken. Deshalb werden Verteilungen mittels Diagrammen grafisch dargestellt. Die grafische Darstellung einer Häufigkeitsverteilung weist gegenüber einer tabellarischen Darstellung folgende Vorteile auf: - grössere Übersichtlichkeit, - grössere Einprägsamkeit, - grössere Attraktivität (die grafische Darstellung weckt Interesse und erhöht damit die Lesebereitschaft; sie lockert einen Text im Sinne einer Abwechslung auf). Wenn aber exakte Zahlen interessieren, sind Tabellen einem Diagramm vorzuziehen. So wird in wissenschaftlichen Arbeiten auf die Wiedergabe von Häufigkeitstabellen oft nicht verzichtet.

259

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Richtlinien zur Gestaltung von Diagrammen. Es ist zu bestimmen, ob bei grafischen Darstellungen die absoluten Häufigkeiten, die relativen Häufigkeiten oder auch beide angegeben werden sollen. Diese Entscheidung kann nur vor dem Hintergrund der inhaltlichen Fragestellung beantwortet werden. Relative Häufigkeiten werden gewählt, wenn die Daten bezüglich des gesamten Datensatzes bewertet werden sollen. Für alle Typen von Diagrammen gilt, dass sie eindeutig und vollständig beschriftet werden müssen (vgl. Kap. 8.1.2). Beispielsweise müssen bei einem Sektordiagramm alle Sektoren eindeutig benannt werden. Bei einem Säulendiagramm sind alle Ausprägungen des Merkmals aufzuführen und x- und y-Achse zu beschriften. Der Koordinatenachse, welche die Häufigkeiten nennt, muss entnommen werden können, ob absolute oder relative Häufigkeiten dargestellt sind. Grafik-Programme bieten sehr viele Möglichkeiten zur grafischen Gestaltung, von denen aber einige von den relevanten Informationen ablenken oder sie gar verschleiern. Dazu gehören: - dominierende Hintergründe, - Schraffuren, die verzerren, - drei-dimensional (perspektivisch) dargestellte Abbildungen. Manche Darstellungsweisen können zudem ein irreführendes Bild der Daten geben. Beispielsweise lässt sich durch das Strecken der y-Achse der Eindruck grosser Unterschiede, beim Stauchen der y-Achse hingegen der Eindruck geringer Unterschiede erzeugen. Durch das Weglassen eines Teils des Achsenbereiches kann der subjektive Eindruck ebenfalls beeinflusst werden. Das folgende negative Beispiel in Abbildung 14 zeigt, wie durch solche unterschiedliche Darstellungsarten der subjektive Eindruck beim oberflächlichen Betrachten manipuliert werden kann.

260

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Abbildung 14: Grafische Darstellung des gleichen Datensatzes auf drei verschiedene Arten (in Anlehnung an Krämer, 2006a, S. 38–40). Anmerkungen: - Linkes Diagramm: Korrekte, ehrliche Darstellung der Fakten. - Mittleres Diagramm: Die y-Achse wurde gestreckt und zugleich abgeschnitten, ohne dass darauf hingewiesen wird. Die gleichen Umsatzzahlen präsentieren sich jetzt auf den ersten Blick viel positiver. - Rechtes Diagramm: Um die Dynamik zu betonen, wird der Umsatz als Kurvendiagramm dargestellt. Damit die Stagnation bzw. der leichte Rückgang in gewissen Jahren nicht so auffällt, werden Kategorien gebildet und nur der durchschnittliche Umsatz von 2 Jahren dargestellt. Zudem wird die Bezeichnung der Achsen weggelassen. Beim Umgang mit Diagrammen ist deshalb Folgendes zu beachten: - Bei der grafischen Darstellung von Daten sind wir zu wissenschaftlicher Ehrlichkeit verpflichtet. - Grafische Darstellungen in Publikationen müssen kritisch gelesen werden.

Je nach Skalenniveau eines Merkmals und Zielsetzung wird ein bestimmter Darstellungstyp eines Diagramms gewählt. Im Folgenden werden die vier wichtigsten Typen von Diagrammen vorgestellt: Das Sektordiagramm, das Säulendiagramm, das Histogramm und das Liniendiagramm. Diese vier Typen sind in Abbildung 15 dargestellt.

261

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Abbildung 15: Die vier wichtigsten Typen von Diagrammen. Das Sektordiagramm. Andere Bezeichnungen für das Sektordiagramm (pie chart) sind: Kreisdiagramm, Tortendiagramm, Kuchendiagramm. - Charakterisierung: Ein Kreis wird so in Kreissektoren unterteilt, dass die Flächen der Kreissektoren zu den beobachteten Häufigkeiten der einzelnen Ausprägungen proportional sind. - Eignung: Sektordiagramme eignen sich vor allem für die Darstellung von nominal skalierten Merkmalen. Das Sektordiagramm verdeutlicht die Verhältnisse zwischen den Häufigkeiten, mit denen eine Merkmalsausprägung beobachtet wurde, in der Regel besser als ein Säulendiagramm. Hingegen

262

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

ist die Verwendung von Sektordiagrammen mit mehr als sieben Ausprägungskategorien (Segmenten) nicht mehr angemessen, da die Diagramme durch die vielen Segmente unübersichtlich werden. Das Säulendiagramm. Das Säulendiagramm (bar chart) wird auch bezeichnet als Linien- oder Stabdiagramm (die Säulen sind zu Linien bzw. Stäben verschmälert), Balkendiagramm (die Säulen sind waagrecht angeordnet) oder Rechteckdiagramm. - Charakterisierung: Die Häufigkeiten der Merkmalsausprägungen werden durch Säulen dargestellt. Die Höhe der Säulen spiegelt die Anzahl von Beobachtungen (absolute Häufigkeiten) oder den prozentualen Anteil der Beobachtungen (relative Häufigkeiten) wider. - Eignung: Säulendiagramme können sowohl für nominal wie ordinalskalierte Merkmale verwendet werden. Das Histogramm. Eine andere Bezeichnungen für das Histogramm (histogram) lautet Flächendiagramm. - Charakterisierung: Die Ausprägungsgrade des Merkmals sind intervalloder verhältnisskaliert und beschreiben ein Ausprägungskontinuum. Damit schliessen die Ausprägungskategorien nahtlos aneinander an. Neben der Höhe der Säulen (Häufigkeit) ist auch deren Breite (Kategorienbreite) von Bedeutung. - Eignung: Bei intervall- oder verhältnisskalierten Daten wird anstelle des Säulendiagramms das Histogramm gewählt. Häufig sind bei intervall- und verhältnisskalierten Daten zusammenfassende Kategorien nötig. Es ist zu beachten, dass dabei Informationen nicht nur verloren gehen, sondern die Daten auch anders wahrgenommen werden können (vgl. Kap. 7.3.3). Das Liniendiagramm. Liniendiagramme werden auch Häufigkeitspolygon, Kurvendiagramm oder Polygonzug genannt. - Charakterisierung: Die einzelnen Ausprägungen werden durch eine Gerade miteinander verbunden. - Eignung: Liniendiagramme sind vor allem zur Darstellung von zeitlichen Verläufen eines untersuchten Merkmals geeignet. So zeigt die Abbildung 15 wie sich die Armuts-Quote von 1992–1999 verändert. Da die Verbindungslinien zwischen benachbarten Kategorien einem Betrachter suggerieren, dass die Häufigkeiten „kontinuierlich“ zu- bzw. abnehmen, ist dieser Diagrammtyp zur grafischen Darstellung von Häufigkeitsverteilungen nicht zu empfehlen.

263

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

7.3.5 Masszahlen zur Beschreibung der zentralen Tendenz (Mittelwerte) Häufig will man Merkmale miteinander vergleichen. Es interessiert beispielsweise, ob männliche oder weibliche Studierende für die Bearbeitung eines Lernschritts durchschnittlich mehr Zeit aufwenden. Wie in Abbildung 16 ersichtlich ist, sind aus tabellarisch oder grafisch dargestellten Häufigkeitsverteilungen eindeutige Aussagen zu derartigen Fragen nur schwierig oder kaum ablesbar.

Abbildung 16: Über die Schwierigkeit, tabellarische und grafische Verteilungen miteinander zu vergleichen. Anmerkungen: Angabe der Dauer für die Bearbeitung in Stunden (von 0.5 bis 4.0 Stunden) und f % (= frequency percent) als Angabe der relativen Häufigkeit in Prozent

Wie können Daten verdichtet werden, so dass Vergleiche zwischen verschiedenen Merkmalen besser möglich sind? Das Bestreben der deskriptiven Statistik, Beobachtungsdaten knapp und präzise zu charakterisieren, hat zur Entwicklung einer Anzahl von Kennwerten geführt. Diese sollen die Daten möglichst gut repräsentieren und zur Beschreibung der Verteilung verwendet werden können. Dabei werden viele Einzelinformationen zu wenigen, aber aussagekräftige Grössen verdichtet. Zwei Gruppen von Kennwerten können zur Beschreibung von Häufigkeitsverteilungen unterschieden werden (vgl. Abbildung 17): 1. Masse der zentralen Tendenz („Mittelwerte“): Diese ermitteln den „Schwerpunkt“ einer Verteilung. 264

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

2. Masszahlen zur Beschreibung der Streuung: Sie beschreiben, wie dicht die einzelnen Daten beieinander liegen bzw. wie stark sie streuen. Erläuterungen zur Kennzeichnung der Streuung von Merkmalsverteilungen folgen in Kapitel 7.3.6.

Abbildung 17: Charakterisierung von Häufigkeitsverteilungen durch Angabe von Streuungswerten und Massen der zentralen Tendenz. Masszahlen für die Angabe der zentralen Tendenz („Mittelwerte“) Zur Beschreibung der zentralen Tendenz lassen sich verschiedene Kennwerte unterscheiden. Die wichtigsten sind: (1) der arithmetische Mittelwert, (2) der Modus, (3) der Median. Diese Masse der zentralen Tendenz erfassen den durchschnittlichen, den typischen oder den zentralen Ausprägungsgrad einer Verteilung.

Der arithmetische Mittelwert M. Der arithmetische Mittelwert (mean) wird umgangssprachlich auch als Mittelwert oder Durchschnitt bezeichnet. Er wird in wissenschaftlichen Artikeln üblicherweise mit M abgekürzt. - Charakterisierung: Wenn die Daten aus einer Stichprobenerhebung stammen, wird der arithmetische Mittelwert mit (lies „x-quer“) bezeichnet. Die Summe aller Ausprägungswerte wird dabei durch die Anzahl aller Beobachtungen, d.h. die Anzahl aller Messwerte, dividiert. Wenn beispielsweise eine Häufigkeitsverteilung mit den Werten 2, 4, 6 und 6 vorliegt, so

265

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

beträgt der arithmetische Mittelwert M = 4.5 (2 + 4 + 6 + 6 = 18; 18/4 = 4.5). Die mathematische Formel dazu lautet:

wobei:

= der arithmetischer Mittelwert,

= Summe aller Werte

(d.h. x1+ x2+ … +xn) und n = Anzahl Beobachtungen. - Voraussetzungen: Zur Berechnung des arithmetischen Mittelwertes sollte das Merkmal mindestens intervallskaliert sein. In vielen publizierten wissenschaftlichen Artikeln werden arithmetische Mittelwerte jedoch auch berechnet, wenn genau genommen nur ordinalskalierte Merkmale (und nicht intervallskalierte Merkmale) vorliegen. Beispielsweise werden bei RatingSkalen (aus dem Englischen: Rating = Einschätzung) arithmetische Mittelwerte gebildet, auch wenn eine Kontroverse darüber besteht, ob diese als intervallskaliert interpretiert werden können. Beispielsweise wird eine Rating-Skala mit den Ausprägungen „stimmt gar nicht“, „stimmt wenig“, „stimmt teils-teils“, „stimmt ziemlich“ und „stimmt völlig“ als intervallskaliert angesehen und der Mittelwert berechnet, weil angenommen wird, dass die Abstände zwischen zwei aufeinanderfolgenden Ausprägungen immer gleich gross sind (weiterführende Informationen vgl. Bortz & Döring, 2003, S. 180f.). - Eignung: Der arithmetische Mittelwert ist die am häufigsten verwendete Kennzahl. Vor allem für den Vergleich von Gruppen stellt der arithmetische Mittelwert eine wichtige Kennzahl zur Interpretation der Daten dar. - Da der arithmetische Mittelwert im Sinne eines Durchschnittswerts von allen Ausprägungswerten abhängig ist, kann bei kleinen Stichproben, bei schiefen Verteilungen (die Verteilung der Datenwerte weicht von einer symmetrischen Verteilung ab und ist z.B. rechts-schief bzw. links-steil) oder durch einzelne Extremwerte, die für die Verteilung nicht repräsentativ sind, ein verzerrter Eindruck entstehen. Dies ist in folgendem Beispiel der Fall: Es sind folgende Werte gegeben: 5, 5, 6 und 20. Der arithmetische Mittelwert wäre somit M = 9, also deutlich höher als der Wertebereich, in welchem die Mehrheit der Beobachtungen angesiedelt sind.

266

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Der Modalwert Mo. Andere Bezeichnungen für den Modalwert Mo (mode) sind: Modus, häufigster Wert oder dichtester Wert. - Charakterisierung: Der Modalwert Mo ist diejenige Merkmalsausprägung, die am häufigsten vorkommt. Wenn beispielsweise die Häufigkeitsverteilung 3, 4, 4, 4, 4, 5, 5, 6 gegeben ist, so beträgt der Modus Mo = 4. - Voraussetzungen: Der Modalwert Mo kann prinzipiell bei jedem Skalenniveau berechnet werden. - Eignung: Die Angabe des Modus Mo ist dann sinnvoll, wenn eine Häufigkeit die anderen Häufigkeiten dominiert oder die Verteilung in der „Umgebung“ des Modus Mo eine erkennbare Konzentration aufweist. Der Modalwert wird in Untersuchungen jedoch eher selten angegeben, da durch die Angabe des häufigsten Wertes die Daten nur grob charakterisiert werden können. Nützlich ist er vor allem bei nominalskalierten Daten, wenn bezeichnet werden soll, welche Ausprägungs-Kategorie am häufigsten vorgekommen ist. Von einer eigentlichen zentralen Tendenz kann aber kaum gesprochen werden. Der Median Md. Der Median Md (median) wird auch als Zentralwert oder zentraler Wert bezeichnet. - Charakterisierung: Nachdem die Ausprägungsgrade in eine Rangreihe gebracht wurden, d.h. die Ausprägungen vom niedrigsten zum höchsten Wert aufgelistet wurden, kann der Median bestimmt werden: Liegen über einem Wert genau so viele Ausprägungen wie unter diesem Wert, so wird dieser Wert als Median bezeichnet. Dies bedeutet, dass 50 Prozent der Ausprägungen unter dem Median liegen und 50 Prozent der Ausprägungen über dem Median. - Medianbestimmung bei ungerader Anzahl Beobachtungen: Die Berechnung des Medians ist einfach, wenn ein kleiner Datensatz mit einzelnen Ausprägungen eine ungerade Anzahl von Beobachtungen aufweist. Beispiel: 5, 8, 12, 15, 100; Median Md = 12. - Medianbestimmung bei gerader Anzahl Beobachtungen: Bei einer geraden Zahl von wenigen Beobachtungen – sofern sie intervallskaliert sind – berechnet sich der Median als arithmetischer Mittelwert der beiden zentralen Werte der geordneten Datenreihe. Beispiel: Werte: 1, 5, 8, 12, 15, 100; Median Md = (8 + 12) / 2 = 10. Bei ordinalskalierten Daten mit einer geraden Anzahl von Beobachtungen ist es nicht möglich, die Werte der beiden mittleren Fälle zu halbieren wie bei intervallskalierten Daten. Man beschränkt sich deshalb darauf anzugeben, zwischen welche zwei Beobachtungen der Median zu liegen kommt.

267

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

- Wenn bei grösseren Datensätzen und intervallskalierten Merkmalen jedoch Ausprägungen mehrfach vorkommen, so wird der Median Md mit einer linearen Interpolation entweder manuell oder mit einer Statistiksoftware näherungsweise bestimmt und entspricht damit keinem tatsächlich beobachteten Ausprägungsgrad, sondern einem Wert zwischen zwei Ausprägungen. - Voraussetzungen: Da zur Bestimmung des Medians die Ausprägungswerte in eine Rangordnung gebracht werden müssen, kann der Median Md nur bestimmt werden, wenn das Merkmal mindestens ordinalskaliert ist. - Eignung: Im Gegensatz zum arithmetischen Mittel wirken sich einzelne extrem hohe oder extrem niedrige Ausprägungsgrade (Ausreisser oder Extremwerte) nicht auf den Median aus. Wenn beispielsweise die Werte 5, 8, 12, 15 und 100 vorliegen, dürfte die Angabe des Medians Md geeigneter sein, d.h. die Werte besser charakterisieren, als die Angabe des arithmetischen Mittelwerts M (Md = 12; M = 26). Auf den Median hat es somit keinen Einfluss, ob einzelne Werte weit oberhalb oder unterhalb des Medians Md liegen. Dies bedeutet, dass der Median Md vor allem dann besonders nützlich ist, wenn stark asymmetrische (schiefe) Verteilungen oder Verteilungen mit einigen wenigen Extremwerten beschrieben werden sollen. Die drei Kennwerte zur zentralen Tendenz (arithmetischer Mittelwert, Modus und Median) des Datensatzes von Abbildung 16 (S. 264) sind in Tabelle 29 dargestellt. Tabelle 29: Vergleich der Kennwerte zur Beschreibung der zentralen Tendenz zu „Bearbeitungsdauer in Stunden“ von Abbildung 16 Kennwerte Arithmetischer Mittelwert M Modus Mo Median Md

Studentinnen 2.17 2.50 1.75

Studenten 1.84 1.50 2.00

7.3.6 Masszahlen zur Beschreibung der Streuung Mit der Beschreibung der zentralen Tendenz (arithmetischer Mittelwert, Median oder Modus) ist eine Verteilung hinsichtlich ihres „Schwerpunktes“ genauer charakterisiert worden. Zur genaueren Beschreibung einer Verteilung ist jedoch ein zweiter Aspekt erforderlich: Es braucht Angaben zur Streuung der Ausprägungen bzw. zur Homogenität/Heterogenität der Ausprägungen.

268

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Masszahlen zur Beschreibung der Streuung (Dispersionsmasse). Mit den Dispersionsmassen sollen die in einer Untersuchung festgestellten Unterschiede angemessen beschrieben und quantifiziert werden. Folgende Masszahlen informieren u.a. über die Unterschiedlichkeit von Werten: Die Variabilität V, die Standardabweichung s und die Varianz s2.

Werden Studentinnen und Studenten nach der Bearbeitungsdauer für einen bestimmten Lernschritt befragt, so zeigt die Auswertung, dass sich die beiden Gruppen hinsichtlich der zentralen Tendenz unterscheiden (s. Tabelle 29, S. 268). Es stellt sich nun die Frage, ob sich die Merkmalsverteilungen innerhalb der beiden Gruppen auch hinsichtlich der Streuung unterscheiden. In Abbildung 18 ist dies angedeutet.

Abbildung 18: Vergleich zweier Häufigkeitsverteilungen zur Bearbeitungsdauer eines Online-Lernschritts zwischen Studentinnen (M = 2.17) und Studenten (M = 1.84). Anmerkungen: Angabe der Dauer für die Bearbeitung in Stunden (von 0.5 bis 4.0 Stunden) und f % (= frequency percent): Angabe der relativen Häufigkeit in Prozent

Die Streuung von Beobachtungswerten kann mit verschiedenen Kennwerten beschrieben werden. Die Wichtigsten sind: die Variabilität V sowie die Standardabweichung s und die Varianz s2. Die Variabilität V. Die Variabilität V (range) wird auch Spannweite oder Variationsbreite genannt. - Charakterisierung und Voraussetzungen: Bei intervallskalierten Merkmalen entspricht die Variabilität der Differenz zwischen dem grössten und

269

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

dem kleinsten beobachteten Merkmalswert: Im Beispiel aus Abbildung 16 weisen die Studentinnen als niedrigsten Wert 0.5 Stunden Bearbeitungsdauer auf und als höchsten Wert zeigt die Verteilung 3.5 Stunden an. Die Variabilität ist somit V = 3.0 Stunden (3.5 – 0.5 = 3.0). Bei ordinalskalierten Merkmalen kann die Variabilität ermittelt werden, indem nicht die Differenz, sondern die Spannweite durch die Nennung des grössten und kleinsten Merkmalswertes angegeben wird (im obigen Beispiel: Die Testwerte streuen bei Studentinnen zwischen 0.5 Stunden und 3.5 Stunden). - Eignung: Die Spannweite kann einfach und rasch berechnet werden. Sie kann jedoch durch das Vorhandensein von einzelnen Extremwerten, die für die Verteilung nicht repräsentativ sind, leicht verzerrt werden. Beispielsweise seien folgende Werte einer Verteilung gegeben: 23, 66, 67, 72, 74, 76, 77, 77, 79, 80. Die Spannweite liegt somit zwischen 23 und 80. Einzelne Extremwerte an den beiden Enden einer Datenreihe (im Beispiel: 23) können die Spannweite erheblich vergrößern und mehr Variabilität suggerieren als tatsächlich vorhanden ist (90% der Werte liegen in Wahrheit zwischen den Werten 66 bis 80). Die Variabilität gibt somit lediglich die Breite des Streubereichs an und beschreibt nicht, wie die einzelnen Beobachtungen in diesem Bereich streuen. Die Standardabweichung s (und Varianz s2). Die Standardabweichung s wird in empirischen wissenschaftlichen Artikeln mit SD (standard deviation) abgekürzt. Üblicherweise wird zum arithmetischen Mittelwert M immer die Standardabweichung SD angegeben. Charakterisierung: Mit der Standardabweichung soll die „mittlere Abweichung“ der einzelnen Merkmalsausprägungen vom arithmetischen Mittelwert aller Merkmalsausprägungen ermittelt werden. Dies bedeutet, dass von sämtlichen beobachteten Ausprägungen die Differenz zum Mittelwert berechnet wird. Dies drückt sich in der Formel zur Berechnung der Standardabweichung aus:

wobei: wert, -

die Abweichungen der Ausprägungen vom arithmetischen Mitteldie Summe der quadrierten Abweichungen der Ausprägungen

vom arithmetischen Mittelwert, - n die Anzahl Beobachtungen bezeichnen.

270

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Beziehung zwischen der Standardabweichung s und der Varianz s2. Ein anderes Mass hängt mit der Standardabweichung eng zusammen: Die Varianz s2. Wird bei der oben stehenden Formel zur Berechnung der Standardabweichung die Quadratwurzel nicht berechnet, so wird diese Masszahl Varianz s2 genannt. Die Formel zur Berechnung lautet somit:

Die Varianz s2 entspricht somit der Summe der quadrierten Abweichungen der Merkmalswerte vom arithmetischen Mittelwert, dividiert durch die Anzahl der Beobachtungen. Die Varianz wird in empirischen wissenschaftlichen Artikeln kaum eingesetzt, um Aussagen zur Streuung zu machen. In der schliessenden Statistik (prüf- und entscheidungsstatistische Verfahren) haben jedoch die Varianz s2 bzw. die Standardabweichung s eine herausragende Bedeutung (vgl. Kapitel 7.5 „Prüfstatistik“). - Voraussetzungen: Das Merkmal muss mindestens intervallskaliert sein, da die Abstände zwischen den Merkmalsausprägungen und dem arithmetischen Mittelwert berechnet werden müssen. - Eignung: Die Standardabweichung s wird als sinnvolles Mass zur Beschreibung der Variabilität angesehen, wenn die Daten näherungsweise symmetrisch und eingipflig sind, d.h. in der Verteilung nicht mehrere „Wertemaxima“ auftreten. In der beschreibenden Statistik haben die Standardabweichung s und die Varianz s2 wegen ihrer geringen Anschaulichkeit und der Schwierigkeit, diese Masszahlen zu interpretieren, keine so grosse Bedeutung. Es sei denn, man möchte – wie im Folgenden dargestellt – die Häufigkeitsverteilungen zweier oder mehrerer Stichproben miteinander vergleichen (vgl. Abbildung 18, S. 269): Bei der Bearbeitungsdauer weisen die Studentinnen eine grössere Standardabweichung (SD = 0.61) als die Studenten (SD = 0.54) auf. Die Studentinnen bilden somit eine heterogenere Gruppe als die Studenten, da die „Abweichung“ der Ausprägungen vom arithmetischen Mittelwert bei den Studentinnen höher ist. Ohne die Angabe der Streuung (Standardabweichung) wäre die Beschreibung der Verteilungen der beiden Gruppen nur unvollständig. Bei normalverteilten Daten liegen zwischen den Grenzen „ “ und „ “ 68,3 % aller Beobachtungen; zwischen den Grenzen „ “ und „ “ 95.5 % aller Beobachtungen. Dies ist in Abbildung 19 veranschaulicht.

271

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Abbildung 19: Darstellung des Zusammenhangs zwischen dem arithmetischen Mittelwert „ “ und „ – s“ und „ + s“. Dies soll mit einem Beispiel verdeutlicht werden: Angenommen wird, dass in Abbildung 18 (S. 269) der arithmetische Mittelwert M = 50 und die Standardabweichung SD = 15 gegeben sei und dass näherungsweise normalverteilte Ausprägungen vorliegen, was in Abbildung 18 der Fall ist. Wird vom Mittelwert die Standardabweichung subtrahiert (50 – 15 = 35) bzw. addiert (50 + 15 = 65), so bedeutet dies, dass bei normalverteilten Daten 68.3% aller Werte zwischen 35 und 65 liegen; 95.5 % aller Werte liegen zwischen 20 und 80 (50 – 30 = 20, 50 + 30 = 80). Zum in Abbildung 18 dargestellten Datensatz sind die Kennwerte zur Beschreibung der Streuung in nachfolgender Tabelle 30 aufgeführt.

272

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Tabelle 30: Vergleich der Kennwerte zur Beschreibung der Streuung zum Fallbeispiel von Abbildung 18 Kennwerte Variabilität V (Spannweite) Standardabweichung s Varianz s2 Interpretation von „ “ und „ “

Studentinnen 3.00 0.61 0.37 Rund zwei Drittel der Studentinnen (68.3%) brauchten für die Bearbeitung des Lernschritts zwischen 1.56 Stunden und 2.78 Stunden.

Studenten 2.00 0.54 0.30 Rund zwei Drittel der Studenten (68.3%) brauchten für die Bearbeitung des Lernschritts zwischen 1.30 Stunden und 2.38 Stunden.

Weiterführende Literatur Atteslander, P. (2008). Methoden der empirischen Sozialforschung. Berlin: Erich Schmidt Verlag. Benninghaus, H. (2007). Deskriptive Statistik. Eine Einführung für Sozialwissenschaftler. Wiesbaden: VS Verlag für Sozialwissenschaften. Bortz, J. (2005). Statistik für Human- und Sozialwissenschaftler. Heidelberg: Springer.

7.4 Statistische Auswertungen: Deskriptive Statistik, Teil II – Beziehungen zwischen zwei Merkmalen Verfahren zur Analyse von Zusammenhängen zwischen zwei Merkmalen (Variablen) spielen in den Bildungs- und Sozialwissenschaften eine grosse Rolle. Fragestellungen, die eine solche bivariate Betrachtung (gleichzeitige Betrachtung von zwei Variablen) erfordern, sind z.B.: - Hängt der Erziehungsstil von Eltern mit Persönlichkeitsmerkmalen ihrer Kinder zusammen? - Besteht zwischen der Punktzahl im Aufnahmetest und dem späteren Studienerfolg (Gesamtpunktzahl in allen Fächern nach dem ersten Ausbildungsjahr) ein Zusammenhang? - Besteht zwischen der Art des Studierens (Vor- und Nachbereitung von Vorlesungen, Mitglied einer Lerngruppe, Einsatz von Lernstrategien etc.) und dem Prüfungserfolg ein Zusammenhang? Zusammenhänge gibt es auch in den Naturwissenschaften und der Mathematik. Beispielsweise lassen sich Gesetze der klassischen Physik anhand mathematischer Funktionen beschreiben. Zusammenhänge, die anhand mathe-

273

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

matischer Funktionen exakt beschrieben werden können, nennt man deterministische Zusammenhänge. Solche Zusammenhänge gibt es in den Bildungsund Sozialwissenschaften praktisch nie. Man spricht in diesem Fall von stochastischen (zufallsabhängigen) Zusammenhängen. Beispielsweise kann man aufgrund der Art des Studierens nicht exakt und fehlerfrei den Prüfungserfolg eines Studenten/einer Studentin voraussagen, auch wenn zwischen der „Art des Studierens“ und dem „Prüfungserfolg“ ein gewisser Zusammenhang bestehen dürfte. Viele andere Faktoren wie beispielsweise die „Müdigkeit“, die „Motivation“ oder die „Art der Prüfung“ beeinflussen ebenfalls den „Prüfungserfolg“. Korrelation, Assoziation oder Kontingenz Während man im Alltag von Beziehung, Zusammenhang, Übereinstimmung oder Verbindung spricht, braucht der Statistiker bzw. die Statistikerin dafür die Begriffe Korrelation, Assoziation oder Kontingenz. Gewisse Autoren und Autorinnen sprechen bei der Analyse der Beziehung zweier Variablen - von Kontingenzen, wenn die beiden Variablen nominalskaliert sind, - von Assoziationen, wenn sie ordinalskaliert sind, - von Korrelationen, wenn sie metrisch, d.h. intervall- oder verhältnisskaliert sind. In der Forschungspraxis wird diese Terminologie jedoch nicht immer eingehalten. Die Stärke der Beziehung kann mit einer Masszahl ausgedrückt werden: Dem Korrelationskoeffizienten bzw. dem Assoziations- oder Kontingenzmass. Die Wahl der Prozedur für die Berechnung des Korrelationskoeffizienten bzw. des Assoziations- oder Kontingenzmasses hängt vom Messniveau der Variablen ab. Je nach Skalenniveau werden unterschiedliche Prozeduren zur Berechnung des Korrelationskoeffizienten gewählt.

Die verschiedenen Möglichkeiten zur Darstellung der Beziehung zwischen zwei Variablen. Beziehungen zwischen zwei Variablen können tabellarisch und grafisch dargestellt werden. Darauf wird in den folgenden beiden Kapiteln eingegangen (Kap. 7.4.1 und Kap. 7.4.2). Es sei vorweggenommen, dass damit zwar ein Eindruck von der Beziehung zwischen zwei Variablen gewonnen werden kann, aber … - sobald eine Tabelle über viele Zellen verfügt, ist es schwierig, überhaupt eine Beziehung zwischen zwei Variablen zu erkennen, - ein aus einer grafischen Darstellung entnommener Zusammenhang gründet auf einer subjektiven, nicht standardisierten Betrachtung und ist – wenn man die Abbildung weglässt – nur schwer beschreibbar. Das Bestreben der deskriptiven Statistik, Beobachtungen zu charakterisieren, hat zur Entwicklung einer Anzahl von Masszahlen und statistischer Verfahren geführt, mit der eine Beziehung zwischen zwei Merkmalen gekennzeichnet werden kann:

274

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

- Die Regressionsanalyse hat die Aufgabe, die Art eines statistischen Zusammenhangs zusammenfassend zu beschreiben. - Bei der Korrelation wird die Stärke des Zusammenhangs mit einem einzigen Zahlwert ausgedrückt. In Kap. 7.4.3 bis Kap. 7.4.6 werden Möglichkeiten aufgezeigt, wie die Beziehung zwischen zwei Merkmalen numerisch charakterisiert und interpretiert werden kann. Das folgende Fallbeispiel dient der Illustration der weiteren Ausführungen. Fallbeispiel einer Untersuchung zur Fragestellung, ob zwischen autoritativem Erziehungsstil von Eltern und Persönlichkeitsmerkmalen ihrer Kinder ein Zusammenhang besteht. Problemstellung: Ein autoritativer Erziehungsstil ist u.a. gekennzeichnet durch „Anregung zu Selbständigkeit und Eigenaktivität“, häufiger „Äusserung von Sympathie und Lob“ und „Unterstützung und Hilfe bei Problemen“. Es interessiert nun, ob ein solcher autoritativer Erziehungsstil von Eltern mit Persönlichkeitsmerkmalen ihrer Kinder zusammenhängt. Es wird erwartet, dass zwischen dem Erziehungsstil der Eltern und gewissen Persönlichkeitsmerkmalen ihrer Kinder ein Zusammenhang besteht. Fragestellung: Besteht zwischen einem autoritativen Erziehungsstil von Eltern und Persönlichkeitsmerkmalen ihrer Kinder ein Zusammenhang? Vorgehen: 50 bis 100 Eltern sollen einen Fragebogen ausfüllen, welcher Fragen zur autoritativen Erziehung und zu Persönlichkeitsmerkmalen ihrer Kinder enthält. Einschätzung des autoritativen Erziehungsstils der Eltern: Die Eltern müssen anhand von 15 auf sie bezogenen Aussagen einschätzen, inwieweit sie einen autoritativen Erziehungsstil pflegen. Dabei werden den Eltern jeweils vier Antwortmöglichkeiten geboten: Von „trifft gar nicht zu“ bis „trifft sehr zu“ (für die Auswertung wurden diesen Antwortausprägungen die Werte „1“ bis „4“ zugewiesen). Der Summenwert aller 15 Aussagen sagt aus, ob die Eltern einen autoritativen Erziehungsstil pflegen (geringst möglicher Ausprägungsgrad = 15, höchstmöglicher Ausprägungsgrad = 60). Einschätzung der Eltern zu verschiedenen Persönlichkeitsmerkmalen ihrer Kinder: Die Persönlichkeitsmerkmale der Kinder werden erfasst, indem Eltern die Persönlichkeit ihrer Kinder anhand einer Kurzversion des Fragebogens NEO-FFI (Costa & McCrae, 1992), welcher aus 30 zu beurteilenden Aussagen besteht, einschätzen. Dieser Fragebogen erfasst fünf Dimensionen der Persönlichkeit: - Neurotizismus bezeichnet die emotionale Stabilität vs. Labilität von Personen. - Extraversion erfasst, wie stark Personen u.a. als gesellig, selbstsicher und aktiv beschrieben werden können. - Offenheit für Erfahrungen erfasst, wie stark Personen ein Interesse an neuen Erfahrungen, Erlebnissen und Eindrücken besitzen. - Gewissenhaftigkeit erfasst, ob Personen eine hohe Impuls- sowie Selbstkontrolle aufweisen. - Verträglichkeit misst die altruistische (im Gegensatz zum Egoismus stehende Rücksichtsnahme auf andere) Verhaltenstendenz sowie das Harmoniebedürfnis von Personen.

275

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Für jede der fünf Dimensionen wurde ein Summenwert gebildet, in dem die Werte der jeweiligen 6 Aussagen addiert wurden (Summenwert einer Dimensionen im Minimum: 6mal die Ausprägung „0“ = 0; Summenwert einer Dimension im Maximum: 6mal die Ausprägung „4“ = 24).

7.4.1 Tabellarische Darstellung der Beziehungen zwischen zwei Variablen mittels Kreuztabellen Kreuztabellen werden auch als Mehrfeldertafeln, Kontingenztabellen (contingency table) oder Kontingenztafeln bezeichnet. Unter Kontingenz wird die Häufigkeit des gemeinsamen Auftretens zweier nominalskalierter (oder kategorialer) Variablen verstanden. Kreuztabelle (Kontingenztabellen, Kontingenztafeln) In Kreuztabellen werden die gemeinsamen Häufigkeitsverteilungen zweier nominal- oder ordinalskalierter Merkmale dargestellt. Auch metrische Merkmale werden manchmal zu Überblickszwecken mittels Kreuztabellen dargestellt.

Charakterisierung. Kreuztabellen dienen dazu, die Häufigkeitsverteilungen zweier Variablen (oder bei multivariaten Auswertungen mehrerer Variablen) tabellarisch darzustellen. In Tabelle 31 ist eine der möglichen Kreuztabellen zum Fallbeispiel aufgeführt: Der Zusammenhang zwischen dem Merkmal autoritativer Erziehungsstil der Eltern und dem Persönlichkeitsmerkmal Verträglichkeit ihrer Kinder. Voraussetzungen und Eignung. Kreuztabellen können grundsätzlich bei Merkmalen aller Skalenniveaus angewendet werden. Am ehesten werden sie jedoch bei nominal- und allenfalls ordinalskalierten Merkmalen eingesetzt. Bei intervall- (aber auch ordinal-) skalierten Daten kann eine Kreuztabelle aufgrund der zumeist vielen Ausprägungen schnell unübersichtlich werden. Bei Darstellung von intervall- und ordinalskalierten Daten in einer Kreuztabelle wird deshalb eine Kategorisierung der Daten häufig unumgänglich sein, da sonst zu viele Zellen entstehen würden und damit allfällige Zusammenhänge zwischen den Ausprägungen zweier Merkmale kaum mehr ersichtlich wären. Auch im Fallbeispiel wurden deshalb die Ausprägungen kategorisiert (vgl. Tabelle 31): Die Kategorienbreite wurde bei autoritativem Erziehungsstil mit „9“ gewählt, bei Verträglichkeit mit „4“ (mehr Informationen zur Kategorisierung von Ausprägungen: vgl. Kap. 7.3.3).

276

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Tabelle 31: Beispiel einer Kreuztabelle zu autoritativem Erziehungsstil der Eltern und dem Persönlichkeitsmerkmal Verträglichkeit ihrer Kinder (n=54) Autoritativer Verträglichkeit (relative Häufigkeit in %) Zeilensumme Erziehungsstil ≤4 5–8 9–12 13–16 17–20 21–24 (absolute der Eltern Häufigkeiten) ≤ 24 0 0 0 0 0 0 0 25–33 0 1.9 3.7 13.0 5.6 0 13 34–42 0 0 3.7 20.4 44.4 0 37 43–51 0 0 0 3.7 3.7 0 4 52–60 0 0 0 0 0 0 0 Anmerkung: - Dimension Verträglichkeit: geringst möglicher Ausprägungsgrad = 0, höchst möglicher Ausprägungsgrad = 24. - Merkmal autoritativer Erziehungsstil: geringst möglicher Ausprägungsgrad = 15, höchst möglicher Ausprägungsgrad = 60.

Obwohl die Übersichtlichkeit durch die Kategorisierung erhöht wurde, sind aus der Kreuztabelle im Fallbeispiel die Zusammenhänge nur schwer erkennbar. Es fällt jedoch bei genauerer Betrachtung auf, dass niedrige Werte in autoritativem Erziehungsstil der Eltern eher mit niedrigen Werten in Verträglichkeit einherzugehen scheinen, höhere Werte in autoritativem Erziehungsstil der Eltern eher mit höheren Werten in Verträglichkeit. 7.4.2 Grafische Darstellung der Beziehungen zwischen zwei Variablen mittels Streudiagrammen Charakterisierung. Beim Streudiagramm (scatterplot) werden die für die einzelnen Personen registrierten Kombinationen von zwei Merkmalsausprägungen (Wertepaare) in ein kartesisches Koordinatensystem eingetragen. In Abbildung 20 sind die in Tabelle 31 aufgeführten Daten der Kreuztabelle mittels Streudiagramm grafisch dargestellt. Die Zusammenhänge zwischen den beiden Merkmalen sind in diesem Streudiagramm auf einen Blick erkennbar: Niedrige Werte in autoritativem Erziehungsstil der Eltern gehen eher mit niedrigen Werten in Verträglichkeit ihrer Kinder einher, höhere Werte in autoritativem Erziehungsstil der Eltern mit eher höheren Werten in Verträglichkeit ihrer Kinder. Es ist jedoch schwierig, über die Stärke des Zusammenhangs weitergehende Aussagen zu machen.

277

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Abbildung 20: Beispiel eines Streudiagramms zu autoritativem Erziehungsstil der Eltern und dem Persönlichkeitsmerkmal Verträglichkeit ihrer Kinder (n = 54). Anmerkungen: Dimension „Verträglichkeit“: geringst möglicher Ausprägungsgrad = 0, höchst möglicher Ausprägungsgrad = 24; Dimension „autoritativer Erziehungsstil“: geringst möglicher Ausprägungsgrad = 15, höchst möglicher Ausprägungsgrad = 60

Wenn in einem Streudiagramm gewisse Wertepaare mehrfach vorkommen, überlagern sich die Beobachtungen. Solche Überlagerungen sollen – wenn dies die Grafik-Software ermöglicht – in der Abbildung zum Ausdruck gebracht werden: Wenn Wertepaare mehrfach vorliegen, wird eine Symbolik gewählt, die sichtbar macht, wie häufig ein Wertepaar vorkommt (z.B. durch Angabe der Farbintensität oder Grösse der Datenpunkte). Im Streudiagramm aus Abbildung 20 sind Überlagerungen nicht ersichtlich, d.h. es ist nicht sichtbar, dass sich z.B. bei einem Datenpunkt drei Wertepaare überlagern. Voraussetzungen und Eignung. Die Darstellung von Wertepaaren in einem Streudiagramm ist sinnvoll, wenn intervall- oder ordinalskalierte Merkmale vorliegen. Streudiagramme sind nützlich, um Extremwerte (Ausreisser) zu identifizieren. Dies wäre beispielsweise der Fall, wenn in Abbildung 20 ein Wertepaar mit den Ausprägungen in Verträglichkeit = 3 und in autoritativem Erziehungsstil = 45 vorkommen würde. Zudem können Streudiagramme erste Hinweise dazu liefern, ob ein Zusammenhang linear oder nicht-linear ist.

278

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Prüfung, ob eine lineare oder nicht-lineare Beziehung vorliegt. Wenn zwischen zwei Merkmalen ein Zusammenhang besteht, kann die Beziehung linear oder nicht-linear (nonlinear) sein. Lineare Beziehung Eine Beziehung ist linear, wenn auf die Veränderung eines Parameters (x-Wert) stets eine dazu proportionale Änderung eines anderen Parameters (y-Wert) erfolgt.

Verschiedene nicht-lineare Beziehungen können unterschieden werden: z.B. exponentielle, parabolische, kubische oder logarithmische Beziehungen. In Abbildung 21 (S. 280) sind verschiedene Beziehungen dargestellt. Sollen lineare oder nicht-lineare Zusammenhänge numerisch charakterisiert werden, so bieten sich je nach Art der Beziehung unterschiedliche Verfahren der Berechnung an. Im Folgenden wird nur auf lineare Modelle näher eingegangen, da lineare Beziehungen einerseits den einfachsten und andererseits den am häufigsten auftretenden Anwendungsfall darstellen. Es soll betont werden, dass Verfahren zur Berechnung von linearen Beziehungen nicht angewendet werden sollen, ohne vorher zu prüfen, ob die Annahme eines Modells der linearen Beziehung überhaupt angebracht ist. Die visuelle Darstellung der Wertepaare mittels eines Streudiagramms kann erste Hinweise liefern, ob eine Beziehung linear bzw. non-linear ist. Wird das falsche Modell gewählt, so können zwischen zwei Merkmalen enttäuschend niedrige Zusammenhänge resultieren (anstatt stärkere Zusammenhänge bei Wahl eines anderen Modells). 7.4.3 Zusammenfassende Beschreibung der „Art“ eines Zusammenhangs: Die Regressionsanalyse Eine Vorbemerkung: Im Folgenden wird nur auf die lineare Regressionsanalyse näher eingegangen. Für die Ermittlung nicht-linearer Funktionskurven konsultiere man entsprechende Fachliteratur (z.B. Bortz, 2004, dort Kap. 6.1.3). Wenn ein Merkmal mit einem anderen zusammenhängt, kann der Ausprägungsgrad des einen Merkmals zur Vorhersage des anderen eingesetzt werden: Wie soll beispielsweise eine Institution Studierende auslesen, wenn sich für einen bestimmten Studiengang mehr Studierende anmelden als ausgewählt werden können? Eine Möglichkeit besteht darin, nur solchen Personen den Zugang zum Studium zu ermöglichen, welche das Studium (möglichst) erfolgreich absolvieren dürften. Ein Aufnahmetest könnte deshalb zukünftig erfolgreiche von weniger erfolgreichen Studierenden identifizieren helfen.

279

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Abbildung 21: Darstellung linearer und nicht-linearer Beziehungen zwischen zwei Merkmalen mittels Streudiagramm. Mit Zusammenhangsanalysen (vgl. Kap. 7.4.4) kann in einem ersten Schritt überprüft werden, ob zwischen dem Aufnahmetest und dem Studienerfolg (= Gesamtpunktzahl in allen Fächern nach dem ersten Studienjahr) überhaupt ein Zusammenhang besteht und wie hoch dieser ausfällt. Wenn zwischen Aufnahmetest und Studienerfolg ein hoher Zusammenhang besteht, dann liegen aufgrund des Aufnahmetests Informationen vor, um geeignete Studierende auslesen zu können.

280

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Regressionsanalyse Mit der Regressionsanalyse kann durch die mathematische Verknüpfung von zwei Merkmalen der Ausprägungsgrad des einen Merkmals zur Vorhersage des anderen eingesetzt werden. Aufgrund der „Punktzahl im Aufnahmetest“ lässt sich berechnen, wie viele „Punkte in allen Fächern nach dem ersten Studienjahr“ zu erwarten sind. Dabei wird üblicherweise unterschieden zwischen Prädiktorvariable (die zur Vorhersage eingesetzt wird) und Kriteriumsvariable (die vorhergesagt werden soll).

Wenn beispielsweise eine Studentin im Aufnahmetest 100 Punkte erreicht, so könnte die Regressionsanalyse ergeben, dass bei dieser Studentin nach dem ersten Studienjahr eine Gesamtpunktzahl aus allen Fächern von 150 Punkten erwartet werden kann. Erreicht ein Student im Aufnahmetest 50 Punkte, so wird bei diesem Studenten aufgrund der Regressionsrechnung nach dem ersten Studienjahr eine Gesamtpunktzahl von 125 prognostiziert. Andere Beispiele, bei welchen Regressionsanalysen eingesetzt werden können: - Welches Körpergewicht ist bei einzelnen Personen aufgrund der Körpergrösse zu erwarten? - Welche Schlafdauer kann aufgrund einer bestimmten Dosis eines Schlafmittels vorhergesagt werden? In diesem Kapitel wird jeweils von einer unabhängigen Variablen (wie z.B. Aufnahmetest) ausgegangen, man spricht dabei auch von Einfachregression. Um genauere Aussagen zu ermöglichen, könnte nicht nur diese eine Variable Aufnahmetest, sondern auch noch andere Variablen wie letzte Zeugnisnoten, Ergebnisse eines Interviews, eine Selbstbeurteilung der Studierenden etc. berücksichtigt werden, um den Studienerfolg besser voraussagen zu können. Wenn mehrere unabhängige Variablen berücksichtigt werden, spricht man von multipler Regression, d.h. die Ausprägung eines bestimmten Merkmals wird durch mehrere Variablen zu erklären versucht. Annahme einer deterministischen Beziehung zwischen zwei Variablen. Um die Regression besser verstehen zu können, soll zuerst vom einfacheren Fall einer deterministischen Beziehung ausgegangen werden. Eine deterministische lineare Beziehung zwischen zwei Variablen kann durch folgende Gleichung beschrieben werden (vgl. auch Abbildung 22, S. 282):

y = a + b⋅ x



281

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Es bedeuten: y = Werte auf der Y-Achse (abhängige Variable), x = Werte auf der X-Achse (unabhängige Variable), a = die Höhenlage (d.h. der Schnittpunkt der Geraden mit der y-Achse), b = Steigung der Geraden.

Abbildung 22: Eine deterministische Beziehung zwischen zwei metrischen Variablen. Man bezeichnet „a“ und „b“ als Regressionskoeffizienten. Aus Abbildung 22 ist ersichtlich, dass zwischen den beiden Merkmalen folgende lineare Beziehung besteht, d.h. alle Punkte liegen auf der Geraden: y =100 + 0.5 ⋅ x

wobei Höhenlage a = 100, Steigung der Geraden b = 0.5. Wenn x bekannt ist, kann y eindeutig vorausgesagt werden. Dies soll am € eingangs erwähnten Beispiel nun erläutert werden:

282

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Der Einfachheit halber wird angenommen, dass zwischen „Aufnahmetest“ (x) und „Studienerfolg“ (y) eine deterministische Beziehung besteht, welche durch die Gleichung ausgedrückt werden kann. Erreicht nun eine Person im Aufnahmetest“ beispielsweise x = 100 Punkte, so wird sie aufgrund der Berechnung als „Gesamtpunktzahl aller Fächer nach dem ersten Jahr“ y = 150 Punkte erreichen ( y =100 + 0.5 ⋅100 ). Natürlich gibt es keine solche deterministische Beziehung zwischen den zwei Variablen, deshalb wird im nächsten Abschnitt auf den „realistischen“ Fall einer stochastischen Beziehung eingegangen. € Die stochastische (zufallsabhängige) Beziehung zwischen zwei Variablen. Es wurde bereits darauf hingewiesen, dass in den Sozialwissenschaften zwischen zwei Merkmalen fast immer ein stochastischer Zusammenhang besteht und somit vom Ausprägungsgrad des einen Merkmals nicht exakt und fehlerfrei auf den Ausprägungsgrad des anderen Merkmals geschlossen werden kann. Die Punkte werden in diesem Fall nicht mehr alle auf der Geraden liegen, sondern sie werden mehr oder weniger von der Geraden abweichen, d.h. es entsteht ein sogenannter Punkteschwarm, wie in Abbildung 23 (S. 284) dargestellt. Im erwähnten Beispiel dürften zusätzlich viele andere Faktoren dafür mit verantwortlich sein, dass ausgehend von den erreichten Punktzahlen im Aufnahmetest der „Studienerfolg“ nicht exakt vorausgesagt werden kann. „Abweichungen“ sind z.B. zurückzuführen auf „Tagesform“, „Ermüdungseffekte“, „Prüfungsangst“, „Engagement im ersten Studienjahr“, „investierte Lernzeit“, „Lernstrategien“ usw. Es stellt sich nun die Frage, wie der Gesamttrend aller dieser Punkte im Punkteschwarm am besten wiedergegeben werden kann. Dazu dient die Regressionsrechnung: Mit ihr soll diejenige Gerade ermittelt werden, die den Gesamttrend aller Punkte am besten wiedergibt. Dazu wird eine Gerade (die so genannte Regressionsgerade) so in den Punkteschwarm gelegt, dass die Abweichungen der Punkte in y-Richtung möglichst klein sind (vgl. Abbildung 23). Regressionsgerade Als Regressionsgerade wird diejenige Gerade bezeichnet, welche die Summe der quadrierten Abweichungen der Punkte von der Geraden minimiert. Diese Methode wird Summe-FehlerQuadrat-(SFQ-)Methode oder die Kleinste-Quadrat-Methode (least square method) genannt.

283

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Abbildung 23: Punkteschwarm mit Regressionsgerade und Abweichungen der Punkte in y-Richtung. Mathematische Grundlagen. In Tabelle 32 (S. 285) sind die mathematische Beschreibung der Regressionsgeraden und die Formeln zur Berechnung der Regressionskoeffizienten a und b aufgeführt. Durch die mathematische Beschreibung der Regressionsfunktion ist es nun möglich zu berechnen, welcher y-Wert auf Grund eines x-Wertes zu erwarten ist. Im erwähnten Beispiel von „Aufnahmetest“ (x) und „Studienerfolg“ (y) kann folgende Frage gestellt werden: Welche Gesamtpunktzahl kann für eine Person, die im Aufnahmetest 100 Punkte erreicht hat, prognostiziert werden? Durch die Berechnung wird – ausgehend vom Resultat im Aufnahmetest – für den „Studienerfolg“ eine Gesamtpunktzahl von 150 erwartet (wenn a = 100 und b = 0.5): ,

284

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Tabelle 32: Mathematische Beschreibung der Regressionsgeraden und Formeln zur Berechnung der Regressionskoeffizienten Mathematische Beschreibung der Regressionsgeraden: x, : Koordinaten der Punkte auf der Geraden, wobei die -Werte nicht aus den tatsächlich beobachteten y-Werten, sondern aus den aufgrund der angenommenen Regressionsgeraden vorhergesagten y-Werten (eben die -Werte) bestehen. a: Konstante, die angibt, wo die Gerade die y-Achse schneidet. b: Konstante, welche die Richtung der Gerade beschreibt. Formeln zur Berechnung der Regressionskoeffizienten a (Höhenlage) und b (Steigung): = arithmetische Mittelwerte der in Abszissen- resp. Ordinatenrichtung aufgetragenen Merkmalsausprägungen. xi, yi = Koordinaten eines bestimmten Punktes i im Streudiagramm. n = Anzahl Punkte im Streudiagramm. a: Konstante, die angibt, wo die Gerade die y-Achse schneidet. b: Konstante, welche die Richtung der Gerade beschreibt.

Es ist einsichtig, dass solche Prognosen die Realität nicht unbedingt treffend einschätzen und damit nicht sinnvoll sein können. Eine Prognose wird umso besser und treffender sein, je mehr Datenpunkte im Punkteschwarm vorhanden sind und je näher sich diese beobachteten Datenpunkte an der Regressionsgeraden befinden (d.h. je höher die Korrelation ist; vgl. dazu das nächste Kapitel). 7.4.4 Beschreibung der „Stärke“ eines Zusammenhangs zwischen zwei intervallskalierten Variablen: Die Produkt-Moment-Korrelation Während sich die Regressionsanalyse mit der Beschreibung der „Art“ des statistischen Zusammenhangs beschäftigt, beschäftigt sich die Korrelationsanalyse oder Zusammenhangsanalyse mit der Quantifizierung der Stärke eines Zusammenhangs zwischen zwei Merkmalen, ausgedrückt durch den Korrelationskoeffizienten r (siehe Kasten unten). Die Wahl der Prozedur für die Berechnung des Korrelationskoeffizienten hängt vom Messniveau der Variablen ab. Je nach Skalenniveau sind unterschiedliche Prozeduren zur Berechnung des Korrelationskoeffizienten nötig. Die Produkt-Moment-Korrelation oder Pearson-Bravais-Korrelation (Pear-

285

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

son correlation) wird häufig einfach als „Korrelation“ bezeichnet und der Korrelationskoeffizient mit r abgekürzt, wenn aus dem Zusammenhang klar ist, dass es sich um kein anderes (Korrelations-)Mass handelt. Korrelationskoeffizient r Die Stärke des Zusammenhangs zwischen zwei Merkmalen wird durch den Korrelationskoeffizienten ausgedrückt. Wenn zwei metrische Variablen vorliegen, wird die Produkt-MomentKorrelation (auch als Pearson-Bravais-Korrelation, Pearson correlation bezeichnet) berechnet.

In diesem Kapitel wird auf die Produkt-Moment-Korrelation näher eingegangen, welche ein metrisches Skalenniveau in den beiden betrachteten Merkmalen voraussetzt. Auf Zusammenhangsmasse für nominal und ordinalskalierte Daten wird in Kapitel 7.4.5 eingegangen. Wertebereich und Interpretation des Korrelationskoeffizienten r. Der Korrelationskoeffizient r kann Werte zwischen –1.00 und 1.00 annehmen. Wenn der Zusammenhang gleichsinnig ist, d.h. der Korrelationskoeffizient ein positives Vorzeichen aufweist (z.B. r = .45, r = .72, r = .89), dann bedeutet dies: Je grösser der Wert der einen Variablen wird, desto grösser wird der korrespondierende Wert in der anderen Variable sein. Ist der Korrelationskoeffizient hingegen negativ (z.B. r = –.40, r = –.34, r = –.69), so drückt dies einen gegenläufigen Zusammenhang aus: Je grösser der Wert der einen Variablen wird, desto kleiner wird der korrespondierende Wert in der anderen Variable ausfallen. Abbildung 24 (S. 287) zeigt beispielhaft die Korrelationskoeffizienten r zu vier verschiedenen Streudiagrammen. Die verbale Beschreibung des Korrelationskoeffizienten r basiert häufig auf der in Tabelle 33 (S. 287) aufgeführten Zuordnung. Auch wenn der Korrelationskoeffizient r mit den Zuordnungen verbal beschrieben und die Stärke des Zusammenhangs eingeschätzt werden kann, sollte bei der Interpretation berücksichtigt werden, welche Variablen untersucht wurden: So soll der Wert des Korrelationskoeffizienten hinsichtlich der Werte beurteilt werden, die im Rahmen ähnlich gelagerter Fragestellungen ermittelt wurden. Für „weich gemessene“ Merkmale wie Einstellungsskalen dürfte ein Wert von 0.5 bereits ein „Maximum“ darstellen und als relativ hoch (verglichen mit anderen Untersuchungen) beurteilt werden.

286

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Abbildung 24: Typische Streudiagramme und zugehörige Korrelationskoeffizienten.

Tabelle 33: Verbale Beschreibungen des Korrelationskoeffizienten r Wert des Korrelationskoeffizienten | r | ≤ 0.2 0.2 < | r | ≤ 0.5 0.5 < | r | ≤ 0.7 0.7 < | r | ≤ 0.9 0.9 < | r | ≤ 1.0

Verbale Beschreibung sehr geringe Korrelation geringe Korrelation mittlere Korrelation hohe Korrelation sehr hohe Korrelation

287

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Mathematische Grundlagen. Der Korrelationskoeffizient r berechnet sich wie folgt: Die Kovarianz cov (x, y) der beiden Merkmalsausprägungen wird durch das Produkt der Standardabweichungen sx und sy dividiert. Die Kovarianz kennzeichnet den Grad des „Miteinander-Variierens“ zweier Merkmale. Zwei Merkmale variieren miteinander, wenn geringe Ausprägungen in einem Merkmal mit geringen Ausprägungen im anderen Merkmal korrespondieren. Treten hingegen hohe Ausprägungen im einen Merkmal auf, so werden auch im anderen Merkmal eher höhere Ausprägungen festgestellt. Dieses „Miteinander-Variieren“ wird als Kovariieren bezeichnet. Für dieses Kovariieren gepaarter Daten kann eine Masszahl angegeben werden, die als Kovarianz cov (x,y) [covariance] bezeichnet wird:

wobei: = arithmetische Mittelwerte der in Abszissen- resp. Ordinatenrichtung aufgetragenen Merkmalsausprägungen, - xi, yi = Koordinaten eines bestimmten Punktes i im Streuungsdiagramm, - n = Anzahl Punkte im Streudiagramm. Was bedeutet diese Formel? Die Kovarianz cov(x,y) ist nichts anderes als der arithmetische Mittelwert der Produkte über die Stichprobe n. Die Kovarianz stellt noch kein geeignetes Mass für die Beschreibung der Stärke eines Zusammenhangs dar, da das Mass von den Massstäben der verwendeten Skalen und den Streuungen des Merkmals abhängig ist. Eine Masszahl, die massstabsunabhängig ist, stellt dagegen der Korrelationskoeffizient r dar: Wird nämlich die Kovarianz cov(x,y) durch das Produkt der Standardabweichungen sx und sy dividiert, so erhält man einen einheitlichen Wertebereich zwischen –1.0 und +1.0, wobei ein Betrag nahe bei „1“ einen starken Zusammenhang, ein Betrag nahe bei „0“ einen schwachen Zusammenhang ausdrückt.

288

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Die Produkt-Moment-Korrelation berechnet sich somit wie folgt:

wobei der mögliche Wertebereich von r zwischen -1.0 ≤ r ≤ 1.0 liegt. Einerseits wird durch die Grösse des Betrags r das Ausmass des Zusammenhangs zwischen zwei Variablen ausgedrückt, andererseits wird durch das Vorzeichen die Richtung des Zusammenhangs angegeben. Das Vorzeichen des Produktes beschreibt nämlich, ob die Merkmalsausprägungen xi und yi von den zugehörigen Mittelwerten und gleichsinnig oder gegensinnig abweichen. Aufgrund der Durchschnittsbildung bei der Berechnung des Korrelationskoeffizienten r wird klar, warum die Produkt-Moment-Korrelation nur für intervall- und verhältnisskalierte Merkmale zulässig ist. Da der Korrelationskoeffizient r stark auf Ausreisser in den Beobachtungen reagiert, sollten die vorliegenden Daten idealerweise normalverteilten Merkmalen entstammen. Der Determinationskoeffizient r2. Eine weitere nützliche Masszahl ist der Determinationskoeffizient r2, der als Quadrat des Korrelationskoeffizienten r definiert ist. Diese Masszahl wird auch als Bestimmtheitsmass bezeichnet. Der Determinationskoeffizient r2 weist besondere Eigenschaften auf: Determinationskoeffizient r2 Der Ausprägungsgrad von r2 x 100% gibt an, welcher prozentuale Anteil der Varianz des einen Merkmals aufgrund der Ausprägungen des anderen Merkmals erklärbar ist.

Beispielsweise existiert zwischen dem Merkmal autoritativer Erziehungsstil und dem Merkmal Verträglichkeit der Kinder eine Korrelation von r = .47. Der Determinationskoeffizient beträgt somit r2 = .22. Dieser Determinationskoeffizient r2 zeigt uns den Anteil der (statistisch) erklärten Varianz, d.h. 22% der Streuung (bzw. Heterogenität) in der Verträglichkeit der Kinder sind statistisch auf den autoritativen Erziehungsstils zurückzuführen (d.h. durch diesen determiniert). Der Rest der Streuung, d.h. rund 78%, bleibt statistisch

289

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

unerklärt und ist somit auf andere, unbekannte Faktoren wie z.B. „andere soziale Erfahrungen“ (mit Lehrpersonen, Mitschülerinnen und Mitschüler etc.), „Charakter“, „momentaner Gesundheitszustand“ etc. zurückzuführen. 7.4.5 Beschreibung der „Stärke“ eines Zusammenhangs zwischen zwei nicht-intervallskalierten Variablen Im Folgenden wird darauf eingegangen, welche Möglichkeiten bestehen, um eine Korrelation zu berechnen, wenn keine intervallskalierten Variablen vorliegen. Die Rangkorrelation nach Spearman: Beschreibung der „Stärke“ eines Zusammenhangs zwischen zwei ordinalskalierten Variablen. Für Variablen, die stark von der Normalverteilung abweichen, und für ordinalskalierte Variablen, eignet sich der Rangkorrelationskoeffizient rs nach Spearman (Spearman correlation), um die Stärke einer Beziehung zwischen zwei Variablen zu beschreiben. Ebenfalls wird der Rangkorrelationskoeffizient rs berechnet, wenn gewisse Zweifel über das Intervall- bzw. Verhältnisskalenniveau bestehen. Bei der Berechnung des Rangkorrelationskoeffizienten rs werden die einzelnen Beobachtungen geordnet und jedem Wert eine Rangzahl zugewiesen. Es entstehen so n-Paare mit Rangzahlen. Aus diesen Rängen wird der Korrelationskoeffizient rs berechnet, der ebenfalls, wie die Produkt-MomentKorrelation, im Wertebereich zwischen -1 und +1 definiert ist. Beschreibung der „Stärke“ eines Zusammenhangs zwischen zwei nominalskalierten Variablen. Zur Messung der Stärke des Zusammenhanges zwischen zwei nominalskalierten Merkmalen können ebenfalls geeignete Masszahlen (Assoziationsmasse bzw. Kontingenzmasse) ausgewählt und berechnet werden. Fragen nach möglichen Beziehungen auf dem Niveau einer Nominalskala könnten beispielsweise wie folgt lauten: - Besteht zwischen Geschlechtszugehörigkeit („männlich“, „weiblich“) und ausgewähltem Studiengebiet („Sprach- und Kulturwissenschaft“, „Naturwissenschaft“, „Kunst“, „Medizin“, „Rechtswissenschaft“, „Wirtschaftswissenschaft“ und „Sozialwissenschaft“ ein Zusammenhang? - Besteht zwischen Familienstatus („ledig“, „verheiratet“, „geschieden“, „verwitwet“) und Erziehungsstil („autoritativ“, „autoritär“, „laissez-faire“) eine Beziehung?

290

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Da die Kategorien nominalskalierter Merkmale beliebig angeordnet werden können, ist einsichtig, dass man nicht von einer positiven oder negativen Beziehung sprechen kann und deshalb die Masszahlen zur Charakterisierung einer Beziehung zwischen nominalskalierten Merkmalen vorzeichenlos sein müssen. Solche Assoziations- bzw. Kontingenzmasse sind beispielsweise die Prozentsatzdifferenz (d%), Lambda (nach Goodman & Kruskal) oder die Masszahlen auf der Basis von Chi-Quadrat (Phi-Koeffizient, Cramer's V, Kontingenzkoeffizient C). Für die Berechnung dieser für nominalskalierte Merkmale konzipierten Assoziationsmasse ist entsprechende Fachliteratur zu konsultieren (z.B. Bortz, 2005, dort Kap. 6.3; Benninghaus, 2005, dort Kap. 5). Beschreibung der „Stärke“ eines Zusammenhangs zwischen zwei Variablen unterschiedlichen Messniveaus. Es ist jederzeit möglich, Daten so zu behandeln, als seien sie auf einem niedrigeren Skalenniveau gemessen worden (aber nicht umgekehrt!). So ist es beispielsweise möglich, metrische Daten so zu behandeln, als seien sie ordinalskaliert. So können Zusammenhänge zwischen einer metrischen und einer ordinalskalierten Variable mit dem für ordinalskalierte Merkmale verwendete Rangkorrelationskoeffizienten rs nach Spearman beschrieben werden. Zum Fallbeispiel auf S. 275 wird deshalb die Rangkorrelation rs nach Spearman berechnet. Ergebnisse dazu sind im Kasten (S. 292) dargestellt. 7.4.6 Interpretationen von Korrelationen Häufig werden Korrelationen fälschlicherweise kausal interpretiert, d.h. es wird eine Beziehung zwischen Ursache und Wirkung zweier Ereignisse hergestellt und damit Fehlinterpretationen provoziert. Beispielsweise besteht zwischen dem Merkmal Alter und dem Merkmal Blutdruck ein Zusammenhang: Wird dieser Zusammenhang kausal interpretiert, so nimmt man an, dass das Alter den Blutdruck beeinflusst bzw. dass das Lebensalter die Ursache für die Höhe des Blutdrucks ist. Ob dem so ist, kann nicht einfach so gesagt werden, da Korrelationen nur einen Zusammenhang und damit keine Kausalität ausdrücken. Grundsätzlich sind verschiedene kausale Zusammenhänge möglich: Merkmal „X“ beeinflusst Merkmal „Y“ kausal. Beispiel: Vorbereitung auf die Prüfung (Merkmal X) und Prüfungsresultat (Merkmal Y) korrelieren miteinander, wobei die Vorbereitung auf die Prüfung (zeitlich vorausgehend) das Prüfungsresultat (zeitlich nachfolgend) beeinflusst.

291

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Fallbeispiel einer Untersuchung mit der Fragestellung, ob zwischen autoritativem Erziehungsstil von Eltern und Persönlichkeitsmerkmalen ihrer Kinder ein Zusammenhang besteht (Fortsetzung). Angabe von Masszahlen zur Beschreibung der Stärke des Zusammenhangs. Mit der Variable autoritativer Erziehungsstil der Eltern liegt eine ordinalskalierte Variable vor. Die Persönlichkeitsfaktoren werden ebenfalls als ordinalskaliert angesehen. Beziehungen ordinalskalierter Merkmale werden mittels Rangkorrelation rs nach Spearman bestimmt. Zwischen autoritativem Erziehungsstil der Eltern und den fünf Persönlichkeitsfaktoren Neurotizismus, Extraversion, Offenheit für Erfahrungen, Gewissenhaftigkeit und Verträglichkeit wurden folgende Korrelationen gefunden: Rangkorrelationen rs (nach Spearman) zwischen autoritativem Erziehungsstil der Eltern und fünf Persönlichkeitsfaktoren ihrer Kinder (n = 54). Persönlichkeitsfaktor Neurotizismus Extraversion Offenheit für Erfahrungen Gewissenhaftigkeit Verträglichkeit

Autoritativer Erziehungsstil -.45 .15 .12 .46 .47

Zwischen autoritativem Erziehungsstil der Eltern und den Persönlichkeitsfaktoren Extraversion und Offenheit von Erfahrungen bestehen sehr geringe Korrelationen (rs=.15 bzw. rs=.12). Zwischen den übrigen Persönlichkeitsfaktoren und dem autoritativen Erziehungsstil der Eltern bestehen knapp mittlere Korrelationen: Während zwischen autoritativem Erziehungsstil der Eltern und Neurotizismus eine mittlere, negative Korrelation festzustellen ist (rs=-.45), konnten zwischen autoritativem Erziehungsstil der Eltern und Gewissenhaftigkeit bzw. Verträglichkeit mittlere, positive Korrelationen festgestellt werden (rs=.46 bzw. rs=.47).

Merkmal „Y“ beeinflusst Merkmal „X“ kausal. Beispiel: Krämer (2006a) berichtet von einer Schlagzeile in einer Zeitung, dass nach einer amerikanischen Studie 87 Prozent der Meditierenden „eine sehr niedrige HerzinfarktRate“ gehabt hätten. Es wurde angenommen, dass sich Meditieren (Merkmal X) positiv auf eine niedrigere Herzinfarkt-Rate (Merkmal Y) auswirkt. Dies könnte nach Krämer (2006a, S. 174) zutreffen, der kausale Zusammenhang könnte aber gerade auch umgekehrt sein: „Auch hier kann die Ursache dort liegen, wo die Meldung sie vermutet, vielleicht aber auch anderswo: Menschen, für die Stress und Herzinfarkt [Merkmal Y] Fremdwörter sind, meditieren gern [Merkmal X]“. Merkmal „X“ und Merkmal „Y“ werden von einer dritten bzw. mehreren anderen Variablen beeinflusst. Beispiel (nach Krämer, 2006b): Bei erwachsenen Männern besteht eine bemerkenswert negative Korrelation zwischen dem Einkommen (Merkmal X) und der Anzahl Haare auf dem Kopf 292

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

(Merkmal Y), d.h. je höher das Einkommen, desto geringer die Anzahl Haare auf dem Kopf und umgekehrt. Aber weder sind die Haare für das Einkommen noch ist das Einkommen für die Haare verantwortlich zu machen – diese negative Korrelation kommt dadurch zustande, dass beide Merkmale von einem dritten Merkmal (dem Lebensalter) abhängen: Mit wachsendem Alter nimmt das Einkommen zu und die Haare fallen aus. Man spricht dabei von einer Scheinkorrelation (= hohe Korrelation zwischen zwei Merkmalen, die inhaltlich nicht gerechtfertigt ist, sondern nur einen scheinbaren Zusammenhang aufweisen). Solche übersehenen Hintergrundvariablen produzieren Nonsenskorrelationen zuhauf (Krämer, 2006a): „Angefangen bei den Klapperstörchen, deren Zahl hoch positiv mit den bundesdeutschen Geburten korreliert, über die Zahl der unverheirateten Tanten eines Menschen und den Kalziumgehalt seines Skelettes (negative Korrelation), Heuschnupfen und Weizenpreis (negative Korrelation), Schuhgrösse und Lesbarkeit der Handschrift (positive Korrelation) bis zu Ausländeranteil und Kriminalität (positive Korrelation) spannt sich ein weiter Bogen eines falsch verstandenen bzw. absichtlich missbrauchten Korrelationsbegriffs.“ (Krämer, 2006b, S.170)

In der Literatur wird zur Erklärung von Scheinkorrelation häufig das im Zitat erwähnte Beispiel der Klapperstörche verwendet: Obwohl zwischen dem Vorkommen von Störchen und der Geburtenrate verschiedener Länder ein deutlicher Zusammenhang besteht, wissen wir aufgrund von Erfahrungen, dass kein kausaler Zusammenhang zwischen Störchen und Geburten besteht. Offensichtlich muss eine dritte Variable (oder mehrere andere Variablen) mit diesen zusammenhängen. Es könnte sein, dass dies die Variable „wirtschaftliches Entwicklungsniveau eines Landes“ ist: Je höher der Entwicklungsstand eines Landes, desto weniger Störche gibt es und umso niederiger ist die Geburtenrate in solchen Ländern. 4. Merkmal „X“ und Merkmal „Y“ beeinflussen sich gegenseitig kausal. Beispiel: Sympathie (Merkmal X) und Kontakt (Merkmal Y) beeinflussen sich gegenseitig. Deshalb ist bei der Interpretation von Korrelationen unbedingt folgendes zu beachten: Ein Korrelationskoeffizient liefert keine Informationen, welche der oben aufgeführten vier Interpretationen richtig ist. Man sollte daher eine hohe Korrelation als einen Hinweis auf einen möglichen engen Zusammenhang zwischen zwei Merkmalen verstehen. Um auf einen kausalen Zusammenhang schliessen zu können, sind weitere sachlogische Überlegungen erforderlich.

293

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Wollte man Ursache und Wirkung beweisen, so wäre dies am ehesten mit Hilfe eines Experiments möglich (vgl. Kap. 2.2.2, Kap. 2.2.3 bzw. Kap. 4.1.6). Weiterführende Literatur Benninghaus, H. (2005). Einführung in die sozialwissenschaftliche Datenanalyse. München: Oldenbourg. Benninghaus, H. (2007). Deskriptive Statistik. Eine Einführung für Sozialwissenschafter. Wiesbaden: Verlag für Sozialwissenschaften. Bortz, J. (2005). Statistik für Human- und Sozialwissenschaftler (6. Aufl.). Heidelberg: Springer. Hirsig, R. (2007). Statistische Methoden in den Sozialwissenschaften, Band I. Zürich: Seismo.

7.5 Prüfstatistik Auch wenn die deskriptive Statistik wichtige Informationen über eine Stichprobe bereitstellt, so ist sie zur Überprüfung wissenschaftlicher Hypothesen ungeeignet. Die deskriptive Statistik ermöglicht zwar, eine bestimmte Stichprobe über Häufigkeiten und statistische Kennwerte (z.B. Mittelwerte und Standardabweichungen) zu beschreiben. Sie kann aber im Unterschied zur Prüfstatistik keine Aussagen machen, die über die Stichprobe hinausgehen und damit keine Geltung für die Grundgesamtheit beanspruchen. Anstatt Prüfstatistik wird auch von Inferenzstatistik, Entscheidungsstatistik, hypothesenprüfender Statistik oder schliessender Statistik gesprochen. Fallbeispiel: Untersuchung über Fernseh-Konsum und schulische Motivation bei Primarschulkindern In einer Studie soll untersucht werden, … 1. wie häufig Kinder fernsehen; 2. über welche schulische Motivation Kinder verfügen, die einen hohen oder niedrigen Fernsehkonsum aufweisen; 3. ob sich Kinder mit hohem Fernsehkonsum von solchen mit niedrigem Fernsehkonsum hinsichtlich schulischer Motivation unterscheiden.

Die deskriptive Statistik kann die ersten beiden Fragen nach der Häufigkeit des Fernsehkonsums und nach der durchschnittlichen schulischen Motivation beantworten, nicht aber die dritte Frage nach dem Unterschied in schulischer Motivation zwischen Kindern mit hohem Fernsehkonsum und Kindern mit niedrigem Fernsehkonsum. Diese letzte Frage ist nämlich nicht mehr einfach beschreibend oder deskriptiv, sondern sie hat einen generalisierenden Anspruch. Der generalisierende Anspruch zeigt sich darin, dass man wissen möchte, ob ein allfälliger Unterschied in der schulischen Motivation von

294

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Kindern mit niedrigem und hohem Fernsehkonsum nicht nur für die untersuchte Stichprobe gilt, sondern ob er generelle Gültigkeit besitzt und damit für alle Kinder mit niedrigem oder hohem Fernsehkonsum gilt. Mit anderen Worten: Kann von der Stichprobe auf die Grundgesamtheit rückgeschlossen werden? Mit Grundgesamtheit sind dabei all diejenigen Personen gemeint, die durch die Stichprobe repräsentiert werden sollen. In diesem Beispiel also alle existierenden Kinder mit niedrigem und hohem Fernsehkonsum. Anstatt von Grundgesamtheit wird in der statistischen Literatur auch von Population gesprochen (s. Kap. 4.1.5 Stichproben). Aufgrund der gewählten Stichprobe sollen mit Hilfe prüfstatistischer Verfahren Aussagen für die Grundgesamtheit gemacht werden können. Die Inferenz- oder Prüfstatistik trifft auf der Basis von Stichprobenresultaten Schlussfolgerungen über die Grundgesamtheit. Sie basiert auf der Wahrscheinlichkeitstheorie und ermöglicht unter der Annahme eines Restrisikos, Aussagen über die Bedeutsamkeit (Signifikanz) von Unterschieden oder Zusammenhängen zu machen.

Der Schluss von der Stichprobe auf die Grundgesamtheit ist immer mit einem Restrisiko – man spricht dabei von Irrtumswahrscheinlichkeit – verbunden, weil zum einen Erhebungsinstrumente immer mit einem Messfehler behaftet sind. Messungen eines Merkmals (z.B. Fragen zur schulischen Motivation) sind nie perfekt. Es gibt immer in einem bestimmten Ausmass Messfehler. Dies zeigt sich beispielsweise darin, dass unterschiedliche Messinstrumente, welche aber das gleiche Merkmal messen sollen (z.B. verschiedene Fragen zur schulischen Motivation), immer mehr oder weniger unterschiedliche Ergebnisse hervorbringen. Erhebungsinstrumente messen also immer nur annähernd das interessierte Merkmal. Zum anderen stellt die Stichprobe eine Auswahl von Personen dar und kann deshalb Ergebnisse hervorbringen, die die Verhältnisse in der Grundgesamtheit nicht angemessen wiedergeben. Mittels statistischer Tests kann nun ermittelt werden, mit welcher Wahrscheinlichkeit ein Unterschied oder ein Zusammenhang „tatsächlich“ (d.h. in der Grundgesamtheit) besteht oder „zufällig“ aufgrund der Stichprobenauswahl entstanden ist. Das Grundprinzip und zentrale Begriffe der Prüfstatistik werden im folgenden Kapitel am eingangs erwähnten Fallbeispiel kurz aufgezeigt (für eine vertiefte Auseinandersetzung ist weiterführende Literatur zu konsultieren). Anschliessend werden einzelne Verfahren vorgestellt und schliesslich auf den Unterschied zwischen deskriptiven und prüfstatistischen Fragestellungen und auf die Interpretation deren Befunde eingegangen.

295

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

7.5.1 Grundprinzip prüfstatistischer Verfahren Ausgangslage: Eine Fragestellung. In der Untersuchung wurde festgestellt, dass in der Stadt Bern 10-jährige Primarschulkinder mit hohem Fernsehkonsum pro Tag in der schulischen Motivation einen Mittelwert von MKhoch = 1.79, solche mit niedrigem Fernsehkonsum einen Mittelwert von MKniedrig = 4.20 aufweisen. Es stellt sich nun die Frage, ob tatsächlich ein solcher Unterschied in der schulischen Motivation zwischen Kindern mit hohem und solchen mit niedrigem Fernsehkonsum besteht, oder ob dieser Befund nur zufällig entstanden ist. Formulierung einer statistisch bearbeitbaren Fragestellung. Darf der festgestellte Unterschied im Fernsehkonsum generalisiert werden? Mit anderen Worten: Besteht ein solcher Unterschied zwischen Kindern mit hohem Fernsehkonsum und solchen mit niedrigem Fernsehkonsum nicht nur bei den befragten Kindern, sondern bei allen Kindern der Stadt Bern? Festlegen der „Grösse“, die prüfstatistisch untersucht werden soll (Prüfgrösse). Im Fallbeispiel ist die Prüfgrösse die Differenz zwischen dem Mittelwert der Kinder mit niedrigen Fernsehkonsum und dem Mittelwert der Kinder mit hohem Fernsehkonsum ( Kniedrig – Khoch). Der Ausprägungsgrad der Prüfgrösse in dieser Untersuchung beträgt also: (4.20 –1.79) = 2.41 Formulierung einer Nullhypothese (Arbeitshypothese) und einer Alternativhypothese (Forschungshypothese). In der Untersuchung soll herausgefunden werden, ob der Unterschied in der schulischen Motivation zwischen Kindern mit hohem und niedrigem Fernsehkonsum zufällig ist oder nicht. Diese Vermutung (Hypothese) gilt es nun zu überprüfen. Damit solche Vermutungen überprüft werden können, wird eine Nullhypothese und eine Alternativhypothese formuliert: - Die Nullhypothese besagt, dass es nicht auszuschliessen ist, dass der beobachtete Unterschied in den Stichprobemittelwerten zufällig zustande gekommen ist. Im Fallbeispiel: Der beobachtete Unterschied von 2.41 in schulischer Motivation zwischen Kindern mit hohem und solchen mit niedrigem Fernsehkonsum ist zufällig zustande gekommen. - Die Alternativhypothese lautet: Der Unterschied in den Stichprobemittelwerten ist nicht zufällig entstanden; er darf damit generalisiert und interpretiert werden. Im Fallbeispiel: Es besteht ein Unterschied hinsichtlich schulischer Motivation zwischen Kindern mit hohem und solchen mit niedrigem Fernsehkonsum.

296

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Prüfverfahren: Annahme oder Ablehnung der Nullhypothese anhand Prüfgrösse und Prüfverteilung. Anhand des konkreten Ausprägungsgrads der Prüfgrösse und der sogenannten Prüfverteilung kann über eine Hypothese entschieden werden. Die Prüfgrösse wurde schon weiter oben eingeführt: ( Kniedrig – Khoch). Unter Prüfverteilung ist die theoretische Verteilung der Prüfgrösse gemeint, wenn die Nullhypothese gültig ist. In einem Gedankenexperiment soll die Prüfverteilung für das Fallbeispiel illustriert werden (vgl. Abbildung 25, S. 298). In der Stichprobe, die der Untersuchung des Fallbeispiels zugrunde liegt, beträgt die Differenz in der schulischen Motivation zwischen Kindern mit hohem Fernsehkonsum und Kindern mit niedrigem Fernsehkonsum ( Kniedrig – Khoch) 2.41 (Abbildung 25a). Würde man diese Untersuchung nochmals mit anderen Kindern der Stadt Bern durchführen, ist anzunehmen, dass man etwas andere Mittelwerte in schulischer Motivation erhalten würde. Bei einer zweiten Stichprobe könnte sich beispielsweise ein Unterschied von 2.33 zeigen. Würde man insgesamt fünfmal eine solche Untersuchung durchführen, so würde diese Differenz in schulischer Motivation jedes Mal etwas anders ausfallen: 2.47, 2.33, 1.45, 1.56, 1.93. In Abbildung 25b ist dargestellt, welche Differenzen auftreten könnten, wenn 100 Stichproben gezogen würden. Welcher Mittelwertsunterschied ist nun der richtige? Würden 1000 Stichproben gezogen, so würden die Häufigkeitsverteilung der Differenzen im Fallbeispiel eine Normalverteilung andeuten (Abbildung 25c). Würden unendlich viele Stichproben gezogen (was faktisch unmöglich ist), so würde dies eine Normalverteilung ergeben (Abbildung 25d). Diese ist nichts anderes als die theoretische Verteilung der Prüfgrösse. Die im Fallbeispiel aufgeführte Prüfgrösse, die Prüfverteilung und die Art, wie ihre Verteilungsparameter geschätzt werden, unterscheiden sich nach Art des gewählten Prüfverfahrens. Einige solcher Verfahren werden in Kap. 7.5.3 „Prüfstatistische Tests“ kurz vorgestellt. Übertretenswahrscheinlichkeit und Bestimmung des Signifikanzniveaus. Es kann nun aufgrund dieser theoretischen Verteilung berechnet werden, mit welcher Wahrscheinlichkeit die im Fallbeispiel aufgeführte Differenz in der schulischen Motivation zwischen Kindern mit hohem und niedrigem Fernsehkonsum überschritten wird. In Abbildung 26 (S. 299) ist diese Differenz von 2.41 in die Prüfverteilung und die Überschreitungswahrscheinlichkeit von 2.41 (schraffiert) eingetragen worden.

297

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Abbildung 25: Mittelwertsunterschiede, wenn a) eine Stichprobe, b) 100 Stichproben, c) 1000 Stichproben, d) ∞ Stichproben gezogen werden. 298

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Abbildung 26: Überschreitungswahrscheinlichkeit. Die Überschreitungswahrscheinlichkeit gibt an, mit welcher Wahrscheinlichkeit der beobachtete Unterschied in den Stichprobenwerten zufällig zustande gekommen ist.

Es muss nun ein Grenzwert oder kritischer Wert bestimmt werden, damit entschieden werden kann, ob nun die Nullhypothese oder die Alternativhypothese richtig ist. Dieser Grenzwert soll so gewählt werden, dass mit „hinreichender Sicherheit“ gesagt werden kann, dass der Unterschied nicht durch Zufall zustande gekommen ist. In den Sozialwissenschaften wird häufig eine Wahrscheinlichkeit von mindestens 95% als ausreichend grosse Sicherheit angesehen. Entsprechend beträgt dann die Irrtumswahrscheinlichkeit oder das Restrisiko 5% oder weniger. Das Restrisiko, das wir bezüglich einer Hypothese falsch entscheiden, wird als Signifikanzniveau bezeichnet. Ein irrtümliches Ergebnis ist ein Ergebnis, das nur für die Stichprobe und nicht für die Grundgesamtheit besteht.

Es ist üblich, dass bei der Anwendung von prüfstatistischen Verfahren von Irrtumswahrscheinlichkeit gesprochen wird; das statistische Symbol dafür ist p. Die Irrtumswahrscheinlichkeit p wird als Dezimalzahl angegeben (siehe Tabelle 34). Eingebürgert haben sich drei Grenzwerte (man spricht dabei vom sogenannten Signifikanzniveau): 5 %, 1 % oder 0.1 % . Das 1%-Kriterium ist ein strengerer Massstab für Signifikanz als das 5%Kriterium. Wenn beispielsweise ein Mittelwertsunterschied mit dem 1%Kriterium signifikant ist, bedeutet dies, dass die Wahrscheinlichkeit für einen zufällig entstandenen Mittelwertsunterschied 1:100 beträgt.

299

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Tabelle 34: Signifikanzniveaus für die Prüfung auf „Unterschiede“ Irrtumswahrscheinlichkeit >5% 5% 1% 0.1%

Angabe als Dezimalzahl p > .05 p .05 p .01 p .001

verbale Umschreibung nicht signifikant signifikant hoch signifikant höchst signifikant

Abkürzungen für die Signifikanz n. s. * ** ***

Überprüfung der Hypothese: Beurteilung der Überschreitungswahrscheinlichkeit und Interpretation des Befunds. In Abbildung 27 ist grafisch dargestellt, wie die Überschreitungswahrscheinlichkeit beurteilt wird. Der Grenzwert kann einseitig oder zweiseitig festgelegt werden (vgl. Abbildungen 27a und 27b, S. 301), je nachdem, ob die Hypothese einseitig (gerichtet; one-tailed hypothesis) oder zweiseitig (ungerichtet; two-tailed hypothesis) geprüft werden soll. Eine einseitige Prüfung liegt dann vor, wenn nur eine Seite der Normalverteilung zur Verwerfung der Null-Hypothese verwendet wird. Der p-Wert von 5% ist dann gesamthaft auf nur einer Seite der Prüfverteilung. Wird die Hypothese zweiseitig getestet, wird die Überschreitungswahrscheinlichkeit auf beide Seiten der Prüfverteilung aufgeteilt. In diesem Fall beträgt der p-Wert auf beiden Seiten 2.5%. Ein zweiseitiger Test wird verwendet, wenn man von einem Unterschied zwischen zwei Gruppen ausgeht, ohne zu wissen, in welche Richtung sich die Gruppen unterscheiden werden. Ein einseitiger Test wird dann berechnet, wenn eine konkrete Erwartung zur Richtung des Unterschiedes vorliegt (z.B. Kinder mit hohem Fernsehkonsum haben eine niedrigere schulische Motivation als Kinder mit niedrigem Fernsehkonsum). Nicht signifikantes Ergebnis (p > 5%): Abbildung 27c zeigt den Fall an, dass die Überschreitungswahrscheinlichkeit p > 5%, d.h. nicht signifikant, ist: Die Wahrscheinlichkeit, dass der beobachtete Unterschied in den Stichprobenmittelwerten zufällig zustande kam, ist so gross, dass der Zufall bei der Interpretation nicht ausgeschlossen werden kann. Wir nehmen deshalb die Nullhypothese H0 an. Bei einem nicht signifikanten Befund kann deshalb nur die Aussage gemacht werden, dass der zwischen den Stichproben beobachtete Mittelwert auch zufällig entstanden sein kann. In unserem Fallbeispiel (unter Annahme, dass ein Unterschied von 2.41 ein nicht signifikantes Resultat zeigt): Der Unterschied in „schulischer Motivation“ zwischen Kindern mit hohem und solchen mit niedrigem Fernsehkonsum kann auch zufällig entstanden sein.

300

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Abbildung 27: Beurteilung der Überschreitungswahrscheinlichkeit. Signifikantes Ergebnis: Ausprägungsgrad der Prüfgrösse p 5%. Die Nullhypothese H0 wird zugunsten der Alternativhypothese H1 abgelehnt. Es besteht ein signifikanter Unterschied. Dies bedeutet, dass bei der Interpretation des beobachteten Unterschieds in den Stichprobenmittelwerten der Zufall mit einer Irrtumswahrscheinlichkeit p 5% ausgeschlossen werden kann. Er301

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

weist sich in unserem Fallbeispiel die Differenz in schulischer Motivation zwischen Kindern mit hohem und solchen mit niedrigem Fernsehkonsum als signifikant (p 5%), so ist diese um 2.41 bessere schulische Motivation bei Kindern mit geringem Fernsehkonsum nicht zufällig zustande gekommen. Damit darf dieser Befund auf die Population verallgemeinert werden: Es kann davon ausgegangen werden, dass in der Population Kinder mit geringem Fernsehkonsum eine höhere schulische Motivation aufweisen als Kinder mit hohem Fernsehkonsum. Diese Aussage kann mit einer Irrtumswahrscheinlichkeit p 5% angenommen werden. Irrtümer bei Hypothesentests. In der prüfstatistischen Literatur wird in diesem Zusammenhang von zwei verschiedenen Fehlern gesprochen, die man bei der Schlussfolgerung von der Stichprobe auf die Grundgesamtheit begehen kann (vgl. Tabelle 35, S. 303). Wenn man eine Nullhypothese, die eigentlich richtig wäre (d.h. in der Grundgesamtheit zutreffend ist), als falsch ablehnt (d.h. von einem Unterschied ausgeht), spricht man vom Fehler 1. Ordnung (oder Alpha-Fehler). Wenn man zum Beispiel den Mittelwertsunterschied in der schulischen Motivation zwischen Kindern mit hohem Fernsehkonsum und Kindern mit niedrigem Fernsehkonsum als bedeutsam (signifikant) beurteilt, dieser Unterschied aber in der Grundgesamtheit nicht besteht, begeht man den Fehler 1. Ordnung. Falls man aber eine Nullhypothese, die eigentlich falsch wäre (d.h. in der Grundgesamtheit nicht zutrifft), als richtig annimmt, begeht man den Fehler 2. Ordnung (oder Beta-Fehler). In prüfstatistischen Verfahren wird lediglich das Risiko, einen Fehler 1. Ordnung zu begehen, ermittelt. Man möchte also wissen, wie hoch das Risiko ist, dass man fälschlicherweise von einem Unterschied ausgeht, obwohl dieser gar nicht besteht. Falls dieses Risiko sehr klein ist, kann man die NullHypothese verwerfen. 7.5.2 Wann ist ein signifikantes Ergebnis „bedeutsam“? Die Berechnung von Effektstärken Ob ein Ergebnis signifikant ausfällt, ist nicht allein von der Grösse des Unterschieds oder der Stärke eines Zusammenhangs abhängig. Beispielsweise könnte in zwei verschiedenen Studien der Unterschied in der schulischen Motivation zwischen Kindern mit niedrigem und hohem Fernsehkonsum beide Male genau gleich sein und trotzdem könnte der Unterschied im einen Fall signifikant (Irrtumswahrscheinlichkeit p .05), im anderen Fall nicht signifikant ausfallen (Irrtumswahrscheinlichkeit p > .05). Dies wäre auf unterschiedliche Stichprobengrössen der beiden Studien zurückzuführen.

302

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Tabelle 35: Beziehung zwischen Zustand in der Grundgesamtheit, Entscheidung und Fehler im Hypothesentesten

Nullhypothese wird abgelehnt Nullhypothese wird nicht abgelehnt

„Tatsächlicher Zustand“ der Grundgesamtheit Nullhypothese Nullhypothese ist wahr ist falsch Fehler 1. Ordnung Richtige Entscheidung (Alpha-Fehler) Richtige Entscheidung Fehler 2. Ordnung (Beta-Fehler)

Wenn in der einen Studie 200 Kinder untersucht wurden, in der anderen hingegen nur 20 Kinder, dann ist es in der ersten Studie aufgrund der grösseren Stichprobe (vgl. Kapitel 4.1.5) wahrscheinlicher, dass der Unterschied von einer halben Note nicht zufällig entstanden ist, sondern die „tatsächlichen“ Verhältnisse in der Gesamtpopulation wiedergibt. Die Wahrscheinlichkeit statistisch signifikante Unterschiede oder Zusammenhänge in einer Studie zu finden, erhöht sich also mit zunehmender Stichprobengrösse. Wie geht man mit dieser Unsicherheit um, dass in Abhängigkeit der Stichprobengrösse einmal ein Ergebnis signifikant ausfällt und das andere Mal nicht? Wie kann bestimmt werden, ob ein Ergebnis nicht einfach nur statistisch signifikant ist, sondern ob es auch bedeutsam und von praktischer Relevanz ist? Um diesen Unsicherheiten entgegenzuwirken, werden in der sozialwissenschaftlichen Statistik neben der Signifikanz auch Masse für die Effektstärke angegeben. Effektstärken sind statistische Masse, die die Stärke oder Grösse eines Unterschiedes oder eines Zusammenhanges angeben. Sie ermöglichen damit zu bestimmen, ob ein Resultat „nur“ statistisch signifikant oder zusätzlich auch praktisch bedeutsam ist.

Durch die Angabe von Effektstärken kann also verhindert werden, dass zu viel in ein statistisch signifikantes Ergebnis, das über eine sehr grosse Stichprobe gewonnen wurde, hinein interpretiert wird. Effektstärken um .20 gelten als schwache Effekte, solche um .50 gelten als mittlere oder moderate Effekte, während Effektstärken über .80 als starke Effekte gelten. Wenn sich zum Beispiel in einer Untersuchung mit über 1000 Kindern solche mit niedrigem und hohem Fernsehkonsum in ihrer schulischen Motivation signifikant unterscheiden, die Effektstärke aber einen sehr geringen Wert anzeigt (< .20), so ist bei der Interpretation der Bedeutung dieses Ergebnisses Vorsicht geboten. Wenn hingegen die Effektstärke .50 oder höher ist, so zeigt 303

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

dies, dass der Unterschied auch in praktischer, d.h. in erzieherischer Hinsicht relevant sein dürfte. Je nach statistischem Verfahren werden unterschiedliche Effektstärkenmasse berechet, wie zum Beispiel der Determinationskoeffizient bei Korrelationen, R2 bei Regressionsanalysen oder η2 (Eta-Quadrat) bei Varianzanalysen. 7.5.3 Häufig verwendete hypothesenprüfende Verfahren Innerhalb der Prüfstatistik gibt es verschiedene Tests zur Überprüfung von Hypothesen. Je nach Hypothese und Skalenniveau der interessierenden Variablen werden unterschiedliche statistische Tests verwendet. Fragestellungen und Hypothesen lassen sich danach unterscheiden, ob Mittelwerte verglichen und damit Unterschiede geprüft oder ob Zusammenhänge zwischen Variablen untersucht werden. So können im erwähnten Fallbeispiel einerseits Unterschiede in der schulischen Motivation zwischen Kindern mit hohem und solchen mit niedrigem Fernsehkonsum untersucht, andererseits kann aber auch der Zusammenhang zwischen Fernsehkonsum und schulischer Motivation überprüft werden. Im ersten Fall müssten wir die Signifikanz des Unterschiedes zwischen Kindern mit niedrigem und hohem Fernsehkonsum testen, im anderen Fall die Signifikanz des Zusammenhangs zwischen Fernsehkonsum und schulischer Motivation. An dieser Stelle sollen häufig verwendete prüfstatistische Verfahren zu Unterschieds- und Zusammenhangshypothesen vorgestellt werden. Es kann nur auf die Grundideen dieser Tests und nicht auf statistische Details und deren Durchführung eingegangen werden. Die folgenden Ausführungen sollen vor allem ermöglichen, die Auswertungen in empirischen sozialwissenschaftlichen Artikeln besser verstehen zu können. Für eine ausführlichere Darstellung prüfstatistischer Grundlagen sei auf weiterführende Literatur verwiesen. Tests für Unterschiedshypothesen. Die statistischen Tests zur Prüfung von Unterschiedshypothesen sind vom Skalenniveau (und anderen Voraussetzungen) abhängig, auf dem die interessierende Variable eingeschätzt wurde. Wurde ein Merkmal auf Intervallskalenniveau eingeschätzt (vgl. Kapitel 7.3.1 „Messen“), so basiert die Verteilung der Ausprägungsgrade häufig auf dem Mittelwert und der Varianz bzw. der Standardabweichung. Auf diese sogenannten parametrischen Prüfverfahren wird zuerst eingegangen, bevor am Schluss nicht-parametrische (verteilungsfreie) Verfahren aufgeführt werden.

304

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

t-Test. Dieser Test prüft, ob hinsichtlich eines Merkmals zwischen den Mittelwerten zweier verschiedener Gruppen signifikante Unterschiede bestehen. In Abbildung 28 ist das zugehörige Wirkungsmodell dargestellt.

Abbildung 28: Wirkungsmodell für den t-Test. Der t-Test setzt bei der untersuchten Merkmalsvariable (abhängige Variable) Intervallskalenniveau voraus. t-Tests werden unterschieden in - t-Tests für unabhängige Stichproben und - t-Tests für abhängige Stichproben. Der t-Test für unabhängige Stichproben vergleicht die Mittelwerte zweier Gruppen, deren Mitglieder entweder der einen oder der anderen, aber niemals beiden Gruppen angehören. So gehören Kinder entweder zur Gruppe mit hohem oder dann aber zur Gruppe mit niedrigem Fernsehkonsum. Ein Kind kann aber nicht beiden Gruppen zugleich angehören. Ein weiteres typisches Beispiel für unabhängige Gruppen ist das Geschlecht (männlich, weiblich). Was bedeutet in diesem Beispiel der Wert t = 11.07? Dieser Wert ist die Prüfgrösse (vgl. Kap. 7.5.1) und gibt an, wie gross der Unterschied zwischen den zu vergleichenden Mittelwerten ist. Je grösser dieser t-Wert, desto höher fällt die Signifikanz aus. Der t-Test für abhängige Stichproben vergleicht die Mittelwerte zweier Gruppen, deren Mitglieder beiden Gruppen angehören. Dies ist z.B. immer dann der Fall, wenn Versuchspersonen zu zwei Messzeitpunkten an einer Untersuchung teilgenommen haben. Man spricht in diesem Fall von einer sogenannten Messwiederholung. Die Ausprägungen einer Person zum Zeitpunkt 1 und zum Zeitpunkt 2 werden einander dabei paarweise zugeordnet.

305

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Wenn beispielsweise der Fernsehkonsum bei Kindern einmal mit 12 Jahren erhoben wird und dann bei den gleichen Kindern nochmals mit 14 Jahren, so kann mit dem t-Test für abhängige Stichproben überprüft werden, ob sich der Fernsehkonsum verändert hat. Fallbeispiel zum t-Test für unabhängige Stichproben Fragestellung: Wie unterscheidet sich die schulische Motivation bei Kindern mit hohem Fernsehkonsum und solchen mit niedrigem Fernsehkonsum? Methodisches Vorgehen: Die Variablen „schulische Motivation“ und „Fernsehkonsum“ wurden über einen Fragebogen erfasst. Es wurden 10 Fragen zur schulischen Motivation gestellt (z.B. „ich lerne, weil mich der Unterrichtstoff interessiert“ oder „ich lerne, weil ich den Stoff verstehen möchte“). Die Fragen konnten auf einer fünf-stufigen Skala beantwortet werden (1 = „trifft überhaupt nicht zu“ bis 5 = „trifft völlig zu“). Die Variable „schulische Motivation“ wurde gebildet, indem der Mittelwert aus den 10 Fragen zur schulischen Motivation berechnet wurde. Die Variable „schulische Motivation“ konnte somit Ausprägungen von 1 bis 5 annehmen, wobei 1 eine niedrige schulische Motivation und 5 eine hohe schulische Motivation ausdrückt. Die Variable „Fernsehkonsum“ wurde erfasst, indem die Kinder nach der Häufigkeit des täglichen Fernsehkonsums gefragt wurden („wie viele Stunden pro Tag schaust du fernsehen?“). Die Kinder wurden zwei Gruppen zugeteilt: In die Gruppe mit hohem und in die Gruppe mit niedrigem Fernsehkonsum. Von den 57 befragten Kindern wurden auf diese Weise 38 Kinder mit hohem Fernsehkonsum und 19 Kinder mit niedrigem Fernsehkonsum identifiziert. Ergebnisse: Um zu überprüfen, ob sich Kinder mit niedrigem und hohem Fernsehkonsum unterscheiden, wurde ein t-Test berechnet mit Fernsehkonsum als unabhängiger Variable und schulischer Motivation als abhängiger Variable. Der t-Test wurde zweiseitig getestet, da in der Fragestellung keine Annahme über die Richtung des Unterschiedes formuliert ist. Der t-Test ergab, dass sich Kinder mit hohem Fernsehkonsum (M = 1.79, SD = 0.63) und Kinder mit niedrigem Fernsehkonsum (M = 4.20, SD = 0.85) höchst signifikant voneinander unterschieden, t(55) = 11.07, p < .001. Die Mittelwertsunterschiede zwischen Kindern mit hohem und niedrigem Fernsehkonsum zeigten die Richtung des Unterschiedes: Kinder mit niedrigem Fernsehkonsum schätzten ihre schulische Motivation höher ein als Kinder mit hohem Fernsehkonsum. Da dieser Unterschied mit einer sehr niedrigen Irrtumswahrscheinlichkeit (p < .001) auch in der Grundgesamtheit besteht, kann von einem hoch signifikanten Ergebnis gesprochen werden.

Varianzanalyse. Dieses Testverfahren, häufig mit ANOVA abgekürzt, wird wie der t-Test zum Vergleich von Mittelwerten eingesetzt. Mit der Varianzanalyse werden aber nicht nur zwei, sondern mehrere Gruppen bezüglich ihren Mittelwerten in einem Merkmal miteinander verglichen (z.B. drei oder mehr Altersgruppen). Wiederum setzt dieser Test Intervallskalenniveau bei der abhängigen Variable voraus; die unabhängige Variable darf ein beliebiges Skalenniveau aufweisen. Es existieren für verschiedene Fragestellungen und Hypothesen verschiedene Formen der Varianzanalyse.

306

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Folgende Aspekte sind für die Einordnung varianzanalytischer Verfahren entscheidend: - einfaktoriell vs. mehrfaktoriell: Gibt es eine oder mehrere unabhängige Variablen? - univariat vs. multivariat: Gibt es eine oder mehrere abhängige Variablen? - mit Messwiederholung vs. ohne Messwiederholung: Wurde die Messungen einmal oder mehrmals bei den gleichen Personen durchgeführt? Einfaktorielle- und multifaktorielle Varianzanalysen. Wenn beispielsweise Lernende, die hohen, mittleren und niedrigen Fernsehkonsum aufweisen, in ihrer schulischen Motivation miteinander verglichen werden sollen, so wird eine einfaktorielle Varianzanalyse durchgeführt. Einfaktoriell bedeutet, dass nur eine unabhängige Variable (Fernsehkonsum) und nicht mehrere (z.B. Fernsehkonsum und Geschlecht) verwendet werden. Man spricht bei der unabhängigen Variablen auch von Gruppenvariablen, da mehrere Gruppen miteinander verglichen werden sollen (im Beispiel zu Abbildung 29 sind es Kinder mit hohem, mittlerem und niedrigem Fernsehkonsum).

Abbildung 29: Wirkungsmodell für die einfaktorielle, univariate Varianzanalyse.

307

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Fallbeispiel zur einfaktoriellen, univariaten Varianzanalyse ohne Messwiederholung Fragestellung: Bestehen zwischen Kindern mit hohem, mittlerem und niedrigem Fernsehkonsum Unterschiede hinsichtlich schulischer Motivation? Methode: Die Forscher der oben berichteten Studie überlegten, dass der Unterschied zwischen Kindern mit niedrigem und hohem Fernsehkonsum zu grob, und deshalb eine Aufteilung auf drei Gruppen (niedriger, mittlerer und hoher Fernsehkonsum) angemessener sein könnte. Ergebnis: In unten stehender Tabelle sind die Mittelwerte der drei Gruppen aufgeführt. Es wurde eine Varianzanalyse durchgeführt mit Fernsehkonsum (hoch, mittel, niedrig) als Gruppenvariable (man spricht dabei auch von Faktor) und schulischer Motivation als abhängiger Variable. Es liess sich hinsichtlich schulischer Motivation ein höchst signifikanter Unterschied des Fernsehkonsums feststellen, F(2, 54) = 11.94, p < .001. Die Effektstärke dieses signifikanten Unterschiedes (η = .31) ist als moderat einzuschätzen. Der Effekt ist somit nicht nur statistisch, sondern auch praktisch bedeutsam.

Tabelle 36: Mittelwerte, Standardabweichungen (in Klammern) von Kindern mit niedrigem, mittlerem und hohem Fernsehkonsum Fernsehkonsum

niedrig (n = 15) 4.53 (0.92)

mittel (n = 23) 2.47 (1.28)

hoch (n = 19) 2.47 (1.35)

Der F-Wert von 11.94 stellt die Prüfgrösse dar. Auch hier gilt: Je höher der F-Wert, desto höher fällt die Signifikanz aus. Im Unterschied zum t-Test, bei welchem nur zwei Gruppen miteinander verglichen werden, ist bei der Varianzanalyse mit mehreren Gruppenvergleichen nicht gleich klar, auf welche der Gruppenunterschiede das signifikante Ergebnis zurückzuführen ist. Unterscheiden sich in diesem Beispiel alle drei Gruppen oder nur zwei Gruppen? (Tabelle 36 zeigt die arithemetischen Mittelwerte und Standardabweichungen der drei Gruppen von Kindern zum Fernsehkonsum.) Falls letzteres der Fall ist, welche zwei Gruppen unterscheiden sich signifikant? Aus diesem Grund werden Folgeanalysen, sogenannte Post-hoc Tests, durchgeführt. Posthoc Tests testen die Mittelwerte aller Gruppen der Gruppierungsvariable (oder des Faktors) gegeneinander. Umfasst die Gruppierungsvariable drei Gruppen (wie im Beispiel) so müssen drei Einzelvergleiche durchgeführt werden. Bei vier Gruppen müssen sechs Vergleiche berechnet werden, etc. Bekannte Post-hoc Tests heissen Bonferrori, Fisher's LSD, Duncan, Newman-Keuls, Scheffé und Tukey.

308

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Fortsetzung Fallbeispiel zur Durchführung von Post-hoc Tests Um den signifikanten Effekt lokalisieren zu können, wurden Post-hoc Tests nach Tukey durchgeführt. Ergebnisse: Die Ergebnisse der Einzelvergleiche zeigten, dass sich die Kinder mit mittlerem und hohem Fernsehkonsum von den Kindern mit niedrigem Fernsehkonsum unterschieden (beide p < .01). Die Kinder mit mittlerem Fernsehkonsum und solche mit hohem Fernsehkonsum unterschieden sich aber nicht (p > .05).

Angenommen, die Forschenden interessieren sich im Weiteren, ob sich diese Unterschiede für Kinder auch zeigen, wenn zwischen dem Konsum anspruchsloser oder anspruchsvoller Fernsehsendungen unterschieden wird. Bei dieser erweiterten Fragestellung wird gleichzeitig der Einfluss von zwei Faktoren oder Gruppierungsvariablen (Fernsehkonsum-Gruppen und Anspruchsniveau) auf die schulische Motivation varianzanalytisch untersucht. Da in diesem Beispiel nicht mehr nur eine, sondern zwei Gruppierungsvariablen in die Varianzanalyse eingehen, muss hier eine mehrfaktorielle Varianzanalyse gerechnet werden (vgl. dazugehörendes varianzanalytisches Wirkungsmodell in Abbildung 30).

Abbildung 30: Wirkungsmodell der mehrfaktoriellen Varianzanalyse. Mit einer mehrfaktoriellen Varianzanalyse erhält man differenziertere Informationen, als wenn für die Gruppierungsvariablen separate Analysen durchgeführt werden. Denn sie ermöglicht etwas über die Wechselwirkung zwischen zwei oder mehreren Gruppierungsvariablen herauszufinden. Zum Beispiel wäre interessant zu erfahren, ob erhöhter Fernsehkonsum nur dann mit

309

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

niedrigen Werten in der schulischen Motivation einher geht, wenn das Anspruchsniveau der Fernsehsendungen niedrig ist. Umgekehrt sollten Lernende, welche häufig anspruchsvolle Sendungen schauen, keine niedrigen Werte in der schulischen Motivation aufweisen. Falls sich in mehrfaktoriellen Varianzanalysen solche Wechselwirkungen zwischen den Gruppierungsvariablen zeigen, wird von Interaktionseffekten gesprochen. Fallbeispiel zur mehrfaktoriellen univariaten Varianzanalyse ohne Messwiederholung (ANOVA) Fragestellung: Unterscheiden sich Kinder mit unterschiedlich häufigem Fernsehkonsum und solche, die unterschiedlich anspruchsvolle Sendungen konsumieren in der schulischen Motivation? Methode: Im Fragebogen zum Fernsehkonsum wurde zusätzlich mit einer offenen Frage nach dem Anspruchsniveau von Sendungen gefragt und die Kinder den Kategorien „hohes Anspruchsniveau“ und „niedriges Anspruchsniveau“ zugeordnet. Ergebnisse: Die deskriptiven Statistiken sind in unten stehender Tabelle aufgeführt. Es wurde eine 2 (Anspruchsniveau: hoch vs. niedrig) x 3 (Fernsehkonsum: niedrig, mittel, hoch) Varianzanalyse mit schulischer Motivation als abhängiger Variable gerechnet. Die Analyse ergab einen höchst signifikanten Haupteffekt des Fernsehkonsums, F(2, 51) = 12.99, p < .001. Posthoc-Analysen zeigten, dass Kinder mit mittleren und hohem Fernsehkonsum eine niedrigere schulische Motivation aufwiesen als Kinder mit niedrigem Fernsehkonsum (beide p < .01). Im Weiteren zeigte sich ein signifikanter Haupteffekt des Anspruchsniveaus der konsumierten Sendungen, F(1, 51) = 10.99, p < .01. Die Mittelwerte (vgl. Tabelle 37 unten) zeigen, dass Kinder, die anspruchsvolle Sendungen konsumierten, eine höhere schulische Motivation aufwiesen als solche, die anspruchslose Sendungen schauten. Schliesslich zeigte sich ein signifikanter Interaktionseffekt zwischen Anspruchsniveau und Fernsehkonsum, F(2, 51) = 3.65, p < .05. Dieser Interaktionseffekt ist in unten stehender Abbildung 31 veranschaulicht. Es ist sichtbar, dass der Unterschied zwischen Kindern mit niedrigem Fernsehkonsum und Kindern mit mittlerem oder hohem Fernsehkonsum bei Kindern, die anspruchsvolle Sendungen schauten, deutlicher ist. Dieser Eindruck konnte auch statistisch bestätigt werden, indem zwei separate einfaktorielle Varianzanalysen getrennt für die beiden AnspruchsniveauGruppen durchgeführt wurden. Diese zeigten, dass der Fernsehkonsum lediglich bei den Kindern, die anspruchslose Sendungen schauten, einen höchst signifikanten Effekt auf die schulische Motivation zeigte, F(2, 28) = 15.59, p < .001; bei den Kindern, die anspruchsvolle Sendungen schauten, war die schulische Motivation hoch, unabhängig davon, ob sie wenig, durchschnittlich oder viel Fernsehen schauten. Interpretation: Dieser Befund zeigt, dass die Häufigkeit des Fernsehkonsums nicht bei allen Kindern mit geringer schulischer Motivation zusammenhängt. Entscheidend für diesen Zusammenhang ist das Anspruchsniveau der Sendungen, die konsumiert werden. Häufiges Fernsehen geht nur bei den Lernenden, die anspruchslose Sendungen schauen, mit niedriger schulischer Motivation einher. Lernende, die anspruchsvolle Sendungen schauen, weisen unabhängig von der Häufigkeit des Fernsehkonsums eine hohe schulische Motivation auf.

310

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Tabelle 37: Mittelwerte und Standardabweichungen in schulischer Motivation bei Kindern mit hohem, mittlerem und niedrigen Fernsehkonsum Anspruchsniveau niedrig (n = 31) hoch (n = 26)

niedrig (n = 15) 4.63 (0.74) 4.43 (1.13)

Fernsehkonsum mittel (n = 23) 2.55 (1.44) 4.2 (0.43)

hoch (n = 19) 1.92 (1.35) 4.2 (0.90)

Abbildung 31: Interaktion zwischen Anspruchsniveau und Fernsehkonsum. Univariate und multivariate Varianzanalysen. Die oben beschriebenen Varianzanalysen beschreiben univariate Varianzanalysen, bei welchen lediglich eine abhängige Variable einbezogen wird. Die Multivariate Varianzanalyse, auch MANOVA genannt, ermöglicht die gleichzeitige Überprüfung von Mittelwertsunterschieden in mehreren abhängigen Variablen (vgl. Abbildung 32). Sie ist gegenüber separaten univariaten Varianzanalysen zu bevorzugen, wenn sich die verschiedenen abhängigen Variablen einem übergeordneten Konstrukt zuordnen lassen. Die multivariate Varianzanalyse überprüft nun, ob sich gesamthaft in einem Konstrukt, das mehrere abhängige Variablen umfasst, Unterschiede zwischen Gruppen (z.B. Kinder mit niedrigem und hohem Fernsehkonsum) feststellen lassen. Warum können anstelle einer multivariaten Varianzanalyse nicht einzelne univariate Varianzanalysen durchgeführt werden?

311

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Abbildung 32: Wirkungsmodell für die multivariate Varianzanalyse. Fallbeispiel zur einfaktoriellen, multivariaten Varianzanalyse (MANOVA) Angenommen eine Forscherin hat nicht die generelle schulische Motivation, sondern die fächerspezifische schulische Motivation erhoben (Motivation für Mathematik, Motivation für Deutsch, Motivation für Biologie). Die fächerspezifischen Motivationen lassen sich dem übergeordneten Konstrukt „schulische Motivation“ zuordnen. Möchte die Forscherin allgemein wissen, ob sich Kinder mit niedrigem und hohem Fernsehkonsum in der schulischen Motivation unterscheiden, muss sie eine multivariate Varianzanalyse rechnen, bei welcher gleichzeitig alle Motivationsskalen in eine Analyse eingegeben werden.

Ein Problem separater univariater Varianzanalysen besteht darin, dass sich der Fehler erster Ordnung (Alpha-Fehler) bei der Durchführung separater univariater Varianzanalysen kumuliert. Wenn für jeden einzelnen Test eine Irrtumswahrscheinlichkeit von .05 vorausgesetzt wird, so ist dies ein weniger strenges Kriterium als wenn bei einer einzelnen multivariaten Varianzanalyse, die alle abhängigen Variablen enthält, die gleiche Irrtrumswahrscheinlichkeit vorausgesetzt wird. Werden im Beispiel oben drei separate univariate Varianzanalysen gerechnet, so ist die Wahrscheinlichkeit, in einer der drei Tests ein signifikantes Ergebnis zu finden, dreimal höher als wenn alle drei Motivationsvariablen in einer multivariaten Varianzanalyse auf Mittelwertsunterschiede getestet werden. Ist man an einer Aussage interessiert, die sich auf das übergeordnete Konstrukt bezieht, so ist dieses strengere Kriterium und damit eine multivariate Varianzanalyse gegenüber einzelnen univariaten Varianzanalysen zu bevorzugen. Im Weiteren sind Variablen, welche das gleiche Konstrukt erfassen, häufig korreliert. So sollten die drei oben beschriebenen Motivationsvariablen untereinander korrelieren, wenn man von einem übergeordneten Konstrukt „schulische Motivation“ ausgeht. Falls generelle Aussagen zu Unterschieden in der

312

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

schulischen Motivation von Interesse sind, müssen multivariate Varianzanalysen durchgeführt werden, um den Zusammenhängen zwischen den abhängigen Variablen Rechnung zu tragen. Es gibt verschiedene Prüfgrössen, welche in multivariaten Varianzanalysen berechnet werden: Pillai-Spur, Wils-Lambda, Hotelling-Spur, Wurzel nach Roy. Varianzanalysen mit Messwiederholung. Gleich wie beim t-Test gibt es auch bei Varianzanalysen die Möglichkeit Daten auszuwerten, die zu mehreren Messzeitpunkten erhoben wurden. Viele Fragestellungen lassen sich erst beantworten, wenn die gleichen Personen mit den gleichen Messinstrumenten mehr als einmal untersucht werden. Dies gilt insbesondere für experimentelle oder entwicklungpsychologische Fragestellungen (vgl. Kapitel 4.1.6 „Forschungsdesigns“). Besonders wichtig ist, dass zu den verschiedenen Messzeitpunkten die gleichen Instrumente verwendet werden, da sich sonst bei allfälligen Unterschieden nicht sagen lässt, ob diese auf die unterschiedlichen Messzeitpunkte oder auf die unterschiedlichen Messinstrumente zurückgehen. In Varianzanalysen mit Messwiederholungen können beliebig weitere Gruppierungs-Variablen (z.B. Geschlecht) einbezogen werden. Diejenigen Variablen, deren Veränderung über die Zeit untersucht wird, werden Messwiederholungs-Variablen oder Innersubjekt-Variablen genannt. Die Gruppierungsvariablen, die über die Zeit konstant sind (z.B. Geschlecht), werden Zwischensubjekt-Variablen genannt. Nicht-parametrische (verteilungsfreie) Tests zur Überprüfung von Unterschiedshypothesen. In den Sozialwissenschaften wird den erfassten Variablen häufig Intervallskalenniveau zugeschrieben, obwohl sie meist „nur“ Ordinalskalenniveau aufweisen. Intervallskalennviveau setzt voraus, dass die Abstände zwischen den Merkmalsausprägungen einer Variable alle identisch sind (vgl.. Kapitel 7.3.1 „Messen“). Diese Annahme ist bei Antwortskalen, wie sie zum Beispiel in Fragebögen verwendet werden, nicht unproblematisch. Auch wenn Forschende davon ausgehen, dass die Abstände einer mehrstufigen Antwortskala in einem Fragebogen (z.B. trifft gar nicht zu, trifft eher nicht zu, trifft eher zu, trifft völlig zu) alle gleich sind, ist fraglich, ob dies für die Personen, die solche Einschätzungen vornehmen, gleichermassen gilt.

313

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Fallbeispiel zur einfaktoriellen, univariaten Varianzanalyse mit Messwiederholung Fragestellung: Unterscheiden sich Kinder mit hohem, mittlerem und niedrigem Fernsehkonsum hinsichtlich schulischer Motivation in der 3. und 5. Klasse? Methode: Die Kinder wurden mit dem gleichen Fragebogen zum Fernsehkonsum und zur schulischen Motivation in der dritten und fünften Klasse befragt. Somit liegen zu zwei Messzeitpunkten Informationen über die Häufigkeit des Fernsehkonsums (niedrig, durchschnittlich, hoch) und die schulische Motivation vor. Ergebnis: Es wurde eine Varianzanalyse mit Messwiederholung mit schulischer Motivation als Innersubjekt-Variable und Fernsehkonsum als Zwischensubjekt-Variable (niedrig, mittel, hoch) durchgeführt. Die Analyse ergab einen höchst signifikanten Effekt der schulischen Motivation, F(1, 38) = 11.75, p < .001. Ein Vergleich der Mittelwerte zum ersten und zweiten Messzeitpunkt zeigte, dass die schulische Motivation bei den älteren Kindern (M = 3.32, SD = 1.52) niedriger war als bei den jüngeren Kindern (M = 4.24, SD = 0.92). Im Weiteren zeigte sich ein signifikanter Effekt des Fernsehkonsums, F(2, 38) = 4.31, p < .05. Ein signifikanter Interaktionseffekt zwischen Fernsehkonsum und schulischer Motivation, F(2, 38) = 3.42, p < .05, zeigte aber, dass dieser Effekt nicht unabhängig vom Messzeitpunkt war (vgl. Abbildung 33 unten, welche den Interaktionseffekt veranschaulicht). Separate einfaktorielle Varianzanalysen für die beiden Altersgruppen ergaben lediglich zum zweiten Messzeitpunkt einen hoch signifikanten Effekt des Fernsehkonsums auf die schulische Motivation, F(2, 40) = 5.66, p < .01. Zum ersten Messzeitpunkt war die schulische Motivation der Kinder hoch, unabhängig von der Häufigkeit des Fernsehkonsums. Nachfolgeanalysen des signifikanten Effektes zum zweiten Messzeitpunkt ergaben, dass sich die Kinder mit hohem und mittlerem Fernsehkonsum signifikant von solchen mit niedrigem Fernsehkonsum unterschieden (beide p < .05).

Abbildung 33: Schulische Motivation und Fernsehkonsum in der dritten und fünften Klasse.

314

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

So ist beispielsweise anzunehmen, dass für eine Person der Unterschied zwischen „trifft eher nicht zu“ und „trifft eher zu“ psychologisch bedeutsamer ist als der Unterschied zwischen „trifft eher zu“ und „trifft völlig zu“, da es bei Ersterem um eine grundsätzlichere Entscheidung geht (trifft zu oder trifft nicht zu), bei letzterem hingegen lediglich um eine Präzisierung. Trotzdem ist bei vielen Variablen die Anwendung parametrischer Verfahren (d.h. Verfahren, die Intervallskalenniveau voraussetzen) legitim. Wichtig ist nämlich in erster Linie, dass die erfassten Variablen nicht bedeutsam von der Annahme der Normalverteilung abweichen. Ist dies nicht der Fall, dürfen Intervallskalenniveau unterstellt und die dazu passenden parametrischen statistischen Verfahren durchgeführt werden. Weichen aber die Verteilungen der Variablen von der Normalverteilung ab, müssen alternative Tests, sogenannte nicht-parametrische (verteilungsfreie) Tests, durchgeführt werden. Für die meisten Fragestellungen gibt es zu parametrischen Tests analoge nicht-parametrische Verfahren. Einige der wichtigsten nichtparametrischen Tests sind in Tabelle 38 (S. 316) aufgeführt. Tests für Zusammenhangshypothesen. Der Chi-Quadrat-Test. Dieser Test überprüft den Zusammenhang zwischen zwei nominal- oder höher skalierten Variablen, zum Beispiel zwischen Geschlecht (Knabe, Mädchen) und Fernsehkonsum (hoch, niedrig). Grundlage zur Berechnung der Prüfgrösse ChiQuadrat (χ2) sind die beobachteten und erwarteten Häufigkeiten der verschiedenen Zellen in der Kreuztabelle (vgl. Kap. 7.4.1). Die beobachteten Werte bezeichnen die Häufigkeiten der Personen, welche in den einzelnen Zellen tatsächlich ausgezählt wurden. Die erwarteten Häufigkeiten bezeichnen die Häufigkeiten, die zustande kämen, wenn die Personen zufällig auf die Zellen verteilt wären. Die erwarteten Häufigkeiten basieren somit auf der Annahme, dass kein Zusammenhang zwischen den beiden nominalskalierten Variablen besteht. Die erwarteten Werte einer bestimmten Zelle (eij) lassen sich einfach berechnen:

wobei: - Zeilensummei = Zeilensumme, in welcher sich die Zelle eij befindet - Spaltensummei = Spaltensumme, in welcher sich die Zelle eij befindet - Gesamtsummen = Gesamtzahl aller Beobachtungen

315

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Tabelle 38: Häufig eingesetzte nicht-parametrische Tests Fragestellung

Test und Prüfgrösse (in Klammern)

Beispiele zu Ergebnissen

Wie unterscheiden sich zwei unabhängige Stichproben?

U-Test nach MannWhitney (U)

Wie unterscheiden sich zwei abhängige Stichproben? Wie unterscheiden sich mehr als zwei unabhängige Stichproben?

Wilcoxon-Test (z)

Es gab keinen signifikanten Unterschied zwischen Frauen und Männern im Alkoholkonsum (U = 135.50, N1 = 20, N2 = 20, p = ns). Die Lernenden zeigten nach den Sommerferien eine signifikant höhere schulische Motivation als vor den Sommerferien, z = 2.53, p < .05. Es zeigte sich ein signifikanter Effekt des autoritären Erziehungsstils (hoch, mittel, niedrig) auf das aggressive Verhalten der Kinder, H = 8.66, p < .05. Nachfolgeanalysen mit dem U-Test nach Mann-Whitney zeigten, dass hoch autoritäre Eltern aggressivere Kinder hatten als wenig autoritäre Eltern (z = 2.77, p < .05). Die Kinder durchschnittlich autoritärer Eltern unterschieden sich nicht von den anderen beiden Gruppen. Das Gewicht der TeilnehmerInnen veränderte sich über die zweimonatige Diät nicht signifikant, χ2(2) = .20, ns.

Wie unterscheiden sich mehr als zwei abhängige Stichproben?

H-Test nach Kruskal und Wallis (H)

Friedman-Test (Chi-Quadrat [χ2])

Der Chi-Quadrat-Test überprüft nun, ob die beobachteten Häufigkeiten bedeutsam von den erwarteten Werten abweichen. Chi-Quadrat (χ2) stellt die Prüfgrösse dar, welche die Stärke der Abweichung der beobachteten von den erwarteten Werten und somit auch die Stärke des Zusammenhangs zwischen den beiden Variablen angibt. Fallbeispiel zum Chi-Quadrat-Test Fragestellung: Welcher Zusammenhang besteht zwischen Geschlecht und Fernsehkonsum bei Kindern? Ergebnisse: Zur Untersuchung des Zusammenhangs zwischen Geschlecht und Fernsehkonsum wurde ein Chi-Quadrat-Test durchgeführt. In unten stehender Tabelle 39 sind die beobachteten und erwarteten Werte aufgeführt. Die Auswertung ergab einen hoch signifikanten Zusammenhang zwischen Geschlecht und Fernsehkonsum, χ2(1, N = 57) = 6.88, p < .01. Ein Vergleich der beobachteten mit den erwarteten Werten zeigt, dass die Mädchen häufiger als erwartet bei den Kindern mit hohem Fernsehkonsum waren, währenddem die Jungen häufiger als erwartet bei den Kindern mit niedrigem Fernsehkonsum waren. Entsprechend zeigte sich bei den Kindern mit niedrigem Fernsehkonsum, dass die Mädchen weniger als erwartet in dieser Gruppe vorkommen, die Jungen hingegen häufiger als erwartet.

316

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Tabelle 39: Geschlecht und Fernsehkonsum Geschlecht Fernsehkonsum Niedrig Beobachtet Erwartet Hoch Beobachtet Erwartet Total (Spalte)

Mädchen

Jungen

Total (Zeile)

14 18.67

24 19.33

38

14 9.33 28

5 9.67 29

19 57

Der Chi-Quadrat-Test muss sich nicht auf die Untersuchung von zweistufigen nominalskalierten Variablen beschränken, wie dies im oben aufgeführten Beispiel der Fall ist. Der Test kann auch mit nominalskalierten Variablen mit mehr als zwei Stufen durchgeführt werden. Zum Beispiel könnte untersucht werden, ob der Fernsehkonsum (bestehend aus den drei Gruppen: hoch, mittel und niedrig) mit der sozialen Schicht (niedrig, mittel und hoch) zusammenhängt. Daraus würde sich eine Kreuztabelle mit 3x3 Zellen ergeben. Korrelationen und Regressionsanalyse. Möchte man den Zusammenhang zwischen ordinal- oder intervallskalierten Variablen bestimmen, werden Korrelationen oder Regressionsanalysen berechnet (vgl. Kap. 7.4.4). Um bestimmen zu können, ob die Korrelation zwischen zwei Variablen signifikant ist, muss auch hier ein Signifikanztest durchgeführt werden. Dabei werden der Korrelationskoeffizient r und die Irrtumswahrscheinlichkeit p angegeben. Soll nicht nur die Korrelation von zwei Variablen, sondern von mehreren Variablen angegeben werden, so ist es übersichtlicher, wenn die Korrelationskoeffizienten und deren Signifikanz nicht alle im Text beschrieben, sondern tabellarisch dargstellt werden (siehe Beispiel unten). Multiple Regressionsanalyse. Ähnlich wie bei der mehrfaktoriellen Varianzanalyse besteht auch bei der Regressionsanalyse die Möglichkeit, gleichzeitig den Einfluss mehrerer unabhängiger Variablen auf eine abhängige Variable zu untersuchen. Anstelle von unabhängigen Variablen wird im Kontext von Regressionsanalysen auch von den Prädiktorvariablen gesprochen, anstelle von abhängigen Variablen von Kriteriumsvariablen.

317

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Fallbeispiel zu Korrelationen Fragestellung: Wie hängt die schulische Motivation von Kindern mit der Häufigkeit ihres Fernsehkonsums, ihrem zeitlichen Aufwand für Hausaufgaben und den schulischen Aspirationen ihrer Eltern zusammen? Methode: Die schulischen Aspirationen der Eltern wurden über die Kinder mit einem Fragebogen erhoben. Es wurden sechs Fragen zum elterlichen Interesse und Engagement für die schulischen Aktivitäten und Leistungen der Kinder gestellt (z.B. meinen Eltern ist es wichtig, dass ich gut in der Schule bin). Die Skala „Aspirationen der Eltern“ wurde gebildet, in dem der Mittelwert der Antworten zu den sechs Fragen der Skala Eltern berechnet wurde. Ergebnis: Die Analysen ergaben, dass schulische Motivation negativ mit der Häufigkeit des Fernsehkonsums (r = -.37) und positiv mit dem zeitlichen Aufwand für Hausaufgaben (r = .51) und den elterlichen Aspirationen (r = .63) korreliert war (vgl. Tabelle 39 unten). Kinder, welche sich als schulisch motiviert einschätzten, berichteten, dass sie wenig Fernsehen konsumierten, viel Zeit in Hausaufgaben investierten und Eltern hatten, die an den schulischen Leistungen und Aktivitäten interessiert waren. Im Weiteren zeigte sich ein positiver Zusammenhang zwischen elterlichen Aspirationen und investierter Zeit in Hausaufgaben. Umso mehr die Eltern an den schulischen Leistungen und Aktivitäten der Kinder interessiert waren, desto mehr Zeit verbrachten die Lernenden mit Hausaufgaben.

Tabelle 40: Korrelationen zwischen schulischer Motivation, Fernsehkonsum, Hausaufgaben und Aspirationen der Eltern Schulische Motivation -

Fernsehkonsum

Schulische Motivation Fernsehkonsum –.37** Hausaufgaben .51*** –.02 Eltern .63*** –.06 Anmerkungen: N = 57. *p < .05. **p < .01. *** p < .001

Hausaufgaben

.48***

Aspirationen der Eltern

-

Zum einen zeigt die regressionsanalytische Auswertung, ob die verschiedenen Prädiktorvariablen, deren Einfluss auf eine Kriteriumsvariable untersucht werden soll, alle zusammen signifikant zur Vorhersage der schulischen Motivation beitragen. Dabei gibt der Kennwert ΔR2 an, wie viel Varianz in der abhängigen Variable durch die Prädiktorvariablen aufgeklärt werden kann – oder umgangssprachlich ausgedrückt: Wie gut die Prädiktorvariablen die Kriteriumsvariable vorhersagen können. ΔR2 variiert zwischen 0 und 1. Ein Wert von 0 bedeutet, dass die Prädiktorvariablen nichts (d.h. 0%) zur Vorhersage der Kriteriumsvariable beitragen; Ein Wert von 1 bedeutet, dass die Kriteriumsvariable vollständig (d.h. 100%) durch die Prädiktorvariablen

318

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

vorhergesagt werden kann. Im Weiteren ermöglicht die multiple Regressionsanalyse, den Einfluss der verschiedenen Prädiktorvariablen auf die Kriteriumsvariable sichtbar zu machen und miteinander zu vergleichen. Die Regressionskoeffizienten (vgl. Kap. 7.4.3) sind dazu ungeeignet, da diese Werte abhängig sind vom Wertebereich der jeweiligen Prädiktorvariable. Die sogenannten Beta-Gewichte hingegen sind standardisierte Werte und eignen sich für den Vergleich der Bedeutung verschiedener Prädiktorvariablen in der Vorhersage der Kriteriumsvariablen. Die Regressionsanalyse setzt sowohl für die Prädiktor- als auch für die Kriteriumsvariablen Intervallskalenniveau voraus. Allerdings ist die Regressionsanalyse robust gegenüber der Verletzung dieser Voraussetzung. Deshalb werden auch häufig ordinalskalierte oder gar nominalskalierte Variablen als Prädiktorvariablen verwendet.

Beispiel zur Multiplen Regressionsanalyse Fragestellung: Kann die schulische Motivation durch den Fernsehkonsum, die elterlichen schulischen Aspirationen und den zeitlichen Aufwand für Hausaufgaben signifikant vorhergesagt werden? Ergebnisse: Es wurde eine Regressionsanalyse mit schulischer Motivation als abhängiger Variable und Fernsehkonsum, elterlichen Aspirationen und zeitlichem Aufwand für Hausaufgaben als unabhängige Variablen durchgeführt. Die Analyse zeigte, dass die schulische Motivation durch die drei unabhängigen Variablen höchst signifikant vorhergesagt werden konnte (ΔR2 = .54, p < .001, n = 57). Die Prädiktorvariablen erklärten somit 54% der Varianz in der schulischen Motivation. Die Beta-Gewichte der drei Prädiktorvariablen sind in unten stehender Tabelle aufgeführt. Diese zeigen, dass die Variable „elterliche schulische Aspirationen“ nach Kontrolle der anderen beiden Prädiktorvariablen am meisten zur Vorhersage der schulischen Motivation beiträgt.

Tabelle 41: Kennwerte der Regressionsanalyse mit schulischer Motivation als Kriteriumsvariable und Fernsehkonsum, elterlichen Aspirationen und zeitlichem Aufwand für Hausaufgaben als Prädiktorvariablen Fernsehkonsum Hausaufgaben Eltern

B –.24 –.55 .40

SD .06 .19 .09

β –.34 –.29 .46

p .001 .01 .001

319

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

7.5.4 Deskriptive und prüfstatistische Fragestellungen und die Interpretation der beantworteten Fragestellungen Abschliessend wird auf die Bedeutung von deskriptiven und prüfstatistischen Fragestellungen eingegangen. Falls keine hypothesenprüfenden Verfahren eingesetzt werden, ist es wichtig, dass nur Fragestellungen formuliert werden, die mittels deskriptiver Statistik zu beantworten sind. Prüfstatistische und deskriptiv ausgerichtete Fragestellungen Prüfstatistische ausgerichtete Fragestellung: Unterscheiden sich die Schulleistungen von Kindern mit hohem Fernsehkonsum von denjenigen mit niedrigem Fernsehkonsum? Kommentar: Die Frage ist ohne prüfstatistische Überprüfung nicht zu beantworten, da die Frage nach einer generalisierenden Antwort verlangt, welche über eine deskriptive Beschreibung der Stichprobe hinausgeht. Deskriptive Fragestellung: Welche Schulleistungen zeigen Kinder mit hohem Fernsehkonsum und solche mit niedrigem Fernsehkonsum? Kommentar: Diese Frage lässt sich ohne prüfstatistische Kenntnisse mittels deskriptiver Statistik durch die tabellarische oder grafische Darstellung der Häufigkeitsverteilung oder durch die Berechnung von Mittelwerten und Standardabweichungen beantworten. Deskriptive und statistische Interpretationen von Befunden Beispiel 1 Die Kinder mit hohem Fernsehkonsum (M = 4.23) zeigten um eine halbe Note schlechtere Leistungen als die Kinder mit niedrigem Fernsehkonsum (M = 4.73). Kommentar: Dieser Schluss ist zulässig. Diese Aussage ist rein beschreibend auf die Stichprobe bezogen und macht keine generalisierende Schlussfolgerung über die tatsächlichen Verhältnisse in der Gesamtpopulation. Beispiel 2 Kinder mit hohem Fernsehkonsum zeigen schlechtere Leistungen als Kinder mit niedrigem Fernsehkonsum. Kommentar: Dies ist ein „unzulässiger Schluss“. Diese Aussage ist nicht mehr rein beschreibend, sondern formuliert den Unterschied als Tatsache und generalisiert damit – ohne prüfstatistische Überprüfung – auf die Gesamtpopulation. Beispiel 3 Kinder mit hohem Fernsehkonsum zeigen schlechtere Leistungen als Kinder mit niedrigem Fernsehkonsum, t(186) = –4.23, p < .001. Kommentar: Dies ist ein „zulässiger Schluss“. Die Aussage in Beispiel 2 ist jetzt zulässig, da sie mittels eines prüfstatistischen Tests abgesichert wurde.

320

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Ebenso ist darauf zu achten, dass Daten, die deskriptiv ausgewertet wurden, nicht prüfstatistisch interpretiert werden. Wenn beispielsweise auf deskriptiver Basis die schulische Motivation von Kindern mit hohem Fernsehkonsum und Kindern mit niedrigem Fernsehkonsum berechnet wurden, so dürfen keine verallgemeinernden Aussagen gemacht werden – auch dann nicht, wenn ein deutlicher Unterschied sichtbar ist. Dafür braucht es eindeutige Kriterien, welche prüfstatistische Tests bereitstellen können. Weiterführende Literatur Bortz, J. (2005). Statistik für Sozialwissenschaftler. Berlin: Springer. Bühl, A. (2008). SPSS 16. Einführung in die moderne Datenanalyse. München: Pearson Studium. Monka, M., Schöneck, N. M., & Voss, W (2008). Statistik am PC - Lösungen mit Excel. München: Hanser Fachbuchverlag. Schmuller, J. (2005). Statistik mit Excel für Dummies. Weinheim: WILEY-VCH Verlag.

321

Powered by TCPDF (www.tcpdf.org)

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

8 Kommunikation der Forschungsergebnisse

Dieses Kapitel handelt vom Schreiben (Kap. 8.1) und Vortragen (Kap. 8.2 und Kap. 8.3) wissenschaftlicher Inhalte. Zum einen sind wissenschaftliches Schreiben und Präsentieren Schlüsselqualifikationen in jedem Studium. Zum anderen werden durch wissenschaftliches Schreiben und Präsentieren Kompetenzen erworben, welche für professionelles Handeln im Lehrberuf von zentraler Bedeutung sind (vgl. Kapitel 3 „Forschungskompetenzen für Lehrpersonen und Forschung von Lehrpersonen“). Wissenschaftliche Kommunikation zeichnet sich dadurch aus, dass Behauptungen und Urteile kritisch hinterfragt, Gedankengänge präzise und verständlich erläutert und Aussagen sachlich begründet werden können. Diese kommunikativen Fähigkeiten kommen in den verschiedensten Bereichen des Lehrberufes zum Tragen und sind insbesondere dort gefordert, wo Lehrpersonen ihre Einschätzungen und Urteile gegenüber Dritten rechtfertigen müssen. Aus Sicht der Wissenschaft dient die Kommunikation von Forschungsergebnissen der Weitergabe neuen Wissens an die Wissenschaftsgemeinschaft („scientific community“). Dadurch wird Wissen „archiviert“ und muss nicht immer wieder neu erfunden werden. Innerhalb der Wissenschaftsgemeinschaft wird erwartet, dass geplante Studien an bisherige Arbeiten und an den neuesten Erkenntnissen zum Thema anknüpfen. Häufig werden wissenschaftliche Texte vor ihrer Publikation einer strengen Prüfung durch international bekannte Expertinnen und Experten unterzogen. Auf diese Weise wird die Qualität der Publikationen durch externe Begutachtung sichergestellt.

8.1 Erstellen eines empirischen Untersuchungsberichtes Wissenschaftliches Schreiben unterscheidet sich von journalistischem Schreiben, literarischem Schreiben oder alltäglichem Argumentieren im Bekannten- oder Freundeskreis. Es weist bestimmte Merkmale auf wie das Bemühen um Objektivität, die argumentative Fundierung von Aussagen, begriffliche Klarheit und eigenständiges Denken. Kennzeichnend für wissen-

322

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

schaftliches Schreiben sind ebenfalls ein präziser und sprachlich korrekter Ausdruck sowie eine formal korrekte Darstellungsweise von Tabellen, Abbildungen und Literaturhinweisen. Im Folgenden werden diese Merkmale wissenschaftlichen Schreibens näher ausgeführt, indem in einem ersten Schritt auf die Inhalte einer empirischen Arbeit und in einem zweiten Schritt auf deren formale Darstellung/Gestaltung eingegangen wird. 8.1.1 Inhaltliche Aspekte Eine wissenschaftliche Arbeit enthält typischerweise folgende Abschnitte: 1. Zusammenfassung (Abstract) 2. Einleitung 3. Theorieteil 4. Fragestellungen/Hypothesen 5. Methode 6. Ergebnisse 7. Diskussion und Schlussfolgerung 8. Literatur 9. Anhang Im Folgenden wird ausgeführt, welche inhaltlichen Aspekte in diesen Textabschnitten erwartet werden. Zusammenfassung (Abstract). Die Zusammenfassung steht vor dem Inhaltsverzeichnis und umfasst etwa eine halbe bis maximal eine Seite. Auf diese Weise kann man sich rasch eine Übersicht verschaffen und entscheiden, ob man die Arbeit genauer lesen möchte. Die Zusammenfassung lässt sich durch folgende Punkte näher charakterisieren: - Vollständigkeit: Die Zusammenfassung enthält alle erforderlichen Informationen zur Arbeit und sollte ohne Rückgriff auf die Arbeit verständlich sein. Die wichtigsten Informationen zu den Hauptkapiteln der Arbeit sind enthalten (Frage oder Thema, Theorie, Methode, Ergebnisse, Interpretation). - Genauigkeit: Die Zusammenfassung enthält nur Informationen, die in der Arbeit genannt werden. Wesentliche bzw. zentrale Begriffe der Arbeit und inhaltliche Schwerpunkte sollten in der Zusammenfassung genannt werden. - Objektivität: Die Zusammenfassung gibt den Inhalt der wissenschaftlichen Arbeit ohne Wertung wieder.

323

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

- Verständlichkeit: Die Zusammenfassung ist klar und verständlich formuliert. Der Inhalt ist für eine Leserin oder einen Leser, der gewisse Fachkenntnisse aufweist, verständlich. Einleitung. Die Einleitung dient dazu, in das Thema und die zentrale Fragestellung einzuführen. Der Leser/die Leserin sollte sich rasch ein Bild davon machen können, was einen im Folgenden erwartet. Dies erfordert, dass die Autorin oder der Autor bereits einen guten Überblick über die Arbeit hat und die zentralen Ziele klar formulieren kann. Da am Anfang einer Arbeit eine solch fokussierte Perspektive noch nicht unbedingt gegeben ist, ist es sinnvoll, die Einleitung erst in einem späteren Stadium oder gar erst am Ende der Arbeit zu schreiben resp. sie am Ende zumindest noch einmal zu überarbeiten. Folgende Punkte sind in einer Einleitung zu beachten: - Die ersten Einleitungssätze sind attraktiv und machen auf das Thema neugierig. - Eine Einleitung ist fokussiert, d.h. sie macht deutlich, welches die zentrale Fragestellung ist. Die Fragestellung sollte nicht nur formuliert, sondern auch begründet werden. Auch sollte aufgezeigt werden, weshalb eine Auseinandersetzung mit dem Thema/der Fragestellung (theoretisch und/oder praktisch) relevant ist. - Eine Einleitung gibt am Ende einen kurzen Überblick über den Aufbau und die Argumentationslinien. Darin sollten nicht die offensichtliche Gliederung (Theorie, Methode, Diskussion), sondern die übergeordneten Zielsetzungen der jeweiligen Abschnitte oder Hauptkapitel erkennbar werden. Theorieteil. Im Theorieteil erfolgt die Auseinandersetzung mit der Fragestellung auf der Basis von Theorien und dem aktuellen Forschungsstand zum Thema. Am Ende des Theorieteils (oder zu Beginn des Methodenteils) werden die Fragestellungen und Hypothesen aufgeführt, welche zum Empirieteil (d.h. Methode und Ergebnisse) überleiten. Ein wichtiges Qualitätsmerkmal einer guten Arbeit ist die Passung zwischen Theorieteil und Fragestellungen/Hypothesen. Die Diskussion des theoretischen Hintergrundes, die Erläuterung der theoretischen Begriffe, ihre Einordnung in die zugehörigen Theoriemodelle und das Aufzeigen empirischer Forschungsergebnisse im Umfeld der Fragestellung (Theorieteil) erlauben eine begründete Ableitung der eigenen Fragestellung und Hypothesen. Ziel ist, dass durch die Auseinandersetzung mit der Literatur im Theorieteil die Basis für die Fragestellungen/Hypothesen gelegt wird. Dieses Ziel ist beispielsweise verfehlt, wenn die Hypothesen Aspekte einbringen, die im Theorieteil nicht adäquat oder gar

324

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

nicht behandelt wurden. Das Gleiche gilt aber auch umgekehrt: Elemente, die in der Theorie ausführlich dargelegt werden und dann für die Hypothesen und das methodische Vorgehen keine Relevanz haben, sind ebenso verfehlt. Ein guter Theorieteil - basiert auf Fachliteratur, - bemüht sich um eine klare Begrifflichkeit, - verbindet theoretische Argumente und Forschungsbefunde, - ist gut strukturiert und übersichtlich, - hat einen „roten Faden“, - ist originell und - argumentativ aufgebaut. Im Folgenden werden diese Qualitätsmerkmale näher erläutert. Auf Fachliteratur abstützen: Ein Theorieteil steht und fällt mit der Literaturrecherche. Je umfassender die Literaturrecherche und -verarbeitung desto reichhaltiger wird der Theorieteil und desto differenzierter fallen Fragestellungen und Hypothesen aus. Behauptungen sollten durch andere Forschungsergebnisse oder theoretische Argumente gestützt werden und können nicht einfach in den Raum gestellt werden (vgl. Kapitel 4.2.2 „Literatursuche und beschaffung“). Zur korrekten Auswertung von Literatur gehören nach Bänsch (2002) - eine sorgsame Wiedergabe der Literatur: Inhalt, Zusammenhang und Quelle einer Aussage werden genau wiedergegeben. - eine faire Wiedergabe der Literatur: Theorien und Befunde, welche den eigenen Erwartungen zuwiderlaufen, werden wie die „hypothesenkonformen“ Literaturquellen vollständig dargestellt. - eine ungefilterte Wiedergabe der Literatur: Während die Sekundärliteratur Studienergebnisse oder Gedanken anderer Autoren zusammenfassend wiedergibt, werden in Primärliteratur eigene Studienergebnisse oder Gedankengänge berichtet, die sich auf keine weitere Quelle beziehen. Da Sekundärliteratur immer schon eine Interpretation von Primärquellen beinhaltet, sollte möglichst auf Primärliteratur zurückgegriffen werden. Nur so gelangt man zu einer eigenständigen Einschätzung dieser Quellen. Für klare Begrifflichkeit sorgen: Wenn für die Fragestellung zentrale Begriffe unklar definiert werden, ist es schwierig, die Begriffe sinnvoll zu operationalisieren, d.h. geeignete Messinstrumente zu finden. Zentrale Begriffe müssen deshalb geklärt, d.h. analysiert werden (vgl. Kapitel 4.1.3 „Konstrukte, Begriffsdefinitionen und Operationalisierung“). Begriffliche Klarheit bedeu-

325

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

tet mehr, als eine Definition aus einem Lexikon zu übernehmen. Erstens sind die psychologischen und pädagogischen Begriffe in fachunspezifischen Lexika nicht von Fachspezialisten verfasst worden, so dass die Qualität nicht immer garantiert ist. Am besten orientiert man sich an Begriffsklärungen aus aktuellen Fachbüchern von bekannten Autoren/Autorinnen auf dem Gebiet. Auf diese Weise geht man sicher, dass die Begriffsklärung dem aktuellen Diskussions- und Forschungsstand entspricht. Zweitens sind viele psychologische und pädagogische Begriffe vieldeutig. Entsprechend definieren verschiedene Autoren/Autorinnen die Begriffe unterschiedlich. Diese Vieldeutigkeit in der Bedeutung von Begriffen wird in einer guten wissenschaftlichen Arbeit aufgezeigt und diskutiert. Beispiel für eine Begriffsklärung, die verschiedene Sichtweisen integriert: Manche Aggressionsforscher (z.B. Berkowitz, 1993) definieren Aggression als schädigendes Verhalten. Viele Verhaltensweisen haben aber schädigende Wirkungen, ohne dass wir diese als aggressiv bezeichnen würden (z.B. unabsichtliches Stossen). Entsprechend argumentieren manche Aggressionsforscher (z.B. Coie & Dodge, 1998), dass die Absicht zur Schädigung und weniger die tatsächlichen schädigenden Folgen eine aggressive Handlung charakterisieren. So ist beispielsweise auch ein misslungener Mordversuch aufgrund der Schädigungsabsicht eine aggressive Handlung, auch wenn er aufgrund des Misserfolgs keine schädigenden Folgen hatte.

Häufig wird von einem Autor oder einer Autorin ein bestimmter Aspekt eines Begriffs hervorgehoben, und andere werden vernachlässigt. Eine differenzierte Begriffsklärung beinhaltet auch, dass die Begriffsauffassungen verschiedener Autoren berücksichtigt werden. Beispiel einer vergleichenden Begriffsdefinition: Olweus (1993) definiert Mobbing als eine spezifische Form der Aggression, welche wiederholt und über einen längeren Zeitraum gegenüber einem Opfer ausgeübt wird. Smith (2004) hingegen stellt in seiner Definition von Mobbing das Kräfteungleichgewicht zwischen Täter und Opfer in den Mittelpunkt.

Zur begrifflichen Auseinandersetzung gehört schliesslich die Abgrenzung gegenüber anderen verwandten Begriffen (z.B. Aggression und Mobbing). Beispiel einer begrifflichen Abgrenzung: Im Unterschied zur Aggression zeichnet sich Mobbing durch soziale Komplexität aus, d.h. eine Person wird von einem oder mehreren Tätern gezielt als Opfer ausgewählt und in einem sozialen Kontext von Zuschauern und Mitläufern geplagt.

326

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Forschungsbefunde und Theorien kommentierend verbinden: Theorien und Forschungsbefunde werden nicht zusammenfassend aneinander gereiht, sondern interpretiert, verglichen und bewertet. Dazu gehört, dass Gemeinsamkeiten und Unterschiede zwischen theoretischen Konzepten und Studien herausgearbeitet und diskutiert werden. Beispiel einer vergleichenden Argumentation: Es gibt insgesamt nur wenige Studien, die den Zusammenhang zwischen X und Y untersucht haben. Eine Studie mit 3- bis 5-jährigen Kindern fand keinen Zusammenhang zwischen X und Y (Müller, 2000). Auch die Studie von Meier (2001) konnte keinerlei Zusammenhänge zwischen X und Y feststellen. Für diese fehlenden Zusammenhänge lassen sich folgende Gründe anbringen …

Auch ist wichtig, dass die aufgeführten Studien zur eigenen Fragestellung in Beziehung gesetzt werden. Damit wird deren Relevanz für die eigene Fragestellung deutlich gemacht. Solche Bezüge zur Fragestellung strukturieren und ordnen die Arbeit. Sie zeigen auf, in welcher Beziehung das Gelesene zum eigentlichen Erkenntnisinteresse steht. Dabei ist darauf zu achten, dass die Argumentation konsistent und widerspruchsfrei ist. Die einzelnen Argumente müssen klar aufeinander bezogen sein, damit die Argumentationslinie für die Leserschaft eindeutig nachvollziehbar ist. Bezüge zur eigenen Fragestellung können unter anderem durch folgende Formulierungen eingeleitet werden: „Daraus lässt sich schliessen, dass …“; „Zusammenfassend lässt sich schlussfolgern, dass …“; „Diese Befunde lassen den Schluss zu, dass …“. Die Leserin/den Leser „an die Hand nehmen“ und für Übersicht sorgen: Wissenschaftliche Arbeiten behandeln meist einen komplexen und anspruchsvollen Gegenstand. Deshalb ist es wichtig, dass der Leserin oder dem Leser stets erklärt wird, was eine Textstelle/Studie/Theorie zur Beantwortung der Fragestellung beiträgt. Dies wird erreicht mittels … - Einleitungen, welche das Folgende in den Gesamtkontext einordnen helfen, - Überleitungen, welche deutlich machen, in welcher Beziehung das Vorauslaufende zum Folgenden steht, - Zusammenfassungen, welche die wichtigsten Punkte pointiert wiedergeben und deren Relevanz für die Fragestellung deutlich machen. Den „roten Faden“ sichtbar machen: Eine Arbeit hat dann einen „roten Faden“, wenn immer wieder Bezüge zur Fragestellung hergestellt werden und damit das zentrale Erkenntnisinteresse nie aus dem Blickfeld gerät (vgl. Kapitel 4.3 „Erstellung eines Untersuchungsplanes“). 327

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Originalität und Eigenleistung einbringen: Eigenleistung ist dann zu erkennen, wenn die Arbeit einen Erkenntnisfortschritt bringt und/oder Originalität in der Aufbereitung vorliegender Erkenntnisse aufweist. Folgende Punkte zeigen auf, wie sich Originalität und Eigenleistung in einer wissenschaftlichen Arbeit äussern können. - Es wird eine Fragestellung aufgegriffen, die bisher in der Literatur ignoriert, nur gestreift oder nur generell behandelt wurde. Eine Erkenntnislücke kann durch den eigenen Beitrag geschlossen werden. - Es wird eine Fragestellung aufgegriffen, die bisher aufgrund widersprüchlicher theoretischer Argumente oder empirischer Befunde nicht eindeutig beantwortet werden konnte. Die eigene Arbeit versucht, etwas zur Klärung dieser Widersprüche beizutragen. - Eigenleistung und Originalität kann sich auch in einer kritischen Auseinandersetzung mit Theorien und Befunden zeigen. Ein kritischer Umgang kann beinhalten, dass eine Person a) theoretische Annahmen mit Befunden empirischer Studien konfrontiert und diese dadurch in ihrem Wahrheitsgehalt und Angemessenheit überprüft, b) Theorien vergleicht und Gemeinsamkeiten/Unterschiede herausarbeitet, c) empirische Befunde auf ihre Konsistenz hin überprüft und mögliche Widersprüche zu erklären versucht, d) theoretische Annahmen und Forschungsbefunde aus einem neuen Blickwinkel betrachtet werden und e) Theorien und Forschungsbefunde auf einen neuen Gegenstand oder Problemfall bezogen werden. Wissenschaftliches Argumentieren: Der Begriff Argument stammt vom lateinischen argumentum und bedeutet Beweis oder Beweisgrund. Ein Argument ist also derjenige Teil einer Beweisführung, welcher die Verlässlichkeit (Wahrheit) der Aussage begründet. Argumentieren heisst folglich nichts anderes als begründen, demonstrieren oder − wo möglich − beweisen. Was aber ist typisch für eine wissenschaftliche Argumentation, wie sie in empirischen Arbeiten vorkommt? Eine wissenschaftliche Argumentation zeichnet sich dadurch aus, dass sie sich auf Studienergebnisse, auf bedeutende Autoren oder Forschungs-Theorietraditionen stützt (vgl. auch Bünting et al., 2006, S. 120ff). Im Folgenden werden diese Komponenten einer wissenschaftlichen Argumentation näher ausgeführt: - Befunde aus Studien (Zahlen, Daten, Fakten): Eine Argumentation erscheint desto überzeugender, je weniger die persönlichen Ansichten durchklingen („nach meiner Meinung …“, „ich finde, dass …“) und je mehr das Bemühen, das Thema distanziert und objektiv darzulegen, deutlich wird. Das Aufführen und das Diskutieren von Studienergebnissen sind ein wich-

328

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

tiges Mittel, um die eigenen Aussagen abzusichern. Allerdings dürfen auch empirische Ergebnisse aus Studien nicht als fixe Tatsachen betrachtet, sondern müssen kritisch beleuchtet werden. Wenn die Argumentation auf Datenmaterial aufgebaut wird, muss überprüft werden, a) ob die rezipierten Fragestellungen und Hypothesen auf dem aktuellen Forschungsstand aufbauen und folgerichtig aus der Theorie abgeleitet wurden, b) ob die Daten repräsentativ sind (vgl. Kapitel 4.1.4 „Qualitative und quantitative Zugänge“) und c) ob das methodische Vorgehen sowie die statistischen und inhaltsanalytischen Auswertungen nachvollziehbar sind. Im Weiteren setzt ein kompetenter und objektiver Umgang mit Forschungsergebnissen voraus, dass nicht selektiv Forschungsergebnisse, welche die eigene Fragestellung stützen, ausgewählt werden, sondern verschiedene zum Thema vorliegende Studien integriert und allfällige Widersprüche zwischen Forschungsergebnissen diskutiert werden. - Autoritäten: Als Autoritäten gelten Wissenschaftlerinnen und Wissenschaftler, deren Theorien oder Hypothesen vielfache Bestätigung gefunden und die damit einen Themenbereich wesentlich geprägt haben. So wird von einer wissenschaftlichen Arbeit erwartet, dass auf wichtige Autoren/Autorinnen Bezug genommen wird. Aber auch hier ist ein kritischer und distanzierter Umgang mit Autoritäten erforderlich. Dies beinhaltet, dass Publikationen nach ihrer wissenschaftlichen Bedeutung bewertet werden. Publikationen von Autorinnen und Autoren, die auf einem Gebiet umfangreiche wissenschaftliche Erfahrung haben, viel publiziert haben und entsprechend viel zitiert werden, sollten in der Arbeit berücksichtigt werden. Populärwissenschaftliche Werke und Ratgeberliteratur sind aufgrund ihrer unterschiedlichen wissenschaftlichen Qualität von wissenschaftlicher Literatur zu unterscheiden. Wer sich auf Autoritäten berufen möchte, muss im Weiteren a) sicherstellen, dass deren Arbeiten der Leserin oder dem Leser zugänglich oder bekannt sind und b) prüfen, ob deren Behauptungen kritisiert worden sind. - Forschungstraditionen: Argumentationen beziehen sich häufig auf eine bestimmte Forschungstradition (z.B. psychoanalytische, behavioristische oder konstruktivistische Lerntheorien). Diese stellen Denk- und Forschungsansätze bereit, die bei der Strukturierung eines Problem- oder Phänomenbereichs nützlich sein können. Wenn auf Argumente bestimmter Forschungstraditionen zurückgegriffen wird, müssen die zentralen Argumente der betreffenden Forschungstradition klar gestellt und zusammengefasst und auch möglichst Gegenpositionen und Gegenargumente diskutiert werden.

329

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Fragestellungen und Hypothesen. Die übergeordnete Fragestellung wird bereits in der Einleitung formuliert. Untergeordnete Fragestellungen oder Hypothesen hingegen werden nach dem Theorieteil formuliert, da diese erst aus der Auseinandersetzung mit der Literatur verständlich werden. Häufig werden die Fragestellungen und/oder Hypothesen der Übersicht wegen kurz begründet, indem zusammenfassend nochmals die theoretischen und empirischen Argumente für die jeweiligen Fragen und Vermutungen aufgeführt werden. Auf keinen Fall sollten Fragen oder Hypothesen formuliert werden, welche nicht argumentativ gestützt werden können und sich nicht auf den Theorieteil beziehen. Es empfiehlt sich folglich, bei jeder Fragestellung zu überlegen, ob sie mit dem übergeordneten Erkenntnisinteresse zusammenhängt und ob sie im Theorieteil diskutiert und behandelt wurde. Im Weiteren sind folgende Punkte zu beachten: - Die Fragestellung ist tatsächlich als Frage formuliert, auf die eine Antwort erarbeitet wird. - Fragestellungen und/oder Hypothesen und deren Begründung können in einem eigenen Kapitel oder dann am Ende des Theorie- oder zu Beginn des Empirieteils aufgeführt werden. Dadurch entsteht ein fliessender Übergang zwischen Theorie- und Methodenteil. - Deskriptive (beschreibende) Untersuchungen sind von hypothesenprüfenden Untersuchungen zu unterscheiden (vgl. Kapitel 7.5 „Prüfstatistik“). Falls noch keine interferenzstatistischen Kenntnisse vorhanden sind, sollten nur deskriptive Fragestellungen formuliert werden. Methode. Jeder Methodenteil enthält mindestens folgende drei Abschnitte: Stichprobenbeschreibung, Instrumentenbeschreibung und Beschreibung der Durchführung. Das methodische Vorgehen muss so dokumentiert werden, dass es für jemand anderen als Anleitung dienen kann, um die Untersuchung zu wiederholen. Stichprobe: In diesem Abschnitt wird beschrieben, wer an der Untersuchung teilgenommen hat, und wie die Studienteilnehmerinnen und -teilnehmer ausgewählt wurden. Vor allem werden in diesem Textabschnitt Angaben zur Anzahl der teilnehmenden Personen, zum Alter und zu sonstigen Merkmalen, die für die Fragestellung wichtig sein könnten (evtl. Geschlecht, Herkunft, Schultyp, Religionszugehörigkeit) gemacht. Wenn verschiedene Gruppen miteinander verglichen werden, dann sind wichtige Merkmale (z.B. Anzahl Personen, Geschlecht usw.) für jede Gruppe zusätzlich separat zu beschreiben.

330

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Instrumente: In diesem Kapitel der Arbeit wird die verwendete Forschungsmethode genauer erläutert: - Es wird begründet, welche Methode weshalb ausgewählt wurde (z.B. Beobachtung, mündliche oder schriftliche Befragung, Experiment, Feldstudie, Exploration, Test usw.) und warum gerade diese und keine andere Methode zur Beantwortung der Fragestellung am besten geeignet ist. Zur Rechtfertigung der gewählten Erhebungsmethode sind genaue Kenntnisse der jeweiligen Vor- und Nachteile verschiedener Erhebungsmethoden notwendig. - Das Instrument sollte zusammenfassend beschrieben werden. Dies beinhaltet im Falle eines Fragebogens oder eines Interviewleitfadens, dass die Themenbereiche, welche durch die Fragen abgedeckt werden, kurz beschrieben werden. Zur Illustration der Themenbereiche sollten einige Beispielfragen (bestenfalls in Klammern) aufgeführt werden. Im Falle einer Beobachtung wird das Kategoriensystem aufgeführt (vgl. Kapitel 6.3 „Beobachtung“). Die vollständigen Forschungsinstrumente werden im Anhang der Arbeit beigelegt. Durchführung der Untersuchung: Hier werden Angaben zum Verlauf der Untersuchung gemacht. Dazu gehören beispielsweise Angaben zu den Untersuchungsleiterinnen und den Untersuchungsleitern (z.B. wer sie sind, wie sie geschult resp. ausgelesen wurden, etc.), zu verwendeten Materialien und zum konkreten Ablauf der Untersuchung (z.B. Angaben zu Räumlichkeiten, in denen die Untersuchung durchgeführt wurde, zeitliche Dauer der Fragebogenerhebung bzw. der Interviews oder der Beobachtungssequenzen). Ergebnisse. In einer empirischen Arbeit werden Auswertung und Diskussion klar unterschieden. Während in der Auswertung (resp. im Ergebnisteil) die Ergebnisse „neutral“, d.h. ohne Interpretation beschrieben werden, geht es in der Diskussion um eine Interpretation der Ergebnisse mit Bezug auf die vorherige Theoriediskussion. Dies gilt sowohl für statistische als auch für inhaltsanalytische Auswertungen (vgl. Kapitel 7 „Auswertungen“). Eine übersichtliche Gliederung und Darstellung eines Ergebnisteils ist nicht einfach. Häufig liegen mehr Ergebnisse vor als letztlich in die Arbeit aufgenommen werden können. Deshalb muss man sich eine Übersicht über die Ergebnisse erarbeiten und entscheiden, welches die wichtigsten sind, um die Forschungsfragen zu beantworten. Statistische Ergebnisse sind für die Leserin und den Leser meist schwierig zu überblicken. Aus diesem Grund muss die Darstellung der Ergebnisse so vorgenommen werden, dass sie im Hinblick auf die Beantwortung der Fragestel-

331

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

lung optimiert ist. Dies wird erreicht, indem die Ergebnisse entsprechend den verschiedenen Teilfragen thematisch gegliedert werden. Wie für den Theorieteil sind für den Ergebnisteil Einleitungen und Überleitungen wichtig, damit die Übersicht resp. der „rote Faden“ nicht verloren geht. Tabellen und Abbildungen sind wichtige Mittel, um eine grosse Menge an Daten kompakt und übersichtlich darzustellen. Allerdings muss auch hier eine sorgfältige Auswahl getroffen werden. Ein Ergebnisteil kann durch zu viele Tabellen und Abbildungen unübersichtlich werden. Auch können diese den Text nicht ersetzen, denn jede Abbildung und Tabelle muss im Text erwähnt und erläutert werden. Diskussion. Die Diskussion ist dadurch gekennzeichnet, dass die Ergebnisse der Auswertung vor dem Hintergrund der leitenden Fragestellung geordnet und bewertet werden. In der Diskussion werden alle Teile der Arbeit integriert (Fragestellung, Theorie, Methode, Auswertung). Dazu gehört vor allem, dass die Befunde einer empirischen Studie zu Theorien und anderen empirischen Studien in Beziehung gesetzt und die eigenen Ergebnisse unter methodischen Gesichtspunkten kritisch analysiert werden. In der Diskussion sollte auch eine eigene Position zum Ausdruck kommen. Diese wird aber nicht einfach behauptet, sondern argumentativ gestützt. Darin zeigt sich die Kompetenz, Theorien und Befunde kritisch zu reflektieren und zu bewerten. Konkret kann die Diskussion folgende Aspekte beinhalten: - Zusammenfassende Darstellung der Ergebnisse: Diese wird am besten entsprechend der Reihenfolge der Fragestellungen oder Hypothesen gegliedert. - Interpretation der Ergebnisse: Über die Zusammenfassung hinaus müssen die Befunde mit den im Theorieteil diskutierten Theorien und Befunden in Zusammenhang gebracht werden. Gemeinsamkeiten und Widersprüche zwischen Befunden anderer Studien und den eigenen werden ausgeführt und zu erklären versucht. So können beispielsweise Widersprüche zwischen Studienergebnissen durch unterschiedliche Stichprobengrössen oder durch unterschiedliche methodische Vorgehensweisen erklärt werden. - Alternative Erklärungsversuche: Da es häufig alternative Erklärungen zu einem Befund gibt, sollten möglichst vielfältige Sichtweisen aufgezeigt und gegeneinander abgewogen werden. Es ist ein wichtiges Qualitätsmerkmal wissenschaftlichen Schreibens, dass man sich nicht vorschnell auf eine einzige Auslegung von Befunden festlegt, sondern vielseitige Deutungen von Ergebnissen anführen kann.

332

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Beispiel für alternative Erklärungsversuche: Die Ergebnisse der vorliegenden Studie zeigten, dass Jungen häufiger als aggressiv klassifiziert wurden als Mädchen. Dieser Befund deckt sich mit früheren Studien (z.B. Coie & Dodge, 1998). Möglicherweise ist dieser Geschlechtsunterschied aber auch ein methodischer Artefakt: Die Fragen des Lehrerfragebogens zur Erfassung aggressiven Verhaltens zielten mehrheitlich auf physische Aggressionsformen ab. Nur eine von fünf Fragen zur Aggression erfasste relationale Aggression, d.h. sozial aggressives Verhalten („schliesst andere von gemeinsamen Spielaktivitäten aus“). Mehrere Studien haben aber gezeigt, dass Mädchen stärker relational aggressiv sind als Jungen (z.B. Crick, Casas & Mosher, 1997). Der gefundene Geschlechtsunterschied im aggressiven Verhalten kann deshalb nicht ohne Weiteres auf andere Aggressionsformen als die physische übertragen werden.

- Zusammenfassende Schlussfolgerung: In der Diskussion sollte abschliessend eine klare Schlussfolgerung in Bezug auf die zentrale Fragestellung gezogen werden. Diese kann unter anderem durch folgende Formulierungen eingeleitet werden: „Ingesamt zeigen die Befunde unserer Studie, dass …“, „Zusammenfassend lässt sich schlussfolgern, dass …“. - Perspektivität der eigenen Forschungsmethode aufzeigen: Verschiedene Forschungsinstrumente beleuchten den Untersuchungsgegenstand immer aus spezifischen Perspektiven. Es gehört zu einem kritischen Umgang mit Methoden, dass der spezielle Blickwinkel der Forschungsmethode und ihre Grenzen aufgezeigt werden. Beispiel einer methodenkritischen Diskussion: Wird das aggressive Verhalten der Kinder über die Lehrpersonen mit einem Fragebogen erhoben, so erhält man andere Informationen als wenn die Kinder selbst über das aggressive Verhalten ihrer Klassenkameradinnen und -kameraden befragt werden. Die Lehrpersonen erfahren manchmal wenig darüber, was ausserhalb des Schulzimmers (Garderobe, Schulweg) abläuft. Andererseits nehmen Lehrpersonen auch subtile Sticheleien und Neckereien unter den Kindern wahr, die den Kindern (insbesondere den jüngeren) aufgrund ihrer noch begrenzten Denkfähigkeiten gar nicht auffallen.

- Methodische Kritik: Kaum eine Studie ist methodisch fehlerfrei. Es ist wichtig, dass methodische Schwachpunkte erkannt und aufgezeigt werden. Dies zeugt von einem kritischen und distanzierten Umgang mit den eigenen Methoden und Forschungsergebnissen. Auch können Vorschläge gemacht werden, wie in einer nächsten Studie die methodischen Schwächen und Einschränkungen verhindert werden könnten. - Ausblick auf weitere Forschung: Am Ende der Diskussion kann ausgeführt werden, welche Punkte in weiteren Forschungsarbeiten interessant wären zu vertiefen. Damit wird die eigene Studie in einen kontinuierlichen Forschungsprozess eingebettet.

333

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

- Praktische Implikationen: In einem letzten Schritt werden Konsequenzen für die Schule, Erziehung oder ein anderes Praxisfeld abgeleitet. Dabei ist darauf zu achten, dass die Empfehlungen argumentativ abgestützt sein müssen Literaturverzeichnis. Im Literaturverzeichnis werden alle in der Arbeit erwähnten Quellen aufgeführt. Die Literaturquellen werden beispielsweise entsprechend den Richtlinien der American Psychological Association (APA) oder der Deutschen Gesellschaft für Psychologie (DGPs) darstellt (vgl. Anhang A Richtlinien für die Gestaltung von Literaturverweisen, Zitaten und Literaturverzeichnis). Anhang. Im Anhang werden sämtliche in der Untersuchung benutzten Materialien übersichtlich zusammengestellt. Was in den Anhang gehört, muss von Fall zu Fall entschieden werden. Grundsätzlich beinhaltet der Anhang alle Materialien, welche für eine Darstellung im Methodenteil zu ausführlich sind und diesen unübersichtlich machen würden. Als Beispiele seien folgende Materialien genannt: - Erhebungsinstrumente (Fragebogen, Protokollbögen/Interviewleitfaden) - Untersuchungsmaterialien (Bilder, Testmaterialien) Der Anhang ist übersichtlich zu gestalten, so dass sich die Leserin oder der Leser schnell zurechtfinden. Sind grössere, inhaltlich voneinander unterscheidbare Teile im Anhang unterzubringen, dann ist es sinnvoll und üblich, diese Bereiche durch Buchstaben grob und durch arabische Ziffern fein zu untergliedern. Falls die Gliederung komplex ist, kann ein Inhaltsverzeichnis dem Anhang vorangestellt werden. 8.1.2 Formale Aspekte In diesem Kapitel werden unter den formalen Aspekten der wissenschaftliche Sprachstil, die formale Gliederung der Arbeit und die formale Darstellung von Tabellen und Abbildungen thematisiert. Wissenschaftlicher Sprachstil. Eines der wichtigsten Ziele wissenschaftlichen Schreibens besteht darin, verstanden zu werden. Es dominiert deshalb eine sachlich-nüchterne, exakte, klare, einfache Sprache und eine gewisse stilistische Schlichtheit (vgl. Bünting, Bitterlich & Pospiech, 2006, S. 89ff). Folgende Punkte sind beim wissenschaftlichen Schreiben zu beachten (vgl. Bänsch, 2002, S. 22ff; Bohl, 2005, S. 49ff):

334

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

- Formulieren von kompakten und klar strukturierten Sätzen (Ziel: Leseökonomie; lange, verschachtelte Sätze auflösen) - Vermeiden von umgangssprachlichen Formulierungen - Vermeiden einer saloppen Sprache und eines Boulevard-Stils - Verwenden einer einheitlichen Terminologie - Sorgfältige Verwendung von Fremdwörtern - Vermeiden von englischsprachigem Fachjargon; Falls Unsicherheit hinsichtlich einer adäquaten Übersetzung besteht, kann man sich an der Terminologie in deutschsprachigen Fachbüchern oder Publikationen orientieren. - Vermeiden von häufigen Substantivierungen. Nicht: „… unter Vermeidung von …“ sondern besser „… vermeiden …“ - Vermeiden von endlosen Wortkombinationen (aus „Interessenberücksichtigung“ wird „Interessen berücksichtigen“) - Vermeiden von nichtssagenden Füllwörtern (z.B. dabei, gewissermassen, nun, dann, also, quasi etc.) - Verwenden einer geschlechtergerechten Schreibweise. Es stehen folgende Alternativen zur Verfügung: - Beidnennung ausgeschrieben: Schülerinnen und Schüler - Beidnennung mit Schrägstrich: Schüler/innen - Substantiviertes Partizip Präsens: Lernende - Alternative Formulierungen: Jugendliche, Schulkinder usw. - Eigene Gedanken sollen nicht durch die Ich-Form („ich denke ...“, „meines Erachtens ...“) ausgedrückt werden. Solche Formulierungen wirken un-sachlich und subjektiv. Besser ist, wenn eigene Gedanken in Form von Schlussfolgerungen auf Basis des Literaturstudiums oder empirischer Befunde eingebracht werden: „Auf der Basis dieser Literaturübersicht lässt sich folgern …“, „Ausgehend von diesen Befunden lässt sich folgern …“, „Diese Befunde lassen den Schluss zu …“. Die formale Gliederung. Jeder wissenschaftlichen Arbeit ist ein mit Seitenzahlen versehenes Inhaltsverzeichnis voranzustellen. Das Inhaltsverzeichnis mit den Titeln der Kapitel und Unterkapitel gibt einen ersten Eindruck, wo der „rote Faden“ durchläuft. Die Kapitelüberschriften sind so zu wählen, dass sie den Gang der Argumentation abbilden. Bei einer hierarchischen formalen Gliederung in über- und untergeordnete Kapitel sind folgende Punkte zu beachten: - Es sollten nicht mehr als vier Gliederungsebenen eingeführt werden. Ansonsten wirkt die Gliederung zu verschachtelt und unübersichtlich.

335

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

- Jedes Kapitel, das ausgegliedert wird, sollte mindestens zwei Unterkapitel enthalten, z.B. bei einem 1.1 sollte es mindestens auch ein 1.2 geben. - Themen, die auf demselben Gliederungsniveau ausgewiesen sind, dürfen zueinander nicht im Unterordnungsverhältnis stehen. - Der Übergang von einem übergeordneten zu einem untergeordneten Kapitel sollte nicht unmittelbar ohne Zwischentext erfolgen (z.B. Kapitel 2.1. auf Kapitel 2). Überleitungen, Einführungen oder Übersichten sind vor einer Ausgliederung in Unterkapitel besonders hilfreich. Beispiel für eine Überleitung zu „aggressivem Verhalten“ Im letzten Kapitel wurde festgestellt, dass das prosoziale Verhalten im Zuge der sozialkognitiven Entwicklung mit dem Alter zunimmt. Doch nimmt deshalb das aggressive Verhalten mit zunehmendem Alter ab? Um diese Frage zu klären, werden im Folgenden Befunde zur Entwicklung der physischen, verbalen und relationalen Aggression näher vorgestellt und diskutiert. 2.1. Physische Aggression Die häufigste Aggressionsform unter Vorschulkindern ist die physische Aggression, etc. 2.2. Verbale und relationale Aggression Im Übergang zum Schulalter wird die verbale und relationale Aggression häufiger, etc.

Tabellen. Eine Darstellung in Tabellenform macht es möglich, grosse Datenmengen auf wenig Raum übersichtlich zu ordnen. Nach der American Psychological Association (2005) müssen bei der Erstellung von Tabellen folgende Punkte beachtet werden: - Die Tabelle ist nötig: Tabellen sollten nur dann eingesetzt werden, wenn die Beschreibung von Zahlen im Text unübersichtlich wird. - Die Tabellen im gleichen Text werden in einheitlichem Format dargestellt. - Die Tabellen sind nummeriert (vgl. Tabelle 42, S. 337). - Der Titel wird oberhalb der Tabelle aufgeführt (vgl. Tabelle 42). Er erklärt kurz den Inhalt der Tabelle. - Jede Spalte ist mit einem Titel versehen. - Alle Abkürzungen oder Symbole oder sonstigen Erklärungen werden unterhalb der Tabelle unter Anmerkungen aufgeführt (vgl. Tabelle 42). Bekannte Abkürzungen für statistische Masse müssen nicht erklärt werden. So beispielsweise: M (Mittelwert), SD (Standardabweichung), r (Korrelation), n (Stichprobengrösse), p (statistische Wahrscheinlichkeit). - Die Tabelle hat nur horizontale und keine vertikalen Linien (vgl. Tabelle 42). - Im Text wird entweder in Klammern, z.B. „(vgl. Tabelle 42)“ oder im Satz auf die Tabelle verwiesen, z.B. „In Tabelle 42 sind die Korrelationen zwischen sozialem Verstehen und aggressivem Verhalten getrennt für die unbeteiligten Kinder und die Täter aufgeführt“. 336

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Tabelle 42: Durchsetzungsfähigkeiten von unbeteiligten und mobbinginvolvierten Kindern Durchsetzungsfähigkeit

Unbeteiligte Opfer Täter-Opfer Täter (n=43) (n=36) (n=65) (n=49) Grenzen setzen 1.93 1.77 2.01 2.22 (.60) (.47) (.68) (.48) Führungsfähigkeit 1.89 1.24 1.64 2.20 (.66) (.75) (.73) (.79) Anmerkungen: Die Werte ohne Klammern repräsentieren Mittelwerte, diejenigen mit Klammern Standardabweichungen.

Abbildungen. Es können Diagramme, Fotografien, Zeichnungen oder andere grafische Darstellungen verwendet werden. Folgende Punkte sind bei der Erstellung von Abbildungen zu beachten (vgl. American Psychological Association, 2005): - Die Abbildung ist nötig und wiederholt nicht einfach den Text. Eine Abbildung erfüllt ihren Zweck, wenn sie den Text ergänzt oder eine ausführliche Beschreibung überflüssig macht. - Die Abbildung ist einfach lesbar und frei von unwichtigen Details. - Falls vorhanden, werden die x- und y-Achsen beschriftet, so dass klar wird, welche Masse durch die Achsen dargestellt werden. Mit der y-Achse wird die abhängige Variable mit der x-Achse die unabhängige Variable dargestellt (vgl. Kapitel 2.2.2 „Erklären und Vorhersagen als Ziel“). - Die Abbildungen sind nummeriert und beschriftet. Die Nummerierung und Beschriftung befinden sich stets unter der Abbildung (z.B. „Abbildung 7: Schulnoten von Mädchen und Knaben im ersten und im zweiten Schuljahr“). - Alle Abkürzungen und Symbole einer Abbildung werden in einer Legende erklärt. Symbole, Abkürzungen und die Terminologie in der Abbildung sind konsistent mit denjenigen im Titel der Beschriftung und denjenigen im Text. - Falls eine Abbildung von einer Publikation übernommen wird, ist ihre Quelle anzugeben. - Im Text wird in Klammern (z.B. „ vgl. Abbildung 1“) oder im Satz auf die Abbildung verwiesen (z.B. „Abbildung 1 kann entnommen werden …“). - Die y-Achse hat die Länge der Skala. Ist die Skala beispielsweise neunstufig, so sollte die y-Achse beim tiefsten möglichen Wert beginnen und bei 9 enden. Häufig wird in Diagrammen die y-Achse gestreckt, indem nicht die gesamte Skalenbreite abgebildet wird. Dadurch erscheinen die Unter-

337

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

schiede zwischen Gruppen grösser als sie tatsächlich sind, wodurch die Leserin oder der Leser visuell getäuscht werden (vgl. Kapitel 7.3.4 „Grafische Darstellungen der Ausprägungen eines Merkmals“). Falls verschiedenen Abbildungen die gleiche Skala zugrunde liegt, werden die y-Achsen dieser Skalen alle gleich lang dargestellt. - Auf jede Abbildung wird im Text Bezug genommen, d.h. keine Abbildung steht für sich allein.

8.2 Wissenschaftliche Arbeiten mündlich präsentieren Der Vorteil mündlicher Präsentationen gegenüber der Vermittlung wissenschaftlichen Wissens in Textform liegt darin, dass in kurzer Zeit zentrales Wissen einem interessierten Zielpublikum vermittelt werden kann. Die mündliche Präsentation folgt teilweise anderen Kunstregeln als das wissenschaftliche Schreiben. Texte können bei Verständnisschwierigkeiten mehrmals gelesen werden, in einem Vortrag muss das Gesprochene unmittelbar verständlich sein. Zudem wird in einem Vortrag verstärkt erwartet, dass die Inhalte in ansprechender, verständlicher Weise und zugleich − bezogen auf die Inhalte − präzise präsentiert werden. Zudem müssen komplexere Sachverhalte mit Abbildungen oder anhand von Beispielen veranschaulicht werden. Es gibt verschiedene Formen der mündlichen Präsentation. Referate in der Schule oder eine Rede an einer politischen Versammlung sind nur zwei Beispiele. In diesem Kapitel geht es explizit um das Präsentieren wissenschaftlicher Inhalte. Es werden deshalb weniger allgemeine Aspekte des Vortragens (Körpersprache, Stimme, Umgang mit Lampenfieber) thematisiert, sondern es geht im Folgenden um spezifische Merkmale wissenschaftlichen Präsentierens. Die Herausforderung eines wissenschaftlichen Vortrags besteht vor allem darin, dass eine komplexe Thematik in kurzer Zeit auf ansprechende Weise mit fundierten Argumenten vermittelt werden muss. Zudem sollte sich der/die Vortragende anschliessend kritischen Fragen des Publikums stellen. In diesem Kapitel wird beschrieben, wie diesen Herausforderungen begegnet werden kann. In einem ersten Schritt wird darauf eingegangen, wie ein wissenschaftlicher Vortrag vorbereitet und gegliedert werden kann. Anschliessend werden Empfehlungen zur Vorbereitung einer Diskussion gegeben. Schliesslich werden Richtlinien zur Gestaltung von Präsentationsunterlagen (Präsentationsmanuskripte, Folien) formuliert.

338

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

8.2.1 Eine Präsentation planen Zu einer guten Vortragsvorbereitung gehört 1. die Klärung des Ziels, 2. die Charakterisierung der Zielgruppe und 3. die Klärung der Situation, in welcher der Vortrag stattfinden soll. 1. An erster Stelle steht die Frage, was genau mit dem Vortrag erreicht werden soll. Je nach Situation können unterschiedliche Ziele sinnvoll sein. Geht es darum, etwas Neues bekannt zu machen, einen Überblick über ein Thema zu geben, eine Kontroverse zu klären? Eine Klärung des Ziels hilft Schwerpunkte zu setzen und zu entscheiden, welche Inhalte präsentiert und welche Medien eingesetzt werden sollen. 2. Im Weiteren gilt es zu überlegen, mit welchem Zielpublikum man es zu tun haben wird. Es lohnt sich bei der Vorbereitung die Perspektive der Zuhörerinnen und Zuhörer einzunehmen. Wer sind die Zuhörerinnen und Zuhörer und welche Erwartungen bringen sie mit? Wie heterogen ist die Zuhörerschaft hinsichtlich ihres Vorwissens zum Thema oder ihrer Erwartungen an die Präsentation? Solche Vorüberlegungen helfen, den Vortrag dem Anspruchsniveau und den Interessen des Publikums anzupassen und zu verhindern, dass am Publikum vorbeigeredet wird. Es fällt dann beispielsweise leichter zu entscheiden, wie ausführlich auf bestimmte Aspekte der Theorie oder der Methode eingegangen werden muss und welche Inhalte vermutlich unter- oder überfordern. 3. Schliesslich müssen bei der Vorbereitung die konkreten Umstände des Vortrags mitbedacht werden: Wie viel Zeit steht einem zur Verfügung? Wie gross wird der Vortragsraum sein? Wo werde ich als Redner/in stehen? Welche Medien stehen zur Verfügung und gibt es eine Unterstützung bei der (technischen) Einrichtung vor dem Vortrag? 8.2.2 Gliederung der Präsentation Eine Präsentation enthält typischerweise einen Einstieg, einen Hauptteil und einen Schluss. In der Regel dauert ein wissenschaftlicher Vortrag um die 20 Minuten. Der Hauptteil nimmt ca. 80%, Einstieg und Schluss jeweils 10% der Zeit in Anspruch.

Einstieg. Zu Beginn eines Vortrags ist es wichtig, dass das Interesse der Zuhörerinnen und der Zuhörer geweckt wird. Es gibt verschiedene Möglichkeiten, wie die Aufmerksamkeit des Publikums für das Referat gewonnen werden kann (vgl. Franck, 2001). Beispielsweise können folgende Aufmerksamkeitswecker eingesetzt werden:

339

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

- Ein originelles Zitat oder Motto - Eine provokative Frage oder These (z.B. Ist ein Opfer selbst schuld, wenn es gemobbt wird?) - Schilderung einer Situation oder eines aktuellen Ereignisses, die zum Thema hinführt - Eine themenbezogene Aufgabe, die dem Publikum gestellt wird („überlegen Sie sich mal …“, „was denken Sie, wie ist es …“) - Zeigen eines passenden Tonband- oder Filmausschnitts Im Weiteren möchten die Zuhörenden zu Beginn der Präsentation erfahren, was sie im Folgenden erwartet. Es sollte deshalb zum einen das Ziel der Präsentation erläutert werden − ob zum Beispiel neue Informationen, eine kompetente Übersicht oder eine neue Perspektive auf ein Problem vermittelt werden. Zum anderen sollte ein Überblick zur Präsentation gegeben werden. Schliesslich kann im Einstieg noch die Frage geklärt werden, ob Zwischenfragen erwünscht sind oder Fragen erst am Ende der Präsentation beantwortet werden. Hauptteil. Für eine Präsentation sind ähnliche Qualitätskriterien relevant wie für das Schreiben von Texten. Diese betreffen A) die Struktur, B) die Verständlichkeit und C) die Anschaulichkeit der Präsentation. A) Wie beim wissenschaftlichen Schreiben zeichnet sich ein gutes Referat durch eine klare Struktur aus. Es können deshalb die gleichen Strukturierungstechniken wie beim wissenschaftlichen Schreiben verwendet werden. Beispielsweise sind zur Strukturierung einer Präsentation besonders Gegenüberstellungen von verschiedenen oder gar widersprüchlichen Perspektiven, Behauptungen oder Studienergebnissen geeignet. Auf die Gegenüberstellung folgt dann die Auflösung des Widerspruches, indem begriffliche und konzeptuelle Klärungen vorgenommen oder Studienergebnisse, welche zur Klärung der Debatte beitragen, aufgezeigt werden. - Da bei wissenschaftlichen Präsentationen meist wenig Zeit zur Verfügung steht, ist es für den „rote Faden“ wichtig, dass das Wesentliche ohne Umschweife auf den Punkt gebracht wird. Man sollte nicht alles sagen, was man gelesen hat. Es gilt das zu berichten, was zum Verständnis der zentralen Fragen und Thesen unbedingt nötig ist. - Im Weiteren lässt sich der Hauptteil durch Einleitungen, Überleitungen und Zusammenfassungen strukturieren. Solche Kommentare haben die Funktion von Wegweisern und helfen der Zuhörerschaft, den Gang der Argumentati-

340

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

on nachzuvollziehen (z.B. „Bisher haben wir den Aspekt x behandelt, im Folgenden gehe ich auf den Aspekt y ein, um zu klären, …“). - Wird eine empirische Studie vorgestellt, so folgt die Struktur dem klassischen Aufbau einer empirischen Studie (Theoretischer Hintergrund, Fragestellungen/Hypothesen, Methode, Ergebnisse, Schlussfolgerung). B) Grundsätzlich gelten beim wissenschaftlichen Vortrag die gleichen sprachlichen Anforderungen wie bei wissenschaftlichen Texten (vgl. Kap. 8.1.2). Vorgetragene Sprache muss sich aber hinsichtlich ihrer Komplexität deutlich von der Schriftsprache unterscheiden: Sätze in Reden müssen, um verstanden zu werden, wesentlich kürzer und einfacher formuliert sein als Sätze in Texten. Im Weiteren gibt es eine Vielfalt an rhetorischen Hilfsmitteln, mit deren Hilfe eine Referentin oder ein Referent die Aufmerksamkeit der Zuhörerschaft gewinnen kann (vgl. Franck, 2001). Viele dieser Techniken erzielen nur in mündlichen Präsentationen positive Effekte. Auf Texte angewandt, können sie dagegen Stilbrüche oder Stilfehler hervorrufen. Beispielsweise können Wortwiederholungen in Reden die Wirkung einer Aussage verstärken, in Texten hingegen kann dies sprachlich unerfahren und ermüdend wirken C) Da bei einer mündlichen Präsentation in kurzer Zeit komplexe Informationen vermittelt werden, ist es der Verständlichkeit sehr dienlich, wenn anschauliche Elemente wie Beispiele, Metaphern und Analogien, Bezüge zu aktuellen Ereignissen oder Video- und Tonausschnitte verwendet werden. Durch den Einsatz solcher Stilmittel können komplexe Sachverhalte in der Regel veranschaulicht werden. Auch machen sie den Vortrag lebhafter. Schluss. Das Ende der Präsentation ist der Teil, der einen bleibenden Eindruck bei den Zuhörerinnen und Zuhörern hinterlässt. Er sollte deshalb besonders gut überlegt sein. Der Schluss fasst die zentralen Erkenntnisse pointiert zusammen. Eine „take-home-message“ in der Länge von etwa zwei Sätzen kann den Vortrag abschliessend auf den Punkt bringen. Elegant ist, wenn der Vortrag mit einem treffenden Zitat, einem anschaulichen Element oder einer rhetorisch originellen Formulierung abgeschlossen werden kann. 8.2.3 Die anschliessende Diskussion Für wissenschaftliche Vorträge ist es typisch, dass anschliessend das Publikum Fragen stellt, Anmerkungen anbringt oder Kritik äussert. In der Vorbereitung der Diskussion sind folgende Punkte zu berücksichtigen:

341

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

- Wie viel Zeit steht für die Diskussion zur Verfügung? - Wer moderiert die Diskussion? Ist der/die Vortragende für die Diskussion verantwortlich? Falls ja, welche Einstiegsfrage könnte gestellt werden? Welche weiteren Impulse sind geeignet, falls die Diskussion nicht von selbst in Gang kommt? - Welche Fragen könnten die Zuhörerinnen und Zuhörer stellen? Wissenschaftliche Vorträge sind immer auch eine Gelegenheit für die Zuhörerinnen und Zuhörer sich darzustellen, d.h. durch eine besonders kluge oder kritische Frage aufzufallen. Als Vortragender muss man sich also auf provokativ oder kompliziert formulierte Äusserungen und Fragen gefasst machen. Wie kann man in solchen Situationen angemessen reagieren, und wie kann man sich darauf vorbereiten? - Es lohnt sich vorgängig genau zu überlegen, welche Schwachstellen die eigene wissenschaftliche Arbeit mitbringt. Wissenschaftliche Arbeiten sind nie unangreifbar. Es ist deshalb keine Schwäche, sondern eine Stärke und ein Zeichen kritischen Denkens, wenn man die Schwachpunkte der eigenen Arbeit benennen kann. - Man muss nicht sofort antworten, Denkpausen sind erlaubt. - Falls eine Frage aus dem Publikum nicht verständlich ist (was sehr häufig vorkommt), so sollte man nicht vorschnell antworten, sondern um Klärung bitten. - Falls eine Frage oder Bemerkung provokativ oder abwertend ist, ist man gut beraten, sich nicht zu verteidigen, sondern die Angriffe zu versachlichen oder um eine Konkretisierung der Kritik zu bitten. 8.2.4 Vorbereiten des Präsentationsmanuskriptes Welche Form des Präsentationsskriptes bevorzugt wird, hängt stark von der Vortragserfahrung und vom persönlichen Vortragsstil ab. Manche Vortragende wollen oder brauchen Sicherheit und bevorzugen deshalb ein ausformuliertes Präsentationsskript. Dabei ist aber unbedingt zu berücksichtigen, dass das Manuskript so geschrieben wird, dass es einfach und präzise formuliert und somit verständlich ist. Nachteilig bei dieser Form des Präsentationsmanuskriptes ist, dass der Vortrag meist wenig lebendig wirkt, der Kontakt zum Publikum schwieriger herzustellen ist und die Gefahr besteht, den Vortragstext zu rasch vorzutragen. Alternativen sind Stichwortmanuskripte oder Mind Maps. Sie dienen als Erinnerungshilfen, indem sie nur die zentralen Gedanken enthalten. Allerdings ist es nicht einfach, direkt die richtigen Stichworte oder die geeignete Struktur einer Präsentation aufs Blatt zu bringen. Häufig fällt es leichter,

342

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

zuerst den gesamten Vortrag auszuarbeiten und erst in einem zweiten Schritt die Stichworte zu formulieren resp. ein Mind Map zu zeichnen. 8.2.5 Einsatz von Vortragsfolien Praktisch jeder wissenschaftliche Vortrag wird heute von computergestützten Präsentationsmedien (z.B. Powerpoint) begleitet, weshalb sich die folgenden Ausführungen ausschliesslich auf dieses Medium beschränken. Folien, die mittels Präsentationssoftware erstellt werden, ermöglichen nahtlose und lebhafte Präsentationen mit Texten, Abbildungen oder Videos. Mit Farben oder Tönen der Animationen können der Inhalt effektiv strukturiert und wichtige Aspekte hervorgehoben werden. Auch wenn das Spielen mit solchen Darstellungsmöglichkeiten häufig Spass macht, ist Sparsamkeit in der Verwendung dieser Mittel höchstes Gebot. Eine von Animationen überladene Event-Präsentation kann vom Inhalt mehr ablenken, anstatt ihn zu erhellen. Wie werden Präsentationsfolien am besten dargestellt? Die amerikanische Gesellschaft für Psychologie (2005) gibt folgende Empfehlungen (vgl. auch Nicol & Pexman, 2003): - Farbe: Das Farbschema (z.B. Hintergrund: Dunkelblau; Titel: Gelb; Text: Weiss) soll über alle Folien konsequent durchgehalten werden. Es sollten auf einer Folie nicht mehr als zwei oder drei Farben verwendet werden. - Anzahl Folien: Für eine Folie sollte zwischen einer und drei Minuten eingerechnet werden. Eine Folie sollte nur einen Hauptpunkt enthalten. - Schriftgrösse: Es sollte im Text mindestens Schriftgrösse 24 verwendet werden. Die Schriftgrösse ist über alle Folien einheitlich. - Text: Der Text auf Folien sollte möglich präzise und pointiert formuliert sein. Der Text sollte besser in Form von Aufzählungspunkten als von Textabschnitten dargestellt werden. 8.2.6 Handouts Handouts werden vom Publikum stets dankend entgegengenommen und hinterlassen den Eindruck guter Vorbereitung. Falls etwas zu schnell ging, kann die Zuhörerin oder der Zuhörer den Punkt nochmals nachlesen. Auch hat man eine Unterlage, die man nach Hause nehmen kann. Handouts zu wissenschaftlichen Vorträgen enthalten meist die Präsentationsfolien, inklusive der Literaturangaben. Um Papier zu sparen, können mehrere Folien auf einer Seite abgebildet werden. Am Anfang des Handouts sind neben dem Vortragstitel auch Name der Autorin oder des Autors sowie die institutionelle Anbindung anzugeben.

343

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Beispiel einer wissenschaftlichen Präsentation Eine Studie behandelte das Phänomen des sozial kompetenten Mobbingtäters (Gasser, 2009). In der mündlichen Präsentation der Studie wurde als erstes auf den Ausdruck „sozial kompetenter Täter“ eingegangen und dafür argumentiert, dass ein adäquates Verständnis von Mobingtätern die Berücksichtung der moralischen Motivation dieser Kinder unbedingt mit einschliesst. Anschliessend wurden Methode und Ergebnisse der Studie vorgestellt und schliesslich ein Fazit gezogen. Die im folgenden dargestellte Präsentation umfasst 9 Folien und dauerte 15 Minuten.

344

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

345

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

346

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Abbildung 34: Beispielfolien einer wissenschaftlichen Präsentation.

8.3 Posterpräsentationen Poster sind grossformatige Darstellungen von Forschungsarbeiten (meist DIN A0), welche typischerweise an wissenschaftlichen Konferenzen präsentiert werden. Das Poster stellt aber auch in Seminaren oder Kolloquien an Hochschulen ein attraktives Medium zur Präsentation von wissenschaftlichen Inhalten dar. Das Ziel eines Posters besteht darin, Ergebnisse in einer einfach verständlichen und ansprechenden Art und Weise zusammenzufassen. Die Leserin oder der Leser soll innert kurzer Zeit Ziele und Ergebnisse einer Studie verstehen können. Da an einem wissenschaftlichen Treffen meist viele Poster präsentiert werden, ist es wichtig, dass das eigene Poster auffällt. Dazu muss ein Poster informativ und gut strukturiert, sowie visuell ansprechend gestaltet sein. 8.3.1 Poster vorbereiten In der Vorbereitung eines Posters muss genau überlegt werden, welches die zentrale Botschaft ist, die vermittelt werden soll. In einem weiteren Schritt ist zu entscheiden, welche Informationen im Poster minimal enthalten sein müssen, damit Fragestellung, Methode, Ergebnisse

347

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

und Schlussfolgerungen verständlich werden. Umso besser die zentralen Informationen herausgearbeitet werden können und umso kürzer der Text ausfällt, desto wahrscheinlicher wird es, dass das Poster ganz gelesen wird und die Besucherinnen und Besucher die zentrale Botschaft behalten können. Was die formale Gestaltung angeht, muss vorab geklärt werden, wie gross das Poster sein darf. Im Weiteren muss für jede Informationseinheit, die auf das Poster soll, überlegt werden, ob diese nicht auch grafisch anstatt in Textform dargestellt werden kann. Abbildungen sind gegenüber Texten zu bevorzugen, da sie die Aufmerksamkeit auf sich ziehen und platzsparend sind. 8.3.2 Gliederung und Posterlayout Die folgenden Empfehlungen zur Gestaltung von Postern werden am Beispiel der Präsentation von empirischen Forschungsergebnissen abgegeben. Für die Darstellung von nicht empirischen Forschungsinhalten (Theoretische Modelle, Projekte) gelten aber die gleichen Prinzipien. In Abbildung 35 (S. 350) ist der typische Aufbau eines Posters veranschaulicht. Gliederung. Präsentationen von empirischen Studien beinhalten folgende Komponenten: - Titel mit den Namen der Autoren/Autorinnen und der institutionellen Anbindung - Einleitung, in welcher die theoretischen Grundlagen enthalten sind - Forschungsfragen oder Hypothesen - Methode - Ergebnisse - Schlussfolgerungen Optional können eine Zusammenfassung, ein Literaturverzeichnis und eine Danksagung (am Ende des Posters) hinzugefügt werden. Textgestaltung. Der Text wird in Spalten dargestellt. Die meisten Poster beinhalten im Querformat vier Spalten, im Hochformat maximal drei Spalten. Schriftart und -grösse. Besucherinnen und Besucher sollten das Poster einige Schritte entfernt gut lesen können. Dazu eignen sich insbesondere serifenlose Schriften wie Arial oder Helvetica. Für den Titel empfiehlt sich mindestens Schriftgrösse 48, für den Text mindestens Schriftgrösse 20.

348

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Farbe. Der bewusste Einsatz von Farben ermöglicht, die Aufmerksamkeit der Besucherinnen und Besucher auf das Poster zu lenken und die Ergebnisse besser zu veranschaulichen. Folgende Punkte sind bei der Wahl von Farben zu berücksichtigen: - Es sollten nicht mehr als zwei oder drei Farben verwendet werden. Sie sollten nach einem einheitlichen Muster eingesetzt werden (z.B. Titel immer in der gleichen Farbe). - Es sollten kräftige und primäre Farben (d.h. rot, blau und gelb) verwendet werden. - Der Text sollte schwarz sein. Zentrale Begriffe können farblich hervorgehoben werden. - Gemusterte Hintergründe sind zu vermeiden. Textmenge. Ein Textteil (z.B. Methode) sollte nicht mehr als 16 Zeilen umfassen. Es wird nur Text aufgenommen, welcher dringend nötig ist. Platzsparend sind auch Aufzählungen anstelle von Fliesstext. Abbildungen. Abbildungen anstelle von Text sparen ebenfalls Platz. Werden verschiedene Abbildungen verwendet, so sind Achsen in der Skalierung und Grösse gleich dargestellt. Weiterführende Literatur Bänsch, A. (2002). Wissenschaftliches Schreiben. München: Oldenbourg. Bünting, K.-D., Bitterlich, A. & Pospiech, U. (2002). Schreiben im Studium: mit Erfolg – Ein Leitfaden. Berlin: Cornelsen Scriptor. Franck, N. (2001). Rhetorik für Wissenschaftler: Selbstbewusst auftreten, selbstsicher reden. München: Verlag Franz Vahlen. Kuzbar, R. & Ammer, R. (2006). Der wissenschaftliche Vortrag. Wien: Springer Verlag. Wagner, Roland W. (2006): Mündliche Kommunikation in der Schule. Paderborn: Schöningh.

349

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Abbildung 35: Typischer Aufbau eines Posters.

350

Powered by TCPDF (www.tcpdf.org)

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Literaturverzeichnis

Abs, H. J., Maag Merki, K. & Klieme, E. (2006). Grundlegende Gütekriterien für Schulevaluation. In W. Böttcher, H. G. Holtappels, M. & Brohm (Hrsg.), Evaluation im Bildungswesen. Eine Einführung in Grundlagen und Praxisbeispiele (S. 97-108). Weinheim: Juventa. Akademien der Wissenschaften Schweiz (Hg.). (2008). Wissenschaftliche Integrität. Grundsätze und Verfahrensregeln. http://www.akademien-schweiz.ch/downloads/Layout_Integritaet_d _online.pdf (besucht am 23.5.2008). Altrichter, H. (1996). Der Lehrberuf: Qualifikationen, strukturelle Bedingungen und Professionalität. In W. Specht & J. Thonhauser (Hrsg.), Schulqualität (S. 96-172). Innsbruck: Studien Verlag. Altrichter, H. & Buhren, C. G. (1997). Evaluation und Schulentwicklung. Schulen vermessen oder entwickeln? Journal für Schulentwicklung, 3, 4-21. Altrichter, H. & Feindt, A. (2004). Zehn Fragen zur LehrerInnenforschung. In S. Rahm & M. Schratz (Hrsg.), LehrerInnenforschung. Theorie braucht Praxis. Braucht Praxis Theorie? Studien zur Bildungsforschung & Bildungspolitik (S. 84-101). Innsbruck: Studien Verlag. Altrichter, H. & Mayr, J. (2004). Forschung der Lehrerbildung. In S. Blömeke, P. Reinhold, G. Tulodziecki & J. Wildt (Hrsg.), Handbuch Lehrerbildung (S. 164-184). Bad Heilbrunn: Klinkhardt. Altrichter, H. & Posch, P. (1996). Mikropolitik der Schulentwicklung. Innsbruck: Studien Verlag. Altrichter, H. & Posch, P. (2007). Lehrerinnen und Lehrer erforschen ihren Unterricht: Unterrichtsentwicklung und Unterrichtsevaluation durch Aktionsforschung. Bad Heilbrunn: Klinkhardt. American Psychological Association (2005). Concise Rules of APA Style. Washington: Author. Anastasi, A., & Urbina, S. (1997). Psychological testing (7th ed.). Upper Saddle River, NJ: Prentice Hall. Anzenbacher, A. (1992). Einführung in die Philosophie. Freiburg: Herder. Arens, B., Koch-Priewe, B., Kovermann, B., Roters, B., Schneider, R. & Sommerfeld, D. (2006). Hochschuldidaktische Konzeptionen zum Forschenden Lernen: das Dortmunder Modell: Reader zum Theorie-Praxis-Modul (TPM) Band 1. Dortmund: Institut für Allgemeine Didaktik und Schulpädagogik. http://www.fb12.uni-dortmund.de/einrichtungen/pbla/pdf/TPM /Reader%20I.pdf (besucht am 14.7.2009) Artelt, C., Demmrich, A. & Baumert, J. (2001). Selbstreguliertes Lernen. In J. Baumert, E. Klieme, M. Neubrand, M. Prenzel, U. Schiefele, W. Schneider et al. (Hrsg.), PISA 2000. Basiskompetenzen von Schülerinnen und Schülern im internationalen Vergleich (S. 271-298). Opladen: Leske + Budrich. Atteslander, P. (2000). Methoden der empirischen Sozialforschung. Berlin: de Gruyter. Atteslander, P. (2006). Methoden der empirischen Sozialforschung (11. Aufl.). Berlin: Erich Schmidt Verlag.

351

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Atteslander, P. & Cromm, J. (2008). Methoden der empirischen Sozialforschung (12. Aufl.). Berlin: Erich Schmidt Verlag. Atteslander, P. & Kneubühler, H.-U. (1975). Verzerrungen im Interview: Zu einer Fehlertheorie der Befragung. Studien zur Sozialwissenschaft: Bd. 32. Opladen: Westdeutscher Verlag. Ballstaedt, S.-P. (1997). Wissensvermittlung. Die Gestaltung von Lernmaterial. Weinheim: Beltz Psychologie Verlags Union. Ballstaedt, S.-P. (2006). Zusammenfassen von Textinformationen. In H. Mandl & H. F. Friedrich (Hrsg.), Handbuch Lernstrategien (pp. 117-126). Göttingen: Hogrefe. Bänsch, A. (2002). Wissenschaftliches Schreiben. München: Oldenbourg. Barrett, M. (2002). Practical and ethical issues in planning research. In G. M. Breakwell, S. Hammond, & C. Five-Schaw (Eds.), Research methods in psychology (3rd ed., pp. 22-40). London: Sage. Barth, S. (1998). Die schriftliche Befragung. http://www.stephan-barth.de/schriftl.htm (besucht am 1.7.2007) Bassey, M. (1980). Crocodiles eat children. In J. Elliott & D. Whitebread (Eds.), The theory and practice of educational action research. CARN-Bulletin No.4 (pp. 16-33). Cambridge: Institute of Education. Baumert, J. & Kunter, M. (2006). Stichwort: Professionelle Kompetenz von Lehrkräften. Zeitschrift für Erziehungswissenschaft, 9(4), 469-520. Beglinger, M. (2008). Warum ich nicht mehr Lehrer bin. Ein Berufsstand verzweifelt an tausend Ansprüchen. Das Magazin, (40). http://dasmagazin.ch/index.php/warum-ich-nicht-mehrlehrer-bin/ (besucht am 3.11.2009) Bell, J. (1999). Doing Your Research Project. A guide for first-time researchers in education and social science (3rd ed.). Maidenhead: Open University Press. Bell, P. B., Staines, P. J., & Michell, J. (2001). Evaluating, doing and writing research in psychology: A step-by-step guide for students. London: Sage. Beller, S. (2004). Empirisch forschen lernen. Konzepte, Methoden, Fallbeispiele, Tipps. Bern: Huber. Benninghaus, H. (2005). Einführung in die sozialwissenschaftliche Datenanalyse. München: Oldenbourg. Benninghaus, H. (2007). Deskriptive Statistik. Eine Einführung für Sozialwissenschaftler. Wiesbaden: VS Verlag für Sozialwissenschaften. Bessoth, R. & Weibel, W. (2000). Unterrichtsqualität an Schweizer Schulen. Zug: Klett. Bohl, T. (2005). Wissenschaftliches Arbeiten im Studium der Pädagogik. Weinheim: Beltz. Böhm, A. (2007). Theoretisches Codieren: Textanalyse in der Grounded Theory. In U. Flick, E. von Kardoff & I. Steinke (Hrsg.), Qualitative Forschung. Ein Handbuch (5. Aufl., S. 475485). Reinbek bei Hamburg: Rowohlt. Bohnsack, R. (2003). Rekonstruktive Sozialforschung. Einführung in qualitative Methoden (5. Aufl.). Opladen: Leske+Budrich. Bohnsack, R., Marotzki, W. & Meuser, M. (Hrsg.). (2006). Hauptbegriffe Qualitativer Sozialforschung (2. Aufl.). Opladen: Verlag Barbara Budrich/UTB. Bortz, J. (2005). Statistik für Human- und Sozialwissenschaftler (6. Aufl.). Heidelberg: Springer. Bortz, J. & Döring, N. (1995). Forschungsmethoden und Evaluation für Sozialwissenschaftler (2. Aufl.). Berlin: Springer. Bortz, J. & Döring, N. (2003). Forschungsmethoden und Evaluation für Human- und Sozialwissenschaftler (3. Aufl.). Berlin: Springer.

352

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Bortz, J. & Döring, N. (2006). Forschungsmethoden und Evaluation für Human- und Sozialwissenschaftler (4. Aufl.). Berlin: Springer. Bos, W. & Tarnai, C. (1999). Content analysis in empirical social research. International Journal of Educational Research, 31, 659-671. Böttcher, W., Holtappels, H. G. & Brohm, M. (2006). Evaluation im Bildungswesen. In W. Böttcher, H. G. Holtappels & M. Brohm (Hrsg.), Evaluation im Bildungswesen. Eine Einführung in Grundlagen und Praxisbeispiele (S. 7-21). Weinheim: Juventa. Breakwell, G. M. (2002). Interviewing. In G. M. Breakwell, S. Hammond, & C. Fife-Schaw (Eds.), Research methods in psychology (pp. 239-250). London: Sage. Brockhaus GmbH (2005-07). Brockhaus – Die Enzyklopädie in 30 Bänden (21. Aufl.). Leipzig, Mannheim: F.A. Brockhaus. http://lexika.tanto.de.ezproxy.unilu.ch/artikel.php?TANTO_SID =141df6844a2f68b27c9dfa6ee73be19e&TANTO_KID=uniluzern&TANTO_AGR=36104&s hortname=b24&artikel_id=17020903 (besucht am 15.6.2008) Bühl, A. (2006). SPSS 14. Einführung in die moderne Datenanalyse. München: Pearson Studium. Buholzer, A., Ottiger, A. & von Büren, A. (2008). Weiterentwicklung der Sekundarstufe I. Bericht zur Evaluation der Sekundarstufe I im Kanton Luzern. Band I (Forschungsbericht Nr. 12). Luzern: Pädagogische Hochschule Zentralschweiz, Luzern. Bünting, K. D., Bitterlich, A. & Pospiech, U. (2000). Schreiben im Studium: mit Erfolg. Ein Leitfaden. Berlin: Cornelsen Verlag. Bünting, K. D., Bitterlich, A. & Pospiech, U. (2002). Schreiben im Studium: mit Erfolg: Ein Leitfaden. Mit CD-ROM. Berlin: Cornelsen Verlag. Bureau of Applied Social Research (1966). Das qualitative Interview. In R. König (Hg.), Das Interview. Formen, Technik, Auswertung. Praktische Sozialforschung I (5. Aufl., S. 143-160). Köln: Kiepenheuer & Witsch. Chalmers, A. F. (2007). Wege der Wissenschaft. Einführung in die Wissenschaftstheorie (6. Aufl.). Heidelberg: Springer. Coreth, E. (1969). Grundfragen der Hermeneutik. Freiburg: Herder. Costa, P. T. & McCrae, R. R. (1992). Revised NEO Personality Inventory (NEO PI-R) and NEO Five Factor Inventory. Professional Manual. Odessa, Florida: Psychological Assessment Resources. Denzler, S. & Wolter, S. C. (2006). Wer entscheidet sich für eine Lehrerausbildung? Einflussfaktoren bei der Studien- und Berufswahl Lehramt von Maturanden aus dem Kanton Bern. Beiträge zur Lehrerbildung, 24(1), 63-67. Der Brockhaus Philosophie. (2004). Wissen. In Lexikonredaktion des Verlags F. A. Brockhaus (Hg.), Philosophie. Ideen, Denker und Begriffe (S. 368-369). Mannheim und Leipzig: Brockhaus. Dewey, J. (1993). Demokratie und Erziehung; Eine Einleitung in die philosophische Pädagogik. Weinheim: Beltz. Dick, A. (2003). Praxisforschung als Bindeglied zwischen Wissen und Können. In A. Obolenski & H. Meyer (Hrsg.), Forschendes Lernen. Theorie und Praxis einer professionellen LehrerInnenausbildung (S.37-54). Bad Heilbrunn: Klinkhardt. Diekmann, A. (2007). Empirische Sozialforschung. Grundlagen, Methoden, Anwendungen (17. Aufl.). Reinbek bei Hamburg: Rowohlt. Diekmann, A. (2007). Empirische Sozialforschung: Grundlagen, Methoden, Anwendungen (Vollst. überarb. und erw. Neuausg., 18. Aufl.). Reinbek bei Hamburg: Rowohlt.

353

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Eder, F. (1998). Linzer Fragebogen zum Schul- und Klassenklima für die 8.-13. Klasse (LFSK 8–13). Göttingen: Hogrefe. Eder, F. (2002). Unterrichtsklima und Unterrichtsqualität [Elektronische Version]. Zeitschrift für Lernforschung, 30(3), 213-229. Eder, F. & Mayr, J. (2000). Linzer Fragebogen zum Schul- und Klassenklima für die 4.-8.. Klasse (LFSK 4-8), Westermann Test. Göttingen: Hogrefe. Engelberger, L. (2007). Singen im Kindergarten. Multimethodisches Erfassen am Beispiel eines Einzelfalls. Unveröffentlichte Lizentiatsarbeit. Zürich: Universität Zürich. Erker, W., Hilbert, L, Tasch, K. & Winners, U. (1993). Über die Klarheit zur Freiheit. IP-Reihe Nr. 5. Graz: Innovationsprojekt. Europäische Kommission (2005). Europäische Charta für Forscher. Verhaltenskodex für die Einstellung von Forschern. Luxembourg: Office for Official Publications of the European Communities. http://ec.europa.eu/eracareers/pdf/eur_21620_de-en.pdf (besucht am 21.6.2008) Fassnacht, G. (2007). Systematische Verhaltensbeobachtung. Eine Einführung in die Methodologie und Praxis. München: Reinhardt. Feyerabend, P. (1976). Wider den Methodenzwang. Frankfurt a. M.: Suhrkamp. Fisseni, H. J. (1997). Lehrbuch der psychologischen Diagnostik. Bern: Hogrefe. Fleck, L. (1983). Über die wissenschaftliche Beobachtung und die Wahrnehmung im allgemeinen. In L. Schäfer & T. Schnelle (Hrsg.), Ludwik Fleck. Gesammelte Aufsätze (S. 59-83). Frankfurt: Suhrkamp. Flick, U. (2002). Qualitative Sozialforschung. Eine Einführung (6. Aufl.). Reinbek bei Hamburg: Rowohlt. Flick, U. (2006). Qualitative Sozialforschung. Reinbek bei Hamburg: Rowohlt. Flick, U. (2007). Qualitative Sozialforschung. Eine Einführung (vollst. überarb.u. erw. Neuausgabe). Reinbek bei Hamburg: Rowohlt. Flick, U., von Kardoff, E. & Steinke, I. (2007). Was ist qualitative Forschung? Einleitung und Überblick. In U. Flick, E. von Kardoff & I. Steinke (Hrsg.), Qualitative Forschung. Ein Handbuch (5. Aufl., S. 13-29). Reinbek bei Hamburg: Rowohlt. Franck, N. (2001). Rhetorik für Wissenschaftler: Selbstbewusst auftreten, selbstsicher reden. München: Verlag Franz Vahlen. Friedlein, C. (1984). Geschichte der Philosophie. Lehr- und Lernbuch. Berlin: Erich Schmidt Verlag. Friedrich, H. F. & Mandl, H. (2006). Lernstrategien: Zur Strukturierung des Forschungsfeldes. In: H. Mandl & H. F. Friedrich (Hrsg.), Handbuch Lernstrategien (S. 1-23). Göttingen: Hogrefe. Früh, W. (2004). Inhaltsanalyse. Theorie und Praxis (5. Aufl.). Konstanz: UVK. Gadamer, H.-G. (1983a). Lob der Theorie (1980). In H.-G. Gadamer (Hg.), Lob der Theorie. Reden und Aufsätze (S.26-50). Frankfurt a. M.: Suhrkamp. Gadamer, H.-G. (1983b). Wissenschaft als Instrument der Aufklärung (1973). In H.-G. Gadamer (Hg.), Lob der Theorie. Reden und Aufsätze (S.88-102). Frankfurt a. M.: Suhrkamp. Gadamer, H.-G. (1983c). Wissenschaft und Öffentlichkeit (1977). In H.-G. Gadamer (Hg.), Lob der Theorie. Reden und Aufsätze (S.77-87). Frankfurt a. M.: Suhrkamp. Garz, D. & Kraimer, K. (Hrsg.). (1994). Die Welt als Text: Theorie, Kritik und Praxis der objektiven Hermeneutik. Frankfurt a. Main : Suhrkamp.

354

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Gasser, L. (2009). Sind die Kompetenten die Guten? Soziale, kognitive und moralische Fähigkeiten von Tätern im frühen Grundschulalter. Wiesbaden: Südwestdeutscher Verlag für Hochschulschriften. Glaser, B (2007). Remodeling Grounded Theory. In G. Mey & K. Mruck (Eds.), Grounded Theory Reader(S. 47-68). Köln: Zentrum für Historische Sozialforschung. Glaser, B. & Strauss, A. L. (1967). The discovery of grounded theory. Chicago: Aldine. Graham, S. (1996). How causal beliefs influence the academic and social motivation of AfricanAmerican children. In G. G. Brannigan (Ed.), The enlightened educator: Research adventures in the schools (S. 111-126). New York: McGraw-Hill. Groeben, N., Wahl, D., Schlee, J. & Scheele, B. (1988). Das Forschungsprogramm Subjektive Theorien. Eine Einführung in die Psychologie des reflexiven Subjekts. Tübingen: Francke. Gutzwiller-Helfenfinger, E., Flammer, A. & Wicki, W. (2000). Jugendlicher Vandalismus: Motive, Anlässe, Prävention. Forschungsbericht 2000 – 2 (gilt als Schlussbericht). Universität Bern: Institut für Psychologie. Häcker, H. & K.-H. Stapf (Hrsg.). (2004). Dorsch - Psychologisches Wörterbuch. Bern: Huber. Häder, M. (2006). Empirische Sozialforschung. Eine Einführung. Wiesbaden: Verlag für Sozialwissenschaften. Hammond, S. (2002). Using Psychometric Tests. In M. Glynis, G. M. Breakwell, S. Hammond, & C. Fife-Schaw (Eds.), Research methods in psychology (pp. 175-193). London: Sage. Hauser, D., Gutzwiller-Helfenfinger, E. und Alsaker, F. D. (2009). Kindergartenkinder als Mobbingzeugen. Schweizerische Zeitschrift für Bildungswissenschaften, 31(1), 57-74. Helsper, W. & Kolbe, F. (2002). Bachelor/Master in der Lehrerbildung – Potential für Innovation oder ihre Verhinderung? Zeitschrift für Erziehungswissenschaft, 5(3), 384-401. Hildenbrand, B. (2007). Anselm Strauss. In U. Flick, E. von Kardoff & I. Steinke (Hrsg.), Qualitative Forschung. Ein Handbuch (5. Aufl., S. 32-42). Reinbek bei Hamburg: Rowohlt. Hildenbrand, B. (1995). Fallrekonstruktive Forschung. In U. Flick, E. v. Kardoff, H. Keupp, L. v. Rosenstiel& S. Wolff (Hrsg.), Handbuch qualitative Sozialforschung. Grundlagen, Konzepte, Methoden und Anwendungen (S. 256-260). Weinheim: Psychologie Verlags Union. Hilzensauer, W. (2008). Theoretische Zugänge und Methoden zur Reflexion des Lernens. Ein Diskussionsbeitrag [Elektronische Version]. Bildungsforschung, 5 (2). http://www.bildungsforschung.org/Archiv/2008-02/lernvermoegen/ (besucht am 25.5.2009) Hirsig, R. (2007). Statistische Methoden in den Sozialwissenschaften, Band I. Zürich: Seismo. Hitzler, R. & Honer, A. (Hrsg.). (1997). Sozialwissenschaftliche Hermeneutik. Eine Einführung. Opladen: Leske + Budrich. Horstkemper, M. (2003). Warum soll man im Lehramtsstudium forschen lernen? In A. Obolenski & H. Meyer (Hrsg.), Forschendes Lernen. Theorie und Praxis einer professionellen LehrerInnenausbildung (S. 117-128). Bad Heilbrunn: Klinkhardt. Horstkemper, M. & Tillmann, K. J. (2003). Schulformvergleiche und Studien zu Einzelschulen. In W. Helsper & J. Böhme (Hrsg.), Handbuch der Schulforschung (S. 287-324). Opladen: Leske + Budrich. Hoyningen-Huene, P. (2009). Systematizität als das, was Wissenschaft ausmacht. Information Philosophie, 1, 22-27. Huber, Ch. (2006). Komplexität und Konfliktpotenzial in der Betreuung von Menschen mit Behinderungen. Reflexion als Form der Bewältigung – eine qualitative Untersuchung. Luzern: Edition SZH [=ISP-Universität Zürich 14].

355

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Huber, L. (2003). Forschendes Lernen in Deutschen Hochschulen. Zum Stand der Diskussion. In A. Obolenski & H. Meyer (Hrsg.), Forschendes Lernen. Theorie und Praxis einer professionellen LehrerInnenausbildung (S. 15-36). Bad Heilbrunn: Klinkhardt. Ingenkamp, K.-H. (1988). Pädagogische Diagnostik. In R. S. Jäger (Hg.), Psychologische Diagnostik. Ein Lehrbuch (S. 423-436). München: Beltz. Janich, P. (1997). Kleine Philosophie der Naturwissenschaften. München: Verlag C. H. Beck. Joint Quality Initiative (2004). Gemeinsame „Dublin Descriptors“ für Bachelor-, Master- und Promotionsabschlüsse. http://www.jointquality.nl (besucht am 25.5.2009) Kern, H. J. (1997). Einzelfallforschung. Eine Einführung für Studierende und Praktiker. Weinheim: Psychologie Verlags Union. Keuffer, J. & Oelkers, J. (Hrsg). (2001). Reform der Lehrerbildung. Weinheim: Beltz. Kleemann, F., Krähnke, U. & Matuschek, I. (2009). Interpretative Sozialforschung. Eine praxisorientierte Einführung. Wiesbaden: Verlag für Sozialwissenschaften. Klieme, E. (2006). Empirische Unterrichtsforschung: Aktuelle Entwicklungen, theoretische Grundlagen und fachspezifische Befunde. Einleitung in den Thementeil. Zeitschrift für Pädagogik, 52(6), 765-733. KMK, Kultusministerkonferenz (2004). Standards für die Lehrerbildung: Bildungswissenschafhttp://www.kmk.org/fileadmin/veroeffentlichungen_beschluesse/2004/2004_12_16ten. Standards-Lehrerbildung.pdf (besucht am 25.5.2009) König, R. (Hg.). (1966). Das Interview: Formen, Technik, Auswertung. Praktische Sozialforschung I (5. Aufl.). Köln: Kiepenheuer & Witsch. Konrad, K. (2005). Mündliche und schriftliche Befragung. Landau: Verlag empirische Pädagogik. Kracauer, S. (1952). The challenge of qualitative content analysis. Public Opinion Quarterly, 16, 631-642. Krämer, W. (2006a). So lügt man mit Statistik. Zürich: Piper. Krämer, W. (2006b). Grundkurs Statistik. NZZ Folio, 1, 50-53. Krall, H., Messner, E. & Rauch, F. (1995). Schulen beraten und begleiten. Innsbruck: Studien Verlag. Krammer, K. & Hugener, I. (2005). Netzbasierte Reflexion von Unterrichtsvideos in der Ausbildung von Lehrpersonen – eine Explorationsstudie. Beiträge zur Lehrerbildung, 23(1), 51-61. Krammer, K., Schnetzler, C. L., Ratzka, N., Reusser, K., Pauli, C., Lipowsky, F. & Klieme, E. (2008). Lernen mit Unterrichtsvideos: Konzeption und Ergebnisse eines netzgestützten Weiterbildungsprojekts mit Mathematiklehrpersonen aus Deutschland und der Schweiz. Beiträge zur Lehrerbildung, 26(2), 178-197. Krappmann, L., Kreppner, K. & Oevermann, U. (1968). Projektantrag für das Forschungsprojekt 'Elternhaus und Schule'. Berlin: Institut für Bildungsforschung der Max-PlanckGesellschaft. Kromrey, H. (2000). Empirische Sozialforschung. Modelle und Methoden der standardisierten Datenauswertung. Opladen: Leske + Budrich. Kronenberger, J. & Souvignier, E. (2005). Fragen und Erklärungen beim kooperativen Lernen in Grundschulklassen. Zeitschrift für Entwicklungspsychologie und Pädagogische Psychologie. 37(2), 91-100. Kuzbar, R. & Ammer, R. (2006). Der wissenschaftliche Vortrag. Wien: Springer Verlag. Laatz, W. (1993). Empirische Methoden: Ein Lehrbuch für Sozialwissenschaftler. Thun: Deutsch.

356

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Lamnek, S. (1989). Qualitative Sozialforschung: Band 2. Methoden und Techniken. München: Psychologie Verlags Union. Lamnek, S. (1995). Qualitative Sozialforschung (3. Aufl.). Weinheim: Psychologie Verlags Union. Lane, R. E. (1966). The decline of politics and ideology in a knowledgeable society. American Sociological Review, 31(5), 649-662. Lassahn, R. (1983). Pädagogische Anthropologie. Eine historische Einführung. Heidelberg: Quelle & Meyer. Laucken, U. & Schick, A. (1985). Einführung in das Studium der Psychologie (5. Aufl.). Stuttgart: Klett-Cotta. Lienert, G. A. & Ratz, U. (1998). Testaufbau und Testanalyse (6. Aufl.). Weinheim: Psychologie Verlags Union. Lötscher, H., Theiler, P. & Schär, R. (2005). Anforderungen an die Ganzheitliche Beurteilung und Förderung. In Amt für Volksschulbildung (Hg.), Ganzheitlich Beurteilen und Fördern. Umsetzungshilfe 1./2. Klasse. CD-ROM S. Luzern: Amt für Volksschulbildung. Marmet, O. (1996). Ich und du und so weiter. Kleine Einführung in die Sozialpsychologie. München: Piper. Malti, T. (2003). Das Gefühlsverständnis aggressiver Kinder. Dissertation. Berlin: Freie Universität Berlin. http://www.diss.fu-berlin.de/2003/120 (besucht am 1.6.2010) Mayring, P. (1993). Qualitative Inhaltsanalyse. Grundlagen und Techniken (4. Aufl.). Weinheim: Deutscher Studienverlag. Mayring, P. (1999). Einführung in die qualitative Sozialforschung. Eine Anleitung zu qualitativem Denken (4. Aufl.). Weinheim: Psychologie Verlags Union. Mayring, P. (2000). Qualitative Inhaltsanalyse. Forum Qualitative Sozialforschung/Forum: Qualitative Social Reserach, 1(2), Art.20. http://nbn-resolving.de/urn:nbn:de:0114-fqs 0002204 (besucht am 2.11.2009) Mayring, P. (2002). Einführung in die qualitative Sozialforschung. Weinheim: Beltz. Mayring, P. (2003). Qualitative Inhaltsanalyse. Grundlagen und Techniken (8. Aufl.). Weinheim: Beltz/UTB. Mayring, P. (2007). Qualitative Inhaltsanalyse. In U. Flick, E. von Kardoff & I. Steinke (Hrsg.), Qualitative Forschung. Ein Handbuch (5. Aufl., S. 468-475). Reinbek bei Hamburg: Rowohlt. McGinn, M. K., & Bosacki, S. L. (2004). Research ethics and practitioners: concerns and strategies for novice researchers engaged in graduate education. Forum Qualitative Sozialforschung/Forum Qualitative Social Research [On-line Journal], 5(2), Art. 6. Retrieved May 23, 2008 from http://www.qualitative-research.net//fqs-texte/2-04/2-04mcginnbosacki-e.htm McMillan, J. H., & Schumacher, S. (2006). Research in education. Evidence-based inquiry (6th ed.). Boston: Pearson. Meuser, M. (2006). Inhaltsanalyse. In F. Bohnsack, W. Marotzki & M. Meuser (Hrsg.), Hauptbegriffe Qualitativer Sozialforschung (2. Aufl., S. 89-91). Opladen & Farmington Hills: Verlag Barbara Budrich/UTB. Meyer, H. (2004). Was ist guter Unterricht? Berlin: Cornelsen Scriptor. Mittelstrass, J. (2004). Wissen. In J. Mittelstrass (Hg.), Enzyklopädie Philosophie und Wissenschaftstheorie, Studienausgabe, Bd. 4 (S.717-719). Stuttgart: J. B. Metzler. Mittelstrass, J. (2006). Wissenschaftsland Bayern 2020. Über Prinzipien einer förderlichen Universitätsentwicklung und die Empfehlungen einer bayerischen Expertenkommission. Beiträge zur Hochschulforschung, 28(3), 6-18.

357

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Mollenhauer, K. & Rittelmeyer, C. (1977). Methoden der Erziehungswissenschaft. München: Juventa. Müller-Wirth, M. (2003). Noch Fragen? Tabuthemen und Blackouts, die Liebe zu den Gästen und das Scheitern an ihnen. Ein Gespräch übers Gesprächeführen mit Reinhold Beckmann und Günter Gaus. DIE ZEIT, 1, S. 62. Mummendey, H. D. (2003). Die Fragebogen-Methode. Grundlagen und Anwendung in Persönlichkeits-, Einstellungs- und Selbstkompetenzforschung (4. Aufl.). Göttingen: Hogrefe. Musahl, H. P. & Schwennen, C. (2002). Versuchsplanung. In G. Wenninger (Red.), Lexikon der Psychologie (CD-ROM). Heidelberg: Spektrum Akademischer Verlag. Nestle, W. (1942). Vom Mythos zum Logos. Die Selbstentfaltung des griechischen Denkens von Homer bis auf die Sophistik und Sokrates (2. Aufl.). Stuttgart: Kröner. Nicol, A. M. & Pexman, P. M. (2003). Displaying your findings: A practical guide for creating figures, posters, and presentations. Washington: American Psychological Association. Niedermair, K. (2001). Metaphernanalyse. In T. Hug (Hg.), Wie kommt Wissenschaft zu Wissen? Band 2: Einführung in die Forschungsmethodik und die Forschungspraxis (S.144-165). Baltmannsweiler: Schneider Verlag Hohengehren. NZZ Online (2007). Zürcher Studie ortet keine Zunahme der Jugendgewalt. NZZ Online (besucht am 15.12.2007). http://www.nzz.ch/nachrichten/zuerich/zuercher_studie_ortet_keine_ zunahme_der_jugendgewalt_1.599287.html (besucht am 20.7.2008) Obolenski, A. & Meyer, H. (Hrsg.). (2003). Forschendes Lernen: Theorie und Praxis einer professionellen LehrerInnenausbildung. Bad Heilbrunn: Klinkhardt. Oevermann, U. (1981). Fallrekonstruktion und Strukturgeneralisierung als Beitrag der objektiven Hermeneutik zur soziologisch-strukturtheoretischen Analyse. Unveröffentlichtes Manuskript. Oevermann, U. (1986). Kontroversen über sinnverstehende Soziologie. Einige wiederkehrende Probleme und Missverständnisse in der Rezeption der „objektiven Hermeneutik“. In S. Aufenanger & M. Lenssen (Hrsg.), Handlung und Sinnstruktur: Bedeutung und Anwendung der objektiven Hermeneutik (S. 19-83). München: Kindt. Österreichische Wirtschaftspsychologische Forschungsstelle (Hrsg.). (1933). Die Arbeitslosen von Marienthal. Ein soziographischer Versuch über die Wirkungen langandauernder Arbeitslosigkeit. Mit einem Anhang zur Geschichte der Soziographie. Bearbeitet und herausgegeben von der Österreichischen Wirtschaftspsychologischen Forschungsstelle. Leipzig: Hirzel. Oswald, F., Pfeifer, B. Ritter-Berlach, G. & Tanzer, N. (1989). Schulklima. Die Wirkungen der persönlichen Beziehungen in der Schule. Wien: Universitätsverlag. Pauli, C. & Reusser, K. (2006). Von international vergleichenden Video-Surveys zur videobasierten Unterrichtsforschung- und -entwicklung. Zeitschrift für Pädagogik, 52(6), 774-798. Perren, S. & von Klitzing, K. (2008). Untersuchung von Kindergartenkindern mit einem Puppeninterview: Bedeutsamkeit und Anwendung. Kinder- und Jugendmedizin, 8(1), 25-30. Petko, D. (2003). Diskutieren in virtuellen Lehrveranstaltungen. Beiträge zur Lehrerbildung, 21(2), 206-220. Pfeiffer, D. & Püttman, C. (2006). Methoden empirischer Forschung in der Erziehungswissenschaft. Baltmannsweiler: Schneider Verlag Hohengehren. Pilshofer, B. (2001). Wie erstelle ich einen Fragebogen? Graz: Wissenschaftsladen Graz. http://www-gewi.kfunigraz.ac.at/wila/ (besucht am 24.8.2007) Popp, W. (1970). Die Funktion von Modellen in der didaktischen Theorie. In G. Dohmen, F. Maurer & W. Popp (Hrsg.), Unterrichtsforschung und didaktische Theorie (S.49-60). München: Piper.

358

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Popper, K. R. (2004). Die Logik der Forschung (10. Aufl.). Tübingen: Mohr. Prengel, A, Heinzel, F. & Carle, U. (2004). Methoden der Handlungs-, Praxis- und Evaluationsforschung. In W. Helsper & J. Böhme (Hrsg.), Handbuch Schulforschung (S. 183-199). Przyborski, A. & Wohlrab-Sahr, M. (2008). Qualitative Sozialforschung. Ein Arbeitsbuch. München: Oldenbourg. Pyerin, B. (2003). Kreatives wissenschaftliches Schreiben: Tipps und Tricks gegen Schreibblockaden. Weinheim: Juventa. Reichertz, J. (1997). Objektive Hermeneutik. In R. Hitzler & A. Honer (Hrsg.), Sozialwissenschaftliche Hermeneutik. Eine Einführung (S. 31 -55). Opladen: Leske + Budrich. Reinders, H. (2005). Qualitative Interviews mit Jugendlichen führen. München: Oldenburg Verlag. Reinecke, J. (1991). Interviewer- und Befragtenverhalten: Theoretische Ansätze und methodische Konzepte. Studien zur Sozialwissenschaft: Bd. 106. Opladen: Westdeutscher Verlag. Reinhardt, V. (2005). Evaluation und Schulentwicklung durch Lernende. PädForum, 1, 28-30. Reh, S. (2005). „Reflektieren Sie mal …“ – „Reflexion“ und „Reflexivität“ – theoretische Annäherungen an schillernde Begriffe und didaktische Moden. In Wie fördern wir – Lehrer/innen, Studierende und Hochschullehrer/innen – eine reflektierende Lehr-/Lernhaltung?. Dokumentation des Sommerworkshops in der Pädagogischen Werkstatt, PH Freiburg vom 22. Juni 2005 (S. 4-9). http://www.ph-freiburg.de/weiterbi/paedwer/doku05endfassung.pdf (besucht am 26.9.2006) Reusser, K. (1998). Denkstrukturen und Wissenserwerb in der Ontogenese. In F. Klix & H. Spada (Hrsg.), Enzyklopädie der Psychologie, Band 6 (pp. 115-166). Göttingen: Hogrefe. Rost, D.H. (Hg.). (1998). Handwörterbuch Pädagogische Psychologie. Weinheim: Beltz. Rost, D.H. (2005). Interpretation und Bewertung pädagogisch-psychologischer Studien. Eine Einführung. Weinheim: Beltz. Rossi, P. H., Lipsey, M. W. & Freeman, H.E. (2004). Evaluation. A systematic approach. Thousand Oaks: Sage. Schallberger, P. (2005). Einführung in die qualitative Sozialforschung. Vorlesungsskript Wintersemester 2005/06. Universität Bern: Institut für Soziologie. http://dsowidb.unibe.ch/studium/ ws0506/downloads/quali_alles.pdf (besucht am 5.11.2009) Schiller, E.-M., Strohmeier, D. & Spiel, C. (2009). Risiko Video- und Computerspiel? Eine Studie über Video- und Computernutzung und Aggression bei 12- und 16- jährigen Jugendlichen. Schweizerische Zeitschrift für Bildungswissenschaften, 31(1), 75-98. Schleiermacher, F. (1956). Gelegentliche Gedanken über Universitäten im deutschen Sinn (1808). In E. Anrich (Hg.), Die Idee der deutschen Universität (S. 219-308). Darmstadt: Wissenschaftliche Buchgesellschaft. Schmitt, R. (1995). Metaphern des Helfens. Weinheim: Psychologie Verlags Union. Schmuck, R. (2006). Practical Action Research for Change. Thousand Oaks: Corwin Press. Schmuller, J. (2005). Statistik mit Excel für Dummies. Weinheim: Wiley-VCH. Schneider, R. &Wildt, J. (2004). Forschendes Lernen im Berufspraktischen Halbjahr. In B. Koch-Priewe, F.-U. Kolbe & J. Wildt (Hrsg.), Grundlagenforschung und Mikrodidaktische Reformansätze zur Lehrerbildung (S.151-175). Bad Heilbrunn: Klinkhardt. Schnell, R., Hill, P. B. & Esser, E. (2008). Methoden der empirischen Sozialforschung (8. Aufl.). München: Oldenbourg. Schneider, N. (1998). Erkenntnistheorie im 20. Jahrhundert. Klassische Positionen. Stuttgart: Reclam. Schön, D.A. (1983). The Reflective Practitioner. London: Temple Smith.

359

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Schön, D.A. (1987). Educating the Reflective Practitioner. Towards a New Design for Teaching and Learning in the Professions. San Francisco: Jossey-Bass. Schweizerische Gesellschaft für Psychologie SGP (2003). Ethische Richtlinien für Psychologinnen und Psychologen. http://www.psychologie.uzh.ch/studium/linksammlung/Eth_Richtl_ SGP_2003.pdf (besucht am 26.5.2008) Seidel, T. & Prenzel, M. (2003). Videoanalyse als Methode in der Lehr-Lern-Forschung. Journal für Lehrerinnen- und Lehrerbildung, 3(1), 54-60. Senn, W., Lötscher, H. & Malti, T. (2005). Selbst- und Fremdbeurteilungsprozesse bei gemeinsam lernenden Schülerinnen und Schüler, Forschungsbericht Nr. 2. Luzern: Pädagogische Hochschule Zentralschweiz, Luzern. Senn, W., & Widmer, P. (2005). Der Beobachtungsfächer. Praxis Deutsch, 33(194), 38-44. Society for Research in Child Development SRCD (1991). Ethical standards for research with children. http://www.srcd.org/ethicalstandards.html (besucht am 26.5.2008) Spinath, B., Stiensmeier-Pelster, J., Schöne, C. & Dickhäuser, O. (2002). Skalen zur Erfassung der Lern- und Leistungsmotivation (SELLMO). Göttingen: Hogrefe. Stake, R. E. (1995). The art of case study research. London: Sage. Stockmann, R. (2006). Qualitätsmanagement und Evaluation im Vergleich. W. Böttcher, H. G. Holtappels & M. Brohm (Hrsg.), Evaluation im Bildungswesen. Eine Einführung in Grundlagen und Praxisbeispiele (S. 23-38). Weinheim: Juventa. Strauss, A. & Corbin, J. (1996). Grounded Theory: Grundlagen qualitativer Sozialforschung. Weinheim: Psychologie Verlags Union. Ströker, E. (1977). Einführung in die Wissenschaftstheorie. Darmstadt: Wissenschaftliche Buchgesellschaft. Stückelberger, A. (2006). Geleitwort. In C. J. Vamvacas (Hg.), Die Geburt der Philosophie. Der vorsokratische Geist als Begründer von Philosophie und Naturwissenschaften (S.11-12). Düsseldorf: Patmos Verlag. Tenorth, H.-E. & Tippelt, R. (2007). Forschung. In H.-E. Tenorth & R. Tippelt (Hrsg.), Beltz Lexikon Pädagogik (S. 253). Weinheim: Beltz. Topsch, W. (2006). Leitfaden Examensarbeit für das Lehramt: Bachelor- und Masterarbeiten im pädagogischen Bereich. Weinheim: Beltz. Urheberrechtsgesetz, URG (2007). Bundesgesetz über das Urheberrecht und verwandte Schutzrechte, 231.1. http://www.admin.ch/ch/d/sr/2/231.1.de.pdf (besucht am 5.6.2008) Vamvacas, C. J. (2006). Die Geburt der Philosophie. Der vorsokratische Geist als Begründer von Philosophie und Naturwissenschaften. Düsseldorf: Patmos Verlag. von Cranach, M. (1983). Über die bewusste Repräsentation handlungsbezogener Kognitionen. In L. Montada (Hg.), Kognition und Handeln (S.64-76). Stuttgart: Klett-Cotta. von Matt, P. (2003). Öffentliche Verehrung der Luftgeister. Reden zur Literatur. München: Hanser. von Saldern, M. & Littig, K. E. (1987). Landauer Skalen zum Sozialklima. Weinheim: Beltz. Wahl, D. (1991). Handeln unter Druck. Der weite Weg vom Wissen zum Handeln bei Lehrern, Hochschullehrern und Erwachsenenbildnern. Weinheim: Deutsche Studienanstalt. Wagner, R. W. (2006). Mündliche Kommunikation in der Schule. Paderborn: Schöningh. Wernet, A. (2000). Einführung in die Interpretationstechnik der Objektiven Hermeneutik. Opladen: Leske + Budrich. Weinert, F. E. (Hg.). (2002). Leistungsmessungen in Schulen. Weinheim: Beltz. Weinstein, C. E. & Mayer, R. E. (1986). The teaching of learning strategies. In M. Wittrock (Ed.), Handbook of research on teaching (pp. 315-327). New York: Macmillan.

360

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Wild, K.-P. (2000). Lernstrategien im Studium. Münster: Waxmann. Wild, K.-P. & Schiefele, U. (1994). Lernstrategien im Studium. Ergebnisse zur Faktorenstruktur und Reliabilität eines neuen Fragebogens. Zeitschrift für Differentielle und Diagnostische Psychologie, 15, 185-200. Wissenschaftsrat (Hrsg.). (2001). Empfehlungen zur künftigen Struktur der Lehrerbildung. http://www.wissenschaftsrat.de/texte/5065-01.pdf (besucht am 13.7.2009) Wittkowski, J. (1994). Das Interview in der Psychologie: Interviewtechnik und Codierung von Interviewmaterial. Opladen: Westdeutscher Verlag. Yin, R. (1994). Case study research. Designs and methods. London: Sage.

361

Powered by TCPDF (www.tcpdf.org)

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Stichwortverzeichnis

Abbildung - formale Darstellung, 332, 337f. Abstract, 323f. Aktionsforschung siehe Praxisforschung Alltagssprache, 21, 36 Anhang, 331, 334 Anonymität, 154, 156-158 ANOVA siehe Varianzanalyse Antwortformat, 167ff Argumentieren, 324ff Arithmetischer Mittelwert siehe Masszahlen deskriptiver Statistik Assoziationsmasse siehe Korrelation Ausbalancieren, 156 Auswertungen - univariate vs. bivariate/multivariate, 254 Begriffsklärung, 325ff Beobachtung - Beobachtungsaussagen, 37ff - Beobachtungseinheit, 188 - Beobachtungsfeld, 188 - Beobachtungsprotokoll, 192 - offene vs. halb-offene vs. verdeckte, 190f. - passiv-teilnehmende vs. aktiv- teilnehmende, 190 - strukturierte vs. unstrukturierte, 192 Beziehungen zwischen zwei Variablen - deterministisch vs. stochastisch, 281-285 Bibliothekskatalog, 91, 124, 126ff Bool’sche Operatoren siehe Verknüpfungs-Operatoren Case Study siehe Einzelstudie Chi-Quadrat, 291, 315ff

362

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Code, 157, 171, 233ff Codieren - axial, 236f. - offen, 233-236 - selektiv, 237f. Codeplan siehe Kodeplan Codierleitfaden, 242f. Daten - Datenaufbereitung, 218f. - Datenauswertung, 214ff - Datenerhebung, 113, 148ff, 214ff - Datenerhebungsmethode, 160ff - Datenexploration, 252-254 - Dateninterpretation, 216f. - Datenkodierung, 252f. Deduktion, 25, 38f. Definition, 98ff - extensionale vs. intensionale, 101 - operationale, 101 Design, 45f., 113-118 - deskriptives, 118 - experimentelles vs. quasi-experimentelles, 117f. - ex-post-facto, 118 - Einzelfallstudie, 118 - historische Analyse, 116, 122 - interaktives vs. nicht-interaktives, 115f. - Interventionsstudie, 113, 117f., 202-205 - Konzeptanalyse, 116 - Korrelationsstudien, 118, 275 - kritische Studien, 116 - Längsschnitts- vs. Querschnitts-, 46, 52, 113-115 - Sekundäranalyse, 118 - Umfrage, 118 - vergleichende Studien, 118 Determinationskoeffizient, 289f. Diagramme siehe Häufigkeiten, grafische Darstellung Effektstärke, 97, 302ff Einschätzskala, 168f. Einzelfallstudie, 116, 196ff, 226

363

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

- Einzelfall-Interventionsstudie, 199, 202ff - Mehrfach-Fallstudie, 205 - Rekonstruktive Einzelfallstudie, 199ff Empirismus, 25f. Enzyklopädie, 123f. Erhebungsinstrument siehe Forschungsinstrument Erkenntnistheorie, 22 Erklären, 42ff - Erklärungen erster und zweiter Ordnung, 42ff, 45 Evaluation, 77, 206-217 - Funktionen, 208 - formative vs. summative, 208f. Experimental- vs. Kontrollgruppe, 113f. Experimentelle Haltung siehe forschendes Lernen Extensivität, 225 Exzerpt, 98, 121, 139 Fachzeitschrift, 122-125 Fallanalyse siehe Einzelfallstudie Falsifikationsprinzip, 19, 40f. Fehler - Alpha- und Beta-, 302ff, 312 - Mess-, 295 Feinanalyse, 226, 228-30 Feldbedingungen, 115 Forschendes Lernen, 63f., 66-75, 75ff, 78-86 Forschung - angewandte vs. reine (Grundlagenforschung), 77f. - empirische, 18, 33f., 62 - empirische Vorhersagen, 46f. - experimentelles Vorgehen, 45f. - Forschungsprozess, 17 - qualitativer vs. quantitativer Forschungsansatz, 49, 106-108 Forschungsinstrument, 113f., 119f., 149-154, 213f. Frage, 89-91, 163-170 - geschlossene vs. offene, 165f., 181ff - suggestive, 182 Fragebogen, 106-108, 118f., 150, 156-158, 161ff Fragestellung, 51f., 67, 90ff, 121-127, 211ff, 296, 304, 316, 320f. Grenzwert, 299f.

364

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Grounded Theory, 116, 220f., 232ff Grundgesamtheit siehe Population Gütekriterien, 119-121, 243f. - Praxisforschung, 81 - quantitative, 119-121 - qualitative, 243f. Handlungsforschung, 77 Handwörterbuch, 122-125 Häufigkeiten - absolute vs. relative, 255f. - grafische Darstellung 259-263, 277-279 - Häufigkeitsverteilung, 254 - kumulierte, 256-258 - tabellarische Darstellung, 254-259, 276f. Herausgeberwerk, 123-125 Hermeneutik, 48 Histogramm siehe Häufigkeiten, grafische Darstellung Hypothese, 42ff, 93-98, 109 - gerichtete vs. ungerichtete, 97f. - Null- vs. Alternativ-, 299ff - spezifische vs. unspezifische, 97 - Unterschieds- vs. Zusammenhangs-, 97, 304 Hypothesenbildung, 230f. Hypothesenprüfende Praxisforschung, 82ff Indikator, 101-108, 211ff Induktion, 26, 37ff Inferenzstatistik siehe Statistik Instruktion, 154, 171 Integrität, wissenschaftliche, 55ff Interaktionseffekt, 310ff Intervallskala, 247 Intervention, 113, 116f., 199, 202-205 Interview - fokussiertes, 178 - halbstrukturiertes, 178ff - narratives, 178 - problemzentriertes, 178 - standardisiertes vs. nichtstandardisiertes, 178 - strukturiertes vs. wenig strukturiertes, 176ff

365

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Interviewleitfaden, 179ff Irrtumswahrscheinlichkeit siehe Signifikanz Kasuistik siehe Einzelstudie Kategorienbildung, 258f. Kodeplan, 252f. Kommunikation, 216f., 322-351 Kontingenzmasse siehe Korrelation Konstrukt, 93f., 98-106 Konzept, 115f., 141-144, Korrelation, 273- 275, 285-291, 304, 317f., 336 - Interpretation, 291-294 - Korrelation, Assoziation und Kontingenz 274 - Korrelationskoeffizient, 285-289 Kreuztabelle siehe Tabelle Kritisch-prüfende Haltung, 22, 65, 76 Kritischer Rationalismus, 19, 40f. kritischer Wert siehe Grenzwert Lehrbuch, 122, 124f. Leseart, 226ff Lexikon, 122f. Lineare Beziehung, 297f. Liniendiagramm siehe Häufigkeiten, grafische Darstellung Literatur - -angabe, 121ff, 136, 139-141 - -datenbank, 125, 127, 130-132 - Primär- vs. Sekundär-, 124f., 127 - -recherche, 91-94, 121-127 - -verzeichnis, 121f., 129-142, 334 MANOVA siehe Varianzanalyse Masszahlen deskriptiver Statistik - Beschreibung der zentralen Tendenz, 264-268 - Beschreibung der Streuung, 268-273 Median siehe Masszahlen deskriptiver Statistik Merkmal, 99ff, 245-248 Messen, 54, 245f. - empirisches vs. numerisches Relativ, 54 Messinstrument siehe Forschungsinstrument Metrische Skala, 248 Mittelwerte siehe Masszahlen deskriptiver Statistik

366

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Modalwert siehe Masszahlen deskriptiver Statistik Modell, 27 Monographie, 123-125 nichtparametrische Tests, 304, 313ff Nominalskala, 246f. Objektive Hermeneutik, 220f., 222ff Objektivität, 119-121, 222f., 242f. - Auswertungs-, 119 - Durchführungs-, 119 - Interpretations-, 120 Operationalisierung, 98-106 Ordinalskala, 247 Originaldaten siehe Rohdaten Pilotierung, 150 f., 173 Population, 109-113, 294f., 299, 302f., 306, 320 Praxisforschung, 63f., 77-86 Prüfgrösse, 296f., 301, 305, 308, 313, 315f. Prüfstatistik siehe Statistik Prüfverteilung, 297, 200 p-Wert siehe Irrtumswahrscheinlichkeit qualitative Inhaltsanalyse - explizierende, 240-242 - strukturierende, 242 - zusammenfassende, 240 quantitative Daten - Aufbereitung, 248-254 Quelle siehe Literaturangabe Rangskala siehe Ordinalskala Rationalismus, 25 Rationalskala siehe Verhältnisskala Reflexion, 67-72 Reflektive Haltung siehe Reflexion Regressionsanalyse, 279-285 - einfache vs. multiple, 281, 304, 317ff - Regressionsgerade, 283f. Rekonstruktion, 219ff Reliabilität, 119-121 - interne Konsistenz, 120f. - Interrater-, 121

367

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

- Paralleltest-, 120 - Split-Half-, 120 - Retest-, 120 Repräsentativität, 109-111 Rohdaten, 158, 218f. Sammelwerk siehe Herausgeberwerk Säulendiagramm siehe Häufigkeiten, grafische Darstellung schriftliche Befragung siehe Fragebogen Sektordiagramm siehe Häufigkeiten, grafische Darstellung Sequentialitätsprinzip, 225 Sequenzanalyse, 225f. Signifikanz, 295, 297ff Sinn, 219-224 - latenter, 223 - objektiver vs. subjektiver, 223 Skalenniveau, 304ff, 313, 315, 319 Skeptizismus, 24 soziale Erwünschtheit, 174 soziodemografische Angaben, 171 Sprache - geschlechtsneutrale Schreibweise, 335 - wissenschaftliche Fachsprache, 35ff Standardabweichung siehe Masszahlen deskriptiver Statistik Standardisierung, 97, 101, 152, 154f. Statistik - deskriptive Statistik vs. Prüfstatistik, 294ff, 320f. Stichprobe, 107-113, 118, 295ff - Gelegenheits-, 112f. - Klumpen-, 111f. - repräsentative, 109-111 - Zufalls-, 109, 111f. Stichprobenumfang, 111 Stichwortverzeichnis, 125 Störvariable, 155f. Streudiagramm siehe Häufigkeiten, grafische Darstellung Streuung siehe Masszahlen deskriptiver Statistik Studie, 97-98, 110-118 - ethnographische, 116 - Korrelations-, 117f.

368

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

- phänomenologische, 116 - vergleichende, 117f. Suchbegriff, 127-131, 136 Suchmaschine, 127-136 Szientismus, 27 Tabelle - formale Darstellung, 332, 336f. - Darstellung der Ausprägungen eines Merkmals 254-259 - Darstellung der Ausprägungen zweier Merkmale 276f. Tests - einseitige vs. zweiseitige, 300 - Post-hoc-, 308f. - Prä- vs. Post-, 113f. Testtheorie, - klassische, 119 theoretical sampling (theoretisches Sampling), 231, 233 Theorie, 18f. - Alltags-, 29ff - subjektive, 20 Transkript, 21, 176, 180, 183ff t-test - für abhängige vs. unabhängige Stichproben, 305f. Untersuchungs- durchführende, 153f. - plan, 90, 110, 141-143 - teilnehmende, 109f., 149-155 Unvoreingenommenheit, 233 Urliste, 250f. Validität, 109f., 119f., 243 - Inhalts-, 120 - Konstrukt-, 109, 120 - Kriteriums-, 120 Variabilität siehe Masszahlen deskriptiver Statistik Variable, 43 - abhängige vs. unabhängige, 44, 305ff, 311, 317, 319, 337 - Kriteriums-, 46 - Moderator-, 45f. - Prädiktor-, 46 - stetige vs. diskrete, 248

369

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:41

Varianz siehe Masszahlen deskriptiver Statistik Varianzanalyse - einfaktorielle vs. multifaktorielle, 307ff - mit Messwiederholung, 314f. - univariate vs. multivariate, 311ff Verhältnisskala, 247f. Verknüpfungs-Operatoren, 128-130 Versuchsanlage siehe Design Versuchsleitereffekt, 155 verteilungsfreie Tests siehe nichtparametrische Tests Wissen - Alltagswissen vs. wissenschaftliches Wissen, 15ff, 29ff Wissenschaftstheorie, 22 Wissenschaftsverständnisse - Bildungswissenschaften, 48f., 62 - Geisteswissenschaft, 27f., 48 - Naturwissenschaft, 24, 26f., 45, 47 - nomothetisch vs. ideographisch, 49f. - Sozialwissenschaften, 48 Zitat - wörtliches vs. sinngemäss, 139, 141 Zirkulärer Forschungsprozess, 232f.

370

Powered by TCPDF (www.tcpdf.org)

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:48

Anhang: Richtlinien für die Gestaltung von Literaturhinweisen, Zitaten und Literaturverzeichnis

A.1 Einleitung Wissenschaftliche Erkenntnisse werden u.a. im Rahmen von Publikationen einer breiteren Öffentlichkeit zugänglich gemacht. Diese Publikationen werden als zur Veröffentlichung einzureichende Manuskripte aufbereitet. Solche Manuskripte von Zeitschriftenartikeln, Buchkapiteln etc. werden unter Bezugnahme auf Regelwerke zur Manuskriptgestaltung erstellt. Regeln für die Manuskriptvorbereitung sind dazu da, eine klare, für alle Beteiligten verständliche Kommunikation innerhalb von wissenschaftlichen Disziplinen zu ermöglichen (vgl. American Psychological Association, 2002). Der Umgang mit Literatur (Quellen) ist einer der Bereiche, die in einem solchen Regelwerk behandelt werden. D.h. die Gestaltung von Literaturhinweisen, Zitaten sowie Literaturverzeichnissen wird möglichst genau fest gelegt. Eine solche systematische und konsequente Gestaltung hat zum Ziel, - fremdes und eigenes Gedankengut zu trennen; - Zitate formal korrekt zu gestalten und als solche zu kennzeichnen; und - die verwendete Literatur einheitlich und eindeutig auffindbar aufzulisten. Die vorliegenden Richtlinien für die Gestaltung von Literaturhinweisen, Zitaten und Literaturverzeichnis werden an der Pädagogischen Hochschule Zentralschweiz, Luzern, eingesetzt. Sie basieren auf den Richtlinien zur Manuskriptgestaltung der Deutschen Gesellschaft für Psychologie (1987) sowie auf den Richtlinien des APA Publication Manual (American Psychological Association, 1994, 2005). In Gestaltung und Aufbau wurden die Richtlinien des Psychologischen Institutes der Universität Zürich (1997) als Vorlage verwendet. Die folgenden Abschnitte behandeln die wichtigsten formalen

371

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:48

Richtlinien zur Gestaltung von Literaturhinweisen, Zitaten und Literaturverzeichnissen. Sie sind als erste Grundlage zu verstehen und ersetzen nicht die Konsultation oben genannter Regelwerke, in welchen auf vielfältige Sonderfälle eingegangen wird.

A.2 Literaturhinweise im Text A.2.1 Grundsätzliches Wissenschaftliche Texte beziehen sich auf vorangegangene Erkenntnisse, die ihrerseits als Texte vorliegen. Auf diese Texte sowie aus Passagen und Ideen daraus kann auf zweierlei Art Bezug genommen werden: anhand von wörtlichen Zitaten und anhand von sinngemässer Wiedergabe von Aussagen. Beide Fälle erfordern das Setzen genauer Quellenangaben. Diese erlauben es, das Zitat an seinem ursprünglichen Ort nachzuschlagen sowie die referierten Ideen (ausführlicher) im Original nachzulesen. Als Grundregel kann festgehalten werden, dass eine wörtliche oder sinngemäss zitierte Quelle stets zwei Hinweise enthält: 1. einen kurzen Literaturhinweis im Text und 2. eine detaillierte Quellenangabe im Literaturverzeichnis. Entsprechend müssen im Literaturverzeichnis alle verwendeten Quellen angeführt werden, auf welche im Text entsprechend hingewiesen wird. Ein Literaturhinweis im Text (im Folgenden als Hinweis bezeichnet) besteht aus dem Namen der Autorenschaft (eine oder mehrere Personen), auf deren Arbeit Bezug genommen wird, dem Erscheinungsjahr der zitierten Quelle und allenfalls der/den Seitenzahl/en, wo die Aussage oder das Argument in der zitierten Arbeit zu finden ist. Die meisten Studien zum Thema Gewalt unter Kindern beziehen sich auf Schulkinder, deren Vorkommen in Gruppen von Vorschulkindern wird kaum thematisiert (vgl. Alsaker, 2003, S. 15).

Diese Hinweise sind so gehalten, dass die entsprechende Angabe im zum Text gehörenden Literaturverzeichnis gefunden werden kann. Die Quellenangabe im Literaturverzeichnis setzt sich aus folgenden Elementen zusammen: - Namen der Autorenschaft, - Erscheinungsjahr der zitierten Quelle, - Titel der Arbeit

372

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:48

- genauen Angaben zur Art der Publikation (Zeitschriftentitel, Verlagsangaben, etc.) und - gegebenenfalls Angaben zu den Seitenzahlen. Alsaker, F. D. (2003). Quälgeister und ihre Opfer. Bern: Huber.

Die Art der zitierten Publikation (z.B. Zeitschrift, Monographie, Buchkapitel, Kongressband) bestimmt, welche Angaben im Literaturverzeichnis gemacht werden müssen. Darauf gehen wir in den folgenden Abschnitten näher ein. A.2.2 Publikationen mit einem Autor/einer Autorin Auf Publikationen kann innerhalb eines Textes grundsätzlich auf verschiedene Arten verwiesen werden. Dies hängt vom Kontext sowie der Satzgestaltung ab. Im Falle von Publikationen mit einem Autor/einer Autorin sehen die häufigsten Möglichkeiten wie folgt aus: Neuere Entwicklungen in der qualitativen Forschung, speziell der qualitativen Inhaltsanalyse (Mayring, 2005) lassen erkennen, … Mayring (2005, S. 7–9) richtet seine Aufmerksamkeit zunächst auf neuere Trends in der sozialwissenschaftlichen Forschungsmethodologie.

Im ersten Beispiel ist der Literaturhinweis in Klammern angegeben. Im zweiten Beispiel wurde derselbe Hinweis in den Fliesstext eingebaut, was eine grammatikalisch korrekte Formulierung erfordert. Bei Literaturhinweisen werden oft zusätzliche Umschreibungen wie „z.B.“, „siehe auch“, „siehe aber“ oder „vgl.“ verwendet, um aufzuzeigen, auf welche Art der Literaturhinweis resp. die damit verbundene Information konzeptuell in den Text eingebunden wird. Diese Umschreibungen werden entweder in der Klammer oder innerhalb des Fliesstexts gesetzt, je nachdem, wie der Literaturhinweis gestaltet ist. Grundsätzlich gilt zu beachten, dass Vornamen im Text nur bei Verwechslungsmöglichkeit mit anderen Autor/innen desselben Nachnamens genannt werden. Akademische Titel u. ä. werden nicht angeführt. A.2.3 Publikationen mit zwei Autor/innen Literaturhinweise auf eine Arbeit, welche von zwei Autor/innen verfasst worden ist, enthalten immer beide Autorennamen und werden im Fliesstext durch das Wort „und“ verbunden. Bortz und Döring (2003) unterscheiden fünf Phasen, …

Werden die Autorennamen im Text in Klammern gesetzt, so ist dabei das Zeichen „&“ zu verwenden (das sog. Ampersand oder Kaufmännische Und):

373

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:48

Meist werden fünf Phasen unterschieden, welche folgende Schritte beinhalten (z.B. Bortz & Döring, 2003) …

Im Literaturverzeichnis wird vor dem letzten Autorennamen immer das Ampersand-Zeichen gesetzt: Bortz, J. & Döring, N. (2003). Forschungsmethoden und Evaluation für Human- und Sozialwissenschaftler. Berlin: Springer.

A.2.4 Publikationen mit mehr als zwei Autor/innen Bei einer Publikation mit mehr als zwei Autor/innen werden beim ersten Auftreten im Text alle genannt. Bisherige Studien wie z.B. diejenige von Salmivalli, Lagerspetz, Björkqvist, Österman und Kaukiainen (1996) betrachten … Anders als in bisherigen Studien (z.B. Salmivalli, Lagerspetz, Björkqvist, Österman & Kaukiainen, 1996) betrachten wir die Zeugenreaktionen der Kinder als variable Verhaltensmerkmale und definieren keine Verhaltenskategorien.

Bei jedem weiteren Auftreten wird nur jeweils der erste Autor/die erste Autorin unter Zusatz von „et al.“ (lat. et alii, „und andere“) zitiert: Die erwähnte Studie zu den participant roles (Salmivalli et al., 1996) … Salmivalli et al. (1996) begründen dies damit, dass …

Wiederum wird im Literaturverzeichnis vor dem letzten Autorennamen das Ampersand-Zeichen benutzt. Im Falle von englischsprachiger Literatur wird zudem ein Komma vor dem „&“ eingefügt: Bünting, K.D., Bitterlich, A. & Pospiech, U. (2000). Schreiben im Studium: mit Erfolg. Ein Leitfaden. Berlin: Cornelsen Verlag. Salmivalli, C., Lagerspetz, K., Björkqvist, K., Österman, K. & Kaukiainen A. (1996). Bullying as a group process: participant roles and their relations to social status within the group. Aggressive Behavior, 22, 1-15.

In Fällen, in denen derselbe Erstautor/dieselbe Erstautorin im selben Jahr mehrere Werke zusammen mit anderen Autor/innen verfasst hat und diese alle im Text (sowie im Literaturverzeichnis) aufscheinen, werden jeweils bei der zweiten Nennung immer so viele Autor/innen vor „et al.“ angeführt, bis eindeutig klar ist, welches der Werke gemeint ist.

374

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:48

A.2.5 Reihenfolge der Nennung von Literaturhinweisen Bei der Nennung mehrerer Literaturhinweise in derselben Klammer, wenn also eine Aussage durch mehrere Quellen belegt werden soll, muss die Reihenfolge ihrer Nennung eindeutig bestimmt werden. Dazu gelten nachstehende Regeln: - Grundsätzlich werden die einzelnen Hinweise in der alphabetischen Reihenfolge der Autor/innen aufgezählt. - Werden mehrere Werke derselben Autorenschaft aufgezählt, so werden diese in der chronologischen Reihenfolge ihres Erscheinungsjahres angeführt. - Bei Verweis auf verschiedene Arbeiten derselben Autorenschaft mit demselben Erscheinungsjahr setzt der Verfasser/die Verfasserin des aktuellen Texts die Kleinbuchstaben a, b, c, usw. unmittelbar nach dem Erscheinungsjahr des jeweiligen Werkes (vgl. Abschnitt A.4.3). Diese mit Kleinbuchstaben ergänzten Angaben werden auch so ins Literaturverzeichnis übernommen. So zeigt Ricci (1999a, 1999b), dass …

A.2.6 Sekundärzitate Zitiert/verweist man auf eine Quelle aus zweiter Hand – man spricht in diesem Fall von Sekundärzitaten – so wird dies entsprechend angegeben. Beispielsweise zitiert Hoyningen-Huene (2009) Albert Einstein (1936), und dieses Zitat wird in Kapitel 1.5 „Ansprüche an wissenschaftliches Wissen oder was Wissenschaft ausmacht“ verwendet. Der entsprechende Abschnitt sieht folgendermassen aus: „Die ganze Wissenschaft ist nur eine Verfeinerung des alltäglichen Denkens“ (Einstein, 1936, zit. nach Hoyningen-Huene, 2009, S. 27).

In der Klammer steht an erster Stelle (falls bekannt) das Publikationsjahr des zitierten Originaltextes, dann der Hinweis „zit. nach“ (zitiert nach) sowie die Quellenangabe für die Publikation, aus welcher das Zitat entnommen wurde. Im Literaturverzeichnis werden immer beide Quellen angegeben (hier also die Angabe zu Einstein sowie diejenige zu Hoyningen-Huene). A.2.7 Publikationen als Teil von Sammelwerken Artikel, die in Sammelwerken erschienen sind (z.B. Buchkapitel oder Beiträge in Kongressbänden), werden im Text als Hinweis mit dem Namen der Autorenschaft und nicht der Herausgeberschaft des Sammelwerkes zitiert.

375

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:48

Die Angaben zum Sammelwerk werden dann (gemäss Abschnitt A.4.6) ins Literaturverzeichnis aufgenommen. Sinngemäss gelten entsprechend die Regeln für zwei und mehr Autor/innen (vgl. Abschnitt A.2.3). Nunner-Winkler (1999) diskutiert...

Im Literaturverzeichnis wird dies, da es sich um ein Sammelwerk handelt, wie folgt, festgehalten: Nunner-Winkler, G. (1999). Moralische Motivation und moralische Identität. Zur Kluft zwischen Urteil und Handeln. In D. Garz, F. Oser & W. Althof (Hrsg.), Moralisches Urteil und Handeln (S. 314-339). Frankfurt a. M.: Suhrkamp.

Bei englischsprachigen Werken wird für den Hinweis auf die Herausgeberschaft statt (Hrsg.) (Eds.) verwendet. Handelt es sich um eine einzelne Person als Herausgeber/in, so wird üblicherweise (Hg.) resp. (Ed.) verwendet. A.2.8 Publikationen von Institutionen, Organisationen und Vereinigungen Wurde ein Werk nicht von einer Person, sondern von einer Körperschaft, Gesellschaft oder Institution herausgegeben, so wird diese als Autorenschaft angegeben. Die Verwendung von Abkürzungen ist dabei zu vermeiden. Werden Abkürzungen verwendet, weil dies unumgänglich ist, gelten die Regeln, welche in gängigen Rechtschreibewerken angeführt sind (z.B. Duden oder Webster's New Collegiate Dictionary). So wird z.B. die amerikanische Psychologenvereinigung als Autorenschaft im Text zitiert: Die Vorschriften zur Gliederung eines Manuskripts (American Psychological Association, 2005) sind auch im deutschsprachigen Raum…

Im Literaturverzeichnis sieht dies folgendermassen aus: American Psychological Association (2005). Concise Rules of APA Style. Washington: Author.

Die Angabe „Author“ (bei deutschen Titeln „Selbstverlag“) als Verlagsangabe bedeutet, dass diese Organisation gleichzeitig auch Herausgeberin ist – der Organisationsname muss somit nicht wiederholt werden. A.2.9 Quellenangaben für Originalausgaben und Übersetzungen Wird auf ein Buch verwiesen, das im Original in einer Fremdsprache vorliegt und für die Arbeit in einer später erschienenen deutschen Übersetzung be-

376

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:48

nutzt wurde, oder ist das ursprüngliche Erscheinungsjahr der (deutschen oder fremdsprachigen) Originalausgabe zur Wahrung der historischchronologischen Quellentreue oder aus argumentativen Gründen wichtig, so werden beide Jahreszahlen (in chronologisch aufsteigender Reihenfolge, getrennt durch einen Schrägstrich) aufgeführt: Schon früh haben Miller, Galanter und Pribram (1960/1973)… Diese Planstruktur (Miller et al., 1960/1973)…

Im Literaturverzeichnis sieht dies wie folgt aus: Miller, G. A., Galanter, E. & Pribram, K. H. (1973). Strategien des Handelns. Pläne und Strukturen des Verhaltens. Stuttgart: Klett. (Original erschienen 1960: Plans and the structure of behavior)

A.2.10 Quellen mit fehlenden Angaben Vor allem in der so genannten grauen Literatur (z.B. Flugblätter, Eigenverlage) fehlen manchmal Angaben zur Quelle. In solchen Fällen kann eine Publikation im Text durch diejenigen Angaben gekennzeichnet werden, welche zu Beginn des entsprechenden Eintrags im Literaturverzeichnis stehen (meistens der Titel): In diesen Pamphlet („Steigerung der Gedächtnisleistung durch Atemübungen“, 1990) werden grosse Erfolge …

Im Literaturverzeichnis wird dann ebenfalls der kursiv gesetzte Titel anstelle des Autors/der Autorin verwendet: Steigerung der Gedächtnisleistung durch Atemübungen. (1990). Berlin: Institut für ganzheitliche Psychologie.

A.2.11 Persönliche Mitteilungen Es kommt manchmal vor, dass man sich in seinem Text auf nicht zugängliche Medien/Ereignisse bezieht (z.B. mündliche Aussagen, Telefonate oder Diskussionsbeiträge; private Briefe, Email). Diese werden als „persönliche Mitteilung“ („personal communication“) gekennzeichnet und möglichst exakt beschrieben (Vorname, Name und genaues Datum). Diese Interpretation von Shelley Hymel (persönliche Mitteilung, 8. Juni 2009) lässt darauf schliessen …

Da solche Quellen für andere Personen nicht zugänglich oder wieder auffindbar sind, werden sie nicht ins Literaturverzeichnis aufgenommen!

377

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:48

A.3 Wörtliche Zitate im Text A.3.1 Kennzeichnung von Zitaten im Text Oftmals sollen Ideen, Gedankengänge, Befunde etc., die von anderen Autor/innen stammen, nicht nur zusammengefasst oder paraphrasiert, sondern wörtliche wiedergegeben werden. Dabei werden seine/ihre eigenen Worte eingesetzt, um einen im Original dargelegten Sachverhalt zu illustrieren, zu untermauern oder prägnant darzustellen. Originalzitate können auch dazu verwendet werden, um die entsprechende Aussage anschliessend genauer zu analysieren. Kurze Zitate im Text. Kurze wörtliche Zitate (normalerweise bis ca. 40 Wörter) werden immer in Anführungszeichen gesetzt: „Jeder Mensch, auch der Nicht-Wissenschaftler, ist gleichsam von Geburt an der Wissenschaft ausgesetzt. Wissenschaft ist ein alle Lebensbereiche prägender Faktor geworden …“ (Janich, 1997, S. 7).

Blockzitate. Ist ein wörtliches Zitat länger als ca. 40 Wörter, so gestaltet man es in einem eigenen Abschnitt als Blockzitat. Ein Blockzitat beginnt dabei immer mit einer neuen Zeile und wird ohne Anführungszeichen als Ganzes eingerückt: Emerson Coreth mahnt daher an: Auch Sinnverständnis hat seine Wahrheit; auch geschichtliches Verstehen hat seine Wahrheit. Es ist eine höhere Wahrheit als die Feststellung von Tatsachen, weil sich hier vollere und reichere, menschlich bedeutsamere Sinngehalte erschließen. Ein solcher Sinngehalt kann sich der Einsicht eines einzelnen offenbaren, ohne dass sie für jeden greifbar und verfügbar vorläge. Trotzdem kann sie wahr sein, sogar eine sehr tief dringende und bedeutsame Wahrheit erreichen. Aber Wahrheit bedeutet auch hier, dass unser Verstehen und unsere Aussagen den Sinn der Sache selbst erfassen und diesem Sinn ‚entsprechen’ (Coreth, 1996, S. 179).

A.3.2 Hinweise auf wörtliche Zitate im Text Die Herkunft eines Zitats wird (wie bei sinngemässen, nicht-wörtlichen Verweisen, siehe Abschnitt A.2.1) anhand folgender Elemente unmittelbar nach dem Zitat deklariert: Name/n der Autorenschaft, Erscheinungsjahr des zitierten Textes und Seitenzahl. Diese Angaben stehen in Klammern: Hingegen merkt eine andere Autorin an: „In einigen anderen Theorieansätzen wird die Rolle positiver Emotionen ebenfalls betont“ (Gläser-Zikuda, 2005, S. 64).

378

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:48

Wurde jedoch der Autor/die Autorin, gefolgt von in Klammern gesetztem Erscheinungsjahr, schon unmittelbar vor dem Zitat erwähnt, kann am Ende des Zitats auch nur die Seitenangabe in Klammern gesetzt werden: Als Schlussfolgerung formuliert Gläser-Zikuda (2005): „Hier kann qualitativ orientierte Forschung einen wichtigen Beitrag leisten“ (S. 65).

A.3.3 Wiedergabe von wörtlichen Zitaten im Text Grundsätzlich müssen Zitate vollständig und wörtlich wiedergegeben werden. Werden Änderungen angebracht (Anmerkungen, Auslassungen oder Hervorhebungen), so müssen diese als solche und somit nicht dem Zitat zugehörige Stellen gekennzeichnet werden. Auch dürfen damit weder der Sinn noch die ursprüngliche Intention des Zitats verändert werden. Einfügungen und Anmerkungen im Zitat (Interpolationen). Es kann seitens der zitierenden Person notwendig sein, innerhalb des Originalzitats zusätzliche Einfügungen zu setzen. Dies sollte jedoch nur zum besseren Verständnis oder zur grammatikalischen Angleichung des Originalzitats geschehen. Entsprechende Ergänzungen sind immer in eckige Klammern zu setzen: „Damit wird auf theoretischer Ebene situationalen Gegebenheiten sowie Gruppenprozessen [des Mobbing] Rechnung getragen, da wir davon ausgehen, dass die Kinder sich in unterschiedlichen Situationen (mit teils unterschiedlichen Akteur/innen) auch als Zeugen unterschiedlich verhalten“ (Hauser, Gutzwiller-Helfenfinger & Alsaker, 2009, S. 3).

Kürzungen und Auslassungen im Zitat (Ellipsen). Es kann auch notwendig sein, als Verfasser/die Verfasserin eines Textes ein Zitat zu kürzen. Die entsprechende Stelle, an der die Kürzung vorgenommen wurde, muss in diesem Fall durch drei Punkte ... gekennzeichnet werden. „Diese Verantwortungsdiffusion führt dazu, dass die Schuldgefühle des Einzelnen nach dem Zwischenfall geringer sind … weil viele Andere auch mitgemacht haben“ (Hauser, Gutzwiller-Helfenfinger & Alsaker, 2009, S. 5).

Hervorhebung im Zitat. Sollen im zitierten Material einzelne Wörter oder eine Textstelle hervorgehoben werden, so werden die hervorzuhebenden Teile kursiv gesetzt. Direkt nach der kursiv gesetzten Textstelle muss in eckigen Klammern der Hinweis [Hervorhebung d. Verf.] (= durch den Verfasser/die Verfasserin) folgen, damit solche Hervorhebungen von denjenigen des Originalzitates unterschieden werden können.

379

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:48

„Unabhängig davon, ob der Erzähler oder die Erzählerin explizit einen Hinweis auf die Funktion der Erzählung gibt, ist für das Verständnis [Hervorhebung d. Verf.] der Erzählung die Frage nach ihrer Funktion relevant“ (Knapp, 2005, S. 31).

Wird im Original eine Textstelle hervorgehoben und soll auf diese Hervorhebung im Originalzitat speziell hingewiesen werden, so kann dies mit dem Zusatz [Hervorhebung im Original] geschehen. Soll auf originale Schreibweisen hingewiesen werden, kann dies anhand der Anmerkung [sic] im Zitat geschehen. Fremdsprachige Zitate. Fremdsprachige Zitate können dann in der Originalsprache wiedergegeben werden, wenn vorausgesetzt werden kann, dass die Leserschaft diese Sprache genügend beherrscht (z.B. Englisch, Französisch). Ist es jedoch notwendig, eine eigene Übersetzung des Zitats zu liefern, muss diese mit dem Zusatz [Übersetzung d. Verf.] gekennzeichnet werden. Zitat im Zitat. Werden in Originalzitaten wiederum andere Quellen zitiert oder erscheint dort die direkte Rede, so stehen diese zwischen einfachen Anführungs- und Schlusszeichen ('): Um die Funktionen von Erzählungen als typische Fälle von indem-Zusammenhängen zu erläutern, nennt Knapp (2005) in Anlehnung an Fritz (1982) „Beispiele dafür, was jemand damit tun kann, wenn er seinem Partner eine Geschichte erzählt: ‚A kann B unterhalten, indem er ihm erzählt, wie er einmal jemandem einen Streich gespielt hat’“ (S. 31).

A.4 Literaturverzeichnis A.4.1 Grundsätzliches Jede wissenschaftliche Arbeit enthält am Schluss ein Verzeichnis der verwendeten Literatur, die zuvor im Text erwähnt wurde. Verschiedene Arten von Publikationen (z.B. Monographien, Zeitschriftenartikel und Aufsätze aus Sammelwerken) werden dabei unterschiedlich bibliographiert, da unterschiedliche Angaben notwendig sind, um die Publikation beschaffen und einsehen zu können. Zudem kann anhand der Gestaltung der Quellenangaben sehr schnell erkannt werden, um welche Art von Publikation es sich handelt, womit klar wird, wonach (und in welchen Katalogen, Verzeichnissen etc.) gesucht werden muss. Grundsätzlich kommen in einer Quellenangabe die Elemente Autorenangaben, Publikationsdatum, Titel, Erscheinungsort und Verlag resp. Zeitschriftentitel mit Band und Nummer und ggf. die Seitenzah-

380

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:48

len vor. Das Literaturverzeichnis enthält alle im Text erwähnten Quellen ausser persönlichen Mitteilungen. A.4.2 Gestaltung der Einträge im Literaturverzeichnis Die nachfolgenden Abschnitte und Beispiele verwenden Schreibweisen und Interpunktionen (Klammern, Kursivsetzungen, Kommata, Punkte), welche normiert, also gemäss gültigen Vorschriften geregelt sind. Diese erleichtern die Orientierung. Damit Quellenangaben schnell gefunden werden können, sind die einzelnen Einträge optisch voneinander abgehoben (z.B. mit einem so genannten „hanging indent“, einem negativen Einzug der ersten Zeile, und mit vergrösserten Abständen zwischen den Einträgen; siehe dazu das Beispiel in Abschnitt A.4.9). - Der Name eines Autors oder einer Autorin wird durch ein Komma vom Vornamen getrennt. Sind für eine/n Autor/in weitere Vornamen vorhanden, werden diese an den ersten Vornamen angefügt. - Werden mehrere Autor/innen aufgeführt, so werden in einem Literaturverzeichnis mit abgekürzten Vornamen die einzelnen Autoren und Autorinnen durch Kommata voneinander abgetrennt. Werden die Vornamen ausgeschrieben, so werden die einzelnen Autor/innen durch Semikola (;) abgetrennt. Vor dem letzten Namen wird anstelle des Kommas stets ein Ampersand-Zeichen (&) eingefügt. (Bei englischsprachigen Quellen wird vor dem Ampersand-Zeichen ebenfalls ein Komma gesetzt.) - Wenn auf Herausgeberwerke als Ganzes verwiesen wird, wird nach den Namen der Herausgeber/innen der Zusatz (Hrsg.), bei englischen Texten (Ed.) oder (Eds.) für Editor bzw. Editors angefügt. - Die Autorenangaben (Namen, Vornamen, ev. Herausgeberzusatz) werden durch einen Punkt abgeschlossen. Normalerweise ist dieser Punkt nach dem abgekürzten Vornamen des/der letzten Autors/Autorin bereits vorhanden. Dieser Punkt wird aber auch dann gesetzt, wenn eine Organisation als Autorin fungiert (siehe Beispiele in Abschnitt A.2.8 und A.4.9). - Als Publikationsdatum genügt in der Regel das Jahr des Erscheinens, welches in Klammern gesetzt wird. Fehlt die Jahreszahl, wird sie durch „o.J.“ ersetzt. Bei Arbeiten, die noch nicht publiziert worden sind, aber bereits eine Publikationszusage haben, wird die Jahreszahl durch „im Druck“ (engl. „in press“) bezeichnet. Andernfalls wird die Arbeit als unveröffentlichte Arbeit betrachtet (siehe Abschnitt A.4.7). Die Jahreszahl kann durch Kleinbuchstaben ergänzt werden, wenn mehrere Arbeiten derselben Autorenschaft aus demselben Jahr zitiert werden (siehe auch Abschnitte A.2.4,

381

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:48

A.4.3 und Beispiele in A.4.9). Nach der in Klammern gesetzten Jahreszahl wird ein Punkt angebracht. - Der Buchtitel (im Falle eines Buchs) bzw. der Zeitschriftenname und die Zeitschriftenbandnummer (im Falle eines Zeitschriftenartikels) werden kursiv hervorgehoben. Anstelle der Kursivsetzung kann die Unterstreichung verwendet werden. - Gross- und Kleinschreibung bei englischsprachigen Arbeiten: Im Titel des Werks werden alle Worte klein geschrieben bis auf die bekannten Ausnahmen wie Satzanfang und Eigennamen. Die Zeitschriftennamen dagegen werden als Eigennamen behandelt und gross geschrieben. Präpositionen und Konjunktionen (of, in, and, or, etc.) bleiben jedoch klein. - Fehlende Angaben werden durch Abkürzungen wie „o. A.“ (ohne Autor), „o. J.“ (ohne Jahr), „o. T.“ (ohne Titel) und „o. O.“ (ohne Ort/Verlag) kenntlich gemacht. A.4.3 Reihenfolge der Einträge im Literaturverzeichnis Die in der Arbeit verwendete Literatur wird nach den Namen der Autor/innen alphabetisch geordnet aufgeführt. Sind mehrere Arbeiten einer Person aufgeführt, so gelten für das Literaturverzeichnis folgende Regeln: - Mehrere Arbeiten mit demselben Erstautor/derselben Erstautorin werden grundsätzlich in chronologisch aufsteigender Reihenfolge aufgeführt (also die älteste Arbeit zuerst). - Sind von einer Person in einem Jahr mehrere Arbeiten erschienen, so werden diese durch nachgestellte Kleinbuchstaben a, b, c usw. voneinander unterschieden. Die Reihenfolge der Kleinbuchstaben muss der Reihenfolge im Literaturverzeichnis entsprechen. Literaturhinweise im Text müssen natürlich denselben Kleinbuchstaben bei der Jahreszahl anführen (siehe Abschnitt A.2.3). - Werden neben den Einzelarbeiten einer Person auch solche aufgenommen, die diese zusammen mit Koautor/innen verfasst hat, dann werden zuerst die Arbeiten mit alleiniger Autorenschaft, dann diejenigen mit Koautor/innen (diese wiederum nach Namen alphabetisch geordnet) aufgeführt. Dies gilt auch, wenn dadurch das Prinzip der chronologischen Abfolge verletzt wird. A.4.4 Bücher (Monographien) Sind alle Beiträge in einem Buch von derselben Autorenschaft verfasst (so genannte Monographien), werden nacheinander die Namen der Verfas

382

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:48

ser/innen, das Erscheinungsjahr, der Titel, der Erscheinungsort und der Verlag genannt. Wurde im Text z.B. folgender Literaturhinweis gemacht: Wie Kandel (2006) ausführt, …

so erscheint im Literaturverzeichnis dann die vollständige Quellenangabe: Kandel, E. (2006). Auf der Suche nach dem Gedächtnis. Die Entstehung einer neuen Wissenschaft des Geistes. München: Siedler.

Ein weiteres Beispiel eines Literaturhinweises lautet im Text: Eine Umdeutung wird nach Watzlawick et al. (1979, S. 118) definiert als …

Im Literaturverzeichnis wird auf das Buch ohne Angabe der Seitenzahlen verwiesen. Alle Autoren und Autorinnen werden durch Kommata getrennt aufgeführt: Watzlawick, P., Weakland, J. H. & Fisch, R. (1979). Lösungen. Zur Theorie und Praxis menschlichen Wandels. Bern: Huber.

Angaben zur Auflage. Wird eine neue (und manchmal auch überarbeitete) Auflage eines Buchs verwendet, so sollte nach dem Titel, aber vor dem Punkt in Klammern die Auflage bezeichnet werden (da sich das Zitat u. U. nicht in allen Auflagen finden lässt): Aebli, H. (1993). Zwölf Grundformen des Lehrens (7. Aufl.). Stuttgart: Klett-Cotta.

Die einzelnen Elemente der Quellenangabe im Literaturverzeichnis setzen sich zusammen aus: Tabelle 43: Elemente der Quellenangabe bei Monographien Autorenangaben (siehe Abschnitt A.4.2) Ende Autorenangaben mit Punkt (hier bereits durch abgekürzten Vornamen gegeben) Erscheinungsjahr in Klammern, gefolgt von Punkt Titel des Buches: kursiv, gefolgt von Punkt

Erscheinungsort: nur den ersten nennen, auch wenn mehrere bekannt sind; gefolgt von Doppelpunkt Verlagsname: kurz, aber eindeutig, gefolgt von Punkt

Keller, M.

(1996). Moralische Sensibilität: Entwicklung in Freundschaft und Familie. Weinheim: Psychologie Verlags Union.

383

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:48

Wird ein ganzes Herausgeberwerk zitiert, so folgt direkt nach dem Namen der Autorenschaft der entsprechende Hinweis, indem in Klammern Hg. oder Ed. (ein/e Herausgeber/in) resp. Hrsg. oder Eds. (mehrere Herausgeber/innen) gefolgt von einem Punkt gesetzt wird. Anschliessend wird das Erscheinungsjahr in Klammern angegeben und ein Punkt gesetzt. Es folgen je ein deutsches und englisches Beispiel: Edelstein, W., Nunner-Winkler, G. & Noam, G. (Hrsg.). (1993). Moral und Person. Frankfurt a. M.: Suhrkamp. Killen, M. & Smetana, J. G. (Eds.). (2006). Handbook of moral development. Hillsdale, NJ: Erlbaum.

A.4.5 Zeitschriftenartikel Bei wissenschaftlichen Zeitschriften (Periodika) sind, anders als bei Büchern, Angaben zu Erscheinungsort und Verlag nicht wichtig und werden entsprechend nicht gesetzt. Hingegen müssen folgende Angaben gemacht werden: der genaue Zeitschriftentitel (keine Abkürzungen benutzen), die Band- und evt. Heftnummer (siehe unten), sowie die Seitenzahlen des gesamten Artikels (Zeitschriften werden in Bibliotheken oft nach Bänden oder Heften zusammengebunden). Weil der Zeitschriftentitel bei der Suche wichtiger ist als der Titel des Artikels, wird der Zeitschriftentitel anstelle des Titels des Artikels hervorgehoben: Tabelle 44: Elemente der Quellenangabe bei Zeitschriftenartikeln Autorenangaben (siehe Abschnitt A.4.2) Ende Autorenangaben: Punkt (hier bereits durch abgekürzten Vornamen gegeben) Erscheinungsjahr in Klammern, gefolgt von Punkt Titel des Artikels: vollständig, nicht kursiv, gefolgt von Punkt

Name der Zeitschrift: vollständig, nicht abgekürzt; kursiv; gefolgt von Komma Jahrgang (Bandnummer/Volume kursiv; allenfalls Heftnummer/Issue direkt danach in Klammern; gefolgt von Komma) Erste und letzte Seitenzahl des gesamten Artikels (ohne „S.“) Ende der Angaben mit Punkt

384

Hughes, C. & Dunn, J.

(2000). Hedonism or empathy? Hardto-manage children's moral awareness and links with cognitive and maternal characteristics. British Journal of Developmental Psychology, 18(2),

227–245 .

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:48

Dieser Zeitschriftenartikel ist somit in einem Literaturverzeichnis wie folgt aufgeführt: Hughes, C. & Dunn, J. (2000). Hedonism or empathy? Hard-to-manage children's moral awareness and links with cognitive and maternal characteristics. British Journal of Developmental Psychology, 18(2), 227–245.

Angabe der Heftnummer. Die Heftnummer wird nur dann hinzugefügt, wenn die Paginierung jedes Heftes mit der Seitenzahl 1 beginnt. Die Heftnummer wird – ohne Leerschlag, nicht kursiv und in Klammern gesetzt – an die Angabe des Jahrgangs angefügt: Giesecke, H. (1985). Wozu noch Jugendarbeit? Die Jugend, 27(3), 1–7.

Einen Spezialfall bilden Tages- und Wochenzeitungen sowie allgemeine Monatsmagazine: Zur Identifikation einer solchen Quelle ist das genaue Erscheinungsdatum (bei Monatsmagazinen der Erscheinungsmonat) unerlässlich: Bayers, C. (1997, January 27). The great web wipeout. Time, 142, 126–128.

A.4.6 Buchkapitel, Artikel aus Sammelwerken und Kongressbänden Bei Kapiteln resp. Artikeln aus Sammelwerken (Herausgeberwerken) wird die Literaturangabe etwas anders aufgebaut als bei einer Monographie. So stehen im Literaturverzeichnis zuerst der Name des Kapitelautors/der Kapitelautorin, das Erscheinungsjahr sowie der vollständige (aber nicht kursiv gesetzte) Titel des Kapitels resp. Artikels. Vor dem Erscheinungsort und -verlag werden hier zusätzliche Angaben zum Sammelwerk eingefügt: So wird mit dem Wort „In“ angezeigt, dass es sich um ein Sammelwerk handelt. Anschliessend folgt der Name der Herausgeberschaft, versehen mit dem Zusatz (Hg.) bei einem resp. (Hrsg.) bei mehreren Herausgeber/innen, bei englischen Texten entsprechend (Ed.) oder (Eds.), d.h. Editor bzw. Editors bei mehreren Herausgebern. Dabei ist zu beachten, dass die Vornamen der Herausgeberschaft in diesem Falle vor den Familiennamen stehen. Nach einem Komma folgt der kursiv gesetzte Titel des Sammelwerkes. Darauf wird die erste und die letzte Seitenzahl des Artikels (Kapitels) in Klammern angefügt und mit einem Punkt abgeschlossen. Bei deutschsprachigen Sammelwerken wird den Seitenzahlen das Kürzel „S.“ (Seiten), bei englischsprachigen Werken das Kürzel „pp.“ (pages) in der Klammer vorangestellt.

385

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:48

Anschliessend folgen wie bei Monographien Erscheinungsort und -verlag. Eine ähnliche Regelung gilt auch für Tagungs- und Kongressbände, wobei bei diesen oftmals keine eigentliche Herausgeberschaft bekannt ist. Daher wird als Titel des Sammelwerkes der Titel der Veranstaltung verwendet, gegebenenfalls ergänzt durch Veranstaltungsdaten und -ort. Tabelle 45: Elemente der Quellenangaben bei Buchkapiteln, Sammelwerken und Kongressbeiträgen Autorenangaben (siehe Abschnitt A.4.2) Ende Autorenangaben mit Punkt (hier bereits durch abgekürzten Vornamen gegeben) Erscheinungsjahr in Klammern, gefolgt von Punkt Titel des Artikels, Kapitels, Beitrags: vollständig, nicht kursiv, gefolgt von einem Punkt In Namen der Herausgeber: zuerst Vorname, dann Nachname; meist abgekürzt; letzter Name mit „&“ verbunden; Kennzeichnung der Herausgeber in Klammern (deutsch: eine Person: Hg.,mehrere Personen: Hrsg.; englisch: eine Person: Ed., mehrere Personen Eds.) Ende Herausgeberangaben mit Komma Titel des Herausgeberwerks: kursiv

Seitenangabe: bei deutschen Publikationen mit „S.“, bei englischen mit „pp.“, in Klammern Ende mit Punkt versehen Erscheinungsort: nur den ersten nennen, auch wenn mehrere bekannt sind; gefolgt von Doppelpunkt Verlagsname: kurz, aber eindeutig, gefolgt von Punkt

Pauli, C. & Reusser, K.

(2009). Zum Einfluss von Professionalität auf die Qualität von LehrLernprozessen. In O. Zlatkin-Troitschanskaia, K. Beck, D. Sembill, R. Nicolaus & R Mulder (Hrsg.),

Lehrerprofessionalität. Bedingungen, Genese, Wirkungen und ihre Messung (S. 679–689).

Weinheim: Beltz.

Arsenio, W. F., Gold, J. & Adams, E. (2006). Children's conceptions and displays of moral emotions. In M. Killen & J. G. Smetana (Eds.), Handbook of moral development (pp. 581– 610). Hillsdale, NJ: Erlbaum. Noam, G. G. (1993). Selbst, Moral und Lebensgeschichte. In W. Edelstein, G. Nunner-Winkler & G. Noam (Hrsg.), Moral und Person (S. 360–400). Frankfurt a. M.: Suhrkamp. Klix, F. (1991). Mentale Leistungen - Phylogenetisch betrachtet. In D. Frey (Hg.), Bericht über den 37. Kongress der Deutschen Gesellschaft für Psychologie in Kiel, 1990 (S. 262–275). Göttingen: Hogrefe.

386

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:48

A.4.7 Unveröffentlichte Publikationen Arbeiten, welche nicht in einem Buch- oder Zeitschriftenverlag erschienen oder elektronisch publiziert sind und andere nicht veröffentlichte Arbeiten, wie z.B. Diplom- und Lizentiatsarbeiten oder Dissertationen, werden im Literaturverzeichnis als unveröffentlichte Publikationen behandelt. Anstelle der Verlags- oder Zeitschriftenangaben müssen die Hochschule und das Institut, an welcher die Arbeit verfasst wurde, angegeben werden. Dabei gilt das Jahr, in welchem die Arbeit vorgelegt oder intern publiziert wurde, als Erscheinungsjahr. Diplomarbeiten, Lizentiatsarbeiten und Dissertationen. Die Art der Arbeit (z.B. „Unpubl. Manuscript“, „Unveröff. Lizentiatsarbeit“ oder „Unpubl. Ph.D. thesis“) und die genaue Institutsbezeichnung (bei Dissertationen und Habilitationen nur die Fakultät) werden angegeben (zusätzliche Ortsnamen nur wenn nicht aus der Institutsbezeichnung hervorgehend): Müller, L. (2007). Emotionsverständnis und aggressives Verhalten bei Kindergartenkindern. Unveröffentlichte Masterarbeit, Pädagogische Hochschule Luzern.

Technische Berichte, Bulletins, Reports. Viele wissenschaftliche Arbeiten in Institutionen werden vor (oder anstelle) einer breiteren Veröffentlichung als interne Publikationen herausgegeben. Dabei wird die Art (z.B. Bericht, Memo, Bulletin, Tech. Rep.) und allenfalls die zugehörige Nummer in Klammern nach dem Titel erwähnt. Als Publikationsinformation wird ebenfalls die Institution (allenfalls mit Ortsbezeichnung) angegeben: Navinchandra, D. (1990). Innovative design systems: Where are we, and where do we go from here? (Tech. Rep. CMU-RI-TR-90-01). Pittsburgh, PA: Carnegie Mellon University, The Robotics Institute.

Unveröffentlichte Präsentationen an Veranstaltungen. Sowohl schriftliche wie auch mündliche Beiträge in Workshops oder an Tagungen werden oftmals nicht veröffentlicht. Werden solche verwendet, so müssen sie angegeben werden. Ähnlich wie bei veröffentlichten Kongressbeiträgen (siehe Abschnitt A.4.6), wird möglichst genau die Art des Beitrages und der Titel der Veranstaltung angeführt: Gasser, L., Gutzwiller-Helfenfinger, E. & Dietschi, S. (2006). Aggressive children's moral and affective judgments of prototypical and provoked moral transgressions. Poster presented at

387

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:48

the 32nd Annual Meeting of the Association for Moral Education (AME), Fribourg (Switzerland), July 5-7, 2006. Gutzwiller-Helfenfinger, E. & Alsaker, F. (2009). Bully-victim problems and moral disengagement in different age groups. Paper presented in S. Perren (Symposium Chair) & E. Gutzwiller-Helfenfinger (Co-chair). The interplay of bully/victim problems and moral disengagement. Biennial Meeting of the Society for Research in Child Development (SRCD), Denver, Colorado (USA), April 2 - April 4, 2009.

A.4.8 Elektronische Publikationen Verschiedene Publikationen werden heute nicht mehr gedruckt oder von einem Verlag publiziert, sondern in elektronischer Form veröffentlicht. Um auch auf solche Quellen so hinweisen zu können, dass sie gefunden und eingesehen werden können, müssen möglichst präzise Angaben zum Ort gemacht werden, wo das „Original“ aufbewahrt wird. Nach dem Titel zeigt der Zusatz mit der sog. URL (Universal Resource Locator)-Adresse, wie auf diese Publikation zurückgegriffen werden kann. Zudem wird mit „besucht am“ bzw. mit „retrieved … from …“ angegeben, wann diese Adresse zum letzten Mal besucht wurde. Nucci, L. (2004). The promise and limitations of the moral self construct. Retrieved June 07, 2009 from http://tigger.uic.edu/~lnucci/MoralEd/articles/nuccipromise.html

Quellen in deutscher Sprache werden wie folgt angeführt: Stahel, A. A. (2006). Strategische Studien. http://www.strategische-studien.com/ (besucht am 6.11.2006)

Bei Publikationen, welche sowohl auf Papier als auch online vorhanden sind, welche aber nur in ihrer Online-Version gelesen wurden, ist in eckigen Klammern der Hinweis [Elektronische Version] direkt im Anschluss an den Titel anzugeben. Es folgt ein Beispiel für einen Zeitschriftenartikel: Eder, F. (2002). Unterrichtsklima und Unterrichtsqualität [Elektronische Version]. Zeitschrift für Lernforschung, 30(3), 213–229.

Für Publikationen, welche auf CD-ROM, Disketten etc. erschienen sind, kann in der Regel der Verlag oder eine Institution als Herausgeber angegeben werden. Es sollte dann die genaue Bezeichnung des Mediums angegeben werden (z.B. [CD], [Film], [Computerprogramm]). Muss eine Zusammenfassung aus einem on-line Abstract-Verzeichnis (z.B. PsycINFO) zitiert werden, so wird dies ebenfalls speziell vermerkt:

388

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:48

Roth, E. M., Woods, D. D. & Pople, H. E. (1992). Cognitive simulation as a tool for cognitive task analysis [On-line]. Ergonomics, 35, 1163–1198. Abstract from: SilverPlatter File: PsycINFO Item: 00140139

Da für das Finden solcher elektronischer Dokumente der genaue Dateiname oder die -nummer entscheidend ist, werden keine Satz- oder Anführungszeichen verwendet, auch wenn die Quellenangabe dann nicht mit einem Punkt abgeschlossen wird. Bei fehlenden Angaben wird wiederum „o. A.“ resp. „o. J.“ verwendet (siehe Abschnitt A.4.2).

389

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:48

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:48

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:48

Content is protected by copyright. Provided by: UB Chemnitz Di, Feb 10th 2015, 11:48

Wie wird eine empirische Fragestellung im Feld der Bildungswissenschaften bzw. aus Problemstellungen des Berufsfeldes heraus entwickelt und nach den Regeln des empirischen Arbeitens beantwortet? Das Studienbuch behandelt handlungsorientiert die verschiedenen Schritte im Forschungsprozess: von der Literaturrecherche und -verarbeitung über die Planung, Durchführung und Auswertung im Rahmen verschiedener Forschungsansätze bis hin zur Kommunikation der Ergebnisse. Wissenschaftliches Wissen wird einleitend dem Alltagswissen gegenübergestellt, forschendes Lernen und Lernen von Forschung als wichtiges Feld der Ausund Weiterbildung von Lehrpersonen bestimmt. Autoren (PHZ Luzern) Prof. Dr. Jürg Aeppli, Leiter Studienbereich Alltag und Wissenschaft, Dozent. Dr. Luciano Gasser, Bereich Forschung und Entwicklung, Dozent. Prof. Dr. Eveline Gutzwiller, Bereich Forschung und Entwicklung, Dozentin. Prof. Dr. Annette Tettenborn, Leiterin Institut für pädagogische Professionalität und Schulkultur, Dozentin.

978-3-7815-1812-4

Powered by TCPDF (www.tcpdf.org)