Gesprächsanalytisches Transkriptionssystem (GAT) 2

Um mit mündlichen Sprachdaten arbeiten zu können, werden diese zuerst in eine schriftliche Form überführt (= transkribiert). Zur Verschriftlichung gesprochensprachlicher Daten werden üblicherweise das Gesprächsanalytische Transkriptionssystem (GAT) (Selting et al. 1998) bzw. die weiterentwickelte Fassung GAT 2 (Selting et al. 2009) verwendet. Als eines von mehreren Transkriptionssystemen bietet es Richtlinien für die Verschriftung gesprochensprachlicher Daten an, die im Rahmen von Forschungsarbeiten je nach Fragestellung ausgewertet werden. GAT und GAT 2 werden insbesondere in der Sprachwissenschaft und Sprachdidaktik zur Datentranskription genutzt. Auch ein Großteil der gesprochensprachlichen Daten, die in den PaSuS-Korpora verfügbar sind, wurden nach GAT-2-Richtlinien verschriftet.

Die Ausführungen auf dieser Seite geben einen Einblick in die Grundlagen von Transkriptionssystemen, insbesondere von GAT 2. Um GAT 2 praktisch zu erproben, steht das folgende Lernmodul zur Verfügung.

Hierfür gibt es mehrere Gründe. Ein wichtiger Grund ist, dass verschriftete Daten auf andere Art und Weise ausgewertet können als Daten, die nur in Audioform vorliegen. Dies gilt für qualitative Untersuchungen, bei denen möglicherweise nur Ausschnitte aus einem Korpus detailliert analysiert werden, genauso wie für quantitative Untersuchungen, bei denen größere Datenmengen statistischen Analysen unterzogen werden sollen.

Hinzu kommt, dass viele Aspekte der gesprochenen Sprache erst nach der Verschriftung erkennbar, bestimmte Strukturen oder Prozesse vielleicht erst im Transkript sichtbar werden. Zu beachten ist stets, dass Transkripte bis zu einem gewisse Grade subjektiv sind, da der Transkribierende im Verschriftungsprozess immer wieder entscheiden muss, wie er/sie bestimmte Phänomene notiert und daher auch interpretiert. Auch aus diesem Grund sehen z.B. Gesprächsanalytiker/innen den Transkriptionsprozess als Teil der Analyse an.

Ein weiterer Grund für die Verschriftung von Audiodaten ist ein eher praktischer: Wenn die Daten Grundlage für wissenschaftliche Arbeiten sein sollen, müssen sie zitierfähig sein (direkt im Text bzw. in einer Präsentation oder auch im Anhang von Arbeiten). Und auch hierfür müssen sie in Schriftform vorliegen. Dies gilt für Referate und Modulabschlussarbeiten genauso wie für Bachelor-, Master- oder Doktorarbeiten.

Damit Daten einheitlich verschriftet werden und möglichst viele relevante Aspekte der gesprochenen Sprache in der Schrift abgebildet werden können, wurden in der Forschung unterschiedliche Transkriptionssysteme entwickelt. Die Wahl des Systems hängt von verschiedenen Faktoren ab. Je nach Wissenschaftsdisziplin werden unterschiedliche Transkriptionssysteme favorisiert. So werden Transkripte nicht und in der Sprachdidaktik und Sprachwissenschaft genutzt, sondern auch vielen anderen Forschungsdisziplinen wie der Pädagogik, der Psychologie oder der Sozialwissenschaft. Die Ansprüche, die Forschende an Transkripte stellen, können somit sehr unterschiedlich ausfallen.

Hervorzuheben ist, dass in linguistisch-didaktischen Disziplinen beim Transkribieren möglichst viele Aspekte der gesprochenen Sprache berücksichtigt werden. Es werden also auch prosodische, para- und außersprachliche Elemente, etwa Betonungen, Pausen, Lachen usw. mit verschriftet. Es darf nichts weggelassen, hinzugefügt oder geändert werden – etwa, weil es aus der Perspektive eines schriftsprachlichen Standards „fehlerhaft“ oder „unsystematisch“ erscheinen könnte. Weil die Verschriftung einiger gesprochensprachlicher Merkmale die Verwendung von Sonderzeichen erforderlich macht, sehen Transkripte auf den ersten Blick vollkommen anders aus als prototypisch schriftsprachliche Texte.

Grundsätzlich können Transkripte mit einem regulären Textverarbeitungsprogramm (z.B. Word oder Pages) und einem Audio-Player (z.B. dem Windows Media Player oder dem VLC-Player) angefertigt werden. Hilfreich sind jedoch Programme, die es ermöglichen, Abschnitte aus Audiodateien immer wieder nacheinander (im Loop) abzuspielen. Denn das detaillierte Transkribieren aller relevanten Aspekte (also auch von Betonungen, Pausen, Lachen usw.) erfordert in der Regel, dass man sich den entsprechenden Soundfile bzw. einzelne Abschnitte daraus wieder und wieder anhört. Audiobearbeitungsprogramme, z.B. Audacitytypo3/, ermöglichen es, solche Loops abzuspielen, Abschnitte zu verlangsamen, die Länge von Abschnitten zu messen usw.

Wenn man größere Datenmengen transkribieren oder in größerem Umfang mit Audiodaten und Transkripten arbeiten möchte, kann man Tools nutzen, die nicht nur den Transkriptionsprozess erleichtern, sondern auch die Weiterverarbeitung von Transkripten ermöglichen. Solche Transkriptionseditoren stellen die Audiodatei und das entstehende Transkript gleichzeitig dar, sodass die Arbeit mit den Transkripten praktischer wird. Es gibt eine Vielzahl unterschiedlicher Tools für diesen Zweck, z.B. den EXMARaLDA Partitur Editor, FOLKER oder ELAN. Hier kann es übrigens auch hilfreich sein, die Richtlinien von cGAT (Schmidt/Schütte/Winterscheid 2015) zu berücksichtigen, einer Erweiterung von GAT 2, die speziell für die Arbeit mit Transkriptionseditoren entwickelt worden ist.

GAT 2 umfasst drei unterschiedliche Feinheitsstufen, vom eher weiten Minimaltranskript über das Basistranskript bis hin zum sehr detaillierten Feintranskript. Im Zentrum der folgenden Erläuterungen steht das Basistranskript, das auch zentrale prosodische Aspekte berücksichtigt und daher in der Sprachwissenschaft und Sprachdidaktik sehr verbreitet ist. Unter Prosodie versteht man verschiedene sprachliche Eigenschaften wie Akzent, Intonation, Pausen, d.h. „Einheiten, die größer sind als ein einzelnes Phonem“ (Bußmann 2008, 559). Eine grundlegende Einheit von GAT 2 ist die Intonationsphrase, d.h. ein Tonhöhenverlauf, der zusammenhängend wahrgenommen wird (vgl. Selting et al. 2009, 370).

Die Intonationsphrase spielt beim Transkribieren von Sprecherbeiträgen eine wichtige Rolle. Im Transkript erhält jede Intonationsphrase eine eigene nummerierte Zeile. Sprechersiglen zeigen an, welcher Sprecher/welche Sprecherin eine Äußerung gemacht hat. Aber auch Nicht-Geäußertes kann relevant sein, daher werden auch Pausen notiert. Gleichzeitiges Sprechen wird in eckige Klammern gesetzt und direkt untereinander geschrieben. Damit beim Notieren solcher Überlappungen nichts verrutscht, wird mit einem äquidistanten Schrifttyp gearbeitet, z.B. Courier New. (transkribierten Ausschnitt anhören)

In der Sprachwissenschaft und Sprachdidaktik sind u.a. die folgenden Transkriptionssysteme ebenfalls bekannt:

  • DT – Discourse Transcription (Du Bois 1991, Du Bois et al. 1993)
  • CA – Konversationsanalytische Notationskonventionen (Atkinson/Heritage/Jefferson 1984; Jefferson 2004; Hepburn/Bolden 2013)
  • HIAT/HIAT 2 – halbinterpretative Arbeitstranskription (Ehlich/Rehbein 1976, 1979, 1981; Ehlich 1993)

 Vertiefende Informationen bietet das Gesprächsanalytische Informationssystem (GAIS) an.

    Atkinson, J. Maxwell/Heritage, John/Jefferson, Gail (1984): Transcript notation. In: Dies. (Hrsg.): Structures of Social Action. Studies in Conversation Analysis. (=Studies in Emotion and Social Interaction). Cambridge (u.a.) Cambridge University Press. S. ix–xvi.

    Bußmann, Hadumod (Hrsg.) (2008): Lexikon der Sprachwissenschaft. 4., durchges. u. bibliograph. erg. Aufl. Stuttgart: Kröner.

    Du Bois, John W. (1991): Transcription design principles for spoken discourse research. In: Pragmatics 1 (1), S. 71–106.

    Du Bois, John W./Schuetze-Coburn, Stephan/Cumming, Susanna/ Paolino, Danae (1993): Outline of Discourse Transcription. In: Edwards, Jane A./Lampert, Martin D. (Hrsg.): Talking Data. Transcription and Coding in Discourse Research. Hillsdale NJ: Erlbaum, S. 45–89.

    Ehlich, Konrad (1993): HIAT. A Transcription System for Discourse Data. In: Edwards, Jane A./ Lampert, Martin D. (Hrsg.): Transcription and Coding in Discourse Research. Hillsdale NJ: Lawrence Earlbaum, S. 123–148.

    Ehlich, Konrad/Rehbein, Jochen (1976): Halbinterpretative Arbeitstranskriptionen (HIAT). In: Linguistische Berichte 45, S. 21–41.

    Ehlich, Konrad/Rehbein, Jochen (1979): Erweiterte halbinterpretative Arbeitstranskriptionen (HIAT2); Intonation. In: Linguistische Berichte (59), S. 51–75.

    Ehlich, Konrad/Rehbein, Jochen (1981): Die Wiedergabe intonatorischer, nonverbaler und aktionaler Phänomene im Verfahren HIAT. In: Lange-Seidl, Annemarie (Hrsg.): Zeichenkonstitution. Akten des 2. Semiotischen Kolloquiums in Regensburg 1978, Bd. 2. Berlin: de Gruyter, S. 174–186.

    Hepburn, Alexa/Bolden, Galina B. (2013): The Conversation Analytic Approach to Transcription. In: Sidnell, Jack/Stivers, Tanya (Hrsg.): The Handbook of Conversation Analysis. Chichester, West Sussex (u.a.): Wiley-Blackwell (= Blackwell Handbooks in Linguistics), S. 57–76.

    Jefferson, Gail (2004): Glossary of transcript symbols with an introduction. In: Lerner, Gene H. (Hrsg.): Conversation Analysis. Studies from the first generation. Amsterdam (u.a.): John Benjamins (= Pragmatics & beyond, N.S. 125), S. 13–31.

    Schmidt, Thomas/Schütte, Wilfried/Winterscheid, Jenny (2015): cGAT. Konventionen für das computergestützte Transkribieren in Anlehnung an das Gesprächsanalytische Transkriptionssystem 2 (GAT2).

    Selting, Margret et al. (1998): Gesprächsanalytisches Transkriptionssystem (GAT). In: Linguistische Berichte 173, S. 91–122.

    Selting, Margret et al. (2009): Gesprächsanalytisches Transkriptionssystem 2 (GAT 2). In: Gesprächsforschung. Online-Zeitschrift zur verbalen Interaktion 10, S. 353–402.

    Selting, Margret et al. (2011): A system for transcribing talk-in-interaction: GAT 2. Translated and adapted for English by Elizabeth Couper-Kuhlen amd Dagmar Barth-Weingarten. Gesprächsforschung. Online-Zeitschrift zur verbalen Interaktion 12, S. 1–51.