Transkription

Warum Transkripte nie “richtig” sind.

08. November 2023 10 minutes Lesezeit

Falls Du gerade erst mit der Transkription anfängst, beispielsweise für Deine Bachelor- oder Masterarbeit, empfehlen wir Dir, bewährte Methoden zu nutzen. Probiere die etablierten Vorschläge der qualitativen Forschung erst einmal aus, wie sie sind.

Wenn Du jedoch neugierig bist und Deine eigene Vorgehensweise bei der Transkription hinterfragen möchtest, erklären wir Dir gerne, warum Transkription ein komplexes und nicht offensichtliches Thema ist.

Warum Transkripte nie “richtig” sind

Um das besser zu verstehen, schauen wir uns genauer an, was Transkripte und Transkription eigentlich sind und was sie nicht sind. In vier Facetten beleuchten wir den Vorgang der Transkription und werden dabei verdeutlichen:

  • Transkription ist Reduktion
  • Transkription ist Re-Konstruktion
  • Transkripte sind nicht „real“
  • Transkription ist immer auch empirisch-pragmatisch

Transkription ist Reduktion

Vieles wird weggelassen

Eine Transkription stellt bei allen Bemühungen um Genauigkeit stets eine Reduzierung dar. Ein niedergeschriebenes „Das ist ein Ex-Papagei“ dokumentiert nicht im Entferntesten die Intonation, Sprachmelodie, Emotionalität und Stimmung, mit der John Cleese diese Worte in dem entsprechenden Monty-Python-Sketch einsetzt, ganz zu schweigen von Mimik, Gestik und Körperhaltung.

Hierzu noch ein Beispiel: Eine Geschäftsführerin wird gefragt, ob sie Entlassungen plane. Sie überlegt einige Zeit, schaut auf den Boden und antwortet ohne direkten Blickkontakt mit einem recht leisen „Nöö“. Eine rein semantische Abschrift würde die Antwort als „Nein“ festhalten.

Eine Abschrift, die Pausen, Betonung und Verhalten berücksichtigt, enthält hingegen mehr Informationen. Es ist offensichtlich, dass eine Transkription, die nur Wortinhalte verschriftlicht, weniger Kontextinformationen einbezieht.

“Alles” zu tippen ist unmöglich

Gerade diese Kontextinformationen lassen in der Analyse und Interpretation jedoch unter Umständen andere Schlüsse und Interpretationen. Allerdings wäre es für die meisten Forschungsfragen wahrscheinlich völlig unwesentlich,ob im Hintergrund des Gespräches eine Amsel zwitschert oder wie viele LKW zu hören sind.

Es ist nahezu unmöglich, eine erlebte Situation, die vielleicht nur als (Audio-) Aufnahme vorliegt und damit bereits verlustbehaftet ist, vollumfassend in eine schriftliche Form zu überführen. Es werden immer bestimmte Elemente ausgelassen und dadurch andere Aspekte sichtbar gemacht und so besonders hervorgehoben.

So wird bei jeder Transkription entschieden, welche sprachlichen und welche nichtsprachlichen Elemente erfasst werden. Im besten Fall geschieht diese Entscheidung bewusst und reflektiert, indem man sich für ein Regelsystem entscheidet, d.h. für eine einheitliche Gestaltung der „Übersetzung“ vom Originalkontext über die Transkription bis hin zum Text.

Reduktion ist notwendig

Wenn man sich hier von der naiven Vorstellung verabschiedet, eine Situation vollständig erfassen zu können, dann ist Reduktion ein wichtiges Hilfsmittel:  Gerade der selektive Charakter kann dabei helfen, sich auf bestimmte Aspekte zu fokussieren (vgl. Duranti 2006, pp. 303-309) und damit sowohl arbeitstechnisch eine Beschleunigung zu erreichen als auch den bewussten Fokus auf Interessensschwerpunkte zu erleichtern.

Halten wir fest, dass Reduktion also im Prinzip „in Ordnung“, also legitim und unumgänglich ist. Aber wie entscheidet man sich für den Grad der Reduktion, also was genau kann denn begründet weggelassen werden und was sollte unbedingt mit hineinkommen?

Als Orientierung für die Ausführlichkeit eines Transkripts schlägt Depperman das Prinzip der „Granularitätsadäquanz“ vor: „Damit ist gemeint, dass ein Transkript immer so genau sein muss, dass es uns in Bezug auf die verfolgte Fragestellung belastbares Material liefert. Das heißt, es muss immer feinkörniger sein als die Ebene unserer Fragestellung“ (Deppermann in Breuer et al. 2014, S. 273). Das obige Beispiel mit dem zögerlichen „nö“ zeigt, was mit „wiederkehrendem Material“ gemeint ist: Auch wenn keine Analyse der Pausenzeiten geplant ist, kann es sinnvoll sein, die Pausen zu notieren, um Fehlschlüsse durch eine zu „einfache“ Transkription zu vermeiden.

Transkription ist Re-Konstruktion

Die Untersuchungsfrage spielt immer mit rein

Die Transkription kann also als Transformationsprozess angesehen werden, bei dem das Material mithilfe von Reduktion in eine Schriftform überführt wird. Welche Aspekte die Reduktion dabei letztlich umfasst ist eine Entscheidung, die vor dem Hintergrund der Untersuchungsfrage getroffen wird. Die Auswahl geschieht also vor einem theoretischen Hintergrund.

Der theoretische Hintergrund, also die eigene Untersuchungsfrage, die ausgewählten Analysemethoden, eventuelle Bezugstheorien, fachliche Begrifflichkeiten und Gepflogenheiten etc. haben also bedeutenden Einfluss auf die Form des Transkriptes. Ein Transkript ist keine „Abbildung“ der Wirklichkeit, sondern vielmehr eine theoriegeleitete Re-Konstruktion. Elinor Ochs (1979, p. 44) prägte in diesem Zusammenhang den Begriff der „transcription as theory“.

Diese „Theorie“, mit der der Text verstanden wird, ist jedoch noch deutlich umfassender als die rein fachliche Theorie. Auch implizites Wissen fließt hier ein, nämlich das implizite kulturelle Wissen um Textverständnis. Also unsere kulturell gelernte und beeinflusste Fähigkeit überhaupt Text zu verstehen und als sinnvoll zu betrachten.

Man kann gar nicht “neutral” hören und tippen

Dass dies so ist, lässt sich anhand einer Studie von Isabella Chiari (2006, 2007) verdeutlichen, die die Produktion von Fehlern in Transkripten (jenseits von Rechtschreibfehlern) genauer untersucht hat. In Testtranskriptionen von 400 kurzen Audioaufnahmen produzierten die 20 untrainierten Teilnehmenden in fast jeder Äußerung einen Fehler. Die häufigsten Fehler waren Ersetzungen (45%) und Auslassungen (43%). Bei den Ersetzungen wurde beispielsweise die Aussage „profondo cambiamento“ (tiefe Veränderung) als „grande cambiamento“ (große Veränderung) transkribiert. Fehler durch Hinzufügen oder Verschieben von Wörtern waren eher selten. Insgesamt wurde der Inhalt des Textes durch 46 Prozent der Fehler nicht verändert. Aber immerhin 37 Prozent der Fehler führten zu inhaltlich falschen Aussagen. Interessant für die Transkription ist hier die Tendenz, dass ein Fehler meist weitere Fehler nach sich zieht, um die Kohärenz des Geschriebenen zu erhalten. Wird ein Subjekt fälschlicherweise als Singular erkannt, so werden in der Regel auch die zugehörigen Verben fälschlicherweise im Singular konjugiert.

Diese lexikalischen Ersetzungen lassen sich nach Chiari nicht durch schlechtes Zuhören erklären, sondern erweisen sich als logische Konsequenz dessen, was die Transkribierenden wahrgenommen und verstanden haben (vgl. auch Bond 1999; Voss 1984). Insgesamt zeigt sich also beim Transkribieren die Tendenz, den gehörten Text anzupassen, ihn als „sinnvolles Ganzes“ wahrzunehmen. Die Untersuchung zeigt, dass der gehörte Text nicht einfach eins zu eins übertragen wird, sondern von den Transkribierenden entlang eigener kulturell erlernter Wahrnehmungsmuster und Sprachgewohnheiten (re)konstruiert wird. [1]

Vorerfahrungen bestimmen was als “sinnvoll” erachtet wird

Die Aspekte der Reduktion und Theoriegeleitetheit bedingen einander. Theoretische Vorannahmen über den Gegenstand wirken sich darauf aus, welche Aspekte als wichtig oder „Sinn tragend“ verstanden werden. Und zur Erkennung von „Sinn tragenden“ Passagen ist stets ein Rückgriff auf das kulturelle Wissen des Textverständnisses nötig. (Hammersley 2010). D.h. Für die Transkription ist somit – häufig implizites – kulturelles Wissen über die Sprache erforderlich. Dieses implizite Wissen ist bspw. auch Ausgangspunkt für die methodischen Ansätze der objektiven Hermeneutik (Oevermann et. al. 1979) oder der Diskursanalyse (Keller 2011).

Erkenntnisinteresse, implizite Theorien und Vorerfahrungen und die Anwendung impliziten kulturellen Wissens lassen sich somit als drei miteinander verwobene Aspekte verstehen, die die Theoriegleitetheit von Transkriptionen bedingen. Transkription re-konstruiert also stehts ein bereits vorhandenes theoretisches und kulturelles Verständnis.

Die Reflexion des Transkriptionsprozesses führt, wie eben gezeigt, schnell zur Erkenntnis, dass es sich um einen selektiven, theoriegeleiteten Prozess handelt. (vgl. auch Davidson 2009)

Transkripte sind nicht „real“

Transkripte sind was hergestelltes

Wenn man sich vor Augen führt, dass Transkripte je nach Forschungsinteresse, Disziplin und methodischem Zugang sehr unterschiedlich ausfallen, liegt der nächste gedankliche Schritt recht nahe: Transkripte sind kein Abbild im Sinne eines Fotos, Transkripte werden stets produziert. Döring und Bortz nennen das Transkript daher „forschungsgeneriertes Artefakt“ (2016, S. 267-269). Ein Artefakt ist etwas menschlich Hergestelltes.

Dadurch, dass Transkripte rein in Textsprache fixiert sind1 (vgl. Volpert 1996) verlieren sie nicht nur Details durch Reduktion, sondern erhalten auch eine Eigenständigkeit. Stellen Sie sich hierzu eine Aufführung von Romeo und Julia vor. Der Text hierzu ist hierbei etwa seit 1597 eindeutig festgehalten. Und dennoch gelingt es Schauspieler:innen (von Schultheatern bis zur Kinoverfilmung) immer wieder neue emotionale und thematische Aspekte herauszuarbeiten. Der Text ist also nicht eindeutig auf eine soziale Situation zurückführbar. Er ermöglicht immer mehr Interpretationen als eine reale soziale Situation.

Transkripte sind nicht “Abbild der Realität”

Das So-tun-als-ob der Gleichsetzung des Textes mit dem ursprünglichen Geschehen erweist sich nur zu leicht als illusionäres Unterfangen.“ (Volpert 1996, S. 137)

Das so entstandene Datenmaterial kann daher als „neue Realität“ (Flick 2014, p. 392) verstanden werden. „Theorie schafft Formen der Transkription, und Theorie schreibt sich so in die Transkription ein, und sie schreibt sich über die Auswertung auch fort“ (Reichertz in Breuer et al. 2014, S. 273). Die naive Vorstellung, Transkripte sind das Abbild einer „gegebenen“ Wirklichkeit, muss somit weitgehend abgelehnt werden (Flick 2014, p. 385; Hammersley 2010, p. 558).

An dieser Stelle berührt die Transkription epistemologische Grundfragen der qualitativen Forschung: Was ist Wirklichkeit? Wie können wir zu gesicherten Erkenntnissen gelangen? Und auf Grund welcher „Daten“? etc.  Und dass bei einem scheinbar so nebensächlichen „Zwischenschritt“ wie der Transkription.

Unischerheit was als “real” erachtet werden kann gehört zu qualitativer Forschung

Dieser Punkt soll verunsichern, aber nicht jegliche Transkription unmöglich machen. Es ist uns wichtig, deutlich zu machen, dass Transkripte nicht naiv als Abbildung einer gegebenen Wirklichkeit hinzunehmen sind – egal ob manuell oder per Spracherkennung erzeugt. Diese Verunsicherung ist die gezielte (Selbst-)Verunsicherung und das Nicht-für-selbstverständlich-Nehmen des Verstehensprozesses und ein wichtiges Merkmal qualitativer Forschung. „Das Herstellen von Offenheit und Ungewissheit – quasi Selbst-Verunsicherung – ist ein konstitutives heuristisches Prinzip unseres Forschungsstils“, schreibt Klute (1996, S. 172). Roller (2017) charakterisiert das Unbehagen gegenüber Transkriptionen als Datenmaterial als „elephant in the room“ und plädiert dafür, Transkriptionen nicht vorschnell als „the typical center of the analysis universe“ zu sehen (Roller 2017, unpag.)[2].

Fazit: Transkription ist immer auch empirisch-pragmatisch

Transkripte sind nicht frei erfunden

Bei all den gezielten Verunsicherungen der vorangegangenen Absätze kommen wir nun auf den argumentativ „rettenden Anker“. Letztlich kann man nämlich mit Transkripten methodisch fundiert arbeiten und darauf aufbauend fundierte Erkenntnisse generieren. Ein überzogener konstruktivistisch begründeter Skeptizismus den Transkripten gegenüber ist für konkrete Forschungsvorhaben wenig hilfreich und letztlich unnötig. Ein Transkript ist zwar gewissen Vorannahmen unterworfen, es ist ein forschungsgeneriertes Artefakt, ja, aber es ist auch nicht gänzlich frei erfunden. Es ist keine ausgedachte Phantasiegeschichte. Letztlich wird das Transkript aus einer konkreten Erfahrung abgeleitet und kann daher auch genauso behandelt werden. „The transcriber treats the word heard as given.“ (Hammersley 2010, p. 563)

Transkripte sind “nutzbar”

Es bleibt also empirisch legitim, ein Transkript – trotz aller konstruierenden Aspekte beim Herstellen eines Transkriptes – als „wahres Transkript“ (Volpert 1996, S. 136) anzusehen. Das Transkript wird auf der Grundlage einer relevant akzeptierten Aufnahme mit einem entsprechenden Anspruch an Nachvollziehbarkeit und „Echtheit“ fixiert. Genau dieser Anspruch, die transparente, nachvollziehbare Herstellung eines Transkriptes wird pragmatisch in Transkriptionssystemen formuliert, also in einer transparenten Darstellung der Elemente, die mit der Transkription erfasst werden sollen.

 

[1] Diese Tendenz zur kohärenten Rekonstruktion des Gehörten untermauert den Appell von Bird (2005), eigene Transkripte sehr kritisch zu kontrollieren, die produzierten semantischen Fehler zu reflektieren. Manchmal finden sich hier Hinweise auf eigene Denkmuster und implizite theoretische Annahmen zu nutzen.

[2] Ähnlich kann wahrscheinlich Glasers provokative Forderung des „do not tape“ (1986) sehen. Nach unserer Ansicht löst ein Verzicht auf eine Aufnahme (und damit eine Transkription) jedoch nicht das Grundproblemen der Transkription oder allgemeiner der Datengenerierung in der qualitativen Forschung (Mey in Breuer et al. 2014, S. 278).

 

Literatur

+ Bird, C. M. (2005). How I stopped dreading and learned to love transcription. Qualitative Inquiry, 11(2), 226-248.

+ Bond, Z. S. (1999). Slips of the ear. Errors in the perception of casual conversation. New York: Academic Press.

+ Breuer, F., Deppermann, A., Kuckarzt, U., Mey, G., Mruck, K., & Reichertz, J. (2014). All is data – Qualitative Forschung und ihre Daten. In G. Mey & K. Mruck (Hrsg.), Qualitative Forschung. Analysen und Diskussionen – 10 Jahre Berliner Methodentreffen (S. 261-290). Wiesbaden: Springer VS.

+ Chiari, I. (2006). Slips and errors in spoken data transcription. Paper presented at the Proceedings of 5th International Conference on Language Resources and Evaluation LREC2006, Genova. Genova:    CD-ROM,  ELDA  1596-1599, http://www.alphabit.net/PDF/Pubblicazioni/chiari2_LREC2006.pdf. Zugegriffen: 10. Mai 2017

+ Chiari, I. (2007). Transcribing speech: Errors in corpora and experimental setting. In Matthew Davies, Paul Rayson, Susan Hunston & Pernilla Danielsson (Hrsg.). Proceedings of corpus linguistics 2007, http://ucrel.lancs.ac.uk/publications/CL2007/. Zugegriffen: 10. Mai 2017

+ Döring, N., & Bortz, J. (2016). Forschungsmethoden und Evaluation in den Sozial- und Humanwissenschaften (5. Aufl.). Berlin, Heidelberg: Springer.

+ Duranti, A. (2006). Transcripts, Like Shadows on a Wall. Mind, Culture, and Activity, 13 (4), 301-310. Egle,  G.                             (2009).

+ Flick, U. (2014). An introduction to qualitative research. London: Sage.

+ Hammersley, M. (2010). Reproducing or constructing? Some questions about transcription in social research. Qualitative Research, 10(5), 553-569.

+ Keller, R. (2011). Diskursforschung. Eine Einführung für SozialwissenschaftlerInnen. Wiesbaden: VS.

+ Klute, D. (1996). Erfahrungen mit dem Computer als Werkzeug. In F. Breuer (Hrsg.), Qualitative Psychologie. Grundlagen, Methoden und Anwendungen eines Forschungsstils (S. 162-173) Opladen: Westdeutscher Verlag.

+ Ochs, E. (1979). Transcription as theory. In E. Ochs & B. B. Schieffelin (Hrsg.), Developmental pragmatics (S. 43-72). New York. Academic Press.

+ Oevermann, U., Allert, T., Konau, E., & Krambeck, J. (1979). Die Methodologie einer „objektiven Hermeneutik“ und ihre allgemeine forschungslogische Bedeutung in den Sozialwissenschaften. In H.-G. Soeffner (Hrsg.), Interpretative Verfahren in den Sozial- und Textwissenschaften. Stuttgart (S. 352–434). Stuttgart: Metzler.

+ Roller, M. (2017). The Limitations of transcripts: It is time to talk about the elephant in the room. https://researchdesignreview.com/2017/02/28/the-limitations-of-transcripts-it-is-time-to-talk- about-the-elephant-in-the-room/. Zugegriffen: 10. Mai 2017

+ Volpert, C. (1996). Zur Fixierung von Vergänglichem. In F. Breuer (Hrsg.), Qualitative Psychologie. Grundlagen, Methoden und Anwendungen eines Forschungsstils (S. 135-137). Opladen: Westdeutscher Verlag.

+ Voss, B. (1984). Slips of the ear: Investigations into the speech perception behaviour of German speakers of English. Tübingen: Narr.

Die aktuellsten Beiträge

07. November 2024 2 minutes Lesezeit
Interviews DSGVO-konform aufzeichnen – kostenfreie Vorlage

DSGVO konform Interviewaufnahmen aufzeichnen Update Nov. 2024 Kein grundsätzlich neues Thema Audio- oder Videoaufnahmen gehören seit Jahrzehnten zu einem der …

02. Mai 2024 13 minutes Lesezeit
Erfahrungsbericht: KI & ChatGPT in Qualitativer Forschung

So schnell kann es gehen: Nur wenige Wochen nach dem dieser Artikel hier fertiggestellt wurde, konnten wir einen Weg entwickeln, …

22. April 2024 2 minutes Lesezeit
Schnelleinstieg f4transkript

f4transkript ist ein hilfreiches Tool, um Interviews oder Videos effizient abzutippen. In diesem Text erklären wir, wie du das Programm …

Zurück zur Übersicht