ChatGPT und andere KI-Inhalte wissenschaftlich zitieren: Ein praktischer Leitfaden für Forschende

KI korrekt angeben – So geht's
- Kein direktes Zitat:
LLM-Antworten sind nicht wie herkömmliche Textquellen (Buch, wissenschaftlicher Aufsatz, Zeitungsartikel) oder persönliche Mitteilungen zitierfähig. - LLM-Anwendung im Methodenteil beschreiben und den Dialog im Anhang dokumentieren:
Nenne das Tool (z.B. ChatGPT-4o, OpenAI), den Zweck (z.B. zur Ideenfindung) und wie Sie es genutzt haben (z.B. zentrale Prompts, Vorgehen). Bei einigen LLM-unterstützten Forschungsverfahren (etwa der hybriden Textinterpretation; vgl. Krähnke et al. 2025) wird der gesamte Chat-Dialog (Prompts und Ausgaben) im Anhang als Teil der Methodendokumentation nachgewiesen, aber nicht direkt als Quelle zitiert. - Im Literaturverzeichnis aufführen:
Referenziere das LLM selbst korrekt, z.B.:
OpenAI. (2023). ChatGPT (Version 4o) [Large language model]. https://chat.openai.com
Wichtig: Immer spezifische Vorgaben (Hochschule, Verlag) prüfen! Details & Begründungen findest du im Folgenden:
Einleitung
Large Language Models wie ChatGPT, Claude oder Gemini unterstützen bei Literaturrecherche, Textentwürfen oder in der qualitativen Datenanalyse und KI unterstützt die automatische Transkription. Mit diesen Tools stellt sich eine zentrale Frage: Wie dokumentiert und zitiert man generierten Inhalte korrekt in wissenschaftlichen Arbeiten, denn die transparente Dokumentation der KI-Nutzung gehört mittlerweile zum Standard guter wissenschaftlicher Praxis.
Da LLM-Antworten nicht wie Bücher oder Artikel dauerhaft und identisch abrufbar sind, gelten sie nicht als bibliografisch nachweisbare Quellen. Ebenso wenig sollten sie als “persönliche Mitteilung” behandelt werden. Denn die Inhalte der generativen KI stammen von Maschinen und sind zudem weder stabil noch replizierbar. Aus Transparenzgründen muss jedoch dokumentiert werden, wo und wie genau die LLM im Forschungsprozess genutzt wurde: im Methodenteil, durch vollständige Prompts und Outputs im Anhang und durch eine formale Aufnahme des genutzten Tools ins Literaturverzeichnis.
Dieser Beitrag fasst die aktuellen Empfehlungen der gängigen Stile (APA, Harvard) zusammen und zeigt, wie Sie die Nutzung von LLM in Ihrer Forschung transparent machen. Anhand von Praxisbeispielen erhalten Sie zudem Formulierungen und Vorlagen für Ihren Methodenteil. Wir legen diesen detaillierten Leitfaden vor, da – angesichts der rasanten Entwicklung von KI-Tools und der wissenschaftlichen Diskussion darüber – zwar verschiedene Ansätze zur Zitation existieren, einige verbreitete Empfehlungen jedoch Aspekte wie die Reproduzierbarkeit oder die methodische Einbettung unserer Auffassung nach nicht ausreichend berücksichtigen. Dieser Artikel zeigt daher einen Weg auf, der den Prinzipien guter wissenschaftlicher Praxis besonders Rechnung trägt.
APA-Zitierstil: Fokus auf methodische Transparenz
Die American Psychological Association (APA) empfiehlt in ihrer Richtlinie (APA, 2023):
“If you’ve used ChatGPT or other AI tools in your research, describe how you used the tool in your Method section or in a comparable section of your paper. In your text, provide the prompt you used and then any portion of the relevant text that was generated in response.”
Quelle: https://apastyle.apa.org/blog/how-to-cite-chatgpt
Ergänzend gibt das Columbia College diese Umsetzungshinweise:
“APA recommends that you include an explanation of how you used ChatGPT, and an Appendix (or Appendices) containing the full text of your prompt(s) and output(s).”
Quelle: https://columbiacollege-ca.libguides.com/c.php?g=713274&p=5355771
Das bedeutet konkret:
Angaben im Methodenteil oder in einem vergleichbaren Kapitel:
-
-
Welches KI-Tool wurde verwendet (z. B. ChatGPT-4o)?
-
Wofür (z. B. Ideenfindung, Textentwürfe, Zusammenfassungen)?
-
Wie (zentraler Prompt, Beispiel für eine generierte Antwort)?
- Keine direkte Zitation einzelner KI-Antworten, da sie nicht stabil verfügbar sind (also NICHT immer gleich geantwortet wird).
-
Anhang:
- Vollständige KI-Dialoge (Prompt + Antwort), (bspw. für das hybride Interpretieren).
Beispiel für den Referenzeintrag nach APA
OpenAI. (2023). ChatGPT (Version 4.0) [Large language model]. https://chat.openai.com
Harvard-Zitierstil: Fokus auf formale bibliographische Erfassung
Die University College Dublin (UCD) empfiehlt für den Harvard-Zitierstil (UCD Library, 2025):
“When referencing AI-generated text in Harvard UCD, you should credit the creator of the AI tool as the author, using both an in-text citation and a reference list entry. If a shareable URL is available, please include it in the reference list entry. In the absence of a shareable URL, include the chat session with the AI tool as an appendix and refer readers to this appendix when citing the AI-generated text.” Quelle: https://libguides.ucd.ie/harvardstyle/harvardgenAI?utm_source=chatgpt.com
Der Harvard-Stil verlangt, dass der Entwickler des KI-Systems als Autor zitiert wird. Dies geschieht durch In-Text-Zitation und Eintrag im Literaturverzeichnis. Bei fehlender URL wird die vollständige Dokumentation der Chat-Sitzung als Anhang empfohlen.
Beispiel für den Referenzeintrag nach Harvard
OpenAI (2023) ChatGPT (Version 4.0) [Large language model]. Available at: https://chat.openai.com (Accessed: [Datum]).
Empfohlene Praxis in akademischen Arbeiten
Warum Sie KI-Antworten nicht wie Zitate behandeln sollten
Viele Forschende stellen sich die Frage: Kann oder sollte ich die Antwort von ChatGPT einfach wie ein Zitat aus einem Buch in meine Arbeit einfügen? Die klare wissenschaftliche Antwort lautet: Nein, KI-Antworten sind keine zitierfähigen Quellen im traditionellen Sinn. Hier nochmal gebündelt die wesentlichen Gründe:
- Keine Stabilität und Reproduzierbarkeit: Der wichtigste praktische Grund ist, dass KI-Antworten nicht stabil sind. Anders als ein gedruckter Text liefert eine KI wie ChatGPT auf dieselbe Frage (Prompt) keine identischen Antworten. Selbst wenn Sie eine Antwort speichern, können andere Lesende diese spezifische Antwort nicht verlässlich replizieren oder überprüfen. Wissenschaftliche Belege müssen aber nachprüfbar sein.
- Fehlende wissenschaftliche Autorschaft: KI-Systeme sind Werkzeuge, keine Autoren. Ihnen fehlt die menschliche Urteilsfähigkeit, Verantwortlichkeit und die Fähigkeit, für ihre Aussagen im wissenschaftlichen Diskurs einzustehen. Wie die Deutsche Forschungsgemeinschaft (DFG, 2023) betont, setzt Autorschaft Handlungsfähigkeit und Verantwortung voraus, die nur bei Menschen liegen (siehe auch Buck, 2025, S. 87). KI hat keine eigene “Meinung” oder wissenschaftliche Position (Buck, 2025, S. 91).
- Ungeeignet als „Persönliche Mitteilung“: Manchmal wird vorgeschlagen, KI-Antworten als „persönliche Mitteilung“ zu behandeln. Auch das ist nicht korrekt. Diese Kategorie ist für nicht öffentlich zugängliche, aber nachvollziehbare Kommunikation zwischen Menschen gedacht (z.B. E-Mails, Interviews). Eine KI-Antwort passt hier nicht hinein (vgl. Hinweise der Harvard Library).
- Keine wissenschaftliche Eigenleistung: Das einfache Kopieren einer KI-Antwort stellt keine eigene Forschungsleistung dar. Wissenschaftliches Arbeiten erfordert die kritische Auseinandersetzung mit Informationen, deren Einordnung und die Entwicklung eigener Schlussfolgerungen. Die Leistung liegt in der Art und Weise, wie Sie die KI als Werkzeug nutzen und die Ergebnisse bewerten und integrieren.
Der richtige Umgang ist:
- Transparenz im Methodenteil: Beschreiben Sie genau, welches KI-Tool (mit Version, Entwickler) Sie für welchen Zweck und auf welche Weise eingesetzt haben. Erläutern Sie Ihr Vorgehen, ggf. zentrale Prompts und wie Sie die Ergebnisse der KI überprüft und weiterverwendet haben.
- Referenzierung des Tools: Führen Sie das verwendete KI-Tool (nicht die einzelne Antwort!) korrekt im Literaturverzeichnis auf. Hier wird dann – je nach Zitationsstil (z.B. nach Harvard/UCD) – der Entwickler (z.B. OpenAI) formal in der Autorenposition genannt. Dies dient der Identifikation des Werkzeugs, nicht der Zuschreibung von Autorschaft an die KI für den Output.
- Dokumentation im Anhang (optional/je nach Methode): Bei bestimmten Vorgehensweisen, wie der hybriden Interpretation (Krähnke et al., 2025), bei denen der Dialogprozess selbst Teil der Methode ist, kann die Dokumentation der Prompts und Antworten im Anhang sinnvoll sein, um die Nachvollziehbarkeit des Prozesses zu gewährleisten. Dies dient aber der Methodentransparenz, nicht dem Beleg einer inhaltlichen Aussage durch die KI.
Zusammenfassend lässt sich sagen:
Behandeln Sie KI als ein Werkzeug, dessen Einsatz Sieaus Transparenzgründen dokumentieren müssen, aber nicht als eine Quelle, die Sie direkt zitieren können, um inhaltliche Argumente zu stützen. Da sich die Zitationsstandards für KI-Tools noch im Wandel befinden, sollten Sie zusätzlich aktuelle Vorgaben Ihrer Hochschule, Ihres Fachbereichs oder Verlags beachten. Wichtig ist, dass die eigene wissenschaftliche Leistung deutlich erkennbar bleibt und dass Lesende Ihre Schritte nachvollziehen können.
Musterformulierungen für den Methodenteil:
Beispiel 1 (allgemeine Vorlage):
“In dieser Arbeit wurde [Name des KI-Systems] zur [konkreter Zweck, z.B. ‘Identifikation relevanter Literatur’, ‘Textzusammenfassung’, ‘Datenanalyse’] eingesetzt. Der vollständige Dialog mit dem System, einschließlich aller verwendeten Prompts und generierten Antworten, ist in Anhang [X] dokumentiert. Die Verwendung der KI beschränkte sich auf [präzise Eingrenzung], während [Aspekte ohne KI-Unterstützung] ohne KI-Unterstützung durchgeführt wurden.”
Beispiel 2 (konkrete Anwendung bei hybrider Interpretation mit mehreren LLMs):
“Zur qualitativen Analyse der Interviewdaten wurde das Verfahren der hybriden Interpretation mit mehreren dialogisch integrierten Large Language Models (LLMs) eingesetzt, wie von Krähnke et al. (2025) beschrieben. Im Rahmen dieses Ansatzes wurden drei verschiedene generative Sprachmodellversionen (Anthropics Claude 3.7 Sonnet, openAIs ChatGPT-4o und Googles Gemini 2.5 pro) in einen iterativen Interpretationsprozess eingebunden, um multiple Perspektiven auf das Datenmaterial zu generieren. Die Textinterpretation erfolgte in drei Phasen: initiale, elaborierende und synthetisierende Interpretation. Sämtliche Prompts sowie die generierten LLM-Outputs sind in Anhang B vollständig dokumentiert. Die Auswahl der zu interpretierenden Textpassagen, die kritische Bewertung der KI-generierten Deutungsangebote sowie die finale analytische Verdichtung wurden von mir als Forscher ohne KI-Unterstützung durchgeführt, um eine methodisch kontrollierte und gegenstandsangemessene Analyse zu gewährleisten.”
Besondere Herausforderung: Vermittelnde KI-Systeme
MAXQDA AI Assist, MAXQDA Tailwind, DocumetAI, Queludra und ähnliche Tools im Bereich qualitativer Forschung binden teils eigene Systemprompts ein, die für Nutzende unsichtbar bleiben. Zudem ist meist nicht erkennbar, welches Sprachmodell (ChatGPT, Claude etc.) in welcher Version (4o, 01 preview, sonnet 3.5 usw.) im Hintergrund verwendet wurde – denn: die Hersteller haben keine eigenen KI-Modelle entwickelt, sondern nutzen vorhandenen Tools, machen das aber in der Regel nicht bis ins letzte transparent.
Im Methodenteil sollte daher klar herausgearbeitet sein, dass die vollständigen Systemprompts nicht zugänglich sind und ggf. unklar bleibt, welches LLM die Antworten generiert hat. Diese Intransparenz kann methodische Konsequenzen haben: Die Nicht-Reproduzierbarkeit der KI-Analyse erschwert die Nachvollziehbarkeit, verborgene Systemprompts könnten die Analyse unbemerkt beeinflussen und manche Modelle verfügen nur über (zeitlich/inhaltlich) begrenztes Wissen aus ihren jeweiligen Trainingsdaten. Um diese Limitationen und Bias transparent zu machen, ist es notwendig,die konkret durchgeführtn Arbeitsschritte mit der KI-Untersützung zu dokumentieren. Dazu gehört die genaue Beschreibung der verwendeten Softwarefunktionen (z. B. „Textzusammenfassung“, „Themenextraktion“), der eingegebenen Daten und Nutzeranweisungen sowie der Methoden zur kritischen Überprüfung der KI-generierten Ergebnisse.
Beispiel-Formulierung
“Im Rahmen der qualitativen Inhaltsanalyse wurde MAXQDA AI Assist für die initiale Kategorienbildung eingesetzt. Da die zugrunde liegenden Systemprompts und das verwendete Sprachmodell nicht transparent offengelegt sind, kann die Analyse nicht vollständig reproduziert werden. Um diese Limitation abzufedern, prüften wir die KI-Vorschläge in einem mehrstufigen diskursiven Validierungsprozess (manuelle Codierung durch zwei Forschende, externe Diskussion). Nur jene Kategorien, die diese bestanden, wurden übernommen. Die KI-Unterstützung beschränkte sich auf die explorative Phase; die finale Analyse und Interpretation erfolgten ohne KI.”
Zitation vermittelnder Systeme
VERBI Software. (2024). MAXQDA AI Assist [Computer software]. https://www.maxqda.com/products/ai-assist
Auch den Einsatz automatischer Transkription richtig zitieren!
Bisher haben wir uns in diesem Artikel vor allem mit der Zitation von Large Language Models (LLMs) wie ChatGPT beschäftigt. Das Prinzip der transparenten Dokumentation gilt jedoch auch für andere KI-basierte Werkzeuge, die im Forschungsprozess eingesetzt werden. Ein zentrales Beispiel dafür ist die automatische Transkription von Audio- oder Videodaten. Auch hier ist es für die wissenschaftliche Nachvollziehbarkeit unerlässlich, ihren Einsatz im Methodenteil klar zu beschreiben. Wenn Sie beispielsweise die automatische Transkription von audiotranskription.de verwenden – sei es via Browser über f4x.audiotranskription.de oder innerhalb der Software f4 2024 – gehört dies dokumentiert.
Was gehört in den Methodenteil?
Nennung des Werkzeugs: Geben Sie den genutzten Dienst oder die Software präzise an (z. B. “KI-basierter Transkriptionsdienst von audiotranskription.de via f4x” oder “automatische Transkriptionsfunktion der Software f4 2024”), idealerweise mit Nutzungsdatum.
Zweck: Beschreiben Sie kurz den Einsatzgrund (z. B. “zur initialen, zeitsparenden Verschriftlichung von Experteninterviews”).
Darstellung der Qualitätssicherung: Da KI-basierte Transkription Fehler enthalten kann, ist die Darstellung der Qualitätssicherung zentral. Wurden die automatisch erstellten Rohtranskripte vollständig anhand der Aufnahmen überprüft und manuell korrigiert? Nach welchem Transkriptionsregelsystem (z. B. Dresing & Pehl, 2023, inhaltlich-semantisch) wurde das finale Transkript überarbeitet?
Beispielformulierung für den Methodenteil
„Zur initialen Verschriftlichung der Audioaufnahmen wurde der KI-basierte Transkriptionsdienst von audiotranskription.de genutzt (Zugriff via [f4x / f4 2024] am [Datum]). Die so mittels automatischer Spracherkennung generierten Rohtranskripte wurden anschließend von [Person/Team] vollständig anhand der Originalaufnahmen manuell überprüft und korrigiert (bspw. in f4 2024 oder Microsoft Word). Die Überarbeitung erfolgte gemäß dem Regelsystem für die inhaltlich-semantische Transkription von Dresing & Pehl (2023), um methodische Passung und Konsistenz sicherzustellen.“
Beispiel für den Eintrag des Transkriptionsdienstes/Software im Literaturverzeichnis
Variante f4 Nutzung nur via Browser:
audiotranskription.de – Dr. Dresing & Pehl GmbH. (Jahr der Nutzung). Automatischer Transkriptionsdienst [Web service]. Abgerufen am [Datum des Abrufs] von https://f4x.audiotranskription.de
Variante Nutzung via Software f4:
audiotranskription.de – Dr. Dresing & Pehl GmbH. (2024). f4 2024 (Version X.X) [Computer software]. https://www.audiotranskription.de
Beispiel für den Eintrag des Regelsystems:
Dresing, T. & Pehl, T. (2023). Inhaltlich-semantische Transkription. In T. Dresing & T. Pehl, Praxisbuch Interview, Transkription & Analyse: Anleitungen und Regelsysteme für qualitativ Forschende (9. Aufl., S. [Seitenzahl einfügen]). Dr. Dresing & Pehl GmbH.
Literatur
- American Psychological Association (APA). (2023, April 7). How to cite ChatGPT. APA Style Blog. https://apastyle.apa.org/blog/how-to-cite-chatgpt
- Buck, Isabella. (2025). Wissenschaftliches Schreiben mit KI. UVK Verlag (utb 6365).
- Columbia College Library. (n.d.). ChatGPT & Other AI Tools. LibGuides. Abgerufen am 4. April 2025, von https://columbiacollege-ca.libguides.com/c.php?g=713274&p=5355771
- Deutsche Forschungsgemeinschaft (DFG). (2023, September 21). Stellungnahme des Präsidiums der Deutschen Forschungsgemeinschaft (DFG) zum Einfluss generativer Modelle für die Text- und Bilderstellung auf die Wissenschaften und das Förderhandeln der DFG. https://www.dfg.de/resource/blob/289674/ff57cf46c5ca109cb18533b21fba49bd/230921-stellungnahme-praesidium-ki-ai-data.pdf
- Harvard Library. (n.d.). AI Guidance for Researchers: Citation. LibGuides. Abgerufen am 4. April 2025, von https://guides.library.harvard.edu/c.php?g=1330621&p=10046069
- Knowles, Alan M. (2024). Machine-in-the-loop writing: Optimizing the rhetorical load. Computers and Composition, 71, 102826. https://doi.org/10.1016/j.compcom.2024.102826
- Krähnke, U.; Pehl, T. & Dresing, T.. (2025). Hybride Interpretation textbasierter Daten mit dialogisch integrierten LLMs: Zur Nutzung generativer KI in der qualitativen Forschung. SSOAR Preprint. https://nbn-resolving.org/urn:nbn:de:0168-ssoar-99389-7
- University College Dublin Library. (n.d.). Harvard Style – Referencing generatively created AI text. LibGuides. Abgerufen am 4. April 2025, von https://libguides.ucd.ie/harvardstyle/harvardgenAI
- VERBI Software. (2024). MAXQDA AI Assist [Computer software]. https://www.maxqda.com/products/ai-assist
Diesen Blogartikel kannst du wie folgt zitieren:
Dresing, T., Krähnke, U., & Pehl, T. (2025, 4. April). ChatGPT und andere KI-Inhalte wissenschaftlich zitieren: Ein praktischer Leitfaden für Forschende. audiotranskription.de Blog. https://www.audiotranskription.de/ki-richtig-zitieren