gLLMs revolutionieren die Inhaltsanalyse in der Kommunikationsforschung
Generative Large Language Models (gLLMs) wie ChatGPT werden immer häufiger in der Kommunikationsforschung eingesetzt, um Inhalte zu analysieren. Studien zeigen, dass sie sowohl über dem Leistungsspektrum von Crowd‑Workers als auch von erfahrenen Codern liegen, und das zu einem Bruchteil der Zeit und Kosten.
Ein besonderer Vorteil von gLLMs besteht darin, dass sie implizite Bedeutungen und Kontextinformationen erkennen können. Sie lassen sich mit natürlicher Sprache steuern, erfordern nur grundlegende Programmierkenntnisse und benötigen kaum annotierte Daten – abgesehen von einem Validierungsdatensatz. Damit markieren sie einen Paradigmenwechsel in der automatisierten Inhaltsanalyse.
Trotz dieses Potenzials ist die Integration von gLLMs in das methodische Repertoire der Kommunikationsforschung noch nicht vollständig entwickelt. Forscher*innen stehen vor mindestens sieben zentralen Herausforderungen: die Entwicklung des Codebooks, das Prompt‑Engineering, die Modellauswahl, die Parametertuning, die iterative Verfeinerung, die Validierung der Zuverlässigkeit und optional die Leistungssteigerung.
Die vorliegende Arbeit fasst aktuelle Erkenntnisse zum gLLM‑unterstützten quantitativen Content‑Analysis zusammen und präsentiert einen umfassenden Best‑Practice‑Guide. Ziel ist es, die Nutzung von gLLMs für eine breitere Forschungsgruppe zugänglich zu machen und gleichzeitig die etablierten Qualitätsstandards in Bezug auf Validität, Reliabilität, Reproduzierbarkeit und Forschungsethik einzuhalten.