Lexikon-Eintrag

Inhaltsanalyse (engl.: Content Analysis)

 

Unter I. versteht man Verfahren der systematischen Erhebung und Kodierung des Inhalts sprachlicher Äußerungen, im allgemeinen schriftlicher (oder verschrifteter) Texte. Die meisten Verfahren der herkömmlichen (»quantitativen«) I. beruhen darauf, das (teilweise: gemeinsame) Auftreten bestimmter Textgehalte zu erfassen, zu quantifizieren und zu zählen. Es kann aber auch um andere Textmerkmale gehen (etwa: grammatikalische Konstruktionen, rhetorische Wendungen), und außer Texten lassen sich auch andere »Bedeutungsträger«, etwa Filme oder Bilder, jedenfalls im Prinzip mit Methoden der I. untersuchen.

 

Fast noch mehr als bei anderen sozialwissenschaftlichen Verfahren sollte bei der I. der Gegensatz zwischen »qualitativen« und »quantitativen« Verfahren nicht überbewertet werden: Insoweit Inhaltsanalysen (sofern sie nicht ausschließlich im Zählen von Oberflächenmerkmalen wie bestimmten Worten, Satzkonstruktionen etc. bestehen, ein Verfahren, das manchmal in der Stil-Analyse eingesetzt wird, um etwa zu bestimmen, ob hinreichender Grund zur Annahme besteht, einen Text einem/r Autor/in, einer bestimmte Epoche etc. zuzuschreiben oder nicht) stets implizieren, dass Kommunikationsinhalte verstanden werden müssen, kommt auch eine quantitative Analyse nicht ohne qualitative Elemente aus, ja hat diese fast stets zur Voraussetzung. Insofern geht es nur um unterschiedliche Akzentsetzungen: Qualitative Analysen versuchen, den Prozess des Verstehens bzw. der hermeneutischen Analyse und der Explikation von Sinn möglichst umfassend nachzuvollziehen, während quantitative Analysen eher versuchen, die erfassten Sinngehalte in Form von Häufigkeiten bzw. Assoziationsmustern auszuwerten, um so zu (u. U. statistisch analysierbaren) Vergleichen, Trendmustern etc. zu kommen.

 

In der qualitativen I. kann man nach Mayring (1983, 6. Aufl. 1997) vier Formen unterscheiden: (1) Die zusammenfassende I., die das Textmaterial zu einem Kurztext unter Beibehaltung der wesentlichen Inhalte reduziert, (2) die induktive Kategorienbildung, die Entwicklung von Kategorien (oder Codes) anhand des Textmaterials, unter die die Inhalte oder sonstigen Textmerkmale subsumiert werden können, (3) die explizierende I., die versucht, unklare Stellen des Materials so gut wie möglich – auch unter Hinzuziehung sonstigen Materials, Hintergrundwissens usw. – verständlich zu machen, und (4) die strukturierende I., die das Textmaterial unter bestimmten Kriterien analysiert, um spezifische Aspekte besonders herauszuheben.

 

Eine quantitative I. besteht aus folgenden Schritten: Nach der Festlegung der Fragestellung ist zunächst das relevante Datenmaterial (z. B. Zeitungen, Zeitschriften, Bücher) auszuwählen und die Grundgesamtheit (z. B.: welche Medien? welcher Zeitraum? welche Textsorten) und gegebenenfalls ein Verfahren zur Stichprobenziehung zu bestimmen. Häufig sind noch die Analyseeinheiten zu definieren (z. B. Sätze, Abschnitte, Seiten, zusammengehörige Texte usw.) Sodann ist ein Kodierschema zu entwickeln, welches definiert oder umschreibt, welche Worte (oder anderen Textmerkmale) wie »einzuordnen« sind. (Dies ist schon deshalb notwendig, weil die menschliche Sprache mehr oder wenig metaphorisch ist; die Worte »die große Auseinandersetzung« können sich auf Krieg, sportliche Ereignisse, Gerichtsverfahren, eheliche Aussprachen u.v.a.m. beziehen.) Das Kategorienschema sollte möglichst in einem Pre-Test geprüft und gegebenenfalls modifiziert werden. Dann werden die ausgewählten Texte nach diesem Schema verschlüsselt (»kodiert«), die Daten aufbereitet und ausgewertet.

 

Unter den praktischen Problemen (zumindest) der (standardisierten) I. ist vorrangig das Problem der Reliabilität zu nennen, d.h. der Zuverlässigkeit der Einordnungen der Textbestandteile in die vorgegebenen Kategorien. Es ist sowohl damit zu rechnen, dass ein und dasselbe zu verkodende Element von verschiedenen Personen verschieden beurteilt wird, als auch damit, dass ein und dasselbe zu verkodende Element von der selben Person zu verschiedenen Zeitpunkten verschieden beurteilt wird. Zur Prüfung, wie groß die erste Fehlerart ist, sollte die Inter-Coder-Reliabilität (Inter-Rater-Reliabilität), für die Prüfung der zweiten Fehlerart die Intra-Coder-Reliabilität (Intra-Rater-Reliabilität) geprüft werden.

 

Sehr viel weniger leicht zu lösen sind die theoretischen Probleme der I. Wie vor allem Merten verdeutlicht, wird vom Vorliegen der interessierenden Textmerkmale auf Merkmale jenseits der Texte geschlossen, z. B. auf Meinungswandel, auf die Rezeption der Texte, usw. Die hier zugrundeliegenden Theorien sind nicht selten etwas naiv und und nur sehr selten wirklich geprüft.

 

Die wichtigsten »klassischen« Verfahren der quantitativen I. sind: Frequenzanalyse, Valenzanalyse, Intensitätsanalyse und Kontingenzanalyse.

 

Literatur:

 

* Früh 2001

* Mayring 1983 (6. Aufl. 1997)

* Merten 1983

www.lrz-muenchen.de/~wlm/ein_voll.htm

 

Wortanalyse

„Die kleinen Verräter“ (Stefanie Schramm) Die Zeit Nr.51 / 11.12.2014

automatische Wort/Textanalyse - James Pennbaker

de.wikipedia.org/wiki/James_Pennebaker

Claudia Wüstenhagen: Große Worte, subtiler Einfluß Die Zeit Nr.51 / 11.12.2014

Manipulationen mit Sprache (Werbung; Wahlkampf; Familie)

Schramm – Wüstenhagen – Buch. Das Alphabet des Denkens. rowohlt; 19.12.2014

www.freitag.de/autoren/kolz/automatische-sprachanalyse

Wolf, M., Horn, A., Mehl, M., Haug, S., Pennebaker, J. W. & Kordy, H. (2008). Computergestützte quantitative Textanalyse: Äquivalenz und Robustheit der deutschen Version des Linguistic Inquiry and Word Count. Diagnostica, 2, 85-98.

www.gesis.org/fileadmin/upload/forschung/publikationen/gesis_reihen/gesis_methodenberichte/2002/02_02.pdf

„Du bist, was du sprichts“ Gehirn & Geist 2007

www.spektrum.de/pdf/gug-09-01-s024-pdf/975890