Skip to main content
Open AccessOriginalarbeit

Hohenheimer Inventar zum Politikwissen (HIP)

Konstruktion und Skalierung

Published Online:https://doi.org/10.1026/0012-1924/a000180

Abstract

Zusammenfassung. Politisches Wissen der Bürgerinnen und Bürger gilt als wesentlich für die Handlungsfähigkeit einer Demokratie und wird intensiv erforscht. Derzeit liegt jedoch kein Messinstrument vor, das theoretisch hergeleitet relevante Dimensionen des politischen Wissens diagnostiziert und frei für Forschungszwecke verfügbar ist. Wir entwickelten daher auf Basis des Rasch-Modells das Hohenheimer Inventar zum Politikwissen (HIP) mit den Dimensionen a) Grundlagen (staatliche Strukturen und historische Fakten) und b) Aktuelles (Themen und Akteure aus verschiedenen Politikfeldern). In einer deutschlandweiten Online-Befragung (N = 1 082) ergaben sich zufriedenstellende weighted-mean-square (WMNSQ)-infit-Werte der 85 Items (0.82 ≤ x ≤ 1.24) und eine expected-a-posteriori/plausible-values (EAP/PV)-Reliabilität von .92 für das eindimensionale Modell und von jeweils .91 für beide Dimensionen. Eine Validierung der Skala zeigte, dass die Personenwerte mit politischem Interesse, politischer Partizipation, politischer Informationsnutzung (Kriteriumsvalidierung) sowie dem subjektiven Wissen der Befragten (konvergente Konstruktvalidierung) zusammenhingen. Wir diskutieren die Herausforderung, die Dimension Aktuelles an sich verändernde politische Gegebenheiten anzupassen, sowie weitere Schritte der Skalenvalidierung.

Hohenheim Inventory of Political Knowledge (HIP): Scale Construction

Abstract. The political knowledge of citizens is regarded as an important basis of a democracy and has been studied extensively. However, no scale covers relevant theoretically derived dimensions of political knowledge and is accessible for academic research. Therefore, we developed the Hohenheim Inventory of Political Knowledge (HIP) based on the Rasch model. It covers the dimensions (a) general facts (political structures and historical facts) and (b) current issues (topics and actors of various political areas). A German-wide online survey (N = 1,082) revealed satisfactory weighted mean square (WMNSQ) infit values for the 85 items (0.82 ≤ × ≤ 1.24) and an expected-a-posteriori/plausible-values (EAP/PV) reliability of .92 for the one-dimensional model and of .91 for both dimensions. The scale was validated: Person scores correlated with political interest, political participation, political information use (criterion validity), and subjective knowledge of our participants (convergent construct validity). We discuss the challenge of adapting the dimension current issues to changing political circumstances and future steps of scale validation.

Politisches Wissen wird als Grundlage für die Beteiligung an demokratischen Prozessen und damit für die Handlungsfähigkeit einer Demokratie angesehen. Verschiedene Disziplinen der Psychologie untersuchen politisches Wissen unter fachspezifischen Gesichtspunkten. In der sozialpsychologischen Forschung wird etwa analysiert, in welchem Zusammenhang politisches Wissen und das Vertrauen in die Regierung stehen (Shepherd & Kay, 2012). In entwicklungspsychologischen Studien wird nach dem Einfluss politischen Wissens auf die politische Handlungsbereitschaft von Jugendlichen gefragt (Krampen, 1998, 2000). In der pädagogischen Psychologie und Medienpsychologie wird untersucht, in welcher Form (z. B. durch Mediennutzung, politische Diskussion oder politische Bildung) politisches Wissen verbessert werden kann (Loy, Masur, Schmitt, Mothes & Trepte, 2016; Schmitt, 2016). Darüber hinaus ist politisches Wissen ein zentraler Gegenstand soziologischer, politikpsychologischer, kommunikations- und politikwissenschaftlicher Forschung (z. B. Galston, 2001; Jennings, 1996).

Beispielhaft zeigen diese Forschungsfragen, dass die zuverlässige Diagnostik des politischen Wissens in vielen Bereichen relevant ist. Derzeit liegt jedoch kein Instrument zur Erfassung des politischen Wissens vor, das theoretisch hergeleitet relevante Dimensionen des politischen Wissens diagnostiziert und frei für Forschungszwecke verfügbar ist. Unser Ziel war es deshalb, ein umfassendes Messinstrument politischen Faktenwissens zu entwickeln, das all diese Kriterien erfüllt: das Hohenheimer Inventar zum Politikwissen (HIP; das Zusatzmaterial mit Items, Lösungen und Kennwerten des HIP ist unter https://www.hogrefe.de/produkte/zeitschriften/diagnostica und unter www.hip-online.org abrufbar sowie als Elektronisches Supplement (ESM) 1 in der Online-Version des Artikels zugänglich).

Definitionen und Dimensionen politischen Wissens

Politisches Wissen wurde auf unterschiedliche Weise definiert und operationalisiert (Eveland & Hively, 2008; Luskin, 1990; Price, 1999). In der bisherigen Forschung wird politisches Wissen vor allem als Faktenwissen bzw. deklaratives Wissen verstanden (vgl. Ackerman, 2008), das diagnostisch als wahr oder falsch beurteilt werden kann (Berkowitz, 1989; Eveland & Schmitt, 2015; Lenart, 1994; Wober, Brosius & Weinmann, 1996). Wissenschaftlerinnen und Wissenschaftler verschiedener Disziplinen ringen seit vielen Jahren darum, sinnvolle Dimensionen politischen Wissens zu ermitteln (Eveland & Hively, 2008; Luskin, 1990; Maier, 2009; Price, 1999).

Für das HIP unterscheiden wir zwei Dimensionen politischen Wissens: Grundlagen und Aktuelles (vgl. Tabelle 1 für einen Überblick zu den Dimensionen und Subdimensionen). Entscheidend für diese Dimensionierung ist, ob sich das Wissen auf grundlegende, überdauernde Strukturen und historische Fakten bezieht, oder ob es eher aktuelle und damit veränderbare Themen und Akteure betrifft (Maier, 2009). Für diese Art der Dimensionierung gibt es in der Literatur eine Reihe relevanter Vorarbeiten. Jennings (1996) beispielsweise schlägt vor, Lehrbuchwissen und historisches Wissen von aktuellem Nachrichtenwissen zu differenzieren. Auch Eveland und Hively (2008) sowie Maier (2009) betonen die Notwendigkeit, politisches Wissen hinsichtlich seiner Aktualität und Veränderbarkeit zu differenzieren und in untersuchbare Dimensionen zu überführen.

Tabelle 1 Dimensionen des Hohenheimer Inventars zum Politikwissen (HIP)

In Anlehnung an diese Vorüberlegungen bezieht sich die erste Dimension Grundlagen des HIP auf eher überdauernde nationale wie internationale politische Strukturen auf der einen Seite und historisch bedeutsame Fakten auf der anderen Seite. Unter der dazugehörigen ersten Subdimension Staatliche Strukturen fassen wir strukturelle Themen wie Verfassung, Wahlsystem und Föderalismus sowohl in Bezug auf Deutschland als auch auf das europäische und außereuropäische Ausland. Die zweite Subdimension Historische Fakten umfasst sowohl die politische Geschichte Deutschlands als auch internationale historische Fakten aus der Politik.

Die zweite Dimension Aktuelles bezieht sich demgegenüber auf eher veränderbare Zusammenhänge. Dabei umfasst die erste Subdimension Aktuelle Themen aktuell diskutierte politische Fragen und Themenbereiche. Die zweite Subdimension Aktuelle Akteure bezieht sich auf Menschen, Institutionen und Parteien. Wir orientieren uns hierbei an Delli Carpini und Keeter (1996) sowie Neuman (1981), die als wesentliche Komponenten des Wissens einerseits die politische Substanz in Form aktueller relevanter Ereignisse und Bedingungen sowie anderseits Menschen und Parteien definieren. In Abhängigkeit von der jeweiligen politischen Lage bzw. den jeweils agierenden Akteuren ist dieser Fragenkomplex inhaltlich weniger stabil als die Fragen der Dimension Grundlagen. Sie müssen einer ständigen Beobachtung und inhaltlichen Aktualisierung unterzogen werden.

Für die weitere inhaltliche Ausdifferenzierung der Subdimensionen Aktuelle Themen und Aktuelle Akteure in jeweils 10 Facetten legten wir die Arbeitsgebiete deutscher Bundesministerien zugrunde (vgl. Tabelle 1), da diese die für Deutschland relevanten Politikbereiche abdecken. So wird beispielsweise für die Facette Gesundheit sowohl ein Akteur (z. B. Minister für Gesundheit) als auch ein Thema (z. B. Gesundheitsfonds) erfragt. Insgesamt gibt es in Deutschland 14 Bundesministerien. Die Aufgabengebiete von vier Ministerien wurden aus drei Gründen nicht als eigene Facetten formuliert, da ihre Inhalte (1) Überschneidungen mit den Aufgabenbereichen anderer Ministerien beinhalten (Ministerium für Ernährung und Landwirtschaft vs. Ministerium für Gesundheit, hier wurde Gesundheit als Facette formuliert; Ministerium für Wirtschaft und Energie vs. Ministerium für Wirtschaftliche Zusammenarbeit, hier wurde Wirtschaft als Facette formuliert), oder sich (2) in allen anderen Facetten abbilden lassen (Justiz), oder (3) wir das Thema als weniger einschlägig für politisches Wissen ansahen (Verkehr).

Vorhandene Instrumente zur Erfassung des politischen Wissens

Politisches Wissen wird in der empirischen Forschung vor allem mit ad-hoc entwickelten Skalen geprüft. Diese haben in der Regel 6 bis 13, seltener bis zu 30 Wissensfragen. Es liegen US-amerikanische (Eveland, 2001; Eveland & Thomson, 2006; Hollander, 2014; Jennings, 1996) und deutsche Studien vor (Tenscher & Scherer, 2012; Westle, 2006; Westle, Rütter & Begemann, 2015). In der US-amerikanischen Forschung spielen die nationalen Surveys eine große Rolle: In der National Election Study (NES), die von der University of Michigan durchgeführt wird, werden jährlich ähnliche Items zum politischen Wissen erfasst. Es gibt dazu nicht nur eine lange Tradition von Methodenentwicklung und -diskussion (Mondak, 1999, 2001), sondern auch viele Sekundäranalysen, die auf diesem Datenmaterial beruhen (Benoit & Hansen, 2004; Kenski & Stroud, 2006). Basierend auf methodischen Überlegungen zum NES, schlugen Delli Carpini und Keeter (1993) einen Five Item Knowledge Score zur Erfassung des politischen Wissens vor, den sie auch validierten.

Mit der Verwendung einer kleinen Auswahl von Items erfassen manche dieser Studien bewusst spezifische Dimensionen politischen Wissens (z. B. Wissen zum Wahlsystem; Westle et al., 2015). Andere versuchen politisches Wissen in vollem Umfang unter Berücksichtigung verschiedener Dimensionen abzudecken (z. B. Delli Carpini & Keeter, 1993). In diesem letztgenannten Fall wird häufig nicht theoretisch hergeleitet, welche Dimensionen des politischen Wissens erfasst werden sollen. Vielmehr wird die Konsistenz der Skala ermittelt, ohne ihre Dimensionalität zu prüfen oder zu diskutieren. Eine Ausnahme ist der bereits genannte Five Item Knowledge Score von Delli Carpini und Keeter (1993), der auf der NES basiert. Die Autoren leiteten die Dimensionen (Menschen, Institutionen, Parteien) zunächst theoretisch her und verglichen dann eine uni- und eine mehrdimensionale Lösung anhand von Strukturgleichungsmodellen. Nur eine gezielte theoretische Herleitung und empirische Skalenkonstruktion, wie wir sie auch mit dem HIP anbieten möchten, erlaubt eine verlässliche Messung des politischen Wissens.

Im deutschsprachigen Raum liegen derzeit drei Instrumente zur Erfassung des Allgemeinwissens vor, die das politische Wissen als jeweils einen Untertest berücksichtigen. Der Differentielle Wissenstest (DWT) beinhaltet den Untertest Politik als einen von 11 Untertests (Fürntratt & Jäger, 1996). Er umfasst 20 Fragen zu Staat, Verfassung und politischen Akteuren in Deutschland, den USA sowie anderen europäischen und nichteuropäischen Ländern. Darüber hinaus werden Fragen zur jüngeren deutschen Geschichte gestellt. Im Hinblick auf unsere Dimensionierung politischen Wissens prüft der DWT vorrangig Grundlagenwissen.

Der Bochumer Wissenstest (BOWIT) liegt in zwei Parallelformen mit 11 Untertests vor (Hossiep & Schulte, 2007). Beide Untertests Gesellschaft und Politik erfassen mit je 14 Fragen sowohl Wissen zu Staatsformen, Organisationen und Strukturen als auch Wissen über nationale bzw. internationale sowie historische gesellschaftspolitische Entwicklungen und Ereignisse.

Ein weiterer Test ist das sogenannte Studenten-Pisa, welches im Auftrag des Magazins Der Spiegel konstruiert wurde (Trepte & Verbeet, 2010). Der Test hat vier Parallelformen mit je fünf Untertests. Der Untertest Politik umfasst neun Items. Aufgrund der vier Parallelformen liegen insgesamt 36 Items zur Erhebung politischen Wissens vor, die von den Testautoren in die Bereiche Verfassung, Wahlsystem, Terrorismus, Föderalismus, Politiker und Internationales eingeteilt wurden.

Die drei beschriebenen Tests folgen großenteils dem Multiple-Choice-Format. Bei DWT und Studenten-Pisa werden den Befragten vier ausformulierte Antwortsätze angeboten, von denen sie den richtigen auswählen müssen. Der BOWIT ermöglicht neben vier inhaltlichen Antwortmöglichkeiten auch die Antwort „Keine der zuvor genannten Alternativen trifft zu“. Einige Fragen des Studenten-Pisa (z. B. Fotos von Politikern mit der Frage nach ihrer Identität) haben ein offenes Antwortformat.

Eine Gemeinsamkeit der drei Messinstrumente ist ihre Konzeption als Test für das Allgemeinwissen. Die Daten des Studenten-Pisa wurden zunächst für eine Publikation des Nachrichtenmagazins Der Spiegel genutzt und später auch wissenschaftlich analysiert. Die Instrumente DWT und BOWIT hingegen adressieren eignungsdiagnostische Anwendungen. Während das Studenten-Pisa mit einer sehr großen, aber selektiven Stichprobe (N = 690 000) entwickelt und validiert wurde, liegen für DWT und BOWIT repräsentative Normdaten aus mehreren Studien vor. Letztere sind jedoch für die akademische Forschung nicht ohne Weiteres verwendbar, da es sich um urheberrechtlich geschützte Inventare handelt. Sie dürfen nur der Anzahl von Testpersonen vorgelegt werden, für die Testbögen käuflich erworben wurden. Darüber hinaus dürfen die Ergebnisse dieser Erhebungen nicht ohne Abstimmung mit dem Verlag bzw. Lizenzgeber publiziert werden.

Ergänzend zu den vorliegenden Tests möchten wir mit dem HIP ein Instrument vorschlagen, das theoretisch dimensioniert und inhaltsvalidiert eine Bandbreite des politischen Wissens prüft und für die akademische Forschung eingesetzt werden kann.

Korrelate politischen Wissens

Um die Anwendbarkeit und Nützlichkeit des HIP einschätzen zu können, werden nachfolgend drei zentrale Kriteriumsvariablen als Korrelate des politischen Wissens diskutiert (Hartig, Frey & Jude, 2012): politisches Interesse, politische Partizipation sowie politische Informationsnutzung. Politisches Interesse gilt als eine zentrale Voraussetzung politischen Wissens (Eveland & Thomson, 2006; McLeod & Perse, 1994; Tenscher & Scherer, 2012). Studien zeigen, dass politisch Interessierte sich umfassender über Politik informieren und deshalb ihr Wissen über Politik ständig erhöhen (Tenscher & Scherer, 2012). Darüber hinaus weisen empirische Ergebnisse darauf hin, dass politisch Interessierte sich politischen Inhalten aufmerksamer zuwenden, besser Auskunft geben können und in Gesprächen ihr Wissen erhöhen (Eveland, Hayes, Shah & Kwak, 2005).

Sowohl aus empirischer als auch aus demokratietheoretischer Perspektive wird politisches Wissen als Voraussetzung politischer Handlungsfähigkeit gesehen, die in verschiedenen Formen politischer Partizipation beobachtbar wird (Delli Carpini & Keeter, 1996). Wer über mehr politisches Wissen verfügt, kann mit anderen eher über Politik diskutieren, ist in der Lage eine kompetentere Wahlentscheidung zu treffen und wird sich beispielsweise eher an einer Bürgerinitiative beteiligen (Krampen, 1998; Vreese & Boomgaarden, 2006).

Die Häufigkeit und Intensität der politischen Informationsnutzung gilt als wichtige Determinante politischen Faktenwissens (Sotirovic & McLeod, 2004). Eine wesentliche Quelle politischer Informationen stellen Medienangebote dar. Nicht alle Medien(–angebote) vermitteln jedoch gleichermaßen politische Informationen. Zudem eignen sich nicht alle auf dieselbe Weise für den politischen Lernprozess. Bisherige Studien deuten darauf hin, dass mit Nachrichten in Printmedien eher politisches Wissen erworben werden kann als mit der Rezeption von Fernsehnachrichten (Druckman, 2005; Eveland & Scheufele, 2000; Tenscher & Scherer, 2012) oder der Nutzung von Online-Nachrichten (Cho et al., 2009; Dimitrova, Shehata, Strömbäck & Nord, 2014). Es wird argumentiert, dass für die Nutzung von Online-Nachrichten ein entsprechender Wissensstand vorhanden sein muss, um die Qualität und Inhalte der Online-Angebote unterscheiden und Relevantes auswählen zu können (Tewksbury & Althaus, 2000). Politische Informationen im Internet führen eher dann zu politischem Wissen, wenn ein gewisser Bildungsgrad vorliegt (Yang & Grabe, 2011). Neben Medienangeboten gilt das persönliche Gespräch als Quelle politischer Information. Zahlreiche Studien deuten darauf hin, dass politische Diskussionen mit Anderen einen bedeutsamen Einfluss auf das politische Wissen haben (Eveland & Hively, 2009; Eveland & Schmitt, 2015). Es wird angenommen, dass in den Gesprächen die Medienrezeption vor- und nachbereitet werden kann (Eveland, 2004). Offene Fragen können geklärt und ein Anwendungsbezug für die medial vermittelten Informationen hergestellt werden (Scheufele, 2002).

In der Tradition der Untersuchung des Informationsflusses von Medieninformationen verließ man sich viele Jahre auf die Selbsteinschätzung durch die Befragten, also eine Messung des subjektiven politischen Wissens (z. B. Weimann, 1994). In vielen Studien entschied man sich, das subjektive politische Wissen abzufragen, weil es sich ökonomisch erfassen lässt. Im Kern soll das subjektive Wissen also dasselbe Merkmal messen wie das objektiv abgefragte politische Wissen. Damit eignet sich das subjektive politische Wissen zur Einschätzung der konvergenten Konstruktvalidität. In den wenigen vorhandenen Studien zeigte sich ein mittlerer Zusammenhang (Hollander, 2014;Westle et al., 2015) zwischen dem subjektiven politischen Wissen und objektiven Wissensfragen.

Im Folgenden werden wir nun die Konstruktion des HIP auf Basis der theoretisch entwickelten Dimensionierung des politischen Wissens vorstellen. Außerdem berichten wir über dessen Validierung im Hinblick auf die soeben dargestellten Kriteriumsvariablen sowie das selbsteingeschätzte subjektive Wissen, das wir zur konvergenten Konstruktvalidierung vorschlagen.

Methode

Skalenkonstruktion des HIP

Eine erste Auswahl der Items wurde innerhalb eines Master-Seminars an der Universität Hohenheim entworfen und einem Pretest unterzogen. Im Anschluss überarbeiteten wir diese Items umfangreich und erweiterten sie auf einen Itempool von 178 Wissensfragen. Diese legten wir fünf Experten vor und führten basierend auf den Expertenurteilen eine Inhaltsvalidierung durch (Hartig et al., 2012). Die Auswahl der am besten geeigneten Items testeten und validierten wir daraufhin in einer Online-Befragung. Im Folgenden gehen wir detaillierter auf die einzelnen Schritte ein.

Inhaltsvalidierung durch Experten. Den Itempool mit 178 Fragen legten wir fünf Experten aus den Bereichen Testdiagnostik, Politikwissenschaft, Kommunikationswissenschaft und politische Bildung (Schulbildung und Bundeszentrale für politische Bildung) zur Inhaltsvalidierung vor. Sie bewerteten jedes Item mit 0 (irrelevant), 1 (eingeschränkt relevant) oder 2 (relevant). Zudem konnten sie für jedes Item Kommentare hinterlassen und wurden um eine allgemeine Einschätzung der abgedeckten Inhaltsbereiche gebeten (vgl. Hartig et al., 2012). Wir ordneten die Fragen innerhalb der Kategorien nach der summierten Relevanzbeurteilung (0 – 10 Punkte) und verwendeten nur Fragen mit mindestens 7 Punkten weiter (diese wurden also entweder von mindestens drei Experten als relevant sowie einem weiteren als eingeschränkt relevant oder von zwei Experten als relevant und drei Experten als eingeschränkt relevant angesehen). Anhand der spezifischen Rückmeldungen verbesserten wir Formulierungen der als eingeschränkt relevant eingeschätzten Items und entwickelten 18 neue Fragen.

Finaler Itempool. In die Validierungsstudie nahmen wir schließlich 85 Fragen auf. Davon sind 35 Fragen der Dimension Grundlagen zuzuordnen. Jeweils fünf Fragen beziehen sich auf die Facetten Föderalismus, Verfassung, Wahlsystem, Internationales (EU), Internationales (UN), Geschichte Deutschland und Geschichte International; 12 der 35 Fragen lehnen sich inhaltlich an Fragen aus DWT, BOWIT und Studenten-Pisa an.

Weitere 50 Fragen sind der Dimension Aktuelles zuzuordnen mit jeweils drei Fragen zu Aktuellen Themen sowie zwei Fragen zu Aktuellen Akteuren hinsichtlich der Facetten Außenpolitik, Innenpolitik, Finanzpolitik, Arbeitspolitik, Verteidigungspolitik, Familienpolitik, Umweltpolitik, Bildungspolitik, Wirtschaftspolitik und Gesundheitspolitik (vgl. Tabelle 1 für eine Übersicht). Bei der Auswahl der Items für den finalen Itempool achteten wir auf den inhaltlichen Facettenreichtum der Fragen.

Messtheoretische Grundlage. Das HIP soll sowohl überdauerndes Grundlagenwissen als auch Wissen über aktuelle Themen und Akteure erfassen. Dies hat zur Folge, dass zukünftig Fragen hinsichtlich des aktuellen Wissens ständig den jeweiligen politischen Ereignissen und Akteuren angepasst werden müssen. Um dieser Herausforderung zu begegnen, bietet sich als messtheoretische Grundlage die Item-Response-Theory an (IRT; siehe z. B. Bond & Fox, 2007; Embretson & Reise, 2000; Rost, 2004). Obwohl grundsätzlich alle IRT-Modelle den Zweck der Kompetenzmessung verfolgen, eignet sich das Rasch-Modell als ein Spezialfall der IRT wegen einer Besonderheit, seiner spezifischen Objektivität, ausgesprochen gut für unseren Zweck (Fischer, 1988). In einem Rasch-Modell sind sowohl die Schätzungen des Personenwissens unabhängig von den verwendeten Fragen als auch die Schätzungen der Fragenschwierigkeiten unabhängig von den befragten Personen. Deshalb können trotz der Verwendung verschiedener Fragen vergleichbare Personenwerte und trotz verschiedener Befragter vergleichbare Itemkennwerte berechnet werden. Die Schätzung des Wissens einer Person wird immer ungefähr den gleichen Wert erreichen, unabhängig davon, welche Auswahl an Fragen (z. B. 20 Fragen) ihr aus einem getesteten Fragenpool (z. B. mit 100 Fragen) gestellt werden. Dies ist insbesondere für die Dimension des aktuellen politischen Wissens interessant. Denn die Fragen können kontinuierlich den aktuellen politischen Gegebenheiten angepasst und die Personenwerte trotz zeitlichen Abstandes und aktualisierter Items miteinander verglichen werden. Methodisch wird dies durch das sogenannte Linking umgesetzt, bei dem – basierend auf einer Teilmenge von identischen Items – zwei ansonsten unterschiedliche Skalen auf einer gemeinsamen Metrik verglichen werden können. Dabei gibt es allerdings einige Besonderheiten zu beachten (für nähere Informationen z. B. Kolen & Brennan, 2014).

Die IRT bietet gegenüber der klassischen Testtheorie zudem den Vorteil, auch in Extrembereichen, also zwischen Personen mit sehr hohem und sehr niedrigem Wissen differenzieren zu können (vgl. Bond & Fox, 2007). Dafür ist eine Itemauswahl mit breiter Schwierigkeitsverteilung notwendig, die bei der klassischen Testtheorie in der Regel problematisch ist. Nicht zuletzt wegen dieser Vorteile hat die IRT vor allem bei der Messung von schulischen Kompetenzen weite Verbreitung gefunden und wird beispielsweise bei den PISA-Studien zum Vergleich internationaler Schulleistungen verwendet (Organisation for Economic Co-operation and Development [OECD], 2016).

Ausgehend von dem individuellen Antwortverhalten schätzen wir mit dem HIP basierend auf einem Rasch-Modell sowohl das Politikwissen, also die latente Eigenschaft der Personen, als auch die latente Schwierigkeit der einzelnen Fragen. Mit diesen zwei Parametern lässt sich die Wahrscheinlichkeit berechnen, mit der eine Person die richtige Antwort auf eine Frage gibt. Bezüglich des Politikwissens wird diese Wahrscheinlichkeit bestimmt durch die arithmetische Differenz zwischen (1) dem Politikwissen einer Person und (2) der Schwierigkeit einer Frage. Mathematisch wird das Rasch-Modell – und damit die Beziehung zwischen individuellem Politikwissen und der Wahrscheinlichkeit, eine bestimmte Frage richtig zu beantworten – folgendermaßen ausgedrückt (Details siehe Bond & Fox, 2007):

()

Hier wird der natürliche Logarithmus des Quotenverhältnisses zwischen der Wahrscheinlichkeit (pki), dass eine Person k eine Frage i richtig beantwortet, und der Wahrscheinlichkeit (1-pki), dass sie das nicht tut, definiert durch die Differenz zwischen dem Ausmaß des Wissens (θk) von Person k und der mit der Beantwortung einer bestimmten Frage i verbundenen Schwierigkeit (δi). Je größer also die positive Differenz zwischen dem Wissen der Person und der Schwierigkeit einer bestimmten Frage ist, desto wahrscheinlicher kann die Person die Frage beantworten. Diese mathematische Formalisierung ermöglicht es, sowohl Menschen bezüglich ihres Politikwissens als auch Fragen hinsichtlich ihrer Schwierigkeit anzuordnen.

Wir formulierten alle Fragen im Multiple-Choice-Format mit vier Antwortoptionen und kodierten die Antworten als 0 (falsch oder nicht beantwortet) oder 1 (richtig). Im Mittel wurden 48 Fragen richtig beantwortet (SD = 14, Range = 12 bis 80). In der IRT-Analyse wurde der Skalenmittelwert auf 0 fixiert, das heißt der Mittelwert über die Schwierigkeit aller Items beträgt 0. Die Personenfähigkeit wurde mit dem A Posteriori-Erwartungswert (expected a posteriori [EAP] measure) geschätzt (Wu, Adams, Wilson & Haldane, 2007). Der Mittelwert der Personenfähigkeit der Gesamtskala lag bei M = 0.37 (SD = 0.85; Range von -1.85 bis 2.71), der Dimension Grundlagen bei M = 0.19 (SD = 0.71; Range von -1.52 bis 2.29), der Dimension Aktuelles bei M = 0.50 (SD = 0.91; Range von -2.16 bis 2.68). Diese leichte Verschiebung des Mittelwerts in den positiven Bereich impliziert, dass die Schwierigkeit der Items etwas zu niedrig war bzw. zukünftig einzelne sehr leichte Items durch sehr schwierige Items ersetzt werden sollten. Jedoch lässt sich insgesamt eine zufriedenstellende Verteilung der Itemschwierigkeiten hinsichtlich der Personenfähigkeiten feststellen (vgl. ESM 2).

Ablauf und Stichprobe der Validierungsstudie

Die quotierte Stichprobe wurde durch das Marktforschungsinstitut FGM GmbH unter Rückgriff auf ein Online-Panel des Anbieters Respondi akquiriert. Für die Quotierung nach Alter, Geschlecht (kreuzquotiert), Bundesland und Bildung legten wir die soziodemographischen Charakteristiken der deutschen Internetnutzerinnen und -nutzer zwischen 14 und 69 Jahren zugrunde. Wir nahmen für die erhobenen Daten verschiedene Qualitätskontrollen vor.1 Die finale Stichprobe für die Skalenanalyse bestand aus N = 1 082 Personen (n = 552 weiblich; Durchschnittsalter M = 38 Jahre, SD = 15). Die Verteilung der soziodemographischen Merkmale ist großteils zufriedenstellend vergleichbar mit den deutschen Internetnutzerinnen und -nutzern. Überrepräsentiert sind junge Personen ohne Schulabschluss (vgl. Tabelle 2).

Tabelle 2 Soziodemographie der Stichprobe im Vergleich zu den Internetnutzerinnen und Internetnutzer der deutschen Bevölkerung von 14 bis 69 Jahren (in Prozent)

Messinstrumente für die Validierung des HIP

Die soziodemographischen Merkmale (Geschlecht, Alter, Bildung, Bundesland) für die Quotierung, politisches Interesse, politische Partizipation sowie subjektives Wissen über Politik erfassten wir vor den Wissensfragen; die politische Informationsnutzung sowie Schulabschlussnote und Tätigkeit danach.2

Politisches Interesse. Das allgemeine politische Interesse erhoben wir anhand der Politisches Interesse Kurzskala (Otto & Bacherle, 2011). Wir erfragten auf einer Likert-Skala von 1 (stimme gar nicht zu) bis 5 (stimme voll und ganz zu) die Zustimmung zu fünf Statements (z. B. „Für mich ist Politik ein spannendes Thema“, „Politische Vorgänge verfolge ich mit großer Neugier). Im Mittel lag das politische Interesse bei 3.0 (SD = 1.1; Cronbachs α = .95).

Politische Partizipation. Die Items zur politischen Partizipation entwickelten wir in Anlehnung an verschiedene bestehende Skalen (Böhm-Kasper, 2006; Gaiser & Rijke, 2008; Quintelier & Vissers, 2008; Tenscher & Scherer, 2012). Die Befragten sollten für 13 Möglichkeiten der politischen Partizipation (z. B. Teilnahme an einer Unterschriftenaktion, politische Meinungsäußerung in Medien) angeben, wie häufig sie an diesen Aktivitäten „bereits teilgenommen“ haben (nie, selten, ab und zu, oft). Die letzten drei Ausprägungen wurden kaum gewählt und wiesen eine geringe Varianz auf. Daher rekodierten wir die Antworten dichotom als 0 (nie) oder 1 (selten, ab und zu, oft) und bildeten darauf basierend einen Summenscore (M = 5.0; SD = 3.7; Cronbachs α = .89).

Politische Informationsnutzung. Wir fragten die Teilnehmerinnen und Teilnehmer, wie häufig (nie, seltener als einmal im Monat, einmal im Monat, einmal pro Woche, mehrmals pro Woche, täglich) sie sich über sechs verschiedene Kanäle „über politische Themen informieren“ (vgl. z. B. Eveland & Hutchens, 2013; Scheufele, 2002). Die Antworten kodierten wir von 1 (nie) bis 6 (täglich): private Fernsehsender (Mdn = 3), öffentlich-rechtliche Fernsehsender (Mdn = 3), Tageszeitungen (Mdn = 4), Zeitschriften (Mdn = 2), Internet (Mdn = 5), Gespräche mit anderen (Mdn = 4).

Subjektives Wissen über Politik. Das subjektive Wissen erfragten wir mittels Zustimmung zu vier Items auf einer Likert-Skala von 1 (stimme gar nicht zu) bis 5 (stimme voll und ganz zu; z. B. „Wichtige politische Fragen kann ich gut verstehen und einschätzen“, „Ich weiß viel über Politik“). Diese Items wurden angelehnt an verschiedene Erhebungsinstrumente, die das subjektive Wissen einschließen (vgl. Beierlein, Kemper, Kovaleva & Rammstedt, 2012; Schneider, Otto, Alings & Schmitt, 2014; Tedesco, 2011). Im Mittel lag das subjektive Wissen bei M = 2.9 (SD = 1.0; Cronbachs α = .93).

Datenanalyse

Da wir bei der Analyse des HIP hohen Wert auf die einfache Interpretierbarkeit der Personenfähigkeit und Itemschwierigkeit legten, entschieden wir uns für das Rasch-Modell (vgl. Bond & Fox, 2007). Da wir außerdem die Zweidimensionalität des Messinstruments („Grundlagen“ vs. „Aktuelles“) überprüfen wollten, war für unseren Modelltest das Multidimensional-Random-Coefficients-Multinomial-Logit (MRCML)-Modell von Adams, Wilson und Wang (1997, vgl. auch Kaiser & Frick, 2002) als mehrdimensionale Erweiterung der Rasch-Modellfamilie indiziert. Hier wird wie im eindimensionalen Rasch-Modell die Wahrscheinlichkeit, eine Frage richtig zu beantworten, verstanden als additive Funktion aus der Personenfähigkeit (Θ) und der Schwierigkeit der Frage (δ). Jedoch wird die Personenfähigkeit als Vektor Θ = (Θ1, Θ2, …, ΘD) der Länge D geschätzt, wobei D der Anzahl der Dimensionen entspricht. Es werden identische Diskriminationen vorausgesetzt.

Bei der Überprüfung der Dimensionalität verglichen wir den Modellfit des ein- und zweidimensionalen Modells miteinander. Der Modellfit wird über eine Log-Likelihood-Statistik bewertet (G2-Statistik oder auch Likelihood-Quotienten-Statistik genannt), die näherungsweise χ2-verteilt ist (vgl. Adams et al., 1997). Die ein- und zweidimensionalen Modelle werden also mit Hilfe der Differenz ihrer Passung zu den Daten (ΔG2) verglichen. Für die IRT-Analysen nutzten wir die Software Conquest (build: Jan 11 2005; Wu et al., 2007), für die übrigen Analysen die Software R Version 3.2.1 (R Core Team, 2015; Package psych, Revelle, 2015).

Ergebnisse der Skalenkonstruktion des HIP

Dimensionalität und Konstruktvalidität

Eine Prüfung des Modellfits der Items eines eindimensionalen Rasch-Modells ergab zufriedenstellende Weighted-Mean-Square (WMNSQ)-Infit-Werte (vgl. Bond & Fox, 2007) für alle 85 Items (0.82 ≤ Infit-Werte ≤ 1.22, davon 1 Item > 1.20). Für das zweidimensionale Modell ergaben sich für die Dimension Grundlagen mit 35 Items gute WMNSQ-Infit-Werte (0.84 ≤ Infit-Werte ≤ 1.17) und für die Dimension Aktuelles mit 50 Items zufriedenstellende WMNSQ-Infit-Werte (0.82 ≤ Infit-Werte ≤ 1.24, davon 2 Items > 1.20).

Wir testeten die von uns postulierte zweidimensionale Wissensstruktur gegen eine eindimensionale Wissensstruktur. Das zweidimensionale Modell passte signifikant besser zu den Daten als das eindimensionale Modell (∆G[2] = 4 111, p ≤ .001). Die Korrelation der beiden Dimensionen betrug rp = .82.

Reliabilität

Die Expected-A-Posteriori/Plausible-Values (EAP/PV)-Reliabilität des eindimensionalen Rasch-Modells für alle 85 Items betrug .921 (Separationsreliabilität .919). Für das zweidimensionale Modell ergab sich für die Dimension Grundlagen eine EAP/PV-Reliabilität von .909 (Separationsreliabilität .800) und für die Dimension Aktuelles eine EAP/PV-Reliabilität von .915 (Separationsreliabilität .885).

Kriteriumsvalidität und konvergente Konstruktvalidität

Die Zusammenhänge zwischen dem politischen Wissen gemessen durch das HIP und den Variablen der Kriteriumsvalidierung ermittelten wir anhand von Spearmans Rangkorrelationen (rs) sowohl für ordinalskalierte als auch intervallskalierte Variablen, da bei den intervallskalierten Variablen keine Normalverteilung gegeben war.

Zwischen dem politischen Interesse und dem politischen Wissen (Gesamtskala) bestand ein positiver Zusammenhang mittlerer Stärke (rs = .41, rcorrected = .44, p < .001). Auch ging ein höheres politisches Wissen mit einer stärker ausgeprägten politischen Partizipation einher (rs = .34, rcorrected = .38, p < .001).

Die Zusammenhänge der politikbezogenen Mediennutzung mit dem politischen Wissen fielen für die erfragten Medienkanäle unterschiedlich aus. Mit der Häufigkeit der Nutzung privaten Fernsehens bestand ein schwach negativer Zusammenhang (rs = -.08, rcorrected = -.09, p = .007), ein positiver Zusammenhang mittlerer Stärke mit der Nutzungshäufigkeit öffentlich-rechtlichen Fernsehens (rs = .38, rcorrected = .41, p < .001). Auch eine häufigere Nutzung von Tageszeitungen (rs = .25, rcorrected = .27, p < .001), Zeitschriften (rs = .10, rcorrected = .11, p = .001) und Internet (rs = .32, rcorrected = .35, p < .001) ging mit höherem politischen Wissen einher. Bei Betrachtung der Personenfähigkeiten für die einzelnen Dimensionen des HIP unterschied sich erwartungsgemäß die Stärke des Zusammenhangs zwischen der Mediennutzung und den beiden Wissensdimensionen. Die Nutzung von öffentlich-rechtlichem Fernsehen/Tageszeitungen/Internet hing jeweils etwas stärker mit der Dimension Aktuelles zusammen (rs = .39/.26/.32, rcorrected = .43/.29/.35, ps < .001) als mit der Dimension Grundlagen (rs = .32/.22/.27, rcorrected = .35/.24/.30, ps < .008; tsDifferenz ≥ 2.88, ps < .01). Darüber hinaus bestand ein Zusammenhang zwischen der Häufigkeit von Gesprächen über Politik und dem politischen Wissen (rs = .24, rcorrected = .26, p = .001).

Als Indikator für eine konvergente Konstruktvalidität hing das subjektive Wissen über Politik mittel bis stark mit der dem politischen Wissen (Gesamtskala) zusammen (rs = .45, rcorrected = .49, p < .001).

Politisches Wissen differenziert nach soziodemographischen Merkmalen

In Tabelle 3 geben wir einen Überblick über die Ausprägung des politischen Wissens bei Männern und Frauen, Personen verschiedener Altersgruppen, mit verschiedenen Bildungsabschlüssen sowie Tätigkeiten. Die formale Bildung der Befragten stand in Zusammenhang mit dem politischen Wissen. Eine bessere Schulabschlussnote ging mit höherem politischem Wissen einher, jedoch war der Zusammenhang schwach ausgeprägt (rs = -.19, rcorrected = -.21, p < .001; die Korrelation ist erwartungsgemäß negativ, da eine gute Note einer kleinen Zahl entspricht). Die Korrelation zwischen dem Bildungsabschluss und dem politischen Wissen betrug rs = .33 (rcorrected = .36, p < .001). Je höher der Bildungsabschluss, desto höher das politische Wissen. Das Alter der Befragten korrelierte zu rp = .28 (rcorrected = .30, p < .001) mit dem politischen Wissen.

Tabelle 3 Ausprägung politischen Wissens nach Geschlecht, Alter, Bildungsabschluss und Tätigkeit

Diskussion

Mit dem Hohenheimer Inventar zum Politikwissen versuchen wir eine Forschungslücke zu schließen: Bisherige Instrumente sind für wissenschaftliche Forschung entweder nicht verfügbar, wurden nicht ausreichend validiert oder vernachlässigen relevante Inhaltsbereiche. Das HIP bietet nun ein umfassendes Instrument, mit dem die zwei theoretisch hergeleiteten Dimensionen Grundlagen und Aktuelles geprüft werden können. Sie beziehen sich auf strukturelles und historisches politisches Wissen auf der einen Seite und auf aktuelle Fragen zu Akteuren und Themen der Politik auf der anderen Seite. Die Ergebnisse klassischer Wissensskalen sind von verschiedenen Faktoren abhängig, wie der Gruppe der Befragten und der Forschenden, Ort und Zeit der Befragung, aber vor allem von dem Befragungsinstrument selbst. Ergebnisse aus verschiedenen Studien sind deshalb in der Regel schwer vergleichbar. Ein Vorteil des für das HIP zugrunde gelegten Rasch-Modells ist dessen sogenannte Stichprobenunabhängigkeit, die auch spezifische Objektivität genannt wird. Die Schätzungen der Personenwerte innerhalb eines Rasch-Modells sind demnach unabhängig von den verwendeten Fragen und die Schätzungen der Fragenschwierigkeiten unabhängig von den befragten Personen. Trotz der Verwendung verschiedener Fragen (aus einem getesteten Fragenpool) können dadurch vergleichbare Personenwerte berechnet werden. Solange eine Teilmenge an Fragen identisch ist, können Ergebnisse aus Befragungen, die mehrere Jahre auseinanderliegen oder aus verschiedenen Fragebögen stammen, verglichen werden (für einen Vergleich verschiedener Linkingansätze und deren Vor- und Nachteile vgl. Davier & Davier, 2007). Insbesondere für die Dimension Aktuelles ist dies relevant, denn hier wird eine Anpassung an aktuelle politische Gegebenheiten notwendig sein.

Sowohl die Gesamtskala des HIP als auch die beiden Dimensionen weisen eine zufriedenstellende Reliabilität auf. Auch ergaben sich zufriedenstellende Infit-Werte der Items sowie eine gute Verteilung der Itemschwierigkeiten hinsichtlich der Personenfähigkeiten. Da eine leichte Verschiebung des Mittelwerts in den positiven Bereich vorliegt, sollten zukünftig einzelne sehr leichte Items durch sehr schwierige Items ersetzt werden.

Für die Validierung des HIP können wir uns auf fundierte Forschung insbesondere aus dem US-amerikanischen und deutschen Raum beziehen (Delli Carpini & Keeter, 1996; Eveland & Schmitt, 2015; Oberle, 2012; Schmitt, 2014; Vetter & Maier, 2005). Viele verschiedene Disziplinen der Psychologie (z. B. Politische Psychologie, Pädagogische Psychologie, Medienpsychologie) und anderer Fächer (z. B. Soziologie, Politologie) befassen sich mit der Theorie und Messung des politischen Wissens (Mondak, 1999; Vetter & Maier, 2005; Weißeno, 2012; Westle, 2006, 2015). Weiterhin wurden Ergebnisse dazu hervorgebracht, welche Korrelate im Hinblick auf das politische Wissen eine besonders große Rolle spielen (Delli Carpini & Keeter, 1989; Eveland & Hively, 2008) und als Kriteriumsvariablen für die Validierung einer Skala bedeutsam sind (Eveland, Marton & Seo, 2004; Hefner, 2012; Maier, 2000; Oberle, 2012; Vetter & Maier, 2005; Westle, 2012). Wir entschieden uns auf dieser Basis für die Variablen politisches Interesse, politische Partizipation, politikbezogene Mediennutzung und Häufigkeit von Gesprächen über Politik. Die Validierung zeigte für alle Variablen Zusammenhänge mittlerer Stärke, die auch in den benannten Vorarbeiten gefunden wurden.

Ein besonders erwähnenswertes Ergebnis unserer Studie erscheint uns der Zusammenhang zwischen dem politischen Wissen (HIP) und der Nutzungshäufigkeit von öffentlich-rechtlichem Fernsehen sowie von Tageszeitungen. Es liegen bislang nur wenige Studien vor, die diese spezifischen Zusammenhänge mit politischem Wissen messen (z. B. Schmitt, 2014, für den Zusammenhang von politischem Wissen und den Online-Angeboten öffentlich-rechtlicher Rundfunksender). Neben einer Bestätigung der Validität des HIP, trägt dieses Ergebnis auch zur Forschung im Zusammenhang von Mediennutzung und politischem Wissens bei.

Limitationen

Die Validierungsstudie wurde mit einem online rekrutierten Quoten-Sample durchgeführt. Diese Datenbasis bringt zwei Probleme mit sich. Zum einen können die Daten nicht als repräsentativ für die deutsche Bevölkerung angesehen werden. Für die Skala können wir also anhand dieser Stichprobe keine Normierung vorlegen. Diese sollte in einem nächsten Schritt anhand einer bevölkerungsrepräsentativen Zufallsstichprobe erfolgen. Zum anderen basieren die Ergebnisse auf einer Online-Stichprobe mit allen damit verbundenen Problemen. Beispielsweise hatten Personen, die das Internet nicht nutzen, keine Möglichkeit an der Befragung teilzunehmen. Darüber hinaus ist die Bearbeitungszeit nicht verlässlich messbar, da die Befragten die Bearbeitung möglicherweise unterbrochen haben. Um die Bearbeitungszeit verlässlich schätzen zu können, soll im nächsten Schritt eine Laborstudie durchgeführt werden.

Ausblick

Mit dem hier vorgelegten Instrument haben wir eine Konstruktvalidierung im Sinne der Annahmen des Rasch-Modells, eine konvergente Konstruktvalidierung mit dem subjektiven Wissen über Politik sowie eine Kriteriumsvalidierung anhand dreier relevanter Korrelate (politisches Interesse, politische Partizipation, politische Informationsnutzung) durchgeführt. Im nächsten Schritt erscheint es nun erforderlich, eine weitere konvergente Konstruktvalidierung vorzunehmen. Besonders liegt es nahe, das HIP mit den drei anderen oben genannten Tests zum politischen Wissen in Beziehung zu setzen. Gleichzeitig soll in zukünftigen Projekten die divergente Konstruktvalidierung erfolgen. Wir möchten prüfen, inwiefern die Ergebnisse des HIP beispielsweise von Intelligenz oder Konzentration abgrenzbar sind.

In der Diskussion um die Messung von Wissen wird die Fokussierung auf Faktenwissen häufig als ein vergleichsweise reduzierter Weg der Erfassung des Wissens angesehen. Wissen sei nicht allein über Fakten, sondern auch über die Vernetzung und Verknüpfung dieser Fakten zu erfassen (Eveland et al., 2004). Diese Haltung ist berechtigt, denn die entscheidenden externen Kriterien des politischen Wissens, wie beispielsweise politische Partizipation, leben von einer Vernetzung und Anwendung des Wissens. Wir möchten dafür plädieren, Faktenwissen als eine notwendige Grundlage des politischen Wissens zu sehen. Nur auf der Basis von Faktenwissen kann auch seine Vernetzung erfolgen. Diese Annahme kann in zukünftiger Forschung überprüft werden, indem der Zusammenhang des HIP mit einer Messung der Vernetzung (z. B. der sogenannten „knowledge structure density“) ermittelt wird (Eveland & Schmitt, 2015). Das HIP ist mit 85 Items ein umfangreiches Inventar. Relevant für die zukünftige Forschung erscheint uns außerdem die Entwicklung einer Kurzskala für Forschungsprojekte und Studien, die politisches Wissen nur als einen Aspekt unter anderen untersuchen. Auch eine empirisch konstruierte und validierte Kurzskala, die sich nur auf das Grundlagenwissen bezieht, kann je nach Fragestellung hilfreich sein. Eine solche Kurzskala liegt derzeit noch nicht vor, wird jedoch von uns entwickelt (vgl. www.hip-online.org).

Im Zusammenhang mit der spezifischen Objektivität ist es zudem möglich, adaptives Testen anzuwenden (Frey, 2012). Dazu werden aus einem Fragen-Pool sukzessive und computerbasiert diejenigen Fragen ausgewählt, die dem vorläufig geschätzten Personenwert am nächsten kommen. Das heißt, einer Person, die schwierige Fragen beantworten kann, werden im weiteren Verlauf auch nur noch entsprechend schwere Fragen gestellt. Somit verzichtet ein adaptiver Test darauf, diese Person mit zu leichten Fragen zu langweilen. Auf diese Weise kann man entweder die Testgenauigkeit erhöhen, weil man mehr Fragen stellt, die dem Wissensstand der Person entsprechen, oder man kann die Testlänge verkürzen, indem auf Fragen verzichtet wird.

Mit dem HIP schlagen wir eine Skala zur Erfassung des politischen Wissens vor, die für eine große Bandbreite von Anwendungs- und Forschungskontexten verwendbar ist. Wir knüpfen damit an eine internationale Methodendiskussion an, in der immer wieder gefordert wird, Skalen sorgsam zu konstruieren und zu validieren und dabei sowohl dem nationalen Kontext als auch dem Facettenreichtum des Konstrukts politisches Wissen gerecht zu werden (z. B. Mondak, 2001). Wir möchten mit dem HIP ein gesellschaftlich hochrelevantes und von vielen verschiedenen Disziplinen geteiltes Forschungsthema – nämlich das Konstrukt des politischen Wissens mit seinen Determinanten und Konsequenzen – bereichern.

Elektronische Supplemente (ESM)

Die elektronischen Supplemente sind mit der Online-Version dieses Artikels verfügbar unter http://dx-doi.org/10.1026/0012-1924/a000180

Wir bedanken uns bei den Hohenheimer Studierenden Kristina Brändle, Christina Debbelt, Mona Fischer, Bozhidara Hristova, Sarah Junginger, Carmen Prochnow, Robin Renz, Anja Schmitt und Frank Sesselmann und den Experten Tobias Bevc, Rüdiger Hossiep, Jonas Rau, Frank M. Schneider und Walter Staufer für ihre Unterstützung bei der Erstellung und Auswahl der Items. Wir bedanken uns bei den Herausgebenden und zwei anonymen Begutachtenden für außerordentlich wertvolle Hinweise.

Literatur

  • Ackerman, P. L. (2008). Knowledge and cognitive aging. In F. I. M. CraikT. A. SalthouseEds., The handbook of aging and cognition (3rd ed., pp. 445 – 489). New York, NY: Psychology Press. First citation in articleGoogle Scholar

  • Adams, R. J., Wilson, M. & Wang, W. (1997). The multidimensional random coefficients multinomial logit model. Applied Psychological Measurement, 21, 1 – 23. doi: 10.1177/0146621697211001 First citation in articleCrossrefGoogle Scholar

  • Beierlein, C., Kemper, C. J., Kovaleva, A. & Rammstedt, B. (2012). Ein Messinstrument zur Erfassung politischer Kompetenz- und Einflussüberzeugungen. Verfügbar unter http://www.gesis.org/uploads/media/PEKS_Workingpaper.pdf First citation in articleGoogle Scholar

  • Benoit, W. L. & Hansen, G. J. (2004). Presidential debate watching, issue knowledge, character evaluation, and vote choice. Human Communication Research, 30, 121 – 144. doi: 10.1111/j.1468-2958.2004.tb00727.x First citation in articleCrossrefGoogle Scholar

  • Berkowitz, L. (Ed.). (1989). Advances in experimental psychology. San Diego, CA: Academic Press. First citation in articleGoogle Scholar

  • Böhm-Kasper, O. (2006). Schulische und politische Partizipation von Jugendlichen. Welchen Einfluss haben Schulen, Familie und Gleichaltrige auf die politische Teilhabe Heranwachsender? Diskurs Kindheits- und Jugendforschung, 3, 353 – 368. First citation in articleGoogle Scholar

  • Bond, T. G. & Fox, C. F. (2007). Applying the Rasch model: Fundamental measurement in the human sciences (2nd ed.). New York, NY: Routledge. First citation in articleGoogle Scholar

  • Cho, J., Shah, D. V., McLeod, J. M., McLeod, D. M., Scholl, R. M. & Gotlieb, M. R. (2009). Campaigns, reflection, and deliberation: Advancing an O-S-R-O-R model of communication effects. Communication Theory, 19, 66 – 88. doi: 10.1111/j.1468-2885.2008.01333.x First citation in articleCrossrefGoogle Scholar

  • Davier, M. v. & Davier, A. A. v. (2007). A unified approach to IRT scale linking and scale transformations. Methodology, 3, 115 – 124. doi: 10.1027/1614-2241.3.3.115 First citation in articleLinkGoogle Scholar

  • Delli Carpini, M. X. & Keeter, S. (1993). Measuring political knowledge: Putting first things first. American Journal of Political Sciences, 37, 1179 – 1206. doi: 10.2307/2111549 First citation in articleCrossrefGoogle Scholar

  • Delli Carpini, M. X. & Keeter, S. (1996). What Americans know about politics and why it matters. New Haven, CT: Yale University Press. First citation in articleGoogle Scholar

  • Dimitrova, D. V., Shehata, A., Strömbäck, J. & Nord, L. W. (2014). The effects of digital media on political knowledge and participation in election campaigns: Evidence from panel data. Communication Research, 41, 95 – 118. doi: 10.1177/0093650211426004 First citation in articleCrossrefGoogle Scholar

  • Druckman, J. N. (2005). Media matters: How newspapers and television news cover campaigns and influence voters. Political Communication, 22, 463 – 481. doi: 10.1080/10584600500311394 First citation in articleCrossrefGoogle Scholar

  • Embretson, S. E. & Reise, S. P. (2000). Item response theory for psychologists. Mahwah, NJ: Lawrence Erlbaum. First citation in articleGoogle Scholar

  • Eveland, W. P. Jr. (2001). The cognitive mediation model of learning from the news: Evidence from nonelection, off-year election and presidential election contexts. Communication Research, 28, 571 – 601. doi: 10.1177/009365001028005001 First citation in articleCrossrefGoogle Scholar

  • Eveland, W. P. Jr. (2004). The effect of political discussion in producing informed citizens: The role of information, motivation and elaboration. Political Communication, 21, 177 – 193. doi: 10.1080/10584600490443877 First citation in articleCrossrefGoogle Scholar

  • Eveland, W. P. Jr., Hayes, A. F., Shah, D. V. & Kwak, N. (2005). Understanding the relationship between communication and political knowledge: A model comparison approach using panel data. Political Communication, 22, 423 – 446. doi: 10.1080/10584600500311345 First citation in articleCrossrefGoogle Scholar

  • Eveland, W. P. Jr. & Hively, M. H. (2008). Political knowledge. In W. W. DonsbachEd., The International Encyclopedia of Communication (pp. 3715 – 3719). Malden, MA: Blackwell. First citation in articleGoogle Scholar

  • Eveland, W. P. Jr. & Hively, H. M. (2009). Political discussion frequency, network size, and “heterogeneity” of discussion as predictors of political knowledge and participation. Journal of Communication, 59, 205 – 224. doi: 10.1111/j.1460-2466.2009.01412.x First citation in articleCrossrefGoogle Scholar

  • Eveland, W. P. Jr. & Hutchens, M. J. (2013). The role of conversation in developing accurate political perceptions: A multilevel social network approach. Human Communication Research, 39, 422 – 444. doi: 10.1111/hcre.12011 First citation in articleCrossrefGoogle Scholar

  • Eveland, W. P. Jr., Marton, K. & Seo, M. (2004). Moving beyond “just the facts”: The influence of online news on the content and structure of public affairs knowledge. Communication Research, 31, 82 – 108. doi: 10.1177/0093650203260203 First citation in articleCrossrefGoogle Scholar

  • Eveland, W. P. Jr. & Scheufele, D. A. (2000). Connecting news media use with gaps in knowledge and participation. Political Communication, 17, 215 – 237. doi: 10.1080/105846000414250 First citation in articleCrossrefGoogle Scholar

  • Eveland, W. P. Jr. & Schmitt, J. B. (2015). Communication content and knowledge content matters: Integrating manipulation and observation in studying news and discussion learning effects. Journal of Communication, 65, 170 – 191. doi: 10.1111/jcom.12138 First citation in articleCrossrefGoogle Scholar

  • Eveland, W. P. Jr. & Thomson, T. (2006). Is it talking, thinking or both? A lagged dependent variable model of discussion effects on political knowledge. Journal of Communication, 56, 523 – 542. doi: 10.1111/j.1460-2466.2006.00299.x First citation in articleCrossrefGoogle Scholar

  • Fischer, G. H. (1988). Spezifische Objektivität. In K. D. KubingerHrsg., Moderne Testtheorie (S. 87  – 111). Weinheim: Beltz. First citation in articleGoogle Scholar

  • Frey, A. (2012). Adaptives Testen. In H. MoosbruggerA. KelavaHrsg., Testtheorie und Fragebogenkonstruktion (2. Auflage, S. 275 – 293). Berlin, Heidelberg: Springer. First citation in articleGoogle Scholar

  • Fürntratt, E. & Jäger, A. O. (1996). Differentieller Wissenstest. Göttingen: Hogrefe. First citation in articleGoogle Scholar

  • Gaiser, W. & Rijke, J. de (2008). Political participation of youth. Young Germans in the European context. Asia Europe Journal, 5, 541 – 555. doi: 10.1007/s10308-007-0147-x First citation in articleCrossrefGoogle Scholar

  • Galston, W. A. (2001). Political knowledge, political engagement, and civic education. Annual Review of Political Science, 4, 217 – 234. doi: 10.1146/annurev.polisci.4.1.217 First citation in articleCrossrefGoogle Scholar

  • Gesellschaft für integrierte Kommunikationsforschung. (2014). b4p – best for planning. Zugriff am 26. 09. 2014 unter http://www.b4p.de/ First citation in articleGoogle Scholar

  • Hartig, J., Frey, A. & Jude, N. (2012). Validität. In H. MoosbruggerA. KelavaHrsg., Testtheorie und Fragebogenkonstruktion (2. Auflage, S. 143 – 171). Berlin, Heidelberg: Springer. First citation in articleGoogle Scholar

  • Hefner, D. (2012). Alltagsgespräche über Nachrichten. Medienrezeption, politische Expertise und die wissensbildende Qualität von Anschlusskommunikation. Rezeptionsforschung: Vol. 24. Baden Baden: Nomos Verlagsgesellschaft. First citation in articleGoogle Scholar

  • Hollander, B. Y. (2014). The role of media use in the recall versus recognition of political knowledge. Journal of Broadcasting & Electronic Media, 58, 97 – 113. doi: 10.1080/08838151.2013.875019 First citation in articleCrossrefGoogle Scholar

  • Hossiep, R. & Schulte, M. (2007). BOWIT – Bochumer Wissenstest. Göttingen: Hogrefe. First citation in articleGoogle Scholar

  • Jennings, M. K. (1996). Political knowledge over time and across generations. Public Opinion Quarterly, 60, 228 – 252. doi: 10.1086/297749 First citation in articleCrossrefGoogle Scholar

  • Kaiser, F. G. & Frick, J. (2002). Entwicklung eines Messinstrumentes zur Erfassung von Umweltwissen auf der Basis des MRCML-Modells. Diagnostica, 48, 181 – 189. doi: 10.1026//0012-1924.48.4.181 First citation in articleLinkGoogle Scholar

  • Kenski, K. & Stroud, N. J. (2006). Connection between internet use and political efficacy, knowledge and participation. Journal of Broadcasting & Electronic Media, 50, 173 – 192. doi:10.1207/s15506878jobem5002_1 First citation in articleCrossrefGoogle Scholar

  • Kolen, M. J. & Brennan, R. L. (2014). Test equating, scaling, and linking: Methods and practices (3rd ed.). New York, NY: Springer. First citation in articleCrossrefGoogle Scholar

  • Krampen, G. (1998). Vorhersage politischer Partizipation und Entwicklung politischer Handlungsorientierungen im Übergang vom Jugend- zum frühen Erwachsenenalter. Zeitschrift für Entwicklungspsychologie und Pädagogische Psychologie, 30, 80 – 88. First citation in articleGoogle Scholar

  • Krampen, G. (2000). Transition of adolescent political action orientations to voting behavior in early adulthood in view of a social-cognitive action theory model of personality. Political Psychology, 21, 277 – 297. doi: 10.1111/0162-895X.00188 First citation in articleCrossrefGoogle Scholar

  • Lenart, S. (1994). Shaping political attitudes. The impact of interpersonal communication and mass media. Thousand Oaks, CA: Sage. First citation in articleGoogle Scholar

  • Loy, L. S., Masur, P. K., Schmitt, J. B., Mothes, C. & Trepte, S. (June, 2016). Politically informed in a complex world? Time affluence, informational self-efficacy, and need for cognition as predictors of political media use and political knowledge. Präsentation bei der 65. Jahrestagung der International Communication Association, Fukuoka (Japan). First citation in articleGoogle Scholar

  • Luskin, R. C. (1990). Explaining political sophistication. Political Behavior, 12, 331 – 361. doi: 10.1007/BF00992793 First citation in articleCrossrefGoogle Scholar

  • Maier, J. (2009). Was die Bürger über Politik (nicht) wissen – und was die Massenmedien damit zu tun haben – ein Forschungsüberblick. In F. MarcinkowskiB. PfetschHrsg., Politik in der Mediendemokratie (S. 393  – 414). Wiesbaden: VS Verlag für Sozialwissenschaften. First citation in articleGoogle Scholar

  • McLeod, D. M. & Perse, E. M. (1994). Direct and indirect effects of socioeconomic status on public affairs knowledge. Journalism Quarterly, 71, 433 – 442. doi: 10.1177/107769909407100216 First citation in articleCrossrefGoogle Scholar

  • Mondak, J. J. (1999). Reconsidering the measurement of political knowledge. Political Analysis, 8, 57 – 82. First citation in articleCrossrefGoogle Scholar

  • Mondak, J. J. (2001). Developing valid knowledge scales. American Journal of Political Science, 45, 224. doi:10.2307/2669369 First citation in articleCrossrefGoogle Scholar

  • Neuman, W. R. (1981). Differentiation and integration: Two dimensions of political thinking. American Journal of Sociology, 86, 1236 – 1268. First citation in articleCrossrefGoogle Scholar

  • Oberle, M. (2012). Politisches Wissen über die Europäische Union: Subjektive und objektive Politikkenntnisse von Jugendlichen. Wiesbaden: VS Verlag für Sozialwissenschaften. First citation in articleCrossrefGoogle Scholar

  • Organisation for Economic Co-operation and Development (OECD) (2016). PISA 2015 assessment and analytical framework: Science reading, mathematic, problem solving and financial literacy. Paris: OECD. First citation in articleGoogle Scholar

  • Otto, L. & Bacherle, P. (2011). Politisches Interesse Kurzskala (PIKS) – Entwicklung und Validierung. Politische Psychologie, 1, 19 – 35. Verfügbar unter http://www.psychologie-aktuell.com/fileadmin/download/PP_1 - 2011.pdf First citation in articleGoogle Scholar

  • Price, V. (1999). Political information. In J. P. RobinsonP. R. ShaverW. L. S.Eds., Measures of political attitudes (pp. 591 – 639). San Diego, CA: Academic Press. First citation in articleGoogle Scholar

  • Quintelier, E. & Vissers, S. (2008). The effect of internet use on political participation. An analysis of survey results for 16-year-olds in Belgium. Social Science Computer Review, 26, 411 – 427. doi: 10.1177/0894439307312631 First citation in articleCrossrefGoogle Scholar

  • R Core Team (2015). R: A language and environment for statistical computing. Vienna, Austria: R Foundation for Statistical Computing. Verfügbar unter http://www.R-project.org/ First citation in articleGoogle Scholar

  • Revelle, W. (2015). Psych: Procedures for personality and psychological research. Evanston, IL: Northwestern University. Verfügbar unter https://cran.r-project.org/web/packages/psych/psych.pdf First citation in articleGoogle Scholar

  • Rost, J. (2004). Lehrbuch Testtheorie – Testkonstruktion (2. Auflage). Bern: Huber. First citation in articleGoogle Scholar

  • Scheufele, D. A. (2002). Examining differential gains from mass media and their implications for participatory behavior. Communication Research, 29, 46 – 65. doi: 10.1177/009365020202900103 First citation in articleCrossrefGoogle Scholar

  • Schmitt, J. B. (2014). Onlinenachrichten und politisches Wissen bei Jugendlichen. Media Perspektiven, 1, 33 – 46. First citation in articleGoogle Scholar

  • Schmitt, J. B. (2016). Vom Glauben, Berge versetzen zu können. Subjektive Beurteilung von Medienqualität und Selbstwirksamkeit als Wegbereiter politischen Wissens. Berlin: Epubli. First citation in articleGoogle Scholar

  • Schneider, F. M., Otto, L., Alings, D. & Schmitt, M. (2014). Measuring traits and states in public opinion research: A latent state–trait analysis of political efficacy. International Journal of Public Opinion Research, 26, 202 – 223. doi: 10.1093/ijpor/edu002 First citation in articleCrossrefGoogle Scholar

  • Shepherd, S. & Kay, A. C. (2012). On the perpetuation of ignorance: System dependence, system justification, and the motivated avoidance of sociopolitical information. Journal of Personality and Social Psychology, 102, 264 – 280. doi: 10.1037/a0026272 First citation in articleCrossrefGoogle Scholar

  • Sotirovic, M. & McLeod, J. M. (2004). Knowledge as understanding: The information processing approach to political learning. In L. L. KaidEds., Handbook of political communication research (pp. 357 – 394). Mahwah, NJ: Lawrence Erlbaum Associates. First citation in articleGoogle Scholar

  • Tedesco, J. C. (2011). Political information efficacy and internet effects in the 2008 U. S. presidential election. American Behavioral Scientist, 55, 696 – 713. doi: 10.1177/0002764211398089 First citation in articleCrossrefGoogle Scholar

  • Tenscher, J. & Scherer, P. (2012). Jugend, Politik und Medien – Politische Orientierungen und Verhaltensweisen von Jugendlichen in Rheinland-Pfalz. Berlin, Münster, Wien, Zürich, London: LIT Verlag. First citation in articleGoogle Scholar

  • Tewksbury, D. & Althaus, S. L. (2000). Differences in knowledge acquisition among readers of the paper and online versions of a national newspaper. Journalism and Mass Communication Quarterly, 77, 457 – 479. doi: 10.1177/107769900007700301 First citation in articleCrossrefGoogle Scholar

  • Trepte, S. & Verbeet, M. (2010). Allgemeinbildung in Deutschland. Wiesbaden: VS Verlag für Sozialwissenschaften. First citation in articleGoogle Scholar

  • Vetter, A. & Maier, J. (2005). Mittendrin statt nur dabei? Politisches Wissen, politisches Interesse und politisches Kompetenzgefühl in Deutschland, 1994 – 2002. In O. W. GabrielJ. W. FalterH. RattingerHrsg., Wächst zusammen, was zusammengehört? Stabilität und Wandel politischer Einstellungen im wiedervereinigten Deutschland. (S. 51  – 90). Baden-Baden: Nomos Verlagsgesellschaft . First citation in articleGoogle Scholar

  • Vreese, C. H. de & Boomgaarden, H. G. (2006). News, political knowledge and participation: The differential effects of news media exposure on political knowledge and participation. Acta Politica, 41, 317 – 341. doi: 10.1057/palgrave.ap.5500164 First citation in articleCrossrefGoogle Scholar

  • Weimann, G. (1994). The Influentials. People who influence people. Albany, NY: State University of New York Press. First citation in articleGoogle Scholar

  • Weißeno, G. (2012). Dimensionen der Politikkompetenz. In G. WeißenoH. BuchsteinHrsg., Politisch handeln. Modelle, Möglichkeiten, Kompetenzen. (S. 156  – 177). Opladen: Barbara Budrich Verlag. First citation in articleGoogle Scholar

  • Westle, B. (2006). Politisches Interesse, subjektive politische Kompetenz und politisches Wissen – Eine Fallstudie mit Jugendlichen im Nürnberger Raum. In E. RollerF. BrettschneiderJ. W. van DethHrsg., Jugend und Politik: „Voll normal!“ (S. 209 – 240). Wiesbaden: VS Verlag für Sozialwissenschaften. First citation in articleGoogle Scholar

  • Westle, B. (2012). Souveräne Teilhabe unter Unsicherheit und Halbwissen: Politisches Wissen und politische Partizipation. In S. BraunA. GeislerHrsg., Die verstimmte Demokratie. Moderne Volksherrschaft (S. 51 – 68). Wiesbaden: VS Verlag für Sozialwissenschaften. First citation in articleGoogle Scholar

  • Westle, B. (2015). Wissen um die Direktwahl des Europäischen Parlaments – eine Frage des Alters? Deutsche im westeuropäischen Vergleich. In M. OberleHrsg., Die Europäische Union erfolgreich vermitteln (S. 39  – 63). Wiesbaden: Springer Fachmedien Wiesbaden. First citation in articleGoogle Scholar

  • Westle, B., Rütter, A. & Begemann, C. (2015). Das Wissen zum Wahlsystem vor der Bundestagswahl 2013. Politische Psychologie 4, 108 – 138. First citation in articleGoogle Scholar

  • Wober, J. M., Brosius, H.-B. & Weinmann, G. (1996). The European election of 1989. British television viewers’ knowledge, attitudes and voting behaviour. British Journal of Social Psychology, 35, 233 – 244. doi: 10.1111/j.2044-8309.1996.tb01094.x First citation in articleCrossrefGoogle Scholar

  • Wu, M. L., Adams, R. J., Wilson, M. R. & Haldane, S. A. (2007). ACER ConQuest version 2.0: generalised item response modelling software. Camberwell, Australia: Australian Council for Educational Research. First citation in articleGoogle Scholar

  • Yang, J. & Grabe, M. E. (2011). Knowledge acquisition gaps: A comparison of print versus online news sources. New Media & Society, 13, 1211 – 1227. doi: 10.1177/1461444811401708 First citation in articleCrossrefGoogle Scholar

1Folgende Qualitätskontrollen, die wir vor der Datenerhebung festgelegt hatten, wurden vorgenommen: (1) Wir nahmen nur die Daten abgeschlossener Befragungen in die finale Stichprobe auf (N = 1 146); (2) wir schlossen Fälle aus, die mehr als 20 % fehlende Daten aufwiesen (n = 38 Personen); (3) wir schlossen Personen aus, die hinsichtlich ihrer Bearbeitungszeit mehr als zwei Standardabweichungen schneller waren als der Durchschnitt (weitere n = 18 Personen); (4) wir prüften die Antworten auf zwei sehr einfache, eigens für die Qualitätskontrolle eingebaute Wissensfragen, von denen angenommen werden konnte, dass jeder, der die Fragen aufmerksam liest, sie beantworten kann (Welche Farben sind in der Flagge der Bundesrepublik Deutschland enthalten? Wie heißt die aktuelle deutsche Währung?). Wenn Personen beide Fragen falsch beantwortet hatten, wurden sie ebenfalls ausgeschlossen (weitere n = 8 Personen).

2Für weitere Fragestellungen wurden noch sechs Skalen abgefragt, die hier nicht berichtet werden.

Prof. Dr. Sabine Trepte, Dipl.-Psych. Laura Loy, Universität Hohenheim, Institut für Kommunikationswissenschaft, Fachgebiet Medienpsychologie, Wollgrasweg 23, 70599 Stuttgart, E-Mail
Dr. Josephine B. Schmitt, Universität Köln, Lehrstuhl für Medien- und Kommunikationspsychologie, Richard-Strauss-Str. 2, 50931 Köln
Dr. Siegmar Otto, Otto-von-Guericke-Universität Magdeburg, Institut für Psychologie I, Abteilung Persönlichkeits- und Sozialpsychologie, PF 4120, 39016 Magdeburg