Themen
Termine und Adressen
 
Per E-Mail versenden
Diese Funktion steht nur angemeldeten Mitgliedern zur Verfügung.
Drucken

Wissen wir tatsächlich mehr? - Eine Antwort

26.4.2013, Barbara Schleihagen, Dr. Simone C. Ehmig, Quelle: Deutscher Bibliotheksverband e.V. (dbv)
Stellungnahme des Deutschen Bibliotheksverbandes e.V. und der Stiftung Lesen zu methodischen Anmerkungen von Daniela Hoffmann, Martina Werder, Prof. Andrea Nikolaizig und Prof. Helga Tecklenburg (HTWK Leipzig) in BuB April 2013

Im Aprilheft der Zeitschrift BuB Forum Bibliothek und Information nehmen vier Autorinnen mit der Frage „Wissen wir tatsächlich mehr?“ Stellung zum „Aussagewert der Studie ‚Ursachen und Gründe für die Nichtnutzung von Bibliotheken in Deutschland‘“. Der Beitrag ist nach Darstellung der Verfasserinnen aus einer Lehrveranstaltung zu „Methoden der Bibliotheks- und Informationswissenschaft, Schwerpunkt empirische Untersuchungen“ entstanden. Methodische Expertise erwächst aus fundierter Sachkenntnis, Erfahrung in der Umsetzung von Untersuchungen und wissenschaftlichem Dialog - auch und gerade über methodische Details vorhandener Studien, aus deren Vorzügen und Fehlern man lernen kann. Erkenntnis und Weiterentwicklung von Verfahren zur Gewinnung von Erkenntnis leben vom kollegialen Austausch miteinander und von der Auseinandersetzung in der Sache. Das sollte im Rahmen einer universitären Methodenausbildung selbstverständlich sein.

Empirische Untersuchungen erfordern inhaltliche, begriffliche wie methodische Definitionen und Entscheidungen, die immer auch Entscheidungen gegen Alternativen sind. Der Austausch über und die Auseinandersetzung um – auch kritische – Punkte bereichern die Entwicklung von Verfahren. In diesem Sinne freuen wir uns über Impulse und Kritik von außen. Die Autorinnen des Beitrags im BuB haben den Dialog mit dem Deutschen Bibliotheksverband e.V. (dbv) und der Stiftung Lesen nicht gesucht, so dass wir zu einer Klärung der sachlichen Fragen unmittelbar nicht beitragen konnten. Die Leser und Leserinnen von BuB sollen die Möglichkeit erhalten, die methodischen Details der Untersuchung zu den Ursachen und Gründen für die Nichtnutzung von Bibliotheken unvoreingenommen beurteilen zu können. Deshalb greifen wir die zentralen Punkte der Autorinnen auf und stellen die relevante Sachinformation zusammen, die zum überwiegenden Teil bereits seit April 2012 auf den Webseiten von dbv und Stiftung Lesen zugänglich ist. Alle Verweise beziehen sich im Folgenden auf die ausführliche Präsentation der Ergebnisse unter http://www.stiftunglesen.de/materialarchiv/pdf/634 (in Kurzform „dbv/Stiftung Lesen 2012“). Die Aussagen der Leipziger Kolleginnen werden nach dem uns zugänglichen Originalmanuskript zitiert.

1. Befragungsmethodik

Bei der Untersuchung zur Nichtnutzung von Bibliotheken handelt es sich um eine standardisierte CATI Studie (dbv/Stiftung Lesen 2012, Folie 6). CATI steht für „Computer Assisted Telephone Interview“ und ist ein in der Umfrageforschung seit vielen Jahren gängiges Verfahren. Die Autorinnen sprechen in ihrem Anschreiben an die Geschäftsführerin des dbv wie auch in der textlichen Kommentierung (S. 1 des Originalmanuskripts) von einem „Interviewleitfaden“. Selbstverständlich werden Interviews im Rahmen von CATI-Studien anhand eines standardisierten Fragebogens geführt, um eine einheitliche Befragung bei dieser quantitativen Untersuchung zu gewährleisten. Interviewleitfäden haben ihren Platz in Leitfadengesprächen oder Tiefeninterviews, die üblicherweise eher den qualitativen Verfahren zugeordnet werden.

In der Betrachtung der Fragetypen kritisieren die Autorinnen, dass neben drei offenen Fragen nur geschlossene Fragen gestellt wurden (S. 4 f). Die Ableitung, dass so „zwangsläufig ein definiertes Bild von Bibliotheken“ vorgegeben wird, bedeutet im Umkehrschluss, dass es keine geschlossenen Fragen geben dürfte. Jede Vorgabe bietet eine mögliche Antwort – aber genau das soll ja gemessen werden: die Verteilung von Meinungen und Einstellungen. Die Autorinnen setzen dies in ihrem Text mit „Suggestion“ gleich. Eine solche Betrachtung führt jede Art von standardisiertem demoskopischem Interview ad absurdum und entzieht einem bedeutenden Teil der empirischen Meinungs-, Markt-, Medien- und Sozialforschung jede Legitimationsgrundlage. Die Autorinnen vernachlässigen, dass der Entwicklung von standardisierten Erhebungsinstrumenten - und dabei wesentlich auch geschlossenen Interviewfragen - in der Regel qualitative Schritte vorangehen, mit denen die später ausformulierten Antwortmöglichkeiten explorativ sondiert werden. Für die Untersuchung zur Nichtnutzung von Bibliotheken ist das Instrumentarium in einem solchen mehrstufigen Prozess entwickelt worden.

Zu einem negativen Urteil kommen die Autorinnen auch bei der Bewertung des „semantischen Differentials", das positive Urteile begünstige, weil „negative Extreme aufgemacht werden“ (S. 5). Diese Betrachtung berücksichtigt nicht die Bedeutung dieses psychologischen Fragetyps. Bei einem semantischen Differenzial handelt es sich um ein „Polaritätenprofil“ - eine Serie von mehrstufigen Skalen, die konträre Begriffspaarenennen, um die Vorstellung von einem Gegenstand, einem Sachverhalt, einem Begriff etc. zu ermitteln. Folgt man den Vorstellungen der Autorinnen, dann müssten die Ergebnisse einer solchen Abfrage immer positiv sein, da das Negative vermieden wird. Die Forschung der vergangenen Jahrzehnte aber hat gezeigt, dass dieser Fragetyp funktioniert – und erkennbar auch in der kritisierten Studie funktioniert hat. Woher sollten sonst Mittelwerte jenseits der positiven Extreme kommen, wenn niemand negative Urteile abgegeben hätte?

Die Autorinnen setzen mehrfach Fragen zur Imagemessung mit Fragen zur Erfahrung gleich. Images kann man selbstverständlich auch messen, ohne dass die Befragten mit dem relevanten Gegenstand persönlich Erfahrung haben müssen. Persönliche Erfahrung ist nicht der einzige Faktor, der Images prägt. Andernfalls wäre nahezu jede Vorstellung, die Bürgerinnen und Bürger sich über Vorgänge und Akteure in Politik und Gesellschaft machen, und jedes Bild von noch nicht selbst bereisten Ländern und nicht persönlich genutzten Gegenständen unzulässig. Gerade sie aber bilden die Grundlage von Wahl- und Kaufentscheidungen oder beherrschen die alltägliche Kommunikation. Daher ist es wissenschaftlich sinnvoll und zweckmäßig, auch Nichtnutzer von Bibliotheken nach ihren Vorstellungen zu fragen, die naheliegende Gründe dafür sein können, Bibliotheken nicht zu nutzen. Es ist darüber hinaus wissenschaftlich sinnvoll und zweckmäßig, Nichtnutzer und Nutzer mit denselben Vorgaben zu konfrontieren, da nur aus dem unmittelbaren und systematischen Vergleich der Antworten ersichtlich wird, welche Vorstellungen Nutzer und Nichtnutzer in spezifischer Weise unterscheiden.

Eine interessante Perspektive zeigt die Gegenüberstellung von Begriffspaaren zur Definition der Zielgruppen: Die Autorinnen fragen sich, warum die Studie nicht mit dem in der „bibliothekarischen Fachwelt“ üblichen Begriffspaar „Benutzer und Besuche(r)“ arbeitet, sondern mit „Nutzer und Nichtnutzer“. Dabei handelt es sich aber nicht um ein entsprechendes Begriffspaar, denn den Begriff des „Nichtnutzers“ benennen sie nicht in der Sprache der bibliothekarischen Fachwelt – und genau auf diese Zielgruppe kam es an. Dass die Begriffe in Anlehnung an die „Medienfachsprache“ gewählt wurden, wo „Nutzer“ und „Nichtnutzer“ die gängigen Termini sind, konnten die Autorinnen bei der Lektüre der „professionell ausgeführten Studien zum Mediennutzungsverhalten, veröffentlicht in den Mediaperspektiven“ (der korrekte Name der Zeitschrift lautet Media Perspektiven) durchaus bemerkt haben. Das Zitat stammt aus dem Anschreiben an die Geschäftsführerin des dbv, mit dem die Autorinnen ihr am 27.2.2013 das für die Publikation in BuB vorgesehene Manuskript zugänglich machen.

Der Nutzer ist unserer Definition nach der Besucher, also derjenige, der die Bibliothek betreten hat und physisch dort war, egal was er oder sie gemacht hat. Der Besuch einer Bibliothek ist der „gemeinsame Nenner“. In der ersten Frage wurde erfasst, ob jemand eine „Bibliothek besucht oder Dienste in Anspruch genommen“ hat. Wenn diese Frage verneint wurde, wurde in der Folgefrage nur noch nach Besuch gefragt. Das ist unseres Erachtens nur dann problematisch, wenn man Dienste in Anspruch nehmen kann, ohne die Bibliothek als Besucher zu betreten. Das wäre beispielsweise dann der Fall, wenn ein Befragter, der in den letzten 12 Monaten nicht in der Bibliothek war und keine Dienste beansprucht hat, länger als 12 Monate zurückliegend Dienste beansprucht hat, ohne in der Bibliothek gewesen zu sein. Die elektronische Ausleihe war in den 12 Monaten vor dem Erhebungszeitraum (Oktober bis November 2011), also im Oktober 2010, noch nicht sehr stark verbreitet. Der geschilderte Fall ist demnach zwar möglich, aber unwahrscheinlich.

Ungewöhnlich und wenig zielführend scheint uns der Ansatz, den Fragebogen als Erhebungsinstrument auf der Grundlage der aufbereiteten zusammenfassenden Ergebnisse (z. B. S. 5 mit Bezug auf dbv/Stiftung Lesen 2012, Folien 16 f) zu bewerten. Ein Blick in den Originalfragebogen hätte ausgereicht, um zu sehen, dass die Antwortvorgaben generell dem Kriterium „einander ausschließender Kategorien“ entsprechen. Zudem entspricht es guter und gängiger Praxis in Bevölkerungsumfragen, für die Abbildung einzelner Aspekte sozialer Realität mehr als einen Indikator und somit auch mehr als eine Testfrage zu verwenden. Die Fokussierung auf Einzelbefunde ohne Einordnung in den Gesamtkontext lässt dies außer Acht.

2. Stichprobe

Die Stichprobenziehung der bevölkerungsrepräsentativen Studie erfolgte nicht per Quota, sondern über das ADM Telefonstichprobensystem, ein mehrstufiges Zufallsverfahren. In der Bundesrepublik Deutschland gibt es kein allgemein zugängliches Verzeichnis aller Privathaushalte oder Personen und kein vollständiges Verzeichnis aller privat genutzten Telefonanschlüsse. Aus diesem Grund hat die Arbeitsgemeinschaft ADM-Telefonstichproben das ADM-Telefonstichprobensystem entwickelt, das es erlaubt, repräsentative Stichproben der Privathaushalte mit Telefonanschluss und der darin wohnenden Personen zu erstellen.

Das ADM-Telefonstichprobensystem umfasst alle prinzipiell in Deutschland nutzbaren Telefonnummern, und erlaubt damit bevölkerungsrepräsentative Zufallsstichproben zu realisieren. Das heißt, es haben auch nicht in den Verzeichnissen der Deutschen Telekom gelistete Anschlüsse eine Chance, in die Stichprobe zu gelangen. Die Stichprobenziehung erfolgt nach einem mehrstufigen Zufallsprinzip:

1. Schritt: Bestimmung der Telefonnummer
Die Festnetznummern sind mit einer regionalen Kennung versehen, so dass es möglich ist, die Stichprobe der Telefonnummern geschichtet nach Region und BIK-Typen zuziehen.

2. Schritt: Bestimmung der Zielperson im Haushalt durch Last-Birthday-Verfahren
Beim Last-Birthday-Verfahren wird die Person (in diesem Fall zwischen 14 und 75 Jahre) im Haushalt für das Interview ausgewählt, die zuletzt Geburtstag hatte. Da nicht nur die Ziehung der Telefonnummernstichprobe, sondern auch die Auswahl der Zielperson im jeweils kontaktierten Privathaushalt als Zufallsauswahl realisiert werden, sind die ADM-Telefonstichproben als repräsentative Stichproben zu bewerten, die den in der mathematischen Statistik entwickelten Zufallsmodellen folgen.

Die Interpretation der Autorinnen, dass die Studie nur in Bezug auf einzelne Merkmale repräsentativ sei, entbehrt jeder Grundlage. Die Ergebnisse sind mit den definierten statistischen Fehlertoleranzen für die Deutsch sprechende Bevölkerung (14 bis 75 Jahre) in Privathaushalten mit Festnetzanschluss in Deutschland repräsentativ. Die „suggerierte Verallgemeinerungsfähigkeit“ (S. 3) ist eine Unterstellung. Die Verallgemeinerungsfähigkeit ist wissenschaftlich fundiert gegeben. Die Definition einer Obergrenze (bis 75 Jahre) erfolgte unter Berücksichtigung des Untersuchungsgegenstandes und nach Kriterien, die für die angestrebte (Zurück-)Gewinnung von Zielgruppen relevant sind. Jede Definition einer Grundgesamtheit (hier dbv/Stiftung Lesen, Folie 6) schließt Bevölkerungsgruppen ein und andere naturgemäß aus.

3. Handlungsempfehlungen für Teilgruppen

Dass die Fallzahlen für Teilgruppen klein sind, liegt bei einer Stichprobe von 1.301 Befragten auf der Hand. Die Tatsache wurde nicht verschwiegen. Sie entspricht der Forschungsrealität. Bei unbegrenzten Mitteln und unbegrenzter Zeit kann man sich größere Stichproben wünschen und sie realisieren. Dennoch kann man bei einer Betrachtung auch kleiner Teilgruppen mehr lernen als bei einer oberflächlichen Analyse, die nur die Gesamtheit aller „Nichtnutzer“ in den Blick nimmt. Wir haben darauf hingewiesen und angeregt, dass Folgestudien durchgeführt werden sollten, die sich bestimmten Gruppen auf größerer Basis gesondert annehmen. Insgesamt sind wir in den Empfehlungen daher auch sehr zurückhaltend.

4. Umgang mit Zahlen

Dass sich Wissenschaftlerinnen über Rundungsdifferenzen wundern, ist bemerkenswert. Wer schon einmal eine Studie selbst durchgeführt hat, weiß, dass Rundungsdifferenzen selbstverständlich sind (S. 3). Wir halten es für ein Gebot der Lauterkeit, sie sichtbar zu belassen und nicht auf 100 Prozent zu glätten.

Dass man in einer Pressemitteilung eine „Rundung“ auf 1.300 Fälle vornimmt, ist in dieser Größenordnung üblich und sachgerecht.

Erstaunlich ist, dass „eigene Nachrechnungen“ erforderlich waren, um die im Ergebnisbericht angegebenen Befragten, die keine Angaben gemacht haben, „auszurechnen“ (S. 3). In den Fällen, in denen wir Berechnungen auf kleinerer Basis vorgenommen haben, fehlt in der Tat ein Hinweis auf die Filterkriterien und die genaue Zahl der Befragten, auf die prozentuiert wurde. Dies ist ein Fehler in unserer Darstellung. Generell verändert die Zahl der Personen, die sich nicht für eine Antwortalternative entscheiden, aber die Basis der Studie nicht notwendigerweise, wenn man zeigen will, wie hoch der Anteil derjenigen an allen 1.301 ist, die eine spezifische Antwort geben. Angaben nur auf die Zahl derjenigen zu prozentuieren, die eine verwertbare Antwort geben, bildet Realitäten nicht ab, sondern definiert schweigende Mehrheiten, Unentschiedene oder Antwortunwillige in demoskopisch unsichtbare „Randgruppen“ hinein, in die sie allein zahlenmäßig, aber auch aus inhaltlichen Gründen in der Regel nicht gehören.

Wir bedauern, dass die Autorinnen der HTKW gerade zu solchen Fragen den wissenschaftlichen Diskurs nicht gesucht haben. So kann man sich beispielsweise auch durchaus gewinnbringend fachlich darüber auseinandersetzen, ob Tests auf statistische Repräsentativität von Ergebnissen sinnvoll sind, wenn man mit einer Studie Teilgruppen vergleichen, nicht aber Aussagen über die Gesamtbevölkerung machen möchte. Der Deutsche Bibliotheksverband und die Stiftung Lesen stehen den Autorinnen wie auch allen anderen interessierten Leserinnen und Lesern für Fragen und einen sachlichen Dialog gern zur Verfügung.

Berlin und Mainz, 25.03.2013

Barbara Schleihagen, Geschäftsführerin des Deutschen Bibliotheksverband e.V.
Dr. Simone C. Ehmig, Leiterin des Instituts für Lese- und Medienforschung der Stiftung Lesen

Per E-Mail versenden
Diese Funktion steht nur angemeldeten Mitgliedern zur Verfügung.
Drucken