Archive | Mai 2008

Ein Trend der letzten Monate: Netbooks

In den letzten Tagen treibt mich eine Frage um, die ich gerne einmal bearbeiten würde: Welche Auswirkung wird der Trend zu kleinen, billigen Laptops mit Internetfixierung für die Informationsnutzung von (potentiellen) Nutzerinnen und Nutzern Öffentlicher Bibliotheken haben?

100-Dollar-Laptop
Vielleicht von vorne. In den letzten Monaten erschienen mehrere kleine Laptops, die explizit klein, billig und mobil sind und teilweise extra für die Nutzung von Web2.0-Diensten ausgelegt sind.
In gewisser Weise können diese Rechner als (ungewolltes) Ergebnis des One Laptop Per Child Projektes (OLPC) beschreiben werden. OLPC hat sich zum Ziel gesetzt, allen Kindern einen modernen Laptop zukommen zu lassen, welcher das spielerische Lernen moderner Techniken und Kommunikationsformen ermöglichen soll. Dafür strebte OLPC die Produktion eines 100-Dollar-Laptops an, der hauptsächlich durch Regierungen von Entwicklungsländern über Schulen verteilt (und finanziert) werden soll. Es gibt Fortschritte bei dieser Mission (beispielsweise steht Peru kurz davor, die Laptops in einem groß angelegten Projekt einzusetzen). Allerdings kostet der Rechner mit dem Namen XO-1 188 Dollar. Das Design ist auf die Bedürfnisse von Kindern in armen Ländern ausgerichtet, der Rechner verbraucht wenig Energie und kann nicht nur mit Strom aus der Steckdose, sondern auch aus zahlreichen anderen Stromquellen – inklusive einer Handkurbel – aufgeladen werden. Ausgestattet ist der Rechner mit allem, was ein Laptop braucht, inklusive Kamera, Mikrophon WLAN-Antennen und USB-Ports. Zudem hat er ein drehbaren Monitor und ist extrem robust. Das Nachfolgemodell XO-2 wurde kürzlich als Projektskizze vorgestellt und soll statt einer Tastatur zwei Touch-Screens besitzen, wie ein Buch aufklappbar (und nutzbar) sein und einfach auf einem der beiden Monitore Tastaturen simulieren, welche sich den Fähigkeiten der Kinder anpassen lassen sollen. Allerdings ist der Speicher der Rechner extrem beschränkt.
Als Betriebssystem wird ein speziell angepasste Version der Linux-Distribution Fedora verwendet.[1] Diese Version soll besonders energieeffizient arbeiten. Zudem ist diese Version mit einer extra entwickelten Oberfläche namens Sugar ausgestattet, welche explizit für Schülerinnen und Schüler, die (noch) nicht Lesen und Schreiben können, konzipiert wurde. Der Zugang zum Rechner soll spielerisch erfolgen, die Kinder sollen direkte Lernerfolge erleben.
Der XO hat einen entwicklungsfördernden Ansatz. Die Hoffnung war, mit der Masse an möglichen Bestellungen – also Bestellungen von Regierungen für alle Schulkinder eines Landes auf einmal – eine Marktmacht zu organisieren, welche die Produktion solch billiger Rechner für die Industrie trotz allem zu einem gewinnbringenden Geschäft machen sollte. Ob das tatsächlich funktioniert, bleibt noch abzuwarten. Ein Erfolg scheint immerhin, dass Microsoft den XO – der, wie gesagt mit Linux arbeitet – für ein so elementares Geschäft hält, dass es lieber eine eigene Version von Windows XP für den Rechner erarbeitet hat, die statt den üblichen 100 Dollar drei Dollar kosten soll.

Kleine Laptops funktionieren, immer besser
Was der XO aber – schon während der Projektphase – bewies, war, dass es möglich ist, leistungsfähige Laptops zu einem relativ geringen Preis herzustellen. Dafür muss man zwar auf einige Dinge – große Festplatten, High-End-Graphikkarten etc. – verzichten, was allerdings hinnehmbar ist, wenn die Rechner für klar definierte Ziele eingesetzt werden sollen, die gerade keine großen Festplatten oder High-End-Graphikkarten benötigen. Und da – trotz dem Boom von Privatvideos – nur ein geringer Teil der Menschen am Rechner Filme schneiden, 2.000-seitige Bücher layouten oder GTA IV spielen will, sind solche Rechner auch außerhalb von Schulen armer Staaten interessant. Zumal mit der Entwicklung von Linux und anderen quell-offenen Betriebssystemen in den letzten Jahren leistungsfähige Betriebssysteme zur Verfügung stehen, die auch auf solcher Hardware oft schneller und konsistenter laufen, als Vista, XP oder Mac OS X. [2]

Diesen Beweis, den der XO angetreten hatte, nutzten nun in den letzten Monaten Firmen, um mit und ohne den pädagogischen Ansatz des OLPC-Projektes ähnliche kleine Rechner anzubieten. Dabei wurde der XO selber rund 80.000 mal im Rahmen eines Charity-Programms [man bezahlte zwei Rechner, bekam einen und spendete den anderen automatisch für das OLPC-Projekt] in den USA verkauft. Ein Markt für solche Rechner ist also vorhanden [man hätte ansonsten das Geld auch direkt spenden können]. Intel verkauft seit 2007 eine Classmate PC, der ebenfalls standardmäßig unter Linux läuft und für pädagogische Zwecke eingesetzt werden soll.
Durchschlagender war allerdings der Erfolg des Eee-PC. Diese Rechner sind ebenfalls seit dem letzten Jahr auf dem Markt und prägten einen – noch nicht überall etablierten – Begriff: die Netbooks. Eee-PCs kosten zwischen 299 und 399 Dollar, in Deutschland 299 Euro, sind klein [ein 7“ Monitor bzw. in der neusten Serie ein 8,9“, während – zum Vergleich – ein Mac-Book 13,3“ und ein Samsung Q45 12,1“ groß ist], und sind von ihren Hardware darauf ausgerichtet, zu surfen und kleinere Aufgaben zu bewältigen – beispielsweise kann man Schulaufgaben ohne Probleme schreiben und abspeichern, aber nicht unbedingt Doktorarbeiten. Es gibt – wie beim Mac Book Air – keinen DVD/CD-Laufwerk. Und wieder ist Linux das Hauptbetriebssystem, während Microsoft versucht eine Windows-Variante zu verkaufen, die nur für solche Rechner billiger sein soll. Eee-PCs sind nicht wirklich als Rechner für das tägliche Arbeiten oder das Spielen aktueller Games zu nutzen, sondern hauptsächlich als Zweitrechner zum Surfen. Dennoch kam es in allen Ländern, in denen der Eee-PC angeboten wurde zu Lieferengpässen. Mehr als eine Firma hat Konkurrenzprodukte angekündigt, allen voran One mit dem A120.
Interessant ist in diesem Zusammenhang zudem gOS. gOS ist eine weitere Linux-Distribution. Sie wurde anfänglich für einen sogenannten Wal-Mart-PC, der bei besagter Handelskette für 199 Dollar verkauft wurde, präsentiert. Diese PCs – 10.000 sollen es gewesen sein – waren innerhalb von zwei Wochen ausverkauft, was gewiss nicht nur am Betriebssystem, sondern auch am Preis gelegen haben wird. Dennoch: gOS ist deshalb relevant, weil es ein explizit für das Web 2.0 konzipiertes Betriebssystem ist. Es hat in der Grundeinstellung in seinem Dock [also der Leiste mit den Programmen, wie man sie – unter anderem – vom Mac kennt] hauptsächlich Programme, die direkten Zugriff auf MySpace, News-Seiten und andere Webangebote bieten. Das Betriebssystem selber, also die Oberfläche ist darauf ausgerichtet, das Internet als sozialen Ort zu nutzen. Zumindest einen Anteil am rasanten Verkauf der Wal-Mart-Rechner wird gOS – welches auch problemlos auf anderen Rechnern genutzt werden kann – gehabt haben.

Trend zur Alltagstechnik
Der Trend ist wohl nachvollziehbar: einerseits billige Rechner, die über kurz oder lang bei allen Kindern im Grundschulalter landen werden. Dies, verbunden mit einem funktionierenden pädagogischen Konzept [3], wird sich auf die Nutzung von Informationstechnologien relevant auswirken. Kinder und Jugendliche werden Informationstechnologien tatsächlich als Teil ihres Alltags wahrnehmen. Gegen diesen Trend sind die Debattenbeiträge, welche in der März-Nummer der BuB stehen, weit überholt. Es geht nicht mehr um „Bildschirmmedien“ ja oder nein – es geht um eine Alltagstechnik.
Andererseits – und dies ist der andere Trend – Rechner, die als Internetstationen genutzt werden und gar nicht mehr unbedingt die vielfältigen Anwendungsmöglichkeiten anbieten, die aktuelle Rechner an sich alle haben. Diese Netbooks werden die Nutzung der Internets und einer Anzahl von Web 2.0-Diensten mit hoher Wahrscheinlichkeit noch alltäglicher machen, als sie jetzt schon sind. Und diese Rechner werden in der Jugend- und Alltagskultur ankommen, wie die verschiedenen Konsolen auch längst angekommen sind. Interessant wird in den nächsten Monaten sein, ob diese Netbooks hauptsächlich als Zweitrechner genutzt oder ob gerade ärmere Haushalte auf sie zugreifen werden. Wie gesagt sind sie von der Soft- und Hardware aufs Surfen ausgerichtet, aber Software lässt sich austauschen und Hardware lässt sich anders nutzen, als vorgesehen.[4]

[Außerdem, aber das ist eine andere Sache, scheinen diese Rechner dazu geführt haben, dass Linux in einer relevanten Anzahl von Haushalten als leistungsfähiges Konkurrenzprodukt zu Windows angekommen ist. Welchen Einfluss das auf Windows, den Softwaremarkt, die Open Source-Bewegung, das Verständnis von Rechnern durch die Nutzenden haben wird, bleibt abzuwarten. Eine These von Richard Stallman bei der Initiierung der Free Software Bewegung, aus der auch GNU/Linux hervorging, war immerhin, dass Freie Software zu einer größeren Freiheit der Nutzerinnen und Nutzern führen und die Entwicklung von Software demokratisieren würde. Eventuell entwickelt sich aber zusätzlich aktuell – nachdem seit Mitte der 1990er Jahren nach dem Quasi-Untergang von AmigaOS und DOS ein fast unbestrittenes Monopol von Windows als Betriebssystem auf privat genutzten Rechnern herrschte – eine neue Konkurrenzsituation bei Betriebssystemen. Neben Windows und Linux ist dabei vor allem an das Mac OS zu denken, welches durch den Erfolg von Apple verbreitet wurde. Daneben stehen allerdings noch eine Reihe alternativer Betriebssysteme – Solaris, OpenSolaris, FreeBSD, OpenBSD oder solche (noch) kleinen Projekte wie ReactOS oder AROS – zur Verfügung, die unter Umständen in Zukunft eine größere Rolle spielen könnten. Zumal heutige Rechner – solange sie gerade nicht die hier besprochenen Kleinstrechner mit geringem Speicher sind – problemlos zwei oder mehr Betriebssysteme aufnehmen können.]

Bibliotheken und Alltagskultur
Eventuell ist es übertrieben, aber mir scheint, dass es nicht mehr um Kompetenzen geht, die man erwerben kann oder auch nicht, sondern um die rasante Etablierung einer neuen Kulturtechnik, welche zur Teilhabe an den Diskursen und sozialen Sphären der Gesamtgesellschaft notwendig sein wird; so wie vor einigen Jahren das Fernsehschauen eine Kulturtechnik war [und in weiten Teilen der Gesellschaft noch weiterhin ist], ohne die man schnell außerhalb gesellschaftlich relevanter Diskussionen stehen konnte.
Doch selbst wenn diese Trends nicht gleich in der Etablierung einer Kulturtechnik kumulieren werden, so wird es doch in absehbarer Zeit mehr Kinder und Jugendliche geben, die Rechner nicht als Konkurrenzprodukt zu anderen Freizeitangeboten, sondern als alltäglicher Arbeitsmittel verstehen und nutzen werden.
Die Frage ist nun, welchen Einfluss das auf Öffentliche Bibliotheken haben wird. Kann man das ignorieren? Haben die Internet-Ecken, die nun in den meisten Bibliotheken existieren, in ihrer jetzigen Form überhaupt einen Sinn in einer Gesellschaft, in der der Zugriff auf das Netz Allgemeingut ist? [Nicht zu vergessen, dass Internet-Flatrates für Handys nur noch eine Frage der Zeit sind. Das diese kommen werden, wird nicht mehr zu verhindern sein, nicht zuletzt, da sie in Japan und Südkores seit Jahren gut funktionieren.] Was muss eine Bibliothekarin, ein Bibliothekar eigentlich können, um für Kinder und Jugendliche mit Erfahrungen mit diesen Rechnern, sinnvoll arbeiten zu können? Man darf nicht vergessen, dass zahlreiche Ansätze für bibliothekarische Veranstaltung ja gerade den Anspruch erheben, an der Realität und den realen Problemen von Kindern und Jugendlichen anzusetzen und diese über die Thematisierung ihrer Lebenswelt zu Lernprozessen zu ermutigen.
Es sind weit mehr Fragen möglich. Wichtig erscheint mir aber erstmal festzuhalten, dass in den letzten Monaten [nicht Jahren, sondern Monaten] relevante Trends im Bereich der Hard- und Softwareentwicklung festzustellen sind, die garantiert auf die Nutzung elektronischer Medien einen Einfluss haben werden. Und jede veränderte Mediennutzung wird über kurz oder lang einen Einfluss auf Bibliotheken haben. Deshalb sollte man die Frage, was da gerade passiert, auch jetzt stellen. Zwar wird es einen Weile dauern, bis diese Trends einen Einfluss auf Menschen haben, die nicht unbedingt immer an den neuesten Entwicklungen der technologischen Möglichkeiten interessiert sind [also den 98% der Gesellschaft, die keine Nerds sind], aber wenn man die Geschwindkeit betrachtet, mit denen sich in den letzten Jahren neuen Mediennutzungsformen verbreitet haben, wird dieser Weile relativ kurz sein. [5]

PS.: Passend zu diesen Überlegungen übrigens der aktuelle Call for Papers der libreas: „Popkultur: Bibliothek„.

[Nachtrag, 30.05: Die aktuelle Studie des Projektes Medienkonvergenz Monitoring der Universität Leipzig erschien gestern. Sie kommt zu dem Ergebniss, dass das Internet bei Jugendlichen zum Leitmedium geworden ist und alle anderen Medienformen (Buch, Radio, Fernsehen) in seiner Verbreitung überholt hat. Link: die aktuelle Studie und Seite des Projektes.]

[1] Von Linux existieren – dank der Open-Source-Prinzipien – zahlreiche unterschiedliche Distributionen, die alle ihre eigene Vorteile und Ziele haben. Das ist anders, als bei anderen Betriebssystemen. Für den Einsatz von Linux empfiehlt sich ein Blick auf die unterschiedlichen Distributionen und unter Umständen das „Antesten“ mit Live-CDs.
[2] Und dabei dank Gnome, KDE oder Sonderanfertigungen wie bei DeLi Linux auch graphische Oberflächen zur Verfügung stellt, welche den gleichen Komfort bieten, wie ihn Menschen von Windows oder Mac gewohnt sind – dass nur als Anmerkung für Menschen, die meinen, Linux müsste unbedingt per Tastatur-Befehlen gesteuert werden und sei nur für etwas für Nerds.
[3] Wir sind in Deutschland, dass wird also noch eine Zeit dauern.
[4] Was mich nämlich immer noch irritiert ist der Fakt, dass alle relevanten Studien zu dem Ergebnis kommen, dass Rechner heute in Deutschland in Haushalten mit Kinder oder Jugendlichen fast flächendeckend vorhanden sind. Angesichts des aktuellen Armutsberichts und der Zahlen des Familienministeriums über das Armutsrisiko von Kindern und Jugendlichen frage ich mich schon, von welchem Geld sich diese Haushalte welche Rechner leisten können. Ich meine das rein rechnerisch, selbstverständliche habe alle Menschen das Recht, die Medien zu besitzen, die sie besitzen wollen. Aber von monatlich 345 oder wenig mehr Euro pro Person wird man sich nicht alle zwei Jahre einen modernen Rechner leisten können. Wie alt sind dann also die Rechner, die in sozial schwachen Familien stehen? Was können sie überhaupt? Bringen sie der Jugendlichen etwas oder sind diese trotz Rechner von aktuellen Nutzungsformen der Kommunikationstechnologien ausgeschlossen? Entsteht nach dem Digital Divide eine neue Ungerechtskeitsperspektive, das „Nicht mitmachen können im Mitmach-Web“? Und sind dann solche Netbooks für 300 Euro ein möglicher Ausweg?
[5] Erinnert sich noch wer an die Zeiten, wo Menschen mit Handys als Juppies beschimpft wurden? Das ist keine zehn Jahre her. Erinnert sich noch wer an die Zeit vor dem ipod? Der ist 2001 überhaupt in erst in den Markt eingeführt worden und heute – neben anderen MP3-Playern – ein unumstrittener Teil der Alltagskultur. Und die Mac Books, welche zumindest in der Berliner Innenstadt und den Berliner Unibibliotheken allgegenwärtig sind, wurden erst 2006 vorgestellt.

Was bringt’s?

Allgemein wird in der (deutschen) Bildungsforschung von einer empirischen Wende gesprochen, die aktuell stattfinden würde – ähnlich dem linguistic turn in den Kulturwissenschaften Ende des 20. Jahrhunderts. Ob das tatsächlich der Fall ist, wird bestimmt noch zu klären sein. Aber es gibt Hinweise: das zunehmende Interesse an Leistungsvergleichen wie PISA, TIMSS, IGLU, SteFi-Studie ist ein gewichtiger. Aber diese Studien sind letztlich, wenn auch von der Erziehungswissenschaft vorangetrieben, Auftragsarbeiten. Und solche müssen nicht unbedingt dem Interesse der Forschenden entsprechen. Ein anderer Hinweis ist allerdings die unbestreitbare Zunahme von empirischen Ansätzen in der nicht-auftragsgebundenen erziehungswissenschaftlichen Forschung. Ein kursorischer Blick in aktuelle Jahrgänge erziehungswissenschaftlicher (deutscher) Zeitschriften bestätigt diesen Trend, dass der Waxmann-Verlag seine Reihe Empirische Erziehungswissenschaft erst 2006 startet ist ein weiterer Hinweise, dass tatsächlich ein Paradigmenwechsel stattfindet. Warum, dass ist eine andere Frage. Egal was man von diesen Ansätzen hält: solange man sich mit Bildung beschäftigt, wird man sich mit ihnen auseinander setzen müssen.
Diese Wende wirft allerdings eine andere Frage auf, welche sich in anderen Forschungsgebieten auch schon bei ähnlichen „Wenden“ auftat: was bringt es? Jede paradigmatische Veränderung in Forschungsgebieten geht mit dem Versprechen einher, durch den jeweiligen Wechsel bessere und sinnvollere Daten zur Beantwortung wissenschaflicher Fragestellungen liefern zu können, als mit den bisherigen – dann immer als relativ übrholt geltenden – Ansätze. Bei Wissenschaften, die wie die Erziehungswissenschaften auf die Untersuchung von gesellschaftlichen Prozessen ausgerichtet sind, geht jeder Paradigmenwechsel mit dem Versprechen einher, diese Prozesse besser abbilden und verstehen zu können. Letztlich ist ein Teil der empirischen Wende – insbesondere der „Auftragsstudien“ – der Anspruch, Daten zu liefern, welche zur Verbesserung der Bildungsqualität beitragen sollen – zumeist des Schulunterrichts.
Allerdings ist aus Staaten, in denen empirische Methoden in der Bildungsforschung schon seit Längerem eingesetzt werden, bekannt, dass diese Daten gelinde gesagt wenig bis quasi keinen Einfluss auf die Qualität der untersuchten Institutionen haben. In Großbritannien werden öffentliche Einrichtungen seit über 20 Jahren mit steigender Tendenz ähnlichen Methoden unterworfen. Vergleichsarbeiten und Evaluationen gelten als mächtige Werkzeuge der großbritannischen Bildungspolitik. Und trotzdem stellen Studien immer wieder fest, dass die Verwendung der zurückgeliefertem Daten äußerst gering ist. Dabei werden die Daten auch in Deutschland eigentlich in der Annahme beständig zurückgemeldet, dass sie zur Entwicklung der Institutionen benutzt würden. Letztlich ist diese Annahme ein Grund für den massiven Einsatz solcher Studien durch die Bildungspolitik. Es geht offenbar um das Vermittlungsproblem, welches eigentlich bei jedem „wissenschaftlichen Wissen“ besteht.
Im Sammelband Rückmeldung und Rezeption von Forschungsergebnissen [Kuper, Harm ; Schneewind, Julia (Hrsg.) / Rückmeldung und Rezeption von Forschungsergebnissen : Zur Verwendung wissenschaftlichen Wissens im Bildungsbereich. – Münster ; New York ; München ; Berlin : Waxmann, 2006] wird diese Frage bezogen auf die zahlreichen Vergleichsarbeiten im deutschen Schulwesen bearbeitet. Die Quintessenz steht – wie so oft – in der Einleitung [Kuper, Harm / Rückmeldung und Rezeption – zwei Seiten der Verwendung wissenschaftlichen Wissens im Bildungssystem, S. 7-16]:

Für eine professionelle Verwendung der Ergebnisse der Bildungsforschung ist Entscheidungsautonomie [der Institutionen, K.S.] unerlässlich – sie muss sowohl gegenüber bürokratisch administrativen Regulierungen als auch gegenüber den oftmals trivialisierenden Einsichten öffentlicher Rezeption von Forschungsergebnissen abgrenzbar bleiben. Das erfordert allerdings eine starke Kultur der Auseinandersetzung mit Befunden der Bildungsforschung in einer professionsinternen Öffentlichkeit. Dass diese im Bildungssystem bislang nur schwach ausgeprägt ist, lassen die vielen Klagen über den Zugriff staatlicher Regulierung und den Konkurrenzdruck in der Folge von Leistungsuntersuchungen vermuten. [S. 11f.]

Dies gilt ebenso für die Rezeption von Bildungsstudien im bibliothekarischen Bereich. Dass gerade die Auseinandersetzung mit den Ergebnissen der PISA-Studien meines Erachtens sehr einseitig (oder mit Kuper gesprochen: „trivialisierend“) erfolgt ist, betone ich immer wieder, wenn es irgendwie passt. Auch das langsame Aufkommen einer – na, sagen wir mal – nutzerinnen- und nutzerorientierten Forschung zu Bibliotheken, wie sie offenbar gerade im Umfeld der Instituts für Bibliotheks- und Informationswissenschaft zu entstehen scheint [1] wird sich mit diesem Problem auseinandersetzen müssen. Angenommen, es werden demnächst tatsächlich mehr Daten zur Sichtweise, Ansprüchen und Verhaltensweisen der Nutzerinnen und Nutzer von Bibliotheken produziert; oder – ein anderes Beispiel – angenommen im Rahmen meiner Promotion kommen tatsächlich spruchreife Ansätze zur Bestimmung von bibliothekarischen Bildungseffekten heraus: was bringt das den einzelnen Bibliotheken? Die „Übersetzung“ dieses wissenschaftlichen Wissens muss dann immer noch so geleistet werden, dass es auch als Handlungswissen für die Entwicklung der Bibliotheken und die alltägliche Praxis in Bibliotheken nutzbar wird.
Rainer Peek und Peter Dobbelstein geben in ihrem Beitrag des Sammelbandes [Peek, Rainer ; Dobbelstein, Peter / Benchmakrs als Input für die Schulentwicklung – das Beispiel der Lernstandserhebung in Nordrhein-Westfalen (41-58)] immerhin einige Hinweise für einen solchen „Übersetzungsprozess“. Wissenschaftliches Wissen würde in der Arbeit der untersuchten Einrichtungen genutzt, wenn sie

  1. akzeptiert wird [d.h. vor allem ernst genommen]
  2. praktikabel dargestellt wird [was oft schwierig ist, da wissenschaftliches Wissen eigentlich immer sehr differenziert ist , aber Menschen, die Entscheidungen treffen sollen, „einfache“ Ergebnisse bevorzugen]
  3. als bedeutend gilt [also als Wissen wahrgenommen wird, welches ein Unterschied machen kann]

[1] Das war jetzt mal eine steile These über die Richtung der Diskussionen, die ich im Umfeld der Instituts mitbekomme. Valide untermauern kann ich das nicht, aber dafür ist es ja auch eine steile These.

Elemente und Methoden der Bildungsforschung

Bildung ist, nicht nur im bibliothekarischen Rahmen, recht diffus definiert. Ebenso uneinheitlich sind die wissenschaftlichen Zugriffe auf die Wirkung von Bildung. Die einen messen den Wissenszuwachs und nennen das Bildungseffekt, die anderen versuchen einen Zusammenhang zwischen Bildungsabschlüssen und beruflicher Position oder dem erwirtschafteten Einkommen Jahre nach dem Abschluss zu messen, wieder andere versuchen nach einer Bildungsaktivität – sagen wir mal einem Fortbildungsseminar – die Zufriedenheit der Lernenenden zu erfragen. All diese Ansätze sind nachvollziehbar und führen zu sinnvoll verwendbaren Ergebnissen. Hinzu kommt, dass Wissenschaft beständig zur Politikberatung herangezogen wird und dann möglichst einfach nachvollziehbar zuvor gestellte Fragen beantworten und die Ergebnisse so darstellen soll, dass auf ihrer Basis politische Entscheidungen getroffen werden können. Diese Studien sind dann zwar sehr praxisorientiert und lassen teilweise die inhaltliche Tiefe vermissen, welche man ansonsten von wissenschaftlichen Arbeiten erwartet – nichtsdestotrotz sind sie relevant, schließlich haben sie zumindest einen theoretischen Einfluss auf die Bildungspolitik. (Ob sie das tatsächlich haben, ist eine andere Frage, welche unter dem Schlagwort „Vermittlungsproblem“ gerade in der Sozialwissenschaft intensiv bearbeitet wird.) [1] Hinzu kommt, dass eigentlich „schon immer“, aber durch die Forderung nach Qualitätskontrolle und Evaluation verstärkt, in weithin dokumentierter Form wissenschaftlichen Methoden im kleineren Rahmen in den Bildungseinrichtungen selber angewandt werden, um Rückmeldung über die Wirksamkeit der eigenen Anstrengungen zu erhalten und diese zur weiteren Entwicklung der jeweiligen Einrichtung zu benutzen. [2]
Diese Vielfalt ist ein Ausdruck der Bedeutung, der Bildung allgemein zugemessen wird. Das ist zu begrüßen, aber für die Frage, welche Bildungseffekte Öffentliche Bibliotheken haben (könnten) ist diese unübersichtlich Landschaft einigermaßen unhandlich. Es ist nicht einfach möglich, eine Mastermethode zu übernehmen, die in einem ähnlichen Feld (beispielsweise der Museumspädagogik) entwickelt wurde und diese einfach für Bibliotheken anzuwenden. (Schade eigentlich.)
Insoweit ist erst einmal eine Systematisierung notwendig: Welche Methoden werden angewandt, um welche Forschungsfragen im Zusammenhang mit Bildung zu stellen? Welche Forschungsfragen werden überhaupt gestellt? Es ist ja nicht so, dass sich irgendwer hinstellt und fragt: „Ist die Bildung dieser Einrichtung jetzt gut oder schlecht?“, dann eine Methode anwendet, eine Zahl als Ergebnis erhält und damit zufrieden ist. Das mögen sich manche Politikerinnen und Politiker vielleicht wünschen, teilweise scheinen auch die PISA-Studien in der Öffentlichkeit so wahrgenommen worden zu sein. Aber ein Blick in die unterschiedlichen Forschung selber zeigt, dass das offenbar nicht funktioniert. Jede der Studien formuliert erstmal, was sie eigentlich untersucht, also welche Frage sie genau stellt und wählt aufgrund dieser Frage die jeweils angewandte Methode aus.
Eine solch Systematisierung ist das Thema des Abschnitts, an dem ich gerade schreibe. Letztlich muss eine solche Systematisierung auch noch daraufhin angeschaut werden, was sie für die Frage nach bibliothekarischen Bildungseffekten bringt. Aber das ist dann der folgende Schritt. Zumindest scheint es möglich, die Forschungsfragen nach drei Ebenen zu unterteilen und diese Ebenen nach einzelnen Elementen. Ebenen bedeutet hier: Inhaltliche Ebene, geographische Ebene, temporale Ebene. Deutlicher wird das wohl, wenn man die dazugehörigen Elemente ausführt.

Inhaltliche Ebene [also die Frage: was wird als Bildung verstanden oder an Bildung gemessen?]

  • Wissenzuwachs
  • Leistung [Beitrag zur Aufrechterhaltung eines gesellschaftlichen Subsystems wie ein Wirtschaftszweig oder die demokratischen Öffentlichkeit]
  • Verwertbarkeit [Zusammenhang von Bildungsabschluss und dem Geld, dass man über die Lebenszeit erhält]
  • Umsetzung von Zielsetzungen [individuellen, gesellschaftlichen oder anders definierten, beispielsweise der Vorstellung von Wirtschaftsverbänden von „ausbildungsfähigen“ Jugendlichen]
  • Wohlbefinden

geographische Ebene

  • individuell [also direkt „am“ Individuum gemessen, bei den den einzelnen Lernenden]
  • institutionell [eine Schule, ein Seminar etc.]
  • regional
  • gesamtgesellschaftlich / national / international

Temporale Ebene

  • aktuell [Vorbild: Leistungskontrollen in Schulen]
  • nach Beendigung einer Bildungsaktivität [beispielsweise Abschlussprüfungen]
  • biographisch
  • in einem definierten Zeitraum [eher die politische Kategorie, wenn beispielsweise die Opposition in einem Landtag überprüfen lassen will, ob die bildungspolitischen Entscheidungen der Regierung in den letzten drei Jahren überhaupt etwas gebracht haben]

Jeder dieser Ebene lassen sich ungefähre Erkenntnisinteressen zuordnen, welche mit jeweils ähnlichen Methoden angegangen werden. Also beim Element „Verwertbarkeit“ die Frage: Lohnt sich ein Bildungsgang und die direkten und indirekten Ausgaben für ihn? Dazu werden zumeist statistische Methoden genutzt, indem Bildung durch Abschlusszertifikate [Zeugnisse, Berufs- und Hochschulabschlüsse] operationalisiert und mit den beruflichen Karrieren von Menschen in einen Zusammenhang gebracht werden. Das ist etwas einfach ausgedrückt, die Methoden selber sind dann elaborierter, als einfach nur Zusammenhänge zu postulieren, auch die Fragen sind (oft) weitergehend. Beispielsweise wird gefragt, ob dieser Zusammenhang für Frauen anders ist, als für Männer (bzw. das weiß man auch so, die Fragen ist, wie sehr unterschiedlich der Zusammenhang ist). Oder beim Element „Wohlbefinden“ die Frage, wie jemand einen Bildungsaktivität wahrgenommen hat und wie er sie persönlich im Bezug auf den sinngebenden Effekt, den Bildung auch haben soll, bewerten würde. Dies wird meist realisiert, indem einerseits rekonstruiert wird, was eigentlich bei der jeweiligen Bildungsaktivität genau passiert ist und was deren Ziele waren und andererseits relativ offene (teil-standardisierte oder fokussiert-narrative) Interviews mit den Teilnehmenden geführt werden. Selbstverständlich haben all diese Ansätze ihre Vor- und Nachteile, zumeist auch „blinde Flecken“, also Dinge die sie nicht abbilden können. Das scheint aber kein Manko zu sein, solange die jeweiligen Grenzen reflektiert werden und nicht irgendwer behauptet, die einzig richtige Mastermethode gefunden zu haben, die alles im Bezug auf Bildung messen kann. [3]
Diese Systematisierung ist bei mir erstmal in einer größeren Tabelle kumuliert, welche sich aber gewiss im Laufe der Arbeit noch wandeln wird. Jetzt wird die Frage zu bearbeiten sein, was das für Bibliotheken und der Bildungseffekte heißen kann. Wenn beispielsweise zahlreiche Studien auf den Zertifikaten von Bildungseinrichtungen aufbauen, einfach weil diese verfügbar sind und zudem einigermaßen standardisiert vergeben werden, dann muss man einfach feststellen: das tun Bibliotheken nicht. Es gibt vielleicht hier und da „Bibliotheksführerscheine“ für Kinder oder Bescheinigungen über die Teilnahme an Recherchekursen [4], aber diese haben mit den Zertifikaten von Schulen und Ausbildungseinrichtungen nichts zu tun: ihr „Inhalt“, die Formalitäten für deren Erwerb und die Leistungen, die für diesen Erwerb aufzubringen sind, sind einfach zu uneinheitlich. Auf diese Weise wird Bildung in Bibliotheken nicht zu messen sein.

Fußnoten:
[1] Immerhin lässt sich so der Erfolg der Sinus-Studien verstehen, die in der Darstellung ihrer Ergebnisse relativ oberflächlich bleiben, die angewandten Methoden und ihre Datensammlung unter Verschluss halten (was eigentlich bei wissenschaftlichen Arbeiten gerade nicht passieren sollte, die immer so dargestellt werden sollen, dass sie nachprüfbar sind), da sie ihr Firmenkapital darstellen und trotzdem immer wieder neue Aufträge für weitere Teilstudien erhalten – zuletzt zur Lebenswelt von Migrantinnen und Migranten in Deutschland und zum Wiedereinstiegsverhalten von Frauen nach der Schwangerschaft und der Kindererziehung.
[2] Ganz abgesehen davon, dass auch die Theorieproduktion zum Entstehen von Bildungseffekten nicht zum Erliegen gekommen ist, trotz aller Warnungen davor, dass eine zu große Orientierung auf die praktische Verwertbarkeit von Wissenschaft genau dazu führen könnte.
[3] Okay, dass ist schon angesprochen worden: wenn die Öffentlichkeit diese Grenzen nicht wahrnehmen will, hat man das Problem wieder. Das ist ja mit den PISA-Studien passiert, deren Aussagekraft ja letztlich begrenzt war, einfach weil sie nicht das gesamte Bildungssystem untersuchten, sondern „nur“ die notwendig stark standardisiert abgefragten Leistungen von 15-jährigen Schülerinnen und Schülern in drei, später vier „Kompentenzbereichen“, wobei auch diese Bereiche einer Definition bedurften, die umstritten war. Über den musischen Unterricht, über die Leistungen am Ende der Schulzeit oder Einfluss von nicht-schulischen Lernorten beim Erreichen der jeweiligen Ergebnisse konnten die Studien keine Ergebnisse liefern. Dafür haben sie unumstritten den Vorzug – weil sie neben den Test auch die soziale Lage der Lernenden abfragten -, die sozial ungerechte Wirkung des deutschen (und belgischen) Bildungssystems empirisch untermauert zu haben. Das war der Öffentlichkeit – auch der bibliothekarischen – allerdings relativ egal, als die ersten beiden Studien diskutiert wurden. Die dortig gelieferten Werte wurden zu unanfechtbaren Aussagen über das gesamte Bildungssystem erklärt und die gelieferten Tabellen zu Wertungslisten wie in der Bundesliga. Daran hat auch die umfangreiche Darstellung der Testergebnisse und -instrumente sowie die Reflexion der Grenzen dieser Studien in diesen Publikationen nichts geändert. (Und das PISA 2006 jetzt in der Öffentlichkeit, an der Aufregung bei den beiden anderen Studien gemessen, quasi ignoriert wird, ist noch ein anderes Thema.)
[4] Ich rede von Öffentlichen Bibliotheken. Bei Hochschulbibliotheken, die sich als „Teaching Libraries“ verstehen, mag dies etwas anderes sein. Immerhin gelten die Angebote einiger dieser Bibliotheken als offizielle universitäre Module, in denen teilweise Credit Points erworben werden können.

Nach dem Bibcamp 08: Was ist mit der Öffentlichen Bibliothek 2.0?

Das Bibcamp 08 fand vorgestern in Potsdam und gestern in Berlin statt. Ich fand die Organisation gut und einer Unkonferenz vollkommen angemessen relaxt, aber als Miteinladender bin ich da wohl etwas voreingenommen. Inhaltlich können Menschen, die das Bibcamp „einfach besucht“ haben bestimmt mehr berichten.

[Banner in der Humboldt-Universität]

Trust, Flexibilität, locker bleiben
Was mich gegenüber „normalen“ Konferenzen am Konzept Barcamp interessiert hat, war der Einbezug von Prinzipien, die das Web 2.0 mitbestimmen, nämlich Flexibilität und Trust. Das hat sich bewährt. Wir haben einen Rahmen gestellt, also das „Drumherum“ organisiert (Räume, Sponsorengelder, Getränke, Essen, ein Wiki für die Kommunikation, Werbung, den social event am Freitag Abend) und für den Rest darauf vertraut, dass die Menschen, die zum Bibcamp kommen, mitarbeiten wollen, dass auch inhaltlich können – ohne dass wir vorher ihre Papers bewerten müssen – und das sie alle an einem offenen Umgang miteinander interessiert wären.
Die Selbstorganisation der Themen und Workshops hat genauso funktioniert, wie die Aufgabenteilung bei uns im Team der Einladenden, die – im Gegensatz zu anderen Teams, in denen ich mitgearbeitet habe – unglaublich relaxt, aufgabenorientiert und stressfrei ablief.
Ein Ding, das ich noch einmal bestätigt bekommen habe, ist, dass auch im Web 2.0 und Barcamps die Regel gilt, dass Selbstorganisation immer heißt, dass man es zur Not selber tun muss.

[Zum Laptopaufkommen des Bibcamp. Boris Jacob (libreas) leitet das gut besuchte Panel zur Kritik der Marke Bibliothek 2.0, Michael Heinz (IBI) erläutert gerade seine Position.]

Ansonsten ist die Organisation solcher Veranstaltungen durch die zunehmende Spezialisierung von Dienstleistungsfirmen und dem – unter anderen Aspekten zu bedauernden – Preisverfall für solche Dienstleistungen wie Druck, Getränke- und Essenslieferung relativ einfach geworden. Mit relativ wenig Finanzmitteln ausgestattet und mit etwas eigenem Engagement (welches einem aber niemand bezahlt – grmpfl) kann man solche Veranstaltung gut aus Modulen zusammensetzen. So klappt bei Barcamps etwas, was im Bachelorstudium nicht klappt: die Sachen auswählen, die man zu benötigen meint und mit relativ wenig Stress das rauskriegen, was man will. Der große Unterschied ist halt, dass die Wahlmöglichkeiten im Studium eher simuliert und mit einem viel so großem Druck verbunden sind, also zumeist keine freie Wahl darstellen, die zudem kaum Platz für Komplentation oder selbstbestimmte Vernutzung der gewonnen Zeit lassen; eine Unkonferenz dagegen schon.

Lob des Schaufensters

[Banner im Schaufenster, Fachhochschule Potsdam]

Ansonsten bin ich immer noch von dem Raum in der Fachhochschule Potsdam begeistert. Das „Schaufenster“ ist ein großer Raum mit einigen baulichen Ecken, Winkeln und Treppen, der ansonsten nur aus Beton und einer nahezu vollständigen Fensterfront besteht. Die Wände sind etwas vernutzt, aber auch nicht dreckig, auf dem Boden sind noch die dynamischen Markierungen des Sportfachgeschäfts, welches einmal dort seinen Ort hatte. Vom Aussehen und dem Flair her erinnerte mich der Raum an die späten 1990er in Berlin, zu der Zeit, wo ein Sommer ohne Loveparade nicht vorstellbar war und man gleichzeitig – weil die Loveparade halt eher langweilig und für die Brandenburger Jugend da war, die einmal im Jahr die Sau rauslassen konnten – auf der Fuckparade zu Hardcore, Gabba und Jungle, bzw. dem frühen Drum’n’Bass tanzen konnte. Großartig. Ein wenig erscheint der Raum in der FH-Potsdam als Bunker [damals der Club für Hardcore in Berlin und traditionell Startpunkt der Fuckparaden] in klein.
Neben diesem Feeling, dass wohl nicht alle teilen werden, ist das Schaufenster unglaublich flexibel. Da steht nichts fest, die ganzen Stühle, Tische, Kastenelemente, Präsentationsflächen sind frei im Raum zu verteilen. Und durch die Fensterfront fühlt man sich nicht so eingeschränkt, wie in vielen anderen Konferenzorten.
Und wie immer, wenn etwas gut ist, ist dessen Bestand eher Zufall. Das Gebäude der Fachhochschule soll – wegen dem Stadtschloss, dass gerade wieder gebaut wird; da merkt man die Prioritätensetzung – abgerissen werden, wenn auf dem zweiten Campus der Fachhochschule dafür Ersatz geschaffen worden ist. Das Schaufenster lebt von der Zwischennutzung eines Gebäudes, dessen Tage gezählt sind. Schade.

Öffentliche Bibliothek 2.0?

[Raumplan in der letzten Fassung]

Eigentlich wollte ich als Einladender keinen eigenen Workshop anbieten. Aber dann konnte ich mich doch nicht zurückhalten, auch weil sich am Beginn der Veranstaltung wenig Leute fanden, welche selber Themen anbieten wollten. Letztlich war der Workshop etwas zu ungenau gefasst. Zudem waren die Teilnehmenden offenbar auch an anderen Themen mehr interessiert, was ich allerdings nicht auf die Teilnehmenden alleine beziehen, sondern als allgemeinen Trend in der Debatte um die Bibliothek 2.0 beschreiben würde. Zumindest war das Thema etwas weit gefasst die Öffentliche Bibliothek 2.0 und Soziale Ungerechtigkeit. Irgendwie fiel auf dem Raumplan der Teil mit Öffentlichen Gerechtigkeit weg und dabei hätte ich es für das erste vielleicht auch erstmal bewenden lassen sollen. [Lesson learned.]
(Außerdem hatte sich für den Workshop von Christoph Deeg zum Thema Creative Industries – Spiele, Musik, Film etc. – und Bibliotheken kaum jemand interessiert – was ich gefährlich finde, weil diese Themen auf die Bibliotheken, insbesondere die Öffentlichen Bibliotheken, zu kommen werden. Deshalb floß letztlich dessen Workshop durch ihn in meinen Workshop mit ein. Auch wenn ich Christoph in einigen Punkten widersprechen würde, fand ich die Verbindung vollkommen folgerichtig und würde seiner Grundanalyse zustimmen: die Creative Industries, also vor allem die Spielebranche, sind ein Teil der Alltagskultur und bestimmen diese immer mehr – deshalb werden Öffentliche Bibliotheken nicht daran vorbei kommen, ihr Verhältnis zu diesen zu bestimmen.)
Was ich tatsächlich in diesem Workshop betonen wollte, ist, dass die deutsche Debatte um die Bibliothek 2.0 eine Debatte um Wissenschaftliche und Digitale Bibliotheken ist: Informationen organisieren, aufbereiten, „befreien“; Suchmaschinen auf Bedürfnisse zuschneiden; Informationskompetenzen vermitteln (halt zumeist an Studierende) und so weiter. Alles wichtig, ohne Frage. Aber die Öffentliche Bibliothek scheint da kein Thema zu sein. Und selber scheinen sich Öffentliche Bibliotheken auch nicht in die Debatte einzubringen.
Dabei wäre das nötig. Die Verteilung von Informationen und die eigenständige Produktion von Wissen, wie sie im Web 2.0 anders als bislang stattfindet, ist fraglos ein wichtiger Bereich. Aber der Hauptgrund für das Entstehen des Web 2.0 ist ein sozialer: MySpace, StudiVZ, Facebook, Weblogs, World of Warcraft, Seconde Life, Youtube etc. – das sind alles soziale Räume, die nicht vorrangig für die wissenschaftliche Contentproduktion benutzt werden, sondern um Spass zu haben und soziale Beziehungen zu pflegen. Die Wikipedia als populäres Projekt der Wissensproduktion scheint da eher die Ausnahme zu sein. Es ist dabei vollkommen egal, ob Bibliotheken das gut oder schlecht finden, es ist einfach Teil der Realität der meisten Jugendlichen, jungen Erwachsenen und einer immer größer werdenden Zahl von nicht-mehr-so-jungen Erwachsenen. Insoweit muss mit diesem Trend umgegangen werden. Wie, dass ist die Frage, die ich gerne diskutiert hätte. Ganz hat das nicht geklappt, ich bin aber mit der Erkenntnis aus dem Workshop gegangen, dass ich nicht der einzige bin, der dieses Mißverhältnis feststellt.
Dabei muss man im Hinterkopf behalten, dass sich das Problem verschoben hat. Einst gab es große Debatten um den digital divide und die Öffentlichen Bibliotheken reagierten sehr spät darauf, indem sie irgendwann Computer mit Internetanschluss mit der Hoffnung zur Verfügung stellten, dass diese Zugänge gegen den digital divide helfen würden. Das war damals schon relativ blauäugig, weil das zur-Verfügung-stellen von Medien noch keine Kluft in ihrer Nutzung überbrückt, sondern erstmal den Menschen hilft, die mit den jeweiligen Medien umgehen können. Aber immerhin. Heute ist die Situation anders. Zum einen sind viele dieser Anschlüsse in Bibliotheken kostenpflichtig – und zwar oft so teuer, dass es billiger ist, ins Internetcafe zu gehen. Das hilft gerade denen, die sich zuhause keinen Internetanschluss leisten können, wenig.
Zum anderen ist aber der Zugang zum Internet nicht mehr das große Problem. Beispielsweise wurden in den 2006er PISA-Studien die getesten 15-jährigen auch gefragt, wie ihre technische Ausstattung außerhalb der Schule ist: 96% hatten einen Rechner zu Hause, 92% einen Internetanschluss. Wenn man bedenkt, dass es auch explizite Verweigerung von Medien gibt [Und nicht nur bei Computern. Bei mir steht beispielsweise kein Fernseher, weil ich keinen möchte, bei anderen Menschen – auch solchen mit Abitur – stehen quasi keine Bücher, etc.], dann heißt das, dass nur noch für einen geringe Zahl von Jugendlichen [! Bei Erwachsenen kann das schon anders aussehen.] das Hauptproblem darin besteht, überhaupt ins „Internet zu kommen“. Es geht darum, am Web 2.0 partizipieren zu können oder nicht partizipieren zu können, dass heißt, an einer wichtigen Sphäre des kulturellen und sozialer Lebens teilhaben zu können oder nicht teilhaben zu können. Dies erscheint mir ein wichtiges Thema für Öffentliche Bibliotheken zu sein. Dabei kann die Aufgabe nicht sein, alle Menschen dazu zu bringen, an diesem virtuellen Kulturort teilzuhaben, aber es muss darum gehen, es allen zu ermöglichen. Dabei darf weiterhin nicht bei Einführungen in dies und das (Weblogs schreiben, MySpaceseite anlegen etc.) stehen geblieben werden. Eine Bibliothek soll biographisch langfristiger wirken und Menschen die Nutzung von Medien auch ermöglichen, wenn sie mit deren Nutzung schon bekannt sind. Vielleicht sind flexibel nutzbar Computerkabinette und WLAN-Parties sinnvoller, als Einführungen.
Man kann zur Verdeutlichung vielleicht eine Parallele zur Kulturpolitik ziehen: ich möchte gar nicht, dass alle Menschen an der Berliner Clubkultur partizipieren und ich weiß, dass sich viele Menschen dafür entscheiden, nie auch nur eine Club zu besuchen oder auf ein Konzert zu gehen und trotzdem in Berlin ein erfülltes Leben führen. Aber es ist ein Skandal, dass Menschen, nur weil sie in einem ländlichen Gebiet aufwachsen, keine reale Möglichkeit haben, überhaupt Musikveranstaltungen neben dem lokalen Mainstream besuchen zu können. Da ist es dann (eigentlich) die Aufgabe der Gesellschaft, solche Besuche zu ermöglichen, beispielsweise über lokale Kulturförderung oder auch einen effizienten Personennah- und Fernverkehr, der es möglich macht, um 3.30 Uhr aus der Kantine der Oper Köln nach X in Mecklenburg-Vorpommern zu fahren. Und wenn die Menschen sich dann doch lieber zuhause an der Bushaltestelle treffen wollen, dann ist das ihr Recht. Aber wichtig ist, dass sie die reale Möglichkeit haben müssen (d.h. auch das Geld, diese Angebote zu nutzen), an relevanten kulturellen und sozialen Szenen teilzuhaben.

Was bleibt?
Neben dem Vorhaben, mehr über die „Öffentliche Bibliothek 2.0“ nachzudenken, bleibt vom Bibcamp die Erfahrung, dass es möglich ist, mit relativ wenig Stress eine produktive und nette Veranstaltung zu organisieren, wenn man auf die Teilnehmenden vertraut, dabei transparent, flexibel und fehlertolerant bleibt, sich klarmacht, dass es darum geht, diese Veranstaltung nett zu gestalten und nicht in der Organisationsgruppe irgendwelche Pfründe zu verteilen. Zudem muss man Sachen manchmal einfach auch selber machen, wenn sie getan werden sollen. In Betriebssystemen gesprochen: mehr Linux, weniger Windows. Das heißt nicht, dass es keine Arbeit macht, aber man hat mehr Spass daran, die Veranstaltung zu organisieren und dabei zu sein.

Stehengeblieben ist am Ende des Bibcamp leider die Frage, wer das nächste macht. Die Form ist super, viele haben die Veranstaltung offenbar für gut befunden, aber niemand riss sich darum, das nächste Bibcamp zu organisieren. (Also: wir hatten ja auf Menschen aus Hannover oder Hamburg gehofft.) Noch ist das Zeitfenster offen, sich dafür zu entscheiden. Es wäre halt unbefriedigend, wenn dieses Bibcamp das einzige gewesen sein sollte. Wer sich findet: einfach ins Wiki schreiben.

Eine umfassende Photosammlung findet sich bei Prof. Hobohm, andere Berichte im Wiki zum Bibcamp.

PS.: Jetzt steht fest, dass eine Gruppe um die Fachhochschule Stuttgart das nächste Bibcamp macht und dass darauf eine Gruppe in Hannover. Außerdem haben wir als Einladende noch eine kleine Nachbereitung gemacht, die man – für ähnliche Veranstaltungen – gerne einsehen kann. Ist selbstverständlich Open Access, alles andere wäre vollkommen absurd.

Kompetent in welchen Medien?

Gee ist eine Zeitschrift für Computer- und Konsolenspiele, welche des Öftern dafür gelobt wird, Spiele als kulturelles Artefakt zu begreifen und zu beschreiben und nicht vorrangig als zu bewerbendes Produkt. Das stimmt nicht ganz – so traut sich auch Gee aus irgendeinem Grund nicht, einfach mal zu sagen, dass ein Spiel Müll ist und umschreibt das lieber in den letzten zwei Sätzen einer ansonsten ausgewogenen Besprechung -, aber es ist doch auffällig, dass sich diese Zeitschrift von anderen Spielezeitschriften abhebt: keine durchgängig gute Punktbewertung bei den besprochenen Spielen, genauer gesagt gar keine Punkte-/Sternchen-/Sonstwas-Bewertung, keine seitenlangen Cheats, dafür mehr Texte zur gesellschaftlichen Wirkung von Spielen, zur Technik der Konsolen und ähnlichen Themen. Computer- und Videospiele sind für die Gee Teil einer Popkultur, die bejaht, aber nicht kritiklos abgefeiert wird. Das Verhältnis ist ähnlich wie das der De:Bug zur Clubkultur und elektronischen Musik.
Deshalb passt der Artikel „Eingeschult“ von Danny Kringiel und Alfred Jansen in aktuellen Ausgabe (Mai/Juni 2008, S.46-50, auch online) zum Thema Computerspiele in der Schule fraglos gut in die Gee. Klar wird der Einsatz von Spielen in Schulen für gut befunden, aber gleichzeitig – im Rahmen des in journalistischen Texten Möglichem – diskutiert, welche Gründe es für eine solche Position gibt. Auffällig journalistisch ist in diesem Text, dass – wie auch gerne in bibliothekarischen Texten – zur Bestätigung der eigenen Position ein relativ dekontextualisiertes Beispiel aus dem Ausland angeführt und damit der falsche Eindruck erweckt wird, dass die eigene Position ohne Frage richtig sei und nur in Deutschland das noch nicht begriffen wurde. [1]
Interessant ist vor allem folgende Argumentation:

„[S]o beginnt das, was Pädagogen als ‚Medienkindheit‘ bezeichnen, dank Computerspielen immer früher: Schon in vielen Grundschulklassen besitzt die Mehrheit der Schüler heute DS-Konsolen, und mit zunehmendem Alter kommen dann in einer lückenlosen Zockerkarriere [noch] Playstation, Xbox oder PC hinzu. Nun ist es eigentlich zentrale Aufgabe der Schule, Heranwachsende in die Lage zu versetzen, mit dieser Lebenswelt umzugehen. ‚Nicht für die Schule, für das Leben lernen wir‘, heißt es. Und in der Medienpädagogik wird heute allerorten die Förderung von ‚Medienkompetenz‘ gefordert: Kinder sollen lernen, souverän Medientechnologien zu beherrschen, Medieninhalte kritisch zu hinterfragen, selbstbestimmt aus Medienangeboten auszuwählen und selbst Medieninhalte zu produzieren. Gemessen an der Hochkonjunktur des Begriffes müsste eigentlich längst an jeder Schule der Umgang mit Games gelehrt werden.“ [47f.]

Konsolen und PC-Spiele sind Teil der jugendlichen Realität. Durch die Diversifikation der Spielkonzepte und den heute biographisch frühen Zugang zu Computern gilt das auch – anders, als vielleicht in den 1980er Jahren – auch für Mädchen. [2] Gerade durch die Wii und ihre Zusätze, dem Trend zum Casual Gaming und dem Fakt, dass die „frühen“ Computerspielerinnen und Computerspieler jetzt auch schon vierzig Jahre alt sind und trotzdem immer wieder mal Spielen, gilt das zunehmend auch für andere Altersgruppen. Das diese Spiele nur einen schlechten Zeitvertreib und eine Flucht aus der Realität darstellen würden, glauben immer weniger Menschen. Ernsthaft vertreten wird diese Position auch nur noch von einer schlecht informierten Presse. [3] Vielmehr wird verstärkt akzeptiert, dass Spiele sozialisierend wirken und neben anderen Freizeitbeschäftigungen ihre eigene Bedeutung haben.
Die Frage, die Kringiel und Jansen berechtigt stellen, ist die, warum dann diese Spiele nicht einen größeren Teil der Vermittlung von Medienkompetenz einnehmen? Zumindest gibt es dafür Gründe. Eine solche Vermittlung – dass macht ihr Artikel deutlich – kann dabei nur gelingen, wenn die Vermittelnden den Umgang einigermaßen gewöhnt sind, was in diesem Beispiel heißt: selber mal spielen, sich mit der Wii albern machen und vor allem auch einmal neuere Spiele ausprobieren.
Dabei sind es nicht nur Schulen, die von sich behaupten, Medienkompetenz zu vermitteln. Bibliotheken schreiben sich diese Funktion ebenfalls regelmäßig zu. Nun haben sich Öffentliche Bibliotheken in Deutschland – solange die Mittel dazu da waren – schon längerer darum bemüht, jeweils einen Bestand von Computerspielen aufzubauen, auch wenn man über dessen Aktualität und Qualität immer streiten kann. Von einer rein ablehnenden Haltung zu solchen Spielen in Bibliotheken kann man schon lange nicht mehr sprechen. Das Problem scheint eher, dass nicht so recht klar zu sein scheint, dass es nicht darum gehen kann, einige Spiele im Angebot zu haben, um über diese Kinder und Jugendliche anzusprechen und die so gewonnen Nutzerinnen und Nutzer an die gedruckten Bestände heranzuführen. Diese Appetizerfunktion haben Spiele verlohren, falls sie diese überhaupt je hatten. Das haben sie mit Comics gemeinsam, die heute ja auch zu Recht als Kunstform anerkannt sind. Spiele sind eine eigenständige Medienart, welche viele Funktionen übernommt hat, die auch der Literatur zugeschrieben werden: sie unterhalten und tragen zu einer eigenständigen Gestaltung der Freizeit bei, sie bieten Rückzugsmöglichkeiten und haben gleichzeitig einen potentiellen sozialisierenden Effekt, sie können zur Steigerung des Selbstbewußtseins und der Kommunikationskompetenzen beitragen und zudem regen sie die Phantasie an. Sie enthalten ebenso Gefahren, aber auch das unterscheidet sie nicht von der Literatur. Wer ernsthaft Harry Potter liest, kann zum Beispiel anfangen an esoterische Erklärungsmuster zu glauben, sich anschließend mehr und mehr in einer Traumwelt einschließen und rationalen Argumenten unzugänglich werden. Deshalb will auch niemand Harry Potter verbieten aus Bibliotheken heraus halten. [4]
Medienkompetenz muss alle Medien umfassen, die einen relevanten Einfluss auf die Gesellschaft haben. Und sie muss aktiv vermittelt werden. Ein Bestand von Computerspielen reicht da nicht aus. Oder anders zugespitzt: eine Einrichtung, die ernsthaft Medienkompetenz vermitteln will, muss genügend Mitarbeitende haben, die wissen, warum Grand Theft Auto sich so gut verkauft, wer dieser Mario eigentlich genau ist und wie die Xbox aussieht.

Links:

Fußnoten:
[1] Interessanterweise benutzen Kringiel und Jansen sogar die gleiche Formulierung, die sich in zahlreichen bibliothekarischen Texten finden läßt: „Das Ausland ist bereits viel weiter.“ [50]
[2] Letzteres ist eine hier aufgestellte These, die allerdings nicht aus der Luft gegriffen ist. Eine Feststellung der feministischen Forschung zu der Frage, wieso Jungen andere Interessen ausprägen als Mädchen ist die Existenz des so genannten heimlichen Lehrplans. Nicht unbedingt gewollt, aber doch immer wieder reproduziert, werden dieser Vorstellung nach in der Erziehung von Kindern und Jugendlichen immer wieder Vorstellungen von Geschlechtsrollen vermittelt. Dies hat großen Einfluss auf die Ausprägung von Präferenzen und Verhaltensstrukturen. In diesem Rahmen wurde auch die relative Technikferne vieler Frauen – im Gegensatz zu Männern, bei denen es auch immer Technikferne gab und gibt – damit erklärt, dass Mädchen früh lernen, dass Technik nichts für sie sei. Angesichts des gesellschaftlichen Wandels im Bezug auf diese Vorstellung und dem Fakt, dass Kinder heute in einer Zeit mit Computern in Kontakt kommen, in welcher der heimliche Lehrplan noch nicht durchgreifend gewirkt hat, kann man erwarten, dass sich die Technikferne von Frauen im bezug auf Computer und Konsolen reduziert. Hierfür gibt es auch einige empirische Hinweise.
[3] Ein schönes Beispiel für eine solchen journalistischen Text liefert Thomas Klatt in der aktuellen Ausgabe der verd.i-Zeitschrift Publik unter dem Titel Spielen bis der Arzt kommt. (04/2008, S. 17) Unter Berufung auf eher – sagen wir es einmal so – umstrittene Expertinnen und Experten zeichnet der Autor das Bild einer Onlinespiele-Sucht. So würden sich beispielsweise Jugendliche den Wecker stellen, um auf international verbreiteten Spieleplattformen ihr jeweiliges Team unterstützen zu können, wenn die dort zu bewältigenden Aufgaben oder Kämpfe zu einer Nachtzeit stattfinden würden, was durch die Zeitverschiebung passieren können soll. Abgesehen davon, dass die empirische Basis für diese Behauptung nicht vorhanden ist, ist auch nicht klar, was daran schlecht sein soll. Wenn Jugendliche Sonntags früh um fünf aufstehen, um mit ihrem Sportklub mehrere Stunden zum einem Wettkampf zu fahren oder wenn Erwachsene sich die Nacht um die Ohren schlagen, um früh um vier eine bestimmte DJane zu hören, wird das auch als soziale Interaktion beschrieben und teilweise sogar (beim Sportklub) gefördert. Außerdem zitiert Klatt einen Experten, der ernsthaft behauptet, dass es gefährlich sei, wenn Jugendliche, die sich bisher mit ihrer Familie gut verstanden hätten, ab einem bestimmten Zeitpunkt wenig Interesse für diese hätten und sich lieber möglichst schnell in ihr Zimmer zurückziehen würden, um Computer zu spielen. Allgemein nennt man ein solches Verhalten Pubertät und macht sich Sorgen, wenn Jugendliche nicht spätestens mit 15 solche Anwandlungen haben, auch wenn sie nicht unbedingt immer Computer spielen, sondern bestimmte Musik hören, beginnen einer Subkultur anzugehören, mit Betäubungsmitteln experimentieren oder – horrible dictu – pausenlos Bücher lesen. Und schließlich wartet Klatt mit der Geschichte eines Jugendlichen auf, der eine Zeit seines Lebens gerne Computer spielte und damit aufhörte, als er seine erste Freundin hatte. So what? Weil der Autor offenbar meint, dass Computerspiele etwas Schlechtes seien, hält er diese Geschichte offenbar für ein Argument gegen diese. Aber eigentlich zeigt sie, dass Computerspiele eine Freizeitbeschäftigung sind, wie viele andere: sie lässt sich in ein normales Leben einpassen, von Zeit zu Zeit wird sie bestimmt etwas überbetont, aber zu anderen Zeiten auch gänzlich sein gelassen.
[4] Außer bezeichnenderweise religiöse Fundamentalistinnen und Fundamentalisten, die sich selber gedanklich in einer Traumwelt bewegen. Doch das ist ein anderes Thema.

Fortschritt, erster Teil

Na, das hat lange gedauert, aber da ist er: der erste Teil der Promotion in der Rohfassung.

Der ersten Teil ist der theoretische. Es werden die Konzepte Bildung und Soziale Gerechtigkeit allgemein und dann im Bezug auf Öffentliche Bibliotheken dargestellt. Mehr kann ich nicht sagen, da steht die Promotionsordnung vor. [Man darf das, was man als Promotion einreicht, nicht schon vorher veröffentlich haben, wenn ich das richtig verstanden habe, auch nicht in Teilen. Und was auch immer ich davon halte: ich werde das frühestens zu ändern versuchen, wenn die Promotion und Verteidigung überstanden sind.]
Der nächste Teil, der weit schneller fertig werden soll, wird sich damit beschäftigen, wie die im ersten Teil getroffenen Aussagen operationalisiert, also für die bibliothekswissenschaftliche Forschung und – aber das rückt immer weiter in den Hintergrund und wird wohl im dritten Teil behandelt werden – in die bibliothekarische Praxis handhabbar gemacht werden können.

Wirkung politischer Erwachsenenbildung

Die Frage, wie die Wirkung von Bildung gemessen werden kann, welche außerhalb des formalen Bildungssystems [Schule, Ausbildung, Hochschule und – je nach Diskussionsstand – auch Kindertagesbetreuungseinrichtung] stattfindet, wurde im Rahmen der Erwachsenenbildung fokussierter und intensiver bearbeitet, als dies bislang für Öffentliche Bibliotheken der Fall war. Insoweit kann die Studie Wirklichkeit und Wirkung politischer Erwachsenenbildung von Klaus Ahlheim und Bardo Heger [Ahlheim, Klaus ; Heger, Bardo (2006) / Wirkung und Wirkung politischer Erwachsenenbildung : Eine empirische Untersuchung in Nordrhein-Westfalen. – Schwalbach / Taunus : Wochenschau Verlag, 2006], Hinweise auf die Probleme und Möglichkeiten geben, die Wirkung von Bildung in Bibliotheken oder anderen Einrichtungen außerhalb des formalen Bildungssystems zu bestimmen, beispielsweise die von Museen, Jugendklubs, Stiftungen oder Vereinen.

Methode
Es gibt, so fassen Ahlheim und Heger gleich zu Beginn ihrer Arbeit den Sachstand zusammen, auf dem Gebiet der politischen Erwachsenenbildung kaum Daten, auf die eine Untersuchung aufbauen könnte, auch wenn in den letzten Jahren einige Untersuchungen zur Wirkung dieser Form von Bildung erschienen, welche allerdings wenig mehr als einige Hinweise geben können. Zudem besteht bei den Forschenden und Aktiven auf diesem Gebiet immer eine große Skepsis, ob eine solche Wirkungsmessung überhaupt möglich sei.
Wir sind vor allem überzeugt, dass man die Wirkung politischer Erwachsenenbildung, an der ja letztlich alle, die Teilnehmer, die Anbieter, de Lehrenden, die Träger, ‚Finanzierer‘ und Politiker, interessiert sind, nicht exakt messen und belegen kann. Und wir haben dennoch versucht, die Wirkung politischer Erwachsenenbildung empirisch auf die Spur zu kommen. [S. 8]
Ausgehend von der Erkenntnis, dass die Messung dieser Wirkungen mit einer einzelnen Methode nicht gelingen kann, unterteilen Ahlheim und Heger ihre Untersuchung in vier Schritte:

  1. Eine quantitative Bestimmung des Status Quo (also: Wieviele Einrichtungen? Wie groß? Welche Programminhalte? Welche Programmformen?), hauptsächlich durch Hinzuziehung vorhandener Statistiken und einer Programmanalyse von 27 ausgewählten Einrichtungen
  2. Aufgrund der Programmanalyse Experten-/Expertinneninterviews mit einer kleineren Stichprobe über die Trends in der politischen Erwachsenenbildung. Die Expertinnen und Experten waren die Mitarbeitenden in 15 Einrichtungen, welche jeweils in ihrer Einrichtung für die Programmgestaltung verantwortlich sind
  3. Zur Überprüfung der Ergebnisse des ersten und zweiten Schritts eine Verschickung von Fragebögen an einer größere Stichprobe von letztlich 116 antwortenden Einrichtungen
  4. Zur Überprüfung der Wirkungen politischer Erwachsenenbildung auf der Ebene der Teilnehmerinnen und Teilnehmer ein Anzahl von leitfadengestützten, biographieorientierten Interviews

Überevaluation
Gerade bei der Verschickung der Fragebögen stießen Ahlheim und Heger auf ein Problem, welches bisher – im Gegensatz zur englisch-sprachigen Wirkungsforschung – in Deutschland kaum thematisiert wurde: die (gefühlte) Über-Evaluation von Einrichtungen. Die Tendenz öffentlicher Verwaltungen und anderer Trägereinrichtungen, aber auch die Hinwendung zu einer praxisorientierten Forschung und zur verstärkten Ausbildung für diese Forschung, führte gerade in öffentlichen Einrichtungen in Großbritannien und den USA dazu, dass immer wieder neue Berichte geschrieben und neue Datensammlungen angelegt werden müssen, die ja auch Arbeitszeit kostet und immer weiter als Belastung empfunden werden. Offenbar führte auch die beständig neugefasste Evaluation in verschiedenen Einrichtungen dazu, dass kaum noch Zeit blieb, die Ergebnisse solcher Evaluationen in der eigenen Einrichtung auszuwerten und aus ihnen Konsequenzen zu ziehen.
In Deutschland scheint dieses Problem zwar an einigen Stellen reflektiert zu werden, Stefan Hornbostel vom Institut für Forschungsinformation und Qualitätssicherung erwähnt dies beispielsweise in seinen Vorträgen immer wieder einmal, aber in der Praxis und Forschung bislang kaum als Problem thematisiert zu werden. Ahlheim und Heger berichten demgegenüber sehr direkt von diesem Problem, welches sich in der Forschungspraxis mit hoher Wahrscheinlichkeit im zunehmenden Maße einstellen wird:

Auf unsere telefonische Mitteilung, dass wir die ursprünglich gesetzte Abgabefrist um einige Wochen verlängert haben, hörten wir recht oft – teils als Entschuldigung für die Verspätung, teils als Begründung für eine endgültige Absage an unser Ansinnen – die Klage, dass man zur Zeit mit Fragebogen und statistischen Erhebungen der verschiedenen Träger, Förderer und Geldgeber regelrecht, so mehrfach wörtlich ‚zugeschmissen‘ werde. [11]

Solches „Zuschmeißen“ hat hat außer Verspätungen bei der Beantwortung auch den Effekt, dass die Fragebögen und Berichte möglichst schnell ausgefüllt und geschrieben werden und deshalb in ihrer Aussagekraft verliehren, einfach, weil Standardformulierungen und ungefähre Angaben effektiver sind, als die eigentlich angestrebten Reflexion über die jeweilige Fragen. Gerade für sozialwissenschaftliche Ansätze stellt das ein großes Problem dar, denn was will man mit Fragebögen herauskriegen, die mit Standardantworten ausgefüllt werden? Zumal man sich ja erhofft, dass die angebotenen offenen Antwortmöglichkeiten neue Erkenntnisse ermöglichen.

Ergebnisse
Gemäß dem Anspruch an die politische Erwachsenenbildung, möglichst vielfältig zu sein und auf die Bedürfnisse der Gesellschaft einzugehen, ist die Landschaft dieser Bildung in Nordrhein-Westfalen sehr unterschiedlich und thematisch relativ bunt. Dies ist das grundlegende Ergebnis der Studie von Ahlheim und Heger. Gleichwohl schlägt sich die allgemein angespannte Haushaltslage auf die Programmgestaltung nieder, was allerdings auch zu erwarten war. Hervorgehoben wird, dass nicht einmal die in den Medien oft als schwer zu erreichenden „sozial Schwachen“ mit geringen Bildungshintergrund die Zielgruppe darstellen, welche von der politischen Erwachsenenbildung nicht erreicht wird. Vielmehr sind es gerade Berufstätige, die kaum an Veranstaltungen der politischen Bildung teilnehmen. Während andere Zielgruppen offenbar durch spezielle Programme erreicht werden, sind es gerade die Personen, welchen das Leitbild der deutschen Gesellschaft abgeben (die erwerbstätigen, selbstverantwortlichen und kompetenten Menschen), die sich der politischen Bildung relativ verweigern, solange es nicht gerade in gewerkschaftlichen Fortbildungen um betriebspolitische Themen geht. Allerdings ist zumindest in der politischen Erwachsenenbildung – wenn auch nicht unbedingt in der Öffentlichkeit – dieses Problem auch schon länger bekannt.
Interessanter ist das Ergebnis, dass kürzere Veranstaltungsformen (Vorträge, Diskussionen etc.) eher ein Stammpublikum der jeweiligen Einrichtungen ansprechen, während längere Veranstaltungsformen (Seminare, Vortragsreihen, Bildungsurlaub etc.) eher von „neuen“ Teilnehmerinnen und Teilnehmer gewählt werden. Zwar ziehen Ahlheim und Heger aus diesem Ergebnis keinen eigenen Schluss, deuten aber berechtigt an, dass dieses für die immer wieder auftauchende Debatte um den Sinn von „Kurzbildung“ relevant ist. Wenn vor allem Menschen „kurze“ Veranstaltungen nutzen, die immer wieder kommen, dann kann man von langfristigen Wirkungen dieser Veranstaltungen ausgehen, die mit einer Abfrage der Erkenntnisse direkt nach der Veranstaltung nicht erfasst werden können.
Interessant sind auch die Auseinandersetzung der politischen Erwachsenenbildungseinrichtungen mit dem Qualitätsmanagement (QM). QM wird nach und nach in unterschiedlichen öffentlichen und quasi-öffentlichen Einrichtungen zum Standard. Dabei stellen Ahlheim und Heger klar, dass es zwar einen Diskurs gibt, der ein Bild zeichnet, nachdem die Programmgestaltung in Bildungseinrichtungen nahezu ungeplant stattgefunden hätte und diesem Missstand jetzt mit Evaluationen und qualitätssichernden Maßnahmen Abhilfe geschaffen würde. Dieser Inszenierung eines relevanten Bruchs in der bisherigen Praxis stehe allerdings gegenüber, dass auch die bisherige Programmplanung nicht wahllos oder alleine an den Interessen der Unterrichtenden ausgerichtet gewesen sei. Eine Auswirkung des Diskurses sei eine Bedeutungswandel von Evaluationen. Habe bisher eine eher qualitativ angelegte Evaluation stattgefunden (Interviews, Nachbereitungsgespräche etc.), die hauptsächlich zur Eigenvergewisserung und der Programmplanung gedient hätten, würde nun Evaluation verstärkt als Mittel zur Außendarstellung begriffen und dabei auf quantitative Methoden (Statistiken, vergleichbare Zahlen) gesetzt.
Zumindest zum Zeitpunkt der Umfrage hatten noch nicht alle untersuchten Einrichtungen ein QM eingeführt, obwohl der Trend zu solchen Systemen rasant sein soll. So aber konnten Ahlheim und Heger festhalten, dass Einrichtungen, die ein QM eingeführt hatten, dieses positiver bewerteten als solche, die es gerade erst einführten oder sich aktiv gegen eine solche Einführung aussprachen. Ob diese unterschiedliche Haltung von den QM herrührt oder aber die Einführung der QM bewirkt hat, ist nicht festzustellen.
Relevant ist allerdings, dass QM in der Hoffnung eingeführt werden, die Qualität einer Einrichtung messen und verbessern zu können. Die Wirkung scheint allerdings eine andere zu sein:

Vieles spricht dafür, dass die Beschäftigung mit Qualitätssicherungssystemen oftmals weniger der Sorge um, die Qualität als vielmehr der Sorge um den Erhalt des Angebot geschuldet ist. [164]

Aufschlussreich ist indes der Rangfolge der positiven Wirkungen bzw. Erwartungen bei jenen, die bereits ein QM eingeführt haben und jenen, die sich gerade im Einführungsprozess befinden, sagt sie doch etwas über die wesentlichen Gründe, die aus Sicht der Einrichtungen für ein QM-System sprechen. In beiden Gruppen erhält die Antwortvorgabe ‚Wir werten unsere Veranstaltungen systematischer aus‘ die höchste Zustimmung (76 bzw. 63 Prozent). Hohe Zustimmung findet auch das ‚marktorientierte‘ Item ‚Das Image der Einrichtung verbessert sich‘. Es nimmt bei den Einrichtungen mit etabliertem QM-System den zweiten Platz ein (70 Prozent), bei den Einrichtungen in der Einführungsphase der dritten Platz (36 Prozent). In diesen Einrichtungen wird die etwas vage Hoffnung auf eine verbesserte Außenwirkung von einer konkreten Erwartung übertroffen, das nämlich die Einführung eines QM-Systems ‚den Zugang zu bestimmten >Fördertöpfen< ' eröffne (45 Prozent). Erst mit gewissem Abstand folgen Wirkungen, die unmittelbar mit der Qualität des Programms zu tun haben, dass sich das Angebot etwa 'konsequent an den Interessen und Bedürfnissen der Adressaten' orientiere (24 bzw. 26 Prozent). Und während das allgemein gehaltene Item 'Unser Programm wird spürbar besser' noch Zustimmungsquoten von 20 bzw. 29 Prozent erreicht, geht kaum einer der Befragten davon aus, dass das Bildungsprogramm infolge der Qualitätsentwicklung vielfältiger werde. Eher werden schon Befürchtungen geäußert, das Programm werde im Gegenteil stärker standardisiert und der Bereich der politischen Bildung verliere im Gesamtprogramm an Bedeutung. [165ff.]

Unsere Daten vermitteln jedenfalls den Eindruck, dass die Qualitätsentwicklung auf die Programmplanung und -gestaltung eher wenig Einfluss hat und ihre Wirkung stärker im Bereich der Organisationsentwicklung, der Verbesserung der internen Kommunikation und Verwaltungsabläufe liegen. [168]

Weniger überraschend, aber doch sehr eindeutig fallen die biographie-orientierten Interviews aus, die Ahlheim und Heger mit Teilnehmenden geführt haben. Die Grundfrage dabei ist nicht, welchen Erfolg eine einzelne Veranstaltung bewirkt hat, sondern welchen langfristigen Einfluss politischen Bildung auf das Leben von Menschen gehabt habe. Mithilfe dieses Ansatzes liegen schon einige wenige Ergebnisse vor, die darauf hindeuten, dass Bildung bei vielen Menschen gerade wenig kurzfristige Wirkungen habe, aber langfristig auf die Gestaltung des Lebens und der Sinngebung der eigenen Biographie großen Einfluss hat.[1] Genau das können Ahlheim und Heger auch für die politische Bildung nachweisen. Für einige Menschen ermöglicht diese Bildung, dass eigene Leben aktiv zu gestalten, für andere ist es Teil ihrer Individualität geworden. Das Problem dieser Methode ist allerdings immer die Auswahl der Befragten. Auch Ahlheim und Heger haben vor allem Menschen befragt, die öfter an politischer Erwachsenenbildung teilgenommen haben und bei denen auch zu erwarten ist, dass sie für sich persönlich einen Sinn in dieser Aktivität sehen, was sich dann in den Antworten auch widerspiegelt. Obwohl es immer wieder beeindruckend ist, zu lesen, wie Menschen wegen des Zugangs zu Bildung gesellschaftlich aktiv werden, aus einer eher resignativen Haltung heraustreten und politisch gestaltend und selbstbewusst werden oder auch die vorgezeichneten Biographien verlassen und statt mit einem Dasein als Hausfrau zufrieden zu sein, ein Studium beginnen und dafür eine Scheidung und die Probleme von Alleinerziehenden auf sich zu nehmen, lässt sich immer wieder fragen, ob diese beeindruckenden Beispiele nicht Ausnahmen darstellen, denen viele wirkungslosen Veranstaltungen gegenüberstehen.

Bibliotheken
Selbstverständlich lassen sich die Ergebnisse aus der politischen Erwachsenenbildung nicht direkt auf Bibliotheken übertragen. Die Frage, welche Wirkung die politische Erwachsenenbildung in Deutschland hat wurde spätestens seit einer Arbeitstagung der Bundeszentrale für politische Bildung im Sommer 1976 relativ kontinuierlich versucht wissenschaftlich zu beantworten. [Zumindest ist das der früheste Hinweis, den ich gefunden habe. Allerdings habe ich nicht aktiv nach früheren gesucht.] Viele Argumente für und wieder verschiedene Methoden sind ausgewechselt worden, die Anlage der Untersuchung von Ahlheim und Heger scheint einen Kompromiss darzustellen, der dieser Debatten mit einbezieht.
Gerade der Versuch, die Realität durch die Kombination verschiedener Methoden darzustellen, scheint auch für Bibliotheken und deren Bildungswirkungen sinnvoll. Dies scheint vor allem die Reflexion über die Grenzen und Möglichkeiten der jeweiligen Methodiken zu fördern und den Eindruck zu vermindern, dass es möglich wäre, mit einer „Mastermethode“, die eventuell auch noch möglichst einfach, billig, schnell und objektiv anwendbar wäre, die komplexen Wirkungen von Bildungseinrichtungen, welche – im Gegensatz zu Einrichtungen des formalen Bildungssystems – ohne Curricula und damit ohne feste Lernziele auskommen müssen/dürfen, bestimmen zu können.

[1] Vgl. für Teilnehmende an Telekollegs: Kade, Jochen ; Seitter, Wolfgang (1996) / Lebenslanges Lernen – mögliche Bildungswelten : Erwachsenenbildung, Biographie und Alltag . Opladen: Leske + Budrich, 1996. – [Studien zur Erziehungwissenschaft und Bildungsforschung ; 10]; für einen Überblick zur biographischen Bedeutung von Bildung: Fröhlich, Volker ; Göppel, Rolf (Hrsg.): Bildung als Reflexion über die Lebenszeit. Gießen : Psychosozial-Verlag, 2006, S.28-49. – [Psychoanalytische Pädagogik ; 23]