Archiv | Uncategorized RSS for this section

Schulbibliothek des Jahres 2011

Am Mittwoch, dem 08.06.2011, fanden quasi hintereinander zwei Veranstaltungen statt, die sich thematisch eng aufeinander hätten beziehen können, es aber praktisch überhaupt nicht taten. Von 16 bis 18 Uhr veranstaltete die dbv-Expertenkommission Bibliothek und Schule auf dem 100. Bibliothekstag eine Sitzung unter dem Titel „Auf die Schule setzen“, quasi direkt im Anschluss fand nur einen Berliner Bezirk weiter die Jurysitzung zur (ersten) Berliner Schulbibliothek des Jahres statt. Dieser Wettbewerb wurde von der Landesarbeitsgemeinschaft Schulbibliotheken Berlin / Brandenburg, in Anlehnung an den Preis zur Schulbibliothek des Jahres in Hessen, ausgeschrieben. Einen weiteren für Brandenburg gab es auch schon.

Erstaunlicherweise hatte man befunden, dass ich für diese Jury passend sei. Deshalb hatte ich die Verantwortung mitzutragen, zwischen fast 30 Einsendungen zu diesem Wettbewerb die „besten“ auszuwählen. Das war erwartungsgemäß nicht einfach. Alle Schulbibliotheken, die teilgenommen haben, sind sehr unterschiedlich, setzen sich eigene, oft an den jeweiligen Schulen orientierte, Ziele und werden allesamt mit großem Engagement betrieben. Welche Einrichtungen von der Jury ausgewählt wurden, wird auf der Preisverleihung am nächsten Donnerstag, den 16.06.2011, um 16.00 Uhr in der Schule am Tempelhofer Feld verkündet. Zu dieser Veranstaltung wird öffentlich eingeladen. Letztlich kann man aber sagen, dass keine der Einrichtungen, die eine Bewerbung eingereicht haben und dann nicht ausgewählt wurden, schlechte Arbeit geleistet hätte. Das eine Einrichtung „gewonnen“ hat und die anderen nicht liegt eher in der Struktur solcher Wettbewerbe begründet als in dem Engagement der teilnehmenden Einrichtungen.

Wie gesagt wird die Entscheidung der Jury am Donnerstag verkündet. Verwirrend und bezeichnend zugleich war allerdings die Gleichzeitigkeit dieser Jurysitzung mit den Präsentationen der ganzen Schulbibliotheken, die sich fast durchgängig eigenständig Aufgaben, Ziele und Strukturen gegeben haben und den Veranstaltung der Expertenkommission Bibliothek und Schule auf dem Bibliothekstag. Es gab zwischen beiden einfach gar keine, wie auch immer geartete Verbindung.

Die Veranstaltung der Expertenkommission begann mit einem Bericht über Schulbibliotheken in den USA. Nicht, dass in diesem Vortrag etwas berichtet wurde, was nicht auch anderswo schon über deren Situation bekannt war. Aber ganz offensichtlich waren dies für einen großen Teil der Anwesenden neue Informationen. Erstaunlich war allerdings, dass der Vortrag praktisch keine der problematischen Entwicklungen in den USA – nicht nur, dass dort aktuell um die Existenz der Schulbibliotheken gekämpft werden muss, sondern vor allem, dass der pädagogische Anteil der Ausbildung der teacher-librarians insbesondere in der jetzigen finanziellen Krise dazu führt, dass sie mehr und mehr als „richtige“ Lehrerinnen und Lehrer eingesetzt werden – thematisierte. Die einzige kritisch gemeinte Anmerkung zielte darauf, dass die US-amerikanischen Schulbibliotheken weniger mit Öffentlichen Bibliotheken zusammenarbeiten würden, als in Deutschland. Das allerdings scheint zu bezweifeln zu sein. Der Großteil der Schulbibliotheken, welcher der Expertenkommission bekannt ist mag mit Öffentlichen Bibliotheken zusammenzuarbeiten oder gar von diesen geführt werden, aber das liegt auch in der Natur der Sache: Schließlich ist die Expertenkommission eine Abteilung des dbv. Der größte Teil der anderen Schulbibliotheken kooperiert auch kaum oder gar nicht mit Öffentlichen Bibliotheken. Allerdings schienen sich die Informationen der Referentinnen zur Situation in Deutschland einzig auf den Aussagen der Expertenkommission zu basieren.

In einem zweiten Vortrag berichteten zwei deutsche Bibliothekarinnen, die am librarians in residence-Programms des Goethe Instituts teilgenommen hatten, über eine Studienfahrt im Rahmen dieses Programms, die sich auf Schulbibliotheken in den USA bezog. Dieser Vortrag war inhaltlich mit dem Artikel der beiden Referentinnen in der BuB, aber offenbar ebenso für einen Großteil der Anwesenden inhaltlich neu.

Nach diesen beiden Vorträgen stellte die Expertenkommission die – anderswo wohl als steil bezeichnete – These auf, dass es den Schulbibliotheken in Deutschland vor allem an Standards mangeln würde; insbesondere offenbar an solchen der Informationskompetenz. Deshalb folgten – immerhin in einer Veranstaltung unter dem Titel „Auf die Schule setzen“ – zwei Vorträge zur „Informationskompetenzvermittlung“. Auch diese hatten ihre Schwächen, beispielsweise wurden die Begrifflichkeiten Kompetenz, Qualifikation und Fähigkeiten – wieder einmal – wild durcheinander benutzt, ohne auf die inhaltlichen Differenzen der hinter diesen stehenden pädagogischen Konzepte einzugehen und zudem die eine Kompetenz zu einem großen Teil in einem argumentativen Zirkelschluss mit anderen Kompetenzen erklärt.

Interessant war aber vor allem das Vorgehen: Anstatt über die Situation von tatsächlich existierenden Schulbibliotheken in Deutschland, oder wenn man schon vor Ort war, in Berlin und Brandenburg, zu diskutieren, wählte man lieber das Thema „Informationskompetenz“. Gleichzeitig fand der Bibliothekstag auch auf dem Jury-Treffen keine Erwähnung. Offensichtlich existieren hier zwei Diskurse nebeneinander: Einer, der sich auf einige, wenige, stark bibliothekarisch orientierte Schulbibliotheken (die es in dieser Form in Berlin gar nicht gibt) bezieht und einer, der sich stark an den existierenden Schulbibliotheken anbindet und kein großes Interesse an den bibliothekarische Debatten entwickelt. Das ist keine neue Situation, am letzten Mittwoch wurde sie nur wieder einmal sehr klar offenbar.

Werbeanzeigen

Kompetenz, was ist das? Drei Bücher zur Kritik des Kompetenzbegriffes

Kompetenzen sind ein Thema, dass mich immer wieder ob seiner Verbreitung irritiert. Einerseits sind sie zur Standardvokabel geworden, auch im Bibliotheksbereich. Es gibt gefühlte zehntausend Forschungsprojekte in der Bildungsforschung, die XYZ-Kompetenzen von ABC (Kinder, Jugendlichen, Schülerinnen und Schülern in einer Klassenstufe oder Altersstufe oder im Quervergleich, von Lehrerinnen und Lehrern, von Erzieherinnen und Erziehern, von Eltern etc.) messen und dabei entweder vorhandene Kompetenzmodelle nutzen und weiterentwickeln oder gleich neue entwerfen. Andererseits hat dieses Wachstum der Verwendung des Wortes Kompetenz, insbesondere in zusammengesetzten Substantiven als XYZ-Kompetenz, und die ständige Neumodellierung und Weiterentwicklung nicht dazu geführt, das wirklich klar geworden wäre, was Kompetenz sein soll. Zumal dann nicht, wenn von der Förderung von Kompetenz oder Gestaltung von kompetenzenfördernden Lernorten et cetera geredet wird. Gerade dann, wenn sich aus der eigentlichen Schulforschung hinausbegeben wird und beispielsweise konzipiert wird, dass die Einrichtungen ABC (nicht nur Bibliotheken, auch die Soziale Arbeit, Kindertagesstätten, die berufliche und politische Weiterbildung, die Medienindustrie, NGOs und Vereine, die lokalen Bündnisse für Familien und so weiter) Kompetenzen fördern würden, scheint der Begriff Kompetenz relativ nach Gutdünken der jeweiligen Schreibenden genutzt zu werden. Mal als Fähigkeiten, mal als Potentiale der Individuen, mal als anwendungsbereite Fähigkeiten, mal als Qualifikationen, mal als notwendige Wissensbestände, mal ganz behavioristisch als klar abgrenzbar zu definierende Wissensbrocken, die direkt in die Lernenden hineingegeben werden, mal ganz konstruktivistisch als Bündel von Fähigkeiten, Potentialen und Motivationen von Personen, die sie sich selber als Lernende mit Unterstützung von Lernumgebungen und lernbegleitenden Personen angeeignet haben.
Diese Unterschiede in der Bedeutung von „Kompetenz“ sind nicht trivial. Vielmehr reden wir von sehr unterschiedlichen Vorstellungen davon, was, wie, von wem, wann, wie lange und warum gelernt worden sein soll – und wie es gemessen werden könnte, wenn überhaupt – und das alles unter einem Containerbegriff. Das mag, wie ich in einem anderen Beitrag zum bibliothekarischen Verständnis von Kompetenzen schon einmal ausgeführt habe, nicht mehr zu ändern sein. Eventuell ist das einzige, was noch bleibt, einzufordern, dass die Texte, die mit dem Begriff Kompetenz operieren, jeweils offenzulegen haben, was sie damit genau meinen. Es scheint doch sehr schnell einsichtig zu sein, dass beispielsweise zwischen der Vorstellung, Lesekompetenz sei quasi Lesefähigkeit und der Vorstellung, Lesekompetenz sei ein abgestuft messbares Fähigkeits- und Motivationsbündel, welches in komplexen Zusammenhängen darauf Einfluss nimmt, wie ein Individuum welche Texte und Textsorten für welche Zwecke nutzt, ein unüberbrückbarer Unterschied besteht, den man zumindest anzeigen sollte. So würde auch deutlich, dass oft sehr unterschiedliche Zielsetzungen verfolgt werden, wenn man von der Förderung von Kompetenzerwerb (oder gar von Kompetenzen) redet und dass es kein Wunder ist, wenn bestimmte Angebote, die Kompetenzen fördern sollen, das überhaupt nicht tun: Eben weil dann oft von zwei unterschiedlichen Dingen geredet wird.

Kompetenzen bei PISA beihalteten ein Versprechen
Es ist allerdings erstaunlich. Die PISA-Studien, die ja in Deutschland den Begriff Kompetenz als Teil von Bildung beziehungsweise als Bildungsziel etablierten, hatten eigentlich sehr klar ausgedrückt, dass Kompetenz ein Konzept sei, welches über die Konzepte von Fähigkeit, Schlüsselqualifikation oder einfach nur Lehrinhalt hinausgehen und die individuelle Verarbeitung von Wissen sowie die individuelle Disposition, es anzuwenden, mit einbeziehen würden. Zudem würden Kompetenzen tendenziell die Fachspezifika von Konzepten wie Fähigkeiten überwinden und als Potentiale begriffen werden, die über eine Anwendungsform von Wissen hinausgehen. Doch was ist davon im Diskurs angekommen? Er scheint, wenig bis gar nichts. Allerdings ist das auch mit zahlreichen anderen Aussagen der PISA-Studien geschehen, beispielsweise den Verweis darauf, dass die gemessenen Kompetenzen das Ergebnis von 15 Jahren Lernen der Schülerinnen und Schüler im gesamtgesellschaftlichen Kontext darstellen würden – und eben nicht nur der Schulbildung.
Seit ungefähr zehn Jahren ist der Kompetenzbegriff nun in der gesellschaftlichen Verwendung, was auch bedeutet, dass die ganzen Versprechen des Kompetenzbegriffes langsam überprüft werden können. Kompetenz sollte und soll es möglich machen, Bildung eher auf die tatsächlichen Lernprozesse der Individuen zu beziehen und gleichzeitig zukunftsfähig zu gestalten, dass Konzept sollte es ermöglichen, Qualität von Bildung zu steuern. Ist das geschehen? Was sind die Auswirkungen des Überhandnehmens des Kompetenzbegriffes? Zunehmend erscheinen Arbeiten, die gerade das zum Thema haben, ohne das ihnen – wie es am Anfang des letzten Jahrzehnts geschah – unterstellen zu können, einfach nur aus Radikalopposition „gegen Kompetenz“ zu sein. Sie untersuchen vielmehr vor dem Hintergrund eines Bildungssystems, dass seit einigen Jahren mit dem Kompetenzbegriff agiert, dessen Funktionsweise.

Kompetenzdiskurs ohne Widerstand?
Eines dieser Werke ist die Dissertation von Udo Haeske (Haeske, U. / ‘Kompetenz’ im Diskurs : Eine Diskursanalyse des Kompetenzdiskurses. – [Dissertation]. – Berlin : Pro Business, 2008), in welcher er mit dem Anspruch auftritt, eine Diskursanalyse des Kompetenzbegriffes zu leisten. Die Dissertation ist allerdings sehr langatmig, da sie sich beständig daran abarbeitet, in einer auch für Dissertationen unnötigen Länge und Breite die Diskursanalyse nach Foucault zu erläutern. Dabei geht das Thema „Kompetenz“ in weiten Teilen unter.
Dennoch sind die Ergebnisse zu erwähnen. Als Datenkorpus benutzt Haeske die rund 4000 Veröffentlichungen, die sich bis 2007 im Katalog der Deutschen Nationalbibliothek nachweisen ließen und die „Kompetenz“ oder eine Zusammensetzung mit diesem Wort [Wobei nicht klar ist, ob im Titel oder auch als Schlagwort. Recherchestrategien zu beschreiben weigert sich der Autor erstaunlicherweise.] beinhalteten. [Der Autor behauptet zudem, dass die zurückgemeldeten Daten der DNB nicht einheitlich gewesen seien und deshalb nachbearbeitet werden mussten. Das kann nicht stimmen, oder?]
In der ersten Sichtung und Ordnung dieses Korpus zeigt Haeske, wenn auch nicht unerwartet, dass die Verwendung des Begriffes Kompetenz keinen Regeln folgt, sondern quer über die Themenfelder, verbunden mit anderen Begriffe oder als eigenständiger Begriff genutzt wird. Zwar gibt es Häufungen im pädagogischen, politischen und ökonomischen Feld, aber keine erkennbaren einheitlichen Verwendungsweisen.
Im nächsten Schritt wertete Haeske die Monographien und Herausgeberwerke, die eine klarere Definition des Kompetenzbegriffes versprechen, inhaltlich auf genau das aus: die impliziten und expliziten Definitionen des Kompetenzbegriffes. Dabei stößt er erstaunlich oft auf das Eingeständnis, dass eine solche Definition nicht existiert und gegeben werden kann. Gleichwohl hält er – was im Anschluss an Foucault eigentlich selbstverständlich ist – fest, dass der Diskurs um Kompetenz eine Subjektivität schafft, auf welche die Individuen reagieren. Dieser Subjektivität ist eine beständige Reflexion der eigenen Handlungen, eine Verortung des eigenen Lernweges anhand von Zielbestimmungen und der Verantwortung, zu lernen eigen (Selbstorganisation der Subjekte). Gleichzeitig enthält der Kompetenzbegriff des Versprechens, Differenzen zwischen Bildung und Anforderungen (gesellschaftlichen und solchen des Arbeitsmarktes) in gewisser Weise zu heilen. Kompetenz würde beständig als Mittel beschrieben, sich an Anforderungen anzupassen. Dabei würde dem Kompetenzbegriff eigen sein, dem Subjekt immer wieder klar zu machen (oder es dazu zu bringen, sich selber klar zu machen), dass es noch nicht ausreichend kompetent sei. Es würde also ständig eine Differenz zwischen möglicher, besserer Kompetenz und der vorhandenen konstatiert, was zu einer fortgesetzten Aneignung und Transformation von Kompetenzen führen solle.
Schließlich weist Haeske auf dem Umstand hin, dass unter „Kompetenz“ immer wieder die Anpassung des Subjektes an Anforderungen verstanden und beschrieben wird, aber nicht die theoretisch wachsende Widerstands-Kompetenz. Wenn ein Subjekt, welches kompetent ist oder dabei ist, es zu werden, beständig zur Reflexion und Neuplanung des eigenen Entwicklungsweges gedrängt wird, wachsen selbstverständlich auch die Widerstandspotentiale der Subjekte. Wer darüber nachdenkt, was er oder sie lernt oder lernen soll, kann auch immer zu dem Ergebnis kommen, es nicht (mehr) tun zu wollen, etwas anderes lernen zu wollen oder aber seine Kompetenz anders zu verwenden. Der Fakt selber istnicht erstaunlich, sondern spätestens seit der Aufklärung immer Teil von Bildungsdebatten gewesen. Erstaunlich ist allerdings, dass dies tatsächlich kaum thematisiert wird, so als ob eine kompetenz-orientierte Bildung zu Subjekten führen würde, die alle bei ihren Zielen von Bildung übereinstimmen würden.

Die Offenheit des Kompetenzbegriffes in der Bildungspolitik
Der Vorwurf, den Anne Müller-Ruckwitt, am Ende ihrer Dissertation (Müller-Ruckwitt, Anne / „Kompetenz“ : Bildungstheoretische Untersuchungen zu einem aktuellen Begriff. – [Bibliotheca Academica, Reihe Pädagogik ; 6]. – Würzburg : Ergon Verlag, 2008) ausformuliert hat, lautet, dass der Kompetenzbegriff, so wie er von den PISA-Studien beziehungsweise dem PISA-Konsortium eingeführt wurde und dann in der Bildungspolitik und -planung verwendet wurde, keine bildungstheoretische Einbindung hat und den eigenen Ansprüchen durch seine relative Beliebigkeit nicht entsprechen kann.
Dabei vertritt sie die interessante, und bei ihr auch durch sprachgeschichtliche und konzeptionelle Fakten untermauerte, These, dass der Begriff Kompetenz gerade nicht, wie es gerne behauptet wird, ein international geteilter wäre, sondern vielmehr – ähnlich wie bei „Bildung“ – einen deutschen Containerbegriff darstellen würde, der zwar übersetzt werden könnte, aber in anderen Gesellschaften (wobei sie weder die österreichische noch die schwitzer Gesellschaft betrachtet) anders verstanden würde, als in Deutschland.
Die PISA-Studien seien auch angetreten, um in gewisser Weise – wie es die Autorin so blumig ausdrückt – den gordischen Knoten des „Zukunftsparadoxons“ zu durchschlagen. Bildung, insbesondere wenn sie längerfristig ist (wie bei Schulen), hat immer mit dem Problem umzugehen, dass sie Menschen jetzt für eine Gesellschaft ausbilden soll, die erst noch kommen wird. Sie muss Wissensbestände vermitteln, die später einmal relevant werden, in einer Zeit, in der die Gesellschaft anders sein wird. Das ist ein beständiges Problem. Wir können heute auf eine Anzahl gescheiterter Versuche zurückblicken, dass zu bewerkstelligen. Selbst die Versuche, direkt aus Berufsanforderung zu vermittelnde Wissensbestände abzuleiten, führten nicht zum gewünschten Ergebnis.
Die PISA-Studien würden nun mit dem Kompetenzmodell versuchen, dieses Problem zu lösen, indem sie eine Grundbildung definieren, die sich als Potentiale zur Lebensbewältigung definieren. Bildung würde, so Müller-Ruckwitt, funktionalistisch und auf die einzelnen Individuen bezogen verstanden. Damit, das alles als Kompetenzen nicht nur eingeteilt, sondern zudem als messbar begriffen wird, würde auch die Vorstellung vermittelt werden, dass praktisch alles lernbar sei und es nur von den Umständen (zum Beispiel der Schule oder der Unterrichtsgestaltung) und den Individuen abhängen würde, ob etwas gelernt oder nicht gelernt würde.
Allerdings, so Müller-Ruckwitt, würde das PISA-Konsortium sich nicht daran versuchen, diese Grundbildung herzuleiten oder gar zu begründen. Es würde auch kein Rückschluss zu Bildungstheorien versucht. Vielmehr würden im Laufe der unterschiedlichen PISA-Studien unterschiedliche Bildungskonzepte relativ beliebig beziehungsweise funktionalistisch aufgerufen. Das würde es allerdings sehr schwer machen, überhaupt über das Kompetenzmodell der PISA-Studien zu debattieren: Es steht ja nicht wirklich fest. Es würden vielmehr Fragen relativ pragmatisch offen gelassen:

„Inwieweit lassen sich Vorstellungen persönlicher und wirtschaftlicher Art miteinander vereinbaren? Handelt es sich um zumindest partiell kongruente Dimensionen oder werden in der Formulierung ‘in persönlicher und wirtschaftlicher Hinsicht’ nicht zwei ganz unterschiedliche Referenzebenen bemüht?
Wie ist es zu verstehen, wenn von der anzustrebenden ‘aktiven Teilnahme am gesellschaftlichen Leben’ die Rede ist? Bemisst sich ‘aktive Teilnahme’ an der Fähigkeit zur Integration in ein im Vorhinein verfasstes gesellschaftliches Leben oder an der bewussten und reflektierenden Mitgestaltung desselben? Geht es in diesem Punkt um den Menschen in seiner gesellschaftlich-kulturellen Rolle und mit seiner berufsbezogenen Qualifikation oder dem Menschen in seinem Personsein?“ [Müller-Ruckwitt a.a.O., S. 34]

„Die PISA-Studien stellen aus sich heraus – entgegen dem selbstgesetzten Anspruch – keinen qualitativen Zugewinn für den Bildungsdiskurs dar. Dass sie aber sehr wohl zur Auseinandersetzung mit der Frage der Aktualität und Noch-Zeitgemäßheit des tradierten Bildungsbegriffs anregen, indem sie mit großer Nachhaltigkeit einen neuen Schlüsselbegriff, i.e. Kompetenz, in die Diskussion um Bildung einführen, ja dass sie mit ihren theoretischen Defiziten und der nachgewiesenen begrifflichen Unkontuiertheit geradezu dazu provozieren, zeigt das bildungs- und schulpolitische Echo, das PISA auslöst.“ [Müller-Ruckwitt a.a.O., S. 55]

Müller-Ruckwitt geht im weiteren Verlauf ihrer Arbeit auf die zahlreichen bildungspolitischen Projekte, die sich im Umfeld der PISA-Studien etablierten, ein und untersucht dort die Verwendung des Kompetenzbegriffes. Das Ergebnis ist, dass sich dort die Verwendung noch weiter als bei den Studien selber auf sehr unterschiedliche Vorstellungen bezieht.
Zudem weist sie auf ein Paradoxon des Kompetenzbegriffes hin: Einerseits geht der Kompetenzbegriff daran, engen Begriffen von Bildung (beispielsweise Qualifikation oder Schlüsselqualifikation) zu widersprechen. Das Individuum und dessen Potentiale soll im Mittelpunkt der komptenzbasierten Bildung stehen. Dies impliziert eine Individualisierung von Bildung. Gleichzeitig geht Kompetenz mit dem Versprechen einher, diese relativ offenen Bildungsinhalte, die ja beispielsweise auch Motivationen umfassen, messen und in unterschiedlichen Kompetenzstufen systematisieren zu können. Das ist tatsächlich paradox und bislang auch nicht aufgelöst. Die Kompetenzmessungen, die in der Bildungsforschung vorgenommen werden, entwerfen immer weiter quantitativ zu erhebende Daten, obgleich der Kompetenzbegriff qualitative Studien nahelegt.
Müller-Ruckwitt sieht im Kompetenzbegriff gerade wegen der Gegnerschaft zu engen Bildungsbegriffen auch Chancen für die Bildung, sobald der Begriff bildungstheoretisch rückgebunden wird. Gleichzeitig zeigt sie auf, dass er bislang relativ beliebig genutzt wird. Zudem zeigt sie, dass auch der Kompetenzbegriff historisiert werden kann und er deshalb gerade nicht, wie das teilweise implizit unterstellt wird, selbstverständlich ist.

Kritik der sozialen Vereinheitlichung
Eine kurze Anmerkung: Aufgabe der Kritik ist es, Kritik zu üben – nicht zu sagen, wie es richtig sein soll. Teilweise scheint dies heute vergessen zu sein. Kritik, im Sinne zum Beispiel der Kritischen Theorie aber auch der Machtanalytik von Foucault, ist immer dazu da, von der Gesellschaft zurückzutreten und ihre Wirkmechanismen zu verstehen, nicht (nur) um sie zu verändern, sondern auch um sich – wie es Max Horkheimer ausgedrückt hat – nicht dumm machen zu lassen. Eine solche Kritik – die sich radikal von Evaluationen unterscheidet, die heute auch gerne einmal als Kritik bezeichnet werden, aber auch von Flamewars – unternimmt Andreas Gelhard (Gelhard, Andreas / Kritik der Kompetenz. – Zürich : Diaphanes, 2011) für den Kompetenzbegriff, obgleich er sich dabei vor allem auf die berufliche Bildung und die berufliche Kompetenz bezieht.
Dabei versteht er Kompetenz und Kompetenztests als aktuelle Version der Kontrollgesellschaft, als Fortsetzung der von Foucault beschriebenen Transformation von Beichte zur Kontrolle im Sinne des benthamschen Panoptikums. Kompetenztests werden bei Gelhard verstanden als Kontrollmechanismen, welche Subjekte formt – beziehungsweise, auch wenn er das nicht so sagt, über Anrufung (nach Althusser) zur beständigen Selbstreflexion und Selbstformung anhält –, ohne direkten Zwang anzuwenden. Vielmehr würden Kompetenztest beständig, aber nachdrücklich auffordern, sich zu messen, zu beobachten und zu verändern. Wie schon Haeske festgestellt hat, wird eine beständige Differenz zwischen notwendig zu erwerbender Kompetenz und vorhandener Kompetenz behauptet, den Subjekten also klar gemacht, dass sie sich verbessern müssten. Dabei bezieht sich dieses Besser-werden gerade nicht allein darauf, besser auf Anforderungen des Arbeitsmarktes zu reagieren, sondern geht immer mit dem Anspruch einher, bessere, im Sozialkontext agierende Menschen zu formen.

„Die zeitgenössischen Testverfahren nehmen nicht das Urteil Gottes vorweg, sondern gleichen die Selbsteinschätzungen des Probanden mit der Beurteilung durch Vorgesetzte, Mitarbeiter und Kollegen ab.“ [Gelhard a.a.O., S. 64]

„Die rapide Verbreitung psychologisch instrumentierter Kompetenztests hat in diesem Zusammenhang also denselben Effekt wie die Verlagerung zahlreicher Prüfungssituationen ins Informelle: Sie erweitert den Bereich überprüfbarer Situationen, Handlungsmuster und seelischer Dispositionen.“ [Gelhard a.a.O., S. 111]

Die Besonderheit in Gelhards Analyse besteht darin, die Kompetenztests im beruflichen Feld zu untersuchen und ihre Wirkungsweisen zu beschreiben. Die Verbindung zwischen den Kompetenzbegriffen im pädagogischen Feld, dem beruflichen Feld und anderen Feldern (beispielsweise dem bibliothekarischen) wurde bislang offenbar noch nicht unternommen.
Gelhard beschreibt aber einige weitere Versprechen, die dem Kompetenzbegriff inhärent sind, aber selten ausgesprochen werden.

„Die Idee einer gerechten Kompetenzförderung [die von Luc Boltanski und Éve Chiapello in ‘Der neue Geist des Kapitalismus’ als moderne politische Forderung angesehen wird, K.S.] lebt von demselben Versprechen, das auch die Leistungsbereitschaft der Arbeitnehmer in der ‘Projektpolis’ aufrechterhalten soll: dass bei noch so unsicheren Arbeitsbedingungen und noch so geringer Bezahlung immer auch etwas für das berufliche Fortkommen abfällt.“ [Gelhard a.a.O., S. 110]

Dieser Verweis ist ernst zu nehmen: Kompetenz wird immer wieder als positives Ziel begriffen, fraglich ist allerdings, ob das unbedingt zutrifft oder ob er nicht auch dazu benutzt wird, politisch zumindest umstrittene Entwicklungen zu begleiten. Gelhard verweist zudem auf die Schwierigkeit, dass der Kompetenzbegriff – und hier kann man sich auch direkt auf das pädagogische Feld beziehen – auf dem Bild einer konfliktlosen Gesellschaft aufbaut, die sich nicht mit dem Bild einer demokratischen Gesellschaft, in der Konflikte ja existieren, geäußert und gelöst werden sollen, deckt.

„Das politische Ideal dieses Systems ist die Auflösung aller politischen Antagonismen durch gezieltes social training oder, mit Arendt gesprochen, die Auflösung des Politischen im Sozialen.“ [Gelhard a.a.O., S. 147]

Dem muss man nicht unbedingt zustimmen. Allerdings kommt Gelhard – wenn auch über einen Umweg über Boltanski und Chiapello, denen zu widersprechen er sich offenbar vorgenommen hat – zu dieser Aussage, indem er etwas tut, was der Kompetenzdiskurs ansonsten gerade nicht zu tun scheint: Er historisiert und verortet den Kompetenzbegriff in der philosophiegeschichtlichen Auseinandersetzung mit der Gesellschaft. Dem zu widersprechen ist eigentlich nur möglich, indem sich auch auf eine philosophische Ebene begeben und die Grundbegriffe des Kompetenzdiskurses dargelegt würde – was, wie Müller-Ruckwitt gezeigt hat, nicht so einfach möglich sein wird. Insoweit übernimmt Gelhard tatsächlich die weiter oben angesprochene Funktion der Kritik. Zumindest aber sollte man also aufpassen, was man „mitmeint“ und welche Grundaussagen über Menschen und Gesellschaft man trifft, wenn man den Begriff Kompetenzbenutzt. Er ist halt – im Guten wie im Schlechten – kein Synonym für Fähigkeit oder Qualifikation.

Selfpublishing-Verlage ziehen schlimme Menschen an. Eine Polemik.

Bei der gestrigen Langen Buchnacht in Kreuzberg stellte unter anderem ein Selfpublishing-Verlag seine Angebote in einer Präsentation vor. Der Name ist egal, denn bei anderen Selfpublishing-Verlagen wird es ähnlich sein; auch ist es irgendwie vertretbar, dass so ein Verlag eine explizite Kulturveranstaltung für eigene Werbung nutzt, immerhin haben auch die anderen Verlage ihre Büchertische bei den Lesungen ihrer AutorInnen aufgestellt und der Selfpublishing-Verlag bot selber neben der Produktpräsentation Lesungen an. Zudem muss ein solcher Verlag Werbung für die Selbstpublikation machen, schließlich ist das sein Produkt.

Ich habe die Präsentation aus Interesse gesehen. Nicht, weil ich literarische Ambitionen hätte, sondern um die Unterschiede zwischen diesen und „richtigen“ Verlagen einmal live zu sehen. Das war unerfreulich. Noch nicht einmal wegen der aktuellen Produkte und Arbeitsabläufe, die vorgestellt wurden. Dass man selber zu Layouten hat, außer man zahlt mehr; dass man selber Korrektur zu lesen hat, außer man zahlt mehr; dass man selber für sein Buch Werbung machen muss – geschenkt. Das ist es ja, was man von solchen Verlagen erwartet. Unangenehm war das ständige Grinsen und gut-drauf-sein der hippen, jungen Verlagsangestellten. (Die ehrlich gesagt so hip nun auch nicht waren, aber vielleicht bin ich da zu Berlin-verwöhnt.) Sie strahlten die ganze Zeit weniger ein Interesse an Kultur, Büchern, Literatur aus, sondern eigentlich nur eine Verkaufs- und Dienstleistungsmentalität. Der Verlag halt als reines Unternehmen und weniger als Literaturhaus, aber auch das sehr unentspannt im Gegensatz zum Beispiel in den Kleinverlagen, die ich sonst so näher kenne. Andererseits war dieser Habitus auch vollkommen passend. Und zumindest die Bücher, die dieser Verlag ausgelegt hatte als Beispielprodukte, waren qualitativ vollkommen tragbar, teilweise tatsächlich überraschend kreativ. Insoweit habe ich vielleicht einfach zu wenig diverse Vorstellungen von Verlagsarbeit, dass mir dieser Habitus überhaupt als negativ aufgefallen ist. Zugleich muss man diesem Verlagsmodell zugute halten, dass hier sehr schnell klar wird, was man kauft und was nicht – im Gegensatz zu anderen Verlagen, wo teilweise Leistungen nicht erbracht werden, man das aber sehr spät herausfindet. (Ich schaue da mal heimlich zu einigen Wissenschaftsverlagen ‚rüber, die im Ruf stehen, die Korrektur und das Lektorat praktisch eingespart zu haben.)

Wobei kaufen das richtige Stichwort ist. Wirklich unangenehm scheinen die Menschen zu sein, die sich für diese Selbstpublikationsverlage und deren Angebote interessieren. Selbstverständlich gibt es immer auch sinnvolle Projekte – beispielsweise zahlreiche Jahrbücher und Kataloge, die in diesem Verlag gedruckt und weit qualitativer verarbeitet sind, als die Jahrbücher und Kataloge aus dem Copyshop – und Menschen, die Bücher aus Interesse verlegen. Bei der Veranstaltung gestern fiel allerdings auf, dass die Menschen die ganze Zeit von den Kosten redeten beziehungsweise davon, was sie verdienen könnten. Kein Wort während der ganzen Veranstaltung fiel über Inhalte, keines über Literatur oder pädagogische Zielsetzungen oder Ähnliches. Einzig, wie der Verlag finanziell gegen andere Verlage stehen würde, wo man mehr verkaufen könnte, wo man Dinge einsparen könnte – das schien von Interesse zu sein. Das ganze inklusive einiger Menschen, die immer wieder betonen mussten, dass sie schon soundsoviel Bücher im Selbstverlag publiziert hätten (Ist das eigentlich etwas, worauf man stolz sein kann, heutzutage?), die aber trotzdem in diese Veranstaltung gingen, wohl um zu schauen, ob sie noch zwei Cent sparen oder irgendwelche Leistungen extra kriegen und den kostenlosen Sekt trinken könnten. Zumal diese Menschen dann auch so allgemeine Sachen, wie beispielweise was eine ISBN-Nummer ist und wozu die gut sein könnte, nicht nur nicht wussten, sondern auch nicht verstanden, als es erklärt wurde.

Ich bin ja eigentlich abgestoßen von dem Gejammer, dass Dinge immer schlechter werden, die Jugend immer dümmer etc. (Und sie werden es ja auch nicht. Wie gesagt, gibt es weiterhin relaxte Kleinverlage, die Bücher aus politischen und / oder ästhetischen Interessen verlegen und ungefähr bei Plus-/Minus-Null rauskommen.) Aber es ist doch auffällig gewesen, dass diese Selfpublishing-Verlage einen sehr unschönen Menschenschlag anziehen, zumindest unschön bezogen auf ihr literarisches Verständnis. Menschen, die vergessen – oder auch nie gewusst – haben, dass Geschichten geschrieben werden, weil etwas gesagt werden muss; dass Gedichte gedruckt werden müssen, weil sie etwas aussagen; dass Photobände publiziert sein müssen, weil die ganze Welt das alles sehen muss; dass wissenschaftliche Texte gedruckt werden, um eine wissenschaftliche Kommunikation zu ermöglichen. Das Buch ist diesen Menschen zum reinen Produkt geworden, offenbar nur vorhanden, um sie zu finanzieren oder auf ihrer Publikationsliste zu stehen. „Es gibt kein richtiges Leben im falschen“ flüstert der innere Adorno mir zu. „Die Inwertsetzung aller Produkte ist eine Konstituente der kapitalistischen Gesellschaft.“ (Mein innerer Adorno hat sich zum Teil von der Postmoderne anstecken lassen.) „Schon richtig“, raune ich zurück. Aber wie Martin Büsser immer wieder einmal betonte: Das ist auch kein Grund, nur noch falsch zu leben. Es gibt so etwas wie das falschere Leben im falschen. Und offenbar bringt das Angebot der Selfpublishing-Verlage Menschen zusammen, die sich nicht sehr um das richtigere Leben kümmern. Da mögen die Verlage nichts für können und wie gesagt, werden auch Menschen mit anderen Ansprüchen deren Angebote annehmen, aber es ist kein Menschenschlag, dem man oft begegnen möchte.

Wie die Freie Software Bewegung einmal aus dem Oracle auszog ins gelobte Land der Freiheit. Eine Pessachgeschichte.

Zur Pessachzeit passt eine aktuelle Geschichte, die erzählt zu werden lohnt, den sie zeigt, dass man sich nicht immer den Vorstellungen anderer unterordnen muss, um erfolgreich zu sein. Es ist eine Geschichte davon, wie ein wichtiges Projekt der Freien Software Bewegung einmal zu einem finanziellen Zugpferd einer großen Software-Firma werden sollte, sich aber von diesem Schicksal befreite und am Ende richtig gewann.

Die ganze Geschichte begann mit einigen Gerüchten im Frühjahr 2009. Oracle, eine Firma, die mit Datenbanksystemen und Bürosoftware groß geworden ist, hätte vor, Sun Mircosystems zu kaufen.

Sun war vor allem eine Hardwarefirma, die aber auch Software verkaufte. Seit Längerem folgte Sun einer Open Source Strategie: Freie Software wurde teilweise massiv gefördert, Entwickler für diese Software wurden extra angestellt. Dabei profitierte Sun von der Verbreitung dieser Software, aber auch von den Entwicklerfähigkeiten, die in den Open Source Communities vorhanden waren. Bekannt war das Betriebssystem OpenSolaris, welches eine freie Version der jeweils aktuellen Entwicklungsversion des von Sun vertriebenen Betriebssystems Solaris darstellte. Hier wurden Neuigkeiten getestet und – so zumindest die Theorie – Verbesserungen integriert, die dann dem kommerziellen Produkt Solaris eingegliedert wurden.

Den guten Ruf von Sun in der Freien Software Bewegung etablierte allerdings ein anderes Produkt: OpenOffice.org. 1999 hatte Sun den Hersteller der Office-Suite StarOffice gekauft, 2000 wurde – obgleich StarOffice weiter verkauft wurde – mit OpenOffice.org eine Open Source Variante veröffentlicht. Diese hatte besonders am Anfang ihre Probleme, aber durch die massive Förderung von Sun, die Entwickler – und bestimmt auch Entwicklerinnen – einstellte, eine Community organisierte und OpenOffice.org massiv bewarb, wurde das Programm zu einem der Vorzeigeprogramme der Freien Software Bewegung. Für die breite Öffentlichkeit gab es in der zweiten Hälfte des letzten Jahrzehnts neben Firefox wohl kein anderes Programm, dass die Potentiale Freier Software besser repräsentierte, als OpenOffice.org. (Das hat sich durch Google, genauer Chrome und Android, etwas geändert. Aber die erschienen beide erst 2008 das erste Mal.)

Selbstverständlich gab es auch immer Bedenken. War es gut, dass die Community direkt bei einer Firma angesiedelt war, auch wenn die Firma offensichtlich ein sehr großes Interesse an Freier Software hatte? War OpenOffice.org tatsächlich die bestmögliche Office Suite? (Es gab und gibt daneben auch immer andere freie Office Suites wie Abiword. [http://www.abisource.com] Die Alternativen beschränkten sich nie auf Word oder OpenOffice.org, auch wenn manchmal dieser Eindruck entstand.) Aber alles in allem war OpenOffice.org eine sehr gute Werbung für Freie Software und das dahinter stehende Modell: Eine sinnvolle und nutzbare Office Suite und ein Firma, die trotz der massiven Förderung von Freier Software Geld verdiente. Eine Symbiose.

Die dunklen Wolken ziehen auf am Sommerhimmel

Allerdings verdiente Sun nicht genug Geld (was nicht unbedingt an der Freien Software lag). Zumindest gab es länger anhaltende Probleme mit der Firma und im Januar 2010 kaufte Oracle – nachdem auch andere Bieter im Gespräch waren – Sun. Nun hatte Oracle in der Freien Software Bewegung nicht den guten Ruf, den Sun hatte, aber auch nicht den schlechtesten. Oracle ist nicht Mircosoft. Es war also nicht so richtig klar, was mit der OpenSource-Strategie von Sun geschehen würde, zumal Sun nicht vollständig in Oracle eingegliedert, sondern als Tochterunternehmen weitergeführt werden sollte.

Im Januar 2010 verkündete Oracle noch, dass weiterhin Geld in Open Source Projekte investiert werden sollte. [http://www.golem.de/1001/72712.html] Aber es wurde sehr schnell klar, dass die Firma eine andere Strategie hatte. Den Anfang macht OpenSolaris. Im August 2010 wurde klar, dass es nicht weitergeführt würde [http://www.heise.de/newsticker/meldung/Oracle-kehrt-OpenSolairs-den-Ruecken-1059146.html], im August löste sich das OpenSolaris Governing Board auf [http://www.heise.de/open/meldung/OpenSolaris-Government-Board-tritt-zurueck-1064247.html], nachdem Oracle quasi jede weitere Kommunikation verweigert hatte [http://www.golem.de/1008/77213.html]. Es wurden mit Illumos [http://www.illumos.org] und OpenIndiana [http://openin.org] Projekte gestartet, um OpenSolaris außerhalb von Sun/Oracle am Leben zu halten. Die Frage drängte aber: was wird mit OpenOffice.org geschehen?

Im Sommer 2010 sah es noch relativ gut aus. Die erste neue Version mit Oracle aus Hauptsponsor der Community (Version 3.2.1) wurde veröffentlicht. [http://www.golem.de/1006/75575.html] Auch wurde der nächste größere Versionssprung auf die Version 3.3 angekündigt. [http://www.golem.de/1008/77103.html]

Doch zu dieser Zeit gab es schon intern große Spannungen zwischen Oracle und Community, die auch an die interessierte Öffentlichkeit drangen. Oracle hatte klar gemacht, dass sie die Oberhand über OpenOffice.org verstärkt ausüben wollten. Es ging darum, aus OpenOffice.org ein kommerziell erfolgreiches Produkt zu machen, bei dem eine bezahlte Version weit vor einer jeweils freien Version erscheinen sollte. Das ist kein ungewöhnliches Modell und Oracle wollte offenbar von dem guten Namen OpenOffice.org profitieren. Allerdings: die Community wollte dies nicht. Sie hatte nicht an der Suite gearbeitet, damit jetzt eine Firma, die noch nicht einmal richtig in diese investiert hatte, aus ihr Profit schlagen konnte.

Let my people go

Das Unbehagen mit Oracle zog sich eine Weile hin, dann entschloss sich ein großer Teil der Community zum nächsten Schritt: Sie gründeten eine Stiftung [http://ww.golem.de/1009/78259.html], die Document Foundation [http://www.documentfoundation.org]. Diese Stiftung sollte die Arbeit an OpenOffice.org weiterführen. Auch das ist kein neues Modell: die Linux Foundation [http://www.linuxfoundation.org] und die Free Software Foundation [http://www.fsf.org] sind nur die zwei größten Stiftungen der Freien Software Bewegung. Es gibt hunderte andere, die sich damit beschäftigen, einzelne Software zu entwickeln und zu verbreitetn. Allerdings ist der Schritt, eine Community quasi auszugründen immer ein gewagter. Die Stiftung hoffte darauf, dass Oracle auf diesen Schritt positiv reagieren würde und lud die Firma ein, der Stiftung beizutreten und die Rechte am Namen OpenOffice.org mit einzubringen. (Die Software selber stand und steht unter einer freien Lizenz, so dass es ohne Probleme möglich war, diese weiter zu pflegen beziehungsweise zu forken.) Oracle allerdings lehnte ganz offen ab [http://www.golem.de/1010/78448.html] und verkündete, OpenOffice.org künftig selber herausgeben zu wollen. [http://www.golem.de/1010/78626.html]

Daraufhin begann der Exodus. Die Entwickler und Entwicklerinnen verließen Oracle und wechselten zur Stiftung. [http://www.golem.de/1010/79035] 40 Tage und 40 Nächte berieten sie und kamen mit dem Plan hernieder, die Office Suite unter einem neuen Namen weiter zu betreiben: LibreOffice [http://www.libreoffice.org] wurde geboren. [http://www.golem.de/1011/79298.html] Firmen aus dem Open Source Bereich traten sehr schnell der Stiftung bei. Es war eine Wüste, durch die die Open Source Community schritt, aber dann brannte ein Busch und veröffentlichte im September 2010 die ersten Zahlen [http://www.golem.de/1010/78468.html] und es teilte sich das Wasser vor ihnen: 80.000 mal wurde die erste Beta-Version des ersten LibreOffice allein in der ersten Woche heruntergeladen.

Der Pharao Oracle spie Gift und Galle: Wer sich an der Document Foundation beteilige, könne sich nicht gleichzeitig an der OpenOffice.org-Community beteiligen. [http://www.golem.de/1010/78718.html] Wer immer das Projekt verlassen würde, wäre ersetzbar. Noch im März 2011 ließ der Pharao verkünden, dass die Personalverluste praktisch ausgeglichen worden seien. [http://www.golem.de/1103/81816.html]

I’ve Been to the Mountaintop

Doch alles dies half nichts. Die Document Foundation hatte auf dem Berg gestanden und im Tal das gelobte Land der Freiheit und Selbstbestimmung gesehen. Es gab kein Zurück. LibreOffice bekam ein neues, helleres Aussehen – den Engeln gleich in weiß – und es erschienen nach und nach Release Candidates für das erste richtig LibreOffice. [http://www.golem.de/1012/79901.html] Oracle hielt im Dezember 2010 der Veröffentlichung der Version 3.3 von OpenOffice.org dagegen. [http://www.golem.de/1012/80148.html] Aber gerade dort, wo sich die meisten Entwicklerinnen und Entwickler tummeln, die zur Weiterentwicklung des Programms hätten beitragen sollen, reagierte man negativ auf Oracle: in der Open Source Bewegung selber. Beispielsweise entschieden quasi all die Linux-Distributionen, die bislang OpenOffice.org als Standard-Office-Suite benutzten, zu LibreOffice zu wechseln, nachdem im Januar 2011 die erste stabile Version erschienen war [http://www.golem.de/1101/80947.html]. Ubuntu tat es [http://www.golem.de/1101/80502.html], OpenSuse tat es [http://www.heise.de/open/meldungen/Dritter-Milestone-von-OpenSuse-11-4-mit-LibreOffice-1135736.html], Fedora tat es [http://www.netzwerk.de/news/85874-fedora-core-15-neue-linux-distribution-gnome-3-libreoffice.html] – und dies ging immer so weiter, wenn eine Distribution in den letzten Monaten grundlegend geupdatet wurde.

Die Hoffnung von Oracle, OpenOffice.org unter Kontrolle halten und damit Geld machen zu können, schwand immer mehr. Ende März 2011 veröffentlichte die Document Foundation ihren ersten Halbjahresbericht und konnte fast nur Positives berichten. [http://www.golem.de/1103/82413.html] Alles sah danach aus, als würden sich aus dem alten OpenOffice.org zwei unterschiedliche Office Suite entwickeln. Eine betreut von der Stiftung, eine von Oracle. Doch dann geschah das – etwas verführte – Pessachwunder: Oracle gestand praktisch ein, dass die Kommerzialisierungs-Strategie bei OpenOffice.org nicht aufgegangen war. LibreOffice im gelobten Land prosperierte, während OpenOffice.org am Leben erhalten werden musste. Am 16.04. kündigte das Unternehmen an, OpenOffice.org einer freien Community zu übergeben. Keine kommerzielle Version mehr, so eine – jetzt schon nicht mehr zu erreichende – Meldung. [http://www.heise.de/newsticker/meldung/Oracle-stellt-kommerzielle-OpenOffice-Version-ein-1227944.html] Genau das, was die Firma vor einigen Monaten noch explizit abwehrte, will sie jetzt einführen. Doch die freie Community kam nicht einfach zurück. Vielmehr lud sie Oracle ein, der Document Foundation beizutreten. [http://www.heise.de/newsticker/meldung/LibreOffice-Projekt-macht-weiter-wie-geplant-1230066.html] Ansonsten würde sie einfach weiter machen wie geplant. Schließlich entwickelt sich LibreOffice ganz prächtig. Es wurde verschont vor dem Untergang.

Netzaktivismus ja, aber fehlende Forschungspraxis

Der Netzaktivismus – als Sammelbegriff der gesamten quasi-politischen Aktivitäten im Internet – ist aktuell zu Recht oft Thema der Berichterstattung. Einerseits ist das alles immer noch neu und in bestimmten Zusammenhängen offenbar erfolgreich, andererseits ist auch schon wieder alt genug, um über die Realität des Netzaktivismus zu reflektieren. Der Medienkongress, den vor allem die taz letztes Wochenende in Berlin veranstaltete [http://www.heise.de/newsticker/meldung/Die-Blogger-Revolution-spricht-1224939.html], war dafür ein ganz gutes Beispiel: Da finden in der arabischen Welt Revolutionen statt, die mit dem dortigen Netzaktivismus eng zusammenhängen, gleichzeitig werden in Demokratien wie Deutschland Bewegungen wie die Anti-Stuttgart-21-Kampagne sehr einflussreich, auch weil sie auf den Aktivismus im Netz basiert und zahllose Menschen sind von alldem begeistert – und dann macht eine Zeitung, die einst als Medium einer Gegenöffentlichkeit angetreten war, aber über die Jahre ihr kritisches Potential praktisch auf Bioladentipps und Gutmenschentum reduziert hat [1] und bis heute noch nicht mal weiß, ob sie diese arabischen Revolutionen gut finden soll oder nicht, einen Kongress darüber, der selbstverständlich mit der Haltung: „Ist ja alles ganz schön und gut, am Anfang viel zu wollen, dass wollten wir auch mal, aber irgendwie ist dann auch mal gut“ einhergeht. Wie gesagt: dass passte.

Eines der großen Probleme bei allem Netzaktivismus ist ja, dass es bei allen Erfolgen immer auch zahlreiche Bedenkenträgerinnen und -träger gibt, die fragen, was das jetzt eigentlich bringt und was daran neu sein soll. Die taz ist da halt eine der besten Beispiele, weil sie dieses Bedenkentragen schön selbstironisch verpacken und trotzdem mit einigem Recht sagen kann, dass sie selber ein gutes Beispiel dafür ist, warum es halt nicht nur Gemecker, sondern ein sinnvolles Fragen ist, das quasi aus der historischen Erfahrung hergeleitet werden kann.

Selbstverständlich: alles ist komplex. (Außerdem: Remember McLuhan.)

Ganz so einfach ist es selbstverständlich nicht. Der Netzaktivismus ist keine Kopie des Aktivismus in Alternativmedien, auf der Straße, den Vereinen und Parlamenten. Zudem sind sich die Aktivistinnen und Aktivisten im Netz bewusst, was es für andere Formen de Aktivismus gab und gibt, welche nicht gehaltenen Versprechen, aber auch – dafür steht die Freie Software beispielsweise als Erfolg ja auch – welche Möglichkeiten tatsächlich im Netzaktivismus stecken. Sie reflektieren die Erfahrungen des vorhergehenden Aktivismus. Insbesondere erheben sie kaum noch den Anspruch, die einzig sinnvolle und funktionierende Form des gesellschaftlichen Aktivismus zu sein.

Zumal in dem Jahr, in welchem Marshall McLuhan 100. Jahre alt geworden wäre, kann man daran erinnern: The content of a medium is always another medium. Das gilt beim Netzaktivismus mit erschreckender Genauigkeit. Wir reden vom einem explizit neuen Medium, dass aber als Inhalt die alten Medien aufgenommen und in quasi dialektischer Weise transformiert hat.

Henrik Serup Christensen hat in der Februar-Ausgabe der First Monday zu diesem Thema eine zusammenfassenden Text geschrieben: Political activities on the Internet: Slacktivism or political participaton by other means? (In: First Monday 16 (2011) 2, http://www.uic.edu/htbin/cgiwrap/bin/ojs/index.php/fm/article/view/3336/2767) fragt danach, was einerseits das neue am Netzaktivismus ist, gleichzeitig aber auch, was an welchen Vorwürfen, die dem Netzaktivismus gemacht werden, berechtigt ist. Es fehlt dem Text in gewisser Weise ein eigenständiges Ergebnis, aber ansonsten ist er als sehr tiefgehender Überblicktext unbedingt zur Lektüre zu empfehlen.

Christensen bemerkt, dass sich die Forschungen zum Netzaktivismus auf die westlichen Demokratien beschränken. Das ist einsichtig, nicht nur, weil der Text wohl vor den arabischen Revolutionen geschrieben wurde, sondern weil sich auch die Fragen anders stellen. In einer etablierten Demokratie, in welcher – bei allen realen Einschränkungen – die Teilhabe an der Gesellschaft durch Alle als positives Merkmal angesehen und direkt gefördert wird, wo teilweise sogar die Politik sich über zu wenig politische Teilhabe beschwert, meint beim Netzaktivismus immer auch etwas anderes, als Bewegungen, die sich einen freien Diskussions- und Meinungsraum in Diktaturen erst erkämpfen müssen.

Netzaktivismus: Was ist das? Ist das schecht?

Im Text selber stellt Christensen fest, dass sich die Bedeutung von politischem Engagement durch das Netz geändert hat. Zum einen heißt „sich engagieren“ etwas anderes, als zuvor. Zum anderen ist aber auch die Bedeutung des Politischen für die Einzelnen anders geworden. Gesellschaftlicher Aktivismus war immer eingelassen in soziale Praxen, historisch kann man aber eine Fortbewegung von den geschlossenen politischen Milieus (beispielsweise das sozialdemokratische Milieu: Sozialdemokratische Partei, sozialdemokratische Gewerkschaft, sozialdemokratische Baugenossenschaft, sozialdemokratischer Singe- und Turnverein, sozialdemokratische Kneipe et cetera) am Anfang des 20. Jahrhunderts über die politische Gesamtidentität eines Individuums in den 1970er Jahren („er ist ein Sozialdemokrat durch und durch“) bis hin zum gesellschaftlichen Engagement als Teil der Individualität („Sie ist Chefin, im Sportverein aktiv, Mutter sowie aktives Mitglied im Naturschutzbund und der SPD“) feststellen. Aus dieser Position heraus ist es immer einfach, mit einem älteren Politikverständnis dem jeweils Jüngeren vorzuwerfen, dass das eigentlich alles kein ernsthaftes gesellschaftliches Engagement darstellt, was von diesen jungen Menschen gemacht wird. Und genau dieser Vorwurf wird auch aus Richtung der etablierten gesellschaftlichen Initiativen und Forschenden, die ein älteres Politikverständnis haben, gegen den Netzaktivismus erhoben. Nicht ungebrochen, nicht unreflektiert, aber doch relativ kontinuierlich.

Christensen stellt dabei zwei zentrale Kritikpunkte heraus: Erstens wird behauptet, das Netzaktivismus weniger effektiv wäre als herkömmlicher Aktivismus; zweitens wird behauptet, dass der Netzaktivismus allgemein zu einem geringen Level von Partizipation führen würde – sowohl was die Anzahl der Aktiven angeht als auch die Form des Engagement. Es wird postuliert, dass die Menschen eher die Formen gesellschaftlichen Engagements wählen würden, die weniger Aufwand, persönlichen Einsatz und langfristige Mitarbeit erfordern würden. Also eher auf einen „I like“-Button drücken, als an einer Demonstration teilnehmen, lieber ein Blog aufsetzen und drei Monate lang betreiben als über Jahre in Plena und Planungsgremien zu verbringen.

Aber stimmt das überhaupt? Selbstverständlich ist die Antwort nicht einfach und eindeutig zu geben. Aber letztlich, dass auch das Ergebnis der Zusammenfassung von Forschungen bei Christensen, lautet die Antwort: Nein. Richtig ist, dass sich die Formen des Aktivismus durch das Netz transformiert haben. „Alte“ Formen – wie Petitionen, Unterschriftensammlungen, Informationssammlungen, Publikationen – und „neue“ Formen wurden zusammengeführt. Dabei muss betont werden, dass das eine das andere nicht ersetzt hat. Das Internet hat Vereine und Parteien, Aktive auf der Straße, in autonomen Zusammenhängen und Stiftungen et cetera nicht verdrängt, sondern deren Aktivitäten mit neuen Formen der Partizipation ergänzt. Was bei Christensen anklingt, aber nicht weiter ausgeführt wird, ist das Phänomen, dass zahlreiche Bewegungen im Netz über kurz oder lang auch Offline-Strukturen ausbilden. Die Freie Software Szene mit ihren zahllosen Stiftungen (Linux Foundation, KDE e.v., GNOME Foundation, Free Software Foundation et cetera) ist dafür ein anschauliches Beispiel.

Get involved, have fun.

Christensen konstatiert, dass eines der Hauptkritierien für den Großteil des Netzaktivismus sei, Aktivitäten zu ermöglichen, die (auch) dazu beitragen, das die Partizipierenden sich besser fühlen. Dies allerdings ließe sich auch auf zahlreiche gesellschaftliche Aktivitäten außerhalb des Netzes beziehen. Nicht umsonst gibt es das verbreitete Negativbild von den „Gutmenschen im Prenzlauer Berg“, die Bionade trinken und sich deshalb gesellschaftlich verantwortlich fühlen, obgleich sie es nicht sind. Allerdings konstatiert der Artikel, dass solche Arten des Engagements im Netz einfacher geworden sind. Christensen zählt zum Beispiel Onlinepetitonen dazu und bemerkt berechtigt, dass auch Offline das Unterschreiben einer Petition keiner großen Anstrengung bedarf (wir reden hier wie gesagt immer von Demokratien, nicht von Diktaturen), aber durch das Netz die Möglichkeit der Verbreitung von Informationen zu einer Petition leichter geworden ist.

Weiterhin verweist Christensen darauf, dass Netzaktivismus oft mit einer gewissen Politiklosigkeit einhergeht. Der Aktivismus selber steht teilweise im Vordergrund, ohne das die Ziele unbedingt politisch sein müssten. Das ist schon richtig: Raids (Demos/Besetzung von Foren, Boards und so weiter), Pranks (Streiche, eher heftige), Lulz (quasi die Währung für Lacher: je lustiger eine Aktion ist, je mehr Lulz werden eingesammelt) sind Bestandteil der Netzkultur, zumindest bestimmter, allerdings sehr aktiver Teile (beispielsweise der Szene um die Imageboards), die allerdings große Teile der Internetszene beeinflussen. Unter sehr bestimmten Umständen entstehen aus diesen Teilen der Internetszene auch direkte politische Bewegungen, die dann allerdings sehr schnell als Fremdkörper ausgelagert werden. (Die bekanntesten waren beziehungsweise sind die gegen Scientology und die für Wikileaks.) Die Frage, die Christensen aus der Forschung ableitet, ist nun, wann diese Bewegungen zu gesellschaftlichen relevantem Aktivismus werden (nicht beachtet wird bei ihm, dass sie auch Einfluss auf die Gesellschaft nehmen, beispielsweise als Geburtsort von Internetmemes, ohne direkt Aktivismus sein zu müssen.) Der umgekehrte Vorwurf an diese Szene ist nämlich der, dass ihre Aktivitäten keinen realen gesellschaftsverändernden Einfluss hätten.

Allerdings lässt sich fragen, ob das ein gerechtfertigter Vorwurf ist. Wer glaubt, dass in aktivistischen Strukturen „alter Art“ ernsthaft die ganze Zeit über versucht würde, gesellschaftlich einflussreich zu sein oder nur Aktionen zu planen, die Einfluss haben, steckte offenbar nie in solchen Strukturen. Auch sie haben immer „Müll“ produziert, Müll im Sinne von zielloser Aktivität, Streichen, Witzen und – zumindest in den Strukturen, die ich kannte und kenne – einen grundständig immer vorhandenen Zynismus. Nicht vergessen werden darf, dass die „alten“ Strukturen selbstverständlich immer auch Sozialbeziehungen herstellten. Das alles ist im Netzaktivismus nicht anders: Freundschaften, Beziehungen, Hassbeziehungen, an denen man sich abarbeiten kann ent- und bestehen in beiden Formen des Aktivismus. Es ist vielleicht heute sichtbarer. Aber der Besuch jeder Vereins- oder Parteisitzung, jedes Antifa-Soli-Konzerts und jeder Anti-Atomkraft-Demo wird sichtbar machen, dass genau solche Pranks und Sozialbeziehungen, wie sie im Netzaktivismus verbreitet sind, auch wichtiger Bestandteil „alter“ Strukturen des Aktivismus sind. Dies wird bei Christensen nicht erwähnt, was einigermaßen überrascht. Vielleicht hat es damit zu tun, das die Analysen des Netzaktivismus ebenso wie des gesamten politischen Aktivismus eher die Oberfläche der Strukturen analysieren und nicht das reale Handeln in ihnen.

Die Hände dreckig machen.

Eine weitere Kritik am Netzaktivismus, die Christensen anführt, ist die, dass die Netzaktivistinnen und -aktivisten sich eher hinter ihren Bildschirmen verstecken und versuchen würden, „sich nicht die Hände dreckig zu machen“. Insbesondere würden sie sich nicht auf die Mühen der Bürokratie und der parlamentarischen Wege einlassen, sondern – wieder – vielmehr auf schnell und einfach zu unterstützende Kampagnen (Emails schicken, I like-Buttons drücken et cetera) beschränken. Dabei würden sie auch keine richtige Lobbyarbeit betreiben. Christensen drückt sich um eine klare Aussage in diesem Punkt, aber beachtet werden sollte hier – wie richtig bemerkt –, dass auch der „alte“ Aktivismus gerne solche Mittel eingesetzt hat, beispielsweise bei Unterschriftenkampagnen. Allerdings erwähnt Christensen, wie schon angemerkt wurde, nicht den Fakt, dass sehr viele Netzkampagnen, wenn sie nur länger existieren, auch anfangen, Offline-Strukturen zu organisieren, die sich dann – halt nach einer gewissen Vorlaufzeit – sehr wohl die Hände dreckig machen. Neben den schon erwähnten Vereinen und Stiftungen kann da auf die „Freiheit statt Angst“-Demonstrationen verwiesen werden.

Allerdings bleibt, wie Christensen auch erwähnt, die Frage bestehen, welchen Effekt der Netzaktivismus eigentlich für die reale Welt hat. [2] Hier stehen sich zwei Annahmen gegenüber: 1.) Der Netzaktivismus hat keine Einfluss oder hält die Leute sogar davon ab, sich weiter mit einem Thema zu beschäftigen, weil sie sich mit einem Klick schon sich als aktiv begreifen können. 2.) Der Netzaktivismus mobilisiert mehr Menschen, die dann immerhin die Chance haben, sich mehr mit einem Thema zu befassen. Untersucht sind, so Christensen, allerdings hauptsächlich explizite Kampagnen und Kampagnenseiten (wo beispielsweise die Mailadressen von Verantwortlichen für ein Thema gesammelt und Standardmails vorgeschlagen werden). Ob und wenn ja, wie der Netzaktivismus neben diesen doch sehr traditionellen Kampagnen einen Effekt auf die politischen Entscheidungsprozesse hat, ist laut Christensen noch nicht untersucht. Dies ist ein bedeutsames Forschungsdesiderat: Wir haben eine verbreitet soziale Praxis, wissen aber nicht, was genau sie hervorbringt.

In der Gesamtschau bemerkt Christensen, dass es zwar keine richtigen Aussagen über den tatsächlichen Effekt des Netzaktivismus gäbe, dass aber jetzt schon klar wäre, dass es keinen negativen Effekt – auch nicht für den „herkömmlichen“ Aktivismus – gäbe. Im schlimmsten Fall würde der Aktivismus im Netz einfach keine gesellschaftlichen Effekt haben. Es scheint aber eher – wie das bei Debatten darum, wer eigentlich Musik kauft, wenn man Musik auch runterladen kann, schon als Argument verwendet wurde –, dass diejenigen, die sich aktiv online betätigen mit höherer Wahrscheinlichkeit auch offline betätigen.

Was allerdings der Artikel von Christensen sehr klar macht, ist, dass wir es beim Thema Netzaktivismus mit einer relevanten Forschungsthema zu tun haben, zu dem es noch lange keine ausreichende Forschungspraxis gibt. Die wenige, die vorhanden ist, scheint immer nur sehr eingeschränkte und oft auch am „herkömmlichen“ Aktivismus orientierte Forschungsfragen zu bearbeiten. Auch wenn es Christensen nicht so sagt, wird klar: Wir brauchen eine Forschung auf dem Gebiet des Netzaktivismus. Diese wird sich dann auch in die Tiefen des Netzaktivismus und der Internetkulturen eintauchen müssen.

Fußnote

[1] Meine Lieblingsgeschichte aus der taz-Redaktion ist immer noch die, wie vor einigen Jahren jemand dort Praktikum machte, Terminhinweise zusammenstellte (wie es seine Aufgabe war) und dann ein ziemlich großes „Konzert gegen Rechts“, dass späterhin in den Feuilletons einiger Hauptstadtblätter auftauchte und auch in mehreren Radiostationen explizit angekündigt wurde, von der verantwortlichen Redakteurin mit den Worten gestrichen wurde: „Wir machen doch hier keine Werbung für die Szene.“ – Und das bei einer Zeitung, die auf dem Tunix-Kongress 1978, der als Initialveranstaltung der alternativen Bewegung der 1980er in West-Berlin gilt, quasi begründet wurde. (So wurde es zumindest berichtet und ehrlich gesagt kann ich mir das nachdem, was ich von der taz-Redaktion mitbekomme, auch vorstellen.)

[2] Auch hier könnte man es sich einfach machen und auf den mobilsierenden Effekt des Netzaktivismus in der arabischen Welt verweisen, der ja über Demoankündigungen hinausging und vielmehr erst den sozialen Zusammenhang und -diskursraum herstellte, aus dem heraus erst die Protestbewegungen organisiert wurden. Nur reden wir dann wieder von Diktaturen, nicht von Demokratien.

Maria Filippowna Limanskaja, Bibliothekarin

 

Dieses Bild ist eines, welches den Sieg über Nazideutschland 1945 symbolisiert. Nicht umsonst wurde es (zusammen mit ähnlichen Szenen vor dem Brandenburger Tor) immer wieder reproduziert. Nicht ganz so oft, wie das Bild vom sowjetischen Soldaten, der auf dem Reichstag die Fahne hisst, aber doch oft genug.

Es ist auch sehr leicht zu sehen, wieso: Direkt vor dem Brandenburger Tor, also dem Symbol der Hauptstadt des gerade besiegten Feindes, regelt eine sowjetische Soldatin den Verkehr. Soldatin steht hier auch für einen Abgrenzung zum männlichen Soldatenbild des Dritten Reiches. Den obgleich die Rote Armee, insbesondere unter Stalin, ebenfalls ein vornehmlich männliche Veranstaltung war, mit dem gesamten männlichen Heldenkult etc., galt die Befreiung der Frau als Teil der Fortschrittlichkeit der Sowjetunion. Frauen nahmen an den Kämpfen gegen das Deutsche Reich bekanntlich aktiv Teil, sie waren als Partisaninnen aktiv, auch in kämpfenden Einheiten. Gleichzeitig wurden sie dennoch gerne auf die „weiblicheren Rollen“ verwiesen. Diese Ambivalenz ist nicht wegzudiskutieren. (Zumal auch de US-Army und die Britische Armee Frauen einsetzten, aber mehr noch als die Sowjetunion in „untergeordneten“ Positionen und gleichzeitig einige Frauen direkt und indirekt in Dritten Reich den Krieg mitführten.). In diesem Bild aber haben wir eine Soldatin, bewaffnet und auch ausgebildet, ihre Waffe zu nutzen. Und diese Soldatin übernimmt ihre Aufgabe, um in Berlin wieder ein geordnetes Leben zu ermöglichen. Der Krieg ist vorbei, so wird in diesem Bild dokumentiert, jetzt beginnt sogleich, nahtlos der Aufbau. (Auch hier wissen wir, dass die Geschichte nicht so war. Erst begann in der SBZ ein weiterer Abbau, aber es geht hier um das Bild.).

 

Die Soldatin auf dem Photo ist Maria Filippowna Limanskaja, damals 21 Jahre alt. Sie stammt aus Staraja Poltawka, damals in der „ Autonomen Sozialistischen Sowjetrepublik der Wolgadeutschen“, heute (offenbar) im Oblast Wolgograd gelegen. Sie hatte den Krieg in einem Regulierertrupp begleitet, das heißt vor allem den Verkehr geregelt (Was selbstverständlich eine nicht zu verachtende Aufgabe war, wenn sich auch nicht so heldenhafte Geschichten erzählen lassen.).

Nach dem Ende des Krieges kehrte sie nach Staraja Poltawka zurück und wurde dort – deswegen wollte ich es gerne erwähnen – Bibliothekarin. Erst zehn Jahre im Parteikabinett der Kreisleitung der KPdSU, später als Mitarbeiterin in einer Kinderbibliothek. Deswegen wurde sie 1985 auch mit einem (kürzeren) Artikel in Der Bibliothekar (Poljatschek, M. (1985) Der stadnhafte Soldat Maria. Aus dem Leben der Maria Filippowna Limanskaja. In: Der Bibliothekar 39 (1985) 4, S.161-163) vorgestellt. Ein Artikel von 2004 in der Pravda (http://english.pravda.ru/history/13-05-2004/5572-nazism-0/) wird diese Arbeit nicht mehr erwähnt. Dennoch haben wir auf diesem Bild jemand, die den bibliothekarischen Beruf ergriff, obgleich hr Hauptbeitrag zur Weltgeschichte offenbar ein anderer war.

Evident oder nicht evident? School Library Impact Studies

In der Literatur über Schulbibliotheken, insbesondere in Texten, die einen explizit werbenden Charakter haben, wird gerne einmal darauf verwiesen, dass es durch Studien aus den USA „längst nachgewiesen“ wäre, dass Schulbibliotheken einen positiven Einfluss auf die Schulergebnisse haben würden. Dies müsse, so die implizite Argumentation, einfach mal verstanden werden. Ein wenig scheint in solchen Argumentationen – so erscheint es mir zumindest, aber vielleicht bin ich ja der Einzige – eine gewisse Wissenschaftsgläubigkeit durch, die irgendwie nicht mehr ins 21. Jahrhundert, in die Zeit nach feministischer und postmoderner Wissenschaftskritik, passt: die Idee, dass es immer genau eine Wahrheit gäbe, die dann von einer Studie nachgewiesen wird – und dann wäre die Sache gegessen. (Okay, dass war jetzt polemisch. Aber dafür ist das hier ja auch ein Blog.)

Some kind of test-based educational governance

Interessant ist allerdings die Frage: Was hat es eigentlich mit diesen Studien auf sich? Warum gibt es sie nicht auch in Deutschland?

Es gibt sie nicht in Deutschland, um das vorneweg zu sagen, weil wir eine andere Kultur der Bildungssteuerung haben. Es gibt sie aber – bevor wieder jemand behauptet, der Rest der Welt wäre fortschrittlich und nur Deutschland rückständig [1] – auch in vielen anderen Staaten nicht. Auch in Staaten mit einem stark ausgebauten Schulbibliothekssystem nicht. Diese School Library Impact Studien basieren auf einer Bildungssteuerung durch Schulleistungsvergleichsstudien, Standardisierung und einer gewissen Begeisterung (in der Bildungspolitik und zum Teil der Bildungsverwaltung, nicht unbedingt in der Bildungspraxis, als zum Beispiel den Lehrerinnen und Lehrern) für möglichst viele miteinander vergleichbare Zahlen. „Test-based education reforms“ nennt Daniel Koretz die Veränderungen der Bildungssteuerung, die vor allem – aber nicht nur – in den USA in den letzten 30 Jahren umgesetzt wurden. [2]

Im Rahmen dieser Bildungssysteme herrscht die Überzeugung vor, dass es möglich wäre, die Qualität von Schulen mittels standardisierter Tests der Lernerfolge von Schülerinnen und Schülern und ebenso standardisierter Messungen vom Umgebungsvariablen – und das kann, wie sich im Laufe der Zeit zeigte, alles mögliche sein: Klassengröße, Stundenzahl, soziale Zusammensetzung der Lehrenden und Lernenden in den Schulen, die Größe der Gebäude, die Anzahl und Form der Unterstützungsleistungen für Lernende, die Länge der außerunterrichtlichen Aktivitäten, die Anzahl und Nutzungsdauer von elektronischen oder nicht-elektronischen Medien und so weiter – zu bestimmen und zu steuern. Solange es irgend möglich ist, es in Zahlen zu erfassen (was zum Teil auch geht, indem man eine ausreichend große Zahl von Schülerinnen und Schüler zu einer Frage eine Note vergeben lässt – das sind am Ende auch Zahlen), gab es in den letzten Jahrzehnten zumindest schon Überlegungen, ob und wie es in die Messung einbezogen werden könnte.

Die Idee dahinter ist relativ einfach, aber deswegen nicht unbedingt falsch: hat man nur genug Daten, kann man auch die Bedingungen für Qualität bestimmen, kann man Zusammenhänge zwischen den Werten herstellen und – das ist der wichtige Grund, warum solche Datensammlungen beständig finanziert werden – Ansatzpunkte finden, um diese Qualität in allen Schulen herzustellen. Mit genügend Daten – das ist beispielsweise, wie Koretz betont, Ansatzpunkt des No Child Left Behind-Act von 2001 – können auch Aussagen über die tatsächlichen strukturellen Probleme bei der Förderung von zahlenmäßig kleineren und größeren benachteiligten Gruppen getroffen werden. Und nicht nur Aussagen: es geht bei diesen Studien auch immer darum, herauszufinden, wo man mittels Beratung, Anweisung oder Förderung durch die Bildungspolitik die Bildungspraxis verbessern kann.

So absurd die Formen dieser Datensammeltätigkeiten auch sein mögen, sollte man nicht vergessen, dass es im Hintergrund immer darum geht, die Bildungsqualität zu verbessern. Die Bildungspolitik in den USA und anderen Staaten ist zur Zeit davon überzeugt, mit solchen Zahlen besser arbeiten und Bildung steuern zu können, als dies in anderen Systemen der Fall ist.

Sicherlich: es funktioniert nicht, zumindest nicht in dem Maße, wie es sich erhofft wird. Statistik ist immer nur ein Hilfsmittel, wichtig ist die Interpretation und die Umsetzung vor Ort. Zudem hat der übermäßige Einsatz von Statistik den Effekt, dass nicht statistisch zu erfassende Variablen und Zusammenhänge immer weniger wahrgenommen werden, obgleich sie für die Praxis relevant sein können. [3] Es steigen die Anreize, mehr oder minder zu betrügen, um die geforderten statistischen Werte zu erreichen. Und nicht zuletzt hat die ständige statistische Messung von Bildungspraxis auch den Effekt, dass sich die Praxis mehr und mehr auf die gemessenen Faktoren konzentriert – was nicht immer gewollt sein muss. Aber trotzdem: erstens funktionieren auch andere Systeme der Bildungssteuerung und -berichterstattung nicht viel besser und zweitens sollte nicht vergessen werden, dass das grundlegende Ziel dieser Messungen ein ehrenwertes ist: die Qualität von Bildung ganz allgemein und eigentlich auch für alle Schülerinnen und Schüler zu verbessern.

School Library Impact Studies

Was aber haben die Studien, in denen nachgewiesen wird beziehungsweise werden soll, welche Effekte Schulbibliotheken haben, mit all dem zu tun? Das ist nicht schwer zu sehen: Sie sind die logische Fortsetzung dieser Form der Bildungssteuerung im Rahmen von Schulbibliotheken.

An der Mansfield University (Pennsylvania) hat letztens eine Abschlussklasse der School Library and Information Technologies (einer Ausbildungsrichung für Schulbibliothekarinnen und -bibliothekare, allerdings an einer fast schon dörflichen Universität, fernab der großen Forschung) alle diese Studien, welche in den USA und Kanada vorgenommen wurden – bis auf eine – zusammengefasst und deren positiven Ergebnisse in einer Tabelle zusammengefasst [School Library Research Summarized. A Graduate Class Project (2011): http://libweb.mansfield.edu/upload/kachel/ImpactStudy.pdf%5D.

Diese Idee ist nicht neu. Mit „School Libraries Work!“ gibt die U.S. National Commission on Libraries and Information Science seit 2004 eine solche Zusammenfassung heraus, die aktuell in der dritten Edition vorliegt (http://listbuilder.scholastic.com/content/stores/LibraryStore/pages/images/SLW3.pdf). Auf der Unterseite zu School Library Impact Studies der Dokumentensammlung Library Research Service finden sich ebenso die meisten dieser Studien verlinkt. (http://www.lrs.org/impact.php) Die Besonderheit des Projektes der Mansfield University sei – so Debra E. Kachel, welche den Kurs leitete – die geordnete Darstellung der positiven Aspekte. (Gleichzeitig ist das selbstverständlich ein sinnvolles Projekt in der universitären Ausbildung. Die Studierenden mussten sich mit den Studien auseinandersetzen und ihre Hauptaussagen systematisieren. Das ist unbenommen.)

Die Übersicht soll, so Debra E. Kachel weiter, dabei helfen, quasi immer die richtigen Argumente für School Libraries aus diesen Studien anführen zu können. Ganz offensichtlich nämlich überzeugen diese Studien gar nicht so sehr, wie man hierzulande manchmal vermuten würde. Trotzdem eigentlich alle zu positiven Ergebnissen gelangen und, so behauptet Kachel weiter, auch immer wieder nachweisen würden, dass sich Effekte von School Libraries nachweisen ließen, die nicht mit anderen Einflüssen zu erklären seien, wirkt sich das nicht unbedingt positiv auf die Stellung der School Libraries oder den Etat aus. Vielmehr müssen die Einrichtungen weiter beständig für eine Finanzierung, teilweise auch für den Erhalt, aber auch für eine bessere Einbindung in den Schulalltag kämpfen. Nur, weil die Studien als wissenschaftlich auftreten und Evidenzen nachweisen, wirken sie offenbar nicht überzeugend.

Warum überzeugt das nicht?

Warum ist das so? Das ist keine unwichtige Frage und es erstaunt ein bisschen, dass diese weder von Kachel, noch von den Autorinnen und Autoren von School Libraries Work! oder den einzelnen Studien gestellt wird. Die Antwort ist vielschichtig. Aber da ist zum einen die Qualität der Studien: So hoch ist diese leider nicht. Bislang zumindest werden fast durchgängig einfache Wirkmodelle geprüft, also ungefähr: Hat eine Schule mit so-und-so-großer Schulbibliothek in diesem-oder-jenem-Test durchschnittlich höhere Punktzahlen? Kann man einen anderen Zusammenhang zu diesen Punktzahlen herstellen (soziale Zusammensetzung der Schülerinnen und Schüler zum Beispiel) [oder können wir das alles auf die Schulbibliothek beziehen]? Über diese Ebene der Fragestellung gehen die meisten Studien nicht hinaus.

Ein Problem dabei ist, dass die Antwort dann selber nicht überzeugend ist. [4] Stellt man beispielsweise fest, dass es einen statistischen Zusammenhang zwischen Größe der Schulbibliothek und Testergebnis gibt, ist man noch nicht wirklich weiter mit der Frage, wie dieser Zusammenhang eigentlich zustande kommt. Aber das ist es, was Lehrerinnen und Lehrer eigentlich interessiert: Wie nutze ich die Schulbibliothek im Unterricht, damit meine Schülerinnen und Schüler bessere Testergebnisse einfahren? (Wenn man das einfahren von guten Testergebnissen als Ziel hat, was man als Lehrerin / Lehrer eigentlich nicht haben sollte, schließlich geht es darum, Kindern und Jugendlichen das Lernen zu ermöglichen, nicht darum, gute Tests zu schreiben.) Das ist in der schulischen Praxis wichtig.

Gleichzeitig kann man das Spiel selbstverständlich mit allen möglichen Zusammenhängen spielen: Hängt die Qualität der Mensaspeisung positiv mit Testergebnissen zusammen? (Ja, tut sie.) Hängt die durchschnittliche Fahrtzeit zwischen Schule und Wohnort der Schülerinnen und Schüler mit den Testergebnissen zusammen? (Ja, je weniger und kürzer Schülerinnen und Schüler fahren müssen und je mehr sie ihrer Freizeit auch mit MitschülerInnen verbringen können, umso höher sind durchschnittlich – aber nicht immer – ihre Testergebnisse.) Hat die Anzahl der Schulstunden, die sich mit Umweltthemen beschäftigen oder mit künstlerisch-ästhetischer Erziehung einen positiven Einfluss auf Testergebnisse? (Das kommt drauf an. Da gibt es keine einfache Antwort.) Hat die Größe der Klassen einen Einfluss auf die Testergebnisse der Schülerinnen und Schüler? (Auf jeden Fall.) Und so weiter. Auch die andere Seite der Frage ist nicht so richtig geklärt: Welcher Test eigentlich? In US-amerikanischen Schulen gibt es unzählige Test. Einige vorgeschrieben, andere freiwillig. Einige auf die Lernerfolge abzielend, andere auf die Berufsfähigkeit. Einige für alle Schülerinnen und Schüler, einige nur für ausgewählte Teile. Und jeder einzelne dieser Tests ist zudem umstritten.

All diese Fragen werden in den Studien gestellt. Das Spiel kann nicht nur hypothetisch gespielt werden, es wird auch gespielt. Nicht nur im Bereich School Libraries, sondern auch in allen anderen möglichen Bereichen. Interessant dabei ist, dass fast alle Studien positive Effekte nachweisen. [5] Ob nun für Mensen, Freizeitbereiche oder School Libraries. Und fast alle dieser Studien haben das Problem, dass sie nicht den direkten Effekt erklären können, sondern statistische Zusammenhänge herstellen. Nicht weniger, aber auch nicht mehr.

In der Masse der Studien, die solche Zusammenhänge nachweisen wollen, gehen diejenigen zu School Libraries unter, zumal sie, wie gesagt, auch nicht so viel erklären. Das, was in der Schulpraxis interessiert, also die Frage, wie eigentlich die School Libraries genau das Lernen von Schülerinnen und Schülern beeinflussen, ist etwas, was mit diesen „Evidence Studies“ nicht beantwortet werden kann.

Das funktioniert in Deutschland überhaupt nicht.

Die Übersicht von Kachel und ihren Studierenden zeigt noch einmal, warum man diese Studien überhaupt nicht für die Argumentation in Deutschland heranziehen sollte: Diese Studien reden einfach von etwas ganz anderem, als den hiesigen Schulbibliotheken. Zum einem kann man mit der Bemessungsgrundlage der meisten Studien gar nichts anfangen: PSSA (Pennsylvania System of School Assessment) reading score, STAR test score im CST (California Standards Test), National Assessment of Educational Progress (NAEP) usw. Das sind alles standardisierte Tests, die mit dem, was in deutschen Schulen vermittelt wird, nichts zu tun haben.

Zum anderen heben diese School Library Impact Studies aber auch regelmäßig auf Werte ab, die in deutschen Schulbibliothek fast nirgends erreicht werden. Würde man diese Studien ernst nehmen, müsste man davon ausgehen, dass die deutschen Schulbibliotheken praktischen keinen Effekt haben dürften, dass sie praktisch nur vor sich dahin darben würden, was bekanntlich nicht stimmt. Kachel et al. fassen beispielsweise zusammen, dass viele Studien davon ausgehen, dass Schulbibliotheken erst einen positiven Effekt auf die Lernergebnisse der Schülerinnen und Schüler hätten, wenn sie einen „Full-time librarian“ angestellt hätten beziehungsweise einen „Certified school librarian“ und weiteren „Support staff“. Insbesondere einen „certified school librarian“ gibt es in Deutschland gar nicht. Ein Blick in die Tabelle ihrer Veröffentlichung (pp. 6-8) zeigt, dass von einer ganz anderen Form von Schulbibliotheken ausgegangen wird. Nicht nur von einer besser finanzieren, sondern tatsächlich einer anderen Form.

Rosa-rote Brille

Erstaunlich bleibt allerdings auch bei dieser Veröffentlichung, dass all diese Studien eines nicht nachweisen: negative Effekte. Das ist mehr als unglaubwürdig. Schlimmer noch, es finden sich kaum Studien, die auch nur ansatzweise darauf eingehen, dass School Libraries – oder was auch immer gerade das Thema der Impact Study ist – für bestimmte untersuchte Merkmale gar keinen oder nur einen sehr schwierig feststellbaren Einfluss haben. Dieses kontinuierliche Positiv-Zeichnen aber ist es, was die Studien als das auszeichnet, was sie sind: als interessengeleitete Interpretation und Auswahl von Daten innerhalb einer (bildungs-)politischen Diskussion. Wie gesagt: dass machen im Rahmen der US-amerikanischen Bildungspolitik nicht nur School Libraries, sondern quasi „alle“. Insoweit ist es nicht anrüchig. Aber man sollte deshalb auch nicht erwarten, in diesen Studien allzu viel über die tatsächliche Arbeit von School Libraries oder gar deren Einfluss auf den jeweiligen Schulalltag zu erwarten.

 

Kachel, Debra E. and the Graduate Students of LSC 5530 School Library Advocacy, Spring 2011 (2011). School Library Research Summarized: A Graduate Class Project. – Mansfield, PA: School Library & Information Technologies Department, Mansfield University ( http://libweb.mansfield.edu/upload/kachel/ImpactStudy.pdf).