Archiv | Nebenher RSS for this section

Stephen Fry erklärt zum 25. Geburtstag GNU

Vor 25 Jahren, am 27.09.1983, schrieb Richard Stallman – damals Mitarbeiter am MIT – eine Nachricht, in welcher er ankündigte ein freies Betriebssystem schreiben zu wollen, welches für Unix-Programme kompatibel sein solle. Diese Nachricht war der Start des Betriebssystems, welches heute als GNU/Linux bekannt ist, jetzt weite Teile des Servermarktes dominiert und auf privaten und öffentlichen Rechnern immer beliebter wird. (Der Kernel zu diesem Betriebssystem kam dann 1991 von Linus Torvalds.) Gleichzeitig formuliert Stallman mit seinem Projekt die grundlegenden Prämissen freier Software, insbesondere das Axiom, dass die Arbeit einer Comunity an quelloffener Software bessere Ergebnisse hervorbringen könne, als Firmen, die den Code ihrer Software verschlossen halten. Ob er damit Recht hatte, kann jeder selbst ausprobieren, indem er oder sie auf dem eigenen Rechner, neben dem vorinstallierten Betriebssystem, GNU/Linux installiert und einfach schaut, was die Vor- und Nachteile der beiden Systeme sind.
Der Alt-Hippie und Programmier Stallman updatete damit erfolgreich Annahmen über die Notwendigkeit von Free Speech und freier Wissenschaft als Grundlagen des gesellschaftlichen Fortschritts für das Computerzeitalter. Dieser Geburtstag wird gefeiert werden. Als einer der ersten gratulierte Stephen Fry, der in einem kurzen Film die Prinzipien und Vorteile freier Software erläutert.

Siehe auch: Stephen Fry’s Blog, Pro-Linux, Linux.com, ZDNet

Werbeanzeigen

Spiele, Geräte und Musik

Letztens argumentierte ich, dass Bibliotheken mit Nutzerinnen und Nutzern umzugehen lernen müssen, deren Mediennutzung immer unterschiedlicher sein wird – egal, ob das gefällt oder nicht. Dies auch, weil Menschen, die mit Computern und Spielekonsolen aufgewachsen sind, langsam die 30 überschritten haben. (Gleichzeitig sind die ersten Jugendlichen, die schon immer Handys hatten, auch schon mit der Schule fertig. Und bis die ersten Jugendlichen, für die das Internet eine Selbstverständlichkeit ist, die sie schon immer kannten, die Schule abschließen, dauert es auch nur noch wenige Jahre.) Diese Medienerfahrung schlägt sich selbstverständlich im Umgang zu diesen Medien nieder.
Bis Donnerstag (21.08.2008) kann man bei Pitchfork.tv in dem lehrreichen und sehr unterhaltsamen Dokumentarfilm „Reformat the Planet“ über die 8Bit-Music/Chiptune-Scene sehen, wohin dieser selbstbewusste Umgang mit den Leitmedien der eigenen Jugend führen kann. Die Chiptune-Szene setzt 8Bit-Konsolen, hauptsächlich Gameboys und das Nintendo Entertainment System als Instrumente ein. Die Spielekonsolen der 80er und 90er werden dabei umgenutzt, um eine relativ eigenständige Musik zu komponieren. Selbstverständlich ist es dazu notwendig, sich mit den Geräten selber intensiv auseinander zusetzen, sie aufzuschrauben und umzuprogrammieren. Das ist kein einfaches Rumgeklicke, vielmehr wird dem Gerät abverlangt, kontrollierbar zu sein. Auch wenn davon berichtet wird, dass diese Szene an einigen Orten (vor allem New York, Tokyo und etwas kleiner in einigen europäischen Städten wie Stockholm, London und offenbar auch Moskau) schon einige Jahre pulsieren würde, ist sie international vernetzt erst in den letzten 3-4 Jahren richtig aufgetreten.
Interessant scheint mir – abgesehen von der Musik -, dass diese Szene zeigt, wie kreativ und virtuos Medien von Menschen genutzt werden können, die diese zu ihrem Alltag zählen. Offensichtlich wird an den dargestellten Musikerinnen und Musikern, dass der massive Konsum von Videospielen in der Vergangenheit entgegen aller Befürchtungen nicht dazu geführt hat, dass sie zu Medienzombis wurden. Vielmehr haben sie diese Erfahrungen erfolgreich in ihr Leben integriert.

Außerdem würde ich gerne in diesem Zusammenhang auf den relativ neuen Podcast Games in Libraries hinweisen. In diesem diskutieren Bibliothekarinnen und Bibliothekare seit April diesen Jahres monatlich das titelgebende Thema, äußern sich zum Sinn von Brett- und Konsolenspielen im Bestand, zu Gameevents in Bibliotheken und stellen aktuelle Spiele unter dem Fokus, wie sie in Bibliotheken verwendet werden können, vor. Besonders gelungen ist die Mai-Ausgabe, in welcher die sinnvolle Bestandsentwicklung bei Spielen diskutiert und die Studie „Grand Theft Childhood: The Surprising Truth About Violent Video Games“ besprochen wird.
Der Podcast ist auf die US-amerikanische Bibliotheken zugeschnitten. Interessant ist allerdings, wie konsequent in diesem Spiele, Freizeit, Bildung und gesellschaftloche Aktivitäten thematisch verbunden werden.
Verantwortlich zeichnet für den Podcast Scott Nicholson vom Library Game Lab of Syracuse an der Syracuse University, NY. Auf der Homepage des relativ neuen Library Game Lab finden sich auch die Publikationen dieser Einrichtungen, die sich erwartungsgemäß mit dem Thema Bibliotheken und Spiele befassen.

Nächster Bibliothekstag / Erfurt

Sagte ich schon, dass laut dem aktuellen Call for Paper für den nächsten Bibliothekstag (offenbar aus Versehen auf der Homepage immer noch nur für männliche Bibliothekare ausgeschrieben, und das im Jahr 2008) die erste Schwerpunktveranstaltung fast so heißen wird, wie dieses Blog hier: „Bibliotheken sind Bildungseinrichtungen…“ – Bibliotheken im Visier der Politik? Nein? Na, dann habe ich es jetzt gesagt.

Selbstverständlich wird es dort um etwas ganz anderes gehen, als hier bzw. in meiner Promotion. Während bei mir die zwei Fragen im Vordergrund stehen, ob Bibliotheken tatsächlich so sehr Bildungseinrichtungen sind, wie gerne behauptet wird und wie dies überhaupt nachgewiesen werden könnte, geht es auf dem Bibliothekstag – wenn ich das richtig verstehe – darum, wie dieses Bild von Bibliotheken als Bildungseinrichtungen möglichst gut an die Politik verkauft werden kann. Nicht darum, ob dieses Bild so richtig ist; nicht darum, welche Art von Bildungseinrichtung eine Bibliothek eigentlich sein soll; nicht darum, ob einige Bibliotheken lieber etwas anderes wären, als Bildungseinrichtungen – beispielsweise Support-Infrastruktur für Bildungseinrichtungen oder Freizeiteinrichtung oder Forschungsstätte oder auch einfach nur in Ruhe gelassen mit diesen ständigen Leitbildern. Nein, es wird wohl darum gehen, wie Politikerinnen und Politiker dazu gebracht werden können, zu glauben, dass Bibliotheken quasi genau das darstellen, was Schulen und Kindertagesstätten (theoretisch) darstellen.
Ich würde mir wünschen, wenn diese fast zwanghafte Fixierung auf diese eine wichtige, aber wirklich auch sehr ausgewählte und gerade für Öffentliche Bibliotheken sehr schwer zu evaluierende Aufgabe von Bibliotheken (Bildung) in dieser Schwerpunktveranstaltung kritisiert würde. Realistischer und praktikabler fände ich, wenn klar würde, dass Bibliotheken Einrichtungen mit unterschiedlichen Aufgaben darstellen, die unter diversen Fokusen betrachtet, bewertet und genutzt werden können und deshalb auch als Einrichtungen politisch vertreten werden könnten/müssten, deren Vorteil in der Verbindung verschiedener Aufgabebereiche besteht.
Aber ich weiß schon: Wünschen alleine hilft nicht, da muss man schon selber hinfahren.

Naja, Kulturkritik

Das Verbrechen der Vernunft von Robert B. Laughlin [Laughlin, Robert B. / Das Verbrechen der Vernuft : Betrug an der Wissensgesellschaft. – Frankfurt am Main : Suhrkamp, 2008 (edition unseld ; 2)] ist eher eine Dystopie als eine Analyse. Grundthese ist, dass es im Gegensatz zum Verständnis der Überzeugung, dass wir in einer Wissensgesellschaft leben würden, eine verstärkte Abschließung von Wissen gäbe. Laughlin weist dabei zuerst auf „gefährliches Wissen“, bei dem die Gesellschaft offenbar der Meinung ist, dass es geschützt werden müsse, hin. Als paradigmatisch gilt ihm dabei das Wissen um den Bau von Atombomben, aber auch um biologische und chemische Waffen. Das scheint noch nachvollziehbar, auch wenn Laughlin von absurden Situationen zu berichten weiß, die sich aus dem Verschluss dieses Wissens ergeben. Anschließend stellt er allerdings dar, dass Wissen seiner Meinung nach auch als ökonomisches Gut nur verwertet werden kann, wenn es beschränkt und versteckt wird. Die Argumente für ein schwaches Copyright – wie es im deutschen Sprachraum ja vor allem Kuhlen vroschlägt – oder der gesamten Open Access Bewegung ignoriert Laughlin gänzlich. Nur Wissen, das eingeschränkt werden kann, gilt ihm als ökonomisch sinnvoll, deshalb wird es auch eingeschränkt.
(Interessant ist, dass er dabei nicht nur von Patenten spricht, sondern von dem Phänomen, das über bestimmtes Wissen einfach nicht mehr geredet wird, was aber nicht auffällt, weil es zahlreiche andere Informationen zum gleichen Thema gibt – so gäbe es zum Beispiel zwar zahllose Informationen über bestimmte technische Apparate, die im Alltag verbreitet ist, aber ohne dass es Informationen darüber gäbe, wie genau diese funktionierten. Das würde aber nicht auffallen, bis gezielt nach diesen Informationen gesucht wird, zum Beispiel um diese Geräte nachzubauen oder ihre Funktion zu verstehen. Die hergestellten Wissenslücken gehen dieser These nach im Rauschen unter. Sie erschienen auch oft als nicht so gravierend, da man davon ausgeht, sie würden schon irgendwo zu finden sein, wenn sie benötigt würden.)
Das Problem bei diesem Text ist allerdings, das nicht klar wird, ob Laughlin die gesamten Entwicklungen (beispielsweise im Patentbereich) zwar teilweise absurd, aber doch okay findet, ob er davon ausgeht, dass dies alles nichts bringt, weil alle Wissensbeschränkungen doch beständig umgegangen werden – durch Kopieren, neue Forschungen oder Lücken im System. Oder aber – was auch möglich wäre – er möchte die Situation nur sarkastisch beschreiben, geht aber davon aus, dass es eh nicht mehr geändert werden kann. (Immerhin ist Laughlin Physiker und hat am MIT studiert – es wäre also nicht überraschend, wenn er selber diese Art von Geek-Humor teil, den sonst nur andere Geeks verstehen. Aber wenn das alles ein Witz ist: muss man daraus gleich ein ganzes Buch machen?) Oder er will dazu aufrufen, dass alles zu ändern oder zumindest drüber nachzudenken. Das bleibt einfach vollkommen unklar. Zumal, wie schon angedeutet, der Text zwar nicht unbedingt die neuesten Entwicklungen ignoriert, aber Laughlin doch viele Debatten und Entwicklungen, die seiner Beschreibung entgegenstehen, einfach nicht wahrzunehmen scheint. Und dann endet er auch noch in dem seit der Postmoderne eigentlich obsoleten Bild der grundsätzlich neuen Gesellschaft irgendwo da draußen, welche die jetzige Menschheit und deren Grundprobleme einfach zurücklässt. (Hier sind es junge Menschen, die auf den Mond auswandern.)
Letztlich hinterlässt das Buch den gleichen Eindruck, wie zeitgenössische kulturkritische Besinnungsaufsätze: An einigen Stellen nickt man, an vielen will man einfach widersprechen, weil die Vorraussetzungen der Behauptungen, die gemacht werden, einfach falsch sind. Aber letztlich weiß man am Ende nicht, wozu dieser Text da ist, wem genau er was sagen will.

Dennoch, eine großartige Stelle gibt es, die ich gerne zitieren will. Deshalb das Posting:

Die mit dieser [beschriebenen] Entwicklung einhergehende Einstellungen zum Wissen werfen äußerst beunruhigende Fragen nach dem Grundrecht des Menschen auf, Fragen zu stellen und nach Erkenntnis zu streben. Mehr und mehr erscheint der „Geistesblitz“, die plötzliche Einsicht in eine Sache und deren Folgen, die wir bei Galilei und Newton bewundern, als Verletzung von Patentrechten oder als Gefahr für die Staatssicherheit. Mehr und mehr erweist sich selbständiges Denken als potentiell kriminelle Handlung. [Laughlin (2008), S.10]

Woher kamen eigentlich die PISA-Studien?

Vor einigen Jahren dominierten in Deutschland die PISA-Studien die öffentliche Debatte, die Bildungspolitik und auch die bibliothekarischen Konzeptpapiere und Texte. Das scheint heute anders geworden zu sein, so richtig wurde PISA 2006 nicht mehr wahrgenommen und langsam verschwindet die Phrase, dass man an den PISA-Studien sehen könnte, wie schlecht das deutsche Bildungssystem ist und das deshalb eigentlich sofort xxxx [1], wieder aus diesen Texten.
Was allerdings in diesen Debatten und auch heute nicht so richtig gefragt wurde, war, wieso es eigentlich diese Studien gab. Immerhin kosteten sie jeweils (für Deutschland) rund 30 Millionen Euro. Und sie waren auch nicht die einzigen Studien im Feld der Bildungsstatistik. Hinzu kamen unter anderem die IGLU-Studien, die Stefi-Studie, die DESI-Studie und weitere lokale Studien wie Markus, QuaSum, LAU und LaC. Nicht zu vergessen die Anstrengungen, eine nationale Bildungsberichtserstattung aufzubauen (nicht nur – wie schon länger praktiziert – für die Weiterbildung, sondern auch für Kindertagesstätten oder den gesamten Bildungssektor). Hingegen erschienen die PISA-Studien in den meisten Texten, die sich auf sie bezogen, quasi vom Himmel gefallen zu sein. Irgendwie schien irgendwer (die OECD, wenn man genauer nachschaute) auf den Gedanken gekommen zu sein, diese Studien durchzuführen und irgendwie konnten sie dann auch relativ einfach durchgeführt werden (was immerhin hieß, dass jeweils rund 5.000 Schülerinnen und Schüler drei Stunden Tests schreiben und zudem von allen beteiligten Schulen Fragebögen ausgefüllt werden mussten). Die eigentlich selbstverständliche Frage, welche Aufgaben diese Studien haben, wie sie initiiert und durchgeführt wurden, schien kaum gestellt zu werden, bevor sie jeweils zur Untermauerung des eigenen bildungspolitischen Standpunkts herangezogen wurden.
Dabei sind diese Studien Teil einer relativ grundlegenden Wende der deutschen Bildungspolitik. Es herrscht heute die Vorstellung vor, dass Bildungseinrichtungen nur durch eine möglichste breite und große Unterstützung durch wissenschaftliche Methoden politisch gesteuert werden könnten. Euphemistisch wird diese Hinwendung zu Vergleichsstudien gerne als Anpassung an internationale Gepflogenheiten dargestellt. Das ist selbstverständlich so nicht richtig. Es gibt einige Staaten, in denen in der Bildungspolitik ein Focus auf die externe und interne Evaluationen gelegt wird und es gibt auch Staaten, die sich nicht auf solche Evaluationen konzentrieren oder in denen die Bedeutung von Bildungsevaluationen (schon wieder) zurückgeht. [2] Letztlich ist das immer eine politische Entscheidung, egal wie sehr sich darauf berufen wird, dass es sich bei den Studien um wissenschaftliche Werke handeln würde. [3]
Diese Umorientierung in der Bildungspolitik ist – egal, was man von ihr hält – weit relevanter, als dies in den meisten Bezügen auf die PISA-Studien thematisiert wurde. Die Hinwendung zu empirischen Bildungsberichten verschiebt die Wahrnehmung der Politik von der Aufgabe und Funktion von Bildungseinrichtungen relevant. Letztlich machen diese Bildungsstudien das Versprechen, dass es möglich ist, Bildungsqualität empirisch zu messen und dies sogar in einer solchen Weise, dass (faire) Vergleiche zwischen Bildungseinrichtungen möglich werden und sich aus diesen Ergebnissen Handlungsoptionen für die Bildungspolitik ableiten lassen. Dieses Versprechen wird seit etwas mehr als zehn Jahren in der deutschen Bildungspolitik allgemein geteilt, auch wenn der gesellschaftliche und journalistische Hype um die PISA-Studien offenbar vorbei ist. Letztlich ist dieser Paradigmenwechsel auch relevanter, als beispielsweise jede Aussage über die Lesekompetenz deutschen Schülerinnen und Schüler im Vergleich zu Lernenden in anderen Staaten, die mithilfe der PISA-Studien gemacht wurde.
Eine sehr übersichtliche Zusammenfassung der Versprechen, welche sich die Bildungspolitik von dieser empirischen Wende macht, liefert Isabell van Ackeren [Ackeren, Isabell van (2007) / Nutzung großflächiger Tests für die Schulentwicklung : Exemplarische Analyse der Erfahrungen aus England, Frankreich und den Niederlanden. – Bonn ; Berlin : Bundesministerium für Bildung und Forschung. – (Bildungsforschung ; 3)] im ersten Teil ihrer Untersuchung über verschiedene Ansätze der Nutzung des in solchen Vergleichsstudien generierten Wissens.

Der Blick über die nationalen Grenzen zeigt, dass in vielen Schul­systemen Europas die Einzelschulen in den letzten Jahren immer stärker dazu angehalten werden, Verantwortung über ihre Leistun­gen abzulegen. Zentral organisierte Leistungsmessungen und Eva­luationsprogramme spielen dabei eine wichtige Rolle. Mit ihrer Hilfe werden Auskünfte über die Qualität der Einzelschule einge­holt und öffentlich oder/und vertraulich verschiedenen Zielgrup­pen zur Verfügung gestellt. Großflächige externe Evaluationsfor­men stellen ein wichtiges Element grundsätzlicher, auf die Anhe­bung des Leistungsniveaus eines Bildungssystems ausgerichteter Reformen dar: Die Schulen vieler Länder sind zum Subjekt einer Gesetzgebung und Politik geworden, die große Veränderungen in Bereichen wie ‚Curriculum’, ‚Leistungsmessung’ und ‚Schulauto­nomie’ mit sich brachten. So sind die curricularen Forderungen restriktiver geworden, Testverfahren, aber auch regelmäßige Schul­inspektionen wurden ausgeweitet, Bildungspolitik wurde bei gleichzeitiger Dezentralisierung der Verantwortung für ihre Imple­mentierung stärker zentralisiert und verschiedene Regierungen haben versucht, Marktelemente im Bildungsbereich einzuführen, indem Eltern verstärkt Schulwahlmöglichkeiten eingeräumt wur­den und die Finanzierung der Schulen an die eingeworbene Schü­lerzahl gekoppelt wurde. In diesem Kontext ist ein Denken in be­trieblichen Begriffen auch im schulischen Bereich nicht mehr ungewöhnlich. Unterricht wird durchaus als ein Produktionsprozess gesehen, mit dem Inputs in Outputs transformiert werden. Die Ausprägung solcher Reformen variiert von Land zu Land aufgrund historischer, kultureller, institutioneller und politischer Faktoren. Es gibt einige gemeinsame Elemente, die sich über die Ländergrenzen hinweg identifizieren lassen; großflächige, extern gesteuerte Evaluationsformen sind ein Beispiel dafür, obgleich solche Reform­elemente im Kontext des jeweiligen nationalen Bildungssystems einschließlich seines historischen und gegenwärtigen sozialen Zusammenhangs zu betrachten sind. Vor diesem Hintergrund stre­ben Regierungen vieler Länder der ganzen Welt nach Möglichkeiten, Wissen und Kompetenzen zu testen und sie interessieren sich dafür, ob und wie dadurch das Lehren und Lernen mit den entsprechenden Arbeitsergebnissen kontrolliert werden kann. Die Etablierung von Tests, Prüfungen und Studien wird als wichtiger Steuerungsmechanismus in vielen Ländern angesehen: Alle Schü­ler/innen werden demnach zur Teilnahme an standardisierten Tests und Prüfungen verpflichtet. Das Erreichen bzw. Nicht-Errei­chen der geforderten Standards ist nicht selten mit positiven bzw. negativen Sanktionen, z. B. finanzieller Art, verknüpft, um in Schu­len und Klassenräumen Änderungen zu erreichen und dadurch insgesamt Reformen in Bildungssystemen umzusetzen. Die erhofften Möglichkeiten einer testbasierten Reform scheinen dabei auch aus Kostengründen attraktiv. Tests sind offensichtlich weniger teuer als Reformen, die direkten Einfluss auf das Unterrichtsgeschehen nehmen wollen.
[Ackeren (2007), S. 8f.]

Diese Versprechen werden sich nicht im erhofften Maße erfüllen – dies ist aufgrund internationaler Erfahrungen und der Erfahrung aus anderen Bildungsreformen in Deutschland, schon jetzt problemlos vorher zu sagen. Allerdings ist ein teilweises Scheitern von Reformen im Rahmen demokratischer Prozesse auch kein wirkliches Problem, sondern Triebfeder gesellschaftlicher Auseinandersetzungen. Deswegen wird auch dieses Scheitern insgesamt nicht zum Untergang des deutschen Bildungssystems führen, auch wenn solcher Szenarien immer wieder gerne aufgerufen werden. Trotzdem bestimmen diese Vorstellungen aktuell die Wahrnehmung von Bildungseinrichtungen durch die Bildungspolitik. Und, auch dies ist kein wirklich schwierige, Vorhersage, wenn Bibliotheken Einrichtungen sein wollen, die irgendetwas mit Bildung zu tun haben wollen, dann werden sie gezwungen sein, sich unter dieses Regime zu ordnen. Die PISA-Studien sind nicht vom Himmel gefallen, sie sind Teil eines politischen Paradigmenwechsels. Und dieser ist – wie alle Paradigmenwechsel – weder eindeutig zu begrüßen noch eindeutig abzulehnen.

Fußnote:
[1] Hier beliebige bildungspolitische Massnahme einsetzen. Gerade in der Hochzeit der Debatte schien es, als könnte einfach jede politische Entscheidung (von der egalitären Ganztagsgesamtschule bis zur Förderung der Bildung im Familienverband) und kulturelle Veranstaltung mit den PISA-Studien begründet werden, auch wenn das die eigentlichen Studien bei genauerem Lesen eher selten hergaben.
[2] Dies hat auch lange nicht so viel mit den in Deutschland gerne gepflegten modernen Feindbildern zu tun, wie dies auf den ersten Blick erscheinen könnte. Beispielsweise ist Englang ein Land, in welchem fast ausschließlich Evaluationen und (sich ständig ändernde) Bildungsstandards zur Steuerung von Bildungseinrichtungen eingesetzt wird, wohingegen in Schottland nicht einmal ein allgemein akzeptiertes landesweites Curriculum für Bildungseinrichtungen existiert. In Wales und Nordirland haben Evaluationen ebenso nicht die Bedeutung, die sie in England haben. Ähnlich verhält es sich mit den USA, in dem die Bedeutung von Vergleichsstudien für die nationale Bildungspolitik groß ist – was allerdings in seiner Wirkung dadurch eingeschränkt ist, dass die Bundesregierung keinen verfassungsrechtlichen Anspruch auf die Bildungspolitik der Staaten hat und wenn überhaupt, dann durch die Vergabe von Finanzmitteln Einfluss auf die Bildungspolitik nehmen kann. In einigen US-amerikanischen Bundeststaaten ist die Bedeutung solcher Studien ebenfalls groß, in anderen ist sie praktisch sehr gering. Auch die in Deutschaldn gerne als Vorbild begriffenen skandinavischen Staaten sind ähnlich divers. Norwegen setzt stark auf Bildungsevaluationen und die Veröffentlichung der auf diesem Weg gewonnen Daten, während Schweden sehr verhalten damit umgeht. Auch in Finnland, dass in Deutschland gerne als „PISA-Gewinner“ begriffen wird, haben Bildungsstatistiken einer eher geringen Wert. Und das Frankreich ebenso wie Deutschland in den PISA-Studien eher schlecht abschnitt, hat die dortige Bildungspolitik nicht wirklich groß tangiert. Man sollte also mit einfachen Erklärungen, warum in einem Land empirische (und teilweise auch pseudo-empirische) Bildungsberichterstattungen eine große Bedeutung haben und in anderen nicht, sehr zurückhaltend sein. Dies scheint sehr von der nationalen Bildungspolitik und den dort vertrenden Ansichten beeinflusst zu sein.
[3] Was für einige Studien, die außerhalb Deutschlands eingesetzt werden, teilweise bestritten werden kann.

„Euer Fehler ist nicht unsere Schuld“ – Die Fehleranfälligkeit zentraler Systeme

In Berlin werden demnächst rund 28.000 Schülerinnen und Schüler der 10. Klasse die zentrale Matheprüfung nachschreiben müssen. Die Geschichte ging durch die Presse und hat – solange man nicht selber näher oder ferner Betroffen ist – ihre eigene Komik.
Die Idee der zentralen Matheprüfung ist, dass eine standardisierte Prüfung für alle Lernenden eines Jahrgangs deren Leistungsstand genauer abbilden würde, als Prüfungen, die zwar auf dem gleichen Rahmenplan beruhen, aber in den jeweiligen Schulen entworfen und ausgewertet würden. Ob das stimmt, ist nicht so klar, wie es auf den ersten Blick erscheint. Aber immerhin liegt die Berliner Schulverwaltung mit dieser zentralen Prüfung im bundesweiten Trend.
Nun soll, so der Senat, einer überraschend großen Zahl von zu Prüfenden die Aufgaben schon vor der Prüfung bekannt gewesen sein. Die Rede ist von 87 betroffenen Schulen – bei insgesamt 346, in denen die Prüfungen stattfanden. Es hätte, so der Senat weiter, ein Leck gegeben. Das, wenn die Zahl stimmt, dieses Leck bei 87 Schulen ziemlich groß gewesen sein muss oder aber dass die Berliner Schülerinnen und Schüler eine Kompetenz bei der (heimlichen!) Verbreitung dieser Aufgaben an den Tag gelegt haben müssten, die es fragwürdig erscheinen lässt, ob sie überhaupt noch Informationskompetenzen vermittelt bekommen müssen, wird nicht thematisiert.
Der Senat beschloss zumindest, dass die Arbeit nachzuschreiben sei. Vollkommen berechtigt sind die Lernenden in den letzten Tagen dagegen mit relativ großer Unterstützung auf die Straße gegangen. Nicht nur, weil jede Prüfung Stress ist, sondern weil – wie es so schön einfach auf der zentralen Demonstration hieß – es nicht ihre Schuld war, wenn es tatsächlich diesen Betrug gegeben haben sollte. [Abgesehen von den Schülerinnen und Schülern, die betrogen haben. Aber das sie die Chance dazu hatten, war auch nicht ihre Schuld.] Es ist ein Problem der zentralen Verwaltung dieser Prüfung.
Andere Lernende zogen vor Gericht, um die schon geschriebene Arbeit als gültig werten zu lassen. Das mag man auf den ersten Blick auch übertrieben halten und eventuell ist es das auch in einigen Fällen. Allerdings nicht in allen. Die erste Klage wurde offenbar für eine Schülerin eingereicht, die durch das Nachschreiben der Prüfung mit hoher Wahrscheinlichkeit ihren vorgesehenen Ausbildungsplatz nicht wird antreten können. Das deutet immerhin an, welche Auswirkungen eine solcher Fehler haben kann: es wird in die Lebensgestaltung der Jugendlichen eingegriffen, gerade zu einem Zeitpunkt, der für viele biographisch entscheidend ist, weil sie den Übergang von den Bildungseinrichtung in den Ausbildungsmarkt bewerkstelligen müssen. Dabei werden sie nun behindert. Eine große Anzahl von Schülerinnen und Schüler wird zum Zeitpunkt der Prüfung auch Praktika absolvieren, oft auch außerhalb Berlins. Da solche Praktika heute oft erst den Weg in eine Ausbildung ebnen, sind sie jetzt wirklich „am Arsch“. Schließlich müssen sie für den Test nicht nur nach Berlin anreisen, sondern zuvor auch noch für in lernen, während Praktikantinnen und Praktikanten aus anderen Bundesländern dies nicht müssen, was diesen einen leicht nachzuvollziehenden Vorteil verschafft.

Fehleranfälligkeit
Dieses Beispiel zeigt, über den Einzelfall hinaus, ein allgemeines Problem auf: die Vorstellung, dass durch die Zentralisierung von Diensten und Aufgaben ein Gesamtsystem effektiver arbeiten würde, stimmt so einfach nicht. Jede Zentralisierung erhöht das Problem der Anfälligkeit dieses Systems. Wenn Aufgaben zentriert werden, schlägt ein Fehler, ein Ausfall oder auch eine Entscheidung stärker auf das Gesamtsystem durch. Im Gegensatz zum Effektivitätsdispositiv, das bei Zentralisierungen in Systemen aufgerufen wird und der Vorstellung, letztlich alles so gut wie möglich kontrollieren zu müssen, damit es funktioniert, welche in Deutschland die Politik grundlegend bestimmt, stellen zentralisierte Systeme sehr fragile und relativ langsam agierende Institutionen dar.
Verteilte Systeme sind auch nicht perfekt, unter einem bestimmten Blickwinkel kann man ihnen immer wieder die Verschwendung von Ressourcen vorwerfen. Und ab einem bestimmten Level der Offenheit sind sie teilweise auch nicht mehr in der Lage, irgendwie sinnvoll zu agieren. Aber dafür sind sie nicht nur geschmeidiger, sondern auch signifikant fehlertoleranter. Eigentlich sollte das für Menschen, die sich mit der Architektur des Internets oder der Arbeitsweise bei der Pflege Freier Software, keine neue Erkenntnis sein.
Dennoch, wie das Beispiel aus Berlin beweist, ist das kein akzeptiertes Allgemeinwissen. Oft bedarf es eines Zwischenfalls, um die Fehleranfälligkeit zentraler Systeme nachzuweisen. Und auch dann sind diese Systeme nicht einfach in der Lage, zu reagieren oder auch nur Willens, ihre Architektur als Problem anzuerkennen. Die Berliner Senatsverwaltung ist bis jetzt der Meinung, dass es zwar irgendwo ein Leck gab, aber dass das Problem nicht bei der Idee der zentralen Prüfung an sich liegen könnte. Doch das war ja in der Musik- und Softwareindustrie auch nicht anders. Die großen Labels mussten erstmal lernen, dass es für sie besser ist, Sublabels relativ frei agieren zu lassen. Das hat dann eine Zeit in der 1980ern und 1990ern funktioniert, aber bis dahin haben sie viel Geld und Arbeitszeit dafür aufbringen müssen, die Auswirkungen ihrer eigenen Zentralisierung abzufangen. Und der Softwaremarkt musste erst durch den Erfolg von Freier Software, bei der zumindest versucht wird, jeweils auf Netzwerke zurückzugreifen, dazu gezwungen werden, sich langsam zu öffnen und die Idee, alles zentral steuern zu können, aufzugeben. Das ist auch immer noch ein nicht abgeschlossener Prozess.

Zentralisierung in Bibliotheken
Aber hat dies auch für Bibliotheken eine Bedeutung? Auf jeden Fall. Mehr als ein Bibliotheksentwicklungsplan reagiert auf die allgegenwärtigen finanziellen Krisen mit dem Vorschlag, Dienste zu zentralisieren. Quasi alles, was nicht vor Ort in der einer Bibliothek getan werden muss, wird zur Disposition gestellt: zentrale Katalogisierung, zentrale Erwerbung, zentrale technische Dienste, zentrale Planungen der Öffentlichkeitsarbeit, von Veranstaltungen oder bibliothekarischer Angebote für Schulen und einiges mehr. Die Idee dahinter ist immer wieder, dass eine solche Zentralisierung den effizienteren Einsatz von ökonomischen Mitteln ermöglichen würde.
Zwar regt sich immer mal wieder gegen solche Vorschläge ein leichter Protest. Aber dieser ist selten und zudem nicht unbedingt der Ablehung der Idee der Zentralisierung geschuldet, sondern oft der Angst, Entscheidungs- und Handlungsmöglichkeiten abgeben zu müssen. Allgemein scheint akzeptiert zu sein, dass die Zentralisierung von bibliothekarischen Diensten hilft, Geld einzusparen und Arbeitsprozesse effizienter zu gestalten. Bei der Zentralisierung wissenschaftlicher Bibliotheken geht es zudem oft darum, dass Institute einen Bedeutungsverlust befürchten, wenn sie Bibliotheken „abgegeben“ müssen.
Aber so einfach ist das nicht. Es fällt auf, dass selten von den negativen Folgen solcher Zentralisierung gesprochen wird. Sie werden nicht nur nicht gemessen, es wird nicht einmal nach ihnen gefragt. Dabei sollte es bei Bibliotheken nicht anders sein, als bei anderen Systemen: je zentraler, desto fehleranfälliger.
Gibt es solch negativen Folgen überhaupt? Immerhin sind von Fehlern in der Bibliotheksverwaltungen selten 28.000 Schülerinnen und Schülern beim Übergang in den Ausbildungsmarkt betroffen, oder? Meineserachtens schon. In mehr als einen System Öffentlicher Bibliotheken ist – um ein Beispiel zu nennen – in den letzten Jahren und Jahrzehnten der Arbeitsgang oder Teile des Arbeitsganges [wohl zumeist die Katalogisierung] zentralisiert worden. Abgesehen davon, dass nicht klar ist, warum dann all die anderen Bibliothekarinnen und Bibliothekare in den jeweiligen Systemen jahrelang während ihrer Ausbildung das Katalogisieren üben mussten, führt dies oft zu einer erstaunlichen Schwerfälligkeit im Bestandsaufbau der betroffenen Bibliotheken, zu einer Abnahme bibliothekarischer Dienstleistungen und zu einer Senkung der Qualitäts des Bestandes. Einerseits ist die Katalogisierung durch die Zentralisierung ein Nadelöhr: staut es sich bei ihr, stockt der Bestandsaufbau und die Bestandspflege in allen Bibliotheken des Systems. Da Zentralisierungen zumeist wegen eines ökonomischen Drucks vorgenommen werden, ergibt sich oft die Situation, dass es aufgrund fehlenden Personals auch in den neugeschaffenen zentralen Einrichtungen zu genau solchen Staus kommt. Schnell einen Bestand aufzubauen, beispielsweise weil sich in lokalen Rahmen ein Thema als Gesprächsthema etabliert oder weil man beschließt, eine Zielgruppe anzusprechen, ist so kaum noch möglich.
Ein anderes Problem sind die Fehler bei der Katalogisierung, also zumeist die falsche Zuordnung von Medien. Diese Fehler treten garantiert auf: es gibt sie in jedem Katalog, aber sie werden gewiss verstärkt durch die tendenzielle Überarbeitung in zentralen Katalogisierungabteilungen und den Umstand, dass die dortigen Kolleginnen und Kollegen selber wenig oder gar nicht mit dem Bestand selber arbeiten, in den hinein sie katalogisieren, weil das nicht zu ihrem Aufgabenfeld gehört. Sie stehen einfach nicht vor den Regalen. Das wirkliche große Problem ist meist, dass es aus Gründen der erwarteten Effizienzsteigerung durch die Zentrale Katalogisierung untersagt ist, in den einzelnen Bibliotheken selber irgendetwas an den Katalogdaten zu ändern. Wird ein Fehler entdeckt, muss das Medium mit Anmerkung zurück an die zentrale Katalogisierung. Man kann sich vorstellen, wie „begeistert“ man dort sein wird, wenn beständig aus Bibliotheken Medien zurückkommen mit der Aussage: da ist euch ein Fehler unterlaufen. Außerdem kann man sich den Verwaltungsaufwand ausmalen, der Entstehen würde, wenn tatsächlich alle Medien, die nicht ganz richtig katalogisiert worden sind, an die zentrale Katalogisierung geschickt würden.
Aber ändern kann es niemand anders. Also werden die Medien eher am falschen Ort im Regal belassen und darauf gehofft, dass sie über den Katalog gefunden werden. Das Ergebnis ist dann ein Bestand, der nicht mehr durch Augenschein und Browsen erschlossen werden kann. Und das führt dazu, dass sich noch weniger Menschen in der jeweiligen Bibliothek zurückrechtfinden. Insoweit hat die zentrale Katalogisierung unter Umständen einen negativen Effekt für die jeweiligen Bibliotheken, welcher nicht unbedingt durch die positiven Effekte aufgefangen werden, insbesondere, wenn man diese Effekte über einen längeren Zeitraum zu bestimmen versucht.

Kosten der Zentralisierung?
Doch solche Effekte werden kaum herangezogen, wenn es um die Entwicklung von Bibliotheken geht. Betont werden immer wieder die zu erwartenden positiven Effekte und es dauert mindesten seine Zeit, bis die negativen Auswirkungen erkennbar werden.
Dabei gibt es immer wieder auch gute Gründe für Zentralisierungen, genauso wie die zentrale Matheprüfung ja auch eine gesamt-berliner Schulentwicklung ermöglichen soll. Aber nur positive Effekte? Nie. Nirgends.

PS.: Beim Zentralabitur in Nordrhein-Westfalen ist es ähnlich haarsträubend, wie die Fehler des Gesamtsystems auf die Schülerinnen und Schüler durchschlagen: Schöne Neue Mathematik und der Oktaeder des Grauens

Persönliche Daten unkontrolliert raushauen: ein Mythos der Informationsgesellschaft?

Jedes neue Medium bringt seine Kritik mit sich. Als Romane populär wurden, ging in gebildeten Kreisen die Angst um, dass nun Frauen ihr Tagwerk vergessen und sich aus der Realität flüchten würden. Als das Fernsehen sich nach dem zweiten Weltkrieg etablierte, ging die Vorstellung um, dass die Menschen zu antisozialen Zombies würden, die vollkommen unkommunikativ auf die Bildschirme starren würden. Auch das Radio wurde als Werkzeug verstanden, welches die Massen zur kulturellen Eintönigkeit erziehen würde. Computerspiele, Computer an sich, elektronische Tanzmusik und elekronische Mittel zur Musikproduktion: regelmäßig fand sich eine Kritik, die vor der unkontrollierten Nutzung der jeweils neuen Medien warnte.
Und diese Warnungen wurden nicht nur von den Kreisen vertreten, die heute als populistisch bezeichnet würden, sondern immer auch von Menschen, die sich intensiv mit der Gesellschaft beschäftigten und mitnichten der einfachen Angst vor dem Neuen bezichtigt werden konnten. Zudem gab es gegen diese Kritik auch immer wieder Utopien, welche die Potentiale der jeweiligen Medien hervorhoben. Und letztlich hatten immer beide Richtungen Unrecht, weil sich die Etablierung der neuen Medien noch ganz anders vollzog.
Beim Radio gibt es das bekannte Beispiel der – in dieser Frage – Antipoden Adorno und Brecht. Adorno verstand das Radio und insbesondere den damals aktuelle Jazz (der bei Adorno für zeitgenössische populäre Musik steht) als geschmacksvereinheitlichend, als kulturelles Abbild des Fordismus, letztlich als entfremdende Kulturindustrie. Brecht entdeckte in seiner Radiotheorie hingegen die Potentiale des Radios als demokratisierendes Medium. Und unbestreitbar waren beide linke Intellektuelle, die von der Notwendigkeit einer radikalen Umgestaltung der Gesellschaft überzeugt waren, keine bedingungslosen Verteidiger hergebrachter Kultur. [Obwohl Adorno bekanntlich nach der Shoa kein Zutrauen zum Proletariat hatte, während Brecht zumindest offiziell überzeugt von dessen revolutionären Aufgabe war.] Und das Radio heute? Nun ja… aber zwischendurch hatten beide Unrecht. Es gab auch gutes Radio.

2008: Nachdem nun allgemein akzeptiert zu sein scheint, dass das Internet existiert und das dort auch etwas anderes zu finden ist, als Pornographie und Nazis und kaum noch Geschichten von seelenlosen Kinder und Nerds erzählt werden, die ihre Realität im Internet verlohren hätten, hat sich in den letzten Jahren eine weitere Kritikströmung etabliert, die auf eine reale Gefahr aufmerksam macht. Insbesondere Web2.0-Angebote würden – so die Kritik – zu einem sinkenden privaten Datenschutzbewußtsein führen.
Diese Kritik ist teilweise verbunden mit nicht einfach zu widerlegenden Hinweisen auf die Tendenz zu immer größeren Datensammlungen durch Firmen (Stichwort: gläsener Kunde) und Behörden (polemisches Stichwort: Stasi2.0). Ansonsten hat sich Einschätzung weitgehend etabliert, dass Menschen in Zeiten des Web2.0 immer mehr dazu tendiert würden, ihre persönlichen Daten unkontrolliert zu verbreiten und für einen geringen Bonus – zum Beispiel für Payback-Karten – an Firmen abzugeben. Daneben finden sich in unzähligen Medien Geschichten über Menschen, die ihre Jobs verliehren, weil irgendwo im Netz ihre Partyphotos auftauchen. Oder die wegen ihrer Internetpräsenz erst gar nicht zum Bewerbungsgespräch eingeladen werden.[1] An einem solchen Verhalten – so die Kritik weiter – würden auch alle Versuche, ein Recht auf informationelle Selbstbestimmung durchzusetzen, letztlich scheitern. Die Menschen würden ja noch nicht mal die heute schon gegebenen Möglichkeiten des Datenschutzes nutzen.

Aber stimmt das überhaupt? Oder ist diese Kritik nicht zumindest zum Teil, so wie hier dargestellt, ein Wiedergänger der Kritik, welche allen Neuen Medien anhaftet, quasi die zeitgenössische Form der adornischen Kritik?
Es gibt zumindest Hinweise, obwohl die empirische Basis gering ist, was allerdings auch für die Kritik zu konstatieren ist. Zumindest findet sich in der neuen Ausgabe der WZB-Mitteilungen der Artikel Kein Ende der Privatheit: Auch jungen Internetnutzern ist Datenschutz wichtig von Andreas Busch. Der Titel fasst die Ergebnisse des Textes auch schon zusammen. Busch greift dabei auf einige Geschichten aus Sozialen Netzwerken und die Ergebnisse zweier repräsentativer Umfragen der Europäischen Union zum Datenschutzinteresse unterschiedlicher Altersgruppen zurück. Letztlich kommt er zu folgendem – in Anbetracht der Entwicklung der heute schon längst etablierten Medien – nicht sonderlich überraschenden Schluss:

„Im selben Maße, wie alte Normen und Regeln im Kommunikationsverhalten verschwinden, entstehen neue. Dieser Prozess ist weder so radikal, noch wird er von den Generationen so unterschiedlich wahrgenommen, wie die [im Text zuvor, K.S.] zitierten Medien nahelegen. Er sollte vielmehr als gesellschaftlicher Lernprozess begriffen werden: Das Internet ist ein vergleichsweise neues Medium und bietet noch ungewohnte Möglichkeiten des Austauschs. Die Unerfahrenheit im Umgang damit dürfte mit der Zeit verschwinden – und zwar bei allen Nutzern, egal ob sie alt oder jung sind.“
[Busch, Andreas (2008) / Kein Ende der Privatheit : Auch jungen Internetnutzern ist Datenschutz wichtig. – In: WZB-Mitteilungen 120/Juni 2008, S. 26-29]

Na denn.

[1] Interessanterweise scheinen die größten Probleme für Menschen bislang durch die Datensammlungen der Schufa zu entstehen. Diese steht allerdings schon länger in der Kritik, weil man die Sammlung und Verwendung seiner Daten bei der Schufa überhaupt nicht beeinflussen kann.