Naja, Kulturkritik

Das Verbrechen der Vernunft von Robert B. Laughlin [Laughlin, Robert B. / Das Verbrechen der Vernuft : Betrug an der Wissensgesellschaft. – Frankfurt am Main : Suhrkamp, 2008 (edition unseld ; 2)] ist eher eine Dystopie als eine Analyse. Grundthese ist, dass es im Gegensatz zum Verständnis der Überzeugung, dass wir in einer Wissensgesellschaft leben würden, eine verstärkte Abschließung von Wissen gäbe. Laughlin weist dabei zuerst auf „gefährliches Wissen“, bei dem die Gesellschaft offenbar der Meinung ist, dass es geschützt werden müsse, hin. Als paradigmatisch gilt ihm dabei das Wissen um den Bau von Atombomben, aber auch um biologische und chemische Waffen. Das scheint noch nachvollziehbar, auch wenn Laughlin von absurden Situationen zu berichten weiß, die sich aus dem Verschluss dieses Wissens ergeben. Anschließend stellt er allerdings dar, dass Wissen seiner Meinung nach auch als ökonomisches Gut nur verwertet werden kann, wenn es beschränkt und versteckt wird. Die Argumente für ein schwaches Copyright – wie es im deutschen Sprachraum ja vor allem Kuhlen vroschlägt – oder der gesamten Open Access Bewegung ignoriert Laughlin gänzlich. Nur Wissen, das eingeschränkt werden kann, gilt ihm als ökonomisch sinnvoll, deshalb wird es auch eingeschränkt.
(Interessant ist, dass er dabei nicht nur von Patenten spricht, sondern von dem Phänomen, das über bestimmtes Wissen einfach nicht mehr geredet wird, was aber nicht auffällt, weil es zahlreiche andere Informationen zum gleichen Thema gibt – so gäbe es zum Beispiel zwar zahllose Informationen über bestimmte technische Apparate, die im Alltag verbreitet ist, aber ohne dass es Informationen darüber gäbe, wie genau diese funktionierten. Das würde aber nicht auffallen, bis gezielt nach diesen Informationen gesucht wird, zum Beispiel um diese Geräte nachzubauen oder ihre Funktion zu verstehen. Die hergestellten Wissenslücken gehen dieser These nach im Rauschen unter. Sie erschienen auch oft als nicht so gravierend, da man davon ausgeht, sie würden schon irgendwo zu finden sein, wenn sie benötigt würden.)
Das Problem bei diesem Text ist allerdings, das nicht klar wird, ob Laughlin die gesamten Entwicklungen (beispielsweise im Patentbereich) zwar teilweise absurd, aber doch okay findet, ob er davon ausgeht, dass dies alles nichts bringt, weil alle Wissensbeschränkungen doch beständig umgegangen werden – durch Kopieren, neue Forschungen oder Lücken im System. Oder aber – was auch möglich wäre – er möchte die Situation nur sarkastisch beschreiben, geht aber davon aus, dass es eh nicht mehr geändert werden kann. (Immerhin ist Laughlin Physiker und hat am MIT studiert – es wäre also nicht überraschend, wenn er selber diese Art von Geek-Humor teil, den sonst nur andere Geeks verstehen. Aber wenn das alles ein Witz ist: muss man daraus gleich ein ganzes Buch machen?) Oder er will dazu aufrufen, dass alles zu ändern oder zumindest drüber nachzudenken. Das bleibt einfach vollkommen unklar. Zumal, wie schon angedeutet, der Text zwar nicht unbedingt die neuesten Entwicklungen ignoriert, aber Laughlin doch viele Debatten und Entwicklungen, die seiner Beschreibung entgegenstehen, einfach nicht wahrzunehmen scheint. Und dann endet er auch noch in dem seit der Postmoderne eigentlich obsoleten Bild der grundsätzlich neuen Gesellschaft irgendwo da draußen, welche die jetzige Menschheit und deren Grundprobleme einfach zurücklässt. (Hier sind es junge Menschen, die auf den Mond auswandern.)
Letztlich hinterlässt das Buch den gleichen Eindruck, wie zeitgenössische kulturkritische Besinnungsaufsätze: An einigen Stellen nickt man, an vielen will man einfach widersprechen, weil die Vorraussetzungen der Behauptungen, die gemacht werden, einfach falsch sind. Aber letztlich weiß man am Ende nicht, wozu dieser Text da ist, wem genau er was sagen will.

Dennoch, eine großartige Stelle gibt es, die ich gerne zitieren will. Deshalb das Posting:

Die mit dieser [beschriebenen] Entwicklung einhergehende Einstellungen zum Wissen werfen äußerst beunruhigende Fragen nach dem Grundrecht des Menschen auf, Fragen zu stellen und nach Erkenntnis zu streben. Mehr und mehr erscheint der „Geistesblitz“, die plötzliche Einsicht in eine Sache und deren Folgen, die wir bei Galilei und Newton bewundern, als Verletzung von Patentrechten oder als Gefahr für die Staatssicherheit. Mehr und mehr erweist sich selbständiges Denken als potentiell kriminelle Handlung. [Laughlin (2008), S.10]

Woher kamen eigentlich die PISA-Studien?

Vor einigen Jahren dominierten in Deutschland die PISA-Studien die öffentliche Debatte, die Bildungspolitik und auch die bibliothekarischen Konzeptpapiere und Texte. Das scheint heute anders geworden zu sein, so richtig wurde PISA 2006 nicht mehr wahrgenommen und langsam verschwindet die Phrase, dass man an den PISA-Studien sehen könnte, wie schlecht das deutsche Bildungssystem ist und das deshalb eigentlich sofort xxxx [1], wieder aus diesen Texten.
Was allerdings in diesen Debatten und auch heute nicht so richtig gefragt wurde, war, wieso es eigentlich diese Studien gab. Immerhin kosteten sie jeweils (für Deutschland) rund 30 Millionen Euro. Und sie waren auch nicht die einzigen Studien im Feld der Bildungsstatistik. Hinzu kamen unter anderem die IGLU-Studien, die Stefi-Studie, die DESI-Studie und weitere lokale Studien wie Markus, QuaSum, LAU und LaC. Nicht zu vergessen die Anstrengungen, eine nationale Bildungsberichtserstattung aufzubauen (nicht nur – wie schon länger praktiziert – für die Weiterbildung, sondern auch für Kindertagesstätten oder den gesamten Bildungssektor). Hingegen erschienen die PISA-Studien in den meisten Texten, die sich auf sie bezogen, quasi vom Himmel gefallen zu sein. Irgendwie schien irgendwer (die OECD, wenn man genauer nachschaute) auf den Gedanken gekommen zu sein, diese Studien durchzuführen und irgendwie konnten sie dann auch relativ einfach durchgeführt werden (was immerhin hieß, dass jeweils rund 5.000 Schülerinnen und Schüler drei Stunden Tests schreiben und zudem von allen beteiligten Schulen Fragebögen ausgefüllt werden mussten). Die eigentlich selbstverständliche Frage, welche Aufgaben diese Studien haben, wie sie initiiert und durchgeführt wurden, schien kaum gestellt zu werden, bevor sie jeweils zur Untermauerung des eigenen bildungspolitischen Standpunkts herangezogen wurden.
Dabei sind diese Studien Teil einer relativ grundlegenden Wende der deutschen Bildungspolitik. Es herrscht heute die Vorstellung vor, dass Bildungseinrichtungen nur durch eine möglichste breite und große Unterstützung durch wissenschaftliche Methoden politisch gesteuert werden könnten. Euphemistisch wird diese Hinwendung zu Vergleichsstudien gerne als Anpassung an internationale Gepflogenheiten dargestellt. Das ist selbstverständlich so nicht richtig. Es gibt einige Staaten, in denen in der Bildungspolitik ein Focus auf die externe und interne Evaluationen gelegt wird und es gibt auch Staaten, die sich nicht auf solche Evaluationen konzentrieren oder in denen die Bedeutung von Bildungsevaluationen (schon wieder) zurückgeht. [2] Letztlich ist das immer eine politische Entscheidung, egal wie sehr sich darauf berufen wird, dass es sich bei den Studien um wissenschaftliche Werke handeln würde. [3]
Diese Umorientierung in der Bildungspolitik ist – egal, was man von ihr hält – weit relevanter, als dies in den meisten Bezügen auf die PISA-Studien thematisiert wurde. Die Hinwendung zu empirischen Bildungsberichten verschiebt die Wahrnehmung der Politik von der Aufgabe und Funktion von Bildungseinrichtungen relevant. Letztlich machen diese Bildungsstudien das Versprechen, dass es möglich ist, Bildungsqualität empirisch zu messen und dies sogar in einer solchen Weise, dass (faire) Vergleiche zwischen Bildungseinrichtungen möglich werden und sich aus diesen Ergebnissen Handlungsoptionen für die Bildungspolitik ableiten lassen. Dieses Versprechen wird seit etwas mehr als zehn Jahren in der deutschen Bildungspolitik allgemein geteilt, auch wenn der gesellschaftliche und journalistische Hype um die PISA-Studien offenbar vorbei ist. Letztlich ist dieser Paradigmenwechsel auch relevanter, als beispielsweise jede Aussage über die Lesekompetenz deutschen Schülerinnen und Schüler im Vergleich zu Lernenden in anderen Staaten, die mithilfe der PISA-Studien gemacht wurde.
Eine sehr übersichtliche Zusammenfassung der Versprechen, welche sich die Bildungspolitik von dieser empirischen Wende macht, liefert Isabell van Ackeren [Ackeren, Isabell van (2007) / Nutzung großflächiger Tests für die Schulentwicklung : Exemplarische Analyse der Erfahrungen aus England, Frankreich und den Niederlanden. – Bonn ; Berlin : Bundesministerium für Bildung und Forschung. – (Bildungsforschung ; 3)] im ersten Teil ihrer Untersuchung über verschiedene Ansätze der Nutzung des in solchen Vergleichsstudien generierten Wissens.

Der Blick über die nationalen Grenzen zeigt, dass in vielen Schul­systemen Europas die Einzelschulen in den letzten Jahren immer stärker dazu angehalten werden, Verantwortung über ihre Leistun­gen abzulegen. Zentral organisierte Leistungsmessungen und Eva­luationsprogramme spielen dabei eine wichtige Rolle. Mit ihrer Hilfe werden Auskünfte über die Qualität der Einzelschule einge­holt und öffentlich oder/und vertraulich verschiedenen Zielgrup­pen zur Verfügung gestellt. Großflächige externe Evaluationsfor­men stellen ein wichtiges Element grundsätzlicher, auf die Anhe­bung des Leistungsniveaus eines Bildungssystems ausgerichteter Reformen dar: Die Schulen vieler Länder sind zum Subjekt einer Gesetzgebung und Politik geworden, die große Veränderungen in Bereichen wie ‚Curriculum’, ‚Leistungsmessung’ und ‚Schulauto­nomie’ mit sich brachten. So sind die curricularen Forderungen restriktiver geworden, Testverfahren, aber auch regelmäßige Schul­inspektionen wurden ausgeweitet, Bildungspolitik wurde bei gleichzeitiger Dezentralisierung der Verantwortung für ihre Imple­mentierung stärker zentralisiert und verschiedene Regierungen haben versucht, Marktelemente im Bildungsbereich einzuführen, indem Eltern verstärkt Schulwahlmöglichkeiten eingeräumt wur­den und die Finanzierung der Schulen an die eingeworbene Schü­lerzahl gekoppelt wurde. In diesem Kontext ist ein Denken in be­trieblichen Begriffen auch im schulischen Bereich nicht mehr ungewöhnlich. Unterricht wird durchaus als ein Produktionsprozess gesehen, mit dem Inputs in Outputs transformiert werden. Die Ausprägung solcher Reformen variiert von Land zu Land aufgrund historischer, kultureller, institutioneller und politischer Faktoren. Es gibt einige gemeinsame Elemente, die sich über die Ländergrenzen hinweg identifizieren lassen; großflächige, extern gesteuerte Evaluationsformen sind ein Beispiel dafür, obgleich solche Reform­elemente im Kontext des jeweiligen nationalen Bildungssystems einschließlich seines historischen und gegenwärtigen sozialen Zusammenhangs zu betrachten sind. Vor diesem Hintergrund stre­ben Regierungen vieler Länder der ganzen Welt nach Möglichkeiten, Wissen und Kompetenzen zu testen und sie interessieren sich dafür, ob und wie dadurch das Lehren und Lernen mit den entsprechenden Arbeitsergebnissen kontrolliert werden kann. Die Etablierung von Tests, Prüfungen und Studien wird als wichtiger Steuerungsmechanismus in vielen Ländern angesehen: Alle Schü­ler/innen werden demnach zur Teilnahme an standardisierten Tests und Prüfungen verpflichtet. Das Erreichen bzw. Nicht-Errei­chen der geforderten Standards ist nicht selten mit positiven bzw. negativen Sanktionen, z. B. finanzieller Art, verknüpft, um in Schu­len und Klassenräumen Änderungen zu erreichen und dadurch insgesamt Reformen in Bildungssystemen umzusetzen. Die erhofften Möglichkeiten einer testbasierten Reform scheinen dabei auch aus Kostengründen attraktiv. Tests sind offensichtlich weniger teuer als Reformen, die direkten Einfluss auf das Unterrichtsgeschehen nehmen wollen.
[Ackeren (2007), S. 8f.]

Diese Versprechen werden sich nicht im erhofften Maße erfüllen – dies ist aufgrund internationaler Erfahrungen und der Erfahrung aus anderen Bildungsreformen in Deutschland, schon jetzt problemlos vorher zu sagen. Allerdings ist ein teilweises Scheitern von Reformen im Rahmen demokratischer Prozesse auch kein wirkliches Problem, sondern Triebfeder gesellschaftlicher Auseinandersetzungen. Deswegen wird auch dieses Scheitern insgesamt nicht zum Untergang des deutschen Bildungssystems führen, auch wenn solcher Szenarien immer wieder gerne aufgerufen werden. Trotzdem bestimmen diese Vorstellungen aktuell die Wahrnehmung von Bildungseinrichtungen durch die Bildungspolitik. Und, auch dies ist kein wirklich schwierige, Vorhersage, wenn Bibliotheken Einrichtungen sein wollen, die irgendetwas mit Bildung zu tun haben wollen, dann werden sie gezwungen sein, sich unter dieses Regime zu ordnen. Die PISA-Studien sind nicht vom Himmel gefallen, sie sind Teil eines politischen Paradigmenwechsels. Und dieser ist – wie alle Paradigmenwechsel – weder eindeutig zu begrüßen noch eindeutig abzulehnen.

Fußnote:
[1] Hier beliebige bildungspolitische Massnahme einsetzen. Gerade in der Hochzeit der Debatte schien es, als könnte einfach jede politische Entscheidung (von der egalitären Ganztagsgesamtschule bis zur Förderung der Bildung im Familienverband) und kulturelle Veranstaltung mit den PISA-Studien begründet werden, auch wenn das die eigentlichen Studien bei genauerem Lesen eher selten hergaben.
[2] Dies hat auch lange nicht so viel mit den in Deutschland gerne gepflegten modernen Feindbildern zu tun, wie dies auf den ersten Blick erscheinen könnte. Beispielsweise ist Englang ein Land, in welchem fast ausschließlich Evaluationen und (sich ständig ändernde) Bildungsstandards zur Steuerung von Bildungseinrichtungen eingesetzt wird, wohingegen in Schottland nicht einmal ein allgemein akzeptiertes landesweites Curriculum für Bildungseinrichtungen existiert. In Wales und Nordirland haben Evaluationen ebenso nicht die Bedeutung, die sie in England haben. Ähnlich verhält es sich mit den USA, in dem die Bedeutung von Vergleichsstudien für die nationale Bildungspolitik groß ist – was allerdings in seiner Wirkung dadurch eingeschränkt ist, dass die Bundesregierung keinen verfassungsrechtlichen Anspruch auf die Bildungspolitik der Staaten hat und wenn überhaupt, dann durch die Vergabe von Finanzmitteln Einfluss auf die Bildungspolitik nehmen kann. In einigen US-amerikanischen Bundeststaaten ist die Bedeutung solcher Studien ebenfalls groß, in anderen ist sie praktisch sehr gering. Auch die in Deutschaldn gerne als Vorbild begriffenen skandinavischen Staaten sind ähnlich divers. Norwegen setzt stark auf Bildungsevaluationen und die Veröffentlichung der auf diesem Weg gewonnen Daten, während Schweden sehr verhalten damit umgeht. Auch in Finnland, dass in Deutschland gerne als „PISA-Gewinner“ begriffen wird, haben Bildungsstatistiken einer eher geringen Wert. Und das Frankreich ebenso wie Deutschland in den PISA-Studien eher schlecht abschnitt, hat die dortige Bildungspolitik nicht wirklich groß tangiert. Man sollte also mit einfachen Erklärungen, warum in einem Land empirische (und teilweise auch pseudo-empirische) Bildungsberichterstattungen eine große Bedeutung haben und in anderen nicht, sehr zurückhaltend sein. Dies scheint sehr von der nationalen Bildungspolitik und den dort vertrenden Ansichten beeinflusst zu sein.
[3] Was für einige Studien, die außerhalb Deutschlands eingesetzt werden, teilweise bestritten werden kann.

„Euer Fehler ist nicht unsere Schuld“ – Die Fehleranfälligkeit zentraler Systeme

In Berlin werden demnächst rund 28.000 Schülerinnen und Schüler der 10. Klasse die zentrale Matheprüfung nachschreiben müssen. Die Geschichte ging durch die Presse und hat – solange man nicht selber näher oder ferner Betroffen ist – ihre eigene Komik.
Die Idee der zentralen Matheprüfung ist, dass eine standardisierte Prüfung für alle Lernenden eines Jahrgangs deren Leistungsstand genauer abbilden würde, als Prüfungen, die zwar auf dem gleichen Rahmenplan beruhen, aber in den jeweiligen Schulen entworfen und ausgewertet würden. Ob das stimmt, ist nicht so klar, wie es auf den ersten Blick erscheint. Aber immerhin liegt die Berliner Schulverwaltung mit dieser zentralen Prüfung im bundesweiten Trend.
Nun soll, so der Senat, einer überraschend großen Zahl von zu Prüfenden die Aufgaben schon vor der Prüfung bekannt gewesen sein. Die Rede ist von 87 betroffenen Schulen – bei insgesamt 346, in denen die Prüfungen stattfanden. Es hätte, so der Senat weiter, ein Leck gegeben. Das, wenn die Zahl stimmt, dieses Leck bei 87 Schulen ziemlich groß gewesen sein muss oder aber dass die Berliner Schülerinnen und Schüler eine Kompetenz bei der (heimlichen!) Verbreitung dieser Aufgaben an den Tag gelegt haben müssten, die es fragwürdig erscheinen lässt, ob sie überhaupt noch Informationskompetenzen vermittelt bekommen müssen, wird nicht thematisiert.
Der Senat beschloss zumindest, dass die Arbeit nachzuschreiben sei. Vollkommen berechtigt sind die Lernenden in den letzten Tagen dagegen mit relativ großer Unterstützung auf die Straße gegangen. Nicht nur, weil jede Prüfung Stress ist, sondern weil – wie es so schön einfach auf der zentralen Demonstration hieß – es nicht ihre Schuld war, wenn es tatsächlich diesen Betrug gegeben haben sollte. [Abgesehen von den Schülerinnen und Schülern, die betrogen haben. Aber das sie die Chance dazu hatten, war auch nicht ihre Schuld.] Es ist ein Problem der zentralen Verwaltung dieser Prüfung.
Andere Lernende zogen vor Gericht, um die schon geschriebene Arbeit als gültig werten zu lassen. Das mag man auf den ersten Blick auch übertrieben halten und eventuell ist es das auch in einigen Fällen. Allerdings nicht in allen. Die erste Klage wurde offenbar für eine Schülerin eingereicht, die durch das Nachschreiben der Prüfung mit hoher Wahrscheinlichkeit ihren vorgesehenen Ausbildungsplatz nicht wird antreten können. Das deutet immerhin an, welche Auswirkungen eine solcher Fehler haben kann: es wird in die Lebensgestaltung der Jugendlichen eingegriffen, gerade zu einem Zeitpunkt, der für viele biographisch entscheidend ist, weil sie den Übergang von den Bildungseinrichtung in den Ausbildungsmarkt bewerkstelligen müssen. Dabei werden sie nun behindert. Eine große Anzahl von Schülerinnen und Schüler wird zum Zeitpunkt der Prüfung auch Praktika absolvieren, oft auch außerhalb Berlins. Da solche Praktika heute oft erst den Weg in eine Ausbildung ebnen, sind sie jetzt wirklich „am Arsch“. Schließlich müssen sie für den Test nicht nur nach Berlin anreisen, sondern zuvor auch noch für in lernen, während Praktikantinnen und Praktikanten aus anderen Bundesländern dies nicht müssen, was diesen einen leicht nachzuvollziehenden Vorteil verschafft.

Fehleranfälligkeit
Dieses Beispiel zeigt, über den Einzelfall hinaus, ein allgemeines Problem auf: die Vorstellung, dass durch die Zentralisierung von Diensten und Aufgaben ein Gesamtsystem effektiver arbeiten würde, stimmt so einfach nicht. Jede Zentralisierung erhöht das Problem der Anfälligkeit dieses Systems. Wenn Aufgaben zentriert werden, schlägt ein Fehler, ein Ausfall oder auch eine Entscheidung stärker auf das Gesamtsystem durch. Im Gegensatz zum Effektivitätsdispositiv, das bei Zentralisierungen in Systemen aufgerufen wird und der Vorstellung, letztlich alles so gut wie möglich kontrollieren zu müssen, damit es funktioniert, welche in Deutschland die Politik grundlegend bestimmt, stellen zentralisierte Systeme sehr fragile und relativ langsam agierende Institutionen dar.
Verteilte Systeme sind auch nicht perfekt, unter einem bestimmten Blickwinkel kann man ihnen immer wieder die Verschwendung von Ressourcen vorwerfen. Und ab einem bestimmten Level der Offenheit sind sie teilweise auch nicht mehr in der Lage, irgendwie sinnvoll zu agieren. Aber dafür sind sie nicht nur geschmeidiger, sondern auch signifikant fehlertoleranter. Eigentlich sollte das für Menschen, die sich mit der Architektur des Internets oder der Arbeitsweise bei der Pflege Freier Software, keine neue Erkenntnis sein.
Dennoch, wie das Beispiel aus Berlin beweist, ist das kein akzeptiertes Allgemeinwissen. Oft bedarf es eines Zwischenfalls, um die Fehleranfälligkeit zentraler Systeme nachzuweisen. Und auch dann sind diese Systeme nicht einfach in der Lage, zu reagieren oder auch nur Willens, ihre Architektur als Problem anzuerkennen. Die Berliner Senatsverwaltung ist bis jetzt der Meinung, dass es zwar irgendwo ein Leck gab, aber dass das Problem nicht bei der Idee der zentralen Prüfung an sich liegen könnte. Doch das war ja in der Musik- und Softwareindustrie auch nicht anders. Die großen Labels mussten erstmal lernen, dass es für sie besser ist, Sublabels relativ frei agieren zu lassen. Das hat dann eine Zeit in der 1980ern und 1990ern funktioniert, aber bis dahin haben sie viel Geld und Arbeitszeit dafür aufbringen müssen, die Auswirkungen ihrer eigenen Zentralisierung abzufangen. Und der Softwaremarkt musste erst durch den Erfolg von Freier Software, bei der zumindest versucht wird, jeweils auf Netzwerke zurückzugreifen, dazu gezwungen werden, sich langsam zu öffnen und die Idee, alles zentral steuern zu können, aufzugeben. Das ist auch immer noch ein nicht abgeschlossener Prozess.

Zentralisierung in Bibliotheken
Aber hat dies auch für Bibliotheken eine Bedeutung? Auf jeden Fall. Mehr als ein Bibliotheksentwicklungsplan reagiert auf die allgegenwärtigen finanziellen Krisen mit dem Vorschlag, Dienste zu zentralisieren. Quasi alles, was nicht vor Ort in der einer Bibliothek getan werden muss, wird zur Disposition gestellt: zentrale Katalogisierung, zentrale Erwerbung, zentrale technische Dienste, zentrale Planungen der Öffentlichkeitsarbeit, von Veranstaltungen oder bibliothekarischer Angebote für Schulen und einiges mehr. Die Idee dahinter ist immer wieder, dass eine solche Zentralisierung den effizienteren Einsatz von ökonomischen Mitteln ermöglichen würde.
Zwar regt sich immer mal wieder gegen solche Vorschläge ein leichter Protest. Aber dieser ist selten und zudem nicht unbedingt der Ablehung der Idee der Zentralisierung geschuldet, sondern oft der Angst, Entscheidungs- und Handlungsmöglichkeiten abgeben zu müssen. Allgemein scheint akzeptiert zu sein, dass die Zentralisierung von bibliothekarischen Diensten hilft, Geld einzusparen und Arbeitsprozesse effizienter zu gestalten. Bei der Zentralisierung wissenschaftlicher Bibliotheken geht es zudem oft darum, dass Institute einen Bedeutungsverlust befürchten, wenn sie Bibliotheken „abgegeben“ müssen.
Aber so einfach ist das nicht. Es fällt auf, dass selten von den negativen Folgen solcher Zentralisierung gesprochen wird. Sie werden nicht nur nicht gemessen, es wird nicht einmal nach ihnen gefragt. Dabei sollte es bei Bibliotheken nicht anders sein, als bei anderen Systemen: je zentraler, desto fehleranfälliger.
Gibt es solch negativen Folgen überhaupt? Immerhin sind von Fehlern in der Bibliotheksverwaltungen selten 28.000 Schülerinnen und Schülern beim Übergang in den Ausbildungsmarkt betroffen, oder? Meineserachtens schon. In mehr als einen System Öffentlicher Bibliotheken ist – um ein Beispiel zu nennen – in den letzten Jahren und Jahrzehnten der Arbeitsgang oder Teile des Arbeitsganges [wohl zumeist die Katalogisierung] zentralisiert worden. Abgesehen davon, dass nicht klar ist, warum dann all die anderen Bibliothekarinnen und Bibliothekare in den jeweiligen Systemen jahrelang während ihrer Ausbildung das Katalogisieren üben mussten, führt dies oft zu einer erstaunlichen Schwerfälligkeit im Bestandsaufbau der betroffenen Bibliotheken, zu einer Abnahme bibliothekarischer Dienstleistungen und zu einer Senkung der Qualitäts des Bestandes. Einerseits ist die Katalogisierung durch die Zentralisierung ein Nadelöhr: staut es sich bei ihr, stockt der Bestandsaufbau und die Bestandspflege in allen Bibliotheken des Systems. Da Zentralisierungen zumeist wegen eines ökonomischen Drucks vorgenommen werden, ergibt sich oft die Situation, dass es aufgrund fehlenden Personals auch in den neugeschaffenen zentralen Einrichtungen zu genau solchen Staus kommt. Schnell einen Bestand aufzubauen, beispielsweise weil sich in lokalen Rahmen ein Thema als Gesprächsthema etabliert oder weil man beschließt, eine Zielgruppe anzusprechen, ist so kaum noch möglich.
Ein anderes Problem sind die Fehler bei der Katalogisierung, also zumeist die falsche Zuordnung von Medien. Diese Fehler treten garantiert auf: es gibt sie in jedem Katalog, aber sie werden gewiss verstärkt durch die tendenzielle Überarbeitung in zentralen Katalogisierungabteilungen und den Umstand, dass die dortigen Kolleginnen und Kollegen selber wenig oder gar nicht mit dem Bestand selber arbeiten, in den hinein sie katalogisieren, weil das nicht zu ihrem Aufgabenfeld gehört. Sie stehen einfach nicht vor den Regalen. Das wirkliche große Problem ist meist, dass es aus Gründen der erwarteten Effizienzsteigerung durch die Zentrale Katalogisierung untersagt ist, in den einzelnen Bibliotheken selber irgendetwas an den Katalogdaten zu ändern. Wird ein Fehler entdeckt, muss das Medium mit Anmerkung zurück an die zentrale Katalogisierung. Man kann sich vorstellen, wie „begeistert“ man dort sein wird, wenn beständig aus Bibliotheken Medien zurückkommen mit der Aussage: da ist euch ein Fehler unterlaufen. Außerdem kann man sich den Verwaltungsaufwand ausmalen, der Entstehen würde, wenn tatsächlich alle Medien, die nicht ganz richtig katalogisiert worden sind, an die zentrale Katalogisierung geschickt würden.
Aber ändern kann es niemand anders. Also werden die Medien eher am falschen Ort im Regal belassen und darauf gehofft, dass sie über den Katalog gefunden werden. Das Ergebnis ist dann ein Bestand, der nicht mehr durch Augenschein und Browsen erschlossen werden kann. Und das führt dazu, dass sich noch weniger Menschen in der jeweiligen Bibliothek zurückrechtfinden. Insoweit hat die zentrale Katalogisierung unter Umständen einen negativen Effekt für die jeweiligen Bibliotheken, welcher nicht unbedingt durch die positiven Effekte aufgefangen werden, insbesondere, wenn man diese Effekte über einen längeren Zeitraum zu bestimmen versucht.

Kosten der Zentralisierung?
Doch solche Effekte werden kaum herangezogen, wenn es um die Entwicklung von Bibliotheken geht. Betont werden immer wieder die zu erwartenden positiven Effekte und es dauert mindesten seine Zeit, bis die negativen Auswirkungen erkennbar werden.
Dabei gibt es immer wieder auch gute Gründe für Zentralisierungen, genauso wie die zentrale Matheprüfung ja auch eine gesamt-berliner Schulentwicklung ermöglichen soll. Aber nur positive Effekte? Nie. Nirgends.

PS.: Beim Zentralabitur in Nordrhein-Westfalen ist es ähnlich haarsträubend, wie die Fehler des Gesamtsystems auf die Schülerinnen und Schüler durchschlagen: Schöne Neue Mathematik und der Oktaeder des Grauens

Persönliche Daten unkontrolliert raushauen: ein Mythos der Informationsgesellschaft?

Jedes neue Medium bringt seine Kritik mit sich. Als Romane populär wurden, ging in gebildeten Kreisen die Angst um, dass nun Frauen ihr Tagwerk vergessen und sich aus der Realität flüchten würden. Als das Fernsehen sich nach dem zweiten Weltkrieg etablierte, ging die Vorstellung um, dass die Menschen zu antisozialen Zombies würden, die vollkommen unkommunikativ auf die Bildschirme starren würden. Auch das Radio wurde als Werkzeug verstanden, welches die Massen zur kulturellen Eintönigkeit erziehen würde. Computerspiele, Computer an sich, elektronische Tanzmusik und elekronische Mittel zur Musikproduktion: regelmäßig fand sich eine Kritik, die vor der unkontrollierten Nutzung der jeweils neuen Medien warnte.
Und diese Warnungen wurden nicht nur von den Kreisen vertreten, die heute als populistisch bezeichnet würden, sondern immer auch von Menschen, die sich intensiv mit der Gesellschaft beschäftigten und mitnichten der einfachen Angst vor dem Neuen bezichtigt werden konnten. Zudem gab es gegen diese Kritik auch immer wieder Utopien, welche die Potentiale der jeweiligen Medien hervorhoben. Und letztlich hatten immer beide Richtungen Unrecht, weil sich die Etablierung der neuen Medien noch ganz anders vollzog.
Beim Radio gibt es das bekannte Beispiel der – in dieser Frage – Antipoden Adorno und Brecht. Adorno verstand das Radio und insbesondere den damals aktuelle Jazz (der bei Adorno für zeitgenössische populäre Musik steht) als geschmacksvereinheitlichend, als kulturelles Abbild des Fordismus, letztlich als entfremdende Kulturindustrie. Brecht entdeckte in seiner Radiotheorie hingegen die Potentiale des Radios als demokratisierendes Medium. Und unbestreitbar waren beide linke Intellektuelle, die von der Notwendigkeit einer radikalen Umgestaltung der Gesellschaft überzeugt waren, keine bedingungslosen Verteidiger hergebrachter Kultur. [Obwohl Adorno bekanntlich nach der Shoa kein Zutrauen zum Proletariat hatte, während Brecht zumindest offiziell überzeugt von dessen revolutionären Aufgabe war.] Und das Radio heute? Nun ja… aber zwischendurch hatten beide Unrecht. Es gab auch gutes Radio.

2008: Nachdem nun allgemein akzeptiert zu sein scheint, dass das Internet existiert und das dort auch etwas anderes zu finden ist, als Pornographie und Nazis und kaum noch Geschichten von seelenlosen Kinder und Nerds erzählt werden, die ihre Realität im Internet verlohren hätten, hat sich in den letzten Jahren eine weitere Kritikströmung etabliert, die auf eine reale Gefahr aufmerksam macht. Insbesondere Web2.0-Angebote würden – so die Kritik – zu einem sinkenden privaten Datenschutzbewußtsein führen.
Diese Kritik ist teilweise verbunden mit nicht einfach zu widerlegenden Hinweisen auf die Tendenz zu immer größeren Datensammlungen durch Firmen (Stichwort: gläsener Kunde) und Behörden (polemisches Stichwort: Stasi2.0). Ansonsten hat sich Einschätzung weitgehend etabliert, dass Menschen in Zeiten des Web2.0 immer mehr dazu tendiert würden, ihre persönlichen Daten unkontrolliert zu verbreiten und für einen geringen Bonus – zum Beispiel für Payback-Karten – an Firmen abzugeben. Daneben finden sich in unzähligen Medien Geschichten über Menschen, die ihre Jobs verliehren, weil irgendwo im Netz ihre Partyphotos auftauchen. Oder die wegen ihrer Internetpräsenz erst gar nicht zum Bewerbungsgespräch eingeladen werden.[1] An einem solchen Verhalten – so die Kritik weiter – würden auch alle Versuche, ein Recht auf informationelle Selbstbestimmung durchzusetzen, letztlich scheitern. Die Menschen würden ja noch nicht mal die heute schon gegebenen Möglichkeiten des Datenschutzes nutzen.

Aber stimmt das überhaupt? Oder ist diese Kritik nicht zumindest zum Teil, so wie hier dargestellt, ein Wiedergänger der Kritik, welche allen Neuen Medien anhaftet, quasi die zeitgenössische Form der adornischen Kritik?
Es gibt zumindest Hinweise, obwohl die empirische Basis gering ist, was allerdings auch für die Kritik zu konstatieren ist. Zumindest findet sich in der neuen Ausgabe der WZB-Mitteilungen der Artikel Kein Ende der Privatheit: Auch jungen Internetnutzern ist Datenschutz wichtig von Andreas Busch. Der Titel fasst die Ergebnisse des Textes auch schon zusammen. Busch greift dabei auf einige Geschichten aus Sozialen Netzwerken und die Ergebnisse zweier repräsentativer Umfragen der Europäischen Union zum Datenschutzinteresse unterschiedlicher Altersgruppen zurück. Letztlich kommt er zu folgendem – in Anbetracht der Entwicklung der heute schon längst etablierten Medien – nicht sonderlich überraschenden Schluss:

„Im selben Maße, wie alte Normen und Regeln im Kommunikationsverhalten verschwinden, entstehen neue. Dieser Prozess ist weder so radikal, noch wird er von den Generationen so unterschiedlich wahrgenommen, wie die [im Text zuvor, K.S.] zitierten Medien nahelegen. Er sollte vielmehr als gesellschaftlicher Lernprozess begriffen werden: Das Internet ist ein vergleichsweise neues Medium und bietet noch ungewohnte Möglichkeiten des Austauschs. Die Unerfahrenheit im Umgang damit dürfte mit der Zeit verschwinden – und zwar bei allen Nutzern, egal ob sie alt oder jung sind.“
[Busch, Andreas (2008) / Kein Ende der Privatheit : Auch jungen Internetnutzern ist Datenschutz wichtig. – In: WZB-Mitteilungen 120/Juni 2008, S. 26-29]

Na denn.

[1] Interessanterweise scheinen die größten Probleme für Menschen bislang durch die Datensammlungen der Schufa zu entstehen. Diese steht allerdings schon länger in der Kritik, weil man die Sammlung und Verwendung seiner Daten bei der Schufa überhaupt nicht beeinflussen kann.

Noch einmal Netbooks und Gesellschaft

Letztens diskutierte ich kurz die Trends auf dem Laptopmarkt, bzw. die Etablierung der Kategorie der Netbooks in den letzten Monaten. Ben Kaden schloss in einem Beitrag im IBI-Blog daran an und wies vollkommen berechtigt auf das Problem der Umweltverschmutzung [nennen wir es doch einfach mal beim Namen] hin. In der aktuellen First Monday diskutiert nun Brendan Luyt den XO des One Laptop Per Child projects, welcher als Initialprojekt für den Trend zum Netbook angesehen wird. Dabei geht er hauptsächlich auf die technischen Innovationsprozesse, die der XO angestossen hat und den pädagogischen Anspruch des Projektes ein.
Leider bezieht Luyt noch nicht das aktuelle Projekt des XO-2 ein [der allerdings anderswo vorgestellt und diskutiert wird: hier, hier, hier und hier], welcher meineserachtens durch seine Anlehnung ans Buch und seinen Verzicht auf eine statische Tastatur interessante Ansätze verfolgt, die auch den „Normalnutzenden“ klarmachen werden, dass die aktuell vorherschenden Formen Tower-Tastatur-Bildschirm oder Laptop-mit-Hochklappen-des-Bildschirms nur zwei mögliche Modelle für Computer sind und die Entwicklung von Rechnern (und Software) freier verlaufen könnte. Der Vorteil solcher Erkenntnis könnte sein, dass mehr Nutzenden ihre Rechner als Maschinen begreifen, die sie unterstützen sollen und nicht als Übergeräte, die diktaorisch nur machen, was sie wollen und die man lieber nicht bei ihren Kreisen stört. Und das wiederum könnte sich auf die Nachfrage nach unterschiedlichen Rechnermodellen niederschlagen. [Die Tablet-PCs alleine haben ja noch nicht zu einer solchen Freiheit in der alltäglichen Computernutzung geführt.]
Interessant ist an Luyts Text, das er den XO im Rahmen eines sich verändernden Kapitalismus situiert. Der Kapitalismus entwickelt sich laut Luyt einerseits in Richtung eines Netzwerk-Kapitalismus, in welchem der Kommunikation als Aktivität eine bedeutende Rolle im Produktions- und Distributionsprozess zukommt und nicht nur die Berufsbiographien, sondern auch die Produktionsprozesse projektförmiger und prekärer werden. Gleichzeitig entsteht im Rahmen dieses neuen Kapitalismus ein Freiraum für soziale Aktivitäten, die global ausgerichtet sind, zumeist von Teilen der (intellektuellen und ökonomischen) Elite der ersten Welt ausgehen und in Form von Non-Profit-Organisationen durchgeführt werden. Der XO beziehungsweise die One Laptop Per Child Foundation und dessen explizit am Lernen neuer Technologien und kollaborativer Spiel- und Arbeitsweisen orientierten Anforderungen an Hard- und Software sind für Luyt ein Beispiel für die Transformation des globalen ökonomischen und gesellschaftlichen Systems.
Luyt geht auf diese Transformationsprozesse nur kurz ein. Aber seine Ausführungen lassen sich in einen größeren Zusammenhang mit sozial- und kulturwissenschaftlichen Trend stellen, der genau diese beiden Entwicklung – Netzwerk-Kapitalismus und Trend zum globalen Engagement neuer NGOs – in den Blick nimmt. [Hierzu sind Der neue Geist des Kapitalismus von Luc Boltanski und Ève Chiapello, Die Moralisierung der Märkte von Nico Stehr, aber auch der Überblicksartikel Globale Wohltäter: Die neuen Weltbürger und ihr Beitrag zum gesellschaftlichen Wandel von Tine Stein in der März-Ausgabe der WZB-Mitteilungen zu zählen. Bekannte NGOs, die sich diesem Trend zuordnen lassen, sind neben der One Laptop Per Child Foundation (Spin Off des MIT Media Lab), Room to Read (von einem Microsoft-Manager gegründet und geleitet), die Bill & Melinda Gates Foundation (DEM Bill Gates), das Open Society Institute (George Soros), aber auch Linux und die Linux-Foundation, die immer noch von einigen Millionären und gut verdienden Programmiern aus der Ersten Welt (USA, Finnland, Kanada) domiert wird und bei dem gleichzeitig vom bislang größten Wissenstransfer aus der Ersten in die restlichen Welt gesprochen wird.]

Was – um darauf noch einmal zurückzukommen – Luyt zeigt, ist dass der XO kein Spielzeug ist [1], dass man einfach ignorieren kann, sondern ein kulturelles Artefakt, in dem gesellschaftliche Trends der Mediennutzung, der sich veränderndern Produktionsverhältnisse und des globalen Denkens einen Ausdruck gefunden haben. Der XO überschreitet dabei auch eine Grenze, die gerne noch in Bezug auf die Computernutzung im Bildungsalltag gezogen wird: der Rechner selber ist Objekt des Spielen und Lernens, nicht mehr nur Maschine für Lernsoftware, die man irgendwie steuern könnte [z.B. indem man vorrangig pädagogische Spielen in einem Bibliotheksbestand aufnimmt]. Dem werden sich weder Bildungseinrichtungen noch Bibliotheken entziehen können, einfach weil dies Trends sind, die weit über die Mediennutzung allein hinausgehen. Es geht um die Etablierung einer neuen Wahrnehmungswelt, was nicht unbedingt schlecht sein muss. [Einen ähnlichen Einfluss hatte die Etablierung von Zeitschriften als Alltagsgegenstand, des Radios und des Fernsehens.]
Und dabei geht es nicht einmal primär um Marketing-Fragen, „Wie uns andere sehen“ oder darum, ob und wie Bibliotheken „cool“ werden können. Es geht darum, dass die Gesellschaft nach und nach aus Menschen bestehen wird, für die die Nutzung moderner Kommunikationstechnologien zum Alltag gehört, die mit diesen ihre Arbeit und Freizeit gestalten, das Kommunizieren über unterschiedliche Internet-Dienste und die Verfügung über große Informationsmengen als selbstverständlich erleben. Das wird seine Zeit brauchen, die Menschen werden diese Medien unterschiedlich und unterschiedlich kompetent nutzen, viele Menschen werden bestimmte Medien oder Web-Angebote gar nicht oder nur für eine bestimmte Zeit ihres Lebens nutzen. Hypes werden vorübergehen, aber der gesellschaftliche Trend wird trotzdem stattfinden. Und diese Leute – und nicht die Leserinnen und Leser aus der Zeit, indem Fernsehen, Zeitschriften und Bücher den Medienalltag bestimmten – werden dann in Bibliotheken kommen und diese ihren Anforderungen folgend nutzen wollen. Und das ist der Grund, warum Bibliotheken sich mit diesen Rechnern und den mit diesen einhergehenden Trends auseinander setzen müssen.

[1] Trotzdem ist er ein unglaublich heftiges Spielzeug der Kategorie unbedingt-haben-wollen.

Ein Trend der letzten Monate: Netbooks

In den letzten Tagen treibt mich eine Frage um, die ich gerne einmal bearbeiten würde: Welche Auswirkung wird der Trend zu kleinen, billigen Laptops mit Internetfixierung für die Informationsnutzung von (potentiellen) Nutzerinnen und Nutzern Öffentlicher Bibliotheken haben?

100-Dollar-Laptop
Vielleicht von vorne. In den letzten Monaten erschienen mehrere kleine Laptops, die explizit klein, billig und mobil sind und teilweise extra für die Nutzung von Web2.0-Diensten ausgelegt sind.
In gewisser Weise können diese Rechner als (ungewolltes) Ergebnis des One Laptop Per Child Projektes (OLPC) beschreiben werden. OLPC hat sich zum Ziel gesetzt, allen Kindern einen modernen Laptop zukommen zu lassen, welcher das spielerische Lernen moderner Techniken und Kommunikationsformen ermöglichen soll. Dafür strebte OLPC die Produktion eines 100-Dollar-Laptops an, der hauptsächlich durch Regierungen von Entwicklungsländern über Schulen verteilt (und finanziert) werden soll. Es gibt Fortschritte bei dieser Mission (beispielsweise steht Peru kurz davor, die Laptops in einem groß angelegten Projekt einzusetzen). Allerdings kostet der Rechner mit dem Namen XO-1 188 Dollar. Das Design ist auf die Bedürfnisse von Kindern in armen Ländern ausgerichtet, der Rechner verbraucht wenig Energie und kann nicht nur mit Strom aus der Steckdose, sondern auch aus zahlreichen anderen Stromquellen – inklusive einer Handkurbel – aufgeladen werden. Ausgestattet ist der Rechner mit allem, was ein Laptop braucht, inklusive Kamera, Mikrophon WLAN-Antennen und USB-Ports. Zudem hat er ein drehbaren Monitor und ist extrem robust. Das Nachfolgemodell XO-2 wurde kürzlich als Projektskizze vorgestellt und soll statt einer Tastatur zwei Touch-Screens besitzen, wie ein Buch aufklappbar (und nutzbar) sein und einfach auf einem der beiden Monitore Tastaturen simulieren, welche sich den Fähigkeiten der Kinder anpassen lassen sollen. Allerdings ist der Speicher der Rechner extrem beschränkt.
Als Betriebssystem wird ein speziell angepasste Version der Linux-Distribution Fedora verwendet.[1] Diese Version soll besonders energieeffizient arbeiten. Zudem ist diese Version mit einer extra entwickelten Oberfläche namens Sugar ausgestattet, welche explizit für Schülerinnen und Schüler, die (noch) nicht Lesen und Schreiben können, konzipiert wurde. Der Zugang zum Rechner soll spielerisch erfolgen, die Kinder sollen direkte Lernerfolge erleben.
Der XO hat einen entwicklungsfördernden Ansatz. Die Hoffnung war, mit der Masse an möglichen Bestellungen – also Bestellungen von Regierungen für alle Schulkinder eines Landes auf einmal – eine Marktmacht zu organisieren, welche die Produktion solch billiger Rechner für die Industrie trotz allem zu einem gewinnbringenden Geschäft machen sollte. Ob das tatsächlich funktioniert, bleibt noch abzuwarten. Ein Erfolg scheint immerhin, dass Microsoft den XO – der, wie gesagt mit Linux arbeitet – für ein so elementares Geschäft hält, dass es lieber eine eigene Version von Windows XP für den Rechner erarbeitet hat, die statt den üblichen 100 Dollar drei Dollar kosten soll.

Kleine Laptops funktionieren, immer besser
Was der XO aber – schon während der Projektphase – bewies, war, dass es möglich ist, leistungsfähige Laptops zu einem relativ geringen Preis herzustellen. Dafür muss man zwar auf einige Dinge – große Festplatten, High-End-Graphikkarten etc. – verzichten, was allerdings hinnehmbar ist, wenn die Rechner für klar definierte Ziele eingesetzt werden sollen, die gerade keine großen Festplatten oder High-End-Graphikkarten benötigen. Und da – trotz dem Boom von Privatvideos – nur ein geringer Teil der Menschen am Rechner Filme schneiden, 2.000-seitige Bücher layouten oder GTA IV spielen will, sind solche Rechner auch außerhalb von Schulen armer Staaten interessant. Zumal mit der Entwicklung von Linux und anderen quell-offenen Betriebssystemen in den letzten Jahren leistungsfähige Betriebssysteme zur Verfügung stehen, die auch auf solcher Hardware oft schneller und konsistenter laufen, als Vista, XP oder Mac OS X. [2]

Diesen Beweis, den der XO angetreten hatte, nutzten nun in den letzten Monaten Firmen, um mit und ohne den pädagogischen Ansatz des OLPC-Projektes ähnliche kleine Rechner anzubieten. Dabei wurde der XO selber rund 80.000 mal im Rahmen eines Charity-Programms [man bezahlte zwei Rechner, bekam einen und spendete den anderen automatisch für das OLPC-Projekt] in den USA verkauft. Ein Markt für solche Rechner ist also vorhanden [man hätte ansonsten das Geld auch direkt spenden können]. Intel verkauft seit 2007 eine Classmate PC, der ebenfalls standardmäßig unter Linux läuft und für pädagogische Zwecke eingesetzt werden soll.
Durchschlagender war allerdings der Erfolg des Eee-PC. Diese Rechner sind ebenfalls seit dem letzten Jahr auf dem Markt und prägten einen – noch nicht überall etablierten – Begriff: die Netbooks. Eee-PCs kosten zwischen 299 und 399 Dollar, in Deutschland 299 Euro, sind klein [ein 7“ Monitor bzw. in der neusten Serie ein 8,9“, während – zum Vergleich – ein Mac-Book 13,3“ und ein Samsung Q45 12,1“ groß ist], und sind von ihren Hardware darauf ausgerichtet, zu surfen und kleinere Aufgaben zu bewältigen – beispielsweise kann man Schulaufgaben ohne Probleme schreiben und abspeichern, aber nicht unbedingt Doktorarbeiten. Es gibt – wie beim Mac Book Air – keinen DVD/CD-Laufwerk. Und wieder ist Linux das Hauptbetriebssystem, während Microsoft versucht eine Windows-Variante zu verkaufen, die nur für solche Rechner billiger sein soll. Eee-PCs sind nicht wirklich als Rechner für das tägliche Arbeiten oder das Spielen aktueller Games zu nutzen, sondern hauptsächlich als Zweitrechner zum Surfen. Dennoch kam es in allen Ländern, in denen der Eee-PC angeboten wurde zu Lieferengpässen. Mehr als eine Firma hat Konkurrenzprodukte angekündigt, allen voran One mit dem A120.
Interessant ist in diesem Zusammenhang zudem gOS. gOS ist eine weitere Linux-Distribution. Sie wurde anfänglich für einen sogenannten Wal-Mart-PC, der bei besagter Handelskette für 199 Dollar verkauft wurde, präsentiert. Diese PCs – 10.000 sollen es gewesen sein – waren innerhalb von zwei Wochen ausverkauft, was gewiss nicht nur am Betriebssystem, sondern auch am Preis gelegen haben wird. Dennoch: gOS ist deshalb relevant, weil es ein explizit für das Web 2.0 konzipiertes Betriebssystem ist. Es hat in der Grundeinstellung in seinem Dock [also der Leiste mit den Programmen, wie man sie – unter anderem – vom Mac kennt] hauptsächlich Programme, die direkten Zugriff auf MySpace, News-Seiten und andere Webangebote bieten. Das Betriebssystem selber, also die Oberfläche ist darauf ausgerichtet, das Internet als sozialen Ort zu nutzen. Zumindest einen Anteil am rasanten Verkauf der Wal-Mart-Rechner wird gOS – welches auch problemlos auf anderen Rechnern genutzt werden kann – gehabt haben.

Trend zur Alltagstechnik
Der Trend ist wohl nachvollziehbar: einerseits billige Rechner, die über kurz oder lang bei allen Kindern im Grundschulalter landen werden. Dies, verbunden mit einem funktionierenden pädagogischen Konzept [3], wird sich auf die Nutzung von Informationstechnologien relevant auswirken. Kinder und Jugendliche werden Informationstechnologien tatsächlich als Teil ihres Alltags wahrnehmen. Gegen diesen Trend sind die Debattenbeiträge, welche in der März-Nummer der BuB stehen, weit überholt. Es geht nicht mehr um „Bildschirmmedien“ ja oder nein – es geht um eine Alltagstechnik.
Andererseits – und dies ist der andere Trend – Rechner, die als Internetstationen genutzt werden und gar nicht mehr unbedingt die vielfältigen Anwendungsmöglichkeiten anbieten, die aktuelle Rechner an sich alle haben. Diese Netbooks werden die Nutzung der Internets und einer Anzahl von Web 2.0-Diensten mit hoher Wahrscheinlichkeit noch alltäglicher machen, als sie jetzt schon sind. Und diese Rechner werden in der Jugend- und Alltagskultur ankommen, wie die verschiedenen Konsolen auch längst angekommen sind. Interessant wird in den nächsten Monaten sein, ob diese Netbooks hauptsächlich als Zweitrechner genutzt oder ob gerade ärmere Haushalte auf sie zugreifen werden. Wie gesagt sind sie von der Soft- und Hardware aufs Surfen ausgerichtet, aber Software lässt sich austauschen und Hardware lässt sich anders nutzen, als vorgesehen.[4]

[Außerdem, aber das ist eine andere Sache, scheinen diese Rechner dazu geführt haben, dass Linux in einer relevanten Anzahl von Haushalten als leistungsfähiges Konkurrenzprodukt zu Windows angekommen ist. Welchen Einfluss das auf Windows, den Softwaremarkt, die Open Source-Bewegung, das Verständnis von Rechnern durch die Nutzenden haben wird, bleibt abzuwarten. Eine These von Richard Stallman bei der Initiierung der Free Software Bewegung, aus der auch GNU/Linux hervorging, war immerhin, dass Freie Software zu einer größeren Freiheit der Nutzerinnen und Nutzern führen und die Entwicklung von Software demokratisieren würde. Eventuell entwickelt sich aber zusätzlich aktuell – nachdem seit Mitte der 1990er Jahren nach dem Quasi-Untergang von AmigaOS und DOS ein fast unbestrittenes Monopol von Windows als Betriebssystem auf privat genutzten Rechnern herrschte – eine neue Konkurrenzsituation bei Betriebssystemen. Neben Windows und Linux ist dabei vor allem an das Mac OS zu denken, welches durch den Erfolg von Apple verbreitet wurde. Daneben stehen allerdings noch eine Reihe alternativer Betriebssysteme – Solaris, OpenSolaris, FreeBSD, OpenBSD oder solche (noch) kleinen Projekte wie ReactOS oder AROS – zur Verfügung, die unter Umständen in Zukunft eine größere Rolle spielen könnten. Zumal heutige Rechner – solange sie gerade nicht die hier besprochenen Kleinstrechner mit geringem Speicher sind – problemlos zwei oder mehr Betriebssysteme aufnehmen können.]

Bibliotheken und Alltagskultur
Eventuell ist es übertrieben, aber mir scheint, dass es nicht mehr um Kompetenzen geht, die man erwerben kann oder auch nicht, sondern um die rasante Etablierung einer neuen Kulturtechnik, welche zur Teilhabe an den Diskursen und sozialen Sphären der Gesamtgesellschaft notwendig sein wird; so wie vor einigen Jahren das Fernsehschauen eine Kulturtechnik war [und in weiten Teilen der Gesellschaft noch weiterhin ist], ohne die man schnell außerhalb gesellschaftlich relevanter Diskussionen stehen konnte.
Doch selbst wenn diese Trends nicht gleich in der Etablierung einer Kulturtechnik kumulieren werden, so wird es doch in absehbarer Zeit mehr Kinder und Jugendliche geben, die Rechner nicht als Konkurrenzprodukt zu anderen Freizeitangeboten, sondern als alltäglicher Arbeitsmittel verstehen und nutzen werden.
Die Frage ist nun, welchen Einfluss das auf Öffentliche Bibliotheken haben wird. Kann man das ignorieren? Haben die Internet-Ecken, die nun in den meisten Bibliotheken existieren, in ihrer jetzigen Form überhaupt einen Sinn in einer Gesellschaft, in der der Zugriff auf das Netz Allgemeingut ist? [Nicht zu vergessen, dass Internet-Flatrates für Handys nur noch eine Frage der Zeit sind. Das diese kommen werden, wird nicht mehr zu verhindern sein, nicht zuletzt, da sie in Japan und Südkores seit Jahren gut funktionieren.] Was muss eine Bibliothekarin, ein Bibliothekar eigentlich können, um für Kinder und Jugendliche mit Erfahrungen mit diesen Rechnern, sinnvoll arbeiten zu können? Man darf nicht vergessen, dass zahlreiche Ansätze für bibliothekarische Veranstaltung ja gerade den Anspruch erheben, an der Realität und den realen Problemen von Kindern und Jugendlichen anzusetzen und diese über die Thematisierung ihrer Lebenswelt zu Lernprozessen zu ermutigen.
Es sind weit mehr Fragen möglich. Wichtig erscheint mir aber erstmal festzuhalten, dass in den letzten Monaten [nicht Jahren, sondern Monaten] relevante Trends im Bereich der Hard- und Softwareentwicklung festzustellen sind, die garantiert auf die Nutzung elektronischer Medien einen Einfluss haben werden. Und jede veränderte Mediennutzung wird über kurz oder lang einen Einfluss auf Bibliotheken haben. Deshalb sollte man die Frage, was da gerade passiert, auch jetzt stellen. Zwar wird es einen Weile dauern, bis diese Trends einen Einfluss auf Menschen haben, die nicht unbedingt immer an den neuesten Entwicklungen der technologischen Möglichkeiten interessiert sind [also den 98% der Gesellschaft, die keine Nerds sind], aber wenn man die Geschwindkeit betrachtet, mit denen sich in den letzten Jahren neuen Mediennutzungsformen verbreitet haben, wird dieser Weile relativ kurz sein. [5]

PS.: Passend zu diesen Überlegungen übrigens der aktuelle Call for Papers der libreas: „Popkultur: Bibliothek„.

[Nachtrag, 30.05: Die aktuelle Studie des Projektes Medienkonvergenz Monitoring der Universität Leipzig erschien gestern. Sie kommt zu dem Ergebniss, dass das Internet bei Jugendlichen zum Leitmedium geworden ist und alle anderen Medienformen (Buch, Radio, Fernsehen) in seiner Verbreitung überholt hat. Link: die aktuelle Studie und Seite des Projektes.]

[1] Von Linux existieren – dank der Open-Source-Prinzipien – zahlreiche unterschiedliche Distributionen, die alle ihre eigene Vorteile und Ziele haben. Das ist anders, als bei anderen Betriebssystemen. Für den Einsatz von Linux empfiehlt sich ein Blick auf die unterschiedlichen Distributionen und unter Umständen das „Antesten“ mit Live-CDs.
[2] Und dabei dank Gnome, KDE oder Sonderanfertigungen wie bei DeLi Linux auch graphische Oberflächen zur Verfügung stellt, welche den gleichen Komfort bieten, wie ihn Menschen von Windows oder Mac gewohnt sind – dass nur als Anmerkung für Menschen, die meinen, Linux müsste unbedingt per Tastatur-Befehlen gesteuert werden und sei nur für etwas für Nerds.
[3] Wir sind in Deutschland, dass wird also noch eine Zeit dauern.
[4] Was mich nämlich immer noch irritiert ist der Fakt, dass alle relevanten Studien zu dem Ergebnis kommen, dass Rechner heute in Deutschland in Haushalten mit Kinder oder Jugendlichen fast flächendeckend vorhanden sind. Angesichts des aktuellen Armutsberichts und der Zahlen des Familienministeriums über das Armutsrisiko von Kindern und Jugendlichen frage ich mich schon, von welchem Geld sich diese Haushalte welche Rechner leisten können. Ich meine das rein rechnerisch, selbstverständliche habe alle Menschen das Recht, die Medien zu besitzen, die sie besitzen wollen. Aber von monatlich 345 oder wenig mehr Euro pro Person wird man sich nicht alle zwei Jahre einen modernen Rechner leisten können. Wie alt sind dann also die Rechner, die in sozial schwachen Familien stehen? Was können sie überhaupt? Bringen sie der Jugendlichen etwas oder sind diese trotz Rechner von aktuellen Nutzungsformen der Kommunikationstechnologien ausgeschlossen? Entsteht nach dem Digital Divide eine neue Ungerechtskeitsperspektive, das „Nicht mitmachen können im Mitmach-Web“? Und sind dann solche Netbooks für 300 Euro ein möglicher Ausweg?
[5] Erinnert sich noch wer an die Zeiten, wo Menschen mit Handys als Juppies beschimpft wurden? Das ist keine zehn Jahre her. Erinnert sich noch wer an die Zeit vor dem ipod? Der ist 2001 überhaupt in erst in den Markt eingeführt worden und heute – neben anderen MP3-Playern – ein unumstrittener Teil der Alltagskultur. Und die Mac Books, welche zumindest in der Berliner Innenstadt und den Berliner Unibibliotheken allgegenwärtig sind, wurden erst 2006 vorgestellt.

Nach dem Bibcamp 08: Was ist mit der Öffentlichen Bibliothek 2.0?

Das Bibcamp 08 fand vorgestern in Potsdam und gestern in Berlin statt. Ich fand die Organisation gut und einer Unkonferenz vollkommen angemessen relaxt, aber als Miteinladender bin ich da wohl etwas voreingenommen. Inhaltlich können Menschen, die das Bibcamp „einfach besucht“ haben bestimmt mehr berichten.

[Banner in der Humboldt-Universität]

Trust, Flexibilität, locker bleiben
Was mich gegenüber „normalen“ Konferenzen am Konzept Barcamp interessiert hat, war der Einbezug von Prinzipien, die das Web 2.0 mitbestimmen, nämlich Flexibilität und Trust. Das hat sich bewährt. Wir haben einen Rahmen gestellt, also das „Drumherum“ organisiert (Räume, Sponsorengelder, Getränke, Essen, ein Wiki für die Kommunikation, Werbung, den social event am Freitag Abend) und für den Rest darauf vertraut, dass die Menschen, die zum Bibcamp kommen, mitarbeiten wollen, dass auch inhaltlich können – ohne dass wir vorher ihre Papers bewerten müssen – und das sie alle an einem offenen Umgang miteinander interessiert wären.
Die Selbstorganisation der Themen und Workshops hat genauso funktioniert, wie die Aufgabenteilung bei uns im Team der Einladenden, die – im Gegensatz zu anderen Teams, in denen ich mitgearbeitet habe – unglaublich relaxt, aufgabenorientiert und stressfrei ablief.
Ein Ding, das ich noch einmal bestätigt bekommen habe, ist, dass auch im Web 2.0 und Barcamps die Regel gilt, dass Selbstorganisation immer heißt, dass man es zur Not selber tun muss.

[Zum Laptopaufkommen des Bibcamp. Boris Jacob (libreas) leitet das gut besuchte Panel zur Kritik der Marke Bibliothek 2.0, Michael Heinz (IBI) erläutert gerade seine Position.]

Ansonsten ist die Organisation solcher Veranstaltungen durch die zunehmende Spezialisierung von Dienstleistungsfirmen und dem – unter anderen Aspekten zu bedauernden – Preisverfall für solche Dienstleistungen wie Druck, Getränke- und Essenslieferung relativ einfach geworden. Mit relativ wenig Finanzmitteln ausgestattet und mit etwas eigenem Engagement (welches einem aber niemand bezahlt – grmpfl) kann man solche Veranstaltung gut aus Modulen zusammensetzen. So klappt bei Barcamps etwas, was im Bachelorstudium nicht klappt: die Sachen auswählen, die man zu benötigen meint und mit relativ wenig Stress das rauskriegen, was man will. Der große Unterschied ist halt, dass die Wahlmöglichkeiten im Studium eher simuliert und mit einem viel so großem Druck verbunden sind, also zumeist keine freie Wahl darstellen, die zudem kaum Platz für Komplentation oder selbstbestimmte Vernutzung der gewonnen Zeit lassen; eine Unkonferenz dagegen schon.

Lob des Schaufensters

[Banner im Schaufenster, Fachhochschule Potsdam]

Ansonsten bin ich immer noch von dem Raum in der Fachhochschule Potsdam begeistert. Das „Schaufenster“ ist ein großer Raum mit einigen baulichen Ecken, Winkeln und Treppen, der ansonsten nur aus Beton und einer nahezu vollständigen Fensterfront besteht. Die Wände sind etwas vernutzt, aber auch nicht dreckig, auf dem Boden sind noch die dynamischen Markierungen des Sportfachgeschäfts, welches einmal dort seinen Ort hatte. Vom Aussehen und dem Flair her erinnerte mich der Raum an die späten 1990er in Berlin, zu der Zeit, wo ein Sommer ohne Loveparade nicht vorstellbar war und man gleichzeitig – weil die Loveparade halt eher langweilig und für die Brandenburger Jugend da war, die einmal im Jahr die Sau rauslassen konnten – auf der Fuckparade zu Hardcore, Gabba und Jungle, bzw. dem frühen Drum’n’Bass tanzen konnte. Großartig. Ein wenig erscheint der Raum in der FH-Potsdam als Bunker [damals der Club für Hardcore in Berlin und traditionell Startpunkt der Fuckparaden] in klein.
Neben diesem Feeling, dass wohl nicht alle teilen werden, ist das Schaufenster unglaublich flexibel. Da steht nichts fest, die ganzen Stühle, Tische, Kastenelemente, Präsentationsflächen sind frei im Raum zu verteilen. Und durch die Fensterfront fühlt man sich nicht so eingeschränkt, wie in vielen anderen Konferenzorten.
Und wie immer, wenn etwas gut ist, ist dessen Bestand eher Zufall. Das Gebäude der Fachhochschule soll – wegen dem Stadtschloss, dass gerade wieder gebaut wird; da merkt man die Prioritätensetzung – abgerissen werden, wenn auf dem zweiten Campus der Fachhochschule dafür Ersatz geschaffen worden ist. Das Schaufenster lebt von der Zwischennutzung eines Gebäudes, dessen Tage gezählt sind. Schade.

Öffentliche Bibliothek 2.0?

[Raumplan in der letzten Fassung]

Eigentlich wollte ich als Einladender keinen eigenen Workshop anbieten. Aber dann konnte ich mich doch nicht zurückhalten, auch weil sich am Beginn der Veranstaltung wenig Leute fanden, welche selber Themen anbieten wollten. Letztlich war der Workshop etwas zu ungenau gefasst. Zudem waren die Teilnehmenden offenbar auch an anderen Themen mehr interessiert, was ich allerdings nicht auf die Teilnehmenden alleine beziehen, sondern als allgemeinen Trend in der Debatte um die Bibliothek 2.0 beschreiben würde. Zumindest war das Thema etwas weit gefasst die Öffentliche Bibliothek 2.0 und Soziale Ungerechtigkeit. Irgendwie fiel auf dem Raumplan der Teil mit Öffentlichen Gerechtigkeit weg und dabei hätte ich es für das erste vielleicht auch erstmal bewenden lassen sollen. [Lesson learned.]
(Außerdem hatte sich für den Workshop von Christoph Deeg zum Thema Creative Industries – Spiele, Musik, Film etc. – und Bibliotheken kaum jemand interessiert – was ich gefährlich finde, weil diese Themen auf die Bibliotheken, insbesondere die Öffentlichen Bibliotheken, zu kommen werden. Deshalb floß letztlich dessen Workshop durch ihn in meinen Workshop mit ein. Auch wenn ich Christoph in einigen Punkten widersprechen würde, fand ich die Verbindung vollkommen folgerichtig und würde seiner Grundanalyse zustimmen: die Creative Industries, also vor allem die Spielebranche, sind ein Teil der Alltagskultur und bestimmen diese immer mehr – deshalb werden Öffentliche Bibliotheken nicht daran vorbei kommen, ihr Verhältnis zu diesen zu bestimmen.)
Was ich tatsächlich in diesem Workshop betonen wollte, ist, dass die deutsche Debatte um die Bibliothek 2.0 eine Debatte um Wissenschaftliche und Digitale Bibliotheken ist: Informationen organisieren, aufbereiten, „befreien“; Suchmaschinen auf Bedürfnisse zuschneiden; Informationskompetenzen vermitteln (halt zumeist an Studierende) und so weiter. Alles wichtig, ohne Frage. Aber die Öffentliche Bibliothek scheint da kein Thema zu sein. Und selber scheinen sich Öffentliche Bibliotheken auch nicht in die Debatte einzubringen.
Dabei wäre das nötig. Die Verteilung von Informationen und die eigenständige Produktion von Wissen, wie sie im Web 2.0 anders als bislang stattfindet, ist fraglos ein wichtiger Bereich. Aber der Hauptgrund für das Entstehen des Web 2.0 ist ein sozialer: MySpace, StudiVZ, Facebook, Weblogs, World of Warcraft, Seconde Life, Youtube etc. – das sind alles soziale Räume, die nicht vorrangig für die wissenschaftliche Contentproduktion benutzt werden, sondern um Spass zu haben und soziale Beziehungen zu pflegen. Die Wikipedia als populäres Projekt der Wissensproduktion scheint da eher die Ausnahme zu sein. Es ist dabei vollkommen egal, ob Bibliotheken das gut oder schlecht finden, es ist einfach Teil der Realität der meisten Jugendlichen, jungen Erwachsenen und einer immer größer werdenden Zahl von nicht-mehr-so-jungen Erwachsenen. Insoweit muss mit diesem Trend umgegangen werden. Wie, dass ist die Frage, die ich gerne diskutiert hätte. Ganz hat das nicht geklappt, ich bin aber mit der Erkenntnis aus dem Workshop gegangen, dass ich nicht der einzige bin, der dieses Mißverhältnis feststellt.
Dabei muss man im Hinterkopf behalten, dass sich das Problem verschoben hat. Einst gab es große Debatten um den digital divide und die Öffentlichen Bibliotheken reagierten sehr spät darauf, indem sie irgendwann Computer mit Internetanschluss mit der Hoffnung zur Verfügung stellten, dass diese Zugänge gegen den digital divide helfen würden. Das war damals schon relativ blauäugig, weil das zur-Verfügung-stellen von Medien noch keine Kluft in ihrer Nutzung überbrückt, sondern erstmal den Menschen hilft, die mit den jeweiligen Medien umgehen können. Aber immerhin. Heute ist die Situation anders. Zum einen sind viele dieser Anschlüsse in Bibliotheken kostenpflichtig – und zwar oft so teuer, dass es billiger ist, ins Internetcafe zu gehen. Das hilft gerade denen, die sich zuhause keinen Internetanschluss leisten können, wenig.
Zum anderen ist aber der Zugang zum Internet nicht mehr das große Problem. Beispielsweise wurden in den 2006er PISA-Studien die getesten 15-jährigen auch gefragt, wie ihre technische Ausstattung außerhalb der Schule ist: 96% hatten einen Rechner zu Hause, 92% einen Internetanschluss. Wenn man bedenkt, dass es auch explizite Verweigerung von Medien gibt [Und nicht nur bei Computern. Bei mir steht beispielsweise kein Fernseher, weil ich keinen möchte, bei anderen Menschen – auch solchen mit Abitur – stehen quasi keine Bücher, etc.], dann heißt das, dass nur noch für einen geringe Zahl von Jugendlichen [! Bei Erwachsenen kann das schon anders aussehen.] das Hauptproblem darin besteht, überhaupt ins „Internet zu kommen“. Es geht darum, am Web 2.0 partizipieren zu können oder nicht partizipieren zu können, dass heißt, an einer wichtigen Sphäre des kulturellen und sozialer Lebens teilhaben zu können oder nicht teilhaben zu können. Dies erscheint mir ein wichtiges Thema für Öffentliche Bibliotheken zu sein. Dabei kann die Aufgabe nicht sein, alle Menschen dazu zu bringen, an diesem virtuellen Kulturort teilzuhaben, aber es muss darum gehen, es allen zu ermöglichen. Dabei darf weiterhin nicht bei Einführungen in dies und das (Weblogs schreiben, MySpaceseite anlegen etc.) stehen geblieben werden. Eine Bibliothek soll biographisch langfristiger wirken und Menschen die Nutzung von Medien auch ermöglichen, wenn sie mit deren Nutzung schon bekannt sind. Vielleicht sind flexibel nutzbar Computerkabinette und WLAN-Parties sinnvoller, als Einführungen.
Man kann zur Verdeutlichung vielleicht eine Parallele zur Kulturpolitik ziehen: ich möchte gar nicht, dass alle Menschen an der Berliner Clubkultur partizipieren und ich weiß, dass sich viele Menschen dafür entscheiden, nie auch nur eine Club zu besuchen oder auf ein Konzert zu gehen und trotzdem in Berlin ein erfülltes Leben führen. Aber es ist ein Skandal, dass Menschen, nur weil sie in einem ländlichen Gebiet aufwachsen, keine reale Möglichkeit haben, überhaupt Musikveranstaltungen neben dem lokalen Mainstream besuchen zu können. Da ist es dann (eigentlich) die Aufgabe der Gesellschaft, solche Besuche zu ermöglichen, beispielsweise über lokale Kulturförderung oder auch einen effizienten Personennah- und Fernverkehr, der es möglich macht, um 3.30 Uhr aus der Kantine der Oper Köln nach X in Mecklenburg-Vorpommern zu fahren. Und wenn die Menschen sich dann doch lieber zuhause an der Bushaltestelle treffen wollen, dann ist das ihr Recht. Aber wichtig ist, dass sie die reale Möglichkeit haben müssen (d.h. auch das Geld, diese Angebote zu nutzen), an relevanten kulturellen und sozialen Szenen teilzuhaben.

Was bleibt?
Neben dem Vorhaben, mehr über die „Öffentliche Bibliothek 2.0“ nachzudenken, bleibt vom Bibcamp die Erfahrung, dass es möglich ist, mit relativ wenig Stress eine produktive und nette Veranstaltung zu organisieren, wenn man auf die Teilnehmenden vertraut, dabei transparent, flexibel und fehlertolerant bleibt, sich klarmacht, dass es darum geht, diese Veranstaltung nett zu gestalten und nicht in der Organisationsgruppe irgendwelche Pfründe zu verteilen. Zudem muss man Sachen manchmal einfach auch selber machen, wenn sie getan werden sollen. In Betriebssystemen gesprochen: mehr Linux, weniger Windows. Das heißt nicht, dass es keine Arbeit macht, aber man hat mehr Spass daran, die Veranstaltung zu organisieren und dabei zu sein.

Stehengeblieben ist am Ende des Bibcamp leider die Frage, wer das nächste macht. Die Form ist super, viele haben die Veranstaltung offenbar für gut befunden, aber niemand riss sich darum, das nächste Bibcamp zu organisieren. (Also: wir hatten ja auf Menschen aus Hannover oder Hamburg gehofft.) Noch ist das Zeitfenster offen, sich dafür zu entscheiden. Es wäre halt unbefriedigend, wenn dieses Bibcamp das einzige gewesen sein sollte. Wer sich findet: einfach ins Wiki schreiben.

Eine umfassende Photosammlung findet sich bei Prof. Hobohm, andere Berichte im Wiki zum Bibcamp.

PS.: Jetzt steht fest, dass eine Gruppe um die Fachhochschule Stuttgart das nächste Bibcamp macht und dass darauf eine Gruppe in Hannover. Außerdem haben wir als Einladende noch eine kleine Nachbereitung gemacht, die man – für ähnliche Veranstaltungen – gerne einsehen kann. Ist selbstverständlich Open Access, alles andere wäre vollkommen absurd.

Materialien zur Frage Bildung und Soziale Gerechtigkeit

Aus der Baustelle des Kapitels zur Frage Soziale Gerechtigkeit und Bildung eine kurze Thesensammlung und eine Polemik.

Thesen:

  1. Soziale Gerechtigkeit muss heute mit Ermöglichung individueller Freiheit einhergehen. Sie ist nicht gleichzusetzen mit sozialer Gleichheit.
  2. Soziale Gerechtigkeit bezieht sich auf unterschiedliche Felder, darunter die Ausgestaltung des individuellen Alltags, die berufliche/ökonomische Sphäre und die Teilhabe an gesellschaftlichen Prozessen.
  3. Bildung kann einen relevanten Beitrag zur Herrstellung sozialer Gerechtigkeit leisten, wirkt aber aktuell vorrangig daran mit, gesellschaftliche Ungleichheitsstrukturen zu reproduzieren.
  4. In einer sozial gerechten Gesellschaft lassen sich soziale Unterschiede nur mit persönlichen Leistungen und individuellen Entscheidungen begründen. Andere Strukturen [z.B. ökonomische Voraussetzung, Bildungszugang, Geschlecht, Herkunft, Wohnort], die ungleich wirken, sind skandalisierbar.
  5. Eine sozial gerechte Gesellschaft würde sich durch große soziale Durchlässigkeit auszeichnen.
  6. Die Frage, was Soziale Gerechtigkeit ist, ist letztlich eine politische. Es kann allerdings ein Diskursraum gezeichnet werden, in dem sich die politische Debatte um Soziale Gerechtigkeit abspielt. Für Deutschland ist dieser Diskursraum gezeichnet durch:
    • Zustimmung zu einer materielle Grundsicherung für alle
    • Positionen zur Verteilung gesellschaftlichen und privaten Reichtums
    • Positionen zur Verteilung von Chancen der Individuen, dass eigene Leben zu gestalten und den Möglichkeiten, diese Chancen zu nutzen
    • Positionen zu Bereichen, in denen staatliche Eingriffe legitimiert oder nicht legitimiert werden können
    • Zustimmung zur Gerechtigkeit in der Bewertung und Entlohnung von Leistungen
    • Zustimmung zur Ermöglichung größtmöglicher demokratischer Teilhabe
    • Akzeptanz des Themas Nachhaltigkeit und Gerechtigkeit den direkt folgenden und den historisch weiter entfernten Generationen gegenüber
    • Positionen zum Thema Gerechtigkeit im internationalen Rahmen, sowohl materielle als auch rechtlich
    • Vorausgesetzt werden kann bei allen Positionen innerhalb dieses Diskursraumes
      1. die Akzeptanz demokratischer Entscheidungsprozesse und Gesellschaftsformen
      2. die Betonung der größtmöglichen Entscheidungsfreiheit der Individuen
      3. die vollkommene oder zeitweise Akzeptanz des Kapitalismus und seiner Grundprinzipien als vorherrschende Organisationsform der Ökonomie
  7. Mithilfe der von John Rawls vorgeschlagenen modifizierten Anwendung der Vertragstheorie lassen sich Bewertungskriterien dafür generieren, eine Position oder Gesellschaft als sozial gerecht oder ungerecht zu bewerten. Diese Kritierien sind als moralische und nicht als handlungsleitende zu verstehen. Eine mögliche Kurzfassung der Rawl’schen Methode lautet: Als sozial gerecht kann eine Position oder gesellschaftliche Tatsache bezeichnet werden, wenn ihr von Menschen in einem vorgestellten Urzustand unter dem Schleier des Nichtwissens [d.h. der Annahme, dass sie wissen können, welche Auswirkung ihre Entscheidung auf Menschen in unterschiedlichen gesellschaftliche Positionen haben wird, aber gleichzeitig dem Nichtwissen darüber, welche Position sie selber in einer Gesellschaft einnehmen würden, über die sie im Urzustand entscheiden] zustimmen könnten.

Gerade die letzte These klingt einigermaßen weird. Moralphilosophie hat keinen guten Ruf mehr [Kant ist nun schon eine Weile nicht mehr diskursbestimmend] . Insbesondere, wenn sie auf liberalen Traditionen fusst, wie die von John Rawls, ist es für Moralphilosophie in Deutschland, welche hierzulande selber eher von den Auseinandersetzungen Kants und der deutschen Aufklärung geprägt ist – und weniger von der schottischen Aufklärung, wie Rawls – noch schwieriger.
Ich habe versucht, mich dem Thema der Sozialen Gerechtigkeit von drei Blickwinkeln zu nähern: dem politischen, dem sozialwissenschaftlichen und dem philosophischen. Die Analyse politischer Positionen hat zum oben skizzierten Diskursraum geführt. Der sozialwissenschaftliche Zugriff, insbesondere das International Social Justice Project, hat zu einer Verkomplizierung des Themas geführt. Kurz gesagt, ist die Vorstellung, was sozial gerecht ist, offenbar nicht nur von der Gesellschaft, in der ein Mensch lebt, sondern auch von der sozialen Stellung stark geprägt.
Auch der philosophische Zugriff hat seine Grenzen. Rawls packt – verkürtzt gesprochen – heutige Menschen mit dem Wissen über sozial Zusammenhänge virtuell in einen Urzustand, in dem sie darüber entscheiden sollen, welche Grundregeln in einer Gesellschaft gelten sollen, damit diese allgemein als gerecht akzeptiert werden kann. Dabei wissen diese vorgestellten Menschen allerdings nicht, wer sie in dieser Gesellschaft sei werden, aber sie wissen, dass sie mit ihrer Entscheidung werden leben müssen [das, damit sie auch wirklich einen Entscheidungsdruck haben]. Außerdem sollen sie nicht eine Gesellschaft aus dem Nichts erschaffen [wie das bei Hobbes im Leviathan geschieht], sondern auf ihnen vorgelegte Fragen anworten, beispielsweise: sollten Religionen verboten werden, sollte eine Religion Staatsreligion sein und alle anderen verboten werden oder sollten die Menschen glauben können, was sie wollen, ohne dass es Einfluss auf den Staat haben darf? Die Menschen wissen, dass sie unterschiedliches glauben (oder auch gar nichts). Aber sie wissen im Urzustand nicht, was oder ob sie ordentliche Atheistinnen und Atheisten sein werden. Und deshalb würden sie sich für eine säkuläre Gesellschaft entscheiden, so die Vorstellung von Rawls. Das hat alles sehr mit Gedankenspielen zu tun, aber nachdem ich verschiedene Ansätze verfolgt habe, bin ich zu dem Ergebnis gekommen, dass bessere und verallgemeinerbare Aussagen ermöglicht, als alle anderen Ansätze. Bisher.
[Dabei war ich nie Philosoph und mit Moralphilosophie hatte ich auch wenig zu tun. Selbstverständlich habe ich in meiner Jugend auch philosophische Werke rezipiert. Aber wenn übrhaupt, dann bin ich eher mit Foucault, Sarte, Butler, Deleuze, Guattari, Marx/Engels und der Frankfurter Schule bekannt – so, was halt in dedn 1990er wichtig war: Existenzialismus, Adorno und Postmoderne. Aber mit der Aufklärung und liberaler Philosophie … eher wenig.]

Und noch eine Polemik gegen die einseitige Betonung von individueller Verantwortung im Bildungsbereich, die mir in ihrer Zuspitzung sehr zusagt. Sie zeigt, dass in gewissen Diskursen, wenn sie weiter gedacht werden, bestimmte Grundrechte negiert werden.

Materielle und kulturelle Armut auf der einen und der Mangel an Bildungschancen auf der anderen Seite bedingen einander und stabilisieren sich gegenseitig. Bildungsarmut erschient daher nicht nur als ein Tatbestand des mangelnden Zugangs zu qualifizierter Aus- und Weiterbildung, sondern auch als Folge wie Voraussetzung sozialer Armut. Es gibt im Bildungssystem der Bundesrepublik Deutschland Verfestigungs- und Schließungstendenzen, die längst wieder an die Verhältnisse in den fünfziger Jahren des letzten Jahrhunderts erinnern. […]
Es geht nicht darum zu sagen, wenn das Arbeiter- oder Migrantenkind gute schulische Leistungen erbringe, müsse es die höhere Schule besuchen dürfen. Dies ist in der bürgerlichen Gesellschaft ein selbstverständliches recht. Vielmehr geht es um das Aufheben und Aufspüren struktureller Benachteiligungen im Bildungs- und Beschäftigungssystem, z.B. um die Klärung der strukturellen Voraussetzungen für eine Praxis, schulische Leistungen entlang sozialer Merkmale zuzurechnen.
[Kaßebaum, Bernd (2006) / Bildung und soziale Gerechtigkeit, Seite 193. – In: Grasse, Alexander ; Ludwig, Carmen ; Dietz, Berthold (2006) / Soziale Gerechtigkeit : Reformpolitik am Scheideweg ; Festschrift für Dieter Eißel zum 65. Geburtstag. – Wiesbaden : VS Verlag für Sozialwissenschaften, 2006, S. 191-202]

Lauf, kleiner Pinguin, lauf

Ja, es ist Streik in Berlin, der ÖPNV liegt quasi flach. Ab Montag – falls die GDL streikt – geht dann gar nichts mehr. Sowas nennt man wohl harte Tarifauseinandersetzung. Zeit also, zuhause zu arbeiten und Dinge zu tun, die man immer mal tun wollte.
Linux aufspielen zum Beispiel.


Die ganze Zeit habe ich eh fast nur nicht-proprietäre Software benutzt: OpenOffice.org, Mozilla, Quintessential Player und so weiter. Und eigentlich sind die Gefahren proprietärer Software oft genug durchdiskutiert worden: Abhängigkeit von einer – egal welcher – Firma und deren Entscheidungen/Erfolgen, keinen wirklichen Einfluss auf das, was die Software macht, keinen Einblick, wie sie funktioniert. Nicht zu vergessen, dass Mircosoft schon immer eine böse Firma war. Warum also sollte mein Betriebssystem proprietär sein? 1.) Weil es schon drauf war, auf dem (neuen) Rechner. 2.) Die Spiele.
Okay, der zweite Grund zieht bei mir. Aber dafür gibt es zum Glück dual-boot, also die Möglichkeit, mit zwei Betriebssystemen zu arbeiten, wenn die nur beide auf die Festplatte passen. Und das tun sie. Und der erste Grund ist wohl reine Faulheit. Ich hab mich in meiner Jugend mit Programmen herumgeschlagen, die auf einem dutzend Disketten geliefert wurden – da wird doch die Installation von Linux nicht so schwer sein können. (Nicht zu vergessen, dass mein erster Rechner – ein KC 85/4 – mit Audiokassetten lief. Also, mitgemacht habe ich bei Rechnern schon genügend.)

Nun, also: es funktioniert, dass Linux. Nicht sofort, den offenbar hat es Samsung geschafft, mit dem Q45 ein Notebook zu bauen, der zwar leicht und stabil ist,schnell läuft, kein Macbook ist (Distinktionsgewinn in jeder Unibibliothek!), das schwarz ist (und nicht weiß), aber das offenbar auch so Windows-affin ist, dass die meisten Linux-Distributionen nicht funktionieren. openSUSE läuft, aber beispielsweise Ubuntu/Kubuntu, Debian und Knoppix nicht. Gerade bei Ubuntu ist das ärgerlich, weil es einen moralisch doch erhebt, wenn man ausgerechnet von Nelson Mandela in der Promo erklärt bekommt, wie wichtig Ubuntu für die Überwindung des digital divide ist. Das Charisma kann openSUSE nicht bieten. (Es gibt da noch einige Kleinigkeiten, die es von Ubuntu unterscheiden, aber die sind nicht so tragisch.)

Ansonsten beginne ich Erfahrungen zu sammeln und ich muss sagen: es fühlt sich tatsächlich freier an, beim Start wählen zu können zwischen Linux und Windows. Und einfach zu wissen, wann das eine besser ist (fast immer) und wann nicht (bei den Treibern und den Spielen). Es erinnert mich an die Zeit, wo wir als Amiganer noch wußten, warum wir niemals einen Windows-PC haben wollten [und auch keinen Atari. Nie. Einen Mac wollten wir haben, wenn wir mal was mit Layout machen würden, aber ansonsten nicht. Der C64 war nich okay, wir nannten ihn kleiner Bruder, auch wenn wir mit ihm nichts anfangen konnten. Aber er gehörte halt zur Familie/Firma]. Einfach, weil es besser geht, weil wir die bessere Grafik und die besseren Programmierungen hatten und weil man ein anderes Gefühl für die Möglichkeiten von Software bekommt, wenn man in sie analysieren und modifizieren kann.


Mein Problem ist jetzt, dass der Streik immer noch läuft und diese Aufgabe gelöst ist.

PS.: Da dies hier ja ein Blog über Bibliotheken ist: Bibliotheken sollten Linux-Rechner benutzen, um den Nutzerinnen und Nutzern zu zeigen, dass es zu jeder Software Alternativen gibt, zwischen denen man sich entscheiden kann. Und dass man für diese Entscheidung Gründe anführen können muss. Denn auch das gehört zur „Informationskompetenz“, wenn man den Begriff einmal ernst nimmt, dazu: zu wissen, was für Hilfsmittel man benutzt.

Arbeiten in der Unibibliothek, Humboldt-Universität

Es war der Bibliothek offenbar nur eine kurze Meldung (vom 08.02.2008) wert:

An der Zentralbibliothek steht ab sofort im 2. Obergeschoß ein neuer Raum mit 32 Lese-/Arbeitsplätzen zur Verfügung. [Zentralbibliothek Humboldt-Universität]

Aber, wer auch immer einmal versucht hat, in dieser Bibliothek einen Platz zu finden, um zu arbeiten, wird den Fortschritt zu schätzen wissen. Auch wenn der Raum aussieht, wie ein Hörsaal. Als Beweis, dass er kein Mythos ist, zwei Photos.

Blick nach draußen

Blick in den Raum

Und jetzt weiter mit dem, was zu tun ist.