Zitat: „Schulbibliotheken mit ihrer Censur“

Gerade darüber gestolpert: Ein Zitat, dass in gewisser Weise zur historischen Forschungsarbeit bezüglich Schulbibliotheken aufruft:

Die Volksbibliothek sollte nicht danach trachten, den Charakter einer gelehrten Bücherei anzunehmen; der Ausschuss sollte keine engherzige Censur üben. Wenn man aber Bücher, welche von Liebe handeln und welche politische, religiöse, sociale Fragen berühren, ausscheidet, wenn der Bibliothekar jeden Leser darauf hin prüft, ob ein Buch für ihn passt, kann er es leicht dahinbringen, dass das Volk die Volksbibliothek meidet.

Wohin es die deutschen Schulbibliotheken mit ihrer Censur gebracht haben, ersieht man aus dem hohen Procentsatz, welcher in den Volksbibliotheken auf Schüler entfällt. [Fussnote: In Oesterreich ist es den Volksbibliotheken verboten, Bücher an Schüler abzugeben. Ich halte diesen Erlass für illusorisch, da die Eltern doch nicht verhindert werden können, ihren Kindern Bücher nach eigenem Ermessen zu verschaffen.]

Der Vorstand der Schulbibliothek geht leider oft von dem pädagogisch falschem Princip aus, man dürfe die Bücher nur den braven Schülern gewissermassen als Belohnung geben; ferner gibt die Behörde dem betreffenden Bibliothekar (in Oesterreich) keine Remuneration und fordert keine statistischen Ausweise, endlich bieten diese Büchereien dem Schüler eine Auswahl von Büchern, welche so viele Censursiebe passiren mussten, dass selbst der brave Schüler wenig Lust verspürt, von seinem Privilegium Gebrauch zu machen.

Der junge Mensch hat aber nach der Schularbeit doch wahrlich auch das Recht, ein erquickendes Buch zu lesen. Wenn die Schulbibliothek diesem unabweislichen Bedürfniss der jungen Seelen nicht gerecht werden, müssen die jungen Leute sich wohl anderswo versorgen.

Freilich können wir das besagte Verlangen officiell unterdrücken, dann sucht und findet der junge Mensch aber seine Sättigung auf heimlichen Wegen, und manches dieser heimlich entlehnten und entwendeten Werke dürfte nicht gerade zu den besten Büchern gehören.

Wir können die berechtigte Lust wohl unterdrücken, dann erwachen aber Gelüste, Heimlichkeit und Verlogenheit – das sind die Früchte der Censur.“

(Reyer, Ed. / Entwicklung und Organisation der Volksbibliotheken. Leipzig : Wilhelm Engelmann, 1893, S. 23f.)

  • Was genau ist den in den Schulbibliotheken, die Reyer offenbar als bekannt voraussetzt, an Censurpraxis gang und gäbe?
  • Woher hat Reyer sein Kenntnis? Sind Schulbibliotheken 1893 in Deutschland und Österreich Allgemeingut, so dass all dies allgemein bekannt wäre? Eigentlich doch nicht.
  • Stimmt die Aussage von Reyer über die Ausleihpraxis in den Schulbibliotheken?
  • etc.

Über den Desktop nachdenken. Gnome 3 u.a.

<!– @page { margin: 0.79in } P { margin-bottom: 0.08in; text-align: justify; page-break-before: auto } P.western { font-size: 10pt } P.cjk { font-size: 10pt } A:link { so-language: zxx } –>

Es gab eine Zeit, da wurde sehr laut und wahrnehmbar über die Mensch-Maschinen-Kommunikation, insbesondere bei Computern, nachgedacht. Obwohl dies offenbar immer noch ein Teilgebiet der Informatik ist – inklusive einer aktiven Arbeitsgruppe in der Gesellschaft für Informatik – scheint das Thema in bibliothekarischen Kreisen keine Bedeutung mehr zu haben. Ein PC hat einen Desktop, über den man mit Maus / Touchpad und Tastatur steuert, was der Rechner tun soll – und damit scheint es sich oft zu haben.

Aber: Das ein PC einen Desktop hat und dieser so, wie er funktioniert, funktioniert, ist nicht unbedingt folgerichtig und schon gar nicht alternativlos. Das oft in den Kategorien ein Bildschirm gleich ein Desktop, ein Icon gleich ein Programm oder ein Dokument, dass über ein Programm aufgerufen wird, gedacht und gehandelt wird, ist das Ergebnis von Entscheidungen, die von den ProgrammierInnen und DesignerInnen der Desktops getroffen wurden. Das ist nicht irrelevant, weil es unsere Arbeitsprozesse und auch unser Denken über Computer steuert.

Wandel der Mensch-Computer-Schnittstellen

Dieses Fehlen des Nachdenkens über den Desktop irritiert ein wenig, wenn man bedenkt, dass wir alle in den letzten Jahren mit den Smartphones und den Pads live erlebt haben, wie neue Interaktionsmodelle zwischen Mensch und Maschine aufkommen und das Arbeiten mit technischen Geräten beeinflussen. Das Tippen und Wischen auf den Bildschirmen der Android- und I-Phones und Pads ist jetzt schon wieder Allgemeingut, obgleich es ab 2007 erst einmal als neues Konzept etabliert werden musste. (Man erinnert sich vielleicht noch, dass die „alten“ Handys sehr klar zwischen Tastatur und Bildschirm unterschieden und dies auch als selbstverständlich galt.) Dennoch scheint sich diese Erfahrung nicht auf den Umgang mit Computern übertragen zu haben.

Betriebssystem ungleich Desktop

Gnome 3, die neue Version des Gnome-Desktops, ist eine Chance – nach Sugar und KDE 4 im Jahr 2008 –, diese Leerstelle einmal zu thematisieren. Es gibt eigentlich keinen direkten Zusammenhang zwischen einem Desktopsystem und einem Betriebssystem. Das Betriebssystem organisiert quasi die Arbeit eines Rechners, das Zusammenspiel der einzelnen Komponenten, die Rechnenoperationen und Ausgabebefehle; während das Desktopsystem die Schnittstelle zwischen dem unterliegenden Betriebssystem – oder nennen wir es gleich richtig, dem Kernel – und den NutzerInnen darstellt.

Das Desktopsystem übersetzt in gewisser Weise zwischen NutzerInnen und Rechner, strukturiert aber auch den Zugriff auf Daten, Programme und so weiter. Nun ist dieses Desktopsystem nicht per se mit dem Kernel verbunden. Windows und Mac-OS haben einen Standard-Desktop. Eigentlich aber ist Windows das Desktopsystem des (jetzt gleichnamigen) Windows-Betriebssystems. Für diejenigen, die sich noch erinnern: Bis zu Windows 3.1 hieß das Betriebssystem MS-DOS und konnte auch direkt mit anderen Oberflächen, insbesondere dem Norton-Commander, oder aber direkt bei DOS-Befehlen angesprochen werden. Windows war eine Oberfläche, die erst gestartet wurde, nachdem der Kernel schon lief. Theoretisch ist das immer noch so, aber es wird – ebenso wie bei Mac-OS – der Eindruck erzeugt, dass Desktop und Kernel zusammen gehören würden.

Bei anderen Betriebssystemen ist dies allerdings anders. (Eigentlich ist es auch bei Windows und Mac-OS möglich, andere Desktopmanager zu verwenden. Explizit zum Ziel gesetzt hat sich dies das KDE for Windows-Project.) Es existieren zahlreiche weitere Desktopmanager, die jeweils auf den Kernel – egal ob jetzt Linux, Unix, BSD, Minux oder andere – aufgesetzt werden können. Es gibt zwar einige Betriebssysteme und Distributionen (Zusammenstellungen eines Betriebssystems mit spezieller Software, also beispielsweise die zahllosen unterschiedlichen „Linuxe“), die sich für einen Manager als Standard entscheiden, aber auch das lässt sich schnell wieder durch die NutzerInnen ändern. Mehr noch: Es ist möglich, mehrere Desktop-Manager nebeneinander zu installieren, die dann auf die gleichen Daten zugreifen können. Die manchmal getroffen Aussage, man hätte schon einmal ein Linux gesehen und wüsste deshalb, wie es aussieht und funktioniert – wie das bei Windows zumindest für die jeweilige Version möglich ist – ist deshalb immer falsch: Man hat einen Desktop-Manager gesehen, aber ob dort wirklich ein Linux-Kernel drunter lief, kann man noch nicht mal sagen. „Andere“ Linux-Systeme sehen anders aus und funktionieren auch anders.

Die Anzahl der Desktop-Manager ist relativ groß, weil sie unterschiedlichen Philosophien folgen und Anforderungen erfüllen sollen. Es gibt eine ganze Reihe, die vor allem für ältere Rechner mit geringer Leistung ausgelegt sind, wie zum Beispiel das bei Puppy Linux (das vom USB-Stick läuft und nur 128 MB groß ist) benutzte JWM. Es gibt aber auch drei, eigentlich schon vier, große Desktops, die sehr explizit versuchen, die Kommunikation zwischen NutzerInnen und Rechner, Daten und Programmen umzugestalten und neu zu denken. Diese sind Sugar (welches auch als Windows-Desktop existiert), KDE, Gnome und – realtiv neu – Unity. Das einst richtungsweisende Enlightenment entwickelt sich leider nur noch langsam weiter.

Es lohnt sich, einmal mit allen diesen Desktops zu spielen beziehungsweise, sie sich länger anzuschauen. Dazu ist fast kein Aufwand mehr nötig.

  • Sugar läuft vom USB-Stick. Wie der zu installieren ist, steht im Wiki des Projektes.

  • KDE wird zum Beispiel auf den Live-Systemen von OpenSuse oder Kubuntu eingesetzt (die man runterladen, brennen und dann benutzen kann).

  • Gnome 3 läuft auf der Live-DVD von Fedora (die genauso wie von OpenSuse verwendet wird. Gnome 2.x findet man noch auf der Live-DVD von OpenSuse mit Gnome-Version).

  • Unity läuft auf der Live-DVD von Ubuntu (ebenso: runterladen, brennen, ausprobieren).

Kurzvorstellung von vier Desktop-Managern

Ganz kurz lassen sich die Unterschiede der Desktop-Manager aufzählen. Eine Gemeinsamkeit (die in den letzten Jahren auch von Mac-OS übernommen wurde) ist, dass sich keiner der Manager auf einen Desktop pro Bildschirm beschränkt. Man kann sich dies ungefähr so vorstellen: Wenn bei Windows der Bildschirm quasi einen Schreibtisch darstellt, dessen Ränder mit dem Bildschirm übereinstimmen, und auf dem Daten, Ordner, Programme und die Taskleiste abgelegt sind; hat man bei den anderen Managern mehrere Schreibtische nebeneinander, eher schon Pinnwände, zwischen denen auf einem Bildschirm hin- und hergeschaltet werden kann. Teilweise funktioniert das mittels Tastaturkürzel, über Klicks oder auch darüber, dass mit der Maus an die linke oder rechte Kante des Bildschirms gefahren wird. Der Vergleich mit den Schreibtischen trägt nur eine Weile, aber dazu später. Diese Funktion erhöht erstaunlicherweise die Übersichtlichkeit und auch die Geschwindigkeit beim Arbeiten am Rechner, obgleich dies vielleicht für Menschen, die sonst nur mit Windows arbeiten, einige Eingewöhnungszeit braucht.

Weiterhin bieten fast alle dieser Manager die heutzutage eher Mac-OS zugeschriebenen Docks an, auf denen die wichtigsten Programme und gerade geöffneten Dateien direkt anklickbar am Bildschirmrand liegen. Diese Docks, wenn auch nicht so ästhetisch, sind Teil fast aller Desktop-Manager seit den Unix-Tagen. Nur weil sie bei Windows nicht als Standard übernommen wurden, scheint es heute so, als wären sie eine Mac-spezifische Lösung.

Sugar

Sugar ist ein Manager, der für die 100-Dollar-Laptops des OLPC-Projects geschrieben wurde. Er ist nach didaktischen Grundsätzen aufgebaut und vor allem so, dass er auch für Kinder, die nicht des Lesens mächtig sind und – da der 100-Dollar-Laptop vor allem für dritte und vierte Welt-Länder gedacht ist – auch mit den anderen Kommunikationsprodukten, die uns umgeben, noch nicht in Kontakt gekommen sein müssen. Er ersetzt zum Beispiel einzelne Schrift mit Graphik und Programme mit Funktionen (also beispielsweise nicht LibreOffice / OpenOffice / Word etc., sondern „Schreiben“, nicht Gimp, sondern „Malen“ und so weiter). Ebenso werden Dokumente als Aufgaben behandelt und deshalb nicht geschlossen. Fängt man einmal an, ein Bild zu zeichnen, bleibt dieses geöffnet, auch wenn der Rechner heruntergefahren wird – ungefähr so, wie ein Bild auf einem Schreibtisch, dass auch nicht runterfährt, sondern nur am Ende irgendwo abgeheftet wird.

Sugar ist hier vor allem deshalb interessant, weil er verschiedene Fragen aufwirft. Warum muss man überhaupt in Dokumenten denken und nicht, wie sonst oft, in Aufgaben und Projekten? Warum muss man sich mit Programmen auseinandersetzen und nicht mit den Grundfunktionen, die man einfach ausüben möchte? Offenbar lässt sich ein Rechner auch anders begreifen. (Ob das gut ist, ist eine andere Frage.)

Zudem ermöglicht Sugar, dass die Bedienung mit der Zeit komplexer wird beziehungsweise die Komplexität nach und nach dazugeschaltet werden kann. Dies ist didaktische sinnvoll, ermöglicht es doch, Menschen (es arbeiten ja nicht nur Kinder mit dem Laptop) an Rechner heranzuführen. Bei anderen System kriegt man zumeist eine Komplexität vorgesetzt und muss damit umgehen.

KDE

KDE war der erste Desktop-Manager, der mit dem Anspruch antrat, Linux und andere freie Systeme mindestens genauso einfach bedienbar zu machen, wie dies bei Windows und Mac-OS der Fall war. Dieses Ziel ist lange erreicht, seitdem versucht KDE – spätestens seit der Version 4.x – darüber hinaus zu gehen und andere Funktionalitäten einzubauen. So wurde das Messeaging in den Desktop integriert.

Eine der interessanten Funktionen ist wohl, dass die Dateien gar nicht direkt auf dem Desktop liegen, sondern in einem gesonderten Fenster, dass ungefähr die gleiche Wertigkeit hat, wie andere Fenster, die auf dem Desktop angeordnet werden können. Dies macht den Desktop tatsächlich aufgeräumter. Bleibt man in der Schreibtisch-Metapher, werden auf dem Schreibtisch praktisch Boxen aufgestellt (die man beliebig drehen und skalieren kann), in denen alle Daten, kleinen Programme und so weiter hineingelegt werden. Auf dem Schreibtisch selber liegt nichts, was nicht in den Boxen ist.

Unity

Unity war eine Bearbeitung des Gnome-Desktops, die explizit auf Netbooks zugeschnitten war. Canonical, die Firma hinter Ubuntu / Kunbuntu / Xubuntu / Edubuntu hatte die Herausforderung angenommen, den Platz auf dem Bildschirm der kleinen Rechner möglichst sinnvoll auszunutzen und – angenommen, sie stellen Arbeitsgeräte dar – die Arbeit auf ihnen möglichst effektiv zu gestalten.

Dazu wurde der Desktop quasi vollständig frei geräumt. Die Taskleiste wurde, wie das oft gehandhabt wird, an den oberen Rand verlagert (beziehungsweise wurde das direkt von Ubuntu übernommen), die wichtigsten Programme links an den Rand auf einen Dock mit einem „Ziehharmonika“-Effekt gelegt (welcher bewirkt, dass das Dock scrollbar wird, wenn die Programme und geöffneten Dateien zu viel werden). Die Programme lassen sich auf mehreren Desktops anordnen, zwischen denen per Maus und Tastatur umgeschaltet werden kann. Ansonsten bleibt der Hintergrund – also praktisch wieder die Tischoberfläche – leer.

Ubuntu ist unzufrieden mit der Entwicklung des Gnome-Desktops zu Gnome 3 (und steht damit nicht alleine) und hat deshalb beschlossen, Unity als Standard-Desktop auch für andere Rechner als Netbooks weiterzuentwickeln.

Gnome 3

Die neuste Entwicklung der Desktop-Manager stellt nun Gnome 3 dar. Gnome 3 ist der Nachfolger der Gnome 2.x-Reihe. Aufgrund dessen, dass das Gnome-Team in dieser Version sehr eigenmächtig grundlegende Entscheidungen getroffen hat, wurde es relativ heftig kritisiert. Deshalb hat sich Canonical auch entschieden, Gnome 2.x mit Unity zu forken, was allerdings bei Freier Software auch immer als Möglichkeit angelegt ist und nicht unbedingt schlecht sein muss. Insbesondere die Entscheidung, möglichst viele Einstellungsmöglichkeiten zu „verstecken“ sieht ein Großteil der Linux-Gemeinde kritisch. Allerdings argumentiert das Gnome-Team, dass es größten Wert auf die Benutzbarkeit legt und somit NutzerInnen im Blick hat, die möglichst wenig einstellen und verändern wollen. Diese gegensätzlichen Positionen haben, wie vorherzusehen war, dazu geführt, dass zahlreiche Programme programmiert wurden, um die „versteckten“ Funktionen wieder sichtbar zu machen. (Da sie eh in einzelnen Dateien stecken, können sie von Leuten, die wissen was sie tun, selbstverständlich immer mit Root-Password und einem Editor verändert werden. Aber das ist keine wirklich befriedigende Lösung.)

Die Besonderheit bei Gnome 3 ist nun, dass praktisch vollständig von der Schreibtisch-Metapher abgesehen wird. Es ist überhaupt nicht mehr möglich (außer man setzt ein extra Programm dafür ein), Dokumente und Programme auf dem Desktop abzulegen. Vielmehr trennt Gnome 3 Programme – verstanden als Funktionen – Daten und Dokumente sowie die Arbeitsflächen strikt voneinander.

Gnome 3, Bild 1 

 Das erste Bild zeigt einen solchen Desktop (inklusive eines Bildschirmhintergrundes aus Jamaika, wie an sich alle Bildschirmhintergründe aus Jamaika sein sollten) in der aktuellen Fedora-15 Version. Die Leere der Oberfläche soll in konzentriertes Arbeiten ermöglichen, da tatsächlich nur die Dateien geöffnet werden, mit denen gerade gearbeitet wird und möglichst nichts überflüssiges im Blickfeld herumliegt.

Das Aufrufen der Programme, Dateien und Oberfläche erfolgt beispielsweise durch eine Mausgeste (Maus in die links, obere Ecke bewegen).

Gnome 3, Bild 2 

 Bild zwei zeigt die Ansicht, die mit der Mausgeste aufgerufen wird. Sichtbar ist, dass links – wie bei Unity – die wichtigsten Programme angeordnet sind, während die auf der aktuell benutzten Oberfläche laufenden Programme in der Mitte sichtbar sind. Rechts, hier ausgefahren, sind die aufgerufenen Oberflächen sichtbar, durch die mit einem Mausklick gewechselt werden kann. In dieser Ansicht lassen sich die Programme beliebig zwischen den Oberflächen hin- und herschieben. Wird auf der letzten Oberfläche ein Programm hinzugefügt, wird automatisch einer weitere leere Oberfläche geöffnet. Andere leere Oberflächen verschwinden hingegen.

 Gnome 3, Bild 3 

 Der Aufruf einer Oberfläche – zwischen denen dann auch noch per Tastaturkürzel gewechselt werden kann – zeigt dann nur die dort laufenden Programme an, wie in Bild 3 zu sehen ist. (Wobei hier ein Netbook verwendet wurde und die Oberfläche bei zwei laufenden Programmen – Gimp und der Dateimanager – schon voll aussieht. Aber wie viel voller würde es mit Dateien auf dem Desktop und anderen laufenden Programmen im Hintergrund aussehen?

 Gnome 3, Bild 4 

 Das vierte Bild zeigt noch einmal die Ansicht mit allen Programmen, die – wie rechts am Rand sichtbar ist – auch noch einmal in Gruppen unterteilt sind, an. Durch die laufenden Programme kann zudem, wie bei fast allen anderen Desktop-Managern, per Alt+Tab gewechselt werden, zudem lässt sich – zumindest in der Fedora-Version, die ich hier gerade nutze – alles auch per Tastatur aufrufen, wie sich dies für Linux gehört.

<!– @page { margin: 0.79in } P { margin-bottom: 0.08in; text-align: justify; page-break-before: auto } P.western { font-size: 10pt } P.cjk { font-size: 10pt } A:link { so-language: zxx } –>

Fragen zum Desktop

Wie Gnome 3 wirklich funktioniert, lässt sich in Bilder nicht gut ausdrücken. Dies gilt auch für die anderen Manager. Ich hoffe allerdings, dass sichtbar geworden ist, wie veränderlich bestimmte Konzepte der Mensch-Computer-Kommunikation sind, die heutzutage fast alternativlos verwendet werden.

  • Warum muss sich zum Beispiel der Desktop als Schreibtisch vorgestellt werden? Bei Gnome 3 ist er eine Fläche, die aufgerufen wird, wenn sie nötig ist. Warum die Beschränkung auf einen Desktop, der immer da ist?

  • Warum müssen Programme und Dateien eigentlich die gleiche Wertigkeit haben, wie dies auf dem Windows-Desktop, aber auch anderen Desktops, durch quasi gleichwertige Icons symbolisiert wird? Eigentlich sind dies zwei unterschiedliche Dinge.

  • Warum müssen Programme als Programme begriffen werden, wenn sie doch – wie das bei Sugar umgesetzt ist – auch als Funktionen genutzt werden können?

  • Noch nicht in Gnome 3 integriert, weil es entgegen der Pläne noch nicht fertig ist, ist der Dateimanager Zeitgeist. Zeitgeist soll die Daten nicht hierarchisch strukturieren (also in Ordnern und Unterordnern), sondern nach dem Zeitpunkt und der Häufigkeit des Aufrufs. Zudem sollen Dateien mehrfach in Gruppen geordnet werden können (ungefähr so, wie man im OPAC Medien mehreren Sammlungen zuordnen kann, während sie bekanntlich in der realen Bibliothek immer nur an eine Stelle gestellt werden können). Wie sich dies handhabt, muss man sehen, wenn Zeitgeist in einigen Monaten fertig ist. Aber auch hier stellt sich die Frage, warum Daten eigentlich hierarchisch strukturiert werden müssen.

Die Beschäftigung mit den unterschiedlichen Desktop-Managern und den dahinter stehenden Konzepten lässt immer wieder neu solche und ähnliche Fragen aufkommen. Es wäre zu wünschen, wenn sich im Bibliothekswesen, wo so viel von „Informationskompetenz“ geredet wird, auch über diese Fragen gesprochen wird. Ansonsten ist diese Rede nicht wirklich ernst zu nehmen – wer die Alternativen nicht kennt, kann auch keine Kompetenz aufbauen oder gar den Aufbau bei anderen unterstützen. Das Arbeiten mit und auf dem Windows-Desktop, zumindest das Unreflektierte, führt selbstverständlich dazu, dass man die Arbeit am Rechner nur in einer Weise begreift, welche den Möglichkeiten und auch den eigentlichen Denkvorgängen beim Arbeiten am Rechner nicht unbedingt gerecht werden muss.

Sicherlich ist Gnome 3 noch lange kein Desktop-Manager, der für Menschen, die noch nie etwas auf der Kommandozeile getan haben, als produktive Arbeitsoberfläche zu empfehlen wäre. Als Testumgebung und Anregung zum Nachdenken über die Arbeit am Rechner und auch den Umgang mit Daten, ist er allerdings neben Sugar, KDE, dem „alten“ Gnome und Unity unbedingt im Blick zu halten.

<!– @page { margin: 0.79in } P { margin-bottom: 0.08in; text-align: justify; page-break-before: auto } P.western { font-size: 10pt } P.cjk { font-size: 10pt } –> <!– @page { margin: 0.79in } P { margin-bottom: 0.08in; text-align: justify; page-break-before: auto } P.western { font-size: 10pt } P.cjk { font-size: 10pt } –>

The Spoony One does Library-Jokes

Letztens besprach ich relativ ausführlich das Phänomen der Internet-Critics. (hier) Einer dieser Critics – einer der besten, um genauer zu sein –, Spoony, hat letzten Samstag eine neue Review veröffentlicht. Besprochen wird der Film „Lord of Magick“, den man offenbar nicht kennen muss. Aber für die Audience hier im Blog: Es ist eine Review mit zahlreichen Verweisen auf (Öffentliche) Bibliotheken. Die Review beginnt damit, dass Spoony sich als Leser und Bibliotheksnutzer bezeichnet. Und ab der 17 Minute fliegen mehrere Bibliotheken auseinander. Und ganz am Ende gibt es einen schon bekannten Library-Gag. Auch wenn man nicht alle Anspielungen versteht (beispielsweise gleich am Anfang die mit Cinema Snob und Lupa, kann ich mir vorstellen), ist das doch alles ein großer Spaß. Ich bin begeistert und empfehle es weiter.

PISA / TIMSS / Bildungsbegriff? [Zitat]

Neben „Evaluation“ taucht der Begriff „Bildung“ in der gegenwärtigen einschlägigen Diskussion immer wieder auf. So sollen zum Beispiel Kindertagesstätten neuerdings Bildungseinrichtungen sein. Allerdings scheint bei der breiten Diskussion um die richtige Bildung der Bildungsbegriff, oder besser: das Problem der Bildung auf der Strecke zu bleiben. Denn das, was beispielsweise PISA oder TIMSS untersuchen, hat eher mit Kompetenzmessung zu tun als mit der Frage, ob die Schülerinnen und Schüler gebildet sind. Tatsächlich findet man in den PISA-Studien keine Bildungstheorie, sondern lediglich drei Dimensionen, die geprüft werden: die Lesekompetenz, mathematische Grundbildung und naturwissenschaftliche Grundbildung. Immerhin taucht das Wort Bildung hier auf, freilich ohne näher ausgeführt zu werden. PISA misst nur Teilbereiche, und die mit großer Intensität. Doch erst im Zusammenspiel mit weiteren Aspekten machen die erwähnten Teilbereiche „Bildung“ aus. Wie auch immer: IM Gefolge von PISA wird der Unterricht von Schulinspektorinnen und -inspektoren beobachtet, bewertet und beurteilt; und ganze Schulklassen müssen Jahrgangsprüfungen absolvieren, um Daten für die Einschätzung des Gelernten zu erhalten. Es fehlt allerdings eine grundsätzliche Diskussion darüber, was denn überhaupt „guten Unterricht“ kennzeichnet — und es bleibt die Frage, ob ein komplexes Geschehen wir Unterricht überhaupt in sinnvolle Kategorien gefasst werden kann und welche das gegebenenfalls wären.
[Blech, Thomas ; Wahle, Manfred (2009) / Einleitung. — In: dies. (Hrgs.) / Erzieher/in-Ausbildung auf dem Prüfstand : Beiträge zur aktuellen Reformdebatte. — (Dortmunder Bieträge zur Pädagogik ; 43). — Bochum ; Freiburg : projekt verlag, 2009, S. 10f.]

Über Vorhersagen zum zukünftigen Bildungsbedarf [Zitat]

Wenn ein Viertel aller IT-Firmen zehn Prozent ihrer „überflüssigen“ Angestellten „freistellen“, ist das in der Arbeitslosenstatistik kaum spürbar. Das liegt auch daran, dass ein Teil der Leute bei anderen Arbeitgebern unterkommt. (Wenn auch selten zum gleichen Gehalt.) Andererseits bleiben neben dem verschüchterten Restpersonal in den Fire-Firmen auch ein paar Fragen zurück, beispielsweise: Warum haben die Betriebe überhaupt erst zehn Prozent mehr Menschen eingestellt als sie brauchen? Zum Abarbeiten der vielen künftigen, zusätzlichen Aufträge, die nun vielleicht nicht kommen? Wäre dem so, müsste der Arbeitsalltag im letzten Jahr dort sehr beschaulich gewesen sein. Schwer zu glauben
Zweite Frage: Was macht eigentlich der Fachkräftemangel? Wer sich erinnern mag: Noch vor einem halben Jahr – da waren übrigens die US-Immobilienkredite auch schon faul – lamentierte die Wirtschaft über Aufträge, die sie nicht abarbeiten könne, wegen hunderttausender fehlender Informatiker, Programmierer oder Biotechnologen. Mal angenommen, diese Spezialisten wären Absolventen-busseweise aus dem Nichts in die Betriebe gekarrt worden – was täten die heute? Ihre kurzen Lebensläufe in Bewerbungsmappen heften.
[Kleinert, Jan (2009) / [Editorial] Auf Verlangen. – In: Linux-Magazin 03/09, S. 5]

Zum Medienwechsel (Zitat)

Wie das sein wird, wenn „Digital Natives“ eines Tages die Sofakartoffeln vollständig verdrängt haben werden, entzieht sich logischerweise unserem Vorstellungsvermögen. Werden Kinder eines Tages zur Pflege der historischen Kulturtechnik Fernsehen ermuntert, so wie es bildungsbürgerlich beflissene Eltern heute mit dem Theater halten? Werden die Kinder von Langeweile gebeutelt, wenn sie nichts klicken dürfen und stattdessen Chips essen müssen? Wird man den Sinn und Zweck der Werbepause noch verstehen? Wir werden es wissen, allerdings erst in etwa 70 Jahren.
[Waldt, Anton (2008) / Alles ist Werbung : Das Ende der Werbepause. – In: De:Bug 128/2008, Dezember 2008]

Edcuamp II, 2008

Letztes Wochende (11.-12.10.2008) fand im Erwin-Schrödinger-Zentrum der Humboldt-Universität Berlin das zweite Educamp statt. Das Educamp ist – wie im Mai das Bibcamp – ein Barcamp, dass heißt thematisch geht es um moderne Kommunikationstechnologien, Software und die dazugehörige Kultur, beim Educamp ausgerichtet auf das Thema Bildung. Organisatorisch setzt diese Veranstaltungsform darauf, dass alle Anwesenden Expertinnen und Experten auf ihrem Gebiet sind und etwas zur Veranstaltung beitragen können und wollen. Es werden nur die Räume, die Verpflegung und ein ungefährer Zeitrahmen organisiert, der Rest ergibt sich aus den Interessen der Teilnehmenden. Nach einer obligatorischen Vorstellungsrunde besprechen die Anwesenden gemeinsam, welche Themen sie in Veranstaltungen bearbeiten wollen. Die Veranstaltungen werden dann relativ ad-hoc gehalten, wobei darauf geachtet wird, dass sie vor allem eine gemeinsame Veranstaltung aller Anwesenden sind. Zwar gibt es manchmal kurze Input-Referate, aber eigentlich sollen die Menschen in den Veranstaltungen miteinander reden.
(Das bedeutet im Umkehrschluss auch die Verantwortung für die Teilnehmenden, aktiv an der Veranstaltung teilzunehmen und nicht nur zu konsumieren. Ein Barcamp ist da wie eine demokratische Gesellschaft im Kleinen: wenn sich genügend Leute mit den Aufgaben identifizieren klappt’s; wenn nicht, dann nicht.)

Gelerntes
Das Educamp war erfolgreich, genauso wie das erste Educamp im April 2008 in Ilmenau und das Bibcamp im Mai 2008 in Potsdam und Berlin. Die Teilnehmenden partizipierten an gemeinsam gewählten Themen, die Stimmung war gut, obwohl oder gerade weil im Gegensatz zu straff organisierten Konferenzen vieles improvisiert und selbst gemacht werden musste.
Ein Gesprächsthema am Rande begann mit der Feststellung, dass das „original“ Barcamp zu groß geworden sei. Im Barcamp wird allgemein über das Web2.0 gesprochen, dass dritte Berliner wird dieses Wochende (18.-19.10.08) stattfinden. Aktuell sind dort 1110 Menschen angemeldet und die Liste für Neuanmeldungen aus Deutschland geschlossen worden. Gleichzeitig gingen Gerüchte über immense Summen an Sponsorengeldern herum, die dafür eingesetzt würden, aus dem Barcamp eine Konsumveranstaltung zu machen. Dafür würden andere Sachen – die Partizipation der Teilnehmenden oder das WLAN für alle – tendenziell unter den Tisch fallen. Es ist noch nicht klar, ob sich das bewahrheiten wird. Aber allgemein war die Stimmung eher so, dass das „originale“ Barcamp durch seine jetzige Größe seine Bestimmung verfehlt hätte. Offenbar funktionieren solche Veranstaltungen immer nur bis zu einer bestimmten Anzahl von Teilnehmenden. Die rund 80 Anwesenden beim Educamp waren eine gute Zahl. Vielleicht muss man beim Organisieren weiterer Barcamps darauf achten, diese thematisch oder regional so einzugrenzen, dass nicht zu viele, aber auch nicht zu wenige Menschen kommen und es trotzdem noch thematisch ein Raum zur Diskussion offen bleibt
Eine andere interessante Sache war, dass das Team des ersten Educamp am Ende, genau wie das Team des ersten Bibcamp, feststellte, dass die Veranstaltung selber interessant gewesen sei, aber leider am Ende wenig Greifbares herausgekommen war. Es fehlten die konkreten Projekte, die Arbeitsgruppen, die nach der Veranstaltung weiter machten etc. Man kann gespannt sein, wie die Organisatorinnen und Organisatoren des zweiten Bibcamp, dass 2009 in Stuttgart stattfinden soll, auf diese Feststellung reagieren werden. Beim zweiten Educamp wurde dies gelöst, indem am zweiten Tag der Veranstaltung der Ansatz des Open Space eingesetzt wurde. Beim Open Space erklärt sich eine Person oder ein Team bereit, ein Thema intensiv für den gesamten Tag zu betreuen und eine ergebnissorientierte Veranstaltung zu leiten. Die anderen Teilnehmenden können weiterhin beständig die Räume wechseln, wenn sie bei einer Veranstaltung nichts mehr lernen oder beitragen können. Dies ist beim Open Space erwünscht und gilt gerade nicht als unhöflich. Aufgabe für die jeweiligen Teams ist aber, am Ende des Tages zumindest Ziwschenergebnisse präsentieren zu können. Im Idealfall ist dann diese Veranstaltung die Keimzelle eines weiteren Projektes. Das funktioniert zwar nicht immer, aber es ist zumindest ein Versuch.
Beim zweiten Educamp wurde beispielsweise das Projekt „neuron“, welches beim ersten Camp gestartet wurde, weiter geführt. neuron gilt als Bezeichnung – grob gefasst – für öffentlich arbeitende Wissenschaftlerinnen und Wissenschaftler im Web2.0. Nun, nach dem zweiten Educamp, gibt es zu diesem auch ein eigenes Netzwerk.

Forderungen für eine zeitgemäße Lehre
Ein Ergebnis des Educamp war die Ausarbeitung von 7 Forderungen für eine zeitgemäße Lehre. Diese sind grundsätzlich von einer Mehrheit der Anwesenden gut geheißen worden, sollen aber noch weiter thematisiert werden. Interessant für Bibliotheken sollte sein, dass sich die Menschen, die sich auf dem Educamp mit der Bildung im Web2.0-Zeitalter auseinandersetzten, auf die gleichen Dokumente berufen, wie die Bibliothek2.0-Kreise, insbesondere der Berliner Erklärung über den offenen Zugang zu wissenschaftlichen Wissen.
Die Forderung lauten in ihrer Kurzform:

  1. Größere Autonomie der Schulen
  2. Medienkompetenz als verpflichtender Inhalt jeder Schul-, Aus- und Weiterbildung
  3. Volle Transparenz von Lehre und Forschung
  4. Anerkennung der Öffentlichkeitsarbeit als Teil der Forschung- und Lehrarbeit
  5. Effizienter, ergebnisorientierter Umgang mit Lehr- und Forschungsgeldern
  6. Zugängliche Ausstattung mit zeitgemäßen technischen Produktionsmitteln
  7. Entwicklung eines sicheren Rechtsrahmens für den Umgang mit neuen digitalen Lehrmedien

Bibliotheken?
Auffällig war, dass sich ein Großteil der Debatten auf dem Educamp um Hochschulen drehte. Es gab auch andere Themen, aber die standen am Rand. Einzig die Schulen wurden manchmal angesprochen, andere Lernorte und Bereiche kaum. Das war bei Bibcamp ähnlich, dort standen hauptsächlich Hochschulbibliotheken im Mittelpunkt der Debatten, während die Öffentliche Bibliotheken kaum beachtet wurden.
Dieser Fokus lässt sich gut mit den Arbeitsfeldern der jeweils Anwesenden erklären. Aber gerade hierin liegt auch das Problem: wenn die Vertreterinnen und Vertreter von bestimmten Institutionen nicht zu solchen Veranstaltungen kommen und sich äußern, kann es gut passieren – ohne böse Absicht -, dass sie in den Debatten und den eventuell darauf folgenden Entwicklungen vergessen werden.
Insoweit kann aus es auch nicht überraschen, dass Bibliotheken kein Thema dieser Veranstaltung waren. (Außer wenn ich mich zu ihnen äußerte.) Obwohl sie sich oft und gerne selber als Bildungseinrichtungen bezeichnen und von der Politik so wahrgenommen werden wollen, waren sie nicht dort, wo über die mögliche Zukunft des Bildungswesens debattiert wurde.

Lernbaum-Wiki
Ein tatsächlich auch für Bibliotheken interessantes Projekt, welches auf dem Educamp vorgestellt wurde, war das Lernbaum-Wiki des Vereins open-learning.net e.V. aus Detmold. Das Wiki geht ein eigentlich offensichtliches Problem an: Einerseits wird in politischen und pädagogischen Debatten beständig davon ausgegangen, dass die informellen Lerntätigkeiten – also die von den einzelnen Individuen außerhalb von Bildungseinrichtungen selbstständig geplanten und durchgeführten – in ihrer Bedeutung und Zahl zunehmen würden. In einer lernenden Gesellschaft, die gerade von der EU aktuell als positives Ziel angeben wird, würde solche Bildungsaktivitäten zum Alltag aller Menschen gehören. Andererseits ist dies für viele Menschen nicht so einfach möglich, da sie nicht selber Lernaktivitäten planen und sich die Mittel und Hilfe suchen können, diese Aktivitäten auch durchzuführen. Deshalb geht die Politik eigentlich davon aus, dass die Bedeutung der Lernberatung zunehmen müsste, also das Orte und Einrichtungen geschaffen werden müssten, die Menschen dabei helfen würden, ihre Lernprojekte zu planen und durchzuführen. Außer dieser Feststellung und einigen wenigen Lernläden, die allerdings mehr auf schon bestehende Weiterbildungsangebote verweisen, als das sie Lernberatungen durchführen würden, ist auf diesem Gebiet bislang praktisch nichts passiert.
Dies könnte, wenn Bibliotheken diese Aufgabe ernst nehmen und sich die dazu notwendigen Kompetenzen aneignen würden (die sie bislang nicht haben), unter Umständen eine sinnvolle Tätigkeit von Bibliotheken in einer lernenden Gesellschaft darstellen. (Mit einem sehr großen „könnte“.)
Das Lernbaum-Wiki versucht dieses Problem anders zu lösen, nämlich in Anlehnung an die Prinzipien der Erstellung Freier Software. Im Wiki selber können Menschen, angeleitet oder nicht, Seiten zu eigenen Lernprojekten anlegen. Wichtig ist dabei, dass sie jeweils das Ziel ihrer Aktivitäten definieren. Darauf folgen – dem Vorschlag im Wiki nach – vier weitere Punkte:

  1. Die Definition von Bausteinen, die man benötigt, um das Ziel zu erreichen. Beispielsweise könnte jemand definieren, er wolle lernen, wie man ein Betriebssystem schreibt, dafür müsste man dann als Baustein Ahnung vom Aufbau moderner Rechner und spezielle Programmierkenntnisse besitzen.(Es geht auch einige Nummern kleiner. Der Verein hinter dem Wiki will vor allem für bildungsferne Personen tätig werden.)
  2. Lernmethoden, die eingesetzt werden können, um dass selbst gesteckte Lernziel zu erreichen. Beispielsweise beim Sprachenlernen: VHS-Kurs, Lernen aus Büchern, Lernen im Tandemverfahren
  3. Ressourcen, die man für das Erreichen des Lernzieles einsetzen kann, beispielsweise spezifische Lehrbücher, Expertinnen und Experten, die man kennt.
  4. Bausteininhalte, d.h. das Gelernte. Hier kann am Ende der Lernaktivität das jeweils Gelernte mehr oder minder konkret dargestellt werden.

Die Grundidee – dafür ist es ja ein Wiki – besteht nun darin, dass dieses nicht nur zur Strukturierung und – durch ständige Ergänzungen auch einer aktiven Reflexion – der Lernaktivität dienen kann, sondern auch zur Zusammenarbeit. So kann ich, wenn ich welche weiß, fehlende Lernmethoden oder Ressourcen eintragen. Wenn also jemand nur ein Lernziel hat, sonst aber nichts, kann die gesamte Community ihr oder ihm helfen, indem sie ihr Wissen über ein Lerngebiet zusammen trägt. Insbesondere, wenn jemand etwas gelernt hat und dies im letzten Punkt (Bausteininhalte) zusammen trägt, kann dies für andere Menschen hilfreich sein. Die Menschen, die mit Hilfe des Wikis lernen, sollen ihr Gelerntes auch wieder einbringen können.
Die Frage ist selbstverständlich, ob das funktioniert. Wird die Community so aktiv dabei helfen, dass Menschen ihre Bildungsprojekte durchführen können? Werden Menschen das einmal Gelernte zur Verfügung stellen oder einfach weiter lernen und nichts zurück geben? Der Verein verweist darauf, dass Freie Software ähnlich funktioniert – und zwar recht gut. (Obwohl ich anmerken würde, dass auch bei Freier Software jemand organisiert, plant und teilweise auch bezahlt. Das ist alles keine reine Selbstorganisiation, aber weit freier als andere Produktionsformen von Software.)
Zukünftige Bildungseinrichtungen könnten allerdings gerade mit der Unterstützung solcher offenen Lernplattformen beauftragt werden, so wie heute Bibliotheken mit dem Verleihen von Medien. Sie könnten – nicht exklusiv – Recherchen über Ressourcen anstellen, die für das Erreichen von Lernzielen notwendig sind.; sie könnten für stark nachgefragte Themen auch strukturierte Veranstaltungen organisieren. Das scheint ebenfalls Zukunftsmusik, zumal es Bildungseinrichtungen bedürfen würde, die sich direkt an den Anforderungen potentieller Lernender orientieren würden und nicht unbedingt an politischen Vorgaben oder dem Paradigma der vorrangigen Verwertung von erworbener Bildung auf dem Arbeitsmarkt.

Siehe auch: Weitere Berichterstattung von Educamp II

Stephen Fry erklärt zum 25. Geburtstag GNU

Vor 25 Jahren, am 27.09.1983, schrieb Richard Stallman – damals Mitarbeiter am MIT – eine Nachricht, in welcher er ankündigte ein freies Betriebssystem schreiben zu wollen, welches für Unix-Programme kompatibel sein solle. Diese Nachricht war der Start des Betriebssystems, welches heute als GNU/Linux bekannt ist, jetzt weite Teile des Servermarktes dominiert und auf privaten und öffentlichen Rechnern immer beliebter wird. (Der Kernel zu diesem Betriebssystem kam dann 1991 von Linus Torvalds.) Gleichzeitig formuliert Stallman mit seinem Projekt die grundlegenden Prämissen freier Software, insbesondere das Axiom, dass die Arbeit einer Comunity an quelloffener Software bessere Ergebnisse hervorbringen könne, als Firmen, die den Code ihrer Software verschlossen halten. Ob er damit Recht hatte, kann jeder selbst ausprobieren, indem er oder sie auf dem eigenen Rechner, neben dem vorinstallierten Betriebssystem, GNU/Linux installiert und einfach schaut, was die Vor- und Nachteile der beiden Systeme sind.
Der Alt-Hippie und Programmier Stallman updatete damit erfolgreich Annahmen über die Notwendigkeit von Free Speech und freier Wissenschaft als Grundlagen des gesellschaftlichen Fortschritts für das Computerzeitalter. Dieser Geburtstag wird gefeiert werden. Als einer der ersten gratulierte Stephen Fry, der in einem kurzen Film die Prinzipien und Vorteile freier Software erläutert.

Siehe auch: Stephen Fry’s Blog, Pro-Linux, Linux.com, ZDNet

Spiele, Geräte und Musik

Letztens argumentierte ich, dass Bibliotheken mit Nutzerinnen und Nutzern umzugehen lernen müssen, deren Mediennutzung immer unterschiedlicher sein wird – egal, ob das gefällt oder nicht. Dies auch, weil Menschen, die mit Computern und Spielekonsolen aufgewachsen sind, langsam die 30 überschritten haben. (Gleichzeitig sind die ersten Jugendlichen, die schon immer Handys hatten, auch schon mit der Schule fertig. Und bis die ersten Jugendlichen, für die das Internet eine Selbstverständlichkeit ist, die sie schon immer kannten, die Schule abschließen, dauert es auch nur noch wenige Jahre.) Diese Medienerfahrung schlägt sich selbstverständlich im Umgang zu diesen Medien nieder.
Bis Donnerstag (21.08.2008) kann man bei Pitchfork.tv in dem lehrreichen und sehr unterhaltsamen Dokumentarfilm „Reformat the Planet“ über die 8Bit-Music/Chiptune-Scene sehen, wohin dieser selbstbewusste Umgang mit den Leitmedien der eigenen Jugend führen kann. Die Chiptune-Szene setzt 8Bit-Konsolen, hauptsächlich Gameboys und das Nintendo Entertainment System als Instrumente ein. Die Spielekonsolen der 80er und 90er werden dabei umgenutzt, um eine relativ eigenständige Musik zu komponieren. Selbstverständlich ist es dazu notwendig, sich mit den Geräten selber intensiv auseinander zusetzen, sie aufzuschrauben und umzuprogrammieren. Das ist kein einfaches Rumgeklicke, vielmehr wird dem Gerät abverlangt, kontrollierbar zu sein. Auch wenn davon berichtet wird, dass diese Szene an einigen Orten (vor allem New York, Tokyo und etwas kleiner in einigen europäischen Städten wie Stockholm, London und offenbar auch Moskau) schon einige Jahre pulsieren würde, ist sie international vernetzt erst in den letzten 3-4 Jahren richtig aufgetreten.
Interessant scheint mir – abgesehen von der Musik -, dass diese Szene zeigt, wie kreativ und virtuos Medien von Menschen genutzt werden können, die diese zu ihrem Alltag zählen. Offensichtlich wird an den dargestellten Musikerinnen und Musikern, dass der massive Konsum von Videospielen in der Vergangenheit entgegen aller Befürchtungen nicht dazu geführt hat, dass sie zu Medienzombis wurden. Vielmehr haben sie diese Erfahrungen erfolgreich in ihr Leben integriert.

Außerdem würde ich gerne in diesem Zusammenhang auf den relativ neuen Podcast Games in Libraries hinweisen. In diesem diskutieren Bibliothekarinnen und Bibliothekare seit April diesen Jahres monatlich das titelgebende Thema, äußern sich zum Sinn von Brett- und Konsolenspielen im Bestand, zu Gameevents in Bibliotheken und stellen aktuelle Spiele unter dem Fokus, wie sie in Bibliotheken verwendet werden können, vor. Besonders gelungen ist die Mai-Ausgabe, in welcher die sinnvolle Bestandsentwicklung bei Spielen diskutiert und die Studie „Grand Theft Childhood: The Surprising Truth About Violent Video Games“ besprochen wird.
Der Podcast ist auf die US-amerikanische Bibliotheken zugeschnitten. Interessant ist allerdings, wie konsequent in diesem Spiele, Freizeit, Bildung und gesellschaftloche Aktivitäten thematisch verbunden werden.
Verantwortlich zeichnet für den Podcast Scott Nicholson vom Library Game Lab of Syracuse an der Syracuse University, NY. Auf der Homepage des relativ neuen Library Game Lab finden sich auch die Publikationen dieser Einrichtungen, die sich erwartungsgemäß mit dem Thema Bibliotheken und Spiele befassen.

Nächster Bibliothekstag / Erfurt

Sagte ich schon, dass laut dem aktuellen Call for Paper für den nächsten Bibliothekstag (offenbar aus Versehen auf der Homepage immer noch nur für männliche Bibliothekare ausgeschrieben, und das im Jahr 2008) die erste Schwerpunktveranstaltung fast so heißen wird, wie dieses Blog hier: „Bibliotheken sind Bildungseinrichtungen…“ – Bibliotheken im Visier der Politik? Nein? Na, dann habe ich es jetzt gesagt.

Selbstverständlich wird es dort um etwas ganz anderes gehen, als hier bzw. in meiner Promotion. Während bei mir die zwei Fragen im Vordergrund stehen, ob Bibliotheken tatsächlich so sehr Bildungseinrichtungen sind, wie gerne behauptet wird und wie dies überhaupt nachgewiesen werden könnte, geht es auf dem Bibliothekstag – wenn ich das richtig verstehe – darum, wie dieses Bild von Bibliotheken als Bildungseinrichtungen möglichst gut an die Politik verkauft werden kann. Nicht darum, ob dieses Bild so richtig ist; nicht darum, welche Art von Bildungseinrichtung eine Bibliothek eigentlich sein soll; nicht darum, ob einige Bibliotheken lieber etwas anderes wären, als Bildungseinrichtungen – beispielsweise Support-Infrastruktur für Bildungseinrichtungen oder Freizeiteinrichtung oder Forschungsstätte oder auch einfach nur in Ruhe gelassen mit diesen ständigen Leitbildern. Nein, es wird wohl darum gehen, wie Politikerinnen und Politiker dazu gebracht werden können, zu glauben, dass Bibliotheken quasi genau das darstellen, was Schulen und Kindertagesstätten (theoretisch) darstellen.
Ich würde mir wünschen, wenn diese fast zwanghafte Fixierung auf diese eine wichtige, aber wirklich auch sehr ausgewählte und gerade für Öffentliche Bibliotheken sehr schwer zu evaluierende Aufgabe von Bibliotheken (Bildung) in dieser Schwerpunktveranstaltung kritisiert würde. Realistischer und praktikabler fände ich, wenn klar würde, dass Bibliotheken Einrichtungen mit unterschiedlichen Aufgaben darstellen, die unter diversen Fokusen betrachtet, bewertet und genutzt werden können und deshalb auch als Einrichtungen politisch vertreten werden könnten/müssten, deren Vorteil in der Verbindung verschiedener Aufgabebereiche besteht.
Aber ich weiß schon: Wünschen alleine hilft nicht, da muss man schon selber hinfahren.