Archiv | Uncategorized RSS for this section

Armut und Bibliotheken: Ein kurzes Buch als Anmerkung zu einer notwendigen Diskussion

Das Leben ist kein Ponyhof

Hier eine kurze Geschichte aus meinem Leben: Vor Jahren (so 2009, 2010), als ich noch jung und unerfahren unternehmungslustig war und gerade meine Promotion fertig hatte, dachte ich, es wäre Zeit, nach dem einem grossen Thema (Bildung und Bibliotheken) ein weiteres grosses, wichtiges Thema anzugehen, bei dem Bibliotheken etwas zur Verbesserung der Welt beitragen könnten: Armut und Bibliotheken.

Damals war der Plan noch, dass als nächste grosse Arbeit, als Habilitation, anzugehen. How hard could it be? Alles ist irgendwie als Studie anzugehen, wenn man sich nur hineinversenkt. Strukturell schien es ein ähnliches Thema zu sein, wie bei meiner Promotion zu Bildungseffekten Öffentlicher Bibliotheken: Ein Thema, bei dem viele Vermutungen vorliegen, ein Thema, das, wenn es „stimmt“ , einen positiven Einfluss auf die Welt haben könnte. (Denn darum hatte ich ja dereinst überhaupt angefangen, Bibliothekswissenschaft zu studieren und nicht etwa BWL oder Jura, um dann irgendwann in einer Bibliothek arbeiten und ein wenig zu einer besseren Welt beitragen zu können – wie jung und naiv waren wir doch, denke ich jetzt, wo ich in den Bergen sitze und mich frage, wie ich je in einer Bibliothek „ankommen“ soll… aber das ist ein anderes Thema) Und ein Thema, das es wert wäre, strukturiert darzustellen: Wie funktionieren Bibliotheken in Bezug auf Armut? Was tun sie: Verstärken sie Armut, reproduzieren sie die gesellschaftlichen Unterschiede mit oder unterstützen sie Menschen in Armut? So oft, wie in der bibliothekarischen Literatur angegeben wird, dass Bibliotheken Zugang zu Medien für alle ermöglichen und dann angedeutet wird, dass das vor allem Menschen in Armut hilft, sollte es nicht schwer zu sein, zumindest zu überprüfen, ob sie es wirklich tun. Alles in kleinen Schritten, in Verbindung mit Sozialtheorien und Erfahrungen aus der Sozialen Arbeit etc.

Aber das Leben kommt anders: Ich schreibe keine Habilitation mehr; das Thema Armut und Bibliotheken ist viel schwieriger, als angenommen. Zudem: das Leben, all die Enttäuschungen, Veränderungen, unvermuteten Möglichkeiten die auftauchen… Zumindest war mir die Idee, das Thema eigenständig zu beforschen (Weil: Drittmittel für das Thema? Ha. Wo?) irgendwann abhanden gekommen. Das passiert. Aber das Thema selber geht nicht weg: Armut besteht in unseren reichen Gesellschaften, obwohl es das nicht müsste und das bleibt ein Skandal. Die Behauptung, Bibliotheken würden Menschen in Armut im Speziellen helfen, findet sich immer wieder und triggerte bei mir den Wunsch, dass doch mal genauer zu untersuchen. Aber letztlich hatte mich das Leben doch überfahren.

Ein Kneipengespräch

Turn to 2015, Open Access Tage in Zürich. Auf dem Heimweg hatte ich ein kurzes Gespräch mit zwei Kollegen, auch zum Thema Armut und Bibliotheken, dass mich daran erinnerte, dass es wirklich weiterhin viele positiv gemeinte Vermutungen zu diesem Themenbereich gibt. Zudem traf ich auch immer wieder Personen im Bibliothekswesen – insbesondere Bruno Wüthrich und Ruth Schaffer Wüthrich, die mich mal in Lugano zu einem Kaffee zum Thema einluden und seitdem auch versuchen, am Thema dran zu bleiben (etwas, was uns Forschende im Bibliothekswesen übrigens gut motiviert, ihnen mal zurückmelden, wenn man was wirklich wichtig und interessant findet; nur falls jemand mal einen Kaffee trinken möchte) – die sich weiter für das Thema Armut und Bibliotheken und vor allem dafür, was man tun könnte, interessierten. Kurzum: Irgendwann zog ich mich doch hoch, liess mich nicht mehr vom Leben so überfahren und schrieb als Antwort auf dieses Gespräch ein kleines Buch zum Thema.

Das Buch, schon mal als Vorwarnung, enthält keine Antwort auf die Frage, was zu tun wäre. Es ist eher ein Durchgang all der Irritationen, die ich immer wieder bei diesem Thema hatte, ein Überblick zu der Literatur, die sich bei mir in den letzten Jahren zum Thema aufgestapelt hat und ein Vorschlag, wie damit (als das gesamte Bibliothekswesen) umgegangen werden könnte. Erstaunlicherweise wurde dieses Buch tatsächlich fertig. Es ist aber weniger ein wissenschaftlicher Text, sondern eher ein Gespräch in der Kneipe – oder halt, weil es in Zürich begann, am Ufer der Limmat – zum Thema. (Ein relativ langes Gespräch von rund 170 A5-Seiten.)

Ganz kurz ein paar Thesen

Ohne weitere Überleitung würde ich das Buch gerne hier einstellen. Wer es lesen will, kann es runterladen. Wer es gedruckt haben möchte, kann es bei epubli kaufen. Wie gesagt ist es eher ein Beitrag zu einem Gespräch, so sollte es auch verstanden werden. Wer mitreden will, kann das gerne tun.

Am Ende ist mir immer noch klar: (1) Die Existenz von Armut in unseren reichen Gesellschaften (ich denke immer an Deutschland und die Schweiz, aber Österreich und Liechtenstein nehmen sich da nicht viel) ist ein Skandal, (2) Bibliotheken können vielleicht dazu beitragen, dass Leben von Menschen in Armut zu verbessern oder zumindest lebbarer zu gestalten, wenn sie (3) sich klar werden, was das genau heissen soll und wie sie es erreichen können. Das kann aber (4) nicht geschehen, indem das Gleiche wie immer tut und nur besser vermarktet und (5) wenn Menschen in Armut gar nicht in der Bibliotheksforschung und den Diskussionen im Bibliothekswesen vorkommen. Ansonsten (6) ist das Thema zu komplex für einfache Aussagen. Es bedarf längerer, gemeinsamer Diskussionen.

Versionen des Buches

Karsten Schuldt (2017). Armut und Bibliotheken: Anmerkungen zu einer notwendigen Diskussion

Sommerlektüre, drei Verlagstipps.

Der Sommer soll ja demnächst wirklich und kontinuierlich kommen, sagt man. Ausserdem ist Urlaubszeit, was den einen oder die andere Mitbloggerin und Mitblogger dazu verführt – neben all den anderen irgendwie Publizierenden – persönliche Sommerlektüretipps zu veröffentlichen. Immer schön subjektiv und oft auch leichtere Literatur. Halt solche, die man in den Zügen und Flughäfen, auf den Booten und Autobahnen genauso lesen kann, wie beim am Strand liegen, in Strassencafés sitzen, in den Bergen hin- und herwandern. Dieses Jahr drängt es mich, dem Genre auch etwas beizutragen, allerdings keine Einzelwerke, sondern gleich drei Verlage, deren Produktionen mir in den letzten Jahren immer wieder Spass machten, auch weil sie „vergnüglich zu lesen“ nicht mit „leicht und anspruchslos“ übersetzen.

Diaphanes-Verlag

Der Diaphanes Verlag sitzt in Zürich (mit kleinem Büro in Berlin, wie das halt bei weltläufigen Schweizerinnen und Schweizern offenbar üblich ist) und produziert kleine, kritische, bissige Bücher. Klein heisst wirklich: Von der Grösse her A6-Format, von der Seitenzahl oft 80-120 Seiten. Insoweit sind die Bücher oft längere Essays. Da aber auch die Preise bei 10 Euro / 14 Franken (empfohlen) anfängt, ist das zu vertreten.

Diese Essays sind immer komplex, immer kritisch und beschäftigen sich zuvorderst mit der Darstellung des Status Quo von Wissenschaft, Universität, Bildungssystem, Informations- und Kulturarbeit und Identität im aktuellen Kapitalismus sowie den Möglichkeiten des Widerspruchs gegen diesen Status Quo. Keine Ahnung, wo der Verlag immer wieder neue Autorinnen und Autoren auftreibt, die das auf sehr hoher intellektueller Ebene schaffen, aber das war und ist mir auch beim Merve-Verlag nie so richtig klar geworden.

Was die Bücher des Diaphanes-Verlags als Sommerlektüre eignet ist ihre Gedrängtheit. Sicher, man muss mitdenken, aber das ist auch gut so. Die Bücher führen vor, wie man Denken kann, ohne das gleich an Projekte, Praxistransfer etc. hin zu orientieren.

Kadmos-Verlag

Bekannter ist wohl der Kadmos-Verlag aus Berlin, der vor allem Kultur- und Medientheorie verlegt. Hier gibt es auch mehr Titel, die eher durchwachsen sind. Aber die Titel, die sich auf ein spezifisches Thema einlassen – beispielsweise „Katastrophen hören“ über die Darstellung von Katastrophen in den frühen Hörspielen – sind erstaunlich tiefgreifende Einblicke. Das sind immer wieder mutige Veröffentlichungen – zumeist Abschlussarbeiten, aber wann im Leben kommt eine Forschende oder ein Forschender sonst schon dazu, sich tiefgreifend mit einem Thema zu befassen?

Bibliothekarinnen und Bibliothekare sollten an diesen Bücher ein besonderes Interesse entwickeln, handeln sie doch meist von Medien, Mediengeschichte oder Wirkung von Medien.

Dabei beweist der Verlag auch immer wieder Witz, am offensichtlichsten wohl bei einem Buch über Fälschung und Original, dass aussieht, wie ein Suhrkamp-Taschenbuch (nur zu gross), welches sich der Verlag einfach als Reihe „Kadmos Wissenschaft“ aneignet.

Märkischer Verlag

Der Märkische Verlag aus Wilhelmshorst (bei Berlin, erkennen wir einen Zusammenhang?) steht hier vor allem wegen einem sehr mutigen und wichtigen Projekt, dass in jedem Fall Unterstützung verdient. Der Verlag hat vor einigen Jahren die eigentlich eingestellte Zeitschrift „Poesiealbum“ übernommen. Alle zwei Monate erscheint nun (wieder) im kleinen Format eine Sammlung von Poesie, immer von einer Lyrikerin oder einem Lyriker, mit kurzer Einführung und passender Graphik. In einer Zeit, in der sich Lyrik gar nicht mehr lohnen soll und auch die hochgejubelten Poetry-Slams nicht mehr so ziehen, wie sie es einmal – mit durchaus guten Auswüchsen – taten, ein grosser Lichtblick.

Sicherlich: Etwas auf Nummer sicher muss der Verlag schon gehen, deshalb erscheinen immer wieder Auswahlen längst bekannter Autorinnen und Autoren. Gottfried Benn ist als nächstes dran, Rose Ausländer gab es auch schon etc. Aber letztlich muss sich auch diese Zeitschrift verkaufen. Und dazwischen präsentiert sie immer wieder andere Gedichte. Alle zwei Monate mit ausgewählter Lyrik konfrontiert werden: Notwendig. Deshalb ist es wert, auch mal ein paar ältere Ausgaben des „Poesiealbum“ in den Sommer mitzunehmen und den kleinen Verlag auch bei den anderen Projekten zu unterstützen.

Geschrieben in der Transferzone, auf dem Weg zu den Strassencafés. „Sommer“ 2012.

User Generated Metadata als Werbeeffekt?

[Zu: (Preprint) Hercher, Johannes; Ruhl, Marcel & Sack, Harald (2012) / Quo vadis nutzergenerierte Metadaten?. – In: Social Media and Web Science, 2. DGI Konferenz, 64. Jahrestagung der DGI, Düsseldorf, 22.-23. März 2012, Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis, Frankfurt, (2012, forthcoming). – http://www.hpi.uni-potsdam.de/fileadmin/hpi/FG_ITS/Semantic-Technologies/paper/Hercher2012.pdf%5D

Dies ist keine Rezension, sondern eher die Darstellung einer massiven Irritation.

Auf den Text von Hercher, Ruhl und Sack über ihre Umfrage zum Einsatz von Nutzerinnen- und Nutzergenerierten Metadaten wurde in den letzten Tagen relativ oft hingewiesen. Über diesen sollten wir vielleicht aber einmal reden und ihn nicht nur verbreiten. So grundsätzlich positiv, wie die Ergebnisse des Textes dargestellt werden, sind sie meines Erachtens nicht.

Hercher, Ruhl und Sack führten eine Online-Umfrage bei Bibliotheken, Archiven und Museen durch, bei der sie den Umgang dieser Einrichtungen mit user generated metadata erfragten. Der Text sollte über diese Umfrage berichten. 51 Einrichtungen aus Deutschland, Österreich und der Schweiz nahmen an der Umfrage vollständig teil. Da es keine Ausgabe dazu gibt, wie viele Einrichtungen überhaupt von Nutzerinnen und Nutzern generierte Daten benutzen, ist nicht klar, wie repräsentativ diese Teilnahme war. Allerdings geben die Autoren selber an, dass die Umfrage 1.341-mal aufgerufen wurde. Dies bedeutet eine erstaunlich hohe Zahl (96,2%) von Abbrüchen, welche weit über Werten anderer Umfragen liegt und die von den Autoren nur mit relativ zweifelhaften Argumenten abgetan werden. Sicherlich kann, wie die Autoren argumentieren, ein Teil der Interessierten die Umfrage abgebrochen haben, weil die Software nicht funktionierte oder weil sie in ihrer Institution nicht in der Position waren, die Fragen zu beantworten. Aber das erklärt eine solche Abbruchrate nicht. Vielmehr hätten sich Hercher, Ruhl und Sack die Frage stellen müssen, was diese rabiate Selbstselektion der Teilnehmenden über das Thema der Umfrage oder die Umfrage selber aussagt. Eventuell wurde die Umfrage von Interessierten nicht als sinnvoll erachtet, eventuell gab es auch massive Probleme mit den konkreten Fragestellungen.1

So oder so muss man bei den gesammelten Daten davon ausgehen, dass diese das Ergebnis einer extremen Selbstselektion darstellen. Hier haben mit sehr hoher Wahrscheinlichkeit nur noch die Individuen oder Einrichtungen geantwortet, die selber ein äußerst starkes Interesse am Thema haben. Es sagt etwas über die Wertigkeit des Themas aus, wenn gerade einmal 51 Einrichtungen aus drei Staaten etwas zu ihm zu sagen haben. Es scheint – im Gegensatz zu den Aussagen der Autoren –, dass sich nur wenige Bibliotheken, Archive und Museen überhaupt für user generated metadata interessieren. Dem steht eine relative breite Thematisierung in der Bibliotheks- und Informationswissenschaft gegenüber. Für diesen Diskurs könnte die Umfrage ein Realitätscheck sein, denn selbstverständlich ist es von Interesse, wenn die Einrichtungen, über die Diskurse geführt werden, diese Diskurse mehrheitlich ignorieren oder von ihnen nicht erreichen werden.

Stattdessen nutzen die Autoren ihre Daten, als wäre sie repräsentativ, was sie nicht sind. Weitere Kritik ist anzubringen. Die Autoren ignorieren die wichtige Frage, wie stark die von Ihnen gesammelten Antworten sozial erwünscht sind. Dies ist allerdings bei Ihren Daten keine unwichtige Frage, kann man diese doch grob wie folgt zusammenfassen: Alle sind irgendwie dafür, die von Nutzerinnen- und Nutzern generierten Daten zu benutzen, aber vor allem wird ihnen einen Bedeutung bei der Bindung von Nutzerinnen und Nutzern zugeschrieben. Sozial erwünscht ist letztere Antwort gewiss nicht, zumindest nicht, wenn man sie etwas weiter denkt und „Bindung“ als Werbung und Werbemassnahme übersetzt. Erwünscht hingegen sind Antworten, die Kommentaren, Hinweisen von Nutzerinnen und Nutzern und weiterem eine Bedeutung zumessen – wir leben nun mal in Zeiten, in welchen das Engagement von Bürgerinnen und Bürgern erwünscht ist (das sind fraglos nicht die schlechtesten Zeiten und Ziele). Bedenkt man dies alles, wertet die Abgabe sozial erwünschter Antworten als nicht so wichtig, die Abgabe sozial unerwünschter Antworten hingegen als wichtiger, dann sind die Ergebnisse von Hercher, Ruhl und Sack noch erstaunlicher. Offenbar wird von den wenigen Einrichtungen, die sich für das Thema user generated metadata interessieren, in ihnen vor allem ein Werbeeffekt gesehen. Ist das statthaft? Was sagt das aus?

Vielleicht ist das eine negative Wertung der Ergebnisse, aber sie erscheint nicht weiter hergeholt, als die von den Autoren vorgelegte. Diese weisen selber darauf hin, dass die antwortenden Einrichtungen – trotz aller Selbstselektion – eher enttäuscht von den Daten, die von den Nutzerinnen und Nutzern geliefert wurden, seien. Hier wäre ein Ansatz für weitere Forschungen, nämlich darüber nachzudenken, was genau die Bibliotheken, Archive und Museen eigentlich erwarten und welche Daten Nutzerinnen und Nutzer eigentlich erstellen sollten. Auch hier hätten die Daten der Umfrage eher dazu genutzt werden können, darüber nachzudenken, wie weit der Diskurs über die Daten und ihre Nutzungsmöglichkeiten von der tatsächlichen Nutzung in den Einrichtungen entfernt ist und warum.

Im letzten Teil ihrer Arbeit versuchen die Autoren dann aufgrund einer Literaturrecherche Barrieren bei der Verwendung von user generated metadata zu identifizieren. Das allerdings ist inhaltlich eher ein zweiter Artikel und es ist nicht so richtig klar, warum die Autoren diesen Teil mit den Daten zusammen publizierten. Aber auch so ist der Abschnitt erstaunlich: Die Autoren gehen explizit davon aus, „dass sich Nutzer unaufgefordert beteiligen, sofern die Barrieren dazu nicht zu hoch sind.“ (Hercher, Ruhl & Sack, 2011, S. 11) Dies wird zwar konsequent durchgeführt, aber es ist doch ein absonderliches Menschenbild: Die Nutzerinnen und Nutzer würden quasi darauf warten, sich an der Arbeit von Bibliotheken, Archiven und Museen zu beteiligen, nur würden sie zur Zeit davon abgehalten werden. Diese Vorstellung widerspricht nicht nur den Forschungen zum menschlichen Verhalten in so unterschiedlichen Feldern wie der Politik- und Sozialwissenschaft – insbesondere der Engagementforschung –, der Psychologie oder auch der Werbeindustrie; sondern selbstverständlich auch allen Alltagserfahrungen. Menschen engagieren sich, wenn sie sich engagieren wollen und dazu angehalten werden. Sicherlich gibt es Barrieren, die sie dann auch noch davon abhalten können, dass zu tun. Wenn, dann wäre es sinnvoll gewesen, nach einer Förderung des Engagements zu fragen. Die Möglichkeit zum Engagement – beziehungsweise der Lieferung von Daten – zu schaffen ist zwar eine Voraussetzung, aber das alleine wird keine neuen Daten hervorbringen.

Der Text ließt sich, als hätten die Autoren unter dem Druck gestanden, ihre Daten publizieren zu müssen, egal was die Ergebnisse sind. Dieses Problem ist bekannt und ein Ergebnis von bestimmten Strukturen der Forschungsförderung, von Deadlines und der bekannten Arbeitsüberlastung. Insoweit sollte das den Autoren nicht vorgeworfen werden. Dennoch wirkt es sich bei diesem Text eher negativ aus. Die von ihnen durchgeführte Umfrage hat Daten hervorgebracht, die weiter tiefer und anders hätten diskutiert werden müssten, als sie es tun. Dazu hätten sie ihre – ehedem nicht hergeleitete – These aufgeben und andere Fragen stellen müssen. Aber vielleicht kann dies im Nachhinein geschehen.

Diese Fragen wären meines Erachtens:

  • Gibt es (aktuell) überhaupt ein tatsächliches Interesse in Bibliotheken, Archiven und Museen zur Nutzung von Daten und Metadaten, die von Nutzerinnen und Nutzern erstellt wurden? Immerhin gibt es einen gewissen Diskurs über diese Möglichkeit. Oder gibt es nur eine sehr kleine Anzahl von Einrichtungen, die sich dafür interessieren? Wenn ja, warum?
  • Welche Vorstellungen und Wünsche haben die Einrichtungen, die sich auf diese Daten einlassen, überhaupt, wenn sie von den gelieferten Daten eher enttäuscht sind?
  • Haben die Einrichtungen überhaupt einen Workflow, um mit user generated metadata umzugehen? In der Umfrage wurde abgefragt, ob sie die Daten wichtig finden, aber nicht, ob sie sich auf diese überhaupt einlassen.
  • Haben die Einrichtungen überhaupt Vorstellungen davon, wie sie die Daten außer zu Werbezwecken einsetzen wollen? „Benötigen“ sie überhaupt Daten?
  • Was sagt der Riss zwischen den Diskurs über die Möglichkeiten dieser Daten und das eher geringe tatsächliche Interesse aus?

Ich weiß, eigentlich sollten Texte positiver besprochen werden. Aber dieser ließ mich eher erstaunt zurück und ich wollte dieses Erstaunen teilen. Vielleicht bin ich aber auch nur wieder der mit den zu großen Ansprüchen.

1Zu hinterfragen ist zumindest die Methodik, die Beantwortung der Fragen durch Individuen zuzulassen, aber diese für eine Einrichtung sprechen zu lassen.

Kleinverlage und Bestandsentwicklung

Immer, wenn wir in der libreas-Redaktion nach einem Schwerpunktthema für eine neue Ausgabe suchen und dann dazugehörigen Call for Paper verfassen, stellen wir uns vor, welche Beiträge zum jeweiligen Thema eingereicht werden könnten (bzw. welche wir bei wem anfragen können. Leider sind die Kolleginnen und Kollegen nicht so schreibbegeistert, dass sie in großer Masse Texte einreichen – mal so als Wink mit dem Zaunpfahl, wo der neue Call for Paper auch schon länger veröffentlicht ist). Leider gehen diese Gedankenspiele selten auf. Nicht, dass wir nicht gute und interessante Artikel erhalten würden und das darunter gerade auch solche sind, an die wir gar nicht gedacht hätten. Aber es gibt auch bei jeder Ausgabe Themen, die irgendwie auf der Hand liegen, dann aber „sterben“, weil sie niemand bearbeitet.

Bei unserer letzten Ausgabe gab es ein solches Thema, dass mich schon länger beschäftigt: Die Bestandsentwicklung. Zur Erinnerung: Das Thema der letzten Ausgabe war „Ethik und Zensur“. Mich interessiert die Frage, warum eigentlich welche Medien in den Bestand von Bibliotheken aufgenommen werden. Sicherlich: Bestandsentwicklungspläne, Orientierung am Profil der Bibliothek und den Interessen der Nutzerinnen und Nutzer sowie Bedienung von Anschaffungsvorschlägen – das sind die Standardantworten. Aber sie befriedigen nicht. Sie sagen nämlich immer noch nicht aus, wieso bestimmte Medien ausgewählt und andere nicht ausgewählt werden. Grundsätzlich scheint mir die Frage, ob die Macht über die Bestandsentwicklung, die Bibliothekarinnen und Bibliothekare – einen ausreichenden Etat vorausgesetzt – haben, auch als solche reflektiert wird. Dieses Thema taucht in der englischsprachigen Debatte immer wieder einmal, auch unter dem Schlagwort Zensur, auf. In der deutschsprachigen nicht so richtig.

Besonders auffällig scheint mir das, wenn man es auf Klein- und Kleinstverlage bezieht. Vielleicht ist das eine biographisch zu begründende Sichtweise, schließlich kenne ich eine ganze Anzahl von Menschen, die mithilfe solcher Kleinstverlage versuchen, ihr Leben zu finanzieren (was nicht so richtig klappt, aber das ist ein anderes Thema). Dennoch.

Klein- und Kleinstverlage werden oft von äußerst engagierten Menschen betrieben und zum Teil sind ihre Publikationen auch engagiert. Sicherlich: Ein Teil der Kleinverlage ist klein, weil die Literatur, die sie verlegen, einfach schlecht ist. Nicht einmal zu sehr spezialisiert oder so, sondern einfach schlecht. Aber auch nicht immer. (Zumal auch die größeren Verlage erstaunlich viel Schlechtes verlegen.) In vielem publizieren Kleinstverlage gerade Literatur und Meinungen, die nicht von den meist von Reihen und relativ klaren Profilen gekennzeichneten Angeboten großer Verlage abgedeckt werden. Zudem haben sie – trotz allen Open Access-Pubulikationsmöglichkeiten – die Funktion, Autorinnen und Autoren alternative Publikationsmöglichkeiten zu bieten. Ohne Kleinverlage noch mehr Langeweile auf dem Buchmarkt, noch mehr Reihen und Publikationen, die einmal erfolgreiche Medien zu reproduzieren versuchen. (So zumindest meine These.)

Gleichzeitig kämpfen quasi alle Kleinverlage ständig ums Überleben. (Nicht alle Kleinstverlage, weil die zum Teil tatsächlich mehr als Hobby neben anderen Unternehmungen betrieben werden. Das scheint mir ein Trend zu sein, der sich ja auch bei den Musiklabels zeigte.) Für sie zählt quasi jedes verkaufte Buch mehr als für die großen Verlage, die ja auch (zumeist) in größeren Auflagen rechnen und mehr Möglichkeiten haben, quer zu finanzieren. Während sich Auflagen in Kleinverlagen nahezu immer selber tragen müssen, können sich größere Verlage – was sie ja auch tun – die Herausgabe von einigen Werken erlauben, die das Profil schärfen und die Marke anreichern, aber sich nicht selber finanzieren.

Bezogen auf die Bibliotheken drängen sich meines Erachtens deshalb einige Fragen auf:

 

(a) Sollten Bibliotheken Klein- und Kleinstverlage bevorzugen? Wie gesagt, ist für den kleinen Verlage das eine verkaufte Buch wichtiger, als für den großen Verlag. So könnten Bibliotheken dafür mit Sorge tragen, dass kleine Verlage und eben nicht nur Suhrkamp überlebt.

 

(b) Nochmal: Sollten Bibliotheken Klein- und Kleinstverlage bevorzugen? Wäre es nicht zumindest aus ethischen Gründen wichtiger, Publikationen aus verschiedenen Quellen und Verlagen anzubieten und nicht, wie im Buchhandel aus ökonomischen Gründen, die großen Verlage noch durch die Überrepräsentation ihrer Angebote zu bevorzugen? Würde man nicht mit einer Auswahl aus mehr Verlagen auch ermöglichen, dass diese Verlage von den Nutzerinnen und Nutzern eher wahrgenommen werden?

 

(c) Wie kommen überhaupt Medien von Klein- und Kleinstverlagen in die Bibliotheken? Hier fehlt meiner Meinung nach das Wissen darüber, wie eigentlich Medien ausgewählt werden. Wenn Sie tatsächlich einfach per Stichworten aus dem Verzeichnis lieferbarer Bücher und den Rezensionen von Fachzeitschriften ausgewählt werden, mag man ja von einer Objektivität ausgehen können. Aber schon, wenn Kataloge der Verlage herangezogen werden, scheint mir das schwierig zu sein. Große Verlage können sich einfach mehr und dickere Kataloge leisten, als kleine. Das macht die Medien dieser Verlage nicht besser oder schlechter. Aber wenn X-Prozent des Erwerbungsetats für Medien ausgegeben werden, die aus den Katalogen von Verlagen, die sich das Drucken und Verschicken von Katalogen leisten können, ausgewählt wurden, wie sollen dann die Verlage, die sich das nicht leisten können, überhaupt zu Zug kommen? Werden dann Medien nicht eher gekauft, weil sie einem „interessanten“ Umfeld verlegt werden oder gerade mit auf einer Katalogseite abgebildet werden, als aus rein inhaltlichen Gründen? Zumeist ist das ja so, dass Kleinverlage Kataloge verschicken, wenn man sie darum bittet. Sollte nicht zumindest das aktiv von den Erwerbungsabteilungen getan werden?

 

(c1) Die gleiche Frage gilt dann auch für die Fachmedien: Wie wählen wir eigentlich die Medien aus, die rezensiert werden?

 

(d) Ist das Zensur? Die Frage, ob die strukturelle Bevorzugung großer Verlage als Zensur gegenüber kleinen Verlagen zu verstehen ist, beschäftigt einige englischsprachige Autorinnen und Autoren. Eine richtige Antwort scheint es nicht zu geben. Auf der einen Seite ist ersichtlich, das die ständige Bevorzugung großer Verlage tatsächlich dazu führen kann, dass kleine Verlage „unsichtbar“ werden (schließlich geht es nicht nur um die eine Entscheidung für oder gegen ein Medium, sondern um eine Haltung, die sich im Bestand selber niederschlägt); auf der anderen Seite scheint es nicht wirklich um eine aktive Zensur zu gehen (auch wenn große Wissenschaftsverlage, wie wir wissen, gerne versuchen, möglichst viel Etat einer Bibliothek zu binden, beispielsweise mit Reihen oder Standing Order, was aber erst einmal aus wirtschaftlichen Gründen passiert und nicht, weil die großen Verlage die kleinen zensurieren wöllten). Dennoch scheint es kein Thema zu sein, welches einfach mit einer Handbewegung fortgewischt werden kann.

 

(e) Als zugespitzte Frage: Ist Standing Order überhaupt ethisch zu verantworten? Wie soll ein Kleinverlage seine Medien überhaupt zur Kenntnis bringen, wenn der Bestand aus Standing Order-Angeboten zusammengestellt wird. Schon rechnerisch ist das oft unmöglich. Ein großer Verlag kann relativ gut für solche Präsentationen mal 50 oder 200 Exemplare eines Mediums bereitstellen und die Hälfte davon im Anschluss makulieren. Für kleine Verlage sind 200 Exemplare manchmal schon 50% der Auflage. Wenn Bibliotheken aber die Breite der Medien anbieten und reflektierten sollen, wie können sie dann zulassen, ihren Etat zum Teil an eine Angebotsform zu binden, die nicht von allen Verlagen angeboten werden kann (ohne, dass es inhaltliche Gründe hätte)?

 

Wie gesagt ist zu diesem Thema in der letzten libreas kein Artikel erschienen. Dabei scheint mir die Bestandsentwicklung ebenso relevant für ethische Diskussion im Bibliothekswesen zu sein, wie die Frage der Zugänglichkeit. Es geht ja nicht nur darum, den Zugang zu den Beständen, die schon in den Bibliotheken stehen, zu ermöglichen, sondern auch darum, zu fragen, was überhaupt in diesen Bestand kommt und was nicht. Aber vielleicht kann man das Thema anderswo aufgreifen.

Über den Desktop nachdenken. Gnome 3 u.a.

Es gab eine Zeit, da wurde sehr laut und wahrnehmbar über die Mensch-Maschinen-Kommunikation, insbesondere bei Computern, nachgedacht. Obwohl dies offenbar immer noch ein Teilgebiet der Informatik ist – inklusive einer aktiven Arbeitsgruppe in der Gesellschaft für Informatik – scheint das Thema in bibliothekarischen Kreisen keine Bedeutung mehr zu haben. Ein PC hat einen Desktop, über den man mit Maus / Touchpad und Tastatur steuert, was der Rechner tun soll – und damit scheint es sich oft zu haben.

Aber: Das ein PC einen Desktop hat und dieser so, wie er funktioniert, funktioniert, ist nicht unbedingt folgerichtig und schon gar nicht alternativlos. Das oft in den Kategorien ein Bildschirm gleich ein Desktop, ein Icon gleich ein Programm oder ein Dokument, dass über ein Programm aufgerufen wird, gedacht und gehandelt wird, ist das Ergebnis von Entscheidungen, die von den ProgrammierInnen und DesignerInnen der Desktops getroffen wurden. Das ist nicht irrelevant, weil es unsere Arbeitsprozesse und auch unser Denken über Computer steuert.

Wandel der Mensch-Computer-Schnittstellen

Dieses Fehlen des Nachdenkens über den Desktop irritiert ein wenig, wenn man bedenkt, dass wir alle in den letzten Jahren mit den Smartphones und den Pads live erlebt haben, wie neue Interaktionsmodelle zwischen Mensch und Maschine aufkommen und das Arbeiten mit technischen Geräten beeinflussen. Das Tippen und Wischen auf den Bildschirmen der Android- und I-Phones und -Pads ist jetzt schon wieder Allgemeingut, obgleich es ab 2007 erst einmal als neues Konzept etabliert werden musste. (Man erinnert sich vielleicht noch, dass die „alten“ Handys sehr klar zwischen Tastatur und Bildschirm unterschieden und dies auch als selbstverständlich galt.) Dennoch scheint sich diese Erfahrung nicht auf den Umgang mit Computern übertragen zu haben.

Betriebssystem ungleich Desktop

Gnome 3, die neue Version des Gnome-Desktops, ist eine Chance – nach Sugar und KDE 4 im Jahr 2008 –, diese Leerstelle einmal zu thematisieren. Es gibt eigentlich keinen direkten Zusammenhang zwischen einem Desktopsystem und einem Betriebssystem. Das Betriebssystem organisiert quasi die Arbeit eines Rechners, das Zusammenspiel der einzelnen Komponenten, die Rechnenoperationen und Ausgabebefehle; während das Desktopsystem die Schnittstelle zwischen dem unterliegenden Betriebssystem – oder nennen wir es gleich richtig, dem Kernel – und den NutzerInnen darstellt.

Das Desktopsystem übersetzt in gewisser Weise zwischen NutzerInnen und Rechner, strukturiert aber auch den Zugriff auf Daten, Programme und so weiter. Nun ist dieses Desktopsystem nicht per se mit dem Kernel verbunden. Windows und Mac-OS haben einen Standard-Desktop. Eigentlich aber ist Windows das Desktopsystem des (jetzt gleichnamigen) Windows-Betriebssystems. Für diejenigen, die sich noch erinnern: Bis zu Windows 3.1 hieß das Betriebssystem MS-DOS und konnte auch direkt mit anderen Oberflächen, insbesondere dem Norton-Commander, oder aber direkt bei DOS-Befehlen angesprochen werden. Windows war eine Oberfläche, die erst gestartet wurde, nachdem der Kernel schon lief. Theoretisch ist das immer noch so, aber es wird – ebenso wie bei Mac-OS – der Eindruck erzeugt, dass Desktop und Kernel zusammen gehören würden.

Bei anderen Betriebssystemen ist dies allerdings anders. (Eigentlich ist es auch bei Windows und Mac-OS möglich, andere Desktopmanager zu verwenden. Explizit zum Ziel gesetzt hat sich dies das KDE for Windows-Project.) Es existieren zahlreiche weitere Desktopmanager, die jeweils auf den Kernel – egal ob jetzt Linux, Unix, BSD, Minux oder andere – aufgesetzt werden können. Es gibt zwar einige Betriebssysteme und Distributionen (Zusammenstellungen eines Betriebssystems mit spezieller Software, also beispielsweise die zahllosen unterschiedlichen „Linuxe“), die sich für einen Manager als Standard entscheiden, aber auch das lässt sich schnell wieder durch die NutzerInnen ändern. Mehr noch: Es ist möglich, mehrere Desktop-Manager nebeneinander zu installieren, die dann auf die gleichen Daten zugreifen können. Die manchmal getroffen Aussage, man hätte schon einmal ein Linux gesehen und wüsste deshalb, wie es aussieht und funktioniert – wie das bei Windows zumindest für die jeweilige Version möglich ist – ist deshalb immer falsch: Man hat einen Desktop-Manager gesehen, aber ob dort wirklich ein Linux-Kernel drunter lief, kann man noch nicht mal sagen. „Andere“ Linux-Systeme sehen anders aus und funktionieren auch anders.

Die Anzahl der Desktop-Manager ist relativ groß, weil sie unterschiedlichen Philosophien folgen und Anforderungen erfüllen sollen. Es gibt eine ganze Reihe, die vor allem für ältere Rechner mit geringer Leistung ausgelegt sind, wie zum Beispiel das bei Puppy Linux (das vom USB-Stick läuft und nur 128 MB groß ist) benutzte JWM. Es gibt aber auch drei, eigentlich schon vier, große Desktops, die sehr explizit versuchen, die Kommunikation zwischen NutzerInnen und Rechner, Daten und Programmen umzugestalten und neu zu denken. Diese sind Sugar (welches auch als Windows-Desktop existiert), KDE, Gnome und – realtiv neu – Unity. Das einst richtungsweisende Enlightenment entwickelt sich leider nur noch langsam weiter.

Es lohnt sich, einmal mit allen diesen Desktops zu spielen beziehungsweise, sie sich länger anzuschauen. Dazu ist fast kein Aufwand mehr nötig.

  • Sugar läuft vom USB-Stick. Wie der zu installieren ist, steht im Wiki des Projektes.
  • KDE wird zum Beispiel auf den Live-Systemen von OpenSuse oder Kubuntu eingesetzt (die man runterladen, brennen und dann benutzen kann).
  • Gnome 3 läuft auf der Live-DVD von Fedora (die genauso wie von OpenSuse verwendet wird. Gnome 2.x findet man noch auf der Live-DVD von OpenSuse mit Gnome-Version).
  • Unity läuft auf der Live-DVD von Ubuntu (ebenso: runterladen, brennen, ausprobieren).

Kurzvorstellung von vier Desktop-Managern

Ganz kurz lassen sich die Unterschiede der Desktop-Manager aufzählen. Eine Gemeinsamkeit (die in den letzten Jahren auch von Mac-OS übernommen wurde) ist, dass sich keiner der Manager auf einen Desktop pro Bildschirm beschränkt. Man kann sich dies ungefähr so vorstellen: Wenn bei Windows der Bildschirm quasi einen Schreibtisch darstellt, dessen Ränder mit dem Bildschirm übereinstimmen, und auf dem Daten, Ordner, Programme und die Taskleiste abgelegt sind; hat man bei den anderen Managern mehrere Schreibtische nebeneinander, eher schon Pinnwände, zwischen denen auf einem Bildschirm hin- und hergeschaltet werden kann. Teilweise funktioniert das mittels Tastaturkürzel, über Klicks oder auch darüber, dass mit der Maus an die linke oder rechte Kante des Bildschirms gefahren wird. Der Vergleich mit den Schreibtischen trägt nur eine Weile, aber dazu später. Diese Funktion erhöht erstaunlicherweise die Übersichtlichkeit und auch die Geschwindigkeit beim Arbeiten am Rechner, obgleich dies vielleicht für Menschen, die sonst nur mit Windows arbeiten, einige Eingewöhnungszeit braucht.

Weiterhin bieten fast alle dieser Manager die heutzutage eher Mac-OS zugeschriebenen Docks an, auf denen die wichtigsten Programme und gerade geöffneten Dateien direkt anklickbar am Bildschirmrand liegen. Diese Docks, wenn auch nicht so ästhetisch, sind Teil fast aller Desktop-Manager seit den Unix-Tagen. Nur weil sie bei Windows nicht als Standard übernommen wurden, scheint es heute so, als wären sie eine Mac-spezifische Lösung.

Sugar

Sugar ist ein Manager, der für die 100-Dollar-Laptops des OLPC-Projects geschrieben wurde. Er ist nach didaktischen Grundsätzen aufgebaut und vor allem so, dass er auch für Kinder, die nicht des Lesens mächtig sind und – da der 100-Dollar-Laptop vor allem für dritte und vierte Welt-Länder gedacht ist – auch mit den anderen Kommunikationsprodukten, die uns umgeben, noch nicht in Kontakt gekommen sein müssen. Er ersetzt zum Beispiel einzelne Schrift mit Graphik und Programme mit Funktionen (also beispielsweise nicht LibreOffice / OpenOffice / Word etc., sondern „Schreiben“, nicht Gimp, sondern „Malen“ und so weiter). Ebenso werden Dokumente als Aufgaben behandelt und deshalb nicht geschlossen. Fängt man einmal an, ein Bild zu zeichnen, bleibt dieses geöffnet, auch wenn der Rechner heruntergefahren wird – ungefähr so, wie ein Bild auf einem Schreibtisch, dass auch nicht runterfährt, sondern nur am Ende irgendwo abgeheftet wird.

Sugar ist hier vor allem deshalb interessant, weil er verschiedene Fragen aufwirft. Warum muss man überhaupt in Dokumenten denken und nicht, wie sonst oft, in Aufgaben und Projekten? Warum muss man sich mit Programmen auseinandersetzen und nicht mit den Grundfunktionen, die man einfach ausüben möchte? Offenbar lässt sich ein Rechner auch anders begreifen. (Ob das gut ist, ist eine andere Frage.)

Zudem ermöglicht Sugar, dass die Bedienung mit der Zeit komplexer wird beziehungsweise die Komplexität nach und nach dazugeschaltet werden kann. Dies ist didaktische sinnvoll, ermöglicht es doch, Menschen (es arbeiten ja nicht nur Kinder mit dem Laptop) an Rechner heranzuführen. Bei anderen System kriegt man zumeist eine Komplexität vorgesetzt und muss damit umgehen.

KDE

KDE war der erste Desktop-Manager, der mit dem Anspruch antrat, Linux und andere freie Systeme mindestens genauso einfach bedienbar zu machen, wie dies bei Windows und Mac-OS der Fall war. Dieses Ziel ist lange erreicht, seitdem versucht KDE – spätestens seit der Version 4.x – darüber hinaus zu gehen und andere Funktionalitäten einzubauen. So wurde das Messeaging in den Desktop integriert.

Eine der interessanten Funktionen ist wohl, dass die Dateien gar nicht direkt auf dem Desktop liegen, sondern in einem gesonderten Fenster, dass ungefähr die gleiche Wertigkeit hat, wie andere Fenster, die auf dem Desktop angeordnet werden können. Dies macht den Desktop tatsächlich aufgeräumter. Bleibt man in der Schreibtisch-Metapher, werden auf dem Schreibtisch praktisch Boxen aufgestellt (die man beliebig drehen und skalieren kann), in denen alle Daten, kleinen Programme und so weiter hineingelegt werden. Auf dem Schreibtisch selber liegt nichts, was nicht in den Boxen ist.

Unity

Unity war eine Bearbeitung des Gnome-Desktops, die explizit auf Netbooks zugeschnitten war. Canonical, die Firma hinter Ubuntu / Kunbuntu / Xubuntu / Edubuntu hatte die Herausforderung angenommen, den Platz auf dem Bildschirm der kleinen Rechner möglichst sinnvoll auszunutzen und – angenommen, sie stellen Arbeitsgeräte dar – die Arbeit auf ihnen möglichst effektiv zu gestalten.

Dazu wurde der Desktop quasi vollständig frei geräumt. Die Taskleiste wurde, wie das oft gehandhabt wird, an den oberen Rand verlagert (beziehungsweise wurde das direkt von Ubuntu übernommen), die wichtigsten Programme links an den Rand auf einen Dock mit einem „Ziehharmonika“-Effekt gelegt (welcher bewirkt, dass das Dock scrollbar wird, wenn die Programme und geöffneten Dateien zu viel werden). Die Programme lassen sich auf mehreren Desktops anordnen, zwischen denen per Maus und Tastatur umgeschaltet werden kann. Ansonsten bleibt der Hintergrund – also praktisch wieder die Tischoberfläche – leer.

Ubuntu ist unzufrieden mit der Entwicklung des Gnome-Desktops zu Gnome 3 (und steht damit nicht alleine) und hat deshalb beschlossen, Unity als Standard-Desktop auch für andere Rechner als Netbooks weiterzuentwickeln.

Gnome 3

Die neuste Entwicklung der Desktop-Manager stellt nun Gnome 3 dar. Gnome 3 ist der Nachfolger der Gnome 2.x-Reihe. Aufgrund dessen, dass das Gnome-Team in dieser Version sehr eigenmächtig grundlegende Entscheidungen getroffen hat, wurde es relativ heftig kritisiert. Deshalb hat sich Canonical auch entschieden, Gnome 2.x mit Unity zu forken, was allerdings bei Freier Software auch immer als Möglichkeit angelegt ist und nicht unbedingt schlecht sein muss. Insbesondere die Entscheidung, möglichst viele Einstellungsmöglichkeiten zu „verstecken“ sieht ein Großteil der Linux-Gemeinde kritisch. Allerdings argumentiert das Gnome-Team, dass es größten Wert auf die Benutzbarkeit legt und somit NutzerInnen im Blick hat, die möglichst wenig einstellen und verändern wollen. Diese gegensätzlichen Positionen haben, wie vorherzusehen war, dazu geführt, dass zahlreiche Programme programmiert wurden, um die „versteckten“ Funktionen wieder sichtbar zu machen. (Da sie eh in einzelnen Dateien stecken, können sie von Leuten, die wissen was sie tun, selbstverständlich immer mit Root-Password und einem Editor verändert werden. Aber das ist keine wirklich befriedigende Lösung.)

Die Besonderheit bei Gnome 3 ist nun, dass praktisch vollständig von der Schreibtisch-Metapher abgesehen wird. Es ist überhaupt nicht mehr möglich (außer man setzt ein extra Programm dafür ein), Dokumente und Programme auf dem Desktop abzulegen. Vielmehr trennt Gnome 3 Programme – verstanden als Funktionen – Daten und Dokumente sowie die Arbeitsflächen strikt voneinander.

Das erste Bild zeigt einen solchen Desktop (inklusive eines Bildschirmhintergrundes aus Jamaika, wie an sich alle Bildschirmhintergründe aus Jamaika sein sollten) in der aktuellen Fedora-15-Version. Die Leere der Oberfläche soll in konzentriertes Arbeiten ermöglichen, da tatsächlich nur die Dateien geöffnet werden, mit denen gerade gearbeitet wird und möglichst nichts überflüssiges im Blickfeld herumliegt.

Das Aufrufen der Programme, Dateien und Oberfläche erfolgt beispielsweise durch eine Mausgeste (Maus in die links, obere Ecke bewegen).

Bild zwei zeigt die Ansicht, die mit der Mausgeste aufgerufen wird. Sichtbar ist, dass links – wie bei Unity – die wichtigsten Programme angeordnet sind, während die auf der aktuell benutzten Oberfläche laufenden Programme in der Mitte sichtbar sind. Rechts, hier ausgefahren, sind die aufgerufenen Oberflächen sichtbar, durch die mit einem Mausklick gewechselt werden kann. In dieser Ansicht lassen sich die Programme beliebig zwischen den Oberflächen hin- und herschieben. Wird auf der letzten Oberfläche ein Programm hinzugefügt, wird automatisch einer weitere leere Oberfläche geöffnet. Andere leere Oberflächen verschwinden hingegen.

Der Aufruf einer Oberfläche – zwischen denen dann auch noch per Tastaturkürzel gewechselt werden kann – zeigt dann nur die dort laufenden Programme an, wie in Bild 3 zu sehen ist. (Wobei hier ein Netbook verwendet wurde und die Oberfläche bei zwei laufenden Programmen – Gimp und der Dateimanager – schon voll aussieht. Aber wie viel voller würde es mit Dateien auf dem Desktop und anderen laufenden Programmen im Hintergrund aussehen?

Das vierte Bild zeigt noch einmal die Ansicht mit allen Programmen, die – wie rechts am Rand sichtbar ist – auch noch einmal in Gruppen unterteilt sind, an. Durch die laufenden Programme kann zudem, wie bei fast allen anderen Desktop-Managern, per Alt+Tab gewechselt werden, zudem lässt sich – zumindest in der Fedora-Version, die ich hier gerade nutze – alles auch per Tastatur aufrufen, wie sich dies für Linux gehört.

Fragen zum Desktop

Wie Gnome 3 wirklich funktioniert, lässt sich in Bilder nicht gut ausdrücken. Dies gilt auch für die anderen Manager. Ich hoffe allerdings, dass sichtbar geworden ist, wie veränderlich bestimmte Konzepte der Mensch-Computer-Kommunikation sind, die heutzutage fast alternativlos verwendet werden.

  • Warum muss sich zum Beispiel der Desktop als Schreibtisch vorgestellt werden? Bei Gnome 3 ist er eine Fläche, die aufgerufen wird, wenn sie nötig ist. Warum die Beschränkung auf einen Desktop, der immer da ist?
  • Warum müssen Programme und Dateien eigentlich die gleiche Wertigkeit haben, wie dies auf dem Windows-Desktop, aber auch anderen Desktops, durch quasi gleichwertige Icons symbolisiert wird? Eigentlich sind dies zwei unterschiedliche Dinge.
  • Warum müssen Programme als Programme begriffen werden, wenn sie doch – wie das bei Sugar umgesetzt ist – auch als Funktionen genutzt werden können?
  • Noch nicht in Gnome 3 integriert, weil es entgegen der Pläne noch nicht fertig ist, ist der Dateimanager Zeitgeist. Zeitgeist soll die Daten nicht hierarchisch strukturieren (also in Ordnern und Unterordnern), sondern nach dem Zeitpunkt und der Häufigkeit des Aufrufs. Zudem sollen Dateien mehrfach in Gruppen geordnet werden können (ungefähr so, wie man im OPAC Medien mehreren Sammlungen zuordnen kann, während sie bekanntlich in der realen Bibliothek immer nur an eine Stelle gestellt werden können). Wie sich dies handhabt, muss man sehen, wenn Zeitgeist in einigen Monaten fertig ist. Aber auch hier stellt sich die Frage, warum Daten eigentlich hierarchisch strukturiert werden müssen.

Die Beschäftigung mit den unterschiedlichen Desktop-Managern und den dahinter stehenden Konzepten lässt immer wieder neu solche und ähnliche Fragen aufkommen. Es wäre zu wünschen, wenn sich im Bibliothekswesen, wo so viel von „Informationskompetenz“ geredet wird, auch über diese Fragen gesprochen wird. Ansonsten ist diese Rede nicht wirklich ernst zu nehmen – wer die Alternativen nicht kennt, kann auch keine Kompetenz aufbauen oder gar den Aufbau bei anderen unterstützen. Das Arbeiten mit und auf dem Windows-Desktop, zumindest das Unreflektierte, führt selbstverständlich dazu, dass man die Arbeit am Rechner nur in einer Weise begreift, welche den Möglichkeiten und auch den eigentlichen Denkvorgängen beim Arbeiten am Rechner nicht unbedingt gerecht werden muss.

Sicherlich ist Gnome 3 noch lange kein Desktop-Manager, der für Menschen, die noch nie etwas auf der Kommandozeile getan haben, als produktive Arbeitsoberfläche zu empfehlen wäre. Als Testumgebung und Anregung zum Nachdenken über die Arbeit am Rechner und auch den Umgang mit Daten, ist er allerdings neben Sugar, KDE, dem „alten“ Gnome und Unity unbedingt im Blick zu halten.

Schulbibliothek des Jahres 2011

Am Mittwoch, dem 08.06.2011, fanden quasi hintereinander zwei Veranstaltungen statt, die sich thematisch eng aufeinander hätten beziehen können, es aber praktisch überhaupt nicht taten. Von 16 bis 18 Uhr veranstaltete die dbv-Expertenkommission Bibliothek und Schule auf dem 100. Bibliothekstag eine Sitzung unter dem Titel „Auf die Schule setzen“, quasi direkt im Anschluss fand nur einen Berliner Bezirk weiter die Jurysitzung zur (ersten) Berliner Schulbibliothek des Jahres statt. Dieser Wettbewerb wurde von der Landesarbeitsgemeinschaft Schulbibliotheken Berlin / Brandenburg, in Anlehnung an den Preis zur Schulbibliothek des Jahres in Hessen, ausgeschrieben. Einen weiteren für Brandenburg gab es auch schon.

Erstaunlicherweise hatte man befunden, dass ich für diese Jury passend sei. Deshalb hatte ich die Verantwortung mitzutragen, zwischen fast 30 Einsendungen zu diesem Wettbewerb die „besten“ auszuwählen. Das war erwartungsgemäß nicht einfach. Alle Schulbibliotheken, die teilgenommen haben, sind sehr unterschiedlich, setzen sich eigene, oft an den jeweiligen Schulen orientierte, Ziele und werden allesamt mit großem Engagement betrieben. Welche Einrichtungen von der Jury ausgewählt wurden, wird auf der Preisverleihung am nächsten Donnerstag, den 16.06.2011, um 16.00 Uhr in der Schule am Tempelhofer Feld verkündet. Zu dieser Veranstaltung wird öffentlich eingeladen. Letztlich kann man aber sagen, dass keine der Einrichtungen, die eine Bewerbung eingereicht haben und dann nicht ausgewählt wurden, schlechte Arbeit geleistet hätte. Das eine Einrichtung „gewonnen“ hat und die anderen nicht liegt eher in der Struktur solcher Wettbewerbe begründet als in dem Engagement der teilnehmenden Einrichtungen.

Wie gesagt wird die Entscheidung der Jury am Donnerstag verkündet. Verwirrend und bezeichnend zugleich war allerdings die Gleichzeitigkeit dieser Jurysitzung mit den Präsentationen der ganzen Schulbibliotheken, die sich fast durchgängig eigenständig Aufgaben, Ziele und Strukturen gegeben haben und den Veranstaltung der Expertenkommission Bibliothek und Schule auf dem Bibliothekstag. Es gab zwischen beiden einfach gar keine, wie auch immer geartete Verbindung.

Die Veranstaltung der Expertenkommission begann mit einem Bericht über Schulbibliotheken in den USA. Nicht, dass in diesem Vortrag etwas berichtet wurde, was nicht auch anderswo schon über deren Situation bekannt war. Aber ganz offensichtlich waren dies für einen großen Teil der Anwesenden neue Informationen. Erstaunlich war allerdings, dass der Vortrag praktisch keine der problematischen Entwicklungen in den USA – nicht nur, dass dort aktuell um die Existenz der Schulbibliotheken gekämpft werden muss, sondern vor allem, dass der pädagogische Anteil der Ausbildung der teacher-librarians insbesondere in der jetzigen finanziellen Krise dazu führt, dass sie mehr und mehr als „richtige“ Lehrerinnen und Lehrer eingesetzt werden – thematisierte. Die einzige kritisch gemeinte Anmerkung zielte darauf, dass die US-amerikanischen Schulbibliotheken weniger mit Öffentlichen Bibliotheken zusammenarbeiten würden, als in Deutschland. Das allerdings scheint zu bezweifeln zu sein. Der Großteil der Schulbibliotheken, welcher der Expertenkommission bekannt ist mag mit Öffentlichen Bibliotheken zusammenzuarbeiten oder gar von diesen geführt werden, aber das liegt auch in der Natur der Sache: Schließlich ist die Expertenkommission eine Abteilung des dbv. Der größte Teil der anderen Schulbibliotheken kooperiert auch kaum oder gar nicht mit Öffentlichen Bibliotheken. Allerdings schienen sich die Informationen der Referentinnen zur Situation in Deutschland einzig auf den Aussagen der Expertenkommission zu basieren.

In einem zweiten Vortrag berichteten zwei deutsche Bibliothekarinnen, die am librarians in residence-Programms des Goethe Instituts teilgenommen hatten, über eine Studienfahrt im Rahmen dieses Programms, die sich auf Schulbibliotheken in den USA bezog. Dieser Vortrag war inhaltlich mit dem Artikel der beiden Referentinnen in der BuB, aber offenbar ebenso für einen Großteil der Anwesenden inhaltlich neu.

Nach diesen beiden Vorträgen stellte die Expertenkommission die – anderswo wohl als steil bezeichnete – These auf, dass es den Schulbibliotheken in Deutschland vor allem an Standards mangeln würde; insbesondere offenbar an solchen der Informationskompetenz. Deshalb folgten – immerhin in einer Veranstaltung unter dem Titel „Auf die Schule setzen“ – zwei Vorträge zur „Informationskompetenzvermittlung“. Auch diese hatten ihre Schwächen, beispielsweise wurden die Begrifflichkeiten Kompetenz, Qualifikation und Fähigkeiten – wieder einmal – wild durcheinander benutzt, ohne auf die inhaltlichen Differenzen der hinter diesen stehenden pädagogischen Konzepte einzugehen und zudem die eine Kompetenz zu einem großen Teil in einem argumentativen Zirkelschluss mit anderen Kompetenzen erklärt.

Interessant war aber vor allem das Vorgehen: Anstatt über die Situation von tatsächlich existierenden Schulbibliotheken in Deutschland, oder wenn man schon vor Ort war, in Berlin und Brandenburg, zu diskutieren, wählte man lieber das Thema „Informationskompetenz“. Gleichzeitig fand der Bibliothekstag auch auf dem Jury-Treffen keine Erwähnung. Offensichtlich existieren hier zwei Diskurse nebeneinander: Einer, der sich auf einige, wenige, stark bibliothekarisch orientierte Schulbibliotheken (die es in dieser Form in Berlin gar nicht gibt) bezieht und einer, der sich stark an den existierenden Schulbibliotheken anbindet und kein großes Interesse an den bibliothekarische Debatten entwickelt. Das ist keine neue Situation, am letzten Mittwoch wurde sie nur wieder einmal sehr klar offenbar.

Kompetenz, was ist das? Drei Bücher zur Kritik des Kompetenzbegriffes

Kompetenzen sind ein Thema, dass mich immer wieder ob seiner Verbreitung irritiert. Einerseits sind sie zur Standardvokabel geworden, auch im Bibliotheksbereich. Es gibt gefühlte zehntausend Forschungsprojekte in der Bildungsforschung, die XYZ-Kompetenzen von ABC (Kinder, Jugendlichen, Schülerinnen und Schülern in einer Klassenstufe oder Altersstufe oder im Quervergleich, von Lehrerinnen und Lehrern, von Erzieherinnen und Erziehern, von Eltern etc.) messen und dabei entweder vorhandene Kompetenzmodelle nutzen und weiterentwickeln oder gleich neue entwerfen. Andererseits hat dieses Wachstum der Verwendung des Wortes Kompetenz, insbesondere in zusammengesetzten Substantiven als XYZ-Kompetenz, und die ständige Neumodellierung und Weiterentwicklung nicht dazu geführt, das wirklich klar geworden wäre, was Kompetenz sein soll. Zumal dann nicht, wenn von der Förderung von Kompetenz oder Gestaltung von kompetenzenfördernden Lernorten et cetera geredet wird. Gerade dann, wenn sich aus der eigentlichen Schulforschung hinausbegeben wird und beispielsweise konzipiert wird, dass die Einrichtungen ABC (nicht nur Bibliotheken, auch die Soziale Arbeit, Kindertagesstätten, die berufliche und politische Weiterbildung, die Medienindustrie, NGOs und Vereine, die lokalen Bündnisse für Familien und so weiter) Kompetenzen fördern würden, scheint der Begriff Kompetenz relativ nach Gutdünken der jeweiligen Schreibenden genutzt zu werden. Mal als Fähigkeiten, mal als Potentiale der Individuen, mal als anwendungsbereite Fähigkeiten, mal als Qualifikationen, mal als notwendige Wissensbestände, mal ganz behavioristisch als klar abgrenzbar zu definierende Wissensbrocken, die direkt in die Lernenden hineingegeben werden, mal ganz konstruktivistisch als Bündel von Fähigkeiten, Potentialen und Motivationen von Personen, die sie sich selber als Lernende mit Unterstützung von Lernumgebungen und lernbegleitenden Personen angeeignet haben.
Diese Unterschiede in der Bedeutung von „Kompetenz“ sind nicht trivial. Vielmehr reden wir von sehr unterschiedlichen Vorstellungen davon, was, wie, von wem, wann, wie lange und warum gelernt worden sein soll – und wie es gemessen werden könnte, wenn überhaupt – und das alles unter einem Containerbegriff. Das mag, wie ich in einem anderen Beitrag zum bibliothekarischen Verständnis von Kompetenzen schon einmal ausgeführt habe, nicht mehr zu ändern sein. Eventuell ist das einzige, was noch bleibt, einzufordern, dass die Texte, die mit dem Begriff Kompetenz operieren, jeweils offenzulegen haben, was sie damit genau meinen. Es scheint doch sehr schnell einsichtig zu sein, dass beispielsweise zwischen der Vorstellung, Lesekompetenz sei quasi Lesefähigkeit und der Vorstellung, Lesekompetenz sei ein abgestuft messbares Fähigkeits- und Motivationsbündel, welches in komplexen Zusammenhängen darauf Einfluss nimmt, wie ein Individuum welche Texte und Textsorten für welche Zwecke nutzt, ein unüberbrückbarer Unterschied besteht, den man zumindest anzeigen sollte. So würde auch deutlich, dass oft sehr unterschiedliche Zielsetzungen verfolgt werden, wenn man von der Förderung von Kompetenzerwerb (oder gar von Kompetenzen) redet und dass es kein Wunder ist, wenn bestimmte Angebote, die Kompetenzen fördern sollen, das überhaupt nicht tun: Eben weil dann oft von zwei unterschiedlichen Dingen geredet wird.

Kompetenzen bei PISA beihalteten ein Versprechen
Es ist allerdings erstaunlich. Die PISA-Studien, die ja in Deutschland den Begriff Kompetenz als Teil von Bildung beziehungsweise als Bildungsziel etablierten, hatten eigentlich sehr klar ausgedrückt, dass Kompetenz ein Konzept sei, welches über die Konzepte von Fähigkeit, Schlüsselqualifikation oder einfach nur Lehrinhalt hinausgehen und die individuelle Verarbeitung von Wissen sowie die individuelle Disposition, es anzuwenden, mit einbeziehen würden. Zudem würden Kompetenzen tendenziell die Fachspezifika von Konzepten wie Fähigkeiten überwinden und als Potentiale begriffen werden, die über eine Anwendungsform von Wissen hinausgehen. Doch was ist davon im Diskurs angekommen? Er scheint, wenig bis gar nichts. Allerdings ist das auch mit zahlreichen anderen Aussagen der PISA-Studien geschehen, beispielsweise den Verweis darauf, dass die gemessenen Kompetenzen das Ergebnis von 15 Jahren Lernen der Schülerinnen und Schüler im gesamtgesellschaftlichen Kontext darstellen würden – und eben nicht nur der Schulbildung.
Seit ungefähr zehn Jahren ist der Kompetenzbegriff nun in der gesellschaftlichen Verwendung, was auch bedeutet, dass die ganzen Versprechen des Kompetenzbegriffes langsam überprüft werden können. Kompetenz sollte und soll es möglich machen, Bildung eher auf die tatsächlichen Lernprozesse der Individuen zu beziehen und gleichzeitig zukunftsfähig zu gestalten, dass Konzept sollte es ermöglichen, Qualität von Bildung zu steuern. Ist das geschehen? Was sind die Auswirkungen des Überhandnehmens des Kompetenzbegriffes? Zunehmend erscheinen Arbeiten, die gerade das zum Thema haben, ohne das ihnen – wie es am Anfang des letzten Jahrzehnts geschah – unterstellen zu können, einfach nur aus Radikalopposition „gegen Kompetenz“ zu sein. Sie untersuchen vielmehr vor dem Hintergrund eines Bildungssystems, dass seit einigen Jahren mit dem Kompetenzbegriff agiert, dessen Funktionsweise.

Kompetenzdiskurs ohne Widerstand?
Eines dieser Werke ist die Dissertation von Udo Haeske (Haeske, U. / ‘Kompetenz’ im Diskurs : Eine Diskursanalyse des Kompetenzdiskurses. – [Dissertation]. – Berlin : Pro Business, 2008), in welcher er mit dem Anspruch auftritt, eine Diskursanalyse des Kompetenzbegriffes zu leisten. Die Dissertation ist allerdings sehr langatmig, da sie sich beständig daran abarbeitet, in einer auch für Dissertationen unnötigen Länge und Breite die Diskursanalyse nach Foucault zu erläutern. Dabei geht das Thema „Kompetenz“ in weiten Teilen unter.
Dennoch sind die Ergebnisse zu erwähnen. Als Datenkorpus benutzt Haeske die rund 4000 Veröffentlichungen, die sich bis 2007 im Katalog der Deutschen Nationalbibliothek nachweisen ließen und die „Kompetenz“ oder eine Zusammensetzung mit diesem Wort [Wobei nicht klar ist, ob im Titel oder auch als Schlagwort. Recherchestrategien zu beschreiben weigert sich der Autor erstaunlicherweise.] beinhalteten. [Der Autor behauptet zudem, dass die zurückgemeldeten Daten der DNB nicht einheitlich gewesen seien und deshalb nachbearbeitet werden mussten. Das kann nicht stimmen, oder?]
In der ersten Sichtung und Ordnung dieses Korpus zeigt Haeske, wenn auch nicht unerwartet, dass die Verwendung des Begriffes Kompetenz keinen Regeln folgt, sondern quer über die Themenfelder, verbunden mit anderen Begriffe oder als eigenständiger Begriff genutzt wird. Zwar gibt es Häufungen im pädagogischen, politischen und ökonomischen Feld, aber keine erkennbaren einheitlichen Verwendungsweisen.
Im nächsten Schritt wertete Haeske die Monographien und Herausgeberwerke, die eine klarere Definition des Kompetenzbegriffes versprechen, inhaltlich auf genau das aus: die impliziten und expliziten Definitionen des Kompetenzbegriffes. Dabei stößt er erstaunlich oft auf das Eingeständnis, dass eine solche Definition nicht existiert und gegeben werden kann. Gleichwohl hält er – was im Anschluss an Foucault eigentlich selbstverständlich ist – fest, dass der Diskurs um Kompetenz eine Subjektivität schafft, auf welche die Individuen reagieren. Dieser Subjektivität ist eine beständige Reflexion der eigenen Handlungen, eine Verortung des eigenen Lernweges anhand von Zielbestimmungen und der Verantwortung, zu lernen eigen (Selbstorganisation der Subjekte). Gleichzeitig enthält der Kompetenzbegriff des Versprechens, Differenzen zwischen Bildung und Anforderungen (gesellschaftlichen und solchen des Arbeitsmarktes) in gewisser Weise zu heilen. Kompetenz würde beständig als Mittel beschrieben, sich an Anforderungen anzupassen. Dabei würde dem Kompetenzbegriff eigen sein, dem Subjekt immer wieder klar zu machen (oder es dazu zu bringen, sich selber klar zu machen), dass es noch nicht ausreichend kompetent sei. Es würde also ständig eine Differenz zwischen möglicher, besserer Kompetenz und der vorhandenen konstatiert, was zu einer fortgesetzten Aneignung und Transformation von Kompetenzen führen solle.
Schließlich weist Haeske auf dem Umstand hin, dass unter „Kompetenz“ immer wieder die Anpassung des Subjektes an Anforderungen verstanden und beschrieben wird, aber nicht die theoretisch wachsende Widerstands-Kompetenz. Wenn ein Subjekt, welches kompetent ist oder dabei ist, es zu werden, beständig zur Reflexion und Neuplanung des eigenen Entwicklungsweges gedrängt wird, wachsen selbstverständlich auch die Widerstandspotentiale der Subjekte. Wer darüber nachdenkt, was er oder sie lernt oder lernen soll, kann auch immer zu dem Ergebnis kommen, es nicht (mehr) tun zu wollen, etwas anderes lernen zu wollen oder aber seine Kompetenz anders zu verwenden. Der Fakt selber istnicht erstaunlich, sondern spätestens seit der Aufklärung immer Teil von Bildungsdebatten gewesen. Erstaunlich ist allerdings, dass dies tatsächlich kaum thematisiert wird, so als ob eine kompetenz-orientierte Bildung zu Subjekten führen würde, die alle bei ihren Zielen von Bildung übereinstimmen würden.

Die Offenheit des Kompetenzbegriffes in der Bildungspolitik
Der Vorwurf, den Anne Müller-Ruckwitt, am Ende ihrer Dissertation (Müller-Ruckwitt, Anne / „Kompetenz“ : Bildungstheoretische Untersuchungen zu einem aktuellen Begriff. – [Bibliotheca Academica, Reihe Pädagogik ; 6]. – Würzburg : Ergon Verlag, 2008) ausformuliert hat, lautet, dass der Kompetenzbegriff, so wie er von den PISA-Studien beziehungsweise dem PISA-Konsortium eingeführt wurde und dann in der Bildungspolitik und -planung verwendet wurde, keine bildungstheoretische Einbindung hat und den eigenen Ansprüchen durch seine relative Beliebigkeit nicht entsprechen kann.
Dabei vertritt sie die interessante, und bei ihr auch durch sprachgeschichtliche und konzeptionelle Fakten untermauerte, These, dass der Begriff Kompetenz gerade nicht, wie es gerne behauptet wird, ein international geteilter wäre, sondern vielmehr – ähnlich wie bei „Bildung“ – einen deutschen Containerbegriff darstellen würde, der zwar übersetzt werden könnte, aber in anderen Gesellschaften (wobei sie weder die österreichische noch die schwitzer Gesellschaft betrachtet) anders verstanden würde, als in Deutschland.
Die PISA-Studien seien auch angetreten, um in gewisser Weise – wie es die Autorin so blumig ausdrückt – den gordischen Knoten des „Zukunftsparadoxons“ zu durchschlagen. Bildung, insbesondere wenn sie längerfristig ist (wie bei Schulen), hat immer mit dem Problem umzugehen, dass sie Menschen jetzt für eine Gesellschaft ausbilden soll, die erst noch kommen wird. Sie muss Wissensbestände vermitteln, die später einmal relevant werden, in einer Zeit, in der die Gesellschaft anders sein wird. Das ist ein beständiges Problem. Wir können heute auf eine Anzahl gescheiterter Versuche zurückblicken, dass zu bewerkstelligen. Selbst die Versuche, direkt aus Berufsanforderung zu vermittelnde Wissensbestände abzuleiten, führten nicht zum gewünschten Ergebnis.
Die PISA-Studien würden nun mit dem Kompetenzmodell versuchen, dieses Problem zu lösen, indem sie eine Grundbildung definieren, die sich als Potentiale zur Lebensbewältigung definieren. Bildung würde, so Müller-Ruckwitt, funktionalistisch und auf die einzelnen Individuen bezogen verstanden. Damit, das alles als Kompetenzen nicht nur eingeteilt, sondern zudem als messbar begriffen wird, würde auch die Vorstellung vermittelt werden, dass praktisch alles lernbar sei und es nur von den Umständen (zum Beispiel der Schule oder der Unterrichtsgestaltung) und den Individuen abhängen würde, ob etwas gelernt oder nicht gelernt würde.
Allerdings, so Müller-Ruckwitt, würde das PISA-Konsortium sich nicht daran versuchen, diese Grundbildung herzuleiten oder gar zu begründen. Es würde auch kein Rückschluss zu Bildungstheorien versucht. Vielmehr würden im Laufe der unterschiedlichen PISA-Studien unterschiedliche Bildungskonzepte relativ beliebig beziehungsweise funktionalistisch aufgerufen. Das würde es allerdings sehr schwer machen, überhaupt über das Kompetenzmodell der PISA-Studien zu debattieren: Es steht ja nicht wirklich fest. Es würden vielmehr Fragen relativ pragmatisch offen gelassen:

„Inwieweit lassen sich Vorstellungen persönlicher und wirtschaftlicher Art miteinander vereinbaren? Handelt es sich um zumindest partiell kongruente Dimensionen oder werden in der Formulierung ‘in persönlicher und wirtschaftlicher Hinsicht’ nicht zwei ganz unterschiedliche Referenzebenen bemüht?
Wie ist es zu verstehen, wenn von der anzustrebenden ‘aktiven Teilnahme am gesellschaftlichen Leben’ die Rede ist? Bemisst sich ‘aktive Teilnahme’ an der Fähigkeit zur Integration in ein im Vorhinein verfasstes gesellschaftliches Leben oder an der bewussten und reflektierenden Mitgestaltung desselben? Geht es in diesem Punkt um den Menschen in seiner gesellschaftlich-kulturellen Rolle und mit seiner berufsbezogenen Qualifikation oder dem Menschen in seinem Personsein?“ [Müller-Ruckwitt a.a.O., S. 34]

„Die PISA-Studien stellen aus sich heraus – entgegen dem selbstgesetzten Anspruch – keinen qualitativen Zugewinn für den Bildungsdiskurs dar. Dass sie aber sehr wohl zur Auseinandersetzung mit der Frage der Aktualität und Noch-Zeitgemäßheit des tradierten Bildungsbegriffs anregen, indem sie mit großer Nachhaltigkeit einen neuen Schlüsselbegriff, i.e. Kompetenz, in die Diskussion um Bildung einführen, ja dass sie mit ihren theoretischen Defiziten und der nachgewiesenen begrifflichen Unkontuiertheit geradezu dazu provozieren, zeigt das bildungs- und schulpolitische Echo, das PISA auslöst.“ [Müller-Ruckwitt a.a.O., S. 55]

Müller-Ruckwitt geht im weiteren Verlauf ihrer Arbeit auf die zahlreichen bildungspolitischen Projekte, die sich im Umfeld der PISA-Studien etablierten, ein und untersucht dort die Verwendung des Kompetenzbegriffes. Das Ergebnis ist, dass sich dort die Verwendung noch weiter als bei den Studien selber auf sehr unterschiedliche Vorstellungen bezieht.
Zudem weist sie auf ein Paradoxon des Kompetenzbegriffes hin: Einerseits geht der Kompetenzbegriff daran, engen Begriffen von Bildung (beispielsweise Qualifikation oder Schlüsselqualifikation) zu widersprechen. Das Individuum und dessen Potentiale soll im Mittelpunkt der komptenzbasierten Bildung stehen. Dies impliziert eine Individualisierung von Bildung. Gleichzeitig geht Kompetenz mit dem Versprechen einher, diese relativ offenen Bildungsinhalte, die ja beispielsweise auch Motivationen umfassen, messen und in unterschiedlichen Kompetenzstufen systematisieren zu können. Das ist tatsächlich paradox und bislang auch nicht aufgelöst. Die Kompetenzmessungen, die in der Bildungsforschung vorgenommen werden, entwerfen immer weiter quantitativ zu erhebende Daten, obgleich der Kompetenzbegriff qualitative Studien nahelegt.
Müller-Ruckwitt sieht im Kompetenzbegriff gerade wegen der Gegnerschaft zu engen Bildungsbegriffen auch Chancen für die Bildung, sobald der Begriff bildungstheoretisch rückgebunden wird. Gleichzeitig zeigt sie auf, dass er bislang relativ beliebig genutzt wird. Zudem zeigt sie, dass auch der Kompetenzbegriff historisiert werden kann und er deshalb gerade nicht, wie das teilweise implizit unterstellt wird, selbstverständlich ist.

Kritik der sozialen Vereinheitlichung
Eine kurze Anmerkung: Aufgabe der Kritik ist es, Kritik zu üben – nicht zu sagen, wie es richtig sein soll. Teilweise scheint dies heute vergessen zu sein. Kritik, im Sinne zum Beispiel der Kritischen Theorie aber auch der Machtanalytik von Foucault, ist immer dazu da, von der Gesellschaft zurückzutreten und ihre Wirkmechanismen zu verstehen, nicht (nur) um sie zu verändern, sondern auch um sich – wie es Max Horkheimer ausgedrückt hat – nicht dumm machen zu lassen. Eine solche Kritik – die sich radikal von Evaluationen unterscheidet, die heute auch gerne einmal als Kritik bezeichnet werden, aber auch von Flamewars – unternimmt Andreas Gelhard (Gelhard, Andreas / Kritik der Kompetenz. – Zürich : Diaphanes, 2011) für den Kompetenzbegriff, obgleich er sich dabei vor allem auf die berufliche Bildung und die berufliche Kompetenz bezieht.
Dabei versteht er Kompetenz und Kompetenztests als aktuelle Version der Kontrollgesellschaft, als Fortsetzung der von Foucault beschriebenen Transformation von Beichte zur Kontrolle im Sinne des benthamschen Panoptikums. Kompetenztests werden bei Gelhard verstanden als Kontrollmechanismen, welche Subjekte formt – beziehungsweise, auch wenn er das nicht so sagt, über Anrufung (nach Althusser) zur beständigen Selbstreflexion und Selbstformung anhält –, ohne direkten Zwang anzuwenden. Vielmehr würden Kompetenztest beständig, aber nachdrücklich auffordern, sich zu messen, zu beobachten und zu verändern. Wie schon Haeske festgestellt hat, wird eine beständige Differenz zwischen notwendig zu erwerbender Kompetenz und vorhandener Kompetenz behauptet, den Subjekten also klar gemacht, dass sie sich verbessern müssten. Dabei bezieht sich dieses Besser-werden gerade nicht allein darauf, besser auf Anforderungen des Arbeitsmarktes zu reagieren, sondern geht immer mit dem Anspruch einher, bessere, im Sozialkontext agierende Menschen zu formen.

„Die zeitgenössischen Testverfahren nehmen nicht das Urteil Gottes vorweg, sondern gleichen die Selbsteinschätzungen des Probanden mit der Beurteilung durch Vorgesetzte, Mitarbeiter und Kollegen ab.“ [Gelhard a.a.O., S. 64]

„Die rapide Verbreitung psychologisch instrumentierter Kompetenztests hat in diesem Zusammenhang also denselben Effekt wie die Verlagerung zahlreicher Prüfungssituationen ins Informelle: Sie erweitert den Bereich überprüfbarer Situationen, Handlungsmuster und seelischer Dispositionen.“ [Gelhard a.a.O., S. 111]

Die Besonderheit in Gelhards Analyse besteht darin, die Kompetenztests im beruflichen Feld zu untersuchen und ihre Wirkungsweisen zu beschreiben. Die Verbindung zwischen den Kompetenzbegriffen im pädagogischen Feld, dem beruflichen Feld und anderen Feldern (beispielsweise dem bibliothekarischen) wurde bislang offenbar noch nicht unternommen.
Gelhard beschreibt aber einige weitere Versprechen, die dem Kompetenzbegriff inhärent sind, aber selten ausgesprochen werden.

„Die Idee einer gerechten Kompetenzförderung [die von Luc Boltanski und Éve Chiapello in ‘Der neue Geist des Kapitalismus’ als moderne politische Forderung angesehen wird, K.S.] lebt von demselben Versprechen, das auch die Leistungsbereitschaft der Arbeitnehmer in der ‘Projektpolis’ aufrechterhalten soll: dass bei noch so unsicheren Arbeitsbedingungen und noch so geringer Bezahlung immer auch etwas für das berufliche Fortkommen abfällt.“ [Gelhard a.a.O., S. 110]

Dieser Verweis ist ernst zu nehmen: Kompetenz wird immer wieder als positives Ziel begriffen, fraglich ist allerdings, ob das unbedingt zutrifft oder ob er nicht auch dazu benutzt wird, politisch zumindest umstrittene Entwicklungen zu begleiten. Gelhard verweist zudem auf die Schwierigkeit, dass der Kompetenzbegriff – und hier kann man sich auch direkt auf das pädagogische Feld beziehen – auf dem Bild einer konfliktlosen Gesellschaft aufbaut, die sich nicht mit dem Bild einer demokratischen Gesellschaft, in der Konflikte ja existieren, geäußert und gelöst werden sollen, deckt.

„Das politische Ideal dieses Systems ist die Auflösung aller politischen Antagonismen durch gezieltes social training oder, mit Arendt gesprochen, die Auflösung des Politischen im Sozialen.“ [Gelhard a.a.O., S. 147]

Dem muss man nicht unbedingt zustimmen. Allerdings kommt Gelhard – wenn auch über einen Umweg über Boltanski und Chiapello, denen zu widersprechen er sich offenbar vorgenommen hat – zu dieser Aussage, indem er etwas tut, was der Kompetenzdiskurs ansonsten gerade nicht zu tun scheint: Er historisiert und verortet den Kompetenzbegriff in der philosophiegeschichtlichen Auseinandersetzung mit der Gesellschaft. Dem zu widersprechen ist eigentlich nur möglich, indem sich auch auf eine philosophische Ebene begeben und die Grundbegriffe des Kompetenzdiskurses dargelegt würde – was, wie Müller-Ruckwitt gezeigt hat, nicht so einfach möglich sein wird. Insoweit übernimmt Gelhard tatsächlich die weiter oben angesprochene Funktion der Kritik. Zumindest aber sollte man also aufpassen, was man „mitmeint“ und welche Grundaussagen über Menschen und Gesellschaft man trifft, wenn man den Begriff Kompetenzbenutzt. Er ist halt – im Guten wie im Schlechten – kein Synonym für Fähigkeit oder Qualifikation.