Über den Desktop nachdenken. Gnome 3 u.a.

<!– @page { margin: 0.79in } P { margin-bottom: 0.08in; text-align: justify; page-break-before: auto } P.western { font-size: 10pt } P.cjk { font-size: 10pt } A:link { so-language: zxx } –>

Es gab eine Zeit, da wurde sehr laut und wahrnehmbar über die Mensch-Maschinen-Kommunikation, insbesondere bei Computern, nachgedacht. Obwohl dies offenbar immer noch ein Teilgebiet der Informatik ist – inklusive einer aktiven Arbeitsgruppe in der Gesellschaft für Informatik – scheint das Thema in bibliothekarischen Kreisen keine Bedeutung mehr zu haben. Ein PC hat einen Desktop, über den man mit Maus / Touchpad und Tastatur steuert, was der Rechner tun soll – und damit scheint es sich oft zu haben.

Aber: Das ein PC einen Desktop hat und dieser so, wie er funktioniert, funktioniert, ist nicht unbedingt folgerichtig und schon gar nicht alternativlos. Das oft in den Kategorien ein Bildschirm gleich ein Desktop, ein Icon gleich ein Programm oder ein Dokument, dass über ein Programm aufgerufen wird, gedacht und gehandelt wird, ist das Ergebnis von Entscheidungen, die von den ProgrammierInnen und DesignerInnen der Desktops getroffen wurden. Das ist nicht irrelevant, weil es unsere Arbeitsprozesse und auch unser Denken über Computer steuert.

Wandel der Mensch-Computer-Schnittstellen

Dieses Fehlen des Nachdenkens über den Desktop irritiert ein wenig, wenn man bedenkt, dass wir alle in den letzten Jahren mit den Smartphones und den Pads live erlebt haben, wie neue Interaktionsmodelle zwischen Mensch und Maschine aufkommen und das Arbeiten mit technischen Geräten beeinflussen. Das Tippen und Wischen auf den Bildschirmen der Android- und I-Phones und Pads ist jetzt schon wieder Allgemeingut, obgleich es ab 2007 erst einmal als neues Konzept etabliert werden musste. (Man erinnert sich vielleicht noch, dass die „alten“ Handys sehr klar zwischen Tastatur und Bildschirm unterschieden und dies auch als selbstverständlich galt.) Dennoch scheint sich diese Erfahrung nicht auf den Umgang mit Computern übertragen zu haben.

Betriebssystem ungleich Desktop

Gnome 3, die neue Version des Gnome-Desktops, ist eine Chance – nach Sugar und KDE 4 im Jahr 2008 –, diese Leerstelle einmal zu thematisieren. Es gibt eigentlich keinen direkten Zusammenhang zwischen einem Desktopsystem und einem Betriebssystem. Das Betriebssystem organisiert quasi die Arbeit eines Rechners, das Zusammenspiel der einzelnen Komponenten, die Rechnenoperationen und Ausgabebefehle; während das Desktopsystem die Schnittstelle zwischen dem unterliegenden Betriebssystem – oder nennen wir es gleich richtig, dem Kernel – und den NutzerInnen darstellt.

Das Desktopsystem übersetzt in gewisser Weise zwischen NutzerInnen und Rechner, strukturiert aber auch den Zugriff auf Daten, Programme und so weiter. Nun ist dieses Desktopsystem nicht per se mit dem Kernel verbunden. Windows und Mac-OS haben einen Standard-Desktop. Eigentlich aber ist Windows das Desktopsystem des (jetzt gleichnamigen) Windows-Betriebssystems. Für diejenigen, die sich noch erinnern: Bis zu Windows 3.1 hieß das Betriebssystem MS-DOS und konnte auch direkt mit anderen Oberflächen, insbesondere dem Norton-Commander, oder aber direkt bei DOS-Befehlen angesprochen werden. Windows war eine Oberfläche, die erst gestartet wurde, nachdem der Kernel schon lief. Theoretisch ist das immer noch so, aber es wird – ebenso wie bei Mac-OS – der Eindruck erzeugt, dass Desktop und Kernel zusammen gehören würden.

Bei anderen Betriebssystemen ist dies allerdings anders. (Eigentlich ist es auch bei Windows und Mac-OS möglich, andere Desktopmanager zu verwenden. Explizit zum Ziel gesetzt hat sich dies das KDE for Windows-Project.) Es existieren zahlreiche weitere Desktopmanager, die jeweils auf den Kernel – egal ob jetzt Linux, Unix, BSD, Minux oder andere – aufgesetzt werden können. Es gibt zwar einige Betriebssysteme und Distributionen (Zusammenstellungen eines Betriebssystems mit spezieller Software, also beispielsweise die zahllosen unterschiedlichen „Linuxe“), die sich für einen Manager als Standard entscheiden, aber auch das lässt sich schnell wieder durch die NutzerInnen ändern. Mehr noch: Es ist möglich, mehrere Desktop-Manager nebeneinander zu installieren, die dann auf die gleichen Daten zugreifen können. Die manchmal getroffen Aussage, man hätte schon einmal ein Linux gesehen und wüsste deshalb, wie es aussieht und funktioniert – wie das bei Windows zumindest für die jeweilige Version möglich ist – ist deshalb immer falsch: Man hat einen Desktop-Manager gesehen, aber ob dort wirklich ein Linux-Kernel drunter lief, kann man noch nicht mal sagen. „Andere“ Linux-Systeme sehen anders aus und funktionieren auch anders.

Die Anzahl der Desktop-Manager ist relativ groß, weil sie unterschiedlichen Philosophien folgen und Anforderungen erfüllen sollen. Es gibt eine ganze Reihe, die vor allem für ältere Rechner mit geringer Leistung ausgelegt sind, wie zum Beispiel das bei Puppy Linux (das vom USB-Stick läuft und nur 128 MB groß ist) benutzte JWM. Es gibt aber auch drei, eigentlich schon vier, große Desktops, die sehr explizit versuchen, die Kommunikation zwischen NutzerInnen und Rechner, Daten und Programmen umzugestalten und neu zu denken. Diese sind Sugar (welches auch als Windows-Desktop existiert), KDE, Gnome und – realtiv neu – Unity. Das einst richtungsweisende Enlightenment entwickelt sich leider nur noch langsam weiter.

Es lohnt sich, einmal mit allen diesen Desktops zu spielen beziehungsweise, sie sich länger anzuschauen. Dazu ist fast kein Aufwand mehr nötig.

  • Sugar läuft vom USB-Stick. Wie der zu installieren ist, steht im Wiki des Projektes.

  • KDE wird zum Beispiel auf den Live-Systemen von OpenSuse oder Kubuntu eingesetzt (die man runterladen, brennen und dann benutzen kann).

  • Gnome 3 läuft auf der Live-DVD von Fedora (die genauso wie von OpenSuse verwendet wird. Gnome 2.x findet man noch auf der Live-DVD von OpenSuse mit Gnome-Version).

  • Unity läuft auf der Live-DVD von Ubuntu (ebenso: runterladen, brennen, ausprobieren).

Kurzvorstellung von vier Desktop-Managern

Ganz kurz lassen sich die Unterschiede der Desktop-Manager aufzählen. Eine Gemeinsamkeit (die in den letzten Jahren auch von Mac-OS übernommen wurde) ist, dass sich keiner der Manager auf einen Desktop pro Bildschirm beschränkt. Man kann sich dies ungefähr so vorstellen: Wenn bei Windows der Bildschirm quasi einen Schreibtisch darstellt, dessen Ränder mit dem Bildschirm übereinstimmen, und auf dem Daten, Ordner, Programme und die Taskleiste abgelegt sind; hat man bei den anderen Managern mehrere Schreibtische nebeneinander, eher schon Pinnwände, zwischen denen auf einem Bildschirm hin- und hergeschaltet werden kann. Teilweise funktioniert das mittels Tastaturkürzel, über Klicks oder auch darüber, dass mit der Maus an die linke oder rechte Kante des Bildschirms gefahren wird. Der Vergleich mit den Schreibtischen trägt nur eine Weile, aber dazu später. Diese Funktion erhöht erstaunlicherweise die Übersichtlichkeit und auch die Geschwindigkeit beim Arbeiten am Rechner, obgleich dies vielleicht für Menschen, die sonst nur mit Windows arbeiten, einige Eingewöhnungszeit braucht.

Weiterhin bieten fast alle dieser Manager die heutzutage eher Mac-OS zugeschriebenen Docks an, auf denen die wichtigsten Programme und gerade geöffneten Dateien direkt anklickbar am Bildschirmrand liegen. Diese Docks, wenn auch nicht so ästhetisch, sind Teil fast aller Desktop-Manager seit den Unix-Tagen. Nur weil sie bei Windows nicht als Standard übernommen wurden, scheint es heute so, als wären sie eine Mac-spezifische Lösung.

Sugar

Sugar ist ein Manager, der für die 100-Dollar-Laptops des OLPC-Projects geschrieben wurde. Er ist nach didaktischen Grundsätzen aufgebaut und vor allem so, dass er auch für Kinder, die nicht des Lesens mächtig sind und – da der 100-Dollar-Laptop vor allem für dritte und vierte Welt-Länder gedacht ist – auch mit den anderen Kommunikationsprodukten, die uns umgeben, noch nicht in Kontakt gekommen sein müssen. Er ersetzt zum Beispiel einzelne Schrift mit Graphik und Programme mit Funktionen (also beispielsweise nicht LibreOffice / OpenOffice / Word etc., sondern „Schreiben“, nicht Gimp, sondern „Malen“ und so weiter). Ebenso werden Dokumente als Aufgaben behandelt und deshalb nicht geschlossen. Fängt man einmal an, ein Bild zu zeichnen, bleibt dieses geöffnet, auch wenn der Rechner heruntergefahren wird – ungefähr so, wie ein Bild auf einem Schreibtisch, dass auch nicht runterfährt, sondern nur am Ende irgendwo abgeheftet wird.

Sugar ist hier vor allem deshalb interessant, weil er verschiedene Fragen aufwirft. Warum muss man überhaupt in Dokumenten denken und nicht, wie sonst oft, in Aufgaben und Projekten? Warum muss man sich mit Programmen auseinandersetzen und nicht mit den Grundfunktionen, die man einfach ausüben möchte? Offenbar lässt sich ein Rechner auch anders begreifen. (Ob das gut ist, ist eine andere Frage.)

Zudem ermöglicht Sugar, dass die Bedienung mit der Zeit komplexer wird beziehungsweise die Komplexität nach und nach dazugeschaltet werden kann. Dies ist didaktische sinnvoll, ermöglicht es doch, Menschen (es arbeiten ja nicht nur Kinder mit dem Laptop) an Rechner heranzuführen. Bei anderen System kriegt man zumeist eine Komplexität vorgesetzt und muss damit umgehen.

KDE

KDE war der erste Desktop-Manager, der mit dem Anspruch antrat, Linux und andere freie Systeme mindestens genauso einfach bedienbar zu machen, wie dies bei Windows und Mac-OS der Fall war. Dieses Ziel ist lange erreicht, seitdem versucht KDE – spätestens seit der Version 4.x – darüber hinaus zu gehen und andere Funktionalitäten einzubauen. So wurde das Messeaging in den Desktop integriert.

Eine der interessanten Funktionen ist wohl, dass die Dateien gar nicht direkt auf dem Desktop liegen, sondern in einem gesonderten Fenster, dass ungefähr die gleiche Wertigkeit hat, wie andere Fenster, die auf dem Desktop angeordnet werden können. Dies macht den Desktop tatsächlich aufgeräumter. Bleibt man in der Schreibtisch-Metapher, werden auf dem Schreibtisch praktisch Boxen aufgestellt (die man beliebig drehen und skalieren kann), in denen alle Daten, kleinen Programme und so weiter hineingelegt werden. Auf dem Schreibtisch selber liegt nichts, was nicht in den Boxen ist.

Unity

Unity war eine Bearbeitung des Gnome-Desktops, die explizit auf Netbooks zugeschnitten war. Canonical, die Firma hinter Ubuntu / Kunbuntu / Xubuntu / Edubuntu hatte die Herausforderung angenommen, den Platz auf dem Bildschirm der kleinen Rechner möglichst sinnvoll auszunutzen und – angenommen, sie stellen Arbeitsgeräte dar – die Arbeit auf ihnen möglichst effektiv zu gestalten.

Dazu wurde der Desktop quasi vollständig frei geräumt. Die Taskleiste wurde, wie das oft gehandhabt wird, an den oberen Rand verlagert (beziehungsweise wurde das direkt von Ubuntu übernommen), die wichtigsten Programme links an den Rand auf einen Dock mit einem „Ziehharmonika“-Effekt gelegt (welcher bewirkt, dass das Dock scrollbar wird, wenn die Programme und geöffneten Dateien zu viel werden). Die Programme lassen sich auf mehreren Desktops anordnen, zwischen denen per Maus und Tastatur umgeschaltet werden kann. Ansonsten bleibt der Hintergrund – also praktisch wieder die Tischoberfläche – leer.

Ubuntu ist unzufrieden mit der Entwicklung des Gnome-Desktops zu Gnome 3 (und steht damit nicht alleine) und hat deshalb beschlossen, Unity als Standard-Desktop auch für andere Rechner als Netbooks weiterzuentwickeln.

Gnome 3

Die neuste Entwicklung der Desktop-Manager stellt nun Gnome 3 dar. Gnome 3 ist der Nachfolger der Gnome 2.x-Reihe. Aufgrund dessen, dass das Gnome-Team in dieser Version sehr eigenmächtig grundlegende Entscheidungen getroffen hat, wurde es relativ heftig kritisiert. Deshalb hat sich Canonical auch entschieden, Gnome 2.x mit Unity zu forken, was allerdings bei Freier Software auch immer als Möglichkeit angelegt ist und nicht unbedingt schlecht sein muss. Insbesondere die Entscheidung, möglichst viele Einstellungsmöglichkeiten zu „verstecken“ sieht ein Großteil der Linux-Gemeinde kritisch. Allerdings argumentiert das Gnome-Team, dass es größten Wert auf die Benutzbarkeit legt und somit NutzerInnen im Blick hat, die möglichst wenig einstellen und verändern wollen. Diese gegensätzlichen Positionen haben, wie vorherzusehen war, dazu geführt, dass zahlreiche Programme programmiert wurden, um die „versteckten“ Funktionen wieder sichtbar zu machen. (Da sie eh in einzelnen Dateien stecken, können sie von Leuten, die wissen was sie tun, selbstverständlich immer mit Root-Password und einem Editor verändert werden. Aber das ist keine wirklich befriedigende Lösung.)

Die Besonderheit bei Gnome 3 ist nun, dass praktisch vollständig von der Schreibtisch-Metapher abgesehen wird. Es ist überhaupt nicht mehr möglich (außer man setzt ein extra Programm dafür ein), Dokumente und Programme auf dem Desktop abzulegen. Vielmehr trennt Gnome 3 Programme – verstanden als Funktionen – Daten und Dokumente sowie die Arbeitsflächen strikt voneinander.

Gnome 3, Bild 1 

 Das erste Bild zeigt einen solchen Desktop (inklusive eines Bildschirmhintergrundes aus Jamaika, wie an sich alle Bildschirmhintergründe aus Jamaika sein sollten) in der aktuellen Fedora-15 Version. Die Leere der Oberfläche soll in konzentriertes Arbeiten ermöglichen, da tatsächlich nur die Dateien geöffnet werden, mit denen gerade gearbeitet wird und möglichst nichts überflüssiges im Blickfeld herumliegt.

Das Aufrufen der Programme, Dateien und Oberfläche erfolgt beispielsweise durch eine Mausgeste (Maus in die links, obere Ecke bewegen).

Gnome 3, Bild 2 

 Bild zwei zeigt die Ansicht, die mit der Mausgeste aufgerufen wird. Sichtbar ist, dass links – wie bei Unity – die wichtigsten Programme angeordnet sind, während die auf der aktuell benutzten Oberfläche laufenden Programme in der Mitte sichtbar sind. Rechts, hier ausgefahren, sind die aufgerufenen Oberflächen sichtbar, durch die mit einem Mausklick gewechselt werden kann. In dieser Ansicht lassen sich die Programme beliebig zwischen den Oberflächen hin- und herschieben. Wird auf der letzten Oberfläche ein Programm hinzugefügt, wird automatisch einer weitere leere Oberfläche geöffnet. Andere leere Oberflächen verschwinden hingegen.

 Gnome 3, Bild 3 

 Der Aufruf einer Oberfläche – zwischen denen dann auch noch per Tastaturkürzel gewechselt werden kann – zeigt dann nur die dort laufenden Programme an, wie in Bild 3 zu sehen ist. (Wobei hier ein Netbook verwendet wurde und die Oberfläche bei zwei laufenden Programmen – Gimp und der Dateimanager – schon voll aussieht. Aber wie viel voller würde es mit Dateien auf dem Desktop und anderen laufenden Programmen im Hintergrund aussehen?

 Gnome 3, Bild 4 

 Das vierte Bild zeigt noch einmal die Ansicht mit allen Programmen, die – wie rechts am Rand sichtbar ist – auch noch einmal in Gruppen unterteilt sind, an. Durch die laufenden Programme kann zudem, wie bei fast allen anderen Desktop-Managern, per Alt+Tab gewechselt werden, zudem lässt sich – zumindest in der Fedora-Version, die ich hier gerade nutze – alles auch per Tastatur aufrufen, wie sich dies für Linux gehört.

<!– @page { margin: 0.79in } P { margin-bottom: 0.08in; text-align: justify; page-break-before: auto } P.western { font-size: 10pt } P.cjk { font-size: 10pt } A:link { so-language: zxx } –>

Fragen zum Desktop

Wie Gnome 3 wirklich funktioniert, lässt sich in Bilder nicht gut ausdrücken. Dies gilt auch für die anderen Manager. Ich hoffe allerdings, dass sichtbar geworden ist, wie veränderlich bestimmte Konzepte der Mensch-Computer-Kommunikation sind, die heutzutage fast alternativlos verwendet werden.

  • Warum muss sich zum Beispiel der Desktop als Schreibtisch vorgestellt werden? Bei Gnome 3 ist er eine Fläche, die aufgerufen wird, wenn sie nötig ist. Warum die Beschränkung auf einen Desktop, der immer da ist?

  • Warum müssen Programme und Dateien eigentlich die gleiche Wertigkeit haben, wie dies auf dem Windows-Desktop, aber auch anderen Desktops, durch quasi gleichwertige Icons symbolisiert wird? Eigentlich sind dies zwei unterschiedliche Dinge.

  • Warum müssen Programme als Programme begriffen werden, wenn sie doch – wie das bei Sugar umgesetzt ist – auch als Funktionen genutzt werden können?

  • Noch nicht in Gnome 3 integriert, weil es entgegen der Pläne noch nicht fertig ist, ist der Dateimanager Zeitgeist. Zeitgeist soll die Daten nicht hierarchisch strukturieren (also in Ordnern und Unterordnern), sondern nach dem Zeitpunkt und der Häufigkeit des Aufrufs. Zudem sollen Dateien mehrfach in Gruppen geordnet werden können (ungefähr so, wie man im OPAC Medien mehreren Sammlungen zuordnen kann, während sie bekanntlich in der realen Bibliothek immer nur an eine Stelle gestellt werden können). Wie sich dies handhabt, muss man sehen, wenn Zeitgeist in einigen Monaten fertig ist. Aber auch hier stellt sich die Frage, warum Daten eigentlich hierarchisch strukturiert werden müssen.

Die Beschäftigung mit den unterschiedlichen Desktop-Managern und den dahinter stehenden Konzepten lässt immer wieder neu solche und ähnliche Fragen aufkommen. Es wäre zu wünschen, wenn sich im Bibliothekswesen, wo so viel von „Informationskompetenz“ geredet wird, auch über diese Fragen gesprochen wird. Ansonsten ist diese Rede nicht wirklich ernst zu nehmen – wer die Alternativen nicht kennt, kann auch keine Kompetenz aufbauen oder gar den Aufbau bei anderen unterstützen. Das Arbeiten mit und auf dem Windows-Desktop, zumindest das Unreflektierte, führt selbstverständlich dazu, dass man die Arbeit am Rechner nur in einer Weise begreift, welche den Möglichkeiten und auch den eigentlichen Denkvorgängen beim Arbeiten am Rechner nicht unbedingt gerecht werden muss.

Sicherlich ist Gnome 3 noch lange kein Desktop-Manager, der für Menschen, die noch nie etwas auf der Kommandozeile getan haben, als produktive Arbeitsoberfläche zu empfehlen wäre. Als Testumgebung und Anregung zum Nachdenken über die Arbeit am Rechner und auch den Umgang mit Daten, ist er allerdings neben Sugar, KDE, dem „alten“ Gnome und Unity unbedingt im Blick zu halten.

<!– @page { margin: 0.79in } P { margin-bottom: 0.08in; text-align: justify; page-break-before: auto } P.western { font-size: 10pt } P.cjk { font-size: 10pt } –> <!– @page { margin: 0.79in } P { margin-bottom: 0.08in; text-align: justify; page-break-before: auto } P.western { font-size: 10pt } P.cjk { font-size: 10pt } –>

Persönliche Daten unkontrolliert raushauen: ein Mythos der Informationsgesellschaft?

Jedes neue Medium bringt seine Kritik mit sich. Als Romane populär wurden, ging in gebildeten Kreisen die Angst um, dass nun Frauen ihr Tagwerk vergessen und sich aus der Realität flüchten würden. Als das Fernsehen sich nach dem zweiten Weltkrieg etablierte, ging die Vorstellung um, dass die Menschen zu antisozialen Zombies würden, die vollkommen unkommunikativ auf die Bildschirme starren würden. Auch das Radio wurde als Werkzeug verstanden, welches die Massen zur kulturellen Eintönigkeit erziehen würde. Computerspiele, Computer an sich, elektronische Tanzmusik und elekronische Mittel zur Musikproduktion: regelmäßig fand sich eine Kritik, die vor der unkontrollierten Nutzung der jeweils neuen Medien warnte.
Und diese Warnungen wurden nicht nur von den Kreisen vertreten, die heute als populistisch bezeichnet würden, sondern immer auch von Menschen, die sich intensiv mit der Gesellschaft beschäftigten und mitnichten der einfachen Angst vor dem Neuen bezichtigt werden konnten. Zudem gab es gegen diese Kritik auch immer wieder Utopien, welche die Potentiale der jeweiligen Medien hervorhoben. Und letztlich hatten immer beide Richtungen Unrecht, weil sich die Etablierung der neuen Medien noch ganz anders vollzog.
Beim Radio gibt es das bekannte Beispiel der – in dieser Frage – Antipoden Adorno und Brecht. Adorno verstand das Radio und insbesondere den damals aktuelle Jazz (der bei Adorno für zeitgenössische populäre Musik steht) als geschmacksvereinheitlichend, als kulturelles Abbild des Fordismus, letztlich als entfremdende Kulturindustrie. Brecht entdeckte in seiner Radiotheorie hingegen die Potentiale des Radios als demokratisierendes Medium. Und unbestreitbar waren beide linke Intellektuelle, die von der Notwendigkeit einer radikalen Umgestaltung der Gesellschaft überzeugt waren, keine bedingungslosen Verteidiger hergebrachter Kultur. [Obwohl Adorno bekanntlich nach der Shoa kein Zutrauen zum Proletariat hatte, während Brecht zumindest offiziell überzeugt von dessen revolutionären Aufgabe war.] Und das Radio heute? Nun ja… aber zwischendurch hatten beide Unrecht. Es gab auch gutes Radio.

2008: Nachdem nun allgemein akzeptiert zu sein scheint, dass das Internet existiert und das dort auch etwas anderes zu finden ist, als Pornographie und Nazis und kaum noch Geschichten von seelenlosen Kinder und Nerds erzählt werden, die ihre Realität im Internet verlohren hätten, hat sich in den letzten Jahren eine weitere Kritikströmung etabliert, die auf eine reale Gefahr aufmerksam macht. Insbesondere Web2.0-Angebote würden – so die Kritik – zu einem sinkenden privaten Datenschutzbewußtsein führen.
Diese Kritik ist teilweise verbunden mit nicht einfach zu widerlegenden Hinweisen auf die Tendenz zu immer größeren Datensammlungen durch Firmen (Stichwort: gläsener Kunde) und Behörden (polemisches Stichwort: Stasi2.0). Ansonsten hat sich Einschätzung weitgehend etabliert, dass Menschen in Zeiten des Web2.0 immer mehr dazu tendiert würden, ihre persönlichen Daten unkontrolliert zu verbreiten und für einen geringen Bonus – zum Beispiel für Payback-Karten – an Firmen abzugeben. Daneben finden sich in unzähligen Medien Geschichten über Menschen, die ihre Jobs verliehren, weil irgendwo im Netz ihre Partyphotos auftauchen. Oder die wegen ihrer Internetpräsenz erst gar nicht zum Bewerbungsgespräch eingeladen werden.[1] An einem solchen Verhalten – so die Kritik weiter – würden auch alle Versuche, ein Recht auf informationelle Selbstbestimmung durchzusetzen, letztlich scheitern. Die Menschen würden ja noch nicht mal die heute schon gegebenen Möglichkeiten des Datenschutzes nutzen.

Aber stimmt das überhaupt? Oder ist diese Kritik nicht zumindest zum Teil, so wie hier dargestellt, ein Wiedergänger der Kritik, welche allen Neuen Medien anhaftet, quasi die zeitgenössische Form der adornischen Kritik?
Es gibt zumindest Hinweise, obwohl die empirische Basis gering ist, was allerdings auch für die Kritik zu konstatieren ist. Zumindest findet sich in der neuen Ausgabe der WZB-Mitteilungen der Artikel Kein Ende der Privatheit: Auch jungen Internetnutzern ist Datenschutz wichtig von Andreas Busch. Der Titel fasst die Ergebnisse des Textes auch schon zusammen. Busch greift dabei auf einige Geschichten aus Sozialen Netzwerken und die Ergebnisse zweier repräsentativer Umfragen der Europäischen Union zum Datenschutzinteresse unterschiedlicher Altersgruppen zurück. Letztlich kommt er zu folgendem – in Anbetracht der Entwicklung der heute schon längst etablierten Medien – nicht sonderlich überraschenden Schluss:

„Im selben Maße, wie alte Normen und Regeln im Kommunikationsverhalten verschwinden, entstehen neue. Dieser Prozess ist weder so radikal, noch wird er von den Generationen so unterschiedlich wahrgenommen, wie die [im Text zuvor, K.S.] zitierten Medien nahelegen. Er sollte vielmehr als gesellschaftlicher Lernprozess begriffen werden: Das Internet ist ein vergleichsweise neues Medium und bietet noch ungewohnte Möglichkeiten des Austauschs. Die Unerfahrenheit im Umgang damit dürfte mit der Zeit verschwinden – und zwar bei allen Nutzern, egal ob sie alt oder jung sind.“
[Busch, Andreas (2008) / Kein Ende der Privatheit : Auch jungen Internetnutzern ist Datenschutz wichtig. – In: WZB-Mitteilungen 120/Juni 2008, S. 26-29]

Na denn.

[1] Interessanterweise scheinen die größten Probleme für Menschen bislang durch die Datensammlungen der Schufa zu entstehen. Diese steht allerdings schon länger in der Kritik, weil man die Sammlung und Verwendung seiner Daten bei der Schufa überhaupt nicht beeinflussen kann.

Noch einmal Netbooks und Gesellschaft

Letztens diskutierte ich kurz die Trends auf dem Laptopmarkt, bzw. die Etablierung der Kategorie der Netbooks in den letzten Monaten. Ben Kaden schloss in einem Beitrag im IBI-Blog daran an und wies vollkommen berechtigt auf das Problem der Umweltverschmutzung [nennen wir es doch einfach mal beim Namen] hin. In der aktuellen First Monday diskutiert nun Brendan Luyt den XO des One Laptop Per Child projects, welcher als Initialprojekt für den Trend zum Netbook angesehen wird. Dabei geht er hauptsächlich auf die technischen Innovationsprozesse, die der XO angestossen hat und den pädagogischen Anspruch des Projektes ein.
Leider bezieht Luyt noch nicht das aktuelle Projekt des XO-2 ein [der allerdings anderswo vorgestellt und diskutiert wird: hier, hier, hier und hier], welcher meineserachtens durch seine Anlehnung ans Buch und seinen Verzicht auf eine statische Tastatur interessante Ansätze verfolgt, die auch den „Normalnutzenden“ klarmachen werden, dass die aktuell vorherschenden Formen Tower-Tastatur-Bildschirm oder Laptop-mit-Hochklappen-des-Bildschirms nur zwei mögliche Modelle für Computer sind und die Entwicklung von Rechnern (und Software) freier verlaufen könnte. Der Vorteil solcher Erkenntnis könnte sein, dass mehr Nutzenden ihre Rechner als Maschinen begreifen, die sie unterstützen sollen und nicht als Übergeräte, die diktaorisch nur machen, was sie wollen und die man lieber nicht bei ihren Kreisen stört. Und das wiederum könnte sich auf die Nachfrage nach unterschiedlichen Rechnermodellen niederschlagen. [Die Tablet-PCs alleine haben ja noch nicht zu einer solchen Freiheit in der alltäglichen Computernutzung geführt.]
Interessant ist an Luyts Text, das er den XO im Rahmen eines sich verändernden Kapitalismus situiert. Der Kapitalismus entwickelt sich laut Luyt einerseits in Richtung eines Netzwerk-Kapitalismus, in welchem der Kommunikation als Aktivität eine bedeutende Rolle im Produktions- und Distributionsprozess zukommt und nicht nur die Berufsbiographien, sondern auch die Produktionsprozesse projektförmiger und prekärer werden. Gleichzeitig entsteht im Rahmen dieses neuen Kapitalismus ein Freiraum für soziale Aktivitäten, die global ausgerichtet sind, zumeist von Teilen der (intellektuellen und ökonomischen) Elite der ersten Welt ausgehen und in Form von Non-Profit-Organisationen durchgeführt werden. Der XO beziehungsweise die One Laptop Per Child Foundation und dessen explizit am Lernen neuer Technologien und kollaborativer Spiel- und Arbeitsweisen orientierten Anforderungen an Hard- und Software sind für Luyt ein Beispiel für die Transformation des globalen ökonomischen und gesellschaftlichen Systems.
Luyt geht auf diese Transformationsprozesse nur kurz ein. Aber seine Ausführungen lassen sich in einen größeren Zusammenhang mit sozial- und kulturwissenschaftlichen Trend stellen, der genau diese beiden Entwicklung – Netzwerk-Kapitalismus und Trend zum globalen Engagement neuer NGOs – in den Blick nimmt. [Hierzu sind Der neue Geist des Kapitalismus von Luc Boltanski und Ève Chiapello, Die Moralisierung der Märkte von Nico Stehr, aber auch der Überblicksartikel Globale Wohltäter: Die neuen Weltbürger und ihr Beitrag zum gesellschaftlichen Wandel von Tine Stein in der März-Ausgabe der WZB-Mitteilungen zu zählen. Bekannte NGOs, die sich diesem Trend zuordnen lassen, sind neben der One Laptop Per Child Foundation (Spin Off des MIT Media Lab), Room to Read (von einem Microsoft-Manager gegründet und geleitet), die Bill & Melinda Gates Foundation (DEM Bill Gates), das Open Society Institute (George Soros), aber auch Linux und die Linux-Foundation, die immer noch von einigen Millionären und gut verdienden Programmiern aus der Ersten Welt (USA, Finnland, Kanada) domiert wird und bei dem gleichzeitig vom bislang größten Wissenstransfer aus der Ersten in die restlichen Welt gesprochen wird.]

Was – um darauf noch einmal zurückzukommen – Luyt zeigt, ist dass der XO kein Spielzeug ist [1], dass man einfach ignorieren kann, sondern ein kulturelles Artefakt, in dem gesellschaftliche Trends der Mediennutzung, der sich veränderndern Produktionsverhältnisse und des globalen Denkens einen Ausdruck gefunden haben. Der XO überschreitet dabei auch eine Grenze, die gerne noch in Bezug auf die Computernutzung im Bildungsalltag gezogen wird: der Rechner selber ist Objekt des Spielen und Lernens, nicht mehr nur Maschine für Lernsoftware, die man irgendwie steuern könnte [z.B. indem man vorrangig pädagogische Spielen in einem Bibliotheksbestand aufnimmt]. Dem werden sich weder Bildungseinrichtungen noch Bibliotheken entziehen können, einfach weil dies Trends sind, die weit über die Mediennutzung allein hinausgehen. Es geht um die Etablierung einer neuen Wahrnehmungswelt, was nicht unbedingt schlecht sein muss. [Einen ähnlichen Einfluss hatte die Etablierung von Zeitschriften als Alltagsgegenstand, des Radios und des Fernsehens.]
Und dabei geht es nicht einmal primär um Marketing-Fragen, „Wie uns andere sehen“ oder darum, ob und wie Bibliotheken „cool“ werden können. Es geht darum, dass die Gesellschaft nach und nach aus Menschen bestehen wird, für die die Nutzung moderner Kommunikationstechnologien zum Alltag gehört, die mit diesen ihre Arbeit und Freizeit gestalten, das Kommunizieren über unterschiedliche Internet-Dienste und die Verfügung über große Informationsmengen als selbstverständlich erleben. Das wird seine Zeit brauchen, die Menschen werden diese Medien unterschiedlich und unterschiedlich kompetent nutzen, viele Menschen werden bestimmte Medien oder Web-Angebote gar nicht oder nur für eine bestimmte Zeit ihres Lebens nutzen. Hypes werden vorübergehen, aber der gesellschaftliche Trend wird trotzdem stattfinden. Und diese Leute – und nicht die Leserinnen und Leser aus der Zeit, indem Fernsehen, Zeitschriften und Bücher den Medienalltag bestimmten – werden dann in Bibliotheken kommen und diese ihren Anforderungen folgend nutzen wollen. Und das ist der Grund, warum Bibliotheken sich mit diesen Rechnern und den mit diesen einhergehenden Trends auseinander setzen müssen.

[1] Trotzdem ist er ein unglaublich heftiges Spielzeug der Kategorie unbedingt-haben-wollen.

Ein Trend der letzten Monate: Netbooks

In den letzten Tagen treibt mich eine Frage um, die ich gerne einmal bearbeiten würde: Welche Auswirkung wird der Trend zu kleinen, billigen Laptops mit Internetfixierung für die Informationsnutzung von (potentiellen) Nutzerinnen und Nutzern Öffentlicher Bibliotheken haben?

100-Dollar-Laptop
Vielleicht von vorne. In den letzten Monaten erschienen mehrere kleine Laptops, die explizit klein, billig und mobil sind und teilweise extra für die Nutzung von Web2.0-Diensten ausgelegt sind.
In gewisser Weise können diese Rechner als (ungewolltes) Ergebnis des One Laptop Per Child Projektes (OLPC) beschreiben werden. OLPC hat sich zum Ziel gesetzt, allen Kindern einen modernen Laptop zukommen zu lassen, welcher das spielerische Lernen moderner Techniken und Kommunikationsformen ermöglichen soll. Dafür strebte OLPC die Produktion eines 100-Dollar-Laptops an, der hauptsächlich durch Regierungen von Entwicklungsländern über Schulen verteilt (und finanziert) werden soll. Es gibt Fortschritte bei dieser Mission (beispielsweise steht Peru kurz davor, die Laptops in einem groß angelegten Projekt einzusetzen). Allerdings kostet der Rechner mit dem Namen XO-1 188 Dollar. Das Design ist auf die Bedürfnisse von Kindern in armen Ländern ausgerichtet, der Rechner verbraucht wenig Energie und kann nicht nur mit Strom aus der Steckdose, sondern auch aus zahlreichen anderen Stromquellen – inklusive einer Handkurbel – aufgeladen werden. Ausgestattet ist der Rechner mit allem, was ein Laptop braucht, inklusive Kamera, Mikrophon WLAN-Antennen und USB-Ports. Zudem hat er ein drehbaren Monitor und ist extrem robust. Das Nachfolgemodell XO-2 wurde kürzlich als Projektskizze vorgestellt und soll statt einer Tastatur zwei Touch-Screens besitzen, wie ein Buch aufklappbar (und nutzbar) sein und einfach auf einem der beiden Monitore Tastaturen simulieren, welche sich den Fähigkeiten der Kinder anpassen lassen sollen. Allerdings ist der Speicher der Rechner extrem beschränkt.
Als Betriebssystem wird ein speziell angepasste Version der Linux-Distribution Fedora verwendet.[1] Diese Version soll besonders energieeffizient arbeiten. Zudem ist diese Version mit einer extra entwickelten Oberfläche namens Sugar ausgestattet, welche explizit für Schülerinnen und Schüler, die (noch) nicht Lesen und Schreiben können, konzipiert wurde. Der Zugang zum Rechner soll spielerisch erfolgen, die Kinder sollen direkte Lernerfolge erleben.
Der XO hat einen entwicklungsfördernden Ansatz. Die Hoffnung war, mit der Masse an möglichen Bestellungen – also Bestellungen von Regierungen für alle Schulkinder eines Landes auf einmal – eine Marktmacht zu organisieren, welche die Produktion solch billiger Rechner für die Industrie trotz allem zu einem gewinnbringenden Geschäft machen sollte. Ob das tatsächlich funktioniert, bleibt noch abzuwarten. Ein Erfolg scheint immerhin, dass Microsoft den XO – der, wie gesagt mit Linux arbeitet – für ein so elementares Geschäft hält, dass es lieber eine eigene Version von Windows XP für den Rechner erarbeitet hat, die statt den üblichen 100 Dollar drei Dollar kosten soll.

Kleine Laptops funktionieren, immer besser
Was der XO aber – schon während der Projektphase – bewies, war, dass es möglich ist, leistungsfähige Laptops zu einem relativ geringen Preis herzustellen. Dafür muss man zwar auf einige Dinge – große Festplatten, High-End-Graphikkarten etc. – verzichten, was allerdings hinnehmbar ist, wenn die Rechner für klar definierte Ziele eingesetzt werden sollen, die gerade keine großen Festplatten oder High-End-Graphikkarten benötigen. Und da – trotz dem Boom von Privatvideos – nur ein geringer Teil der Menschen am Rechner Filme schneiden, 2.000-seitige Bücher layouten oder GTA IV spielen will, sind solche Rechner auch außerhalb von Schulen armer Staaten interessant. Zumal mit der Entwicklung von Linux und anderen quell-offenen Betriebssystemen in den letzten Jahren leistungsfähige Betriebssysteme zur Verfügung stehen, die auch auf solcher Hardware oft schneller und konsistenter laufen, als Vista, XP oder Mac OS X. [2]

Diesen Beweis, den der XO angetreten hatte, nutzten nun in den letzten Monaten Firmen, um mit und ohne den pädagogischen Ansatz des OLPC-Projektes ähnliche kleine Rechner anzubieten. Dabei wurde der XO selber rund 80.000 mal im Rahmen eines Charity-Programms [man bezahlte zwei Rechner, bekam einen und spendete den anderen automatisch für das OLPC-Projekt] in den USA verkauft. Ein Markt für solche Rechner ist also vorhanden [man hätte ansonsten das Geld auch direkt spenden können]. Intel verkauft seit 2007 eine Classmate PC, der ebenfalls standardmäßig unter Linux läuft und für pädagogische Zwecke eingesetzt werden soll.
Durchschlagender war allerdings der Erfolg des Eee-PC. Diese Rechner sind ebenfalls seit dem letzten Jahr auf dem Markt und prägten einen – noch nicht überall etablierten – Begriff: die Netbooks. Eee-PCs kosten zwischen 299 und 399 Dollar, in Deutschland 299 Euro, sind klein [ein 7“ Monitor bzw. in der neusten Serie ein 8,9“, während – zum Vergleich – ein Mac-Book 13,3“ und ein Samsung Q45 12,1“ groß ist], und sind von ihren Hardware darauf ausgerichtet, zu surfen und kleinere Aufgaben zu bewältigen – beispielsweise kann man Schulaufgaben ohne Probleme schreiben und abspeichern, aber nicht unbedingt Doktorarbeiten. Es gibt – wie beim Mac Book Air – keinen DVD/CD-Laufwerk. Und wieder ist Linux das Hauptbetriebssystem, während Microsoft versucht eine Windows-Variante zu verkaufen, die nur für solche Rechner billiger sein soll. Eee-PCs sind nicht wirklich als Rechner für das tägliche Arbeiten oder das Spielen aktueller Games zu nutzen, sondern hauptsächlich als Zweitrechner zum Surfen. Dennoch kam es in allen Ländern, in denen der Eee-PC angeboten wurde zu Lieferengpässen. Mehr als eine Firma hat Konkurrenzprodukte angekündigt, allen voran One mit dem A120.
Interessant ist in diesem Zusammenhang zudem gOS. gOS ist eine weitere Linux-Distribution. Sie wurde anfänglich für einen sogenannten Wal-Mart-PC, der bei besagter Handelskette für 199 Dollar verkauft wurde, präsentiert. Diese PCs – 10.000 sollen es gewesen sein – waren innerhalb von zwei Wochen ausverkauft, was gewiss nicht nur am Betriebssystem, sondern auch am Preis gelegen haben wird. Dennoch: gOS ist deshalb relevant, weil es ein explizit für das Web 2.0 konzipiertes Betriebssystem ist. Es hat in der Grundeinstellung in seinem Dock [also der Leiste mit den Programmen, wie man sie – unter anderem – vom Mac kennt] hauptsächlich Programme, die direkten Zugriff auf MySpace, News-Seiten und andere Webangebote bieten. Das Betriebssystem selber, also die Oberfläche ist darauf ausgerichtet, das Internet als sozialen Ort zu nutzen. Zumindest einen Anteil am rasanten Verkauf der Wal-Mart-Rechner wird gOS – welches auch problemlos auf anderen Rechnern genutzt werden kann – gehabt haben.

Trend zur Alltagstechnik
Der Trend ist wohl nachvollziehbar: einerseits billige Rechner, die über kurz oder lang bei allen Kindern im Grundschulalter landen werden. Dies, verbunden mit einem funktionierenden pädagogischen Konzept [3], wird sich auf die Nutzung von Informationstechnologien relevant auswirken. Kinder und Jugendliche werden Informationstechnologien tatsächlich als Teil ihres Alltags wahrnehmen. Gegen diesen Trend sind die Debattenbeiträge, welche in der März-Nummer der BuB stehen, weit überholt. Es geht nicht mehr um „Bildschirmmedien“ ja oder nein – es geht um eine Alltagstechnik.
Andererseits – und dies ist der andere Trend – Rechner, die als Internetstationen genutzt werden und gar nicht mehr unbedingt die vielfältigen Anwendungsmöglichkeiten anbieten, die aktuelle Rechner an sich alle haben. Diese Netbooks werden die Nutzung der Internets und einer Anzahl von Web 2.0-Diensten mit hoher Wahrscheinlichkeit noch alltäglicher machen, als sie jetzt schon sind. Und diese Rechner werden in der Jugend- und Alltagskultur ankommen, wie die verschiedenen Konsolen auch längst angekommen sind. Interessant wird in den nächsten Monaten sein, ob diese Netbooks hauptsächlich als Zweitrechner genutzt oder ob gerade ärmere Haushalte auf sie zugreifen werden. Wie gesagt sind sie von der Soft- und Hardware aufs Surfen ausgerichtet, aber Software lässt sich austauschen und Hardware lässt sich anders nutzen, als vorgesehen.[4]

[Außerdem, aber das ist eine andere Sache, scheinen diese Rechner dazu geführt haben, dass Linux in einer relevanten Anzahl von Haushalten als leistungsfähiges Konkurrenzprodukt zu Windows angekommen ist. Welchen Einfluss das auf Windows, den Softwaremarkt, die Open Source-Bewegung, das Verständnis von Rechnern durch die Nutzenden haben wird, bleibt abzuwarten. Eine These von Richard Stallman bei der Initiierung der Free Software Bewegung, aus der auch GNU/Linux hervorging, war immerhin, dass Freie Software zu einer größeren Freiheit der Nutzerinnen und Nutzern führen und die Entwicklung von Software demokratisieren würde. Eventuell entwickelt sich aber zusätzlich aktuell – nachdem seit Mitte der 1990er Jahren nach dem Quasi-Untergang von AmigaOS und DOS ein fast unbestrittenes Monopol von Windows als Betriebssystem auf privat genutzten Rechnern herrschte – eine neue Konkurrenzsituation bei Betriebssystemen. Neben Windows und Linux ist dabei vor allem an das Mac OS zu denken, welches durch den Erfolg von Apple verbreitet wurde. Daneben stehen allerdings noch eine Reihe alternativer Betriebssysteme – Solaris, OpenSolaris, FreeBSD, OpenBSD oder solche (noch) kleinen Projekte wie ReactOS oder AROS – zur Verfügung, die unter Umständen in Zukunft eine größere Rolle spielen könnten. Zumal heutige Rechner – solange sie gerade nicht die hier besprochenen Kleinstrechner mit geringem Speicher sind – problemlos zwei oder mehr Betriebssysteme aufnehmen können.]

Bibliotheken und Alltagskultur
Eventuell ist es übertrieben, aber mir scheint, dass es nicht mehr um Kompetenzen geht, die man erwerben kann oder auch nicht, sondern um die rasante Etablierung einer neuen Kulturtechnik, welche zur Teilhabe an den Diskursen und sozialen Sphären der Gesamtgesellschaft notwendig sein wird; so wie vor einigen Jahren das Fernsehschauen eine Kulturtechnik war [und in weiten Teilen der Gesellschaft noch weiterhin ist], ohne die man schnell außerhalb gesellschaftlich relevanter Diskussionen stehen konnte.
Doch selbst wenn diese Trends nicht gleich in der Etablierung einer Kulturtechnik kumulieren werden, so wird es doch in absehbarer Zeit mehr Kinder und Jugendliche geben, die Rechner nicht als Konkurrenzprodukt zu anderen Freizeitangeboten, sondern als alltäglicher Arbeitsmittel verstehen und nutzen werden.
Die Frage ist nun, welchen Einfluss das auf Öffentliche Bibliotheken haben wird. Kann man das ignorieren? Haben die Internet-Ecken, die nun in den meisten Bibliotheken existieren, in ihrer jetzigen Form überhaupt einen Sinn in einer Gesellschaft, in der der Zugriff auf das Netz Allgemeingut ist? [Nicht zu vergessen, dass Internet-Flatrates für Handys nur noch eine Frage der Zeit sind. Das diese kommen werden, wird nicht mehr zu verhindern sein, nicht zuletzt, da sie in Japan und Südkores seit Jahren gut funktionieren.] Was muss eine Bibliothekarin, ein Bibliothekar eigentlich können, um für Kinder und Jugendliche mit Erfahrungen mit diesen Rechnern, sinnvoll arbeiten zu können? Man darf nicht vergessen, dass zahlreiche Ansätze für bibliothekarische Veranstaltung ja gerade den Anspruch erheben, an der Realität und den realen Problemen von Kindern und Jugendlichen anzusetzen und diese über die Thematisierung ihrer Lebenswelt zu Lernprozessen zu ermutigen.
Es sind weit mehr Fragen möglich. Wichtig erscheint mir aber erstmal festzuhalten, dass in den letzten Monaten [nicht Jahren, sondern Monaten] relevante Trends im Bereich der Hard- und Softwareentwicklung festzustellen sind, die garantiert auf die Nutzung elektronischer Medien einen Einfluss haben werden. Und jede veränderte Mediennutzung wird über kurz oder lang einen Einfluss auf Bibliotheken haben. Deshalb sollte man die Frage, was da gerade passiert, auch jetzt stellen. Zwar wird es einen Weile dauern, bis diese Trends einen Einfluss auf Menschen haben, die nicht unbedingt immer an den neuesten Entwicklungen der technologischen Möglichkeiten interessiert sind [also den 98% der Gesellschaft, die keine Nerds sind], aber wenn man die Geschwindkeit betrachtet, mit denen sich in den letzten Jahren neuen Mediennutzungsformen verbreitet haben, wird dieser Weile relativ kurz sein. [5]

PS.: Passend zu diesen Überlegungen übrigens der aktuelle Call for Papers der libreas: „Popkultur: Bibliothek„.

[Nachtrag, 30.05: Die aktuelle Studie des Projektes Medienkonvergenz Monitoring der Universität Leipzig erschien gestern. Sie kommt zu dem Ergebniss, dass das Internet bei Jugendlichen zum Leitmedium geworden ist und alle anderen Medienformen (Buch, Radio, Fernsehen) in seiner Verbreitung überholt hat. Link: die aktuelle Studie und Seite des Projektes.]

[1] Von Linux existieren – dank der Open-Source-Prinzipien – zahlreiche unterschiedliche Distributionen, die alle ihre eigene Vorteile und Ziele haben. Das ist anders, als bei anderen Betriebssystemen. Für den Einsatz von Linux empfiehlt sich ein Blick auf die unterschiedlichen Distributionen und unter Umständen das „Antesten“ mit Live-CDs.
[2] Und dabei dank Gnome, KDE oder Sonderanfertigungen wie bei DeLi Linux auch graphische Oberflächen zur Verfügung stellt, welche den gleichen Komfort bieten, wie ihn Menschen von Windows oder Mac gewohnt sind – dass nur als Anmerkung für Menschen, die meinen, Linux müsste unbedingt per Tastatur-Befehlen gesteuert werden und sei nur für etwas für Nerds.
[3] Wir sind in Deutschland, dass wird also noch eine Zeit dauern.
[4] Was mich nämlich immer noch irritiert ist der Fakt, dass alle relevanten Studien zu dem Ergebnis kommen, dass Rechner heute in Deutschland in Haushalten mit Kinder oder Jugendlichen fast flächendeckend vorhanden sind. Angesichts des aktuellen Armutsberichts und der Zahlen des Familienministeriums über das Armutsrisiko von Kindern und Jugendlichen frage ich mich schon, von welchem Geld sich diese Haushalte welche Rechner leisten können. Ich meine das rein rechnerisch, selbstverständliche habe alle Menschen das Recht, die Medien zu besitzen, die sie besitzen wollen. Aber von monatlich 345 oder wenig mehr Euro pro Person wird man sich nicht alle zwei Jahre einen modernen Rechner leisten können. Wie alt sind dann also die Rechner, die in sozial schwachen Familien stehen? Was können sie überhaupt? Bringen sie der Jugendlichen etwas oder sind diese trotz Rechner von aktuellen Nutzungsformen der Kommunikationstechnologien ausgeschlossen? Entsteht nach dem Digital Divide eine neue Ungerechtskeitsperspektive, das „Nicht mitmachen können im Mitmach-Web“? Und sind dann solche Netbooks für 300 Euro ein möglicher Ausweg?
[5] Erinnert sich noch wer an die Zeiten, wo Menschen mit Handys als Juppies beschimpft wurden? Das ist keine zehn Jahre her. Erinnert sich noch wer an die Zeit vor dem ipod? Der ist 2001 überhaupt in erst in den Markt eingeführt worden und heute – neben anderen MP3-Playern – ein unumstrittener Teil der Alltagskultur. Und die Mac Books, welche zumindest in der Berliner Innenstadt und den Berliner Unibibliotheken allgegenwärtig sind, wurden erst 2006 vorgestellt.

Nach dem Bibcamp 08: Was ist mit der Öffentlichen Bibliothek 2.0?

Das Bibcamp 08 fand vorgestern in Potsdam und gestern in Berlin statt. Ich fand die Organisation gut und einer Unkonferenz vollkommen angemessen relaxt, aber als Miteinladender bin ich da wohl etwas voreingenommen. Inhaltlich können Menschen, die das Bibcamp „einfach besucht“ haben bestimmt mehr berichten.

[Banner in der Humboldt-Universität]

Trust, Flexibilität, locker bleiben
Was mich gegenüber „normalen“ Konferenzen am Konzept Barcamp interessiert hat, war der Einbezug von Prinzipien, die das Web 2.0 mitbestimmen, nämlich Flexibilität und Trust. Das hat sich bewährt. Wir haben einen Rahmen gestellt, also das „Drumherum“ organisiert (Räume, Sponsorengelder, Getränke, Essen, ein Wiki für die Kommunikation, Werbung, den social event am Freitag Abend) und für den Rest darauf vertraut, dass die Menschen, die zum Bibcamp kommen, mitarbeiten wollen, dass auch inhaltlich können – ohne dass wir vorher ihre Papers bewerten müssen – und das sie alle an einem offenen Umgang miteinander interessiert wären.
Die Selbstorganisation der Themen und Workshops hat genauso funktioniert, wie die Aufgabenteilung bei uns im Team der Einladenden, die – im Gegensatz zu anderen Teams, in denen ich mitgearbeitet habe – unglaublich relaxt, aufgabenorientiert und stressfrei ablief.
Ein Ding, das ich noch einmal bestätigt bekommen habe, ist, dass auch im Web 2.0 und Barcamps die Regel gilt, dass Selbstorganisation immer heißt, dass man es zur Not selber tun muss.

[Zum Laptopaufkommen des Bibcamp. Boris Jacob (libreas) leitet das gut besuchte Panel zur Kritik der Marke Bibliothek 2.0, Michael Heinz (IBI) erläutert gerade seine Position.]

Ansonsten ist die Organisation solcher Veranstaltungen durch die zunehmende Spezialisierung von Dienstleistungsfirmen und dem – unter anderen Aspekten zu bedauernden – Preisverfall für solche Dienstleistungen wie Druck, Getränke- und Essenslieferung relativ einfach geworden. Mit relativ wenig Finanzmitteln ausgestattet und mit etwas eigenem Engagement (welches einem aber niemand bezahlt – grmpfl) kann man solche Veranstaltung gut aus Modulen zusammensetzen. So klappt bei Barcamps etwas, was im Bachelorstudium nicht klappt: die Sachen auswählen, die man zu benötigen meint und mit relativ wenig Stress das rauskriegen, was man will. Der große Unterschied ist halt, dass die Wahlmöglichkeiten im Studium eher simuliert und mit einem viel so großem Druck verbunden sind, also zumeist keine freie Wahl darstellen, die zudem kaum Platz für Komplentation oder selbstbestimmte Vernutzung der gewonnen Zeit lassen; eine Unkonferenz dagegen schon.

Lob des Schaufensters

[Banner im Schaufenster, Fachhochschule Potsdam]

Ansonsten bin ich immer noch von dem Raum in der Fachhochschule Potsdam begeistert. Das „Schaufenster“ ist ein großer Raum mit einigen baulichen Ecken, Winkeln und Treppen, der ansonsten nur aus Beton und einer nahezu vollständigen Fensterfront besteht. Die Wände sind etwas vernutzt, aber auch nicht dreckig, auf dem Boden sind noch die dynamischen Markierungen des Sportfachgeschäfts, welches einmal dort seinen Ort hatte. Vom Aussehen und dem Flair her erinnerte mich der Raum an die späten 1990er in Berlin, zu der Zeit, wo ein Sommer ohne Loveparade nicht vorstellbar war und man gleichzeitig – weil die Loveparade halt eher langweilig und für die Brandenburger Jugend da war, die einmal im Jahr die Sau rauslassen konnten – auf der Fuckparade zu Hardcore, Gabba und Jungle, bzw. dem frühen Drum’n’Bass tanzen konnte. Großartig. Ein wenig erscheint der Raum in der FH-Potsdam als Bunker [damals der Club für Hardcore in Berlin und traditionell Startpunkt der Fuckparaden] in klein.
Neben diesem Feeling, dass wohl nicht alle teilen werden, ist das Schaufenster unglaublich flexibel. Da steht nichts fest, die ganzen Stühle, Tische, Kastenelemente, Präsentationsflächen sind frei im Raum zu verteilen. Und durch die Fensterfront fühlt man sich nicht so eingeschränkt, wie in vielen anderen Konferenzorten.
Und wie immer, wenn etwas gut ist, ist dessen Bestand eher Zufall. Das Gebäude der Fachhochschule soll – wegen dem Stadtschloss, dass gerade wieder gebaut wird; da merkt man die Prioritätensetzung – abgerissen werden, wenn auf dem zweiten Campus der Fachhochschule dafür Ersatz geschaffen worden ist. Das Schaufenster lebt von der Zwischennutzung eines Gebäudes, dessen Tage gezählt sind. Schade.

Öffentliche Bibliothek 2.0?

[Raumplan in der letzten Fassung]

Eigentlich wollte ich als Einladender keinen eigenen Workshop anbieten. Aber dann konnte ich mich doch nicht zurückhalten, auch weil sich am Beginn der Veranstaltung wenig Leute fanden, welche selber Themen anbieten wollten. Letztlich war der Workshop etwas zu ungenau gefasst. Zudem waren die Teilnehmenden offenbar auch an anderen Themen mehr interessiert, was ich allerdings nicht auf die Teilnehmenden alleine beziehen, sondern als allgemeinen Trend in der Debatte um die Bibliothek 2.0 beschreiben würde. Zumindest war das Thema etwas weit gefasst die Öffentliche Bibliothek 2.0 und Soziale Ungerechtigkeit. Irgendwie fiel auf dem Raumplan der Teil mit Öffentlichen Gerechtigkeit weg und dabei hätte ich es für das erste vielleicht auch erstmal bewenden lassen sollen. [Lesson learned.]
(Außerdem hatte sich für den Workshop von Christoph Deeg zum Thema Creative Industries – Spiele, Musik, Film etc. – und Bibliotheken kaum jemand interessiert – was ich gefährlich finde, weil diese Themen auf die Bibliotheken, insbesondere die Öffentlichen Bibliotheken, zu kommen werden. Deshalb floß letztlich dessen Workshop durch ihn in meinen Workshop mit ein. Auch wenn ich Christoph in einigen Punkten widersprechen würde, fand ich die Verbindung vollkommen folgerichtig und würde seiner Grundanalyse zustimmen: die Creative Industries, also vor allem die Spielebranche, sind ein Teil der Alltagskultur und bestimmen diese immer mehr – deshalb werden Öffentliche Bibliotheken nicht daran vorbei kommen, ihr Verhältnis zu diesen zu bestimmen.)
Was ich tatsächlich in diesem Workshop betonen wollte, ist, dass die deutsche Debatte um die Bibliothek 2.0 eine Debatte um Wissenschaftliche und Digitale Bibliotheken ist: Informationen organisieren, aufbereiten, „befreien“; Suchmaschinen auf Bedürfnisse zuschneiden; Informationskompetenzen vermitteln (halt zumeist an Studierende) und so weiter. Alles wichtig, ohne Frage. Aber die Öffentliche Bibliothek scheint da kein Thema zu sein. Und selber scheinen sich Öffentliche Bibliotheken auch nicht in die Debatte einzubringen.
Dabei wäre das nötig. Die Verteilung von Informationen und die eigenständige Produktion von Wissen, wie sie im Web 2.0 anders als bislang stattfindet, ist fraglos ein wichtiger Bereich. Aber der Hauptgrund für das Entstehen des Web 2.0 ist ein sozialer: MySpace, StudiVZ, Facebook, Weblogs, World of Warcraft, Seconde Life, Youtube etc. – das sind alles soziale Räume, die nicht vorrangig für die wissenschaftliche Contentproduktion benutzt werden, sondern um Spass zu haben und soziale Beziehungen zu pflegen. Die Wikipedia als populäres Projekt der Wissensproduktion scheint da eher die Ausnahme zu sein. Es ist dabei vollkommen egal, ob Bibliotheken das gut oder schlecht finden, es ist einfach Teil der Realität der meisten Jugendlichen, jungen Erwachsenen und einer immer größer werdenden Zahl von nicht-mehr-so-jungen Erwachsenen. Insoweit muss mit diesem Trend umgegangen werden. Wie, dass ist die Frage, die ich gerne diskutiert hätte. Ganz hat das nicht geklappt, ich bin aber mit der Erkenntnis aus dem Workshop gegangen, dass ich nicht der einzige bin, der dieses Mißverhältnis feststellt.
Dabei muss man im Hinterkopf behalten, dass sich das Problem verschoben hat. Einst gab es große Debatten um den digital divide und die Öffentlichen Bibliotheken reagierten sehr spät darauf, indem sie irgendwann Computer mit Internetanschluss mit der Hoffnung zur Verfügung stellten, dass diese Zugänge gegen den digital divide helfen würden. Das war damals schon relativ blauäugig, weil das zur-Verfügung-stellen von Medien noch keine Kluft in ihrer Nutzung überbrückt, sondern erstmal den Menschen hilft, die mit den jeweiligen Medien umgehen können. Aber immerhin. Heute ist die Situation anders. Zum einen sind viele dieser Anschlüsse in Bibliotheken kostenpflichtig – und zwar oft so teuer, dass es billiger ist, ins Internetcafe zu gehen. Das hilft gerade denen, die sich zuhause keinen Internetanschluss leisten können, wenig.
Zum anderen ist aber der Zugang zum Internet nicht mehr das große Problem. Beispielsweise wurden in den 2006er PISA-Studien die getesten 15-jährigen auch gefragt, wie ihre technische Ausstattung außerhalb der Schule ist: 96% hatten einen Rechner zu Hause, 92% einen Internetanschluss. Wenn man bedenkt, dass es auch explizite Verweigerung von Medien gibt [Und nicht nur bei Computern. Bei mir steht beispielsweise kein Fernseher, weil ich keinen möchte, bei anderen Menschen – auch solchen mit Abitur – stehen quasi keine Bücher, etc.], dann heißt das, dass nur noch für einen geringe Zahl von Jugendlichen [! Bei Erwachsenen kann das schon anders aussehen.] das Hauptproblem darin besteht, überhaupt ins „Internet zu kommen“. Es geht darum, am Web 2.0 partizipieren zu können oder nicht partizipieren zu können, dass heißt, an einer wichtigen Sphäre des kulturellen und sozialer Lebens teilhaben zu können oder nicht teilhaben zu können. Dies erscheint mir ein wichtiges Thema für Öffentliche Bibliotheken zu sein. Dabei kann die Aufgabe nicht sein, alle Menschen dazu zu bringen, an diesem virtuellen Kulturort teilzuhaben, aber es muss darum gehen, es allen zu ermöglichen. Dabei darf weiterhin nicht bei Einführungen in dies und das (Weblogs schreiben, MySpaceseite anlegen etc.) stehen geblieben werden. Eine Bibliothek soll biographisch langfristiger wirken und Menschen die Nutzung von Medien auch ermöglichen, wenn sie mit deren Nutzung schon bekannt sind. Vielleicht sind flexibel nutzbar Computerkabinette und WLAN-Parties sinnvoller, als Einführungen.
Man kann zur Verdeutlichung vielleicht eine Parallele zur Kulturpolitik ziehen: ich möchte gar nicht, dass alle Menschen an der Berliner Clubkultur partizipieren und ich weiß, dass sich viele Menschen dafür entscheiden, nie auch nur eine Club zu besuchen oder auf ein Konzert zu gehen und trotzdem in Berlin ein erfülltes Leben führen. Aber es ist ein Skandal, dass Menschen, nur weil sie in einem ländlichen Gebiet aufwachsen, keine reale Möglichkeit haben, überhaupt Musikveranstaltungen neben dem lokalen Mainstream besuchen zu können. Da ist es dann (eigentlich) die Aufgabe der Gesellschaft, solche Besuche zu ermöglichen, beispielsweise über lokale Kulturförderung oder auch einen effizienten Personennah- und Fernverkehr, der es möglich macht, um 3.30 Uhr aus der Kantine der Oper Köln nach X in Mecklenburg-Vorpommern zu fahren. Und wenn die Menschen sich dann doch lieber zuhause an der Bushaltestelle treffen wollen, dann ist das ihr Recht. Aber wichtig ist, dass sie die reale Möglichkeit haben müssen (d.h. auch das Geld, diese Angebote zu nutzen), an relevanten kulturellen und sozialen Szenen teilzuhaben.

Was bleibt?
Neben dem Vorhaben, mehr über die „Öffentliche Bibliothek 2.0“ nachzudenken, bleibt vom Bibcamp die Erfahrung, dass es möglich ist, mit relativ wenig Stress eine produktive und nette Veranstaltung zu organisieren, wenn man auf die Teilnehmenden vertraut, dabei transparent, flexibel und fehlertolerant bleibt, sich klarmacht, dass es darum geht, diese Veranstaltung nett zu gestalten und nicht in der Organisationsgruppe irgendwelche Pfründe zu verteilen. Zudem muss man Sachen manchmal einfach auch selber machen, wenn sie getan werden sollen. In Betriebssystemen gesprochen: mehr Linux, weniger Windows. Das heißt nicht, dass es keine Arbeit macht, aber man hat mehr Spass daran, die Veranstaltung zu organisieren und dabei zu sein.

Stehengeblieben ist am Ende des Bibcamp leider die Frage, wer das nächste macht. Die Form ist super, viele haben die Veranstaltung offenbar für gut befunden, aber niemand riss sich darum, das nächste Bibcamp zu organisieren. (Also: wir hatten ja auf Menschen aus Hannover oder Hamburg gehofft.) Noch ist das Zeitfenster offen, sich dafür zu entscheiden. Es wäre halt unbefriedigend, wenn dieses Bibcamp das einzige gewesen sein sollte. Wer sich findet: einfach ins Wiki schreiben.

Eine umfassende Photosammlung findet sich bei Prof. Hobohm, andere Berichte im Wiki zum Bibcamp.

PS.: Jetzt steht fest, dass eine Gruppe um die Fachhochschule Stuttgart das nächste Bibcamp macht und dass darauf eine Gruppe in Hannover. Außerdem haben wir als Einladende noch eine kleine Nachbereitung gemacht, die man – für ähnliche Veranstaltungen – gerne einsehen kann. Ist selbstverständlich Open Access, alles andere wäre vollkommen absurd.