The Geekster Rises – Das Ende einer Tech Culture

1

»To geek out: The act of becoming emotionally and physically aroused by the sight or the thought of a technicality of a certain topic of major interest. It resembles an ‘orgasm of the mind’.« –urbandictionary.com

Das Thema IT wird in einer breiteren Öffentlichkeit denn je diskutiert, es ist für die Breite der Gesellschaft alltäglich geworden. Es hat sich über die letzten Jahre eine neue Konsum-Coolness für die Massen um neue Branchen-Entwicklungen gebildet. Die Rede ist von Smartphones, einer aberwitzigen Zahl verschieden konfigurierter Smartphones, Tablets, und ein paar sozialen Web-Diensten. Es hat sich eine Art Subkultur von Menschen herausgebildet, die nach Lifestyle gieren, nach Neuheiten schreien, und sich über Marken identifizieren.

Ich beobachte da gerade etwas: Was dort nun lautstark in der Mitte der Gesellschaft diskutiert wird, ist nicht mehr das, was ich unter Computern verstehe, sondern sind massentaugliche Konsumprodukte.
Ich betrachte mich zugehörig zu einer Gruppe von rebellischen Tech-Begeisterten. Wir haben diese Kultur aufgebaut, wo wir seit Jahren als Selbstbeschäftigung um die neuesten Mobile-Trends kreisen und uns gegenseitig versichern, wie bedeutsam diese Entwicklungen sind. Und selbst ich überhöhe künstlich die Bedeutung der Post-PC-Gerätschaften (für mich), wenn ich abschreckend lange Mobile-OS-Analysen schreibe: Denn in meiner Realität nutze ich zu allerhäufigst für das Allermeiste nach wie vor den PC und das wird auch so bleiben.
Denn ich bin kein Hipster, ich bin Geek.

Zu Anfang stand die Verweichlichung des Nerds in die Popkultur durch Matrix, wodurch Computer erstmals mit Coolness assoziiert wurden. Diese Darstellung griffen in Folge weitere Filme auf und statteten die wirr redenden Protagonisten mit beeindruckenden Technik-Gadgets aus. Der Blick schwenkte auf die unverstandenen, aber drolligen Wissensanhäufer im Experimentierkämmerlein und gab auch diesen erfolglosen Charakteren eine Bühne. Ein Abziehbildchen des Geeks ist zum Popkulturphänomen geworden. Er wurde gefeiert, er wurde stilisiert, er wurde irgendwie cool. Er wurde kopiert, aber er wurde dabei nicht verstanden.

Der Tech-Hipster ist der Gegenentwurf zum Geek, bei flüchtiger Betrachtung scheinen sie aber dem selben Schlag anzugehören. Noch frappierender ist, das dies ebenso für die eigene Selbstreflektion gilt – leicht verwechseln wir unsere Intentionen. Nachrichtenportale richten sich auf eine vergrößerte Zielgruppe aus, immer stärker werden die gegenseitigen Überschneidungen dessen, womit sich beschäftigt wird, beziehungsweise womit nicht mehr. Aufschlussreich geben sich beispielsweise die Kommentare auf The Verge: Was zu techy ist, ist gleich uncool, was eine flutschige UI hat, am besten noch proprietär, Mac-only, das gilt als cool.
Ich bin nicht der Type, der immer die neuesten Spielsachen hat und sich mit allen Hypes auskennt – ich bin jemand, der Freude am Erforschen hat. Ich bin ein Tüftler. Und ich verliere gerade eine Selbstidentifikation. Es scheint, Technik ist zu einfach geworden. Ich schaue irritiert auf die Nutzerschaft: Das ist nicht mehr das faszinierende, weite, geheimnisvolle Land voller Rätsel und Abenteuer, das mich einst anzog.

Origins: Tech-Hipster
Es gab da diese Phase, in der “Gadget” zu einer einschließenden Einheit von “Geek” wurde. Das iPhone war im Prinzip der Wendepunkt: Ab 2007 wurde es in der Geek-Kultur aufregend und cool, einen Taschencomputer bei sich zu tragen, der nicht mehr wie frühere PDAs den PC-Paradigmen folgte und nun eine angenehmere Bedienung ermöglichte. Ausschlaggebend für die Akzeptanz innerhalb der Gemeinde dürfte zudem das rebellische Image gewesen sein, das Apple zu dieser Zeit noch anhaftete. Es vertrug sich gut mit der Selbstidentifikation der Geeks. Apple wurde von uns abgefeiert und viel Konfetti stob auch außerhalb unserer Kreise. Mancher verschrieb sich der neuen Philosophie und wurde von Apples Hardware-Ökosystem in den Bann gezogen. Andere wurden zu regelrechten Jüngern, zu Evangelisten, und mancheiner Rollenmodell für die aus dem Geek-Lager abtrünnigen, und sich zugleich aus der Mitte der Gesellschaft nährenden Hipster.
Gadgets liegen heute in jedermanns Hand, sie wirken cool. Das sind sie auch, aber Gadgets sind in erster Linie Appliances, keine ‘Computer’. Wenn wir sie nutzen, arbeiten wir nicht mit Software, sondern mit Objekten, wir denken so natürlich, wie wenn wir einen Wasserhahn bedienen (im Speziellen bei iOS).

Ich seh da nicht mehr mich. Ich liebe Technik. Ich schätze Appliances, die einfach tun, für bestimmte Zwecke. Aber ich bin nicht post-PC, ich bin sogar noch sehr PC. Ich habe Ideale von völliger Freiheit, die mit Computern nur an einem PC umsetzbar sind. Wir sollten uns fragen: Sind moderne Gadgets heute wirklich ‘geekig’, oder nur ‘convenient’? Sind wir dem Komfort verfallen? Was haben wir dafür geopfert? Können wir das mit unseren Werten vereinen?

Hipsters gonna hip
Was können wir tun, um unsere unterwanderte Tech-Geek-Kultur zu retten? Die Frage ist vielleicht auch, ob es diese Kultur überhaupt wert ist, gerettet zu werden. Vielleicht lohnt es sich nicht, sich mit Tech-Hipstern in einen Image-Kampf zu begeben, vielleicht liegt unsere Zukunft darin, zu akzeptieren, dass Technik existiert und das Beste aus ihr herauszuholen, ohne sie zu idealisieren oder zu hypen. Vielleicht sind wir von der Zeit eingeholt worden und vielleicht wäre es sinnvoll, sich neu zu orientieren.

Sinnkrise – Der Traum ist wahr geworden
Aus meiner Perspektive hat die IT-Branche die größten Ihrer Träume bereits in der richtigen Weise umgesetzt und kluge Fundament-Konzepte ersonnen und beschäftigt sich nun mit deren Optimierung. Da sind die Webentwickler, die unerbittlich daran arbeiten, dass sich das Web mehr wie eine Betriebssystem-native Software anfühlt. Oder das Beispiel Kernel-Entwickler: Wir haben schon ‘alles’, und was nun noch passiert, sind nur Verfeinerungen und Raffinessen – aber es scheint, diese Art von Technik ist ‘fertig’ erforscht bis an ihre Grenzen. Wir brauchen neue Perspektiven, ich brauche neue Perspektiven – denn ich bin noch jung und habe schon jetzt das Gefühl, diese Technik hält uns keine Neuheiten mehr parat – und persönlich möchte ich nicht einer sich so selbst verfestigenden Kultur angehören, die scheinbar ihr Strebeziel schon erreicht hat. Das, wo sich jetzt noch Innovation und Weiterentwicklung zeigt, ist auf einer so hochtechnologisch-abstrakten Ebene, dass ich es nicht mehr überblicken kann; dass ich als neugieriger Dilettant keinen Zugang mehr dazu habe. Alles wird noch schneller, noch effizienter, noch mobiler, noch komfortabler, noch vernetzter. Sicher, an der UI und UX wird sich noch viel tun, neue Geräteklassen werden enthoben. Aber es ist nichts, was wir uns nicht schon ausgedacht oder erträumt hätten. Wir *haben* Computer, wir sind da.

Das sage ich als ein junger Mensch, der die letzten zehn Jahre unermesslich viel Lebenszeit in das hauptsächlich aus Neugierde getriebene Erkunden der Digitalwelt gesteckt hat. Ich frage mich ganz persönlich, wie sinnvoll meine dauergetriebene Beschäftigung mit der IT noch ist. Ich bin Experte, keine Frage, aber was nützt das meinem Leben? Ich beabsichtige aus mehreren Gründen nicht, mit IT mal mein Geld zu verdienen (wenn es dann noch Geld gibt) und studiere auch konsequent Sozial- und Geisteswissenschaften. Gerne würde ich diese Fokus-Fixierung bei mir lösen, aber es scheint für mich nicht möglich zu sein, weil 2/3 meiner Weltentdeckung am Computer über das WWW und Filme geschehen. Wenn ich mir ein neues Thema abseits von IT aufmache, steht es gleich in Abhängigkeit zu meiner IT, was mich in einer Teufelsspirale wieder dazu veranlasst, diese zu optimieren. Ich bin an die Technik gefesselt.
Ich bin jung, ich suche mich selbst, und diese Selbsterfahrungen funktionieren schlechter über Technik. Tatsächlich wünsche ich mir für ganz persönliches Wachstum eine Welt ohne Computer. Ich wäre gerne unabhängig, nur von meinem Verstand gestützt. Einfach ich selber, nicht ‘ich und mein Computer’. Dass das heute unpraktikabel ist, ist klar, als Gedanke ist es aber anziehend. Damit so ein Leben wieder möglich würde, bräuchte es den gesellschafts-politischen strukturellen Zusammenbruch, der mit dem, wahrscheinlich früher, als wir denken, eintretendem weltweiten Zusammenbruch der Idee von ‘Geld’ einhergehen könnte und gute Nachwirkungen haben könnte, ohne uns dabei tatsächlich Technik zu nehmen, sondern nur deren Sinn im Leben neu zu verhandeln.

Individualität
Wir sind in einer Krise, wir haben in unseren Milieu das Bewusstsein darüber verloren, was wir eigentlich alles menschlich können. Wir suggerieren uns in unserer aufgebauten Kultur, in erster Linie Computer-Menschen zu sein. Es geht dadurch viel kreative Kapazität verloren. Wir machen einen Fehler, uns so festzulegen. Unser Selbstverständnis baut direkt darauf, IT den anderen Interessen überzuordnen.
Die Lösung sollte sein, wieder so etwas wie Nerds zu werden, ‘back to the roots’; wieder auf eigenen Beinen zu stehen, sich zurückzubesinnen. – Etwas können, selbst etwas sein, auch ohne technische Geräte.

»Hipster sein wird Mainstream, aber Hipster sein bedeutet, nicht Mainstream zu sein, deshalb bedeutet Hipster zu sein, kein Hipster zu sein. Das ist das Hipster-Paradoxon.«Binärgewitter-Podcast, Folge 37

Peter Lustig auf unsere Fahne
Die Begeisterungsfähigkeit des Geeks liegt schon mit in seiner Definition. Wir sind nicht nur fasziniert, wir sind versessen in Themenfelder. Wäre es nicht von großem Nutzen für die Gesellschaft, wenn wir unser Interessensgebiet weiten würden? Eine ‘humanistische Allgemeinbildung’ in der Tech-Szene ist jetzt schon Credo unter Geeks und macht uns Spaß. Wie lässt sich das Fenster eventuell mehr in die Weite öffnen? Entscheidendes Merkmal der Geek-Kultur ist die Mentalität des begeisterten Weitergebens: “Das kannst Du ausprobieren, da kannst Du Dich einarbeiten und damit experimentieren, das sieht cool aus.” Die vorherrschende Mentalität in unserer Gesellschaft dagegen sind starre Konventionen und Regelwerke. Es scheint, die zwei seien unverbindbare Welten. Gibt es die Perspektive, die ganze Gesellschaft für uns interessanter zu machen? Die Piratenpartei lässt sich als laufendes Experiment dessen sehen. Wo können wir uns noch mit unserer Mentalität des vorbehaltlosen Teilens und transparentem Austauschs einbringen? Über manches müssten wir uns hinwegsetzen und gesellschafts-konventionelle Hemmungen abbauen. Aber wir sollten uns zu nichts zwingen, was uns keine Freude bereitet. Ein lebensbejahendes neues Massenbewusstsein darüber in der Geek-Gemeinschaft, dass es außerhalb der IT noch so viel Spannendes gibt, könnte Begeisterungswellen für neues Terrain erzeugen und – entscheidend – unsere Begeisterung dort sähen, wo bislang Bürokratie und Industrie herrscht.

Auf der Suche nach einer neuen Selbstidentifikation
Lasst uns zu Universalgenies werden, vielleicht mit weniger Genie als universal, aber lasst uns das doch zu unserem Ideal erklären. Eine institutionslose Kultur des Austauschs von Lebensproduktivitätsfaktoren gründen.

Lasst uns mehr sein als Geeks.

Absicht dieses Beitrages ist, zum Nachdenken über die eigene Lebensausrichtung anzuregen. – Wir sollten uns wieder als die Kreativen begreifen, als die Tüftler und Wissbegierigen, als die Vordenker und idealistischen Forscher. Unser Schlag Leute hat das noch in sich, wir haben es nur seit Jahrzehnten vergessen. Wir sind geblendet von der Geek-Kultur und haben den Gedanken an uns Individuen verloren. Wir sind die Extremen, aber lasst euch auf nichts festschreiben, lasst euch nicht einreden, wo euer Interessensgebiet zu liegen hat!

The Tüftler Rises!

Von der Einsamkeit

1

Vor einem Jahr um diese Zeit habe ich gerade mein Abitur geschrieben gehabt. Ich hatte zu dem Zeitpunkt noch keine Vorstellung über das Danach. Besser sollte es werden.
Mittlerweile habe ich das erste Semester an der Uni durchharrt und stehe auch noch einigermaßen hinter meiner Fachwahl. Der Kontakt zu meinen alten Mitschülern ist abgebrochen, was wenig überrascht, weil es ihn außerhalb der Schule quasi nicht gab. Mein einziges vertrautes Miteinander der letzten Jahre fand für mich vormittags mit meinen SchulkameradInnen statt. Das war nicht immer gut, aber ich habe viele ins Herz geschlossen, auch wenn ich es ihnen meistens nicht gesagt habe. Sie waren da. Verlässlich. Wir haben etwas miteinander erlebt, wir waren eine Gemeinschaft.
Nach einem Semester an der Uni konnte ich noch keinen Ersatz für solche Beziehungen finden und ich habe das Gefühl, ich werde das dort auch nie finden. Jeder geht ab jetzt seinen eigenen Weg. Ich wohne noch daheim in der nächstgelegenen Stadt, bekomme daher nichts vom studentischen Leben Tübingens mit und habe auch keinen Kontakt zu studentischen Verbindungen. Das waren jetzt sehr trostlose, sehr lange Semesterferien für mich.
Ich denke mir immer: So sollte es nicht sein. Ich sollte nicht so einsam sein. Ich hab keinen Grund dafür. Ich bin 21, weiß viel, bin kein Autist, habe keine Sozialphobie, bin universalinteressiert, reflektiere viel über mich nach, habe mein Ego unter Kontrolle. Nein, ich sollte nicht so einsam sein. Aber ich bin es. Ich kann mit niemandem darüber reden. Ich kann mit Menschen darüber schreiben und die sagen mir dann, ich solle rausgehen und Leute kennenlernen. Aber das ist nicht so einfach. Ich komme mir überall deplatziert vor. Peinlich. Wenn es mal vorkommt, und ich Leute ‘kennenlerne’, dann nur oberflächlich, und gleich sind sie wieder weg, weil ich nicht wusste, wie ich Kontaktmöglichkeiten in nicht aufdringlicher Weise einholen sollte.

Alle meine Freunde und Bekannte des RL habe ich durch Institutionen kennengelernt: Kindergarten, Schule, nichts. Weil, mehr hatte ich eigentlich nicht. Freunde durch Freunde kennenlernen, auf einer Party oder öffentlichen Veranstaltungen, das hatte ich nie. Ich komme mit der Aufgabe nicht klar. Sicherlich spielt eine Rolle, dass ich nie mit Freunden unterwegs bin, nie zu Partys eingeladen werde und keine öffentlichen Veranstaltungen besuche. Weil meine Freunde richtigerweise mit Anführungszeichen geschrieben werden müssten, mich niemand kennt, der Partys schmeißt (oder einlädt) und ich nicht weiß, was ich auf öffentlichen Veranstaltungen soll.
Ich sitze ganz schön in der Scheiße. Jemand könnte sagen, das sei doch bei mir genauso, wie wenn man in eine fremde Stadt zieht, da kennt man auch noch keinen, und bei mir sei doch noch überhaupt nichts verloren, sondern alles zum Besten, ich sei nur ein unbeschriebenes Blatt, und ich solle einfach jetzt damit beginnen, Kontakte aufzubauen. Aber ich habe nie die Kompetenzen dafür entwickeln können. Sorry, ich kann das nicht. Ich bin einsam und ich war mein Leben lang einsam. Ich wünsche mir einen Freund, der mich da bei der Hand nimmt, einen Freund, den ich nicht habe. Ich weiß nicht, was ich tun soll und es macht mich total fertig. Ja, ich bin eines dieser Kellerkinder, das nie raus kommt, nur ohne Keller, und im Sommer gehe ich sogar sehr gerne raus, zum Lesen. Weil, alles andere macht mir allein keine Freude mehr.

Die schönen Dinge, die man in seiner Jugend gewöhnlich so erlebt: Nicht erlebt, weil keine Gelegenheit dazu gehabt. Bei Schulkameraden beobachtet und eine Ahnung davon bekommen, wie das wohl wäre. Nur stets aus der Distanz eine Lebenswirklichkeit betrachtet, die nicht die meine war. Ich dachte immer, das ändert sich noch, und eine lange Zeit hat es mir auch nichts ausgemacht. Aber jetzt bin ich raus aus der Schule, ein echter Student, wenn auch noch daheim lebend, und es hat sich für mich nichts zum Besseren gewendet, es ist schlechter geworden. Zwar gibt es auf der Uni mehr Neukontakt, aber noch weniger Möglichkeiten, um Beziehungsnähe aufzubauen.
Die Situation ist für mich alarmierend. Ich seh für mich da keine Perspektive, bin aber auch kein Selbstmörder-Type. Ich hab im RL überhaupt keinen Anschluss an Gleichaltrige. Ich muss mein Leben irgendwie ändern, sonst werd ich damit nicht glücklich.
Die Menschen auf Twitter sind toll, ohne diesen gesellschaftlichen Austausch und die vielen netten Worte wäre ich heute ein Wrack. Oder hätte vielleicht gerade deswegen doch andere Wege finden müssen, minimalen Austausch haben zu können – mit der Zeit, die für Twitter draufgeht, die ich dann frei gehabt hätte, nicht unrealistisch. Aber Twitter ist auch nicht das RL, es ist eben nur Microblogging.

Ich studiere nichts Technisches. Da spricht man in den Pausen nicht über Betriebssysteme. Mein Wissensvorteil als Computer-Geek hilft mir da nicht bei der Bekanntmachung mit anderen. Fast alle meine Hobbys drehen sich in der einen oder anderen Weise um diesen Kasten, doch ich bin nicht monothematisch interessiert. Es sind sehr viele Dinge, die mich eben letztlich digital erreichen, und damit umzugehen, darin bin ich vielleicht besonders gut als Geek. Aber es muss für mich nicht technisch sein. Ich kann auch etwas zu Goethe, Anthroposophie, oder Feminismus sagen. Aber es kommt nie dazu.

Bei Arbeiten für die Uni weiß ich oft nicht, wie ich die Kraft dafür aufbringen soll. Ich bin unglücklich mit mir. Ein liebes Lächeln oder eine Umarmung wären viel. Niemand umarmt mich. Niemand ist da, der mich anlächeln könnte. Da ist bei mir so viel Einsamkeit, Bitterkeit und Verzweiflung. So sollte das nicht sein.

Können wir uns treffen, auch wenn ich ein seltsamer Junge bin?

4

Ich weiß beim besten Willen nicht, was ich mit “normalen” Jungen, die keine Computer-Geeks sind, reden soll. Mit Mädchen/Maiden wüsste ich es. Da kann ich über ziemlich alles sprechen. Jungen wollen mit dir nicht über die wirklich wichtigen, emotionalen Dinge im Leben sprechen. Sie sprechen immer in einer technischen Form, und wenn du sie einmal da raus führst, werden sie gleich sehr unsicher und ihnen wird das Gespräch unbehaglich. Meine Erfahrung ist, dass mir Gespräche mit tollen Mädchen viel mehr nützen als mit Jungen, und dass ich mich dabei viel angenehmer fühle.

Mir geht’s nicht gut. Mir ging es die letzten vier Schuljahre nicht gut, sogar richtig schlecht.
Meine soziale Kompetenz ist nicht stark, ich habe es über die Kursstufe immerhin geschafft, keine groben Verhaltensprobleme mehr in Gruppen zu zeigen, irritiere aber immer noch mit ungewöhnlichen Formen von Unangepasstheit. Ich besitze in helleren Momenten eine heitere, spielerische Natur, aber zusammen immer noch mit einer bissigen Selbst-Hartnäckigkeit, einer Spielart des Perfektionismus, die für Beobachter sehr schwer einzuordnen ist. Ich bin in hellen Momenten skurril, bestenfalls amüsant. Aber nicht so amüsant, dass ich cool wäre und mensch direkt Kontakt mit mir außerhalb der Lehrveranstaltung wollte. Und das sind die hellen Momente.
Niemand kommt auf mich zu und fragt, wollen wir Freunde sein. Derartiges hab ich die letzten 10 Jahre nicht erlebt. Es war immer ich, der deutliches Kontaktinteresse verbalisieren musste.

Ich würde so gern einmal mit jemandem sprechen, der mich einfach mag, mich umarmt und Freund mit mir ist. Mit dem ich einfach ich selbst sein kann, mit dem ich mein Selbst durch seines entdecken kann, ohne eine Rolle erfüllen zu müssen. Ich schaffe es nicht, solche Beziehungen aufzubauen, nicht im RL. Ich weiß gar nicht, wie das geht. Wie mensch zueinander findet und Freude an sich haben kann. In mir fühle ich, dass es möglich sein muss. Aber ich war immer nur allein. Mein Beitrag “Ich wünsche mir einen Freund” von letzten Februar trifft das noch immer auf den Kopf. Ich bin sehr einsam und es zermürbt mich.

Zu den Mädchen: Mir geht es nicht gut und das nimmt mensch wahr, zumindest unbewusst. Darauf angesprochen haben mich in den letzten Jahren nur sehr wenige, meist durch mein desorientiertes Verhalten nachdenklich gemacht, und ich bin ausgewichen.

Wenn du seltsam drauf bist und sie dann fragst, wollen sie nichts mit dir machen. “Ich find Dich cool”, “Ich find Dich inspirierend”, “Es macht Spaß mit Dir”, “Ich fühl mich gut mit Dir” – das führt alles zu nichts. Nie Zeit, wochenlang, monatelang; viel zu tun; nein, ich mag nicht mit Dir.
Ich fand das schlimm. Es hat mich wirklich verletzt. Ich hab mir immer Mühe gegeben.

Es ist eigentlich sehr simpel: Wenn du Mädchen fragst, ob sie was mit dir machen wollen und nicht selbstbewusst rüberkommst, wird die Antwort in den meisten Fällen nein sein. Deine Intention ist dabei egal; ob du einfach nur Freunde suchst, ob du sie inspirierend findest, ob sie dir helfen, mit dir besser klar zu kommen. Ich habe auch wenig Erfahrung mit Jungen, aber ich weiß, dass sie da gnädiger sind, wohl auch, weil sie die Situation selber kennen.
Wenn du irgendwie komisch bist und ein Mädchen dann fragst, dann bittest du sie um ein Date. Eine Strategie, die Falle zu vermeiden, wäre sofort klar zu stellen, dass es aber kein Date sein soll. Absolut kein Interesse, keine Sorge. – Aber ich will das nicht ausschließen, hey, weil ich hetero bin. Ich habe wahrscheinlich sowieso keine Chancen, aber ich will es nicht ausschließen, verdammt!

Tut mir leid, ich bin nicht schwul, können wir trotzdem Freunde sein? NEIN!
Ich leide darunter. Ich weiß auch nicht richtig, was ich will – eigentlich beides (ich glaube, das spüren sie), aber dafür sollte ich mich nicht schlecht fühlen, das ist normal, das will doch jeder. Mir macht es ein schlechtes Gewissen. Ich kann damit nicht umgehen und niemand gibt mir die Chance, damit umgehen zu lernen.

Mir fehlt das soziale Sprungbrett, eine Plattform, auf der man sich schon außerhalb von jedem Unterricht kennenlernen und abschätzen kann. Ich hab nichts. Ich bin dieser Computer-Mensch mit seinem Linux und ungeheurer unbrauchbarem IT-Kulturwissen, daheim.

Jetzt auf der Uni scheint es so weiter zu gehen. Der quantitative Neukontakt ist erheblich mehr geworden, aber die qualitative Nähe noch geringer. Mich macht das sehr traurig. Ich will nicht so allein sein.

Mitreißenderes Filmvergnügen durch Leuchtstreifen

1

Hier komme ich zu einem Artikel, den ich schon lange mal schreiben wollte. Es gab immer das Bestreben, Filmpräsentation intensiver zu machen: Farbe, Ton, Stereoton, Breitbild, Raumklang, 3D, 4k, HRF. Abseits dieser Kinotrends fand auf dem Heimgerätemarkt eine Innovation statt, die kaum beachtet wurde: Phillips verbaute erstmals 2006 Flachfernseher mit seiner Ambilight-Technologie, LED-Leuchtstreifen an der Rückseite des Bildschirms, die in der momentanen Bildstimmung die Wand bestrahlen. Das ergibt den beeindruckenden Effekt, als Zuschauer selbst in der Umgebung zu sitzen, und ein großes Extra ist, dass das Sehen von Filmen, ganz im Gegenteil auch zu 3D, durch die Leuchtstreifen ermüdungsärmer wird, weil der Monitor nicht mehr die einzige Lichtquelle im Raum ist.
KarateLight-Installation von vorneBald gab es bald erste Projekte, die es sich zum Ziel gesetzt hatten, ein Ambilight für den PC mit Mikrocontroller nachzubauen. Nun bin ich nicht der versierteste Bastler und Löter. Ich finde die Idee der Leuchtstreifen extrem cool, aber ich hätte gerne etwas, das – wenigstens in der Hardware – einfach läuft. Mit einer Gewissheit, beim Aufbau nichts kaputtmachen zu können. Auf der Suche danach habe ich AtmoLight von Carsten Presser gefunden. Sein noch besseres KarateLight bietet acht statt vier Leuchtstreifen-Kanäle und einen 12- statt 10-Bit-Farbraum. Es ist ein fertiges Kästchen, das mit den fertig verbauten Platinen und aufgeflashter Firmware bereit zum Loslegen kommt. Der Luxus kostet 70 Euro, mir war es das wert. Wenn mensch sich mal die Bauteilkosten inklusive Versand von verschiedenen Händlern und Gehäuse anschaut, kommt mensch da auch schon auf einen hohen Betrag + Selbstbaurisiko. Wer die Herausforderung an dieser Stelle mehr liebt, der kann sich aber sogar auch den Schaltplan und die Firmware von Carsten herunterladen und seine Box selber zusammenbauen.
Summa summarum kam ich inklusive acht Leuchtstreifen und Versand bei einem Preis von 160 Euro für meine Installation heraus. Sieht erst mal abschreckend aus, aber da ziehe ich den Vergleich heran: Für einen Film-Liebhaber darf mensch diese Anschaffung mit der einer leistungsstarken Grafikkarte für den Gamer vergleichen – die Wirkung ist immens. Jetzt gibt’s erst mal eine Vorführung:


(In HD schauen)

Eine helle Freude

Leuchtstreifen am BildschirmEs gibt grundsätzlich verschiedene Möglichkeiten, auf die mensch das Gerät konfigurieren kann: Etwa nur dominante Erscheinungen am Bildschirmrand zu berücksichtigen, womit sich bei Action-Filmen beispielsweise eine Art 3D-Effekt ergibt, wenn etwas zur Seite fliegt – es fliegt aus dem Bildschirm heraus. Oder ein Einfangen der allgemeinen Bildstimmung, der “Bilddurchschnittsfarbe”. Oder eine gleichmäßige Einteilung des Bildschirms in zwei, vier, oder acht Teile und Diodenleisten, die für den jeweiligen Sektor des Bildes einen Farbwert liefern, so wie auch ich es habe. Dadurch wird der Bildeindruck weiter: Mensch fühlt sich in der Umgebung der Szene, mensch schaut sie nicht nur an, sondern ist tiefer drin, fast “mitten drin”. Ich empfehle KarateLight mit seinen acht Kanälen gegenüber AtmoLight wegen den Bewegungsverläufen: Mensch nimmt mit der Beleuchtung wahr, in welche Richtung sich etwas Dominantes im Bild bewegt. Die horizontalen Streifen sieht mensch übrigens nur in der Kamera-Aufnahme, mit dem Auge ist alles ganz ruhig.
Die meisten Käufer setzen das System an ihrer Dreambox am Fernseher ein. Ich hab keinen Fernseher, ich hab einen wunderbaren PC-Monitor mit Linux.
Ich bin total begeistert von meiner Installation und freue mich nun seit einem Jahr jeden Tag darüber. Es macht sehr viel Spaß, damit Filme zu schauen; oft durchstöbere ich damit auch einfach nur meine Trailer-Sammlung und freue mich an dem neuen Sog, den die Installation bringt. Ich möchte mittlerweile eigentlich keinen Film mehr ohne KarateLight schauen, es ist für mich ein echter Mehrwert, der mir, wenn er mal nicht da ist, umgekehrt zum Fall, wenn er da ist, gleich unangenehm aufstößt. Die Karatelight-Installation fällt beim Schauen gar nicht mehr bewusst auf, fungiert nur als wirkungsvoller Intensitätsverstärker des Films. Es ist auch nicht so, dass durch das Licht die Umgebung auf einmal stören würde. Ich habe z.B. ein stark reflektierendes Magic Trackpad aus Alu/Glas, das mir beim Schauen ohne KarateLight dauernd auffällt und ich früher wirklich immer weggelegt habe, wenn ich was schauen wollte. Wenn KarateLight mit seinem dynamischen Umgebungslicht läuft, nehm ich das Trackpad auf dem Mauspad gar nicht mehr bewusst wahr.

Immer, wenn ich einen richtigen Film schaue, stelle ich die Bildschirmhelligkeit – von meiner angenehmen Lesestufe – kurz zwei Stufen höher. Da muss jeder schauen, wie das bei ihm ist, aber ein bisschen heller als sonst darf das Bild schon sein, weil es ja gegen sein eigenes Umgebungslicht “anstinken” muss.

Das Anbringen der selbstklebenden Leuchtstreifen an die Rückseite des Bildschirms ist eine etwas kniffliche Sache, die je nach persönlichem Perfektionismus viel Maßarbeit und Tests erfordert. Anzuraten ist, die Streifen erstmal versuchsweise mit Tesafilm zu fixieren, so zu testen, und dann die optimalen Abstände zu den Bildschrimrändern herauszufinden. Wenn die Wand hinter dem Schirm schräg verläuft, wie bei mir, ist es sinnvoll, z.B. die Streifen an der rechten Seite des Schirms etwas mehr nach außen zu setzen.

KarateLightMeine Leuchtstreifen hatte ich ursprünglich für meinen alten 23″-Monitor gekauft, für meinen neuen 27″er sind sie aber auch immer noch genau richtig: 4x 15 cm + 4x 25 cm. Achtet beim Netzteil darauf, dass es genug Ampere liefert (bei mir mit Reserve 2 A auf 12 V). Gibt’s preiswert auf ebay, aber kauft nichts zu billiges.

Ein echter Nachteil von Leuchtstreifen: Mensch kann keine Videobeschleunigung nutzen. Kein XvBA, kein VDPAU, kein va-video und kein Video auf OpenGL-Overlay (Totem von Gnome 3). Der Farb-Grabber boblightd muss den Bildschirminhalt mitlesen können. In VLC habe ich die Ausgabe auf “Standard”, in [S]mplayer[2] auf “xv” (bei mir “xv – 0 AMD Radeon AVIVO Video”).

Es gibt mittlerweile auch eine Windows-Software für KarateLight. Fragt mich nicht, was dieses Atmowin kann. Ihr werdet aber höchstwahrscheinlich keine Blu-Rays über PowerDVD schauen können, erst mal, weil es ein Overlay macht und dann wegen der HDCP-Kopierschutzkette zum Bildschirm.

Installation

Ich will hier eine kurze Anleitung für die Installation auf Arch Linux und (das von mir ausdrücklich angelehnte) Ubuntu geben:

Arch:

sudo pacman -S subversion

Ubuntu 12.10:

sudo apt-get install subversion libusb-1.0-0-dev libx11-dev libxrender-dev libxext-dev libgl1-mesa-dev g++

Beide weiter:

svn checkout http://boblight.googlecode.com/svn/trunk/ boblight-read-only
cd boblight-read-only
./configure --without-portaudio
make
sudo make install

- fertig.

Wenn make noch komische Fehler verursachen sollte, einfach noch mal einen frischen SVN-Checkout machen (das ist Ubuntu).
Wenn das, hoffentlich, ohne Probleme durchläuft, ist der Farb-Grabber hiermit installiert.

Es gibt da ein nerviges Rechteproblem: Die KarateLight, angesteckt über Standard-Druckerkabel per USB, meldet sich beim System als Fake-Modem oder so was Bizarres an und benötigt Superuser-Rechte. Dem kann mensch jetzt begegnen, indem mensch eine udev-Regel erstellt, was bei mir zwar funktioniert hat, aber dann hat das Licht nach einer Weile geflackert. Zum Selberprobieren: Datei /etc/udev/rules.d/70-boblightd.rules anlegen:

SUBSYSTEM=="usb", ATTRS{idVendor}=="04d8", ATTRS{idProduct}=="000a", ACTION=="add", RUN+="/usr/local/bin/boblightd"

und noch irgendwelcher Voodoo. Ein systemd-Dienst wäre wohl auch möglich, aber das wird ähnlich hässlich und wird wohl auch flackern, warum auch immer.
Eine andere Möglichkeit wäre, in das persönliche Aufruf-Script ein sudo einzubauen und per chmod die Rechte zu ändern. Das könnte dann aussehen: “sudo chmod 666 /dev/ttyACM0″. – Wenn wir schon dabei sind: Die KarateLight scheint unter verschiedenen Kernel-Versionen verschieden zu heißen. Schaut einfach mal unter /dev oder per “dmesg” nach dem Einstecken, welches Gerät sie sein könnte. Eine Möglichkeit für den normalen Desktop-Nutzer wäre “kdesu chmod …” bzw. “gksu chmod …” (Gnome, Unity), was dann einen grafischen Dialog mit Aufforderung zur Eingabe des sudo-Passworts erscheinen lässt.

Hier mein Start-Script atmotoggle.sh:

Nicht vergessen: Das Gerät hinter “/dev” an den Namen der eigenen Gerätedatei anpassen und das Script ausführbar machen. Mein Script (inspiriert von diesem) schaut bei jedem Start, ob boblight-X11 bereits läuft und falls ja, beendet es boblight-X11 und boblightd – kann also sowohl zum Starten wie zum Beenden der KarateLight-Sitzung verwendet werden, eignet sich daher vortrefflich zum Legen auf eine Sondertaste. Nach dem Richten der Rechte wird der Hintergrunddienst boblightd gestartet, der sich mit der KarateLight verbindet, dann der eigentliche Grabber boblight-X11. Mit boblight-X11 habe ich viel rumgespielt, der obige Aufruf gefällt mir am meisten. Er erzeugt eine schnelle, aber nicht zu hastige Anpassung an das Bildgeschehen und hat einen fließenden Übergang. Die Farbsättigung finde ich so auch genau richtig, aber ihr könnt ja mal mit “-o saturation=1.5″ und anderen Werten spielen.

Dann braucht’s noch die /etc/boblight.conf, die bei mir so aussieht:

Ein Fehler, der auf Arch und Ubuntu mit boblight-X11 auftritt (schreibt mir bitte, wenn nicht mehr): “libboblight.so: cannot open shared object file: No such file or directory”. Das Problem ist hier der erwartete Dateisystemaufbau von boblight auf einem 64-Bit-System. Abhilfe schaffte mir

sudo mkdir /usr/lib/x86_64
sudo ln -s /usr/local/lib/libboblight.so.0.0.0 /usr/lib/x86_64/libboblight.so

Legen auf eine Sondertaste

Wie schon erwähnt bietet es sich an, das Starter-Script auf eine Sondertaste zu legen. Die meisten Desktops bieten in den Einstellungen eine Sondertastenbelegung an, womit sich zumindest die F-Tasten und Kombinationen aus Alt, Shift und Super belegen lassen. In KDE SC findet ihr das unter Systemeinstellungen → “Kurzbefehle und Gestensteuerung” → “Eigene Kurzbefehle” → “Bearbeiten” → “Neu” → “Globaler Kurzbefehl” → “Befehl/Adresse”. Unter dem Reiter “Auslöser” könnt ihr dann eine Taste(nkombination) festlegen und unter “Aktion” z.B. “~/./.atmotoggle.sh” angeben.

Auf meiner breiten Desktop-Tastatur habe ich hierfür die “/”-Taste auf dem Nummernfeld geopfert, weil alle 19 F-Tasten schon belegt waren und ich für boblight gerne nur eine Taste drücken möchte. Realisiert habe ich das über xbindkeys.

Arch: sudo pacman -S xbindkeys

Ubuntu: sudo apt-get install xbindkeys

Als nächstes xbindkeys in den Autostart der eigenen Desktop-Umgebung setzen:

KDE SC: Systemeinstellungen → “Starten und Beenden” → Autostart → “Programm hinzufügen” → “xbindkeys”, “In Terminal ausführen”

Ubuntu: Weiß nicht.

Die Datei ~/.xbindkeysrc wird beim ersten Start von xbindkeys angelegt, wenn nicht, im Terminal xbindkeys -d > ~/.xbindkeysrc machen.
Dann z.B. als neue Zeile eintragen:

# Atmotoggle
"~/./.atmotoggle.sh"
  KP_Divide

“KP_Divide” ist bei mir die “/”-Taste auf dem Nummernblock. Um den Code für eure gewünschte Taste herauszufinden, gebt in ein Terminal xev ein (eventuell erst vorher installieren) und drückt die Taste über dem kleinen sich öffnenden Fenster. Im Terminal steht dann etwas wie “… keycode 106 (keysym 0xffaf, KP_Divide) …”. Den Namen dann entsprechend als dritte Zeile einsetzen.

Kleiner Exkurs: xbindkeys eignet sich auch hervorragend, um Kwin-Befehle auf Maus-Sondertasten zu mappen. Hier meine Zeilen für “Present Windows” (Exposé), “Desktop Grid” (Raster-Arbeitsoberflächerumschalter), und Hinein- und Hinauszoomen in den Bildschirm mit Super/Windows + Mausrad:

Um mehr mögliche Kwin-Befehle herauszufinden, einfach mal den Befehl qdbus org.kde.kglobalaccel /component/kwin shortcutNames ausprobieren.

Damit bekommt ihr jedenfalls boblight mit einem Tastendruck aus jeder Situation zum Laufen, das ist halt schon echt schön. Als wäre es eine eingebaute Funktion der Hardware.

Weitere Nutzungsratschläge

Eigenarten von Arch in Verbindung mit boblight:

Mir keine weiteren bekannt. Ich nutze KDE SC mit Kwin im Compositing-Modus mit Effekten und boblight funktioniert damit bestens.

Eigenarten von Ubuntu 12.10 in Verbindung mit boblight:

Damit boblight bei mir reagierte, musste ich in VLC bei der Videoausgabe von “Standard” auf “X11-Videoausgabe (XCB)” umstellen, SOWIE Compiz killen (!!): In einem Terminal metacity --replace machen, damit wird dann auch das Unity-Panel verschwinden. Compiz und das Unity-Panel kommen zurück über compiz --replace in einem neuen Terminal-Fenster (Rechtsklick ins aktuelle Terminal, “Neues Terminal” – wenn der Fensterfokus überhaupt noch funktioniert). Ab Ubuntu 13.04 wird Metacity nicht mehr mitgeliefert werden, ihr müsst euch dann um einen alternativen Non-Overlay-Fenstermenschager kümmern. Wer mag, kann in mein obiges Start-Script ja noch “metacity –replace” als Zeile vor boblightd und “compiz –replace” als Zeile nach “killall boblightd” schreiben, wenn es Fehler gibt und ihr das Script per Sondertaste startet, bekommt ihr dann allerdings keine Ausgabe.
Achtung: Der ganze Unity-Mist ist mir dabei mehrmals abgestürzt. Ja, das ist Ubuntu.

Du willst das doch auch

Wenn ihr Fragen zum Aufbau oder Betrieb habt, könnt ihr auch Carsten anschreiben, ich hatte mit ihm immer einen netten Kontakt und er hilft euch auch bei Problemen. Mittlerweile gibt es von Carsten auch eine Erweiterungsplatine für die KarateLight (und eine bereits damit ausgerüstete), die 16 Kanäle ermöglicht. Bei meinem 27″-Bildschirm ist das noch nicht wirklich sinnvoll, weil mir das Chaos mit den Kabeln da hinten dann doch zu wild wird… Aber wenn ich ehrlich zu mir bin, will ich jetzt eigentlich doch gleich 16 Kanäle. :D
Mein Wunsch für die Zukunft wäre noch mehr Farbraum. Das aktuelle Spektrum ist zwar schon sehr gut und stört beim Schauen nie, wenn ich aber direkt auf die Wand gucke, fällt ab und zu doch schon eine gewisse Diskrepanz zwischen gezeigtem Bild und ähnlichem, aber lange nicht exaktem Farbton auf. Aber das ist Meckern auf hohem Niveau, der Filmgenuss wird dadurch nicht beeinträchtigt.

Leuchtstreifen sollten eigentlich “das nächste große Ding” sein, gleichauf mit 3D und in meinem Ermessen weit praktikabler. Daran, dass die Technologie von der Industrie nicht zu diesem großen Ding erhoben wurde, dürfte mit erheblichen Maße Phillips durch seine Patentierung Anteil haben. Ein Jammer. Leuchtstreifen sollten an jedem Unterhaltungsbildschirm der Standard sein.

Der Situation des Massenmarktes ungeachtet, kann mensch viel Spaß haben an einem selbstgebauten System. Es ist dann auch doch ganz nett, sich etwas so Außergewöhnliches in das Alltägliche gebastelt zu haben, das so nicht jeder hat und zu einem stark immersiveren Seherlebnis verhilft. Ich kann die Technologie auf jeden Fall empfehlen, der Spaß verfliegt auch nach einem Jahr nicht!

Die Android-Enttäuschung – ein Rant mit Katharsis

2

Das Tablet: Die seit 2010 stets zunehmende Berichtserstattung darüber in meinem täglichen Netz-Konsum erweckte eine Begehrlichkeit in mir. Nicht weil ich eins brauchte, sondern weil ich eins wollte.

Ich bin seit vielen Jahren Linux-Nutzer, Anhänger des Freie-Software-Gedanken und seit Herbst 2009 glücklicher Besitzer eines iPod Touch G3, und kam immer gut ganz ohne Mobiltelefon aus.
Ich höre seit rund sechs Jahren Apple-bezogene Tratsch-Podcasts. Als in ihnen der iOS-Anteil und die offensichtlichen Möglichkeiten immer mehr wurden, musste ich so ein Gerät haben. Aber mich störte immer stärker Apples zunehmend restriktivere und einnehmende Firmenpolitik und die unbrauchbare Linux-Unterstützung. Als die Tablet-Frage für mich im Raum stand, war ich bereit, auf das zu dieser Zeit einen großen Sprung machende Android zu setzen. Der große Schritt war Honeycomb, Android 3.0. Ich sah das Produktvideo und war hingerissen von der gezeigten Frische und Vielfalt der Ideen.

Es stand ein Hardware-Wechsel an, denn die CPU des iPods kam bei Webinhalten immer deutlicher ins Schwitzen und auch seine Auflösung wurde mir zu gering. Immer drängender wurde die Suche nach einer Ablöse. Warum also nicht gleich auf ein Tablet umsteigen?
Das war Hochsommer 2011, und beinahe hätte ich mir ein aktuelles Android-Tablet besorgt, wenn nicht Gerüchte über ein anstehendes Super-Tablet von Asus für den Herbst aufgekommen wären. In einer großen Schulpause schließlich las ich ungeduldig die Nachricht der Produktankündigung bei The Verge und stieß verzückte Schreie aus.

Das 10-Zoll-Tablet sollte den neuen Nvidia Tegra 3 Quad-Code-ARM-Prozessor bekommen, ein S-IPS-Display mit 1280×800 Punkten, eine 8 MP-Kamera mit FullHD-Bildsensor und ein ansteckbares Tastaturdock mit zusätzlichem Akku, der das Ganze zu einer Art Ultrabook macht – wie cool ist das denn? Sogar ein Bild davon nahm ich in meinen Linux-Desktop-Artikel im November mit auf, so begeistert war ich von dem Gerät. Es war völlig klar: Das Transformer Prime war besser als das iPad 2 und sah mit seinen edlen Kreismustern im dünneren Aluminiumgehäuse sogar noch cooler aus.
Es sollte noch bis Mitte Februar 2012 dauern, bis ich mein vorbestelltes Exemplar in Deutschland erhielt. Voller Vorfreude, meinen mobilen Begleiter für die nächsten Jahre gefunden zu haben, packte ich das Tablet aus und spielte auch gleich das bereits erschienene Upgrade für Android 4.0 Ice Cream Sandwich auf. Dann ging ich an, das System zu erforschen – auf den ersten Blick alles ganz nett, ein bisschen arg schwarz, aber nett. Sodann besorgte ich mir Apps, und damit fing es an.

Kapitel:
1 – Schlimmer als gedacht
2 – Netbook-Software
3 – Bedienparadigmen
4 – Technokratisches Missverständnis
5 – Appastrophe
6 – Technische Aspekte: Fröhliche Fragmentierung
7 – Dateisystem auf einem Post-PC-Device
8 – Patentrechtliche Nachteile
9 – Kein Linux, keine offen entwickelte Software
10 – Plädoyer für Ehrlichkeit und Objektivität
11 – Noch einmal etwas zu mir
12 – Definitionsfrage der Objektivität
13 – Mein Prime und ich
14 – Warum ich mir ein Nexus 7 gekauft habe
15 – Es wird besser
16 – Versöhnliche Worte

1 – Schlimmer als gedacht

Es stimmte etwas nicht mit den Apps. Ich hatte diese Apple-Podcasts gehört und ich wusste von Androids Situation. Ich nahm zur Hälfte an, diese Fanboys übertreiben doch nur maßlos. Ich war gefasst darauf, dass das Software-Ökosystem schlecht ist, aber nicht darauf, dass es so schlecht ist!
Ich war erschüttert. Design, Benutzbarkeit, Durchtdachtheit, Kinetik und Geschwindigkeit ausnahmslos aller mir untergekommenen Drittanbieter-Apps waren weit unter ihren jeweiligen Verwandten auf iOS. Es war schockierend, wie schlecht ein App-Ökosystem überhaupt sein kann, wenn mensch aus der Apple-Welt kommt.
Dazu möchte ich meine Beobachtungen und Gedanken los werden.

2 – Netbook-Software

Ich bin ja sogar von meinem Desktop Touch gewohnt. Ich habe seit 2011 ein Magic Trackpad von Apple und die Linux-Unterstützung ist richtig gut. Ich nutze es als meine vierte Maus und es ist mein Meistzeit-Favorit geworden.
Bei Android nun, bei einem Betriebssystem für tastaturlose Touch-Bildschirm-Geräte, frage ich mich, ob ich nicht sogar am Desktop mehr mit Gesten arbeite als auf diesem Mobil-System. Nicht das Android 4+–Grundsystem von Google, daran hab ich wenig zu meckern, sondern bei den Apps. Nicht irgendeine Gruppe Apps, nein, ich spreche vom kompletten Android-Software-Ökosystem. Es ist erschreckend: Die allermeisten Android-Apps profitieren überhaupt nicht vom Multitouchscreen, mensch könnte sie auch genauso gut rein per Mausklick steuern, oder “genauso schlecht”. Es ist eine absolute Seltenheit, dass es vielleicht etwas zum Tabben und Verschieben gibt, oder Gesten, oder UI-Elemente, die auf den Finger dynamisch reagieren, von den fehlenden Animationen jetzt ganz zu schweigen – und der Eindruck überkommt mich, ich hätte es mit einem Haufen Windows-Freeware von Hobby-Entwicklern zu tun. Ja, hässliche Windows-Freeware. Lieblos zusammengehackt. Die inkonsistenten UI-Paradigmen über Apps hinweg bestärken den Eindruck nur noch. Und träge ist das Zeug, Mannomann. Auf einem Quadcore! Hallo Java!

3 – Bedienparadigmen

Es ist stets eine Frage, woraus ein System sich herentwickelt hat. Android-Geräte bekamen erst Post-iPhone einen Touch-Screen verpasst, das ist aber keine Rechtfertigung für die Art, wie App-Oberflächen bei Android-Apps zum Großteil aufgebaut sind: Sie wirken wie heruntergestutzte Desktop-Software mit ganzseitigen Menüs und größeren Klickelementen. – Android-Software ist Netbook-Software, aber ich will APPS! Ich will da keinen PC, ich will mich bei einem ultramobilen Gerät nicht mit PC-Problemen herumschlagen müssen. Genau die wurden aber vielenfalls direkt von der Vorstellung einer PC-Anwendung übertragen; es fand kein Transferprozess für angemessene Bedienung bei einem Gerät mit Multitouchscreen statt.
Eine Menge Android-Apps sind aufgrund des verbreiteten Netbook-Paradigmas enorm fummelig zu bedienen. Aber, wenn ich solche Anwendungsfälle habe, dass ich Software mit Fitzelkram und “Openness” für skurrile Zusatzfunktionen brauche, dann nehm ich doch lieber gleich einen PC her und mach’s da, mit wirklich leistungsfähiger Software. Und kommt mir nicht mit “Produktivität”! Tablets sind nicht für Produktivität! Wenn ihr mit einem Touchscreen produktiv sein wollt, dann kauft euch einen Tablet-PC mit Windows – da hat Microsoft seit 2001 viel, zum Großteil ungewürdigte, großartige Arbeit geleistet. Es macht schlicht keinen Spaß, Android-Apps zu bedienen; ich will aber mit einem ultramobilen Touch-Screen-Gerät Spaß haben!

4 – Technokratisches Missverständnis

Generell kann ich schon beim Android-Grundsystem einen Hang zum “PC-Konzept minus Etwas” feststellen. Meine bescheidene Einschätzung ist, dass für die wenigsten Nutzer Androids Technokratie einen Vorteil darstellt.
An der Technokratie Androids habe ich auszusetzen, dass es keine schöne ist, die mensch als Normalnutzer (!!) anpassen kann wie mensch mag, wie bei KDE SC. Die Technokratie liegt im Herz der Android-UI. Mensch bekommt halt dieses technokratische Produkt vorgesetzt und es tut dieses hier und das auf diese bestimmte Art, aber kann es nicht ändern, obwohl die UI durch ihre Technokratie vortäuscht, selbstredend offen für Nutzervorstellungen zu sein, es aber nicht *ist*. Daran störe ich mich bei Android extrem – das OS macht den Spagat zwischen Hersteller-Blackbox und PC-System falsch. Zu viele PC-Paradigmen haben es in das System geschafft und wurden anschließend beschnitten, es scheint, damit mensch die Rechtfertigung hat, zu sagen: “Seht her, wir haben ein neues Mobil-UI geschaffen!”
Das UI-Konzept ist in dieser Hinsicht ein Fehldesign. Das mag bei Tablets mehr auffallen als bei Smartphones, und leider wird mir hier wahrscheinlich niemand, der nicht auch mit iOS durch Benutzung vertraut ist, folgen können.

5 – Appastrophe

Ein ultramobiles Gerät dient keinem Selbstzweck, sondern das System darauf ist das Tor zu kleinen nützlichen – oder unterhaltsamen – Apps. Meine Hauptanwendungen sind unter anderem Twitter-Client und Notizen-App, außerdem noch Webbrowser, E-Mail-Client und Musik-Player. Das sind erst mal schlichte Ansprüche, darum glaubte ich, ich würde keine Schwierigkeiten haben, adäquaten Ersatz dafür auf Android zu finden. Weit gefehlt. Der offizielle Twitter-Client war im Frühjahr extrem träge, sogar einfaches Scrollen in der Timeline ruckelte wie Sau. Die Android-App ist auch bis heute nicht für Tablets angepasst worden. Tim Cook dazu in einem Seitenhieb während der Apple-Keynote zur Vorstellung des iPad G3: »It kind of looks like a blown-up smartphone app, because that’s exactly what it is.«

Alternative Twitter-Clients auf Android habe ich jeden probiert, den ich finden konnte. Alle furchtbar hässlich. Oder hirnverbrannt unbedienbar. Bedienparadigmen wie bei Windows 95. Oder ihnen fehlen die essentiellsten Funktionen. Geht mir weg mit Twitter-Apps auf Android. Die offizielle App scrollt nach mehreren Updates nun zügig, ist aber noch immer kein Vergleich zu Tweetie/der offiziellen Twitter-App auf iOS. Und ein Unterschied wie Tag und Nacht zu Tweetbot.
Ich mache mir eine Menge Notizen über mein Leben, über Gespräche, und ja, mensch will es nicht glauben, über Blog-Artikel. Ich habe rund 15 Notizen-Apps aus dem Play Store ausprobiert; keine, aber wirklich keine kam für mich an die schlichte, elegante, praktische Notizen-App von iOS heran. Ja, die Notizen-App soll aussehen und sich verhalten wie ein Notizbuch und nicht wie ein Texteditor mit Speichern-Knopf, weil es genau das für mich ist! Ein Notizbuch!! Skeuomorphismus FTW! Zudem finde ich es sehr befremdlich, dass Google keine eigene Notizen-App mitliefert.

Die Qualität der meisten Android-Apps wirkt so unglaublich billig. Sie sind zum Großteil geschmacklos entworfen, wie eine PC-Anwendung der alten Schule, aber ohne Design Guidelines. Typische iOS-Apps sind wie Kloster-Abschriften, typische Android-Apps wie aus dem Büro-Nadeldrucker. Fehlende Eleganz festzustellen, ist noch eine wohlwollende Untertreibung. Ich weiß nicht, wie die Nutzer vor der neuen Holo-UI (3.0/4.0) Android-Apps ertragen haben ohne sich zu häuten. Diese Gingerbread-Apps machen nach wie vor den Großteil des Play Stores aus. Für alle mal übertragen auf den PC ist das, wie wenn auf einem Windows Aero Glass-Desktop ein klassisches graues Sperrgut erscheint, das aussieht wie eine technische Zeichnung einer Küche. So fühlen sich Gingerbread-Apps an.

»You are too harsh – Android tablets are great at running benchmarks, who cares about actually using them?« —Kommentar auf The Verge

In iOS fließt alles flüssig ineinander, jede mögliche Systemaktion wird nicht digital bestätigt, sondern wird begleitet von einer angenehmen Animation, denn Animationen erzeugen Gefühle und Emotionen. Das Toolkit zur Entwicklung von iOS-Apps setzt stark auf Core Animation, eine Technologie von Apple, die Übergänge und Animationserstellung extrem vereinfacht, was bedeutet, dass es Usus für iOS-Apps ist, von diesem Framework verstärkt Gebrauch zu machen. Wenigstens Google hat die Wichtigkeit von Animationen mit Android 4.1 endlich kapiert und seine Effekte logischer gemacht und weiter herausgeputzt. Für die Apps aus dem Play Store gilt das aber noch lange nicht und ich bin wenig zuversichtlich, dass sich da in näherer Zukunft was ändert. Die Kultur der Mobil-Märkte ist auch eine völlig andere: Bei iOS werden Apps für unansehnliches Äußeres im App Store von den Nutzern brutal abgestraft, bei Androids Play Store sind die Nutzer offensichtlich schon froh, wenn sie endlich eine App mit der in etwa gewünschten Funktionalität gefunden haben. Eine App im Play Store wegen ihrer Hässlichkeit abwerten? Du wirst zum versponnenen Design-Hipster erklärt. Schließlich war die App kostenlos!
Was auch damit zusammenhängt, dass Bezahl-Apps auf Andoid schlecht laufen. Sei es, weil sie einfach schlecht sind, sei es, weil Kopierkopieren ohne App-DRM so leicht ist, oder sei es, weil Google immer noch nur Kreditkarte als Zahlungsoption für den Play Store akzeptiert und diese zumindest in deutschen Landen eher spärlich anzutreffen sind. Die Folge: Werbebanner in jeder zweiten App. Ich zahle gerne für gute Apps – damit sie gut sind – aber auf Andoid sind offenbar die wenigsten Nutzer bereit, Geld für Software auszugeben.

6 – Technische Aspekte: Fröhliche Fragmentierung

Ich zitiere @gr4y: Android ist das Windows unter den Mobil-Systemen. (Das war noch vor Windows Phone 7.) Auf so viele Arten: Geräte der verschiedensten Hersteller liefern es als den Standard aus, würzen es aber noch mit einer guten Prise Bloatware. Samsung etwa mit Touchwiz, HTC mit Sense, alternative Oberflächen, die große Teile der Google-UI ersetzen, den Stimmen im Netz nach nicht zum Besseren. Hintergrund ist die Differenzierbarkeit und der Gedanke der eingebildeten Kundenbindung – gleiche Sache wie bei Canonical mit Unity. Tatsächlich sind diese Hersteller-eigenen UIs aber der Grund, warum Upgrades auf neue Android-Versionen bei den populärsten Geräten im letzten Jahr im Schnitt neun Monate gebraucht haben, bis sie verfügbar gemacht wurden, denn die Hersteller müssen sie erst noch mit ihren Modifikationen patchen. Neun Monate, in dieser Zeit werden Kinder gezeugt und geboren! Neun Monate müssen Nutzer von Smartphones, die nicht günstiger sind als das iPhone, auf ein System-Upgrade warten. Das macht mich fassungslos. Meistens aber gibt es sowieso keine Upgrades auf die nächste Major-Version des OS, ist ja auch schwierig für einen Hersteller, der im Jahr 50 neue Android-Gerätekonfigurationen auf den Markt wirft.

Zweiter Nebeneffekt dieser Softwaremodifikationen ist, dass Hersteller Android im Grunde schon forken, um z.B. ihre eigenen Konzepte für Multitasking tief in das System zu fräßen, und anfangen, App-Entwicklern eigene APIs für ihre Android-Versionen bereitzustellen, was seinerseits den App-Markt und das Ökosystem weiter fragmentiert.

Das beliebte Argument hierauf: “Dann flash’ halt CyanogenMod drauf!”, kann nicht ernst genommen werden. Kein Normalbenutzer (übrigens sinkt die Breite der durchschnittlichen Computerkenntnisse von Jahr zu Jahr) kommt damit klar. Dazu kommt erst einmal die Notwendigkeit für einen offenen oder entsperrbaren Bootloader – beim Entsperren oder Cracken erlischt stets die Gerätegarantie – und dann fehlen CyanogenMod eventuell immer noch Treiber für spezielle verbaute Hardware, oder deren exakte Konfiguration ist nicht bekannt, oder andere Dinge sind gar nicht enthalten, weil sie Softwarepatenten unterliegen, die der Hardwarehersteller zwar gezahlt und implementiert hat, CyanogenMod aber nicht. Kurzum, die Sache ist interessant für Geeks, nicht für Lieschen Müller. Nicht so bei Apple: Nach wenigen Wochen sind regelmäßig über 70% der Installationen auf die neueste Softwareiteration aktualisiert. Für Entwickler bedeutet das, sie brauchen sich wenig Gedanken um alte Betriebssystem-Versionen machen und können neue APIs voll ausschöpfen.
Das Windows XP der Android-Reihe ist Android 2.x: Steinalt, technologisch im Jura, aber mensch muss es noch mitunterstützen, weil es viel zu viele Nutzer hat – es kamen sogar bis zur Jahresmitte immer noch neue Smartphones von großen Herstellern wie HTC und Samsung heraus, die auf Android 2.3 setzten. Damit hält mensch die Entwicklergemeinde davon ab, neue APIs von aktuellen Android-Versionen verwenden zu können, weil sie die Kompatibilität mit dem Legacy-Zweig brechen würden. Was eine Gülle!

Eine weitere Parallele zu PC-Windows ist, dass das Betriebssystem auf einer Vielzahl von Geräten läuft. Das bringt Probleme mit sich, denen sich Google noch nicht ausreichend gestellt hat.
App-Entwickler haben aufgrund des fehlenden PCI-Bus der ARM-Architektur und keiner zum BIOS vergleichbaren Standardschnittstelle offenbar keine Chance, herauszufinden auf welchem Chipset ihre App eigentlich läuft. Das artet aus in ein Herumgestochere im Nebel, wie mensch es von den fehlerhaft implementierten OpenGL-Instruktionen bei proprietären Grafiktreibern unter Linux kennt. Entwickler, und ganz besonders Spiele-Entwickler, müssen darum ihre Apps auf den Geräten an sich testen, um Kompatibilität zu gewährleisten. Ein Wahnsinns-Unterfangen.
Und nebenbei lässt sich aus dem Grund der extremen Marktfragmentierung auch nur schlecht die Highend-Hardware der “Flagschiff”-Geräte ausreizen. Apple hat hier durch seine geschlossene Softwareplattform, die nur auf Apple-Hardware läuft, einen himmelhohen Vorteil. Wie PC-Spieleentwickler ihre Titel auf vielen verschiedenen Grafikkarten testen müssen, müssen also auch Android-Entwickler, die ernsthaft beabsichtigen, durch gute Rezensionen Geld zu verdienen, eine aberwitzige Zahl an Android-Geräten im Labor haben. Hier wird ganz klar der Unterschied zum Konsolen-Ansatz von Apple deutlich: Apple verkauft keine mobilen Computer-Konfigurationen, Apple verkauft Plattformen. Plattformen, gegen die sich zuverlässig entwickeln lässt. Den geschlossenen Ansatz will ich so nicht werten, aber es ist Fakt, dass er ihrer Plattform einen ganz enormen Vorteil bringt. Standardisierte Displaygrößen und ihre bestmögliche Ausreizung sind hierbei auch noch ein Thema.

Als Nvidia den Tegra 3-SoC herausbrachte, erhob es seine Hardware kurzum selber zur Plattform und veröffentlichte einen eigenen Meta-App-Store nur mit Tegra 3-Spieletiteln. Das ist kein Scherz – es gibt nur für den Tegra 3 geschriebene, und spezielle Versionen bereits erschienener Titel mit Tegra 3-Optimierung. Da es keine Filteroption im Play Store für auf die eigene Hardware besonders optimierter Titel gibt – was unbegreiflich angesichts der auf dem Markt verfügbaren Menge an komplett verschiedenen Android-Geräten ist – musste sich Nvidia mit einer eigenen App behelfen. – Sogar im technischen PC-Umfeld hat mensch es als Nutzer leichter, für seine Hardware passende Titel zu finden, geben die Hersteller doch Systemvoraussetzungen und empfohlene Konfigurationen an.
Lustig auch, dass manche Spiele, die sich an allgemeine Standards halten, ganz ohne Tegra 3-Optimierung die Hardware nicht ansatzweise auslasten können, weil Nvidia eine nicht standardskonforme Architektur entworfen hat. Es wird also von den Spieleentwicklern verlangt, ihre Titel auf die fragwürdigen Nvidia-Designs zu optimieren; sie müssen sich fast auf low-level-Ebene mit der Chip-Architektur beschäftigen. Und das auf einem Betriebssystem, das eigentlich gerade keine feste Plattform wie Apples Konsolen-Geräte ist. Völlig absurd. Das ist die selbe Situation wie für 3dfx-Karten geschriebene Windows-Spiele in den Neunzigern, als DirectX noch in den Anfängen lag. – Heute lassen sich diese Spiele natürlich nicht mehr nativ spielen. Treffenderweise war es 2000 Nvidia, das 3dfx aufgekauft hat.
Das alles trägt zur weiteren Fragmentierung des Android-Software-Marktes bei.

7 – Dateisystem auf einem Post-PC-Device

»Every once in a while a revolutionary product comes along that changes everything.« —Steve Jobs bei der ersten iPhone-Präsentation 2007

Im Realitätscheck wird schnell klar, dass wir nach wie vor mit Dateien arbeiten und Mittel und Wege finden müssen, mit ihnen angenehmer umzugehen. Apple ging bei iOS den Weg der radikalen Objektivierung: Es gibt Musik, es gibt Bilder, es gibt Apps, es gibt Text und diese Dinge sind, was sie sind – hoch abstrahierte logische Objekte, mit denen der Nutzer nur mehr mit ihrem Noumenon in Beziehung tritt, nicht mit der technischen Einheit einer Datei. Um diese Strategie zu fahren, kam in der iPod-/iOS-Anfangszeit der iTunes-Software auf dem PC die wichtige Aufgabe der Wegabstrahierung aller PC-Verbindungen zu. iTunes ermöglichte dateilose Geräte, auf denen der Nutzer nur noch Entitäten wahrnahm.

Google ging das Android-Design ganz praktisch an: Es hatte ein Linux, auf dem irgendwie das Android-Userland lief, es gab Programme, es gab wie auf jedem ordentlichen Linux-System Nutzer-Profile für diese Programme, und somit ein Homeverzeichnis, in das diese Programme ihre Konfigurationen schrieben und worüber sie Dateien austauschten. Und ganz wichtig: Google, oder das Android-Unternehmen, bevor es von Google aufgekauft wurde, legte dieses grundlegende Systemdesign fest, noch bevor Apple iOS zeigte. Es ist nichts anderes als das klassische PC-Paradigma und bringt Schwierigkeiten auf einem ultramobilen Gerät, die mensch dort nicht haben will.
Einige Apps speichern z.B. geladene Bilder nach ~/Pictures, andere in ihnen eigenen Konfigurationsordner, andere legen einen ganz neuen Ordner an. Bei iOS landet einfach alles im Fotoalbum und es gibt nur dieses eine datenbankgestützte Album mit API für alle Apps.
Es ist bei Android-Apps überhaupt nicht intuitiv ersichtlich, wo Dateien hingespeichert werden; es gibt keine Standards. Als wäre das nicht genug, sieht der Nutzer in seinem Homeverzeichnis auch noch jede Menge nicht versteckte Konfigurationsverzeichnisse seiner Apps. Wobei “sehen” relativ ist, denn erst mal muss er sich überhaupt einen Dateimanager besorgen, denn Android bringt keinen eigenen mit, obwohl es ein ganz klassisches Dateien-Metapher-System ist.
Wo iOS die Dateiverwaltung mehr oder weniger elegant umgeht, indem es Apps Silos für Dateibestände gibt, die diese per “Öffnen in”-Schnittstelle vom System kontrolliert an andere Apps weiterreichen können, hat Google vollkommen vor der Aufgabe kapituliert, Dateien zu Entitäten zu machen und überlässt die Nutzbarmachung der Datenbestände des Anwenders Drittanbieter-Apps.

Wieder zeigt sich Androids technokratische Seite und speziell die Falschheit, mit der ein Ultramobil-OS vorgetäuscht wird, das dem Nutzer PC-Metaphern bietet, er sie aber tatsächlich nicht nutzen kann, weil sie beim Beschnitt des PC-Konzepts durch zu viele Kompromisse eingerissen, oder Funktionen gar nicht erst implementiert wurden. Was bleibt, ist ein vom mächtigen PC-Konzept nach “unten” gestutztes Mobil-System, das besser hätte von unten nach oben neu konzeptioniert werden sollen und in Benutzbarkeit gegenüber anderen Systemen den Nachteil hat.
Diese mitgeschleppten PC-Paradigmen, von denen ich spreche, meine ich selbstverständlich nur in der Benutzung. Wie das System seine Informationen intern verarbeitet, ist für den Nutzer zweitrangig. Das UI-Konzept ist nicht konsequent durchgezogen, das System ist nicht das eine, nicht das andere; eine halbe Sache. Ich kann nicht sagen, wie es besser wäre, es ist aber auch gar nicht meine Aufgabe, das zu wissen – ich bin nur ein Nutzer und bewerte die Nutzungserfahrung.

Nach den konzeptionellen Versäumnissen hat Android noch mit zwei Schwierigkeiten zu kämpfen: Erstens überhaupt Dateien auf das Gerät bekommen. Es gab nie eine Standardsoftware wie iTunes, die dem Benutzer hilft, seine Medien zusammenzutragen, zu taggen, und Backups zu machen – zu synchronisieren. Alle Android-Geräte-Bespielung ist Datei-orientiert – das dabei eingesetzte MTP ist Datei-Paradigma für den Nutzer und die Realität ist, dass die Auseinandersetzung mit Dateibeständen für den Standardnutzer zu kompliziert ist. Es kann sein, dass Google das Problem der PC-Überspielung nur aussitzt und wartet, bis alles in der Cloud ist – ich glaube aber nicht an diese Vision.

Die zweite Schwierigkeit tritt dann auf, wenn die Dateien verschiedenster Art auf dem Android-Gerät sind: Dateiaustausch zwischen Programmen und Dateiverwaltung. Der Nutzer darf nicht in Konfigurationsverzeichnissen nach Dokumenten suchen müssen; die meisten werden dabei scheitern. Momentan hat Android wie schon gesagt selber nicht mal einen Dateimanager, Google ignoriert das Problem der Dateiverwaltung also.
Da knallen die verschiedensten Paradigmen aufeinander, eine Synthese, oder besser ein integriertes Konzept, wären dringend nötig. Es muss in Googles Interesse liegen, das Homeverzeichnis abzuschaffen; das ist ein ganz tiefer Designfehler, sie müssen davon weg. Interessant wird werden, in welches Verhältnis Windows (8) RT seine Nutzer zu Dateien stellt.
Verbesserung 11. Oktober 2012: Mensch erklärte mir, dass es eigentlich kein “Homeverzeichnis” bei Android gibt, sondern /storage/sdcard0 bzw. /sdcard faktisch dazu von den Apps missbraucht wird. Es gibt unter /sdcard den sogenannten shared storage, unter /data/data/$Paketname und /sdcard/Android/data/$Paketname den eigentlichen Ort für Konfigurationen von Apps. Das ändert nichts daran, dass /sdcard von einer Vielzahl Apps zur Konfigurationsablage genutzt wird und dass das Homeverzeichnis-Paradigma für das Ablegen aller möglichen Nutzdaten von Apps gebräuchlich ist, was den Nutzer zu der Verwendung eines Dateimanagers zwingt. Android besitzt zwar auch eine API, die die Verwendung von shared storage und dem Konzept des für den Nutzer sichtbaren Dateisystems überflüssig macht, mit der Apps ihre Daten ähnlich wie auf iOS in eigenen Silos ablegen und dann Verweise darauf an andere Apps weitergeben können, jedoch wird diese Möglichkeit im Ökosystem fast nicht genutzt.

8 – Patentrechtliche Nachteile

Das Android-System hat durch Apples Patentkriege, die ich jedoch in keiner Weise gutheiße, nicht wegdiskutierbare Nachteile gegenüber iOS. Dazu gehören für mich zentral das fehlende Bounce-Back, der “Gummiband”-Effekt beim Scrollen am Ende von Inhalten, sowie Scrollen in nur eindimensionaler Richtung mit Einrastung auf die jeweilige Schiene (Webseiten verschieben sich auf iOS nicht nach links oder rechts, wenn mensch vertikal zu scrollen beginnt). Diese Nachteile betreffen das komplette Grundsystem von Google und alle nativen Apps. Erfreulicherweise hat Mozilla bei Firefox für Android beides ungeachtet Apples Patenten implementiert – hoffen wir, dass sie dabei bleiben. Trotzdem gibt es kein systemweites Bounce-Back und damit verliert Android gegenüber der Konkurrenz ein hohes Maß an natürlichem Anfühlen.

9 – Kein Linux, keine offen entwickelte Software

Android ist für mich kein “Linux”, sondern ein Java-Stack, der genauso gut auf Windows laufen könnte. Der Kernel ist ein Linux. Alles darüber intern entwickelte Google-Suppe. Zwar frei, aber so ein Brei ist für mich keine Linux-Plattform, die lebt, die wirklich dynamisch von einer Gemeinschaft und nicht hinter verschlossenen Türen entwickelt wird, und die vor allen Dingen nicht auf dem widerlichen Java basiert. Wie kann mensch nur auf die Idee kommen, ein User Interface und seine Frameworks in dieser unperformanten und schrecklichen Sprache zu schreiben? Kein Wunder wird das mit den hochwertigen Android-Apps nichts, bei dem Entwicklungsprozess! Dagegen ist Objective-C und Xcode von Apple… Ja, was ist es denn, da fehlen mir die Worte, – da ist Xcode dagegen eine Entwicklerhilfe aus den 10er-Jahren dieses Jahrhunderts, während Androids SDK mit Eclipse streng nach den 90ern riecht.

10 – Plädoyer für Ehrlichkeit und Objektivität

Eine These: Von den verhältnismäßig wenigen Nerds, die ihre hohe Anpassungsfreiheit möchten abgesehen, dürfte der Massenmarkt der Android-Smartphones wahrscheinlich nur funktionieren, weil die Konsumenten entweder nicht das Geld für Apples Premium-Preise haben, Produkte von Apple ablehnen, oder noch nie mit iOS in Kontakt gekommen sind. Viele würden die iOS-Umgebung Android vorziehen, können es aber nicht. Und das ist schade, denn für den Normalnutzer ist das System so viel angenehmer.

Ich finde es traurig, dass damit so viele Leute arbeiten müssen. Ohne Polemik, das meine ich so. Ihr tut mir aufrichtig leid, ihr unbedarften Android-Nutzer. Nicht ihr Android-Geeks (die ihr meint, Android sei total das Linux und noch dazu von Google und darum muss mensch es cool finden), ihr sollt ruhig euren Spaß haben. Aber dass dieses System so verdammt viele Leute nutzen müssen, die etwas so viel Menschenfreundlicheres bekommen könnten, macht mich echt traurig. Und nein, es müsste nicht Apple sein, denn auch webOS fand ich gelungen. Aber Android, oh weh, nicht das.
Wann haben wir eigentlich angefangen, alles was Google macht für cool zu befinden? Ich weiß ja, wer mich hier liest und ich sage euch: Eure Identifikation spielt Euch einen Streich: Google sind nicht automatisch die Guten und Google ist nicht hier, um Eure Freie-Software-Ideale zu verwirklichen. Die Philosophien sind dem Konzern in Form von Lizenzen sogar enorm lästig. Das wisst ihr. Aber ihr glorifiziert das System zu eurem Retter der Mobil-Bastillion, zu dem Kämpfer für Freiheit, und habt Euch dabei ein klares Feindbild konstruiert: Apple.

Ich wünsche mir, ihr würdet mal von Eurer ständigen Verteidigerrolle wegkommen. Ihr müsst da nichts verteidigen! Ihr mögt Open Source und Freie Software und ich auch, aber die Android-Plattform ist einfach ein Graus! Ihr fühlt Euch jetzt bestimmt wieder gleich angegriffen, aber macht doch mal den Test und bewertet die Nutzungserfahrung auf einem iOS-Gerät des Bekannten Eurer Wahl mit objektivem Blick ohne den Apple-Ekel.

11 – Noch einmal etwas zu mir

Ich bin Linux-Nutzer seit 2003; meine erste Distribution habe ich eingelegt, da war ich noch auf der Grundschule. Ich bin wahrhaftig beseelt von der Freie-Software-Philosophie und schätze die technischen Möglichkeiten aufs Liebste. Im Jahr 2008 stand ich vor der Entscheidung, weiter Linux als mein Haupt-OS einzusetzen, oder mein bestens funktionierendes OSx86-Hackintosh-System – meine Wahl fiel auf Linux, weil ich damit mehr machen konnte, mehr Freiheiten, mehr Wahl, mehr Möglichkeiten hatte. Obwohl vieles weniger elegant gelöst war. Das ist also meine Tendenz. Bei Android war ich zuversichtlich, mich analog gleich zu verhalten, aber das war nicht der Fall. Kurz gesagt: Es bietet mir weniger Möglichkeiten bei weniger Eleganz. Zu den Möglichkeiten zähle ich bei iOS die Jailbreak-Apps dazu, und selbst die sind wie gesagt besser als die nativen Funktionen von Android und seinen Market-Crap-Apps.
Dann fahr ich halt die Windows-VM mit iTunes hoch, wenn ich Musik auf mein iDevice laden will. Ein wenig Schmerzen mit der ungeliebten aber mächtigen Software (spricht der Hardcore-Amarok-Nutzer…) bei der Medienbestückung stehen in keinem Verhältnis zu den Schmerzen, die mir Android jede Minute des Nutzens verursacht (vom Android-Musik-Player “Google Music” gegen die geniale iPod-Software auf iOS fang ich erst gar nicht an).
Ja Apple, Du hast mich in Deinem Würgegriff.

12 – Definitionsfrage der Objektivität

Ich behaupte nicht, dass iOS der Weisheit letzter Schluss sei, aber ich meine, es ist im Moment die süßeste Lösung für den Endanwender.
Ich setzte Hoffnung in das freie Open webOS, das vielleicht eine attraktive Plattform für Endanwender und Entwickler darstellen könnte, es sieht aber leider so aus, als wäre webOS schon nur noch im Wartungsmodus bei HP und die exzellenten Entwickler alle von Google geholt. Ob das gut ist, bin ich zwiegespalten.

Ich bin nicht für Monopole oder geschlossene Systeme, aber ich bin für gute Software, für die beste Software – sowohl in Plattformarchitektur, als auch Benutzbarkeit adäquat für den Zweck, für den sie gefordert ist. Beim Desktop-Linux im Vergleich zu Windows und OS X Aqua ist es wenigstens noch so, dass mensch die Oberfläche besser finden kann – ich schätze mein KDE SC um viele Fähigkeiten, die mir Windows und OS X nicht bieten. Die ganze nerdige Konfigurationssache nehm ich dabei für meinen Teil “in Kauf”. Aber bei Android ist ja nicht mal das gegeben; ich kann mir nicht vorstellen, weshalb ein Normalnutzer Androids Software-Ökosystem dem von iOS vorziehen könnte – rein auf die Benutzbarkeit und Möglichkeiten geschaut.

Aber Mobilgeräte sind ein sehr emotionales Thema, weil mensch viel Zeit mit ihnen verbringt, viele intime Momente, und sie immer dabei haben will. Ich kann verstehen, dass es unterschiedliche Neigungen und Erwartungen gibt.
Achtung, jetzt verwende ich wieder mein bedachtvoll eingesetztes Wort: Ich liebe iOS ähnlich, wie ich meinen durchkonfigurierten Firefox mit seinen drölfzig Add-Ons, und meinen Linux-Desktop mit wabbelnden Fenstern liebe. An diesen Dingen messe ich die Konkurrenz, sie sind für mich der Gold-Standard. Und ohne die charakteristischen Paradigmen dieser Software will ich heute keinen Computer mehr verwenden. Das heißt nicht, dass ich nichts anderes mehr verwenden will, sondern meint, dass das Andere für mich diese Standards einhalten oder überbieten muss, um attraktiv zu sein.

13 – Mein Prime und ich

Science-Fiction trug seit über einem halben Jahrzehnt seinen guten Teil für mich dazu bei, ein Habenwollen-Verlangen nach einem Tablet zu spüren.

Stargate: Atlantis – Season 3 Episode 10: Rodney stellt die McKay-Carter-Gatebrücke vor // Copyright hält Metro-Goldwyn-Mayer Studios Inc.

Copyright: Metro-Goldwyn-Mayer Studios Inc.

Insgeheim dachte ich immer, ich bräuchte nur so ein Tablet, um auch so cool wie Rodney McKay zu sein. Als ich es jetzt hatte, habe ich gemerkt, es ist gar nicht so cool, und es macht mich weder nach außen toller, noch nach innen aufgeweckter. Es ist letztlich nur ein Gadget, und ich fragte mich, was es eigentlich genau für ein Gewinn war, den ich mir davon für mich erträumte. Oft hatte ich da dieses Bild von mir im Kopf, wie ich vor einem Publikum stehe und einen Vortrag halte – ich weiß gar nicht, über was – und auf meinem supercoolen Tablet mein Verlauf vermerkt ist, und ich locker irgendeine Art Präsentation steuere. – Erhoffte ich mir vielleicht mehr Sicherheit im Auftreten durch clevere Zusatztechnologie? “Angeben” direkt spielte keine Rolle, nur das Selbstgefühl von jemanden, der weiß, was er tut. Das ist interessant…

Ich machte bald die Erfahrung, dass der Prime nicht wirklich mobil war. Ich konnte ihn horizontal in meine Tragetasche stecken und in die Innenstadt gehen, Tauben fotografieren, mit meiner 600 Euro-Anschaffung posieren, aber zu sonst war er nichts nütze. Kein UMTS, ich musste weiter meinen kleinen MiFi-Router (UMTS-zu-WLAN-Gateway) einschalten, wenn ich Internet wollte. Die eingesteckten Ohrhörer sahen recht lachhaft aus, wenn ich das Tablet wieder vorsichtig in der Tasche verstaute. Einmal nahm ich den Prime zu einem Musical mit, um ihn während der Fahrt als Musikplayer zu nutzen. Das Tablet sollte ja ein iPod-Ersatz sein. Ich konnte im Bus schier nicht tippen, und bei allem, was ich auf dem Bildschirm tat, war es mir unangenehm, ob meine Nachbarn nicht mitlesen würden. Ein viel zu großer Bildschirm. Während des Musicals wusste ich nicht, wo ich den Prime hinlegen sollte, ich hatte keine Tasche dabei – also unter meinen Sitz, aufpassen, dass ihn mir keiner klaut. Ich kam mir reichlich albern vor.

Ich nahm zwar diese Enttäuschung schon wahr, glaubte aber, das würde sich schon noch geben. Ich wollte mich kompatibel zu dem Gerät machen. Bezüglich der verfügbaren Software dachte ich, das muss so, das muss jetzt so weh tun, während du das proprietäre Feld verlässt, und die guten Apps werden sicher bald kommen, Android 4 ist ja eine ganz neue Plattform. Ich kam nie auf die Idee, von meinem Rückgaberecht Gebrauch zu machen, bis das Fenster um war. Ich wollte es eben wirklich gut finden.
Ich darf mich glücklich schätzen, in meiner dritten Nutzungswoche einen kosmischen Wink mit dem Zaunpfahl erhalten zu haben: Auf einmal ging das Tablet nicht mehr an. Der Akku war leer, anschließend ließ es sich nicht mehr aufladen. Alle Tipps des Telefon-Supports halfen nichts, der Prime musste in Reparatur. Eine Reparatur, die fast fünf Wochen dauerte. Bei einem Gerät, das gerade weltweit neu auf den Markt kam. Über den Asus-Support sagt das viel aus. Es musste ein neues Motherboard aus Taiwan bestellt werden, und alle Videos, die ich gemacht hatte, waren damit auch verloren.

In meiner Tablet-Limbo ging mir mit dem Abstand zum Gerät mit einem Mal auf, dass ich gar keine Verwendung für den Formfaktor hatte. 10″ und das Gewicht sind zu unhandlich, um das Gerät einhändig zu halten, in der Wohnung rumzulaufen – und was eigentlich damit zu machen? Ich überlegte angestrengt, aber mir fiel nichts ein, was ich nicht auch schon davor mit dem iPod Touch tun konnte. Auf der Couch surfen? Warum, wenn mein PC vier Meter daneben steht, doch eh den ganzen Tag läuft, und mir einen besseren Browser bietet? Schreiben? Wo soll ich besser schreiben können als an meinem Desktop? Multitouch-Spiele? Ich spiele nicht viel, die Android-Auswahl war kläglich und qualitativ hatte ich schon bessere auf iOS gesehen. Wozu ein Tablet? Ich brauchte kein Tablet. Um das zu realisieren, hat mein Hirn die Medienbeeinflussung von über zwei Jahren meiner Geek-Sozialisation überwinden müssen. In mir brach eine kleine Welt zusammen: Die ganzen Podcasts, die ich über die Jahre gehört hatte, iPad, iPad, iPad, frenetische Tablet-Begeisterng, Ausruf der Post-PC-Ära von allen IT-Medien, fallende PC-Absatzzahlen – das alles sollte keine Bedeutung für meine Computernutzung haben? Was ist mit mir los? Ist es, weil ich ein Geek bin und mit dem Rechner so weit vertraut, dass mir ein vereinfachendes Gerät tatsächlich behindernd vorkommt? Ist es, weil Android so wenig Spaß machte? Galt der Jubel etwa nur für das iPad? Und wieso genau? Ich weiß es bis heute nicht.

Es war ein grundsätzlicher Fehler von mir, zu glauben, ein 10″-Gerät könne mir den 3,5″-iPod Touch ersetzen.

Ergebnis ist jetzt, dass ich das Tablet verkauft habe und mir im März ein iPhone 4S ohne Mobilfunkvertrag über Ratenzahlung bei O2 zugelegt habe. Und damit bin ich glücklich, kam sogar einige Monate ohne Jailbreak aus. Ich verlor beim Verkauf des Asus Transformer Prime gut 160 Euro. Eine teure Einsicht, eine späte Einsicht, aber wenigstens überhaupt eine Einsicht.
Das iPhone 4S ist übrigens mein erstes Handy überhaupt. Ich versetze es aber nur in den Mobilfunkmodus, wenn ich außer Haus twittern oder surfen will, und nutze die Mobiltelefonfunktion überhaupt nicht. Ich will und brauche nach wie vor kein Handy und achte darauf, meine Elektrosmogbelastung so gering wie möglich zu halten.

14 – Warum ich mir ein Nexus 7 gekauft habe

Der Beitrag hätte eigentlich hier zu Ende sein können, aber da ich den Entwurf seit März so lange liegen gelassen habe, haben sich meine Positionen mit den neuen Gegebenheiten der letzten Monate verschoben.
Google hat sein erstes Tablet der Nexus-Reihe herausgebracht, ein 7-Zöller mit Tegra 3-SoC in Zusammenarbeit mit Asus. Das Tablet hat die gleiche Auflösung wie der Prime von 1280×800 in 16:10, die Software kommt aber direkt von Google als absolut vanilla Android mit auch für die nähere Zukunft immer aktuellen, schnellen Updates. Nach dem Review bei The Verge war ich sehr angetan von dem 7″-Tablet für 250 Euro, und als sogar @monkeydom von den Fanboys sich eines zulegte und gar nicht so kritisch davon sprach, entschied ich, dass mir dieser Formfaktor mehr zusagen würde und dass es nicht schaden könnte, auch ein Android-Gerät zu besitzen, und habe mir eines bei Google bestellt.

Tatsächlich ist das Nexus 7 anders als ein 10″-Tablet: Ich kann es einfach mal so in die Hand nehmen und fast wie in einem Smartphone etwas schauen, und ich kann es problemlos mit einer Hand halten – die Größe ist sehr viel praktischer für mein Nutzungsverhalten. Da ich nun schon ein schnelles iPhone als Hauptgerät und für die Mobilnutzung habe, haben sich meine Erwartungen an ein Android-Tablet verändert. Das Nexus 7 ist für mich ein Komplementär-Gerät; ein sehr attraktives Lesegerät.
So allgemein blieb halt das Kitzeln nach einem Tablet-Computer, auch weil ich nicht richtig verstanden hatte, warum der Hype mich nicht mitriss. Apple hat bei der Vorstellung des iPad der dritten Generation alle Konkurrenten an die Wand gefahren: Ein gigantischer Retina-Bildschirm mit 1536×2048 auf 9,7″ und ein SoC, der damit klar kommt. Weil ich aus meiner Erfahrung mit dem Transformer Prime wusste, dass ich 10″ nicht gebrauchen kann, steigerte ich mich auch nicht in einen iPad G3-Kaufenmüssen-Wahn. Ich brauche den Formfaktor nicht, darum auch kein iPad, so einfach.

Eine Bemerkung zum Seitenverhältnis des Nexus 7: 16:10 bei einem Tablet ist optimal für Serien und Webvideos, bei allem anderen fühlt es sich in der Breite beschränkt an. Apple hat richtig daran getan, das iPad 4:3 zu halten, wie eine A4-Seite. Bei Smartphones neige ich dazu, 16:9/10 als besser als 3:2 vom alten iPhone zu beurteilen, weil mensch es anders in der Hand hält (– halten können sollte!) als ein Tablet und das Display generell kleiner ist – bei einem Tablet will mensch in den Content eintauchen, bei einem Smartphone will mensch eine praktische Geräteform, aber dennoch möglichst viel Platz haben. Das Nexus 7 spielt in der Geräteklasse der “Phablets”, es ist zwischen Smartphone und Tablet angesiedelt; ein Kompromiss-Gerät.
Natürlich habe ich die Abwägung zum kolportiert kommenden iPad Air (oder nano, oder mini) gemacht, aber es soll nach aktueller Gerüchtelage aus skalierungstechnischen Gründen von iOS kein Retina-Display bekommen (das wären bei 1024×768 auf 7,85″ 163 ppi), und wie das große iPad ein Seitenverhältnis von 4:3 haben. 4:3 halte ich für vergleichsweise unhandlich bei einem 7,85-Zöller, denn gerade der Vorteil, das Tablet mit nur mit einer Hand halten zu können, dürfte mit 4:3 zunichte gemacht werden.

Das Nexus 7 ist wirklich leicht mit 340 g und dünn mit 10,45 mm. Die gummierte Rückseite fühlt sich fast wie Leder an und schmeichelt der Hand, ohne dem Gerät Robustheit zu nehmen. Ich habe keine Skrupel, es daheim ohne Schutzhülle zu nutzen (was ich bei Apple-Geräten nie tun würde, geplante Obsoleszenz lässt grüßen). Der Soundchip des Tegra 3 ist exzellent, ich sage, deutlich besser als der im iPhone 4S verbaute (ich bin relativ audiophil, weil ich viel orchestrale Filmmusik höre). Die integrierten Stereo-Lautsprecher (die wie Mono klingen) sind schlechter als die des iPhone 4S – scheppernder, können nicht so laut drehen; sie sind nicht miserabel, mensch kann durchaus damit Musik oder einen Podcast hören, und wenn mensch Serien mit dem Gerät schaut, wird mensch wohl sowieso Ohrhörer nutzen. Das IPS-Display ist toll, für Hausbedienung reicht die Leuchtkraft gut, im Freien wird es ein bisschen mühsam. Es ist kein Retina-Bildschirm, das ist deutlich, aber die Pixeldichte ist mit 216 ppi hoch genug, um auch noch kleine Schriften auf breiten Startseiten ohne Zoom lesen zu können (iPad: 132 ppi; iPad G3: 264 ppi, iPhone 4+: 326 ppi). Das Lesegefühl ist nah dran an Retina. Beim typischen Lesen von Artikeln wird sowieso auf die Textbreite gezoomt, und spätestens durch den größeren Abstand zum Gerät bei einem Tablet verliert sich die Unterscheidbarkeit zu Retina-Displays für mich. Sollte es nächstes Jahr noch Geld geben, wäre ich aber an einer aktualisierten Version mit vielleicht 1920×1200 und noch besserem SoC sehr interessiert, denn dieses nicht-ganz-Retina-Gefühl stört mich doch im Moment am meisten am ganzen Gerät.

Das Nexus 7 soll mir kein iPad sein. Das Nexus 7 ist für mich etwas ganz eigenes. Es ist viel mehr an “mobilen PC” als Geräte mit iOS (“Post-PC”) und als Ergänzung zu ihnen habe ich es als einen ultramobilen PC. Weil ich ein Geek bin. Ich kann damit Sachen machen, die ich mit iOS nicht machen kann, dafür fummeliger, aber das ist ok bei dem Preis und der Leistung. Das Gerät ist für mich mehr ein Gadget als ein “Lebensbegleiter”, und als Gadget ist es cool. – Android 4.1 und sein Ökosystem kann für mich ein Gadget sein, das ist doch mal ein Anfang @Google.

Wie hat dieser Artikel eigentlich angefangen?

15 – Es wird besser

Auf dem Nexus 7 ist das neue Android 4.1 Jelly Bean vorinstalliert und ich muss schon sagen, ich bin ganz positiv überrascht. Mit “Project Butter” erhöht Google die Framerate des Systems. Mensch spürt die höheren FPS sehr deutlich, alles reagiert flutschiger, “echter” – das ist die “Magic”, von der Steve Jobs bei iOS in seinen Keynotes immer gesprochen hat. Mensch bedient einen Touchscreen mit den Fingern und die Reaktion fühlt sich an, als wäre die Software ein realer Gegenstand, ein echtes Objekt. Um diesen Effekt noch zu verstärken, setzt Apple noch verstärkt auf Skeuomorphismus, die Nachbildung von Gegenstandfunktionsprinzipien aus der realen Welt, was besonders in der Mac-Nutzerschaft mit den letzten OS X-Iterationen viele verärgert.
Jedenfalls scheint Google das Problem, dass Mikroruckler sich bisher unvermeidbar aus Androids Softwarearchitektur ergeben haben, mit Jelly Bean weitestgehend geknackt zu haben.

Google vernettere zudem Androids Animationen für typische Systemfunktionalität wie Multitasking, wodurch sich auf seine Art das System nun auch auch “echter” anfühlt.
Google Now ist nicht Siri, sondern eine abstraktere Such-Ontologie-Behilfung. Für praktische Systemtätigkeiten (“schreib eine E-Mail an Lukas, ich komme später, ist das ok, Fragezeichen”, “spiele Musik von Dota Kehr”) ist es nicht zu gebrauchen, dafür überrascht es mit unheimlichen Hilfsangeboten zu nach zuvor in Google gesuchten Veranstaltungen und Adressen. Da wird sicher noch mehr kommen, die Herangehensweise ist aber erst mal beeindruckender als bei Siri.
Die deutsche systemweite Offline-Spracherkennung ist eine feine Sache und funktioniert für mich wesentlich besser als die Internet-benötigende unter iOS. Nur Satzzeichen erkennt Android noch nicht, das ist schade.

Wie bereits angesprochen, bringen aktuelle Versionen von Firefox für Android echtes Bounce-Back und Linienführung in einer Dimension mit. Das war für mich der Punkt, wo ich tatsächlich dachte, jetzt wird die Plattform für mich nutzbar. Ansonsten kommen jetzt so langsam die Tablet-Apps. Pocket für Android ist sehr elegant, sogar mit Android-nativem Text-to-Speech, das iOS für seine Apps noch nicht per API anbietet. Pocket ist mein Read-It-Later-Dienst seit einigen Jahren, und neben der ebenfalls performanter gemachten offiziellen Twitter-App und Firefox zum Nachrichten-Surfen, eine meiner Haupt-Apps auf dem Nexus 7.

Nach wie vor ist die Einrichtung und das Finden von Widgets schmerzhaft. Die oft nicht nutzbaren oder von Apps mitinstallierten hirnrissigen Widgets erinnern mich stark an an den fummeligen Plasmoid-Wahnsinn bei KDE Plasma.

Ich muss zugeben, alles in allem ist Android 4.1 ein bisschen cool.

Google hat kräftig zugekauft, die Übernahme der Sparrow-Entwickler hatte darunter den größten Wow-Effekt auf mich. Kürzlich sind auch einige Palm-Entwickler, die an dem webOS zugrunde liegenden Enyo-Anwendungsframework bauten, zu Google gewechselt. Es ist darum erwartbar, dass sich in Sachen Benutzerfreundlichkeit bei Android bald viel tun wird.
Wenn mensch sich auskennt, können die weniger restriktiven Möglichkeiten, die Android einem bietet, Spaß machen, wenn mensch weniger versiert ist, neige ich zu glauben, verwirrt die Inkonsistenz und Unergründbarkeit des Ökosystems nach wie vor stark, und die angesprochenen konzeptionellen Schwächen behalten in jedem Fall ihre Signifikanz.

Auch iOS hat seine Macken, das ist aber nicht Thema dieses Artikels. Das größte Ärgernis für mich ist, keinen schnellen Zugriff in der “Benachrichtigungszentrale” auf Schalter für Flugmodus, WLAN und Helligkeit zu haben, was mich seit Jahren veranlasst, meine Geräte zu jailbreaken. Es ist mir schleierhaft, warum Apple seine Nutzer diese essentiellen Parameter nur exklusiv in der Einstellungen-App ändern lässt. Nutzerfeindlich ist auch, keinen Alternativ-Browser als Standard festlegen zu können; der Jailbreak schafft auch hier Abhilfe. Die iOS-Bildschirmtastatur ist offenbar in 2007 stehen geblieben und die Autokorrektur ist furchtbar. Das allein könnte fast schon ein Wechselargument für jemanden sein, wenn da nicht diese guten Apps wären. Das Fehlen von Widgets ist mir ziemlich egal, aber App-Icons sollten mal dynamisch werden (à la WP8-Kacheln), und überhaupt könnte mit dem Springboard mal was passieren.

16 – Versöhnliche Worte

Wo Apple innovationsscheu geworden ist, ist Google kräftig am Umbauen. Google traue ich es zu, dass es in einem Punkt-Update einmal wieder das Multitasking oder den Launcher entscheidend verbessert. Googles UI-Konzepte waren von Anfang an nicht so perfekt integriert durchdacht wie Apples, aber Apples Konzepte bieten ihnen nur noch wenig Spielraum für Veränderungen, um nicht mit ihren Paradigmen zu brechen. Bei Apple weiß mensch, was mensch kriegt, bei Google ist es spannend.
Die aufregendere Entwicklung hat im Moment Android, und es kann als valides Argument gelten, aufregend vor durchdacht und gegossen zu schätzen.

 

So, und ich hab jetzt übrigens das Abi, wurde frisch 21, und werde versuchen, in Tübingen Empirische Kulturwissenschaft zu studieren. :)

Ich wünsche mir einen Freund

2

Ich wünsche mir einen Freund.
Einen Freund, mit dem ich auf einer Wiese zu den vorbeiziehenden Wolken schauen kann.
Den Wind auf der Haut spüren, die feinen Gerüche wahrnehmen.
Die Natur erleben. Der mit mir die Natureindrücke in seine Seele aufsaugen kann.
Wir die dezenten Farbnuancen des Himmels in uns aufnehmen.
Barfuß durch das Gras streichen, und der mit mir über feuchtes Moos tapst.

Wir über die Felder rennen und kichern. Kind sein. Frei sein. Ich sein. Ich sein reinstes Du erblicken.

Auf Wolken zeigen. Dasitzen und den Abendhimmel betrachten.
Und während wir dasitzen, mich verstehend anlächelt, und uns die Größe des anderen in einem tiefen Blick offenbart wird, und das große Glück, ein Selbst zu sein. Und miteinander entdecken, wie groß das eig’ne Selbst ist.
Und wenn wir uns verabschieden, uns ein goldenes Glühen der Begegnung in der Brust liegt.

Mit dem ich die Welt erleben kann, wie sie ist, und mich in einer reinen Form. Der mir hilft, die Form herauszuschälen. Momente teilen in einer aufmerksamen Stille.
Mit dem ich tuscheln kann, weil wir uns verstehen. Verschmitzt lächeln über Vorgänge der Außenwelt, deren Einfluss nicht bis über uns reicht.

Wir sprechen nicht über Technik oder Netzpolitik, sondern über Selbsterkenntnis.
Mit dem ich Disney-Zeichentrickfilme schauen kann, und der dabei so große Augen macht wie ich.
Der mich tröstet und aufmuntert. Sagt, es ist nicht so schlimm, und Du hast ja mich, ich bin für Dich da.

Je älter ich werde, umso größer wird die Sehnsucht danach. Es auch einmal spüren zu können.
Ich wünsche mir einen Freund, der mir auch mal sagt, es ist schön, dass es Dich gibt, ich mag Dich. Und wenn wir zusammen sind, ist mir das eine kostbare Zeit, weil Du mir wertvoll bist.
Weil, wenn ich Dich hätte, würde ich Dir das sagen.

Doch – ich weiß nicht wie.

Ich will nicht so allein sein.
Ich weiß nicht, wie das geht. Ein paar nette Worte, und dann ist die Person einfach weg. Für mich verloren. Die Gelegenheit verflogen. Ich kann das nicht. Ich weiß nicht, wie das geht. Ich würde so gerne, aber weiß nicht, wie das geht. Trau mich nicht. Fühle mich so anders, unwürdig, Kontaktinteresse zu zeigen. Und Angst habe ich, dass ich es kaputt mache und Dich gleich verliere, noch bevor ich Dir näher gekommen bin. Also tu ich nichts, mache das, was ich am besten kann: Ich ignoriere Dich.

Ich wünsche mir so sehr, finde Du zu mir, denn ich bin gefangen in mir selbst. Doch ich weiß, dass Du mich nicht hörst. Vielleicht niemals, und falls doch, wirst Du verschreckt, weil ich so verzweifelt bin. Und ich weiß nicht, was ich tun soll.

Ich wünsche mir einen Freund.
Und wenn Du weiblich bist, wäre das noch umso schöner.

Zeiten des Aufruhrs: Die Desktop-Frage 2011 – Eine Analyse

12

»I don’t want you to think of this as just a film – some process of converting electrons and magnetic impulses into shapes and figures and sounds – no. Listen to me. We’re here to make a dent in the universe. Otherwise, why even be here? We’re creating a completely new consciousness, like an artist or a poet. That’s how you have to think of this. We’re rewriting the history of human thought with what we’re doing.« —Steve Jobs im Spielfilm “Pirates of Silicon Valley”, 1999

Ein Zitat, das mir vermittelnd-bezeichnend zu sein scheint für den Geist des Umbruchs, den wir gerade erleben. Denn es passieren Dinge auf der Welt, die unsere Gedankenwelt verändern, weil wir spüren, dass es Zeit dafür ist.
Doch hier soll es um Linux gehen, und auch dort lässt sich das Zitat einsetzen. Kein anderes Thema war in diesem Jahr im Linux-Umfeld so aufregend wie der Kurs des Linux-Desktops. Es fanden bedeutende Entscheidungen und Veröffentlichungen statt, die mit dem alten Paradigma der Benutzeroberfläche brachen, einfach, weil man fand, es sei an der Zeit.

Ich möchte den Versuch wagen, ein wenig die Zusammenhänge und Ideen zu beleuchten, die die Projekte ausmachen, die mich dieses Jahr so umtrieben. Es ist offensichtlich: Die Reise geht hin zu Touch-optimierten Oberflächen und einer radikalen Zuwendung zu Applikationsorientierung und Semantik, weg von der makrokosmisch offenbarten strukturellen Technik. Oftmals fragt man sich: Gibt es abseits dessen eine Langzeitvision, ist da was? Meine Betrachtung ist offen subjektiv und ich lade zur Diskussion ein.
Es wurde so viel geschrieben. Die Arbeit, die neuen Desktop-Umgebungen bis ins Detail vorzustellen, haben andere gemacht und an Ende dieses Beitrags habe ich einige Links gesetzt.

Kapitel:
1 – Revolution statt Evolution
2 – Unity — die UI-Konzept-Katastrophe
3 – Compiz als Grundlage
4 – Canonical, der Schurke
5 – Flucht!
6 – KDE
7 – Der Wert einer schönen Software-Architektur
8 – Von Integriertheit und Harmonie
9 – Plattform vs. Ökosystem
10 – Feature Regressions
11 – Philosophische Ergüsse
12 – Wo es denn nun hingeht
13 – Neue Geräteklassen und die Konvergenz
14 – Finale
15 – Auswahl weiterführender Artikel

1 – Revolution statt Evolution
Mit Version 3 wurde GNOME seinem seit der Veröffentlichung von Version 2 geführten Entwicklungsmodell untreu, das viele kleine stetige Verbesserungen statt die Konzentration auf große Neuerungen bedeutete. Ergebnis dieser Anstrengungen von 2002 bis 2009 war ein Desktop Environment, ziemlich nah an der Marke, die man Perfektion nennen könnte: Hohe Produktivität, kurze Mauswege, reich an Individualisierungsmöglichkeiten.
Doch die Entwicklung stagnierte, man hatte sich im konzeptionellen Design verfahren. Viele neue Ideen, die die Nutzer wünschten, erschienen ungeeignet für die Art, wie man GNOME mit seinen Panels, Applets und Systray bediente. Der ganze Desktop war Datei-orientiert aufgebaut: Dateien im Dateisystem, nicht Informationen des Nutzers. Für Forderungen wie Benachrichtigungsblasen konnte man im GNOME-Projekt keine Umsetzungsmöglichkeit finden. Es gab eine Menge Ideen die man hätte integrieren können, die Umsetzung aber wäre nicht ganzheitlich gewesen, weil sie das bisherige konsistente UI-Konzept unterlaufen hätte, mit bestehenden runden Paradigmen gebrochen hätte.
Auftritt Canonical 2008: Der vom GNOME-Projekt viel geliebte Ubuntu-Distributor emanzipiert sich. „Sie liefern die beste GNOME-Distribution, sie liefern GNOME so aus, wie es wirklich ist!“, war der Chorus bisher. Canonicals Ayatona-Projekt leuchtet skizzenhaft immer mal wieder auf. Der Ubuntu-Entwickler tritt unberührt der Interface-Mimosen des GNOME-Projektes an die Verwirklichung von unverwirklichten Ideen. Zu aller erst wird ein neues Abmeldemenü rechts im oberen Panel, dann ein Benachrichtigungssystem und dann eine neue Art von interaktivem Panel-Element, Indikatoren, angegangen. Während die Ubuntu-Community den kühnen Vorstoß jubelnd Willkommen heißt, werden GNOME-Entwickler und etablierte Standardisierungsgremien bei den Canonical-Entwürfen großteils übergangen. Die zu keinem Ergebnis führenden, da kontroversen Diskussionen mit GNOME-Leuten werden von Canonical-Entwicklern vermieden, die nötigen Patches mehr oder weniger letztlich selber mit heißer Nadel in die Distributionspakete eingepflegt, ohne dass sie Upstream gehen.
Wer aufmerksam war, konnte in der Ferne bereits den sich abzeichneten unvermeidlichen Bruch von Ubuntu mit GNOME erahnen.
Dann begann die Diskussion zu GNOME Version 3, aus der sich Canonical raushielt, prinzipiell mit dem Verweis auf die geleisteten Eigenentwicklungen zum Wohle des ganzen Desktops, diese möge man doch integrieren.

Der weitere Entwicklungsverlauf von GNOME 3 sei hier ausgespart, ich will mich gleich mit dem Ergebnis beschäftigen:
GNOME 3 hat die Gemüter von vielen langjährigen Nutzern auf Kesseltemperatur gebracht: Es sei zu bevormundend, zu restriktiv; das neue Aktivitäten-Paradigma, nun ganz inhaltzentrisch und Anwendung-orientiert, inkompatibel zum Power-Nutzer; es ließe sich nichts mehr einstellen. (“GNOME 3 ist restriktiver als Apple erlaubt.”) Vieles der Kritik lässt sich mit den von den Entwicklern unterschätzter notwendige Umsetzungszeit erklären, es ist einfach noch nicht fertig; anderes sind grundlegende Design-Entscheidungen, die getroffen wurden, und manchem nicht schmecken.
DIe bei Planung angedachten eigentlich zentralen Elemente ›Zeitgeist‹ und sein Front-End ›Activity Journal‹ zur Aufzeichnung von verschiedenen Nutzer-Aktivitäten in eine systemweite intelligent kombinierende Datenbank mit APIs für alle Anwendungen haben noch immer nicht Einzug in die GNOME-Kompilation gehalten, das betrachte ich als den Startfehler von GNOME 3 überhaupt. Ohne diese Komponenten ist das forcierte neue Bedienparadigma unstimmig, da inkonsequent und unvollendet. Ich hoffe sehr, dass sich da sehr bald etwas tut.

Um es kurz zu machen: Ich bin kein Fan der neuen Aktivitäten-Oberfläche, vor allem, weil sie mir Kontrolle nimmt, die ich vorher hatte – das aber auch hauptsächlich durch Fremdsoftware wie Compiz, das wegen der engen Verzahnung von Aktivitäten-Overlay und Fenstermanager nun nicht mehr direkt einsetzbar ist. Besonders gut gefällt mir das neue Panel-Paradigma mit konsistent integrierten Benachrichtigungen und dynamisch einblendenden Systray-Bereich. Die neue Richtung einer voll Touch-ausgerichteten Oberfläche halte ich für weitsichtig und angebracht. Generell spricht mich GNOME 3 Shell mehr an als das gleich zu behandelnde Unity, vor allem, weil ich eine Vision erkenne, die es dem Nutzer ganz von Herzen einfacher machen möchte. Viele der anfänglichen Kritikpunkte wurden mit GNOME 3.2 entschärft, oder durch die exzellente Scriptbarkeit des neuen Desktops mit externen Erweiterungen behoben. GNOME 3 Shell hat Potential, es ist durchdachte Technik mit einer großen Weitsichtigkeit im UI-Design, die uns noch überraschen wird, aber es braucht mehr Zeit. Für eine neue Generation von Nutzern, die mit Inhalten umgehen möchten und nicht mit Containern, halte ich GNOME 3 Shell (einmal mit Zeitgeist und Activity Journal) für die ideale Oberfläche über Geräteklassen hinweg, und wollte es selber nutzen, wenn ich nicht so ein alter Hase wäre und mehr (nicht erst noch zu erschaffende!) Möglichkeiten gewohnt. Zum Thema der Feature Regressions führe ich weiter unten noch meine Gedanken aus.

2 – Unity — die UI-Konzept-Katastrophe
Canonicals Antwort auf GNOME 3 Shell ist Unity. Hervorgegangen aus einem ursprünglich für Netbooks entwickelten Minimal-Hack auf Compiz zur Bildschirmplatzersparnis entschied sich der Distributor als es ernst mit GNOME 3 Shell wurde, eigene Wege zu gehen, um ›am Markt herausstechen zu können‹. Sonderbares Vorgehen bei einer Linux-Distribution, aber gut, es ist Freie Software. Die Ähnlichkeit der GNOME 3 Shell-Aktivitäten und einiger Elemente von Unity ist nicht zufällig, schließlich waren die Designstudien zu GNOME 3 längst entwickelt. Wie bei GNOME 3 Shell bekommt es der Nutzer bei Unity mit einem revolutionären statt evolutionären Bruch in der Oberfläche zu tun, wenn sich Unitys Bruch auch mehr auf Äußerlichkeiten als das tatsächliche Bedienparadigma bezieht, wie man es bei GNOME 3 Shell versucht. Aber der Reihe nach: Was sie zu dieser UI geritten hat, ich weiß es nicht. Canonical ist eigentlich dafür bekannt, professionelle Benutzbarkeitsstudien durchzuführen – ich habe selber auch damals das Verschieben der Fensterknöpfe nach links begrüßt. Unity betrachte ich als Fehldesign durch und durch.
In meinem Verständnis liegt dieses große Fehldesign konkret bei: Es kann nicht sein, dass man für die Programmsuche die Index-Suche durch Eintippen des Programmamens verwenden muss, weil die alten Menükategorien absichtlich verschwert zugänglich gemacht wurden. Das Konzept funktioniert nicht, wenn ich ein Einsteiger bin und überhaupt nicht weiß, wie die Programme heißen, sondern nur beispielsweise nach einem Schreibprogramm schauen möchte. Oder mir die Programmnamen nicht merken kann (weil sie mir scheißegal sind, zu Recht), oder ich eben *nicht an einem Laptop arbeite* und meine Zwei-Hände-Wege von Maus zu Tastatur nervend lang ausfallen – und nein, das Anpinnen im Dock von jeder kleinen Anwendung, die ich über die Woche brauche, ist keine ernsthafte Alternative dazu (Übrigens: Ich hasse Docks!!).
Zum Vergleich in GNOME 2: Ich fahre an die obere linke Bildschirmecke, klicke und fahre nach unten, hinein in die entsprechende Kategorie, zeige auf die Anwendung, und lasse die Maustaste los. Meistens selbst in meinen vollen Menüs keine zwei Sekunden. Und die Kategorien sind übrigens das, was Einsteiger oft am meisten unter Linux liebten: Weil es das unter Windows nicht gibt! Und was machen GNOME 3 und Unity nun? Sie verleugnen – das kann man so sagen – ja, verleugnen die sinnvollen Anwendungskategorien und möchten das Arsenal am Liebsten als großen Haufen mit Symbolen in Übergröße anzeigen. Und warum? Weil sie Apples iOS kopieren! Sinnverloren! Unity noch mehr als GNOME 3, da sind die Anwendungskategorien wenigstens noch dominant sichtbar, aber auch erst mit ZWEI Klicks zu erreichen, wo bei GNOME 2 einer reichte, um das Menü und später die Anwendung zu öffnen. Im Übrigen halte ich auch das Global Menue von Unity für schwachsinnigen Apple-Kopiertrieb. War bei denen sinnvoll, als man noch niedrigere Auflösungen hatte, und ist es heute auf der hoffentlich bald vollends verreckenden Gerätegattung der Netbooks, aber ich will meinen Bildschirmplatz auch ausnutzen, und auch nicht erst Fenster fokussieren müssen, um über einen Mausumweg in ihr Menü zu gelangen, dessen Sektionen dann außerdem erst beim Maus-Überfahren überhaupt angezeigt werden! – Dass man das Global Menue deinstallieren kann, spielt nichts zur Sache! Fehldesign!
Auch kann es doch nicht sein, dass eine grafische Benutzeroberfläche erst ›wirklich produktiv‹ wird (so schreiben Ubuntu-Fanblogs!), wenn man eine längere Liste Tastenkommandos gelernt hat. – Hallo — eine grafische Benutzeroberfläche sollte es gerade unnötig machen, dass man mit der Tastatur arbeiten *muss*!
Puh, erst mal beruhigen. Man sieht, Oberflächenänderungen verursachen immer hochemotionale Regungen in der Community. Aber Unity ist auch wirklich richtig schlecht. ;)
In der Anwendungssuche werden zur Installation angebotene Anwendungen prominent angezeigt, während die Liste mit den zu einem Stichwort gesuchten installierten zusammengeklappt wird. Auch irgendeine Strategie, ein Konzept wie man die Verwaltung dieser Such-›Linsen‹ plant, kann ich nicht erkennen. Ich könnte jedes zweite Design-Element von Unity auseinandernehmen; ich sehe darin einfach keine klare Linie und Vision; Stückwerk; der Desktop geht am Nutzer vorbei, zuallererst an mir.

3 – Compiz als Grundlage
Ich bin Compiz-Enthusiast seit 2006. Ich liebe Compiz. Ich weiß, das klingt seltsam. Ich liebe meinen Firefox mit seinen drölfzig Add-Ons und ich liebe mein bis ins letzte Detail konfiguriertes Compiz. Ich liebe es. (Das Wort verwende ich nur mit dem allergrößten Bedacht, doch hier zögere ich keinen Moment, es zu benutzen.) Ohne die Grundparadigmen seiner Bedienung will ich nicht mehr am PC arbeiten.
Ich bin es gewohnt, mit einem Mausschwenk oder Tastendruck das Schicksal von dutzenden Fenstern zu kontrollieren, in einer Geschwindigkeit und Direktheit, die Mac-Nutzer ins Staunen versetzt. Ich liebe die wabbelnden Fenster und die sich aufspannenden Kontextmenüs. Den Würfel – bei mir ein Zylinder – mit den virtuellen Arbeitsoberflächen und 3D-Fenstertiefe. Ich bin verrückt nach allem, was mehr organisches Element, Physik, Plastizität, Realismus in meinen Computer-Alltag bringt.


(Video-Klassiker von 2007)

Canonical baut Unity seit Ubuntu 11.04 auf Grundlage des Compositing-Fenstermanagers Compiz auf. Darin eingegossen lassen sie noch ihr eigenes OpenGL-Toolkit Nux laufen, aber das Zentralmanagement über die Komponenten hat der Fenstermanager. Das Unternehmen befindet sich in einer verzwickten Lage: Ihre Spezial-Patches für GNOME 2 Shell gingen nicht Upstream – wie schon erwähnt durch eine Mischung aus Absonderungswillen und Arroganz – aber jetzt ist GNOME 3 Shell fertig und macht ihre Anpassungen inkompatibel. Nicht einfach inkompatibel, sondern unumsetzbar mit den neuen Gegebenheiten. Man könnte fast meinen, die Erkenntnis traf die Truppe ein bisschen überraschend. Man hat also viel Forschung und Integration über Jahre voran getrieben, und steht plötzlich ohne passendes Fundament da. GNOME 2-Komponenten werden veralten, einen Fork zu machen ein irrwitziges Unterfangen, alles aufgeben will man aber auch nicht, nicht zuletzt, weil es zum Bild der Distribution geworden ist und Nutzer sich daran gewöhnt haben. Was also tun? Canonicals Antwort: Wir nehmen das aktuelle GNOME 3 als Grundlage, ersetzen aber die für unsere Vorhaben unanpassbare Shell durch eine eigene. Ein schöner Kompromiss, will man meinen.
Ich sage: Compiz ist nicht die Lösung. Compiz ist ein außerordentliches Projekt, getrieben vom Experimentiergeist – und das ist auch gut so. Canonical denkt, es sei ihre Lösung und begeht damit einen Fehler: Ist es nicht, denn es ist nicht in das Desktop Environment als ganzes integriert. Hier kommen wir wieder bei den Bedienparadigmen an.
Was sie also tun, ist den Unity-Desktop IN Compiz hineinzubauen, was reichlich absurd ist. Für Compiz sprach wahrscheinlich die extreme Plugin-Architektur; die Situation, das man schon bisher für Desktop-Effekte darauf gesetzt hatte und keine Feature Regessions bei den Nutzern wollte, und ihr offizielles Statement, dass man sich mit Compiz besser auskenne als mit Mutter (der neue GNOME 3 Shell-Fenstermanager mit Compositing-Fähigkeiten). Überhaupt, die neue Unity-Oberfläche sollte 3D sein und Fenster verwalten, da ist es doch am einfachsten, man erweitert einen (unsichtbaren) Fenstermanager um eine (sichtbare) eigene Bedienoberfläche und vereinheitlicht mit einer eigenen Konfiguration. Das haben sie getan, und jetzt haben sie das Problem, dass die GNOME 3-Plattform sich mit jedem Major-Release in sich konsistenter macht in ihrem Ziel, ihr neues Bedienparadigma ganzheitlich umzusetzen. Jede Komponente bei GNOME 3 ist darauf ausgelegt und strebt das Projektziel an, das sich in ganz grundsätzlichen Fragen, eben Bedienparadigmen, von dem doch eher klassischen Ansatz Unitys unterscheidet. Also in Zukunft wieder viele GNOME-Komponenten patchen?

»Hier entsteht dann etwas der Eindruck, dass man bei Canonical nicht so recht weiß, wie man die zunehmend divergierenden Ansätze von GNOME und Ubuntu zusammenbringen kann, um ein rundes Ganzes zu erzeugen.« —derStandard.at-Test von Ubuntu 11.10 (S. 14)

Wenn man sich diese Tragödie anschaut, sieht man wieder ganz deutlich, warum ein offenes Entwicklungsmodell und Kollaboration und gemeinsames verständiges Entwickeln in der Welt von kleinen Unternehmen und offenen Systemen ein MUSS ist.
Trotzdem glaube ich, hat Canonical in Anbetracht ihrer Situation das Richtige getan – zum Einen, weil ihre Patches für neue Konzepte wie Indikatoren nicht Upstream gingen, und das ist de facto ein Problem für sie, zum anderen, weil ihre Ideen teilweise doch wirklich etwas taugen. Sie müssen natürlich noch (sehr viel^^) geschliffen werden, aber sind auf dem besten Wege zu einem tollen Nutzungserlebnis für den nicht professionellen Heimanwender – für die Massen. Maximierte Anwendungen sind z.B. sehr nett umgesetzt. Das Potential ist da. Canonical wird die Verzahnung von Compiz und Desktop irgendwie hinbekommen, aber es wird keine Integration sein und es wird sie noch sehr viel Ressourcen kosten. Ihr Problem ist heute ihr historisches Setzen auf GNOME und dessen Ökosystem (was damals jedoch zweifelsfrei die vernünftigere Wahl war), wenn man den Alleinstellungsdrang sowieso nicht als Problem betrachten will.

4 – Canonical, der Schurke
Ich muss an dieser Stelle meiner Enttäuschung über Ubuntu in den letzten Versionen Luft machen. Ich war Nutzer seit 5.04 Hoary Hedgehog, davor Fedora, Debian und SuSE. Bei Ubuntu habe ich meine Heimat gefunden, eine Distribution, die sich von Release zu Release für mich als Nutzer verbesserte, einfach *funktionierte*, schön schlank kam, auf dass ich meine persönlichen Anpassungen auf sie schmeißen konnte, und mit einfachen Systemtools punktete.
Mit 11.04 Natty Narwhal änderte sich das. Der neue Standarddesktop wurde Unity, und ich hätte in 11.04 noch GNOME 2 Shell trotzdem als meinen Desktop starten können, wäre das vollkommen verhunzte System nicht gewesen. Angefangen von GRUB, der falsch installierte und nun auch keine Installationsoption mehr bot, über den Kernel, der ohne ACPI-Deaktivierung nicht mehr bootete, was in einem permanenten Stromverbrauch des Hexacore-Rechners von über 150 W und hochlaufendem Lüfter resultierte, bis zu widerspenstigen Compiz-Paketen und einer Reihe von Anwendungen, die plötzlich sehr seltsames Verhalten zeigten. Und Ubuntu 11.10 soll ja noch viel kaputter geworden sein.
Der Selbstgeltungszwang und die entschiedene Abgrenzung mit der Marke ›Ubuntu‹ vom restlichen Linux-Distributionsgeschenen von Canonical wird immer schlimmer, und es immer schwerer, die Sonderwege, die Ubuntu geht, in einer Installation loszuwerden.
Die Anstrengungen in das ›Software-Center‹, die angestrebte ›Appifizierung‹ (wie ich ›App‹ für Desktop-Anwendung hasse!) und die enge ›heile Welt‹, in die einen Canonical mit seinem Ökosystem-Korsett zu führen versucht, machen nur umso deutlicher, was schon lange offensichtlich durch das selbstherrliche Auftreten des Unternehmens ist: Sie möchten das ›Apple der Linux-Welt‹ sein. Nebenbei wird Basis-Software wie GIMP und Synaptic aus der Distribution entfernt, ich meine, SYNAPTIC!! Eine Distribution, die den grafischen hochfunktionalen und essentiellen Paketmanager aus der Standardinstallation mit einem App Store ersetzt, ist nicht mehr die meine!
Das Übrige tun die von Canonical gewünschten Copyright Assignment zu Kernprojekten wie dem Sotware-Center (Code-Einreicher geben Canonical unbegrenztes Lizenzierungsrecht über ihren eingereichten Code, dieses kann ihn dann später auch proprietär machen; laut Mark Shuttleworth, um dadurch den ›Wettbewerb‹ mit anderen Projekten zu erhöhen und besseren Code abzuliefern, so argumentiert er, ernsthaft!). Das Unternehmen wird mir unsympathisch bis ins Mark (höhö!). Es lohnt sich, in die Chroniken eines GNOME-Entwicklers über die Zusammenarbeit mit Canonical hineinzulesen.

Das alles war für mich Grund, meine Langzeitbeziehung zu Ubuntu zu beenden und auf Linux Mint Debian Edition/Debian Testing zu wechseln, und langfristig auf KDE 4. Ubuntu 11.04+ bringt mich in die Situation, Linux-Einstiegswilligen keine Empfehlung mehr reinen Herzens für eine Distribution aussprechen zu können. Ubuntu hat meistens funktioniert. Mandriva und Mageia, die vielleicht am ehesten vergleichbaren Distributionen, sind mir zu exotisch, beziehungsweise unpopulär, openSUSE ist leider für den Einsteiger wie den willigen Amateur nach meiner Meinung eine Konfigurations-Katastrophe.

5 – Flucht!
Wie bereits ausgeführt, bin ich ehrlich angetan von GNOMEs neuem Nutzungsparadigma, aber es ist nichts für mich, weil ich mit etwas mehr technischem Verständnis als der Normalnutzer weiß, wie ich schneller ans Ziel komme als über die neuen chicen Nutzungswege, die GNOME 3 einführt. Sie vereinfachen vieles bisher Versteckte und Komplizierte und machen es einfacher zu lernen, aber ich bin nun mal versierter und schon ganz andere (multiple) Möglichkeiten gewohnt als die, die das neue GNOME mir nun noch anbietet. Es ist tatsächlich intuitiver; uns fällt das wahrscheinlich nicht auf, weil wir schon so ›versaut‹ von der Technik-abstammenden Bedienung sind. Ich werde damit langsamer, aber ich bin mir sicher, ein Großteil der Nutzer wird damit schneller.
Als GNOME 3-Abtrünniger hat man überschaubare Optionen, sofern man bei einer großen integrierten Desktop-Umgebung bleiben möchte, weil man den gebotenen Komfort schätzt: Festhalten an GNOME 2 beziehungsweise dem Fork ›MATE‹, Wechsel auf Xfce, oder Migration auf KDE SC 4. Ich sage bewusst Migration, weil KDE eine ›andere Welt‹ ist mit seinen Qt-Anwendungen und eigenem Bibliotheken-Fundus als GNOME und Xfce mit GTK+.

Ja, die Arbeit der Xfce-Entwickler wird in der Presse nicht gewürdigt. Die Desktop-Umgebung liefert ein schön integriertes Anwendungsarsenal und bietet fortgeschrittene Features, die sich teils mehr als mit GNOME messen lassen können (teil aber auch gar nicht). Insgesamt steht Xfce für Reduktion von UI-Firlefanz und Addition von Pro-User-wesentlicher Funktionalität. Der gewisse ›Firlefanz‹ hat mir in Xfce immer gefehlt, aber es ist eine sehr solide Oberfläche.
Nicht wenige wählten die Alternative nach ihrer Enttäuschung über Unity oder persönlichen Inkompatibilität mit GNOME 3 als ihr Refugium. Das ist keinesfalls verwerflich, doch jeder sollte sich klar machen: Xfce steht für die Stagnation von UI-Evolution. Klassisch und konservativ. Wer sich dafür entscheidet, steigt mit gewisser Endgültigkeit aus der *sinnvollen* Diskussion sowie Fortevolution der Desktop-Metaphern aus.
Das Selbe ist übrigens der Fall bei allen, die den GNOME 2-Fork MATE aufgesprungen sind. Bei diesem ist obendrein höchst ungewiss, wie lange das Projekt überhaupt mit dem Mega-Unterfangen durchhält. Ähnliches Problem wie beim KDE 3-Fork Trinity.
Immer ernsthafter in Erwägung sollte auch das Bleiben bei GNOME mit GNOME 3 gezogen werden, das durch das von Woche zu Woche breiter werdende Angebot an GNOME 3-Anpassungsscripten zusehends attraktiver wird. Die Ubuntu zur Basis nehmende Distribution (also Achtung!) Linux Mint 12 will z.B. mit Mint GNOME Shell Extensions ›MGSE‹ (siehe Bild) das Nutzungsparadigma von GNOME 2 mit seiner klassischen Datei-orientierten Fensterliste und Anwendungsmenüs für GNOME 3-Anwender retten – und dennoch GNOME 3 Shell laufen lassen. Ein Ansatz, den ich für am vielversprechendsten halte.

6 – KDE
Ich habe vor, noch 2011 endgültig auf KDE 4 Plasma zu wechseln, weil die eingeschlagene Richtung der GNOME 3 Shell mich zu sehr in meiner Arbeitsweise einschränkt und ich mit KDE Plasma schon länger liebäugele. Diesen Juli veröffentlichte das KDE-Projekt Version 4.7 von KDE Software Compilation (SC) und ich habe dem Termin ziemlich entgegengefiebert.
Ich möchte jeden ermutigen, die Desktop-Umgebung auszuprobieren, es macht wirklich sehr viel Spaß. Wie ich schon Dezember 2008 auf Twitter schrieb, kombiniert KDE 4 die grafische Eleganz von Apples Aqua mit der Konfigurierbarkeit und dem Funktionsreichtum von KDE 3 – eine mächtige Mischung, deren gesundes Verhältnis zu erforschen eben auch nicht ohne Experimente gelingen kann. Wer bisher nur KDE 3 kennt, wird sehr überrascht sein, wie das Projekt das Benutzerparadigma weiterentwickelt hat.
Hochinteressant ist das Streben nach der der Nutzbarmachung von sogenannten ›Aktivitäten‹, eine logische Weiterentwickelung von mehreren virtuellen Arbeitsoberflächen. Die Oberfläche soll sich kontextorientiert an die Aufgabe anpassen, also entsprechende Widgets anzeigen, Programmgruppen starten, oder in angepassten Programmen nur bestimmte Funktionen oder Inhalte anbieten. Das hört sich äußerst abstrakt an, man kann sich aber einen Nutzen ganz leicht schon vorstellen, wenn man nur einmal an die unterschiedlichen Nutzungsszenarien von Arbeit/Freizeit denkt. Aktivitäten-Fähigkeiten halten in immer mehr Komponenten des Desktops Einzug und der zukünftige Nutzen für mobile und Ultramobil-Geräte wie Tablets und Smartphones lässt sich schon erahnen.

Von dem persönlichen Umstiegs-Schritt hält mich bisher noch KWins Trägheit auf meiner Hardware und mangelnde Eleganz in Details als alter Compiz-Poweruser, und Dolphins oftmals etwas unlogisches Verhalten ab (abgesehen von dem weiterhin Vermissen von aktuellen Paketen für Debian Unstable *seufz*). Überhaupt sind die meisten KDE-Programme eigentlich extrem cool, doch an der Alltagsbenutzbarkeit scheitert es zu oft an kleinen nervigen Details. Aber das wird; hoffe ich zumindest. Wenn man keinen Code einreicht, ist es immer schwierig mit den Feature Requests bei diesen Bug-geplagten Großprojekten. Die Arbeiten an KDE SC 4.8 sehen auch schon sehr vielversprechend aus.


Beispiel Dateimanager Dolphin 2.0 im kommenden KDE SC 4.8: Sehr verheißungsvoll, sehr lecker.

7 – Der Wert einer schönen Software-Architektur
KDE 4.0 Developer Preview war die Grundsteinlegung für eine gänzlich neu gedachte Anwendungsplattform. Ich halte das KDE-Prinzip für die durchdachtere Lösung, für langfristig besser angelegt, und es wird sich mit der Zeit sicher noch auszahlen. Ein Wort: Frameworks. Alles wurde abstrahiert, alles wurde dynamisch austauschbar und portierbar gemacht. Eine ausgezeichnete Einführung in die Software-Architektur von KDE SC 4 bekommt man in der Release Event Keynote von 4.0 bei Google.
Zwei der ganz großen Frameworks sind Phonon und Solid. Phonon als Multimedia-API, Solid als Schnittstelle für die Erkennung von Hardwarekomponenten. Beispielsweise hat es zwar *hust* Jahre gedauert, bis nun auch in KDE GStreamer als Backend für Phonon richtig eingezogen ist (wie bei GNOME, das früh komplett und exklusiv ohne Abstraktion darauf setzte), aber das Meta-Modell – an dieser Stelle mit Phonon und den austauschbaren Sound-Backends – bot per Design größtmögliche Wahl, Freiheit und Potentialentwicklingschancen; hätte über die Jahre auch verhältnismäßig leicht auf neue Entwicklungen reagieren können. Dass vieles bei KDE SC so lange brauchte, ist wahrscheinlich der Zahl der Entwickler und der ›selbstverschuldeten‹ zu erst notwendigen Schaffung und Stabilisierung von Meta-Frameworks geschuldet.
Jetzt, da KDE mit Plasma Active auf Tablets und Smartphones expandieren will, zahlt sich die Entwicklungsarbeit in Solid aus, da nun Dinge wie Multicore-Erkennung nicht für eine andere ganz eigen-spezifische Hardware-Plattform in dutzende Anwendungen händisch eingepflegt werden muss, sondern ein zentrales Framework die Informationen aggregiert und verteilt. Gerade bei Plasma Active wird deutlich, wie massiv skalierbar KDE 4 angelegt ist: Die verschiedenen Plasma Workspaces als dezidierte Oberflächen für verschiedene Geräte-Klassen basieren alle auf dem selben Widget-, bzw. ›Plasmoid‹-Arsenal und den selben Technologien, die hochabstrahiert neuangeordnet und neuintegriert neue Einsatzzwecke ermöglichen. Die Plattform war per Design darauf ausgelegt, über Geräte-Klassen hinweg eingesetzt werden zu können.

Damit ist man dann vielleicht auch bei dem Kritikpunkt an KDE, der vor allem von GNOME-Anwendern vorgebracht wird: Es wird eine eindeutige Vision für ein Oberflächenmodell vermisst. Alles ist Baustein, doch der Kathedralen-Architekt ist nicht so richtig anwesend. Wo die Visionäre des GNOME-Lagers Human Interface Guidelines schreiben und UI-Skizzen auf dem Flip-Chart Board machen, sind die Visionäre im KDE-Projekt passionierte Technik-Designer. Sie würden sich eigentlich bestens ergänzen. (Wer den Hinweis mit der Kathedrale verstanden hat, ist gut; es ist richtig: Wir wollen doch mit freier Software eine Kathedrale bauen, die in ihrer Größe den Vergleich nicht mit den proprietären Domen zu scheuen braucht; der Basar braucht einen Baumeister!)
Leider begeisterte auch mich in der Vergangenheit das Entwicklungsmodell der KDE-Plattform mehr, als das wirkliche Nutzen. Plasmoid-Zeug, das alles irgendwie spinnt, instabil ist, plötzliches Verschwinden von Kontrollleisten und fitzelige Details in Plasmoid-Oberflächen und systemauslastende Hintergrunddienste sind nur einige der nicht richtig schönen Eigenarten des Desktops, an denen ich aneckte. Doch es wird besser, rapide.

8 – Von Integriertheit und Harmonie
Compiz war damals revolutionär, und der erste wirkliche Effekte-WM (obwohl schon KDE 3 anno dazumal (2004?) einige hochexperimentelle Compositing-Effekte bot) und sollte – wie seine Entwickler selber betonten – die Spielwiese für neue Konzepte sein, die dann in die nativen Fenstermanager der Desktops integriert werden sollten. Alleine das ist sinnvoll für den Standardnutzer. Compiz ist einfach ein Monster für sich und so hübsch es auch ist, gehört dieses Experimentierolymp in keine Normalnutzer-Standardinstallation.
GNOME 3 hat mit dem Fenstermanager ›Mutter‹ die Chance vertan, ein ordentliches Animations- und Erweiterungsframework zu schaffen – das Ding ist statisch wie der Microsoft Windows Desktop Window Manager. (Ja, es geht offenbar irgendwie, die Fokus-Effekt-Erweiterung sieht für mich aber wie eine ›Injection‹ oder Hack aus, nicht wie der Gebrauch einer dafür ausgelegten Schnittstelle.) Immerhin sind Pläne im Gespräch, das Animationsframework Clutter direkt in Mutter und GTK+ zu integrieren, und nicht nur als Abhängigkeit einzubinden. Dies würde eine völlig neue Art von GNOME-Anwendungen ermöglichen, die starken Gebrauch von Mac-artigen Effekten machen, und diese mit Wissen über die Desktop-Geometrie verknüpfen (ähnliches ist bei KWin auch im Gange).
KDE SC macht es dagegen richtig: Perfektes Zusammenspiel von Desktop Plasma und Fenstermanager KWin – von Beginn an so konzipiert, natürlich modular. Man spürt, wie alles schön durchdacht ist und ineinander übergreift, wie Plasmoid-Anwendungswidgets Gebrauch von KWin machen; die KWin-Einstellungen im KDE SC-Kontrollzentrum sitzen und perfekt mit der Konfiguration und dem Verhalten der Arbeitsoberfläche zusammenspielen; es fühlt sich alles wie aus einem Guss an. Das mag ich, und KDE – darum teilweise auch meine Euphorie – überträgt Systemparadigmen von Mac OS X hierbei auf den freien Linux-Desktop, wie man es in dieser Integriertheit und Innen-System-Harmonie dort bisher noch nicht sah. Die Arbeit ist großartig! Die besprochene Integriertheit zieht sich bei KDE SC durch alle Bereiche: Die Benachrichtigungen können im Kontrollzentrum feingranular für jede Anwendung und Funktion aktiviert oder deaktiviert werden, gleich verfährt man mit einem zentralen Kontrollpult bei der Einrichtung von Tastenkombinationen für alle KDE-Anwendungen – es ist ein Traum!
GNOME 3 versucht mit seinem neuen Systemeinstellungen mit KDE SC 4 gleichzuziehen, hat aber noch verdammt viel nachzuholen. Traditionell wurde bei GNOME alles auf seiner Insel entwickelt, und später Upstream gebracht. Bei GNOME 3 hatten die Entwickler sich die Herausforderung gestellt, verschiedene Systemtools unter einer wirklich-wirklich konsistenten Konfigurationsoberfläche zu vereinen.

9 – Plattform vs. Ökosystem
Mit GNOME 3 ist ein verstärkter Trend vom Insel-Upstream-Zusammenarbeiten hin zum Komponentenmodell erkennbar. Die nun tiefer verzahnten Systemelemente formen gemeinsam den Desktop. Tatsächlich aber verhält es sich so, dass GNOME, ähnlich Apple im Vorgehen, ein eigenes Ökosystem schafft, während KDE SC eine Plattform darstellt, in die man Komponenten hineinstecken kann, und welche diese dann in einem dynamischen Prozess integriert.
Das habe ich schon an KDEs Herangehensweise an das Thema Multimedia-Backends illustriert: Man erstellt ein Meta-Framework, in die sich diese, oder eine jene andere Entwicklung backend-en lässt. Man ist hochflexibel, man ist auf der Geschwindigkeit der Strömung der Linux-Technologie, zumindest in der Theorie — und man ermöglicht mehr evolutionäre Auslese und den Nutzern mehr Freiheit.
Unterstrichen werden kann meine Meinung mit GNOMEs öffentlichen Überlegungen, zukünftig GTK+ und GNOME nur mehr für Linux und keine anderen UNIXoide – und Windows, man denke an die Auswirkung auf GIMP – zu entwickeln. Das ist eindeutig Ökosystem-Strategie.
Dass Canonicals Unity-Prozess eine langausgelegte Ökosystemstrategie zur Marktdifferenzierung ist, brauche ich eigentlich gar nicht erst zu erwähnen. Interessanterweise scheinen sie mit all ihrer Absonderungsarbeit tatsächlich eine eigene Plattform zum Ziel zu haben – aber ganz im autoritären Stile Apples.
Ulkigerweise scheint dem Unternehmen selbst noch nicht klar ist, wie diese aussehen soll – zu beobachten an dem ständigen Wechsel von Toolkits; der Bestrebung für eine eigene Entwicklungsumgebung, aber jetzt schon mit veralteten Technologien usw. usf..
Das sind meine Beobachtungen. Hieraus ergibt sich für mich die Erkenntnis, dass die KDE SC-Plattform eher das darstellt, was ich unter Linux und freier Software verstehe. Und nutzen möchte.

10 – Feature Regressions
“Never touch a running system”? Doch! Warum? Weil wir Fortschritt wollen und Fortschritt bedeutet auch Bruch mit Altem. Man muss aber fairerweise unterscheiden: Zum einen die evolutionäre und revolutionäre Weiterentwicklung von Software, die Brüche in Paradigmen, Funktionalität, Kompatibilität nötig macht, will sie Fortschritt erreichen, und will sie sich sanieren. Zum anderen ›das Recht des Nutzers‹ auf allgemeine Funktionsfähigkeit. Sind Entscheidungen von Großprojekten mit großer Nutzerbasis, ›alles neu zu schreiben‹, tragbar? Ist es richtig, den Nutzer, selbst wenn nur vorrübergehend, mit starken Feature Regressions zu konfrontieren, sogar mit völlig neuen UI-Ansätzen, hat er sich doch über die Jahre an die Software gewöhnt und erwartet, dass sie nicht bricht? Es ist fast schon eine ethische Fragestellung, und sie ist bewusst provokant formuliert. Aus technischer und projektzentrierter Sicht fällt die Antwort nicht schwer: Das Übel nimmt man in Kauf für die Zukunft des Projektes, sei es eine Plattformaktualisierung, ein Schwenk auf eine elegantere Programmiersprache, die für das Projekt besser geeignet ist, oder die Neuorientierung für neue Interaktionsmodelle, oder alles zusammen. Das Problem wirkt sich insbesondere bei Projekten negativ aus, die sehr viel mehr technikbegeisterte Entwickler mit To-Boldly-Go-Innovationstrieb als Nutzbarkeitsinteressierte haben: Die Nutzer fühlen sich dann unverstanden. (Hier ein schieler Blick auf KDE SC 4.) Was dagegen getan werden kann: Kommunikation der Absichten. Kommunikation ist das Wichtigste.

11 – Philosophische Ergüsse
Das Wesen eines Linux-Geeks kennzeichnet sich mit dadurch, dass er hofft, dass alles besser *wird*. Wir sind ausdauernde Idealisten. (Ein Grund übrigens, weshalb ich an eine Piratenpartei mit einer Großzahl IT-Verständigen glaube.) Wir sind zäh und wir nehmen mitunter unsagbare Verluste in Bedienung und Funktionsumfang in Kauf, weil wir überzeugt auf ein großes Ziel hinleben, sei es ideologisch im Sinne der Freiheit, sei es durch den Gedanken an die neuen Horizonte, die sich durch Architekturumbauten werden anschiffen lassen. Weil wir daran glauben. Weil wir immer ein perfekteres Softwaredesign als Selbstzweck anstreben. Wir kämpfen nicht für uns, sondern dafür, dass das Ding besser wird. Das macht uns zu den Guten. Und das gibt uns die moralische Legitimation dafür, Dinge zu brechen.
So weit, so schön. Doch die Sache geht über ihren Selbstzweck hinaus in die größere Einheit ›Ziel‹. Denn IT-Projekte wären als reiner Selbstzweck – „Weil wir es können!“ – sinnlos. Ihr Selbstzweck liegt in ihrer Schönheit und fortwährender Evolution des Dinges. Und euch ist schon meine Verwendung des Begriffes ›Ding‹ aufgefallen: Genau das sind diese Projekte nämlich nur – sachliche Dinge. Nichts tut man sachlich ohne menschlichen Nutzen – und dieser sind die Nutzer, aber natürlich auch der persönlich-menschliche Spieltrieb der Entwickler, welche diese ›Dinge‹ erst beleben. Kommen wir nun auf die Kommunikation zurück, die als Element zwischen Entwickler und Nutzer wichtig ist. Ein Ausloten zwischen Nutzerinteressen und denen des Dinges ist notwendig, und hier vertrete ich die Meinung, dass das Dinginteresse höher gestellt werden sollte: Darauf baut alles auf, was das Projekt als Ganzes ist. Die Nutzer können sich vor Brüchen sträuben, wie sie wollen – Blockierung der Umsetzung des Idealismus der Entwickler führt zum langsamen Tod des Projektes, nämlich metaphorisch gesprochen zur Hemmung der Fortevolution und damit zum Aussterben. Nur kann es sein, dass die Entwickler den rechten Evolutionspfad noch nicht kennen – unwahrscheinlich, aber möglich – und da liegen die Nutzer in der Verantwortung. In Verantwortung für das, was die reine, bessere Architektur des Dinges ist, nicht in Verantwortung dafür, sie an sich anzupassen.
C.L.U. 2 aus Tron: Legacy: Ein Programm, das in Idealismus geschrieben wurde, die Welt zu verbessern, dies aber zum Selbstzweck macht und nach vernichtender Perfektion strebt. Was ihm fehlt: Das Ziel für die Gemeinschaft.

12 – Wo es denn nun hingeht
Ich konnte hierfür Leszek, der mit seinem Podcast und vormals PDF-Magazin Techview seit Jahren eines meiner inspirierenden Vorbilder in Sachen Linux- und IT-News-Geek ist, zu einem Kommentar überreden =) :
»Ich glaube, eine große Vision gibt es in den Desktops nicht mehr. Alle scheinen sich in die Entwicklung Touch zu bewegen und gleichzeitig neue Infrastrukturen in Form von Bibliotheken bzw. API-Anbindungen für die Integration von Webapplikationen zu bieten. KDE beispielsweise setzt neben Solid jetzt auch richtig auf den E-Mail-/Kontakte-/Kalender-Austauschdienst Akonadi. GNOME 3 integriert ebenfalls mit ›Kontakte‹ und ›Dokumente‹ das Web in die Desktopoberfläche. Windows 8 soll ebenfalls eine Integration von verschiedenen Diensten bieten, dass sogar soweit geht, dass im Öffnen-/Speichern-Dialog Webressourcen wie GMail, Flickr usw. angezeigt werden. Ich denke, im Nachfolger von OS X Lion wird es ähnlich werden.
Augenscheinlich ist aber, dass Microsoft und die Linux-Desktops ihr Aussehen und ihr Bedienkonzept teilweise komplett ändern. Bei Mac OS X fehlt das noch. Ich könnte mir vorstellen, dass Launchpad (der ›iOS-Launcher‹ für den Desktop) bei der nächsten Version noch weiter ausgebaut werden wird und dann eventuell als Desktopersatz zum Standard erklärt wird.« Danke! (Einen Blick wert sind übrigens auch seine Linux-Distributionen ZevenOS und ZevenOS-Neptune!)
Faszinierend zu beobachten ist im Moment, dass sich drei der größten Arbeitsoberflächen in sehr ähnliche Richtungen entwickeln: GNOME 3, Canonicals Unity, Apples Mac OS X Aqua. Ein interessanter weiterführender Denkanstoß dazu bietet der Artikel Mac OS X Lion Features are Ubuntu Rip-Off.
Da kann ich gleich einhaken: Es gibt gute Gründe, warum ich nicht OS X als Haupt-OS nutze, obwohl ich einen Hackintosh besitze: Ich will die Oberfläche nicht auf Dauer nutzen müssen. Sie schränkt mich ein, sie ist hinderlich, verumständlicht Abläufe. Aqua ist ein zwar perfekt designtes, aber fitzeliges UI, das mich in seine akkuraten Bahnen zwingt. Die Linux-Desktops waren bisher selbst mit dem behütenden GNOME Gegenentwürfe zu dieser Mentalität, doch GNOME 3 und Unity reißen das Ruder ganz klar in Richtung Apple-Kopie. Ich habe Bedenken bei dieser Entwicklung. Mittlerweile kann ich es jedoch, so es um GNOME 3 geht, für mich relativieren, da immer mehr vorhandene Userscripte ein umfangreicheres Personalisieren ermöglichen.

Die Strömungen, die ich so erkenne, sind generell der Wunsch, Dateien zu Informationen zu machen und als Information behandelnd zu kategorisieren. GNOME 3 und indirekt Unity haben mit Zeitgeist und dem Activity Journal aufregende Forschungsfelder aufgetan und dabei Pionierarbeit geleistet. Was habe ich gestern für Dokumente bearbeitet, welche Videos habe ich gesehen, was ist meine meistgespielte Musik des Monats? Welche Programme habe ich wofür wann verwendet, wo habe ich gespeichert? Solche Fragen können die GNOME-Unterprojekte beantworten und stellen dabei Schnittstellen für alle Destop-Anwendungen zur Verfügung, womit diese Zugriff auf Datenbanken mit großen Wissen über die Nutzergewohnheiten erlangen, was zu einer noch nie gekannten ›Service-Intelligenz‹ der Computeroberfläche führen kann. Bild: Activity-Journal-Prototyp. Soll letztlich direkt in die ›Aktivitäten‹-Shell-Oberfläche mit reicher Such-Grammatik integriert werden.
Erfreulich hier, dass auch KDE an der Integration von Zeitgeist arbeitet. Umso erfreulicher, dass KDE im Rahmen seines Nepomuk-Projekts, das sogar von der EU mit Millionen Euro mitfinanziert wurde, an einem – Framework – wie sollte es anders sein – zur Sammlung und Vernetzung von verschiedendsten Metadaten über Dateien arbeitet. Das Ergebnis eines so von den Anwendungen automatisch getätigten Durchbeschriften mit Schlagwörtern und technischen Informationen und der vom Anwender selbst mitgeteilten persönlichen Bedeutung für ihn im Sinne einer Qualität, bahnt ebenfalls die Straße zu einer neuen Generation von Anwendungen: Die, welche von einer zentralen Datenbank gefüttert, Ontologie-basiert, erstmals wissen, *was auf dem Computer IST*, und welche Beziehung es zum Nutzer hat. Klassische Index-Suchen werden nebenbei auch immer besser, und sind wie bei KDE SC 4 schon tief in der Standardkompilation integriert. Es wäre jedoch wünschenswert, dass die KDE-Entwickler es cooler finden würden, mehr Frontend-Bewegung erkennen zu lassen, als über die ungeahnten Möglichkeiten ihrer Technologie zu philosophieren, sonst bleibt der semantische Desktop auf KDE leider weiterhin ein Buzzword.

Wie schon herausgekommen sein müsste, habe ich ein Faible für Schönheit in Konzept-Architektur. So bin ich auch ein großer Fan von BeOS und Haiku, die ihrerseits durch ein extrem modulares, dynamisches Konzept bestechen. Das 2000 wegen Microsoft’schen Kartellverstößen aufgegebene Betriebssystem BeOS (und dessen Open Source-Nachbildung Haiku) führte das Be File System BFS ein, das noch nach heutigen Maßstäben eine Revolution darstellt: Metadaten und Programm-Assoziationen zu Dateien werden in eine im Dateisystem integrierte Datenbank geschrieben. Dies hat weitreichende Konsequenzen für alle Anwendungen auf dem System, die sich viel Code sparen, und obendrein untereinander interoperabler werden. Auch die Dateisuche findet direkt über die Dateisystem-Datenbank ohne zusätzlichen Indizierungsdienst statt, ist also ressourcensparend und extrem flink.
Das habe ich an den neuen Ideen des Linux-Desktops zu kritisieren: Sie können schnell in ›Bloatware‹ ausarten. Zeitgeist, Nepomuk, Strigi, Tracker, Akonadi und wie sie alle heißen, sind zusätzliche Dienste, die eine weitere Abstraktionsschicht auf das Dateisystem legen. Microsoft hatte Großes bei Windows Codename: Longhorn vor mit WinFS, das in eine ähnliche Richtung ging, ist aber bei der Entwicklung wegen der hoffnungslosen Aufblähung und Verkomplexierung gescheitert. Warum setzen sich die Desktop-Entwickler nicht mal mit den Kernel-Entwicklern zusammen, und sprechen über Metadaten auf Dateisystemebene? Warum lässt man die Chance bei dem gerade heranreifenden Next-Gen-Dateisystem Btrfs verstreichen, wirkliche tiefgreifende Innovation für den Desktop zu ermöglichen?

13 – Neue Geräteklassen und die Konvergenz
Einer der sich für nächstes Jahr abzeichnenden Computing-Trends sind Ultrabooks. Ultrabook – Intels Spezifikation für extrem flache Notebooks im Stile des MacBook Air. Der Chip-Hersteller hat für dieses neue Segment sein umfassendstes Kommunikationsprogramm seit Jahren angekündigt, da wird bald richtig was geh’n. Ultrabooks sind dünn, und sie sind aus ganzen Blöcken gefräst: Neben Aluminium soll zur Produktionsteigerung auch Glasfaser als Gehäuse verwendet werden. Und sie sind dünn. Klingelt da etwas? Die nächste Tablet-Generation wird auch dünn, mit 8 mm und fallend sind Geräte angekündigt. Es ist jetzt möglich, leistungsfähige Hardware ungeahnt kompakt zu packen, sogar mit starkem Akku, ordentlichen Lautsprechern, FullHD-Kamera und natürlich mit Multitouchscreen. Ich sehe die Entwicklung klar dahin gehen, dass Tablets mit Docking-Stationen zu ultramobilen Laptops werden – eine Konvergenz der Geräteklassen. Intel setzt Energie in einen vollen Android-Port für x86, auf der anderen Seite wird Windows 8 auch für die ARM-Architektur erscheinen. Ich stelle mir Geräte vor, die Tablet sind, die aber durch Einstecken in ein Tastatur-Dock mehr Anschlüsse bereitstellen, mehr Speicher, vielleicht mehr Rechenleistung. Mir kommt der Sabber bei dieser Vorstellung. Das ist die Art von mobilem Gerät, die ich möchte, endlich!
ASUS Eee Pad Transformer Prime: Nvidia Tegra 3-Tablet mit Android 4 und Tastatur-Dock mit Zusatzakku, siehe Spezifikationen

Stellt sich die Frage nach der konkreten Benutzeroberfläche solcher Geräte. Habe ich ein Tablet in der Hand, will ich mit geschwinden Touch-Gesten meinen Startbildschirm bedienen und Apps – wirklich Apps, vereinfachte und Touch-optimierte Varianten von Desktop-Anwendungen nutzen, um rasch an (meinst konsumierbare) Ergebnisse zu kommen. Sitze ich vor einem Notebook, möchte ich mein System bequem per Tastatur und Trackpad steuern, nicht unbedingt meine Arme heben, und auch eher nicht meinen Bildschirm verschmieren. Zudem ist meine Notebook-Steuermöglichkeit viel exakter als die per Touch und ich habe den Anspruch, mit Dateien und Werkzeugleisten umzugehen; meine Eingabekompetenz ist ›fitzelig-tauglich‹. Wie bringt man die zwei Welten zusammen?
Spannend, was sich mal wieder bei Apple tut: Im diesem Sommer erschienen Mac OS X 10.7 Lion hielten bereits eine Reihe feiner iOS-Essenzen ihren Einzug. Auffälligste das ›natürliche Scrollen‹ – Scrollen vom Inhalt, nicht Bewegen einer Scrolleiste mit dem Mausrad oder dem Trackpad. Dazu das von Leszek angesprochene Launchpad als iOS-artiger Anwendungsstarter, sowie systemweite Multitouch-Gesten auf dem Trackpad. Dass Apple in der Zukunft recompilierte iOS-Apps aus seinem unermesslichen Fundus an iPad-Software für Macs mit Multitouch-Screen und vielleicht entkoppelbarer Tastatur anbieten wird, liegt nahe wie noch was.
Microsofts Hoffnungsträger Windows 8 bezaubert den Nutzer auf allen PCs ab nächsten Sommer mit der neuen kubistischen Tablet-Oberfläche Metro als Standarddesktop, der nur mit dem klassischen Fenster-Desktop gewechselt werden soll, wenn es eine ›Legacy‹-Anwendung nötig macht – schließlich ist in Zukunft ja alles ganz toll Touch-optimiert und in HTML5 und JavaScript geschrieben. Also, alles, ja. [...] Den alten Desktop wird es dabei nur noch auf x86(_64) geben, reine Windows-Tablets mit ARM-Prozessor werden nur mit Metro kommen. Microsoft bleibt uns noch einen Entwicklerfaden für ernsthafte Anwendungen in ›Metro-style‹, wie sie es so gerne nennen, schuldig. Nichtsdestotrotz lässt sich die selbe Absicht in der Verschmelzung wie bei Mac OS X erkennen, wenn auch aus der entgegengesetzten Position, dass Microsoft noch keinen App-Fundus hat, sondern sie erst mit Windows etablieren will.
Um endlich auf Linux zu kommen: GNOME 3 ist durch und durch geschaffen für Geräte, die beides sein möchten, GNOME 3 IST die Konvergenz, ist die Synthese! Es mag den Desktop-Nutzer gerade an manchen Stellen schmerzen, aber das ist die Richtung, und GNOME 3 und die GNOME 3 Shell tritt bestens aufgestellt in in diese neue Gerätewelt, von der ich glaube, dass sie die generelle Zukunft von Mobilcomputern ist.
KDE hat Plasma Active als neue Voll-Touch-Umgebung, zwischen der und dem Standard-Plasma man während der Sitzung wird wechseln können, ohne die laufenden Anwendungen zu beenden, sie sogar wird mitnehmen. Der verheißungsvolle Wechsel auf Qt QML macht wie bei Android verschiedene Nutzeroberflächen eines Programms für verschiedene Auflösungen, oder auch Umgebungs-Anforderungen möglich. Der E-Mail-Client wird also auf Plasma Active ein anderes Layout zeigen als auf Plasma, und doch ist es die selbe Anwendung. Auch eine kluge Herangehensweise mit dem Vorteil, den Power-Nutzer nicht einzuschränken. – Und es wird an der Umsetzung dieser Vision gearbeitet, viele KDE-Entwickler beschäftigen sich bereits mit dem Freundlichmachen ihrer Anwendungen für Touch-Geräte.
Meinen vollen Enthusiasmus in Sachen Linux auf ›Tabbooks‹/›Lapdocks‹/›WebTops‹ schmälert zur Zeit noch, dass X.org noch immer eine Multitouch-API fehlt; sie wird von Version zu Version aufgeschoben. Das könnte noch ein düsteres Erwachen geben. Multitouch ist zwar möglich, man muss bisher aber die Eingabegeräte direkt am Treiber ansprechen und dafür erst kennen, um sie dann in ein von X separates Framework zu mappen, welches überhaupt erst allgemeine Muster und damit Gesten erkennt. Canonical tätigte zumindest dabei einen löblichen Vorstoß mit uTouch, das seit Ubuntu 10.10 mitinstalliert wird, leider aber auch auf anderen Distributionen erst einen speziell ›Hack‹-gepatchten X.org erfordert.
Ja, danach sieht’s aus.

14 – Finale
Der Paradigmenumbruch findet statt. Es herrscht Aufbruchsstimmung. Die traditionelle Desktop-Metapher weicht nach Jahren etwas Neuem; was es ist, wird immer greifbarer. Es ist sehr erfreulich, dass man den Umbruch in der Industrie weitsichtig vorausgespürt hat und jetzt besser aufgestellt ist als die proprietäre Konkurrenz.
Ich rate zum Experimentieren. Dabei auf die Nachhaltigkeit der eigenen Plattform-Entscheidung zu achten.
Das Schöne ist: Wir haben die Wahl auf Linux.
Es sind aufregende Zeiten.

15 – Auswahl weiterführender Artikel
Im Folgenden noch eine Auswahl einiger lesenswerter Artikel der letzten Monate, die es ermöglichen, sich selbst ein breites Urteil zu bilden. Damit schneller ersichtlich ist, wohin eine Empfehlung führt, habe ich die Links sichtbar geschrieben.

Unity

Canonicals Copyright Assignments

GNOME 3

KDE

Gemischtes

Bildrechte:

GNOME Foundation, derStandard.at (Kätzchen), Canonical (Unity), be-jo.net (Apluntu), Xfce, KDE, Disney, ASUS

nach oben