Archiv der Kategorie: Linux

Manjaro Linux und KDE Plasma 5: Das Frumble-Kompendium 2017

Wann es denn geschehe, das Jahr des Linux-Desktops? Das Jahr deines Linux-Desktops bestimmst du! – Nach Canonicals community-feindlichem Gebaren ab ca. 2011 ist es schwergefallen, Einsteigern eine Distribution zu empfehlen, die sinnigerweise auch nicht von Ubuntu abgeleitet ist. Privat bin ich auf Arch gewechselt, diese rollende Distro ohne Autokonfiguration verbietet sich aber von selbst unbedarften Anwendern vorgelegt zu werden. In 2011 wurde das Manjaro-Projekt aus der Taufe gehoben, das ein einsteigerfreundliches, von Arch abgeleitetes System ist. Anders als bei Arch werden bei Manjaro die Paketupdates nicht kontinuierlich, sondern in gepufferten Schüben mit Vortest ausgeliefert. Seit zwei Jahren nutze ich ebenfalls primär Manjaro und habe damit auch in der Familie gute Erfahrungen gemacht. Manjaro ist damit aus meiner Sicht die Distribution du jour für Linux-Einsteiger und gleichermaßen bis zu einem hohen Grad auch für Poweruser.

Dieser Text soll euch bei der Konfiguration an die Hand nehmen, denn vieles steht in komplizierteren Zusammenhängen, als es zunächst scheint. Das habe ich mir zum Ziel gesetzt, einigermaßen aufzulösen. Wenn ihr zu lesen beginnt, werdet ihr feststellen, dass der Text weniger einer Konfigurationsanleitung in Wikis gleicht, als dass er ihnen Kompagnon steht als Sammlung von Tipps, Tricks und Hinweisen aus eigener Erfahrung. Er ist darauf angelegt, kapitelweise angesprungen werden zu können. Was ist seine Zielgruppe? Daran habe ich länger geknobelt, um dann zum Schluss zu kommen: Einsteiger, die bereits ihre erste Linux-Berührung hatten und Poweruser, die von meinen Erfahrungen profitieren möchten, denn ich muss aus Gründen der Praktikabilität ein gewisses Vorwissen voraussetzen.

Dieses Werk ist das Ergebnis eines knappen Jahres Zusammentragen von Informationen. Ich werde diesen Text vorerst fortlaufend aktualisieren, kann aber überholte Darstellungen nicht ausschließen. Wenn ihr Fehler findet – und seien sie noch so klein: Bitte schreibt mir, das ist im Sinne aller Leser.

Manjaro Linux und KDE Plasma 5: Das Frumble-Kompendium 2017 weiterlesen

Mitreißenderes Filmvergnügen durch Leuchtstreifen

Hier komme ich zu einem Artikel, den ich schon lange mal schreiben wollte. Es gab immer das Bestreben, Filmpräsentation intensiver zu machen: Farbe, Ton, Stereoton, Breitbild, Raumklang, 3D, 4k, HRF. Abseits dieser Kinotrends fand auf dem Heimgerätemarkt eine Innovation statt, die kaum beachtet wurde: Phillips verbaute erstmals 2006 Flachfernseher mit seiner Ambilight-Technologie, LED-Leuchtstreifen an der Rückseite des Bildschirms, die in der momentanen Bildstimmung die Wand bestrahlen. Das ergibt den beeindruckenden Effekt, als Zuschauer selbst in der Umgebung zu sitzen, und ein großes Extra ist, dass das Sehen von Filmen, ganz im Gegenteil auch zu 3D, durch die Leuchtstreifen ermüdungsärmer wird, weil der Monitor nicht mehr die einzige Lichtquelle im Raum ist.
KarateLight-Installation von vorneBald gab es bald erste Projekte, die es sich zum Ziel gesetzt hatten, ein Ambilight für den PC mit Mikrocontroller nachzubauen. Nun bin ich nicht der versierteste Bastler und Löter. Ich finde die Idee der Leuchtstreifen extrem cool, aber ich hätte gerne etwas, das – wenigstens in der Hardware – einfach läuft. Mit einer Gewissheit, beim Aufbau nichts kaputtmachen zu können. Auf der Suche danach habe ich AtmoLight von Carsten Presser gefunden. Sein noch besseres KarateLight bietet acht statt vier Leuchtstreifen-Kanäle und einen 12- statt 10-Bit-Farbraum. Es ist ein fertiges Kästchen, das mit den fertig verbauten Platinen und aufgeflashter Firmware bereit zum Loslegen kommt. Der Luxus kostet 70 Euro, mir war es das wert. Wenn mensch sich mal die Bauteilkosten inklusive Versand von verschiedenen Händlern und Gehäuse anschaut, kommt mensch da auch schon auf einen hohen Betrag + Selbstbaurisiko. Wer die Herausforderung an dieser Stelle mehr liebt, der kann sich aber sogar auch den Schaltplan und die Firmware von Carsten herunterladen und seine Box selber zusammenbauen.
Summa summarum kam ich inklusive acht Leuchtstreifen und Versand bei einem Preis von 160 Euro für meine Installation heraus. Sieht erst mal abschreckend aus, aber da ziehe ich den Vergleich heran: Für einen Film-Liebhaber darf mensch diese Anschaffung mit der einer leistungsstarken Grafikkarte für den Gamer vergleichen – die Wirkung ist immens. Jetzt gibt’s erst mal eine Vorführung:


(In HD schauen)

Eine helle Freude

Leuchtstreifen am BildschirmEs gibt grundsätzlich verschiedene Möglichkeiten, auf die mensch das Gerät konfigurieren kann: Etwa nur dominante Erscheinungen am Bildschirmrand zu berücksichtigen, womit sich bei Action-Filmen beispielsweise eine Art 3D-Effekt ergibt, wenn etwas zur Seite fliegt – es fliegt aus dem Bildschirm heraus. Oder ein Einfangen der allgemeinen Bildstimmung, der „Bilddurchschnittsfarbe“. Oder eine gleichmäßige Einteilung des Bildschirms in zwei, vier, oder acht Teile und Diodenleisten, die für den jeweiligen Sektor des Bildes einen Farbwert liefern, so wie auch ich es habe. Dadurch wird der Bildeindruck weiter: Mensch fühlt sich in der Umgebung der Szene, mensch schaut sie nicht nur an, sondern ist tiefer drin, fast „mitten drin“. Ich empfehle KarateLight mit seinen acht Kanälen gegenüber AtmoLight wegen den Bewegungsverläufen: Mensch nimmt mit der Beleuchtung wahr, in welche Richtung sich etwas Dominantes im Bild bewegt. Die horizontalen Streifen sieht mensch übrigens nur in der Kamera-Aufnahme, mit dem Auge ist alles ganz ruhig.
Die meisten Käufer setzen das System an ihrer Dreambox am Fernseher ein. Ich hab keinen Fernseher, ich hab einen wunderbaren PC-Monitor mit Linux.
Ich bin total begeistert von meiner Installation und freue mich nun seit einem Jahr jeden Tag darüber. Es macht sehr viel Spaß, damit Filme zu schauen; oft durchstöbere ich damit auch einfach nur meine Trailer-Sammlung und freue mich an dem neuen Sog, den die Installation bringt. Ich möchte mittlerweile eigentlich keinen Film mehr ohne KarateLight schauen, es ist für mich ein echter Mehrwert, der mir, wenn er mal nicht da ist, umgekehrt zum Fall, wenn er da ist, gleich unangenehm aufstößt. Die Karatelight-Installation fällt beim Schauen gar nicht mehr bewusst auf, fungiert nur als wirkungsvoller Intensitätsverstärker des Films. Es ist auch nicht so, dass durch das Licht die Umgebung auf einmal stören würde. Ich habe z.B. ein stark reflektierendes Magic Trackpad aus Alu/Glas, das mir beim Schauen ohne KarateLight dauernd auffällt und ich früher wirklich immer weggelegt habe, wenn ich was schauen wollte. Wenn KarateLight mit seinem dynamischen Umgebungslicht läuft, nehm ich das Trackpad auf dem Mauspad gar nicht mehr bewusst wahr.

Immer, wenn ich einen richtigen Film schaue, stelle ich die Bildschirmhelligkeit – von meiner angenehmen Lesestufe – kurz zwei Stufen höher. Da muss jeder schauen, wie das bei ihm ist, aber ein bisschen heller als sonst darf das Bild schon sein, weil es ja gegen sein eigenes Umgebungslicht „anstinken“ muss.

Das Anbringen der selbstklebenden Leuchtstreifen an die Rückseite des Bildschirms ist eine etwas kniffliche Sache, die je nach persönlichem Perfektionismus viel Maßarbeit und Tests erfordert. Anzuraten ist, die Streifen erstmal versuchsweise mit Tesafilm zu fixieren, so zu testen, und dann die optimalen Abstände zu den Bildschrimrändern herauszufinden. Wenn die Wand hinter dem Schirm schräg verläuft, wie bei mir, ist es sinnvoll, z.B. die Streifen an der rechten Seite des Schirms etwas mehr nach außen zu setzen.

KarateLightMeine Leuchtstreifen hatte ich ursprünglich für meinen alten 23″-Monitor gekauft, für meinen neuen 27″er sind sie aber auch immer noch genau richtig: 4x 15 cm + 4x 25 cm. Achtet beim Netzteil darauf, dass es genug Ampere liefert (bei mir mit Reserve 2 A auf 12 V). Gibt’s preiswert auf ebay, aber kauft nichts zu billiges.

Ein echter Nachteil von Leuchtstreifen: Mensch kann keine Videobeschleunigung nutzen. Kein XvBA, kein VDPAU, kein va-video und kein Video auf OpenGL-Overlay (Totem von Gnome 3). Der Farb-Grabber boblightd muss den Bildschirminhalt mitlesen können. In VLC habe ich die Ausgabe auf „Standard“, in [S]mplayer[2] auf „xv“ (bei mir „xv – 0 AMD Radeon AVIVO Video“).

Es gibt mittlerweile auch eine Windows-Software für KarateLight. Fragt mich nicht, was dieses Atmowin kann. Ihr werdet aber höchstwahrscheinlich keine Blu-Rays über PowerDVD schauen können, erst mal, weil es ein Overlay macht und dann wegen der HDCP-Kopierschutzkette zum Bildschirm.

Installation

Ich will hier eine kurze Anleitung für die Installation auf Arch Linux und (das von mir ausdrücklich angelehnte) Ubuntu geben:

Arch:

sudo pacman -S subversion

Ubuntu 12.10:

sudo apt-get install subversion libusb-1.0-0-dev libx11-dev libxrender-dev libxext-dev libgl1-mesa-dev g++

Beide weiter:

svn checkout http://boblight.googlecode.com/svn/trunk/ boblight-read-only
cd boblight-read-only
./configure --without-portaudio
make
sudo make install

– fertig.

Wenn make noch komische Fehler verursachen sollte, einfach noch mal einen frischen SVN-Checkout machen (das ist Ubuntu).
Wenn das, hoffentlich, ohne Probleme durchläuft, ist der Farb-Grabber hiermit installiert.

Es gibt da ein nerviges Rechteproblem: Die KarateLight, angesteckt über Standard-Druckerkabel per USB, meldet sich beim System als Fake-Modem oder so was Bizarres an und benötigt Superuser-Rechte. Dem kann mensch jetzt begegnen, indem mensch eine udev-Regel erstellt, was bei mir zwar funktioniert hat, aber dann hat das Licht nach einer Weile geflackert. Zum Selberprobieren: Datei /etc/udev/rules.d/70-boblightd.rules anlegen:

SUBSYSTEM=="usb", ATTRS{idVendor}=="04d8", ATTRS{idProduct}=="000a", ACTION=="add", RUN+="/usr/local/bin/boblightd"

und noch irgendwelcher Voodoo. Ein systemd-Dienst wäre wohl auch möglich, aber das wird ähnlich hässlich und wird wohl auch flackern, warum auch immer.
Eine andere Möglichkeit wäre, in das persönliche Aufruf-Script ein sudo einzubauen und per chmod die Rechte zu ändern. Das könnte dann aussehen: „sudo chmod 666 /dev/ttyACM0“. – Wenn wir schon dabei sind: Die KarateLight scheint unter verschiedenen Kernel-Versionen verschieden zu heißen. Schaut einfach mal unter /dev oder per „dmesg“ nach dem Einstecken, welches Gerät sie sein könnte. Eine Möglichkeit für den normalen Desktop-Nutzer wäre „kdesu chmod …“ bzw. „gksu chmod …“ (Gnome, Unity), was dann einen grafischen Dialog mit Aufforderung zur Eingabe des sudo-Passworts erscheinen lässt.

Hier mein Start-Script atmotoggle.sh:

Nicht vergessen: Das Gerät hinter „/dev“ an den Namen der eigenen Gerätedatei anpassen und das Script ausführbar machen. Mein Script (inspiriert von diesem) schaut bei jedem Start, ob boblight-X11 bereits läuft und falls ja, beendet es boblight-X11 und boblightd – kann also sowohl zum Starten wie zum Beenden der KarateLight-Sitzung verwendet werden, eignet sich daher vortrefflich zum Legen auf eine Sondertaste. Nach dem Richten der Rechte wird der Hintergrunddienst boblightd gestartet, der sich mit der KarateLight verbindet, dann der eigentliche Grabber boblight-X11. Mit boblight-X11 habe ich viel rumgespielt, der obige Aufruf gefällt mir am meisten. Er erzeugt eine schnelle, aber nicht zu hastige Anpassung an das Bildgeschehen und hat einen fließenden Übergang. Die Farbsättigung finde ich so auch genau richtig, aber ihr könnt ja mal mit „-o saturation=1.5“ und anderen Werten spielen.

Dann braucht’s noch die /etc/boblight.conf, die bei mir so aussieht:

Ein Fehler, der auf Arch und Ubuntu mit boblight-X11 auftritt (schreibt mir bitte, wenn nicht mehr): „libboblight.so: cannot open shared object file: No such file or directory“. Das Problem ist hier der erwartete Dateisystemaufbau von boblight auf einem 64-Bit-System. Abhilfe schaffte mir

sudo mkdir /usr/lib/x86_64
sudo ln -s /usr/local/lib/libboblight.so.0.0.0 /usr/lib/x86_64/libboblight.so

Legen auf eine Sondertaste

Wie schon erwähnt bietet es sich an, das Starter-Script auf eine Sondertaste zu legen. Die meisten Desktops bieten in den Einstellungen eine Sondertastenbelegung an, womit sich zumindest die F-Tasten und Kombinationen aus Alt, Shift und Super belegen lassen. In KDE SC findet ihr das unter Systemeinstellungen ? „Kurzbefehle und Gestensteuerung“ ? „Eigene Kurzbefehle“ ? „Bearbeiten“ ? „Neu“ ? „Globaler Kurzbefehl“ ? „Befehl/Adresse“. Unter dem Reiter „Auslöser“ könnt ihr dann eine Taste(nkombination) festlegen und unter „Aktion“ z.B. „~/./.atmotoggle.sh“ angeben.

Auf meiner breiten Desktop-Tastatur habe ich hierfür die „/“-Taste auf dem Nummernfeld geopfert, weil alle 19 F-Tasten schon belegt waren und ich für boblight gerne nur eine Taste drücken möchte. Realisiert habe ich das über xbindkeys.

Arch: sudo pacman -S xbindkeys

Ubuntu: sudo apt-get install xbindkeys

Als nächstes xbindkeys in den Autostart der eigenen Desktop-Umgebung setzen:

KDE SC: Systemeinstellungen ? „Starten und Beenden“ ? Autostart ? „Programm hinzufügen“ ? „xbindkeys“, „In Terminal ausführen“

Ubuntu: Weiß nicht.

Die Datei ~/.xbindkeysrc wird beim ersten Start von xbindkeys angelegt, wenn nicht, im Terminal xbindkeys -d > ~/.xbindkeysrc machen.
Dann z.B. als neue Zeile eintragen:

# Atmotoggle
"~/./.atmotoggle.sh"
  KP_Divide

„KP_Divide“ ist bei mir die „/“-Taste auf dem Nummernblock. Um den Code für eure gewünschte Taste herauszufinden, gebt in ein Terminal xev ein (eventuell erst vorher installieren) und drückt die Taste über dem kleinen sich öffnenden Fenster. Im Terminal steht dann etwas wie „… keycode 106 (keysym 0xffaf, KP_Divide) …“. Den Namen dann entsprechend als dritte Zeile einsetzen.

Kleiner Exkurs: xbindkeys eignet sich auch hervorragend, um Kwin-Befehle auf Maus-Sondertasten zu mappen. Hier meine Zeilen für „Present Windows“ (Exposé), „Desktop Grid“ (Raster-Arbeitsoberflächerumschalter), und Hinein- und Hinauszoomen in den Bildschirm mit Super/Windows + Mausrad:

Um mehr mögliche Kwin-Befehle herauszufinden, einfach mal den Befehl qdbus org.kde.kglobalaccel /component/kwin shortcutNames ausprobieren.

Damit bekommt ihr jedenfalls boblight mit einem Tastendruck aus jeder Situation zum Laufen, das ist halt schon echt schön. Als wäre es eine eingebaute Funktion der Hardware.

Weitere Nutzungsratschläge

Eigenarten von Arch in Verbindung mit boblight:

Mir keine weiteren bekannt. Ich nutze KDE SC mit Kwin im Compositing-Modus mit Effekten und boblight funktioniert damit bestens.

Eigenarten von Ubuntu 12.10 in Verbindung mit boblight:

Damit boblight bei mir reagierte, musste ich in VLC bei der Videoausgabe von „Standard“ auf „X11-Videoausgabe (XCB)“ umstellen, SOWIE Compiz killen (!!): In einem Terminal metacity --replace machen, damit wird dann auch das Unity-Panel verschwinden. Compiz und das Unity-Panel kommen zurück über compiz --replace in einem neuen Terminal-Fenster (Rechtsklick ins aktuelle Terminal, „Neues Terminal“ – wenn der Fensterfokus überhaupt noch funktioniert). Ab Ubuntu 13.04 wird Metacity nicht mehr mitgeliefert werden, ihr müsst euch dann um einen alternativen Non-Overlay-Fenstermenschager kümmern. Wer mag, kann in mein obiges Start-Script ja noch „metacity –replace“ als Zeile vor boblightd und „compiz –replace“ als Zeile nach „killall boblightd“ schreiben, wenn es Fehler gibt und ihr das Script per Sondertaste startet, bekommt ihr dann allerdings keine Ausgabe.
Achtung: Der ganze Unity-Mist ist mir dabei mehrmals abgestürzt. Ja, das ist Ubuntu.

Du willst das doch auch

Wenn ihr Fragen zum Aufbau oder Betrieb habt, könnt ihr auch Carsten anschreiben, ich hatte mit ihm immer einen netten Kontakt und er hilft euch auch bei Problemen. Mittlerweile gibt es von Carsten auch eine Erweiterungsplatine für die KarateLight (und eine bereits damit ausgerüstete), die 16 Kanäle ermöglicht. Bei meinem 27″-Bildschirm ist das noch nicht wirklich sinnvoll, weil mir das Chaos mit den Kabeln da hinten dann doch zu wild wird… Aber wenn ich ehrlich zu mir bin, will ich jetzt eigentlich doch gleich 16 Kanäle. 😀
Mein Wunsch für die Zukunft wäre noch mehr Farbraum. Das aktuelle Spektrum ist zwar schon sehr gut und stört beim Schauen nie, wenn ich aber direkt auf die Wand gucke, fällt ab und zu doch schon eine gewisse Diskrepanz zwischen gezeigtem Bild und ähnlichem, aber lange nicht exaktem Farbton auf. Aber das ist Meckern auf hohem Niveau, der Filmgenuss wird dadurch nicht beeinträchtigt.

Leuchtstreifen sollten eigentlich „das nächste große Ding“ sein, gleichauf mit 3D und in meinem Ermessen weit praktikabler. Daran, dass die Technologie von der Industrie nicht zu diesem großen Ding erhoben wurde, dürfte mit erheblichen Maße Phillips durch seine Patentierung Anteil haben. Ein Jammer. Leuchtstreifen sollten an jedem Unterhaltungsbildschirm der Standard sein.

Der Situation des Massenmarktes ungeachtet, kann mensch viel Spaß haben an einem selbstgebauten System. Es ist dann auch doch ganz nett, sich etwas so Außergewöhnliches in das Alltägliche gebastelt zu haben, das so nicht jeder hat und zu einem stark immersiveren Seherlebnis verhilft. Ich kann die Technologie auf jeden Fall empfehlen, der Spaß verfliegt auch nach einem Jahr nicht!

Zeiten des Aufruhrs: Die Desktop-Frage 2011 – Eine Analyse

»I don’t want you to think of this as just a film – some process of converting electrons and magnetic impulses into shapes and figures and sounds – no. Listen to me. We’re here to make a dent in the universe. Otherwise, why even be here? We’re creating a completely new consciousness, like an artist or a poet. That’s how you have to think of this. We’re rewriting the history of human thought with what we’re doing.« —Steve Jobs im Spielfilm „Pirates of Silicon Valley“, 1999

Ein Zitat, das mir vermittelnd-bezeichnend zu sein scheint für den Geist des Umbruchs, den wir gerade erleben. Denn es passieren Dinge auf der Welt, die unsere Gedankenwelt verändern, weil wir spüren, dass es Zeit dafür ist.
Doch hier soll es um Linux gehen, und auch dort lässt sich das Zitat einsetzen. Kein anderes Thema war in diesem Jahr im Linux-Umfeld so aufregend wie der Kurs des Linux-Desktops. Es fanden bedeutende Entscheidungen und Veröffentlichungen statt, die mit dem alten Paradigma der Benutzeroberfläche brachen, einfach, weil man fand, es sei an der Zeit.

Ich möchte den Versuch wagen, ein wenig die Zusammenhänge und Ideen zu beleuchten, die die Projekte ausmachen, die mich dieses Jahr so umtrieben. Es ist offensichtlich: Die Reise geht hin zu Touch-optimierten Oberflächen und einer radikalen Zuwendung zu Applikationsorientierung und Semantik, weg von der makrokosmisch offenbarten strukturellen Technik. Oftmals fragt man sich: Gibt es abseits dessen eine Langzeitvision, ist da was? Meine Betrachtung ist offen subjektiv und ich lade zur Diskussion ein.
Es wurde so viel geschrieben. Die Arbeit, die neuen Desktop-Umgebungen bis ins Detail vorzustellen, haben andere gemacht und an Ende dieses Beitrags habe ich einige Links gesetzt.

Kapitel:
1 – Revolution statt Evolution
2 – Unity — die UI-Konzept-Katastrophe
3 – Compiz als Grundlage
4 – Canonical, der Schurke
5 – Flucht!
6 – KDE
7 – Der Wert einer schönen Software-Architektur
8 – Von Integriertheit und Harmonie
9 – Plattform vs. Ökosystem
10 – Feature Regressions
11 – Philosophische Ergüsse
12 – Wo es denn nun hingeht
13 – Neue Geräteklassen und die Konvergenz
14 – Finale
15 – Auswahl weiterführender Artikel

1 – Revolution statt Evolution
Mit Version 3 wurde GNOME seinem seit der Veröffentlichung von Version 2 geführten Entwicklungsmodell untreu, das viele kleine stetige Verbesserungen statt die Konzentration auf große Neuerungen bedeutete. Ergebnis dieser Anstrengungen von 2002 bis 2009 war ein Desktop Environment, ziemlich nah an der Marke, die man Perfektion nennen könnte: Hohe Produktivität, kurze Mauswege, reich an Individualisierungsmöglichkeiten.
Doch die Entwicklung stagnierte, man hatte sich im konzeptionellen Design verfahren. Viele neue Ideen, die die Nutzer wünschten, erschienen ungeeignet für die Art, wie man GNOME mit seinen Panels, Applets und Systray bediente. Der ganze Desktop war Datei-orientiert aufgebaut: Dateien im Dateisystem, nicht Informationen des Nutzers. Für Forderungen wie Benachrichtigungsblasen konnte man im GNOME-Projekt keine Umsetzungsmöglichkeit finden. Es gab eine Menge Ideen die man hätte integrieren können, die Umsetzung aber wäre nicht ganzheitlich gewesen, weil sie das bisherige konsistente UI-Konzept unterlaufen hätte, mit bestehenden runden Paradigmen gebrochen hätte.
Auftritt Canonical 2008: Der vom GNOME-Projekt viel geliebte Ubuntu-Distributor emanzipiert sich. „Sie liefern die beste GNOME-Distribution, sie liefern GNOME so aus, wie es wirklich ist!“, war der Chorus bisher. Canonicals Ayatona-Projekt leuchtet skizzenhaft immer mal wieder auf. Der Ubuntu-Entwickler tritt unberührt der Interface-Mimosen des GNOME-Projektes an die Verwirklichung von unverwirklichten Ideen. Zu aller erst wird ein neues Abmeldemenü rechts im oberen Panel, dann ein Benachrichtigungssystem und dann eine neue Art von interaktivem Panel-Element, Indikatoren, angegangen. Während die Ubuntu-Community den kühnen Vorstoß jubelnd Willkommen heißt, werden GNOME-Entwickler und etablierte Standardisierungsgremien bei den Canonical-Entwürfen großteils übergangen. Die zu keinem Ergebnis führenden, da kontroversen Diskussionen mit GNOME-Leuten werden von Canonical-Entwicklern vermieden, die nötigen Patches mehr oder weniger letztlich selber mit heißer Nadel in die Distributionspakete eingepflegt, ohne dass sie Upstream gehen.
Wer aufmerksam war, konnte in der Ferne bereits den sich abzeichneten unvermeidlichen Bruch von Ubuntu mit GNOME erahnen.
Dann begann die Diskussion zu GNOME Version 3, aus der sich Canonical raushielt, prinzipiell mit dem Verweis auf die geleisteten Eigenentwicklungen zum Wohle des ganzen Desktops, diese möge man doch integrieren.

Der weitere Entwicklungsverlauf von GNOME 3 sei hier ausgespart, ich will mich gleich mit dem Ergebnis beschäftigen:
GNOME 3 hat die Gemüter von vielen langjährigen Nutzern auf Kesseltemperatur gebracht: Es sei zu bevormundend, zu restriktiv; das neue Aktivitäten-Paradigma, nun ganz inhaltzentrisch und Anwendung-orientiert, inkompatibel zum Power-Nutzer; es ließe sich nichts mehr einstellen. („GNOME 3 ist restriktiver als Apple erlaubt.“) Vieles der Kritik lässt sich mit den von den Entwicklern unterschätzter notwendige Umsetzungszeit erklären, es ist einfach noch nicht fertig; anderes sind grundlegende Design-Entscheidungen, die getroffen wurden, und manchem nicht schmecken.
DIe bei Planung angedachten eigentlich zentralen Elemente ›Zeitgeist‹ und sein Front-End ›Activity Journal‹ zur Aufzeichnung von verschiedenen Nutzer-Aktivitäten in eine systemweite intelligent kombinierende Datenbank mit APIs für alle Anwendungen haben noch immer nicht Einzug in die GNOME-Kompilation gehalten, das betrachte ich als den Startfehler von GNOME 3 überhaupt. Ohne diese Komponenten ist das forcierte neue Bedienparadigma unstimmig, da inkonsequent und unvollendet. Ich hoffe sehr, dass sich da sehr bald etwas tut.

Um es kurz zu machen: Ich bin kein Fan der neuen Aktivitäten-Oberfläche, vor allem, weil sie mir Kontrolle nimmt, die ich vorher hatte – das aber auch hauptsächlich durch Fremdsoftware wie Compiz, das wegen der engen Verzahnung von Aktivitäten-Overlay und Fenstermanager nun nicht mehr direkt einsetzbar ist. Besonders gut gefällt mir das neue Panel-Paradigma mit konsistent integrierten Benachrichtigungen und dynamisch einblendenden Systray-Bereich. Die neue Richtung einer voll Touch-ausgerichteten Oberfläche halte ich für weitsichtig und angebracht. Generell spricht mich GNOME 3 Shell mehr an als das gleich zu behandelnde Unity, vor allem, weil ich eine Vision erkenne, die es dem Nutzer ganz von Herzen einfacher machen möchte. Viele der anfänglichen Kritikpunkte wurden mit GNOME 3.2 entschärft, oder durch die exzellente Scriptbarkeit des neuen Desktops mit externen Erweiterungen behoben. GNOME 3 Shell hat Potential, es ist durchdachte Technik mit einer großen Weitsichtigkeit im UI-Design, die uns noch überraschen wird, aber es braucht mehr Zeit. Für eine neue Generation von Nutzern, die mit Inhalten umgehen möchten und nicht mit Containern, halte ich GNOME 3 Shell (einmal mit Zeitgeist und Activity Journal) für die ideale Oberfläche über Geräteklassen hinweg, und wollte es selber nutzen, wenn ich nicht so ein alter Hase wäre und mehr (nicht erst noch zu erschaffende!) Möglichkeiten gewohnt. Zum Thema der Feature Regressions führe ich weiter unten noch meine Gedanken aus.

2 – Unity — die UI-Konzept-Katastrophe
Canonicals Antwort auf GNOME 3 Shell ist Unity. Hervorgegangen aus einem ursprünglich für Netbooks entwickelten Minimal-Hack auf Compiz zur Bildschirmplatzersparnis entschied sich der Distributor als es ernst mit GNOME 3 Shell wurde, eigene Wege zu gehen, um ›am Markt herausstechen zu können‹. Sonderbares Vorgehen bei einer Linux-Distribution, aber gut, es ist Freie Software. Die Ähnlichkeit der GNOME 3 Shell-Aktivitäten und einiger Elemente von Unity ist nicht zufällig, schließlich waren die Designstudien zu GNOME 3 längst entwickelt. Wie bei GNOME 3 Shell bekommt es der Nutzer bei Unity mit einem revolutionären statt evolutionären Bruch in der Oberfläche zu tun, wenn sich Unitys Bruch auch mehr auf Äußerlichkeiten als das tatsächliche Bedienparadigma bezieht, wie man es bei GNOME 3 Shell versucht. Aber der Reihe nach: Was sie zu dieser UI geritten hat, ich weiß es nicht. Canonical ist eigentlich dafür bekannt, professionelle Benutzbarkeitsstudien durchzuführen – ich habe selber auch damals das Verschieben der Fensterknöpfe nach links begrüßt. Unity betrachte ich als Fehldesign durch und durch.
In meinem Verständnis liegt dieses große Fehldesign konkret bei: Es kann nicht sein, dass man für die Programmsuche die Index-Suche durch Eintippen des Programmamens verwenden muss, weil die alten Menükategorien absichtlich verschwert zugänglich gemacht wurden. Das Konzept funktioniert nicht, wenn ich ein Einsteiger bin und überhaupt nicht weiß, wie die Programme heißen, sondern nur beispielsweise nach einem Schreibprogramm schauen möchte. Oder mir die Programmnamen nicht merken kann (weil sie mir scheißegal sind, zu Recht), oder ich eben *nicht an einem Laptop arbeite* und meine Zwei-Hände-Wege von Maus zu Tastatur nervend lang ausfallen – und nein, das Anpinnen im Dock von jeder kleinen Anwendung, die ich über die Woche brauche, ist keine ernsthafte Alternative dazu (Übrigens: Ich hasse Docks!!).
Zum Vergleich in GNOME 2: Ich fahre an die obere linke Bildschirmecke, klicke und fahre nach unten, hinein in die entsprechende Kategorie, zeige auf die Anwendung, und lasse die Maustaste los. Meistens selbst in meinen vollen Menüs keine zwei Sekunden. Und die Kategorien sind übrigens das, was Einsteiger oft am meisten unter Linux liebten: Weil es das unter Windows nicht gibt! Und was machen GNOME 3 und Unity nun? Sie verleugnen – das kann man so sagen – ja, verleugnen die sinnvollen Anwendungskategorien und möchten das Arsenal am Liebsten als großen Haufen mit Symbolen in Übergröße anzeigen. Und warum? Weil sie Apples iOS kopieren! Sinnverloren! Unity noch mehr als GNOME 3, da sind die Anwendungskategorien wenigstens noch dominant sichtbar, aber auch erst mit ZWEI Klicks zu erreichen, wo bei GNOME 2 einer reichte, um das Menü und später die Anwendung zu öffnen. Im Übrigen halte ich auch das Global Menue von Unity für schwachsinnigen Apple-Kopiertrieb. War bei denen sinnvoll, als man noch niedrigere Auflösungen hatte, und ist es heute auf der hoffentlich bald vollends verreckenden Gerätegattung der Netbooks, aber ich will meinen Bildschirmplatz auch ausnutzen, und auch nicht erst Fenster fokussieren müssen, um über einen Mausumweg in ihr Menü zu gelangen, dessen Sektionen dann außerdem erst beim Maus-Überfahren überhaupt angezeigt werden! – Dass man das Global Menue deinstallieren kann, spielt nichts zur Sache! Fehldesign!
Auch kann es doch nicht sein, dass eine grafische Benutzeroberfläche erst ›wirklich produktiv‹ wird (so schreiben Ubuntu-Fanblogs!), wenn man eine längere Liste Tastenkommandos gelernt hat. – Hallo — eine grafische Benutzeroberfläche sollte es gerade unnötig machen, dass man mit der Tastatur arbeiten *muss*!
Puh, erst mal beruhigen. Man sieht, Oberflächenänderungen verursachen immer hochemotionale Regungen in der Community. Aber Unity ist auch wirklich richtig schlecht. 😉
In der Anwendungssuche werden zur Installation angebotene Anwendungen prominent angezeigt, während die Liste mit den zu einem Stichwort gesuchten installierten zusammengeklappt wird. Auch irgendeine Strategie, ein Konzept wie man die Verwaltung dieser Such-›Linsen‹ plant, kann ich nicht erkennen. Ich könnte jedes zweite Design-Element von Unity auseinandernehmen; ich sehe darin einfach keine klare Linie und Vision; Stückwerk; der Desktop geht am Nutzer vorbei, zuallererst an mir.

3 – Compiz als Grundlage
Ich bin Compiz-Enthusiast seit 2006. Ich liebe Compiz. Ich weiß, das klingt seltsam. Ich liebe meinen Firefox mit seinen drölfzig Add-Ons und ich liebe mein bis ins letzte Detail konfiguriertes Compiz. Ich liebe es. (Das Wort verwende ich nur mit dem allergrößten Bedacht, doch hier zögere ich keinen Moment, es zu benutzen.) Ohne die Grundparadigmen seiner Bedienung will ich nicht mehr am PC arbeiten.
Ich bin es gewohnt, mit einem Mausschwenk oder Tastendruck das Schicksal von dutzenden Fenstern zu kontrollieren, in einer Geschwindigkeit und Direktheit, die Mac-Nutzer ins Staunen versetzt. Ich liebe die wabbelnden Fenster und die sich aufspannenden Kontextmenüs. Den Würfel – bei mir ein Zylinder – mit den virtuellen Arbeitsoberflächen und 3D-Fenstertiefe. Ich bin verrückt nach allem, was mehr organisches Element, Physik, Plastizität, Realismus in meinen Computer-Alltag bringt.


(Video-Klassiker von 2007)

Canonical baut Unity seit Ubuntu 11.04 auf Grundlage des Compositing-Fenstermanagers Compiz auf. Darin eingegossen lassen sie noch ihr eigenes OpenGL-Toolkit Nux laufen, aber das Zentralmanagement über die Komponenten hat der Fenstermanager. Das Unternehmen befindet sich in einer verzwickten Lage: Ihre Spezial-Patches für GNOME 2 Shell gingen nicht Upstream – wie schon erwähnt durch eine Mischung aus Absonderungswillen und Arroganz – aber jetzt ist GNOME 3 Shell fertig und macht ihre Anpassungen inkompatibel. Nicht einfach inkompatibel, sondern unumsetzbar mit den neuen Gegebenheiten. Man könnte fast meinen, die Erkenntnis traf die Truppe ein bisschen überraschend. Man hat also viel Forschung und Integration über Jahre voran getrieben, und steht plötzlich ohne passendes Fundament da. GNOME 2-Komponenten werden veralten, einen Fork zu machen ein irrwitziges Unterfangen, alles aufgeben will man aber auch nicht, nicht zuletzt, weil es zum Bild der Distribution geworden ist und Nutzer sich daran gewöhnt haben. Was also tun? Canonicals Antwort: Wir nehmen das aktuelle GNOME 3 als Grundlage, ersetzen aber die für unsere Vorhaben unanpassbare Shell durch eine eigene. Ein schöner Kompromiss, will man meinen.
Ich sage: Compiz ist nicht die Lösung. Compiz ist ein außerordentliches Projekt, getrieben vom Experimentiergeist – und das ist auch gut so. Canonical denkt, es sei ihre Lösung und begeht damit einen Fehler: Ist es nicht, denn es ist nicht in das Desktop Environment als ganzes integriert. Hier kommen wir wieder bei den Bedienparadigmen an.
Was sie also tun, ist den Unity-Desktop IN Compiz hineinzubauen, was reichlich absurd ist. Für Compiz sprach wahrscheinlich die extreme Plugin-Architektur; die Situation, das man schon bisher für Desktop-Effekte darauf gesetzt hatte und keine Feature Regessions bei den Nutzern wollte, und ihr offizielles Statement, dass man sich mit Compiz besser auskenne als mit Mutter (der neue GNOME 3 Shell-Fenstermanager mit Compositing-Fähigkeiten). Überhaupt, die neue Unity-Oberfläche sollte 3D sein und Fenster verwalten, da ist es doch am einfachsten, man erweitert einen (unsichtbaren) Fenstermanager um eine (sichtbare) eigene Bedienoberfläche und vereinheitlicht mit einer eigenen Konfiguration. Das haben sie getan, und jetzt haben sie das Problem, dass die GNOME 3-Plattform sich mit jedem Major-Release in sich konsistenter macht in ihrem Ziel, ihr neues Bedienparadigma ganzheitlich umzusetzen. Jede Komponente bei GNOME 3 ist darauf ausgelegt und strebt das Projektziel an, das sich in ganz grundsätzlichen Fragen, eben Bedienparadigmen, von dem doch eher klassischen Ansatz Unitys unterscheidet. Also in Zukunft wieder viele GNOME-Komponenten patchen?

»Hier entsteht dann etwas der Eindruck, dass man bei Canonical nicht so recht weiß, wie man die zunehmend divergierenden Ansätze von GNOME und Ubuntu zusammenbringen kann, um ein rundes Ganzes zu erzeugen.« —derStandard.at-Test von Ubuntu 11.10 (S. 14)

Wenn man sich diese Tragödie anschaut, sieht man wieder ganz deutlich, warum ein offenes Entwicklungsmodell und Kollaboration und gemeinsames verständiges Entwickeln in der Welt von kleinen Unternehmen und offenen Systemen ein MUSS ist.
Trotzdem glaube ich, hat Canonical in Anbetracht ihrer Situation das Richtige getan – zum Einen, weil ihre Patches für neue Konzepte wie Indikatoren nicht Upstream gingen, und das ist de facto ein Problem für sie, zum anderen, weil ihre Ideen teilweise doch wirklich etwas taugen. Sie müssen natürlich noch (sehr viel^^) geschliffen werden, aber sind auf dem besten Wege zu einem tollen Nutzungserlebnis für den nicht professionellen Heimanwender – für die Massen. Maximierte Anwendungen sind z.B. sehr nett umgesetzt. Das Potential ist da. Canonical wird die Verzahnung von Compiz und Desktop irgendwie hinbekommen, aber es wird keine Integration sein und es wird sie noch sehr viel Ressourcen kosten. Ihr Problem ist heute ihr historisches Setzen auf GNOME und dessen Ökosystem (was damals jedoch zweifelsfrei die vernünftigere Wahl war), wenn man den Alleinstellungsdrang sowieso nicht als Problem betrachten will.

4 – Canonical, der Schurke
Ich muss an dieser Stelle meiner Enttäuschung über Ubuntu in den letzten Versionen Luft machen. Ich war Nutzer seit 5.04 Hoary Hedgehog, davor Fedora, Debian und SuSE. Bei Ubuntu habe ich meine Heimat gefunden, eine Distribution, die sich von Release zu Release für mich als Nutzer verbesserte, einfach *funktionierte*, schön schlank kam, auf dass ich meine persönlichen Anpassungen auf sie schmeißen konnte, und mit einfachen Systemtools punktete.
Mit 11.04 Natty Narwhal änderte sich das. Der neue Standarddesktop wurde Unity, und ich hätte in 11.04 noch GNOME 2 Shell trotzdem als meinen Desktop starten können, wäre das vollkommen verhunzte System nicht gewesen. Angefangen von GRUB, der falsch installierte und nun auch keine Installationsoption mehr bot, über den Kernel, der ohne ACPI-Deaktivierung nicht mehr bootete, was in einem permanenten Stromverbrauch des Hexacore-Rechners von über 150 W und hochlaufendem Lüfter resultierte, bis zu widerspenstigen Compiz-Paketen und einer Reihe von Anwendungen, die plötzlich sehr seltsames Verhalten zeigten. Und Ubuntu 11.10 soll ja noch viel kaputter geworden sein.
Der Selbstgeltungszwang und die entschiedene Abgrenzung mit der Marke ›Ubuntu‹ vom restlichen Linux-Distributionsgeschenen von Canonical wird immer schlimmer, und es immer schwerer, die Sonderwege, die Ubuntu geht, in einer Installation loszuwerden.
Die Anstrengungen in das ›Software-Center‹, die angestrebte ›Appifizierung‹ (wie ich ›App‹ für Desktop-Anwendung hasse!) und die enge ›heile Welt‹, in die einen Canonical mit seinem Ökosystem-Korsett zu führen versucht, machen nur umso deutlicher, was schon lange offensichtlich durch das selbstherrliche Auftreten des Unternehmens ist: Sie möchten das ›Apple der Linux-Welt‹ sein. Nebenbei wird Basis-Software wie GIMP und Synaptic aus der Distribution entfernt, ich meine, SYNAPTIC!! Eine Distribution, die den grafischen hochfunktionalen und essentiellen Paketmanager aus der Standardinstallation mit einem App Store ersetzt, ist nicht mehr die meine!
Das Übrige tun die von Canonical gewünschten Copyright Assignment zu Kernprojekten wie dem Sotware-Center (Code-Einreicher geben Canonical unbegrenztes Lizenzierungsrecht über ihren eingereichten Code, dieses kann ihn dann später auch proprietär machen; laut Mark Shuttleworth, um dadurch den ›Wettbewerb‹ mit anderen Projekten zu erhöhen und besseren Code abzuliefern, so argumentiert er, ernsthaft!). Das Unternehmen wird mir unsympathisch bis ins Mark (höhö!). Es lohnt sich, in die Chroniken eines GNOME-Entwicklers über die Zusammenarbeit mit Canonical hineinzulesen.

Das alles war für mich Grund, meine Langzeitbeziehung zu Ubuntu zu beenden und auf Linux Mint Debian Edition/Debian Testing zu wechseln, und langfristig auf KDE 4. Ubuntu 11.04+ bringt mich in die Situation, Linux-Einstiegswilligen keine Empfehlung mehr reinen Herzens für eine Distribution aussprechen zu können. Ubuntu hat meistens funktioniert. Mandriva und Mageia, die vielleicht am ehesten vergleichbaren Distributionen, sind mir zu exotisch, beziehungsweise unpopulär, openSUSE ist leider für den Einsteiger wie den willigen Amateur nach meiner Meinung eine Konfigurations-Katastrophe.

5 – Flucht!
Wie bereits ausgeführt, bin ich ehrlich angetan von GNOMEs neuem Nutzungsparadigma, aber es ist nichts für mich, weil ich mit etwas mehr technischem Verständnis als der Normalnutzer weiß, wie ich schneller ans Ziel komme als über die neuen chicen Nutzungswege, die GNOME 3 einführt. Sie vereinfachen vieles bisher Versteckte und Komplizierte und machen es einfacher zu lernen, aber ich bin nun mal versierter und schon ganz andere (multiple) Möglichkeiten gewohnt als die, die das neue GNOME mir nun noch anbietet. Es ist tatsächlich intuitiver; uns fällt das wahrscheinlich nicht auf, weil wir schon so ›versaut‹ von der Technik-abstammenden Bedienung sind. Ich werde damit langsamer, aber ich bin mir sicher, ein Großteil der Nutzer wird damit schneller.
Als GNOME 3-Abtrünniger hat man überschaubare Optionen, sofern man bei einer großen integrierten Desktop-Umgebung bleiben möchte, weil man den gebotenen Komfort schätzt: Festhalten an GNOME 2 beziehungsweise dem Fork ›MATE‹, Wechsel auf Xfce, oder Migration auf KDE SC 4. Ich sage bewusst Migration, weil KDE eine ›andere Welt‹ ist mit seinen Qt-Anwendungen und eigenem Bibliotheken-Fundus als GNOME und Xfce mit GTK+.

Ja, die Arbeit der Xfce-Entwickler wird in der Presse nicht gewürdigt. Die Desktop-Umgebung liefert ein schön integriertes Anwendungsarsenal und bietet fortgeschrittene Features, die sich teils mehr als mit GNOME messen lassen können (teil aber auch gar nicht). Insgesamt steht Xfce für Reduktion von UI-Firlefanz und Addition von Pro-User-wesentlicher Funktionalität. Der gewisse ›Firlefanz‹ hat mir in Xfce immer gefehlt, aber es ist eine sehr solide Oberfläche.
Nicht wenige wählten die Alternative nach ihrer Enttäuschung über Unity oder persönlichen Inkompatibilität mit GNOME 3 als ihr Refugium. Das ist keinesfalls verwerflich, doch jeder sollte sich klar machen: Xfce steht für die Stagnation von UI-Evolution. Klassisch und konservativ. Wer sich dafür entscheidet, steigt mit gewisser Endgültigkeit aus der *sinnvollen* Diskussion sowie Fortevolution der Desktop-Metaphern aus.
Das Selbe ist übrigens der Fall bei allen, die den GNOME 2-Fork MATE aufgesprungen sind. Bei diesem ist obendrein höchst ungewiss, wie lange das Projekt überhaupt mit dem Mega-Unterfangen durchhält. Ähnliches Problem wie beim KDE 3-Fork Trinity.
Immer ernsthafter in Erwägung sollte auch das Bleiben bei GNOME mit GNOME 3 gezogen werden, das durch das von Woche zu Woche breiter werdende Angebot an GNOME 3-Anpassungsscripten zusehends attraktiver wird. Die Ubuntu zur Basis nehmende Distribution (also Achtung!) Linux Mint 12 will z.B. mit Mint GNOME Shell Extensions ›MGSE‹ (siehe Bild) das Nutzungsparadigma von GNOME 2 mit seiner klassischen Datei-orientierten Fensterliste und Anwendungsmenüs für GNOME 3-Anwender retten – und dennoch GNOME 3 Shell laufen lassen. Ein Ansatz, den ich für am vielversprechendsten halte.

6 – KDE
Ich habe vor, noch 2011 endgültig auf KDE 4 Plasma zu wechseln, weil die eingeschlagene Richtung der GNOME 3 Shell mich zu sehr in meiner Arbeitsweise einschränkt und ich mit KDE Plasma schon länger liebäugele. Diesen Juli veröffentlichte das KDE-Projekt Version 4.7 von KDE Software Compilation (SC) und ich habe dem Termin ziemlich entgegengefiebert.
Ich möchte jeden ermutigen, die Desktop-Umgebung auszuprobieren, es macht wirklich sehr viel Spaß. Wie ich schon Dezember 2008 auf Twitter schrieb, kombiniert KDE 4 die grafische Eleganz von Apples Aqua mit der Konfigurierbarkeit und dem Funktionsreichtum von KDE 3 – eine mächtige Mischung, deren gesundes Verhältnis zu erforschen eben auch nicht ohne Experimente gelingen kann. Wer bisher nur KDE 3 kennt, wird sehr überrascht sein, wie das Projekt das Benutzerparadigma weiterentwickelt hat.
Hochinteressant ist das Streben nach der der Nutzbarmachung von sogenannten ›Aktivitäten‹, eine logische Weiterentwickelung von mehreren virtuellen Arbeitsoberflächen. Die Oberfläche soll sich kontextorientiert an die Aufgabe anpassen, also entsprechende Widgets anzeigen, Programmgruppen starten, oder in angepassten Programmen nur bestimmte Funktionen oder Inhalte anbieten. Das hört sich äußerst abstrakt an, man kann sich aber einen Nutzen ganz leicht schon vorstellen, wenn man nur einmal an die unterschiedlichen Nutzungsszenarien von Arbeit/Freizeit denkt. Aktivitäten-Fähigkeiten halten in immer mehr Komponenten des Desktops Einzug und der zukünftige Nutzen für mobile und Ultramobil-Geräte wie Tablets und Smartphones lässt sich schon erahnen.

Von dem persönlichen Umstiegs-Schritt hält mich bisher noch KWins Trägheit auf meiner Hardware und mangelnde Eleganz in Details als alter Compiz-Poweruser, und Dolphins oftmals etwas unlogisches Verhalten ab (abgesehen von dem weiterhin Vermissen von aktuellen Paketen für Debian Unstable *seufz*). Überhaupt sind die meisten KDE-Programme eigentlich extrem cool, doch an der Alltagsbenutzbarkeit scheitert es zu oft an kleinen nervigen Details. Aber das wird; hoffe ich zumindest. Wenn man keinen Code einreicht, ist es immer schwierig mit den Feature Requests bei diesen Bug-geplagten Großprojekten. Die Arbeiten an KDE SC 4.8 sehen auch schon sehr vielversprechend aus.


Beispiel Dateimanager Dolphin 2.0 im kommenden KDE SC 4.8: Sehr verheißungsvoll, sehr lecker.

7 – Der Wert einer schönen Software-Architektur
KDE 4.0 Developer Preview war die Grundsteinlegung für eine gänzlich neu gedachte Anwendungsplattform. Ich halte das KDE-Prinzip für die durchdachtere Lösung, für langfristig besser angelegt, und es wird sich mit der Zeit sicher noch auszahlen. Ein Wort: Frameworks. Alles wurde abstrahiert, alles wurde dynamisch austauschbar und portierbar gemacht. Eine ausgezeichnete Einführung in die Software-Architektur von KDE SC 4 bekommt man in der Release Event Keynote von 4.0 bei Google.
Zwei der ganz großen Frameworks sind Phonon und Solid. Phonon als Multimedia-API, Solid als Schnittstelle für die Erkennung von Hardwarekomponenten. Beispielsweise hat es zwar *hust* Jahre gedauert, bis nun auch in KDE GStreamer als Backend für Phonon richtig eingezogen ist (wie bei GNOME, das früh komplett und exklusiv ohne Abstraktion darauf setzte), aber das Meta-Modell – an dieser Stelle mit Phonon und den austauschbaren Sound-Backends – bot per Design größtmögliche Wahl, Freiheit und Potentialentwicklingschancen; hätte über die Jahre auch verhältnismäßig leicht auf neue Entwicklungen reagieren können. Dass vieles bei KDE SC so lange brauchte, ist wahrscheinlich der Zahl der Entwickler und der ›selbstverschuldeten‹ zu erst notwendigen Schaffung und Stabilisierung von Meta-Frameworks geschuldet.
Jetzt, da KDE mit Plasma Active auf Tablets und Smartphones expandieren will, zahlt sich die Entwicklungsarbeit in Solid aus, da nun Dinge wie Multicore-Erkennung nicht für eine andere ganz eigen-spezifische Hardware-Plattform in dutzende Anwendungen händisch eingepflegt werden muss, sondern ein zentrales Framework die Informationen aggregiert und verteilt. Gerade bei Plasma Active wird deutlich, wie massiv skalierbar KDE 4 angelegt ist: Die verschiedenen Plasma Workspaces als dezidierte Oberflächen für verschiedene Geräte-Klassen basieren alle auf dem selben Widget-, bzw. ›Plasmoid‹-Arsenal und den selben Technologien, die hochabstrahiert neuangeordnet und neuintegriert neue Einsatzzwecke ermöglichen. Die Plattform war per Design darauf ausgelegt, über Geräte-Klassen hinweg eingesetzt werden zu können.

Damit ist man dann vielleicht auch bei dem Kritikpunkt an KDE, der vor allem von GNOME-Anwendern vorgebracht wird: Es wird eine eindeutige Vision für ein Oberflächenmodell vermisst. Alles ist Baustein, doch der Kathedralen-Architekt ist nicht so richtig anwesend. Wo die Visionäre des GNOME-Lagers Human Interface Guidelines schreiben und UI-Skizzen auf dem Flip-Chart Board machen, sind die Visionäre im KDE-Projekt passionierte Technik-Designer. Sie würden sich eigentlich bestens ergänzen. (Wer den Hinweis mit der Kathedrale verstanden hat, ist gut; es ist richtig: Wir wollen doch mit freier Software eine Kathedrale bauen, die in ihrer Größe den Vergleich nicht mit den proprietären Domen zu scheuen braucht; der Basar braucht einen Baumeister!)
Leider begeisterte auch mich in der Vergangenheit das Entwicklungsmodell der KDE-Plattform mehr, als das wirkliche Nutzen. Plasmoid-Zeug, das alles irgendwie spinnt, instabil ist, plötzliches Verschwinden von Kontrollleisten und fitzelige Details in Plasmoid-Oberflächen und systemauslastende Hintergrunddienste sind nur einige der nicht richtig schönen Eigenarten des Desktops, an denen ich aneckte. Doch es wird besser, rapide.

8 – Von Integriertheit und Harmonie
Compiz war damals revolutionär, und der erste wirkliche Effekte-WM (obwohl schon KDE 3 anno dazumal (2004?) einige hochexperimentelle Compositing-Effekte bot) und sollte – wie seine Entwickler selber betonten – die Spielwiese für neue Konzepte sein, die dann in die nativen Fenstermanager der Desktops integriert werden sollten. Alleine das ist sinnvoll für den Standardnutzer. Compiz ist einfach ein Monster für sich und so hübsch es auch ist, gehört dieses Experimentierolymp in keine Normalnutzer-Standardinstallation.
GNOME 3 hat mit dem Fenstermanager ›Mutter‹ die Chance vertan, ein ordentliches Animations- und Erweiterungsframework zu schaffen – das Ding ist statisch wie der Microsoft Windows Desktop Window Manager. (Ja, es geht offenbar irgendwie, die Fokus-Effekt-Erweiterung sieht für mich aber wie eine ›Injection‹ oder Hack aus, nicht wie der Gebrauch einer dafür ausgelegten Schnittstelle.) Immerhin sind Pläne im Gespräch, das Animationsframework Clutter direkt in Mutter und GTK+ zu integrieren, und nicht nur als Abhängigkeit einzubinden. Dies würde eine völlig neue Art von GNOME-Anwendungen ermöglichen, die starken Gebrauch von Mac-artigen Effekten machen, und diese mit Wissen über die Desktop-Geometrie verknüpfen (ähnliches ist bei KWin auch im Gange).
KDE SC macht es dagegen richtig: Perfektes Zusammenspiel von Desktop Plasma und Fenstermanager KWin – von Beginn an so konzipiert, natürlich modular. Man spürt, wie alles schön durchdacht ist und ineinander übergreift, wie Plasmoid-Anwendungswidgets Gebrauch von KWin machen; die KWin-Einstellungen im KDE SC-Kontrollzentrum sitzen und perfekt mit der Konfiguration und dem Verhalten der Arbeitsoberfläche zusammenspielen; es fühlt sich alles wie aus einem Guss an. Das mag ich, und KDE – darum teilweise auch meine Euphorie – überträgt Systemparadigmen von Mac OS X hierbei auf den freien Linux-Desktop, wie man es in dieser Integriertheit und Innen-System-Harmonie dort bisher noch nicht sah. Die Arbeit ist großartig! Die besprochene Integriertheit zieht sich bei KDE SC durch alle Bereiche: Die Benachrichtigungen können im Kontrollzentrum feingranular für jede Anwendung und Funktion aktiviert oder deaktiviert werden, gleich verfährt man mit einem zentralen Kontrollpult bei der Einrichtung von Tastenkombinationen für alle KDE-Anwendungen – es ist ein Traum!
GNOME 3 versucht mit seinem neuen Systemeinstellungen mit KDE SC 4 gleichzuziehen, hat aber noch verdammt viel nachzuholen. Traditionell wurde bei GNOME alles auf seiner Insel entwickelt, und später Upstream gebracht. Bei GNOME 3 hatten die Entwickler sich die Herausforderung gestellt, verschiedene Systemtools unter einer wirklich-wirklich konsistenten Konfigurationsoberfläche zu vereinen.

9 – Plattform vs. Ökosystem
Mit GNOME 3 ist ein verstärkter Trend vom Insel-Upstream-Zusammenarbeiten hin zum Komponentenmodell erkennbar. Die nun tiefer verzahnten Systemelemente formen gemeinsam den Desktop. Tatsächlich aber verhält es sich so, dass GNOME, ähnlich Apple im Vorgehen, ein eigenes Ökosystem schafft, während KDE SC eine Plattform darstellt, in die man Komponenten hineinstecken kann, und welche diese dann in einem dynamischen Prozess integriert.
Das habe ich schon an KDEs Herangehensweise an das Thema Multimedia-Backends illustriert: Man erstellt ein Meta-Framework, in die sich diese, oder eine jene andere Entwicklung backend-en lässt. Man ist hochflexibel, man ist auf der Geschwindigkeit der Strömung der Linux-Technologie, zumindest in der Theorie — und man ermöglicht mehr evolutionäre Auslese und den Nutzern mehr Freiheit.
Unterstrichen werden kann meine Meinung mit GNOMEs öffentlichen Überlegungen, zukünftig GTK+ und GNOME nur mehr für Linux und keine anderen UNIXoide – und Windows, man denke an die Auswirkung auf GIMP – zu entwickeln. Das ist eindeutig Ökosystem-Strategie.
Dass Canonicals Unity-Prozess eine langausgelegte Ökosystemstrategie zur Marktdifferenzierung ist, brauche ich eigentlich gar nicht erst zu erwähnen. Interessanterweise scheinen sie mit all ihrer Absonderungsarbeit tatsächlich eine eigene Plattform zum Ziel zu haben – aber ganz im autoritären Stile Apples.
Ulkigerweise scheint dem Unternehmen selbst noch nicht klar ist, wie diese aussehen soll – zu beobachten an dem ständigen Wechsel von Toolkits; der Bestrebung für eine eigene Entwicklungsumgebung, aber jetzt schon mit veralteten Technologien usw. usf..
Das sind meine Beobachtungen. Hieraus ergibt sich für mich die Erkenntnis, dass die KDE SC-Plattform eher das darstellt, was ich unter Linux und freier Software verstehe. Und nutzen möchte.

10 – Feature Regressions
„Never touch a running system“? Doch! Warum? Weil wir Fortschritt wollen und Fortschritt bedeutet auch Bruch mit Altem. Man muss aber fairerweise unterscheiden: Zum einen die evolutionäre und revolutionäre Weiterentwicklung von Software, die Brüche in Paradigmen, Funktionalität, Kompatibilität nötig macht, will sie Fortschritt erreichen, und will sie sich sanieren. Zum anderen ›das Recht des Nutzers‹ auf allgemeine Funktionsfähigkeit. Sind Entscheidungen von Großprojekten mit großer Nutzerbasis, ›alles neu zu schreiben‹, tragbar? Ist es richtig, den Nutzer, selbst wenn nur vorrübergehend, mit starken Feature Regressions zu konfrontieren, sogar mit völlig neuen UI-Ansätzen, hat er sich doch über die Jahre an die Software gewöhnt und erwartet, dass sie nicht bricht? Es ist fast schon eine ethische Fragestellung, und sie ist bewusst provokant formuliert. Aus technischer und projektzentrierter Sicht fällt die Antwort nicht schwer: Das Übel nimmt man in Kauf für die Zukunft des Projektes, sei es eine Plattformaktualisierung, ein Schwenk auf eine elegantere Programmiersprache, die für das Projekt besser geeignet ist, oder die Neuorientierung für neue Interaktionsmodelle, oder alles zusammen. Das Problem wirkt sich insbesondere bei Projekten negativ aus, die sehr viel mehr technikbegeisterte Entwickler mit To-Boldly-Go-Innovationstrieb als Nutzbarkeitsinteressierte haben: Die Nutzer fühlen sich dann unverstanden. (Hier ein schieler Blick auf KDE SC 4.) Was dagegen getan werden kann: Kommunikation der Absichten. Kommunikation ist das Wichtigste.

11 – Philosophische Ergüsse
Das Wesen eines Linux-Geeks kennzeichnet sich mit dadurch, dass er hofft, dass alles besser *wird*. Wir sind ausdauernde Idealisten. (Ein Grund übrigens, weshalb ich an eine Piratenpartei mit einer Großzahl IT-Verständigen glaube.) Wir sind zäh und wir nehmen mitunter unsagbare Verluste in Bedienung und Funktionsumfang in Kauf, weil wir überzeugt auf ein großes Ziel hinleben, sei es ideologisch im Sinne der Freiheit, sei es durch den Gedanken an die neuen Horizonte, die sich durch Architekturumbauten werden anschiffen lassen. Weil wir daran glauben. Weil wir immer ein perfekteres Softwaredesign als Selbstzweck anstreben. Wir kämpfen nicht für uns, sondern dafür, dass das Ding besser wird. Das macht uns zu den Guten. Und das gibt uns die moralische Legitimation dafür, Dinge zu brechen.
So weit, so schön. Doch die Sache geht über ihren Selbstzweck hinaus in die größere Einheit ›Ziel‹. Denn IT-Projekte wären als reiner Selbstzweck – „Weil wir es können!“ – sinnlos. Ihr Selbstzweck liegt in ihrer Schönheit und fortwährender Evolution des Dinges. Und euch ist schon meine Verwendung des Begriffes ›Ding‹ aufgefallen: Genau das sind diese Projekte nämlich nur – sachliche Dinge. Nichts tut man sachlich ohne menschlichen Nutzen – und dieser sind die Nutzer, aber natürlich auch der persönlich-menschliche Spieltrieb der Entwickler, welche diese ›Dinge‹ erst beleben. Kommen wir nun auf die Kommunikation zurück, die als Element zwischen Entwickler und Nutzer wichtig ist. Ein Ausloten zwischen Nutzerinteressen und denen des Dinges ist notwendig, und hier vertrete ich die Meinung, dass das Dinginteresse höher gestellt werden sollte: Darauf baut alles auf, was das Projekt als Ganzes ist. Die Nutzer können sich vor Brüchen sträuben, wie sie wollen – Blockierung der Umsetzung des Idealismus der Entwickler führt zum langsamen Tod des Projektes, nämlich metaphorisch gesprochen zur Hemmung der Fortevolution und damit zum Aussterben. Nur kann es sein, dass die Entwickler den rechten Evolutionspfad noch nicht kennen – unwahrscheinlich, aber möglich – und da liegen die Nutzer in der Verantwortung. In Verantwortung für das, was die reine, bessere Architektur des Dinges ist, nicht in Verantwortung dafür, sie an sich anzupassen.
C.L.U. 2 aus Tron: Legacy: Ein Programm, das in Idealismus geschrieben wurde, die Welt zu verbessern, dies aber zum Selbstzweck macht und nach vernichtender Perfektion strebt. Was ihm fehlt: Das Ziel für die Gemeinschaft.

12 – Wo es denn nun hingeht
Ich konnte hierfür Leszek, der mit seinem Podcast und vormals PDF-Magazin Techview seit Jahren eines meiner inspirierenden Vorbilder in Sachen Linux- und IT-News-Geek ist, zu einem Kommentar überreden =) :
»Ich glaube, eine große Vision gibt es in den Desktops nicht mehr. Alle scheinen sich in die Entwicklung Touch zu bewegen und gleichzeitig neue Infrastrukturen in Form von Bibliotheken bzw. API-Anbindungen für die Integration von Webapplikationen zu bieten. KDE beispielsweise setzt neben Solid jetzt auch richtig auf den E-Mail-/Kontakte-/Kalender-Austauschdienst Akonadi. GNOME 3 integriert ebenfalls mit ›Kontakte‹ und ›Dokumente‹ das Web in die Desktopoberfläche. Windows 8 soll ebenfalls eine Integration von verschiedenen Diensten bieten, dass sogar soweit geht, dass im Öffnen-/Speichern-Dialog Webressourcen wie GMail, Flickr usw. angezeigt werden. Ich denke, im Nachfolger von OS X Lion wird es ähnlich werden.
Augenscheinlich ist aber, dass Microsoft und die Linux-Desktops ihr Aussehen und ihr Bedienkonzept teilweise komplett ändern. Bei Mac OS X fehlt das noch. Ich könnte mir vorstellen, dass Launchpad (der ›iOS-Launcher‹ für den Desktop) bei der nächsten Version noch weiter ausgebaut werden wird und dann eventuell als Desktopersatz zum Standard erklärt wird.« Danke! (Einen Blick wert sind übrigens auch seine Linux-Distributionen ZevenOS und ZevenOS-Neptune!)
Faszinierend zu beobachten ist im Moment, dass sich drei der größten Arbeitsoberflächen in sehr ähnliche Richtungen entwickeln: GNOME 3, Canonicals Unity, Apples Mac OS X Aqua. Ein interessanter weiterführender Denkanstoß dazu bietet der Artikel Mac OS X Lion Features are Ubuntu Rip-Off.
Da kann ich gleich einhaken: Es gibt gute Gründe, warum ich nicht OS X als Haupt-OS nutze, obwohl ich einen Hackintosh besitze: Ich will die Oberfläche nicht auf Dauer nutzen müssen. Sie schränkt mich ein, sie ist hinderlich, verumständlicht Abläufe. Aqua ist ein zwar perfekt designtes, aber fitzeliges UI, das mich in seine akkuraten Bahnen zwingt. Die Linux-Desktops waren bisher selbst mit dem behütenden GNOME Gegenentwürfe zu dieser Mentalität, doch GNOME 3 und Unity reißen das Ruder ganz klar in Richtung Apple-Kopie. Ich habe Bedenken bei dieser Entwicklung. Mittlerweile kann ich es jedoch, so es um GNOME 3 geht, für mich relativieren, da immer mehr vorhandene Userscripte ein umfangreicheres Personalisieren ermöglichen.

Die Strömungen, die ich so erkenne, sind generell der Wunsch, Dateien zu Informationen zu machen und als Information behandelnd zu kategorisieren. GNOME 3 und indirekt Unity haben mit Zeitgeist und dem Activity Journal aufregende Forschungsfelder aufgetan und dabei Pionierarbeit geleistet. Was habe ich gestern für Dokumente bearbeitet, welche Videos habe ich gesehen, was ist meine meistgespielte Musik des Monats? Welche Programme habe ich wofür wann verwendet, wo habe ich gespeichert? Solche Fragen können die GNOME-Unterprojekte beantworten und stellen dabei Schnittstellen für alle Destop-Anwendungen zur Verfügung, womit diese Zugriff auf Datenbanken mit großen Wissen über die Nutzergewohnheiten erlangen, was zu einer noch nie gekannten ›Service-Intelligenz‹ der Computeroberfläche führen kann. Bild: Activity-Journal-Prototyp. Soll letztlich direkt in die ›Aktivitäten‹-Shell-Oberfläche mit reicher Such-Grammatik integriert werden.
Erfreulich hier, dass auch KDE an der Integration von Zeitgeist arbeitet. Umso erfreulicher, dass KDE im Rahmen seines Nepomuk-Projekts, das sogar von der EU mit Millionen Euro mitfinanziert wurde, an einem – Framework – wie sollte es anders sein – zur Sammlung und Vernetzung von verschiedendsten Metadaten über Dateien arbeitet. Das Ergebnis eines so von den Anwendungen automatisch getätigten Durchbeschriften mit Schlagwörtern und technischen Informationen und der vom Anwender selbst mitgeteilten persönlichen Bedeutung für ihn im Sinne einer Qualität, bahnt ebenfalls die Straße zu einer neuen Generation von Anwendungen: Die, welche von einer zentralen Datenbank gefüttert, Ontologie-basiert, erstmals wissen, *was auf dem Computer IST*, und welche Beziehung es zum Nutzer hat. Klassische Index-Suchen werden nebenbei auch immer besser, und sind wie bei KDE SC 4 schon tief in der Standardkompilation integriert. Es wäre jedoch wünschenswert, dass die KDE-Entwickler es cooler finden würden, mehr Frontend-Bewegung erkennen zu lassen, als über die ungeahnten Möglichkeiten ihrer Technologie zu philosophieren, sonst bleibt der semantische Desktop auf KDE leider weiterhin ein Buzzword.

Wie schon herausgekommen sein müsste, habe ich ein Faible für Schönheit in Konzept-Architektur. So bin ich auch ein großer Fan von BeOS und Haiku, die ihrerseits durch ein extrem modulares, dynamisches Konzept bestechen. Das 2000 wegen Microsoft’schen Kartellverstößen aufgegebene Betriebssystem BeOS (und dessen Open Source-Nachbildung Haiku) führte das Be File System BFS ein, das noch nach heutigen Maßstäben eine Revolution darstellt: Metadaten und Programm-Assoziationen zu Dateien werden in eine im Dateisystem integrierte Datenbank geschrieben. Dies hat weitreichende Konsequenzen für alle Anwendungen auf dem System, die sich viel Code sparen, und obendrein untereinander interoperabler werden. Auch die Dateisuche findet direkt über die Dateisystem-Datenbank ohne zusätzlichen Indizierungsdienst statt, ist also ressourcensparend und extrem flink.
Das habe ich an den neuen Ideen des Linux-Desktops zu kritisieren: Sie können schnell in ›Bloatware‹ ausarten. Zeitgeist, Nepomuk, Strigi, Tracker, Akonadi und wie sie alle heißen, sind zusätzliche Dienste, die eine weitere Abstraktionsschicht auf das Dateisystem legen. Microsoft hatte Großes bei Windows Codename: Longhorn vor mit WinFS, das in eine ähnliche Richtung ging, ist aber bei der Entwicklung wegen der hoffnungslosen Aufblähung und Verkomplexierung gescheitert. Warum setzen sich die Desktop-Entwickler nicht mal mit den Kernel-Entwicklern zusammen, und sprechen über Metadaten auf Dateisystemebene? Warum lässt man die Chance bei dem gerade heranreifenden Next-Gen-Dateisystem Btrfs verstreichen, wirkliche tiefgreifende Innovation für den Desktop zu ermöglichen?

13 – Neue Geräteklassen und die Konvergenz
Einer der sich für nächstes Jahr abzeichnenden Computing-Trends sind Ultrabooks. Ultrabook – Intels Spezifikation für extrem flache Notebooks im Stile des MacBook Air. Der Chip-Hersteller hat für dieses neue Segment sein umfassendstes Kommunikationsprogramm seit Jahren angekündigt, da wird bald richtig was geh’n. Ultrabooks sind dünn, und sie sind aus ganzen Blöcken gefräst: Neben Aluminium soll zur Produktionsteigerung auch Glasfaser als Gehäuse verwendet werden. Und sie sind dünn. Klingelt da etwas? Die nächste Tablet-Generation wird auch dünn, mit 8 mm und fallend sind Geräte angekündigt. Es ist jetzt möglich, leistungsfähige Hardware ungeahnt kompakt zu packen, sogar mit starkem Akku, ordentlichen Lautsprechern, FullHD-Kamera und natürlich mit Multitouchscreen. Ich sehe die Entwicklung klar dahin gehen, dass Tablets mit Docking-Stationen zu ultramobilen Laptops werden – eine Konvergenz der Geräteklassen. Intel setzt Energie in einen vollen Android-Port für x86, auf der anderen Seite wird Windows 8 auch für die ARM-Architektur erscheinen. Ich stelle mir Geräte vor, die Tablet sind, die aber durch Einstecken in ein Tastatur-Dock mehr Anschlüsse bereitstellen, mehr Speicher, vielleicht mehr Rechenleistung. Mir kommt der Sabber bei dieser Vorstellung. Das ist die Art von mobilem Gerät, die ich möchte, endlich!
ASUS Eee Pad Transformer Prime: Nvidia Tegra 3-Tablet mit Android 4 und Tastatur-Dock mit Zusatzakku, siehe Spezifikationen

Stellt sich die Frage nach der konkreten Benutzeroberfläche solcher Geräte. Habe ich ein Tablet in der Hand, will ich mit geschwinden Touch-Gesten meinen Startbildschirm bedienen und Apps – wirklich Apps, vereinfachte und Touch-optimierte Varianten von Desktop-Anwendungen nutzen, um rasch an (meinst konsumierbare) Ergebnisse zu kommen. Sitze ich vor einem Notebook, möchte ich mein System bequem per Tastatur und Trackpad steuern, nicht unbedingt meine Arme heben, und auch eher nicht meinen Bildschirm verschmieren. Zudem ist meine Notebook-Steuermöglichkeit viel exakter als die per Touch und ich habe den Anspruch, mit Dateien und Werkzeugleisten umzugehen; meine Eingabekompetenz ist ›fitzelig-tauglich‹. Wie bringt man die zwei Welten zusammen?
Spannend, was sich mal wieder bei Apple tut: Im diesem Sommer erschienen Mac OS X 10.7 Lion hielten bereits eine Reihe feiner iOS-Essenzen ihren Einzug. Auffälligste das ›natürliche Scrollen‹ – Scrollen vom Inhalt, nicht Bewegen einer Scrolleiste mit dem Mausrad oder dem Trackpad. Dazu das von Leszek angesprochene Launchpad als iOS-artiger Anwendungsstarter, sowie systemweite Multitouch-Gesten auf dem Trackpad. Dass Apple in der Zukunft recompilierte iOS-Apps aus seinem unermesslichen Fundus an iPad-Software für Macs mit Multitouch-Screen und vielleicht entkoppelbarer Tastatur anbieten wird, liegt nahe wie noch was.
Microsofts Hoffnungsträger Windows 8 bezaubert den Nutzer auf allen PCs ab nächsten Sommer mit der neuen kubistischen Tablet-Oberfläche Metro als Standarddesktop, der nur mit dem klassischen Fenster-Desktop gewechselt werden soll, wenn es eine ›Legacy‹-Anwendung nötig macht – schließlich ist in Zukunft ja alles ganz toll Touch-optimiert und in HTML5 und JavaScript geschrieben. Also, alles, ja. […] Den alten Desktop wird es dabei nur noch auf x86(_64) geben, reine Windows-Tablets mit ARM-Prozessor werden nur mit Metro kommen. Microsoft bleibt uns noch einen Entwicklerfaden für ernsthafte Anwendungen in ›Metro-style‹, wie sie es so gerne nennen, schuldig. Nichtsdestotrotz lässt sich die selbe Absicht in der Verschmelzung wie bei Mac OS X erkennen, wenn auch aus der entgegengesetzten Position, dass Microsoft noch keinen App-Fundus hat, sondern sie erst mit Windows etablieren will.
Um endlich auf Linux zu kommen: GNOME 3 ist durch und durch geschaffen für Geräte, die beides sein möchten, GNOME 3 IST die Konvergenz, ist die Synthese! Es mag den Desktop-Nutzer gerade an manchen Stellen schmerzen, aber das ist die Richtung, und GNOME 3 und die GNOME 3 Shell tritt bestens aufgestellt in in diese neue Gerätewelt, von der ich glaube, dass sie die generelle Zukunft von Mobilcomputern ist.
KDE hat Plasma Active als neue Voll-Touch-Umgebung, zwischen der und dem Standard-Plasma man während der Sitzung wird wechseln können, ohne die laufenden Anwendungen zu beenden, sie sogar wird mitnehmen. Der verheißungsvolle Wechsel auf Qt QML macht wie bei Android verschiedene Nutzeroberflächen eines Programms für verschiedene Auflösungen, oder auch Umgebungs-Anforderungen möglich. Der E-Mail-Client wird also auf Plasma Active ein anderes Layout zeigen als auf Plasma, und doch ist es die selbe Anwendung. Auch eine kluge Herangehensweise mit dem Vorteil, den Power-Nutzer nicht einzuschränken. – Und es wird an der Umsetzung dieser Vision gearbeitet, viele KDE-Entwickler beschäftigen sich bereits mit dem Freundlichmachen ihrer Anwendungen für Touch-Geräte.
Meinen vollen Enthusiasmus in Sachen Linux auf ›Tabbooks‹/›Lapdocks‹/›WebTops‹ schmälert zur Zeit noch, dass X.org noch immer eine Multitouch-API fehlt; sie wird von Version zu Version aufgeschoben. Das könnte noch ein düsteres Erwachen geben. Multitouch ist zwar möglich, man muss bisher aber die Eingabegeräte direkt am Treiber ansprechen und dafür erst kennen, um sie dann in ein von X separates Framework zu mappen, welches überhaupt erst allgemeine Muster und damit Gesten erkennt. Canonical tätigte zumindest dabei einen löblichen Vorstoß mit uTouch, das seit Ubuntu 10.10 mitinstalliert wird, leider aber auch auf anderen Distributionen erst einen speziell ›Hack‹-gepatchten X.org erfordert.
Ja, danach sieht’s aus.

14 – Finale
Der Paradigmenumbruch findet statt. Es herrscht Aufbruchsstimmung. Die traditionelle Desktop-Metapher weicht nach Jahren etwas Neuem; was es ist, wird immer greifbarer. Es ist sehr erfreulich, dass man den Umbruch in der Industrie weitsichtig vorausgespürt hat und jetzt besser aufgestellt ist als die proprietäre Konkurrenz.
Ich rate zum Experimentieren. Dabei auf die Nachhaltigkeit der eigenen Plattform-Entscheidung zu achten.
Das Schöne ist: Wir haben die Wahl auf Linux.
Es sind aufregende Zeiten.

15 – Auswahl weiterführender Artikel
Im Folgenden noch eine Auswahl einiger lesenswerter Artikel der letzten Monate, die es ermöglichen, sich selbst ein breites Urteil zu bilden. Damit schneller ersichtlich ist, wohin eine Empfehlung führt, habe ich die Links sichtbar geschrieben.

Unity

Canonicals Copyright Assignments

GNOME 3

KDE

Gemischtes

Bildrechte:

GNOME Foundation, derStandard.at (Kätzchen), Canonical (Unity), be-jo.net (Apluntu), Xfce, KDE, Disney, ASUS

Eine Ubuntu-Neuinstallation als Upgrade, richtig gemacht

Es gibt viele Nicht-Geeks, die sich in den letzten Jahren für Linux auf dem Desktop entschieden haben, und es ist toll, dass es sie gibt! Das zeigt, wie weit wir in Benutzerfreundlichkeit sind.
Der Ubuntu-Installationsassistent trifft, etwa bei der Partitionierung, also der Aufteilung der Festplatte, sehr undifferenzierte, pauschale Entscheidungen, wenn man ihn auf den Mach-alles-für-mich-Werten belässt, was die meisten Nutzer ja tun, weil sie sich nicht trauen, selbst über das System zu bestimmen, sondern das System bestimmen lassen.

Für wen ist diese Anleitung? Ich weiß es selber nicht so genau. Sie ist ein seltsamer Mischling zwischen persönlichem Blog-Eintrag und einer Tipp-Sammlung. Sie richtet sich sicher nicht an Ubuntu-Einsteiger, sondern eher an die, die schon mehrmals ein Ubuntu installiert haben, die sich aber immer den Vorentscheidungen des Installationsassistenten gebeugt haben und nun mal von Grund auf alles richtig machen wollen. Ich will damit keine schrittweise Anleitung, sondern Anregungen und Ideen geben und auf Möglichkeiten der Konfiguration aufmerksam machen. Der rote Faden ist ein ›Upgrade‹ auf das neue Ubuntu 9.04, das Ende April herauskam.

Meine Haltung zu Upgrades
Upgrades sind Aktualisierungen von Systemen oder Programmen auf die nächste ›große‹ Version mit größeren Änderungen. Man kann Windows, Mac OS X und Linux-Distributionen auf die nächste große Veröffentlichungsversion upgraden, ohne seine Systemeinstellungen, Programme und Dateien zu verlieren, theoretisch. Praktisch ist das unter Windows so, dass ein Upgrade ein meistens sowieso schon altes/benutztes/mit Software bespieltes und von Fehlern duchlöchertes Windows-System noch mal zerkratzt, so dass man zwar in den meisten Fällen ein benutzbares System erhält, es aber einfach nicht rund läuft.
In der Theorie ist das Upgrade eines Linux- oder sonst wie unixiiden Systems das sauberste, das man durchführen kann, weil die Systembestandteile sehr klar deklariert sind, jede Datei versioniert, die Programme dabei eher evolutionäre als revolutionäre Änderungen erfahren und außer dem Systemkern auch noch die allermeisten darauf laufenden Applikationen, da sie aus dem Paketserver-Pool der Linux-Distribution stammen, mitaktualisiert werden.
Wann sollte man also dennoch eine Neuinstallation als Upgrade in Betracht ziehen? Vier mögliche Gründe:

  • Das System läuft irgendwie nicht mehr zuverlässig, oder so, wie es sollte
  • Man hat das System ›verkonfiguriert‹
  • Man hat im Laufe der Zeit so viele zusätzliche Programmtitel zum Testen installiert, dass die Menüs prallvoll sind und man hat keine Lust, von Hand auszumisten (wobei dann auch nur die Programme selber und nicht ihre mitgezogenen Abhängigkeiten mitentfernt würden)
  • Man möchte auf eine intelligentere Partitionierung umstellen

Seht ihr eurer System in einem der Punkte beschrieben, dann rate ich euch wirklich: Macht eine Neuinstallation statt eines Upgrades. Das fühlt sich auch allein ideologisch schon besser an.

Zur Konfiguration
Ein grundlegender Unterschied zum Microsoft-System: Mit Windows hat man immer Arbeit, ein Linux dagegen läuft in der Regel, nachdem man einmal eine hohe Konfigurationshürde erreicht hat, sehr lange ziemlich gut.
Ich selbst schiebe die Installation einer neuen Version immer einige Zeit vor mir her, weil es halt wirklich Arbeit ist. Dann nehme ich mir mehrere Tage einige Stunden das System vor, für Ubuntu 9.04 habe ich geschätzte 16h gebraucht, bis alles so lief, wie auf meiner vorigen Installation. Diese Zahl ist ungeschönt, aber ich will bemerken, dass ich ein Perfektionist bin, dann der Entwickler von Fertibunti (was auch Zeit kostete), wirklich viel individuell haben möchte, und dass gerade mein Rechner (gemäß meinem Fachwissen, es darf ja nicht einfach funktionieren… Ich staune, wie toll sich die Computer meiner Freunde, die nicht so versiert sind, einer Ubuntu-Installation fügen…) mir gerne dazwischenfunkt.

Das, was wohl auf einem Windows-System am meisten Zeit verschlingt, ist die Installation von Software. Die Installation. Die Setups sind unglaublich lahm und umständlich. Die Einrichtung des Systems macht man bei Windows mehr oder weniger nebenher.

Durch die geniale Paketverwaltung von Linux-Distributionen nimmt dort die Nachinstallation zusätzlicher Programme den kleinsten Teil der Nacharbeit ein. Benutzt ihr mein Fertibunti, das automatisch alles Notwendige und noch ein bisschen mehr nachinstalliert und einrichtet, kommt ihr zeitlich wirklich gut damit weg. Auf einem halbwegs aktuellen Rechner sollte das mit DSL 16.000 nicht über eine Stunde dauern. Umgerechnet auf die Zeit, die diese Programmfülle durch den typischen Windows-Installationsweg vernichten würde, wären das sicher über sechs Stunden Arbeit, und dabei macht Fertibunti alles automatisch.

Wir sichern…
Bevor wir neuinstallieren, sollten wir natürlich die wesentlichen Dinge unseres noch laufenden Systems sichern, ein paar, die mir wichtig erscheinen:

  • /etc/fstab
  • /etc/X11/xorg.conf
  • /etc/apt/
  • /boot/grub/menu.lst

Überhaupt wäre eine Komplettsicherung des Systems auf eine andere Festplatte/Partition ratsam. Ich empfehle dafür sbackup.

Hat man /home noch nicht auf einer separaten Partition (dazu später mehr), so muss man natürlich auch alle seine sichtbaren und versteckten Dateien in seinem ›Heim-Ordner‹ sichern. Dabei kann es vorkommen, dass einige Dateien sich nicht kopieren lassen, weil etwa die persönlichen Rechte nicht dazu ausreichen. Es kann gesagt werden, dass die alle nichts Wichtiges sind, fast immer auch nur sehr klein. Einfach überspringen, das macht später nichts aus.

Woran dann fast niemand mehr denkt, sind ›Sicherungen‹ von allgemeinen Systemzuständen. Ich rate, Bildschirmfotos zu machen:

  1. Vom Desktop mit offenem Nautilus-Fenster (so hat man die laufenden Panel-Applets und die Nautilus-Lesezeichen festgehalten)
  2. Falls man ein alternatives Anmeldefenster installiert hat, den Anmeldefenstermanager öffnen und sich den Namen des Themas rausschreiben, damit man es später wieder auf Gnome-Look.org findet
  3. Eventuell schauen, wie man den Drucker konfiguriert hat
  4. Von Synaptic (-Paketverwaltung) ? Ursprung ? Lokal/* (unter den Subkategorien von Lokal werden alle installierten Pakete gelistet, die nicht über die System-Quellen von Apt installiert wurden)
  5. Von GParded mit den Partitionen (Mountpunkte) (Wenn noch nicht installiert: Paket gparted installieren und dann über System ? Systemverwaltung ? Partition Editor starten)

Die Bildschirmfotos von GParded und eine Kopie der Datei /etc/fstab legt ihr nun auf einen USB-Stick, bereit für die Installation.

64-Bit?
Das ist eine Frage, die sehr oft in Linux-Foren gestellt wird: Soll ich die 32-Bit-, oder die 64-Bit-Version installieren?
In den Foren melden sich dann oft die, die sagen, dass es sich nicht lohnt, weil man den Unterschied fast nicht spürt, oder nur in pompösen Datenbankanwendungen.

Ob man die 64-Bit-Version installieren sollte, wenn der Prozessor 64-Bit unterstützt? Ich beantworte das mit einem klaren Ja, warum nicht!, mit einer Einschränkung: Hat man unter 1 GB RAM, könnte es besser sein, noch ein 32-Bit-System zu installieren.
64-Bit bringt keine Nachteile mehr. Flash läuft gut, Java gibt es, Multimediacodecs machen seit Jahren keine Probleme mehr. Warum also sollte man auf ein bisschen Mehrleistung verzichten, wenn es die Hardware hergibt?
Auch bei der Softwareauswahl muss man keine Abstriche machen, praktisch 1:1 hat man die gleiche Fülle wie ein 32-Bit-Nutzer in den Quellen zur Verfügung.
Linux war der erste Kernel für die AMD64-Plattform (die auch heute Intel-Prozessoren implementieren, wenn sie 64-Bit-Code ausführen) und damit zum ersten Mal in seiner Geschichte die Präferenz- und Standardplattform für eine neue Rechnerarchitektur. Es läuft toll darauf.
Anders als die 64-Bit-Versionen von Windows und Mac OS X kommt eine 64-Bit-Linux-Distribution ausschließlich mit 64-Bit-Software daher und jedes Programm, das man über die Paketverwaltung nachinstalliert, ist auch für 64-Bit gebaut, abgesehen von einigen proprietären Dingen wie Flash, Adobe Air oder Zattoo, die immer noch eine Kompatibilitätsschicht benötigen, was aber auch wenig Probleme macht. Bis auf die codegeschlossenen Applikationen hat man dann tatsächlich ein massiv 64-bittiges System, ist das nicht cool? Vergleicht das mit Windows, wo noch nicht mal Microsoft seine Produktpalette wenigstens zu einem nennenswerten Teil in 64-Bit anbietet, von den Drittanbietern ganz zu schweigen!

/boot und /home als separate Partitionen
In einer Standardinstallation sind /boot und /home Unterverzeichnisse der „/“-Partition. Im Prinzip kann man jedes Verzeichnis einer Linux-Distribution aber auf eine separate Partition auslagern. Das bringt für mich vor allem Systemsicherheit mit sich: Ich weiß genau, dass der Kernel und die GRUB-Konfiguration auf dieser ersten kleinen Partition liegen, außerdem erlaubt es mir so, der übersichtlichen Konsequenz wegen, nur /boot als primäre Partition anzulegen und alle weiteren Partitionen als logische in einem erweiterten Container zu erstellen.
/home als separate Partition sollte Pflicht sein: Ist das System beschädigt und startet nicht mehr, kann man ›einfach‹ Linux noch einmal installieren und wieder die entsprechende Partition als /home einhängen und man hat sofort seine individuelle Desktop-Konfiguration und sein Heimatverzeichnis. Theoretisch ist es auch möglich, für mehrere Linux-Distributionen wie Ubuntu, Fedora und SUSE die gleiche Home-Partition anzugeben (was aber an der unterschiedlichen installierten Software dann in Menüs nicht gut aussieht). Und sowieso, weil ich so oft neuinstalliere, wäre es furchtbar umständlich, jedes mal /home zu sichern und später zurückzuspielen.

Option 1: Eine frische Installation mit ganz neuer Partitionierung
Ich will hier nicht auf die einzelnen Schritte eingehen, weil ich einfach davon ausgehe, dass ihr ein ›Upgrade‹ machen wollt und schon mit früheren Installationen Erfahrungen sammeln konntet. Nicht schaden kann es, wenn ihr euch den Wikipedia-Artikel zu Partitionen durchlest, besonders die Sache mit primären, erweiterten und logischen Partitionen solltet ihr später können.

Zunächst ein ›Insider‹: Den Computer ausschalten und ein paar Minuten vor Beginn der Installation abkühlen lassen. Das ist wahrscheinlich vollkommen sinnlos, aber es gibt einem ein gutes Gefühl; wie »Jetzt ruhst Du dich noch einmal aus und dann geht es konzentriert los.«
Auch das Zimmer mal gut durchlüften, damit man selbst genug Frischluft hat, um kühl denken zu können. Vernachlässigt das nicht, es ist ungeheuer wichtig, bei der Partitionierung keine Fehler zu machen.

Startet von der CD, wählt ›Ubuntu ausprobieren (Rechner bleibt unverändert)‹ aus dem Bootmenü und wartet, bis die Oberfläche geladen ist.

Bei einer vollkommenen Neuinstallation (oder eben wenn man die Festplatte komplett neu einteilen möchte) mit dem Partitionseditor (unter System ? Systemverwaltung) Platz für /boot, /, /home und swap schaffen.
Legt dann 4 neue Partitionen für Ubuntu an (Dateisystem alle Ext4 bis auf Swap, da wählt ihr ›Linux-Auslagerungsspeicher‹)

  • /boot : 200 MB
  • / : 10-20 GB
  • swap : Mindestens so groß wie der verbaute Arbeitsspeicher, aber nicht mehr als doppelt so viel
  • /home : mindestens 10 GB

Zu /home : Kommt darauf an, wie ihr vor habt, eure Nutzerdateien zu verwalten. Man kann entweder wirklich /home nutzen, um dort seine Bilder, Videos und die Musiksammlung unterzubringen, spricht nichts dagegen. Ich habe, um flexibler zu sein mit anderen Distributionen, auf /home nur das Nötigste, also Konfigurationsdateien und meinen Podcasts-Ordner liegen und nutze die Partition mehr oder weniger als temporäres Abstelllager von Arbeitsdateien und speichere meine ›Eigenen Dateien‹ auf einer anderen Partition. Aber spricht wie gesagt nichts dagegen, /home für alles zu nutzen.

Bleibt zu sagen, dass ihr die Partitionierung mit GParted durchführen solltet, bevor ihr das Setup mit dem Icon auf dem Desktop startet.

Folgt dem Assistenten wie gewohnt, bis ihr gefragt werdet, wie ihr die »Festplatte vorbereiten« möchtet. Dort wählt ihr »Partitionen manuell festlegen (fortgeschritten). Darauf seht ihr eure vorhin angelegte Partitionierung und könnt den Partitionen Einhängepunkte (auch ›Mountpoints‹) und Dateisysteme zuweisen (sollte natürlich wieder alles Ext4 sein, bis auf die Swap).

Option 2: Neuinstallation über Vorgängerversion von Ubuntu
Nach dem Starten von CD (analog zur vorherigen Option, mit ›Ubuntu ausprobieren (Rechner bleibt unverändert)‹ ) den vorbereiteten USB-Stick mit den Bildschirmfotos und der fstab einstecken, dann den Installationsassistenten starten. Der USB-Stick sollte automatisch eingehängt und geöffnet werden. Der Installationsassistent wird uns gleich anbieten, den USB-Stick wieder auszuhängen, was wir aber dankend verneinen.

Fall 1: Ihr habt im vorherigen Ubuntu noch keine separate /boot- und /home-Partition gehabt. Vor der Neuinstallation sichertet ihr also euer ganzes Benutzerverzeichnis unter /home inklusive aller versteckter Ordner auf DVD oder eine andere Partition oder Festplatte. Jetzt wollt ihr diese Partitionen anlegen, das geht am besten mit dem Partitionseditor (unter System ? Systemverwaltung). Der sollte noch vor dem Installationsassistenten gestartet werden.
Verschiebt, ändert Größen und löscht nach euren Wünschen vorhandene Partitionen, um, falls ihr das braucht und in der alten Installation gemerkt habt, dass ihr mehr Platz für z.B. /home benötigt, als zuvor die Partition hergegeben hat.

Fall 2: Ihr habt schon eine /boot- und eine /home-Partition und seid damit zufrieden. Bestens.

Die wichtigsten Mountpunkte gemäß meiner alten Belegung wieder zugewiesenIm Installationsassistenten dann zunächst /boot, /, /home und swp (wieder) besetzen. Zum Formatieren davon nur die /boot- und /-Partition vormerken (bei Fall 2)! Dateisystem der Wahl für /boot, / und /home (nur bei Fall 1 natürlich auch /home formatieren) ist das neue schnelle Ext4.

Jetzt kommen unsere Bildschirmfotos von GParted vom Vorsystem ins Spiel. Öffnet sie vom USB-Stick und richtet die Mountpunkte der anderen Partitionen getreu diesen Bildern ein. Dabei immer als Dateisystem das wählen, was schon im Hauptfenster in der Spalte „Verwendung“ steht. Der Mountpunkt muss mit der Tastatur eingegeben werden (etwa /media/sdb8) – eben so, wie er früher schon war, gemäß dem Bildschirmfoto.
Alle Mountpunkte gemäß meiner alten Belegung wieder zugeteilt
Übrigens: Hat man in der vorherigen Installation einigen Partitionen noch gar keine fixen Mountpunkte verpasst, bietet sich nun die Gelegenheit dazu. Heißt die Partition etwa /dev/sda10, so kann man sie als /media/sda10 einhängen lassen. (Bitte nicht beachten, dass ich in nebenstehendem Bild in den Mountpunkten immer sdb statt sda, wie das /dev-Gerät heißt, eingebe. Das hat esoterisch-unerklärliche technische Gründe, irgendwie zusammenhängend mit meinem BIOS. Einfach nicht beachten. Auch bitte im Bild nicht darum kümmern, dass zwei Partitionen im Fensterfoto des Partitionseditors vom alten Ubuntu als „unbekannt“ markiert sind; ich hatte diese schon als Ext4 benutzt, aber die dort eingesetzte Version des grafischen Partitionsmanagers unterstützte zu dem Zeitpunkt noch kein Ext4.)
Versucht nicht, meine Partitionierung zu verstehen. Macht euch nur klar, wie ihr die alten Belegungen der Mountpunkte übernehmt. Dieser Dialog ist der fordernste und gefährlichste am ganzen Betriebssystem.

Die Partitionierung, egal wie frustierend sich das Werkzeug gebärdet, unbedingt gewissenhaft und mit größter Konzentration durchführen, dabei mehrmals die Angaben auf Mountpunkte und Formatierungen überprüfen, gegebenenfalls hier sogar eine kleine Pause einlegen, wieder an den PC gehen und noch einmal alles überprüfen und überdenken; vielleicht will man ja etwas doch anders machen. Nehmt euch die Zeit, es lohnt sich, eine intelligente und maßgeschneiderte Festplattenaufteilung zu haben.

Sodann das erledigt ist, werdet ihr nach euren Anmelde- und Benutzerdaten gefragt. Führt ihr ein „Upgrade“ durch, dann müsst ihr natürlich euren Benutzer wieder so nennen, wie er schon zuvor hieß. Hattet ihr mehrere Konten, dann erstellt jetzt einfach eines der Konten, später im installierten System lassen sich dann noch weitere Benutzer hinzufügen (es geht dabei nur um die Registrierung beim System an sich, eure Benutzerdaten sind ja auf der separaten Home-Partition (Fall 2) oder spielt ihr später von der Sicherung zurück (Fall 1)).Die Übersichtsseite des Ubuntu-Installationsassistenten kurz vor dem Startschuss
Nachdem euch der Assistent noch gefragt hat, ob ihr von einem installierten Windows-System Benutzerdaten importieren wollt (tut’s nicht!), seht ihr auf einer Übersichtsseite noch einmal alle auszuführenden Aktionen und Einstellungen. Vergewissert euch dort erneut von der Richtigkeit der Formatierungsaufgaben. Dann sollte die CD werkeln und Ubuntu 9.04 auf eure Festplatte schaufeln.

Erste Aufgaben nach dem „Upgrade“
Fall 1: Ihr habt eine Standardinstallation vor euch, nichts ist eingerichtet.
Spielt von eurem Backup, seien es DVDs oder eine Backup-Partition, wieder eure ganzen versteckten und nicht versteckten Dateien eures alten /home/$BENUTZERNAME$ zurück, wenn ihr gefragt werdet, wie ihr mit schon vorhandenen Dateien verfahren wollt, sagt, er soll sie überschreiben.
Am Kritischten dabei sind die Benutzerrechte, dass die stimmen. Bekommt ihr Probleme dabei, fragt mich hier in den Kommentaren oder im Ubuntuusers.de-Forum.

Fall 2: Da ihr euer /home behalten habt, sollte euer gewohnter Desktop wieder vor euch erscheinen:
Die Grundausstattung - man beachte die fehlenden Programme hinter den Verknüpfungen

Fall 1+2 anschließend:
Ihr seht, dass die Panels sehr leer aussehen, oben links sind Platzhalter für einige Starter und oben rechts ist die Begrenzung der Benachrichtigungsfeld-Symbole viel zu weit links. Das kommt schlicht daher, dass noch nicht alle Programme installiert sind, die ihr/ich in eurer vorherigen Installation hattet, die liefen, und von denen ihr Starter angelegt habt.
Jetzt geht es also an das Installieren dieser zusätzlichen Pakete.
Dafür, und um überhaupt mal eine ansehnliche Auswahl von – aus meiner Sicht – unentbehrlichen Anwendungen zu bekommen, lege ich euch mein Fertibunti-Script ans Herz. Es erweitert selbständig die Paketquellen um z.B. Medibuntu, Wine und VirtualBox und installiert alle nötigen Mediacodecs, „echte“ Multimediasoftware, Internetprogramme wie Skype, Filezilla, Firefox 3.5 und Midori und eben viele Systemerweiterungen und -Programme wie VirtualBox, Compiz Fusion-Plugins, volle PulseAudio-Kontrollapplets, Envy, Gnome Do und so weiter. In meinem Freundeskreis ist das sehr beliebt und es funktioniert auch wirklich.
Außerdem konfiguriert Fertibunti ganz zart den Desktop, stellt auf das chice Gnome-Thema „Neue Welle“ um und installiert einen hübscheren Anmeldebildschirm.
Man könnte es als die eierlegende Wollmilchsau für die Neuinstallation eines Ubuntu-Systems bezeichnen.

Der fertige Desktop - so könnte es aussehen *höhö*

Einrichtungstipps
Nach Fertibunti geht es dann an die Einrichtung der Hardware (DAS ist es, was bei mir immer so viel Zeit kostet). Normal sollte alles Wichtige schon laufen, Drucker lassen sich grafisch einrichten etc.. Wenn ihr eine ATI- oder Nvidia-Grafikkarte habt, empfehle ich, zur Installation des Treibers EnvyNG zu nutzen (Anwendungen ? Systemwerkzeuge ? EnvyNG) , und nicht den von Ubuntu selbst vorgeschlagenen Treiber (weil EnvyNG einen neueren kennt).
Weiter geht es mit den Applikationen, die nicht in den Quellen sind, und von deren Liste ihr euch vor der Neuinstallation in Synaptic ein Foto gemacht habt (das war das unter Ursprung ? Lokal/*).

Wollt ihr den Bootmanager anpassen, eignet sich der (von Fertibunti installierte) StartUp-Manager (System ? Systemverwaltung ? StartUp-Manager). Damit lassen sich unzählige Einstellungen komfortabel ändern, z.B. das als Standard zu startende Betriebssystem, die Wartezeit und die Bildschirmauflösung des Bootbildes. Ganz nett finde ich auch, über das Deaktivieren des Häkchens bei ›Zeige Bootmenü‹ überhaupt erst mal kein Bootmenü anzuzeigen, sondern es erst durch Drücken von Esc einzublenden, was den Systemstartprozess konsistenter erscheinen lässt.

Um nicht unnötig auf / Platz zu verschwenden, ist es klug, in Synaptic unter Einstellungen ? Dateien ? Temporäre Dateien ? ›Heruntergeladene Paketquelldateien nach der Installation löschen‹ zu aktivieren (und einmal den Knopf ›Alle Paketdateien im Zwischenspeicher löschen‹ zu betätigen).

Wer sich noch nicht intensiver damit beschäftigt hat, sollte auch unbedingt einmal die Auswahl an Panel-Applets durchwühlen. Einfach einen Rechtsklick auf eines der Panels und ›Zum Panel hinzufügen …‹ wählen. Was ich absolut empfehlen kann:

  • Tomboy – Eine intelligente Notizenverwaltung, die für mich eines der Highlights von Gnome darstellt – ist mir absolut unbegreiflich, warum Canonical das nicht in der Standardinstallation gleich im Panel aktiviert
  • Systemmonitor – Eine Live-Systemlastenanzeige über CPU und bei Interesse auch Speicher, Netzwerk, Swap, Last und Festplattenaktivität. Wie kann man ohne eine Lastenanzeige arbeiten?!
  • Überwachen der Prozessortaktstufen – manuelle Regelung der Prozessortaktstufen. Das kann für Notebook-Besitzer zum Stromsparen interessant sein, und ist es umgekehrt, wenn der Kernel bei HD-Videos einfach nicht richtig hochtakten will, wie er es sollte (hier ein Foreneintrag zu dem Problem)
  • Netzkerküberwachung – Ein Applet, das hauptsächlich blinkt, wenn Daten übertragen werden, oder das ein durchgestrichenes Symbol zeigt, wenn man keine Verbindung hat (ich nutze an meinem Desktop-PC das, weil ich auf den großen Netzwerkmanager verzichte)
  • Medien-Applet – Superpraktisches Pulldown-Menü mit einer Liste aller verfügbaren Partitionen, und mit Aushängeknopf
  • Deskbar – Universalsuche mit individuell zuschaltbaren Plugins. Sucht nach Anwendungen, Kontakten, Dateien (über Tracker), kann auf Twitter und identi.ca veröffentlichen, kann im Web suchen und so weiter. Kann man sich vorstellen wie der Spotlight-Knopf in Mac OS X. Eine ideale Ergänzung zu Gnome Do (manches geht mit Gnome Do schneller, manches mit der Deskbar)
  • Fisch – Klickt man darauf, öffnet sich ein „Glückskeks“ mit Sinnsprüchen, Witzen oder Wissenswertem, dank Fertibunti sogar auf Deutsch. Man sollte aber unbedingt in den Einstellungen die Pause nach jedem Einzelbild der Schwimmanimation auf 10 Sekunden hochsetzen, denn sein Gezappel hält sonst keiner aus
  • Temperaturindikator – ist in der Uhr schon integriert. Klickt auf die Uhrzeit und expandiert unten ›Orte‹. Über ›Bearbeiten‹ lässt sich dann der Wohnort (oder eine Stadt nahe des Wohnorts) bestimmen
  • Zeiterfassung – Eine Art Stoppuhr mit genauer Protokollierung der Art der Arbeit. Ist leider sehr manuell und bringt nur etwas, wenn man sich auch streng an sein eingegebenes Thema hält, ohne abzuschweifen. Dann bietet es aber eine grafisch nette Analyse der Tätigkeiten und Zeiten.

Ich hoffe nun, euch einige interessante Anregungen für zukünftige Installationen gegeben zu haben. Eine Neuinstallation lohnt sich wirklich bei vielen Nutzern statt eines Upgrades, vor allem, da die Systeme oft schon einige holprige Upgrades hinter sich haben. Wenn es Probleme gibt, dann… ähm, nun ja, das ist so eine Sache. 😉 Fragt besser nicht mich, sondern im Ubuntuusers.de-Forum, da bekommt ihr schnell kompetente, nette Hilfe.