PC-Refresh 2016: Eigentlich wollte ich doch nur…

Alles fing damit an, dass ich mich schon seit geraumer Zeit für die Oculus Rift interessiere. Die diversen Artikel, Tests und Erlebnisberichte der Fachpresse (und auch der Tester der Entwicklungsversionen) haben so viel Lust auf Virtual Reality gemacht, dass ich eigentlich schon letztes Jahr überlegt habe ein sog. Development Kit 2 – also eine Vorversion des Geräts – zu kaufen. Aber irgendwie kam ja dann das ein oder andere zwischen, das Thema trat geistig in den Hintergrund und Oculus konnte die Rift in Ruhe zu Ende entwickeln. Im Dezember 2015 wurde es dann spannend: Der Verkaufsstart der finalen Version des VR-Headsets wurde greifbar, als wahrscheinlichstes Datum galt die Consumer Eletronics Show gleich Anfang Januar 2016 in Las Vegas.

Genau so kam es dann auch und gemeinsam mit vielen anderen saß ich am 06.01.2016 vor dem Bildschirm und wartete darauf, dass der Countdown auf der Startseite des Oculus Stores auf 0 sprang und der Verkauf des Headsets endlich startete. Erstaunlicherweise brach die Website übrigens bei 0 nicht zusammen: Technisch ganz en vogue wurde die Uhr fließend durch einen Link ersetzt und Sekundenbruchteile später konnte man auch den Preis sehen *schluck*. Kurzes Grübeln später (ist ja erstmal nur ein Vorverkauf) klickte ich trotzdem auf „In den Warenkorb“ (oder so ähnlich) und die befürchtete Odyssee begann doch noch.

(mehr …)

Spielereien mit Android, NFC, Tasker und Google – Teil 1

Okay, hier ist es – zugegebenermaßen – in letzter Zeit etwas langweilig. Das sehe ich auch so und manchmal belastet mich das auch ein wenig, aber: Besserung ist in Sicht. Doch, wirklich, große Dinge werfen ihre Schatten voraus, spektakuläre Weiterentwicklungen haben unaufhörlich begonnen und „demnächst“ wird es mir vermutlich auch wieder mehr Spaß machen hier aktiv zu sein.

Bis dahin berichte ich einfach mal von meinen Spielereien mit Android, mit welchen ich nach dem spontanen Ableben meines geliebten iPhone 5s begonnen habe. Wie es dazu kam? Nun, mein iPhone wollte irgendwann nicht mehr Laden (auch nicht mit einem ganz neuen Kabel und auch nicht in yoga-ähnlichen Winkeln zwischen Lightning-Anschluss und Kabel, was zumindest am Anfang noch funktionierte) und die Garantie- bzw. Reparaturabwicklung via Telekom war nur bedingt optimal. Tja, das ist halt des Schicksals eines Geräts mit einem Alter von mehr als einem Jahr und bei fehlendem Carepack. Während also DHL noch mit der Telekom darüber stritt, wann und wie mein Gerät denn überhaupt ins Reparaturcenter kommt, musste ich mich um eine Alternative kümmern. Um erreichbar zu bleiben, kramte ich also in den Tiefen unseres Altbestandes und zauberte meine HTC Sensation aus den Tiefen des Vergessens. Kurz dachte ich auch an das ebenfalls noch vorhandene Motorola Milestone, aber dieses war hardwaretechnisch leider noch etwas „überholter“.

Nachdem das Sensation ja eh „einige“ Zeit im Schrank verbrachte, war klar, dass es ein Firmware-Upgrade nötig hatte. Interessanterweise war ja vor mehr oder weniger kurzer Zeit gerade Android 5 erschienen, welches dank entsprechender Enthusiasten in der XDA Developers Community auch für eben jenes Altgerät zur Verfügung steht. Die Installation war einfach; das Resultat ernüchternd. Akkulaufzeit: Ja, ein halber Tag reicht doch eigentlich für alle, oder? Bluetooth-Geräte: Trennen sich einfach sporadisch. GPS-Ortung: Nun, nicht an Tagen die auf „G“ enden. Allgemeine Systemperformance: Keine Ahnung, wie ich es geschafft habe, das Ding zwischenzeitlich nicht an die Wand zu werfen. Insgesamt musste ich feststellen, dass ich definitiv nicht der Typ für alte Hardware mit neuer Software bin (oder vielleicht habe ich beim Sensation auch einfach nur ein Montags-Gerät erwischt).

Also begann das wilde Vergleichen: Samsung Galaxy, Nexus, Xperia, HTC One M8, Oneplus One .. alles gar nicht so einfach, wollte ich doch kein riesiges Gerät. Meine Präferenzen verdichteten sich im Bereich Nexus 5 sowie Sony Xperia Z3 Compact. Als es dann ein wirklich gutes Angebot für ein werksneues Xperia Z1 Compact für nur 150€ gab, schlug ich vor dem Hintergrund damit ein neues Spielzeug zu erwerben kurzerhand zu. Meine ersten Eindrücke vom Xperia waren wirklich wirklich gut: Recht hochwertige Verarbeitung, kompakte Abmessungen, angenehme Haptik, überdurchschnittlich lange Akkulaufzeit .. absolut beeindruckend, was man für so wenig Geld an Gegenwert erhält.

Tadaaa - das ist es. Das Xperia Z1 Compact vor motivierend grünem Hintergrund
Tadaaa – das ist es. Das Xperia Z1 Compact vor motivierend grünem Hintergrund und mit „tempered Glass“ Schutz-„Folie“

Ausgeliefert wurde das Gerät mit Android 4.irgendwas und nach einer relativ schmerzfreien Update-Orgie über mehrere Zwischenschritte lief das Compact zumindest auf Android 4.4, was die Kompatibilität mit meinem vivosmart wiederherstellte. Danach verbrachte ich einige Zeit damit diverse Hüllen, Folien und magnetischen Ladekabel zu testen, bevor ich ein Setup fand, welches zumindest recht komfortabel und praxistauglich ist. Einige Wochen später stellte sich dann die typische Android-Qualität ein (wobei ein Hardwaredefekt natürlich nichts mit der Software zu tun hat) und der Vibrationsmotor des Geräts begann Geräusche zu machen. Mittlerweile ist jede Aktivität des Motors lauter als ein herkömmlicher Klingelton, weshalb mein Umfeld bereits dazu übergegangen ist mir die Mitführung etwaiger „Entspannungsspielzeuge“ zu unterstellen. Ich vermute, dass hier eine Reklamation fällig ist… Ansonsten wurde vor kurzer Zeit Android 5 offiziel für das Z1 Compact freigegeben (auf Grund des besagten Garantiefalls wollte ich das Gerät bisher nicht rooten und auch keine unautorisierten Updates durchführen), welches ich ebenfalls bereits installiert habe. Die Akkulaufzeit ist nun zwar gefühlt etwas kürzer, Bluetooth-Geräte neigen erneut gehäuft zu Übertragungsstörungen und die Gesamtperformance scheint ein wenig schlechter geworden zu sein, doch hat Sony das Betriebssystem meiner Meinung nach trotzdem sehr gut angepasst. Meine generellen Ausführungen über das Gerät möchte ich damit auch beenden: Ich habe vermutlich noch nie ein Nicht-iPhone gesehen, dass derart perfekt auf iPhone-Kunden angepasst war. Die Bildschirmtastatur, die Tastenanordnung, die Eingabegenauigkeit, die Art und Qualität der Wortvorhersage, die Lupenfunktion des Cursors, der Mail-Client .. alles fühlt sich sehr sehr stark nach Cupertino an, was es Umsteigern leicht macht.

Das Z1 Compact hier mit seiner "Ultra Slim Backcover". Ganz ernsthaft, eine der besten Hüllen die ich jetzt genutzt habe. Bis auf die kleine "Welle" in der Mitte - noch so ein Garantiefall
Das Z1 Compact hier mit seiner „Ultra Slim Backcover“. Ganz ernsthaft, eine der besten Hüllen die ich jetzt genutzt habe. Bis auf die kleine „Welle“ in der Mitte – noch so ein Garantiefall

Aber warum bin ich denn nun eigentlich bei Android gelandet? Schließlich wurde mein laut Telekom-Servicecenter „nicht sichtbarer Schaden außerhalb der Garantie“ für eine Pauschalzahlung von rund 280€ behoben bzw. das Gerät getauscht, so dass das iPhone 5s durchaus wieder bei uns ist. Da wäre zum einen die Tatsache, dass ich iOS zumindest für den Moment einfach „durchgespielt“ habe. Ich verwende die Geräte mit dem angebissenen Apfel seit dem iPhone Classic (welches in seinem Dock in einer Glas-Vitrine in unserem Arbeitszimmer seinen Ehrenplatz eingenommen hat) und hatte einfach mal Lust auf etwas Neues. Jedes Menü, jede Option, jedes Features kam mir einfach so vertraut vor. Zum anderen hatte ich Lust auf ein wenig „Do it your self“ und wollte schon immer mal mit NFC (Near Field Communication) spielen – und spätestens da ist Apple aktuell ziemlich raus. Bevor ich also auf meine NFC-Spielereien eingehe noch ein riesengroßer, vermutlich jedoch nur temporär bestehender Vorteil von Android: Wer WhatsApp Web – also den im Browser verwendbaren Client für den beliebten Messenger WhatsApp – mal genutzt hat, der weiß, was ihm vorher gefehlt hat. Zumal die Umsetzung derart gut ist, dass ich sie sogar für gelungener als die Integration von iMessage unter MacOS halte.

Hier mal das besagte, heilige iPhone Classic und das Z1 Compact nebeneinander
Hier mal das besagte, heilige iPhone Classic und das Z1 Compact nebeneinander

Also .. was treibe ich denn so mit NFC? Primär verwende ich sehr preiswert erwerbbare NFC-Tags (sprich dünne Antennen in Aufkleberform) um ortsgebunden Aktivitäten auszulösen. So kann ich zum Beispiel mein Telefon an einen Tag in meinem Auto halten und diverse Aktionen (Bluetooth an, WiFi aus, Lautstärke auf Maximum, Stauscanner starten) rein durch den Vorgang der Annäherung auslösen. Ich kann zum Beispiel auch eine bestimmte Spotify-Playlist wiedergeben lassen, wenn ich mein Xperia kurz an einen Tag in der Nähe des Verstärkers halte. Oder aber ich lasse das Telefon auf lautlos stellen, wenn es nach 22:00 Uhr ist und (jetzt wird es cool) der Magnetsensor das Vorhandensein meines magnetischen Ladekabels erkennt. Okay, die letztgenannte Aktion wird manchmal auch ausgelöst, wenn ich das Smartphone auf eine unserer Standboxen lege .. alles eine Frage der Schwellwerte 😉

Sowas nennt der Zubehörhandel gern "drahtloses Laden". Naja, praktisch ist das magnetische Kabel dennoch, da ich sonst immer die Abdeckung des USB-Ports öffnen müsste. Das Z1 ist nämlich wasserdicht.
Sowas nennt der Zubehörhandel gern „drahtloses Laden“. Naja, praktisch ist das magnetische Kabel dennoch, da ich sonst immer die Abdeckung des USB-Ports öffnen müsste. Das Z1 ist nämlich wasserdicht.

Um diese Funktionen zu erreichen, musste ich mehrere Applikationen und deren Funktion kombinieren: Tasker (Link zu Google Play) erlaubt die Definitionen von eigenen Aktionen, die unglaublich vielfältig sein können. Trigger (Link zu Google Play) ermöglicht es Tasker-Aktionen auszuführen, wenn ein NFC-Tag erkannt („gescannt“) wird. Und „TeslaLED“  (Link zu Google Play) ermöglicht es Tasker die LED der Kamera aufblinken zu lassen, um z.B. bestimmte Aktivitäten auch optisch zu bestätigen. Klingt alles etwas kompliziert und unintuitiv, ist es auch. Aber genau das wollte ich ja auch, denn sonst hätte ich bei iOS bleiben können 🙂

Ein Anwendungsfall den ich etwas näher vorstellen möchte, fällt für mich in den Bereich Quantified Self – der digitalen Selbstvermessung. Und zwar hat mich schon länger interessiert, wie lange ich so benötige, um typische Fahrstrecken – z.B. zum Kunden oder ins Büro – zurücklegen. Natürlich gibt es hierzu diverse „Fertig-Apps“, aber ich habe mich für die Erfassung der Werte in einer Art Excel-Datei interessiert. Und jetzt wird es wieder cool. Ich kann nämlich Google Docs benutzen um eine entsprechende Datenablage zu erhalten, Google Forms um ein Erfassungsformular zusammenzubasteln, Tasker um über HTTP-Aufrufe mein Formular anzusprechen und Trigger um Tasker zu aktivieren, wenn ich mein Telefon im Auto an den Tag halte. Dazu noch etwas Kosmetik und zwei Tags im Fahrzeug (in meinem Fall ein Tag an der Mittelkonsole bzw. an deren Seite für das „Einchecken“ und ein Tag im Kofferraum zum „Auschecken“, an welchem ich eh „vorbeikomme“, wenn ich meine Tasche auslade, und fertig ist semi-automatisierte Erfassung meiner Fahrvorgänge. Für die Interessierten möchte ich den Vorgang folgt grob skizzieren – im Prinzip finden sich aber alle Informationen in diesem Beitrag auf Google Groups: Link:

  1. Auf Google Docs / Google Sheets / Google Tabellen (Klick) mit Hilfe des großen Plus-Buttons eine neue Tabelle anlegen. In diese bzw. in ein Tabellenblatt selbiger werden später die Daten eingefügt. Man kann diesen Schritt auch überspringen und die neue Tabelle beim Anlegen des Formulars erstellen – wie man mag. Ich nutze eine Tabelle, in der ich unterschiedliche Formularergebnisse für unterschiedliche „Prokollierungen“ vereine
  2. In GoogleDocs über Datei –> Neu ein neues Formular anlegen. Das Wichtigste zuerst: Die Adresse des Formulars (der „Form“) einfach aus derAdressleiste des Browsers heraus kopieren – diese benötigen wir später inTasker

    Hier besorgen wir uns die Adresse des Formulars. Das "edit" müssen wir später entfernen
    Hier besorgen wir uns die Adresse des Formulars. Das „edit“ müssen wir später entfernen
  3. Nun über „Add Item“Formularfelder je nach Bedarf einfügen. Als Typ eignet sich „Text“; ich verwende z.B. Felder für Art (Einchecken / Auschecken aus dem Fahrzeug), Datum, Uhrzeit, Standort,Batterylevel (einfach weil mich interessiert, wie voll derAkkustand des Geräts nach bestimmten Zeiten bzw. Fahrten ist). Ob man Datum und Uhrzeit überhaupt über ein Feld dediziert erfassen möchte, bleibt jedem selbst überlassen. In derProtokolltabelle in GoogleDocs wird sowieso derZeitstempel der Datenübermittlung automatisch in einer eigenen Spalte eingefügt

    Das fertige Formular - als Anregung
    Das fertige Formular – als Anregung
  4. Jetzt wird es etwas filigran: Oben auf „View live form“ klicken und über Rechtsklick –> Seitenquelltext anzeigen (o.ä., ich beziehe mich auf Google Chrome) den Quellcode des Formulars öffnen. Nun kurz volle Konzentration, um die sog. ID des jeweiligen Feldes zu ermitteln. Hierzu nach einer Quelltext-Zeile suchen, die der folgenden ähneln sollte: „<input type=“textname=“entry.1019673021value=““ class=“ss-q-shortid=“entry_1019673021dir=“autoaria-label=“Art title=““>“ Spannend ist hierbei der Wert „1019673021“ denn dieser ist besagteID, welche wir später inTasker für jedes zu füllende Feld benötigen

    Auf dem Weg zur ID der Formularzellen
    Auf dem Weg zur ID der Formularzellen
  5. Okay, der am PC durchzuführende Teil ist nun beendet. Es gilt nun auf dem Android Gerät Tasker zu starten und einen neuen Task anzulegen. Anschließend muss ein Aktion vom Typ „HTTP Post“ angelegt werden.Unter Server:Port die in Schritt 2 kopierte Adresse ohne abschließendes „/edit“ einfügen (also die ID des Formulars).
    Unter Path stes „formResponse“ eintragen,
    Unter Data / File gehören nun nacheinander mehrere Zeilen für die Befüllung der einzelnen Formularfelder mit den zugehörigen Daten. Hierzu über entry.ID das Feld ansprechen und diesem mittels = „Wert“ den entsprechenden Wert zuordnen. Die Werte besorgen wir neben der Verwendung von statischen Texten (z.B. „Ankunft am Auto“) über Tasker Variablen (Klick).In meinem Fall stehen wir hier nun also fünf Zeilen mit den Werten
    entry.1234567890=Enter Car
    entry.1234567891=%Date
    entry.1234567892=%Time
    entry.1234567893=%Loc
    entry.1234567894=%Batt

    Die Aktion in Tasker
    Die Aktion in Tasker
  6. Nun einfach die Aktiontestweise durch einen Klick auf den „Play“-Button unten links inTasker starten und auf GoogleDocs zuschauen, wie sich das für das Formular definierteZieltabellenblatt mit Werten füllt

    So könnte das Ergebnis im Praxisbetrieb aussehen
    So könnte das Ergebnis im Praxisbetrieb aussehen

Nun kann man natürlich noch ein paar Aufwertungen durchführen und z.B. die Übermittlung der Daten durch ein Popup oder ein Blinken der Kamera-LED bestätigen lassen. Außerdem muss die Aktion aus Tasker in Trigger mit einem NFC-Tag verknüpft werden, damit man die frisch definierten Aktionen auch in der Tat durch Bewegung des Smartphones zum Aufkleber auslösen kann.

Ferner schlage ich vor, die o.g. genannte Aktion unter Verwendung der gleichen Parameter (Copy & Paste ist ganz toll) zur Erzeugung einer zweiten Aktion zu verwenden, die dann genutzt wird, um ein Verlassen des Fahrzeugs zu erfassen. Hierzu sollte dann in der ersten Zeile nicht „Enter Car“ sondern z.B. „Leave Car“ eingetragen werden – alle sonstigen Felder bleiben 100%ig gleich. Ich benutze wie gesagt einen zweiten NFC-Tag zur Ansteuerung dieser Aktion, alternativ kann man mit sogenannten Schaltern arbeiten (1. Scan = Check In; 2. Scan = Check Out), aber das klappt nicht so toll, wenn man ab und an vergesslich ist. Eine weitere Möglichkeit stellt die Verwendung eines zusätzlichen Dialogs dar (im Tasker Jargon „Szene“ genannt), der durch das Scannen eines Tags geöffnet wird und den Aufruf verschiedener Aktionen mit Hilfe von Piktogrammen ermöglicht. In meinem Büro klebt z.B. ein NFC-Tag auf meiner Dockingstation, mit welchem ich einen Dialog öffnen lasse, über den ich Logeinträge für Kommen und Gehen erzeuge.

Druck auf die obere Schaltfläche: Ankunft; Druck auf die untere: Gehen.
Druck auf die obere Schaltfläche: Ankunft; Druck auf die untere: Gehen (damit assoziiert: entsprechende Aktionen in Tasker).

Außerdem habe ich die Erfahrung gemacht, dass %Loc als Standortangabe via letztem bekannten GPS-Fix manchmal nicht allzu toll für mich funktioniert. An einigen Stellen bin ich zur Verwendung von %Locn (Standort basierend auf genutztem Funkmast) übergegangen, was recht gut zu funktionieren scheint.

Eine bittere Pille gibt es noch: Ohne Root kann man die Aktivitäten nur dann auslösen, wenn das Telefon nicht gesperrt ist. Klingt erstmal doof, ist in der Praxis aus meiner Sicht aber zu verschmerzen. Außerdem rate ich davon ab den NFC-Tag z.B. in der Handyhalterung zu verbauen. Ich habe das mit meinem Kenu Airframe getestet und war nur sehr begrenzt zufrieden damit, da der Tag jedes Mal neu gescannt wurde, wenn ich das Telefon entsperrt habe .. dann doch lieber ein separater Ort für den Tag, an den man das Telefon kurz hält, bevor man es in die Halterung steckt.

Ich hoffe die Ausführungen waren einigermaßen gut nachvollziehbar und motivieren zum Nachbauen. Das Zusammenspiel der verschiedenen Softwarekomponenten und die Erhebung der Google Form IDs aus dem Quellcode ist sicherlich nicht ganz trivial, aber wenn man der Anleitung genau folgt, sollte es eigentlich keine Probleme geben. Ferner sei gesagt, dass das beschriebene Setup bei mir seit mittlerweile vier Monaten sehr zuverlässig funktioniert.

Das war es erstmal von den Android / NFC / Tasker-Basteleien Part I .. ein paar weitere Fingerübungen mit Google Docs und Google Script werde in einem separaten Folgebeitrag veröffentlichen.

Vergleich Fitbit Flex vs. Misfit Shine vs. Garmin vivosmart

Ein Schrittzähler als täglicher Motivator, als Begleiter am Tag und in der Nacht, an jedem Tag, bei jeder Sportart, zu jeder Zeit, Unterwasser genau wie in der Sauna .. klingt der Gedanke abwegig? Genau das ist für mich seit 1,5 Jahren der Fitbit Flex. Nach zuvor rund einem halben Jahr mit dem Fitbit Ultra brachte der Schwenk vom Gürtelclip zum Armband genau jene Integration in den Alltag, die ich mir erhofft hatte.

Von links nach rechts: Fitbit Flex, Misfit Shine, vivosmart S berry, vivosmart L grau
Von links nach rechts: Fitbit Flex, Misfit Shine, vivosmart S berry, vivosmart L grau

Nach kürzester Zeit war das Band unmittelbar über dem Handgelenk so normal, dass es mir gar nicht mehr auffiel und fortan wirklich immer dabei war. Bis auf wenige Nächte mit leerem Akku weiß ich seit jeher auch recht genau und auf Grund von nachvollziehbaren Bewegungsdaten, ob ich die letzte Nacht im Bett eher geschlafen oder doch eher schlecht geruht habe 😉 Über die Qualitäten des Fitbit Flex hatte ich bereits an früherer Stelle berichtet, und seit dem gibt es (glücklicherweise) wenig Neues zu sagen: Der Akku hält (meistens) immer noch rund sieben Tage durch und auch die Webschnittstelle und die Synchronisation mit dem iPhone verhalten sich zuverlässig und unauffällig.

Ein Eindruck mit Fitbit Webportal, genannt Dashboard
Ein Eindruck mit Fitbit Webportal, genannt Dashboard

Was mir sehr gut gefällt, ist die Integration des Dienstes MyFitnessPal, mit dem ich meine Kalorienaufnahme verfolgen kann. Mittlerweile reden MyFitnessPal, Garmin Connect (für meine Laufuhr) und Fitbit ganz hervorragend miteinander, so dass etwaige Übungen (z.B. durchs Joggen) und der zugehörige Kalorienverbrauch automatisch in MyFitnessPal verrechnet werden – absolut klasse, intuitiv und zuverlässig.

Man beachte die Notiz am unteren Bildrand: Durch das heutige Training hast du dir .. - erfolgt automatisch und ist sehr praktisch
Man beachte die Notiz am unteren Bildrand: Durch das heutige Training hast du dir .. – erfolgt automatisch und ist sehr praktisch

Nun gibt es leider auch ein paar Dinge, die ich am Fitbit Flex weniger toll fand. Fangen wir mit dem Aspekt an, der noch am leichtesten zu Verschmerzen ist: Bedingt durch die hohe Belastung (Wärme, Kälte, Schweiß, Wasser), wurde das Band nach etwas über 12 Monaten leider stark porös und brüchig. Während es optisch noch nahezu neuwertig wirkte, rissen die von mir am meisten benutzten „Laschen“ des Bandes ein, so dass ich irgendwann drohte das gute Stück zu verlieren. Glücklicherweise kann man hier mit Bändern in den unterschiedlichsten Farben schnell Abhilfe schaffen und dem Fitbit so sehr preiswert (~10€) und unkompliziert ein neues Design verpassen. Hier macht sich der Ansatz bezahlt, die Elektronik vom Armband zu separieren und so das „Teure“ vom eher Preisgünstigen zu trennen.

Etwas mehr nervte mich schon die „manchmal“ (fast immer) nicht allzu kontaktfreudige Ladeelektronik. Bereits nach rund sechs Monaten begann der Ladeprozess für den Tracker nur noch sporadisch zu funktionieren: Der kleine Stick wollte scheinbar in einem speziellen Winkel in seinen Ladeadapter eingeführt werden, oder der Ladeadapter selbst (er verfügt über einen USB-Anschluss) hatte einen Wackelkontakt. Auf jeden Fall war es immer wieder ein lästiges Schauspiel den Flex nebst Adapter irgendwie zwischen Netzteil und Wand zu klemmen, so dass das Gerät geladen wurde. Ging der Prozess erstmal los und lief länger als 10 Sekunden, war der Akku i.d.R. angenehm schnell (d.h. gefühlt in weniger als 2h) voll.

Das Fitbit Flex in seiner Lieblingsladehaltung
Das Fitbit Flex in seiner Lieblingsladehaltung

Während der temporäre Defekt des nicht mehr funktionierenden Vibrationsmotors (auf diese Weise bestätigt der Flex z.B. das Erreichen des täglichen Schrittziels oder die Aktivierung des Schlafmodus) von alleine wieder verschwand, zeigte mit der Tracker nach rund 15 Monaten, dass unsere Freundschaft bald ein Ende finden würde. Immer wieder ging er einfach aus (ohne vorherige Akkuwarnung und teilweise weniger als 1h nach dem Laden) oder statt des Ladevorgangs blinkten nur vier der fünf Lämpchen aufgeregt und über mehrere Stunden, bevor das Gerät irgendwann doch geladen wurde. Mal trat dieser Fehler alle paar Tage auf, dann klappte wieder alles wie gewohnt für einige Wochen.

Kurzum: Das Fitbit Flex überlebte seinen Vorgänger, für mich das Ultra, zwar deutlich, aber seine nicht wirklich überzeugende Qualität wurde ihm schließlich zum Verhängnis.

Eine weitere Sache die mich sehr störte, war die mangelnde Weiterentwicklung. Zwar erschien in der Zwischenzeit das etwas größere Fitbit Force (der glaube ich im Gegensatz zum Flex auch Stockwerke zählen konnte), doch blieb dies bei Fitbit die einzige für mich erkennbare Neuerung (Anmerkung: Das das Force, bevor er es überhaupt nach Deutschland schaffte, wegen Problemen mit dem Material des Armbandes wieder vom Markt genommen wurde, erzeugte nicht gerade weitere Begeisterung). Ansonsten sah es bei Fitbit aber abgesehen von der MyFitnessPal-Integration wirklich mau aus. Insbesondere wenn ich mir Danis Misfit Shine im Vergleich ansehe, kann man da schon neidisch werden: Alle paar Wochen bzw. Monate gab es hier irgendein größeres Update, das mehr oder weniger coole neue Funktionen brachte. So lernte der Shine nach einigen Monaten in unserem Besitz Schlafzeiten zur Nachtzeit automatisch zu erkennen, während ich den Flex weiterhin jeden Abend in den Schlaf klopfen und jeden Morgen aufwecken musste. Schade. Nebenbei sei angemerkt, dass Misfit auch ohne Probleme und kostenfrei ein neues Armband aus den USA schickte, nachdem Dani eine nachlassende Passform bemerkte.

Auch sonst ist der Shine absolut chic und macht optisch einiges her. Seine Batterielaufzeit (ca. 3 Monate) ist gut, er ist robust und er arbeitet absolut zuverlässig. Von der Qualität ist dieses Gerät – insbesondere gegenüber den Alternativen von Fitbit – ganz weit vorn.

Garmin vivosmart (vorn) im Vergleich mit dem Misfit Shine. Beide sind auf ihre jeweils eigene Art sehr ansehnlich
Garmin vivosmart (vorn) im Vergleich mit dem Misfit Shine. Beide sind auf ihre jeweils eigene Art sehr ansehnlich

Es zeichnete sich also ab, dass – bedingt durch den schwächelnden Flex – eine Änderung bevorstand. In diesem Zusammenhang beobachtete ich schon seit geraumer Zeit die Entwicklungen um das Razer Nabu, welches ich optisch und vor allem von der Funktion her (Weiterleitung aller Benachrichtigungen vom Smartphone an das Band) extrem interessant fand. Ein wenig skeptisch stand ich der Form und Art des Bandes gegenüber (es scheint ja eher steif zu sein .. vermutlich wie das Nike Fuelband), doch leider ließ sich dies – mangels Verfügbarkeit des Geräts – bisher nicht abschließend klären. Alternativ plante ich auf die Apple Watch zu warten, doch auch hier stört mich die mangelnde Verfügbarkeit bzw. der späte Zeitpunkt der Markteinführung. Die diversen Android Gear Geräte am Markt sehen zwar teilweise recht interessant aus, lassen in mir aber Zweifel ob der Tauglichkeit für sportliche Aktivitäten aufkommen. Außerdem ist das Verhältnis zwischen Crapdroid Android und mir eher angespannt.

Und dann war es ganz plötzlich da: Bei der üblichen Stippvisite auf der Garmin Webseite (mal schauen, was die für neue Fitness-Uhren haben) stolperte ich über das vivosmart. Mit Garmin verbindet mich schon seit Jahren eine einseitige, aber eigentlich enorm positive Freundschaft: Wir haben zur Zeit den dritten GPS-Receiver von Garmin zum Geocachen und auch meine Sportuhr (eine Forerunner 405) begleitet mich seit mittlerweile fünf Jahren und vielen vielen Trainingseinheiten nahezu ohne Probleme (okay, zwischendurch wollten die Ladekontakte mal gereinigt werden .. geschenkt. Dafür ist das Armband immer noch tadellos!). Darüber hinaus hat Garmin im Zuge der Einführung des vivofits sein Webportal (Garmin Connect) recht grundlegend renoviert, wodurch es jetzt sehr frisch und einladend wirkt. Da lag es doch eigentlich nah, dass Dreigestirn aus Fitbit, MyFitnessPal und Garmin um ein Element zu reduzieren.

Unerwartet schnell geliefert: Unsere vivosmarts
Unerwartet schnell geliefert: Unsere vivosmarts

Was mich am vivosmart aber am meisten reizte, war die Smartphone-Integration. Ohne an dieser Stelle zu sehr ins Detail gehen zu wollen (die Produktseiten des Herstellers sind eine prima Quelle für weitere Infos, falls benötigt), bietet das Garmin Fitnessband die Möglichkeit alle Benachrichtigungen (Notifications) des iPhones ebenfalls darzustellen – in kompakter Form, sehr zeitnah und begleitet von einer kurzen Vibration. In der Praxis funktioniert dieses Feature extrem gut, so dass vivosmart und iPhone nahezu gleichzeitig über z.B. eingehende Mails informieren. So kann ich im Meeting oder beim Joggen auch ohne Blick auf das Smartphone sofort erkennen, ob eine eingehende Mail oder ein ankommender Anruf wichtig ist .. absolut genial! Neben der zweizeiligen Darstellung der Informationen auf dem Display erfolgt übrigens auch eine taktile Rückmeldung in Form einer nach meinem Geschmack perfekt dosierten Vibration – deutlich wahrnehmbar, aber nicht nervig (und soweit bisher feststellbar akustisch so unauffällig, das andere Personen nicht gestört werden).

Darstellung von Benachrichtigungen - ungemein praktisch und sehr smart gelöst
Darstellung von Benachrichtigungen – ungemein praktisch und sehr smart gelöst

Auch ansonsten bringt das vivosmart viele Aspekte mit, die ich zur Zeit als nahezu perfekt bezeichnen würde. So gefällt mir die Verarbeitung sehr gut (hier sei z.B. der Garmin-Schriftzug in Edelstahloptik an der Unterseite genannt) und auch die Form und „Härte“ des Bandes sind sehr angenehm. Es ist nicht zu steif, aber auch nicht zu nachgiebig; besonders positiv finde ich im Gegensatz zum Fitbit Flex zudem die abgerundeten Kanten. Das vivosmart gleitet so sehr einfach unter Kleidungsstücke und verursacht auch keine hässlichen Kratzer, wenn es (wie bei mir häufig bei der Verwendung eines Schweißbandes an der gleichen Hand) in Kontakt mit empfindlichen Hautpartien (Stirn) kommt. Auch sonst wirkt das Band wertig und von den Abmessungen her sehr unauffällig (kleiner wäre mit Hinblick auf die Displaygröße vermutlich nicht gut). Einzig die Farbe finde ich in meinem Fall (grau) etwas trist – Danis pink ist da schon wesentlich peppiger. Leider ist das Band aktuell (soweit ich das auf die Schnelle geprüft habe) nur in grau und pink verfügbar. Die Länge meiner Version (Large) ist übrigens wesentlich größer als die L-Version des Fitbits .. hier kriegen auch Träger mit richtig dicken Unterarmen keine Probleme 😉

Vorn Garmin, hinten Fitbit Flex
Vorn Garmin vivosmart, hinten Fitbit Flex
Sehr schön ausgeführter Clip
Sehr schön ausgeführter Clip

Das Gewicht ist unauffällig und auf Augenhöhe mit den genannten Alternativen (vivosmart Large: ca. 20g, vivosmart Small: ca. 17g, Fitbit Flex Large mit Tracker: ca. 15g, Misfit Shine: ca. 15g).

Während ich die Hardware von Garmin stets recht überzeugend fand, ist die Software vielleicht nicht immer perfekt. Zwar ließen sich unsere beiden vivosmarts relativ schnell und unkompliziert in Betrieb nehmen, spätestens beim sofort verfügbaren Software-Update wird es dann aber etwas skurril: Vorbei die Zeiten von Updates über das iPhone .. nein, nein .. hier muss Garmin Express installiert werden, anschließend muss der Garmin Connect Account nochmals in Express eingerichtet werden und nachdem man dann herausgefunden hat, dass man das Fitnessband bei aktiver Verbindung via USB mittels langem Druck auf das Display in den USB-Modus versetzen kann, klappt in diesem dann auch das Update.

Ein genauer Blick auf Danis vivosmart in pink bzw. "berry". Sieht gut aus und fühlt sich auch gut an
Ein genauer Blick auf Danis vivosmart in pink bzw. „berry“. Sieht gut aus und fühlt sich auch gut an
Berry und sein Vorgänger (Misfit Shine) im Formvergleich
Berry und sein Vorgänger (Misfit Shine) im Formvergleich

Hier fragt man sich, ob man es dem unbedarften Neuling nicht auch einfacher machen kann.. Auch konnte ich den „Jetzt synchronisieren“-Knopf in der iPhone App noch nicht finden (im Menü des Bandes ist das einfacher) und ich frage mich, warum mein Kalorienziel (das in Garmin Connect durch die MyFitnessPal-Integration korrekt dargestellt wird) nicht mit dem vom vivosmart angezeigten Wert übereinstimmt. Auch sonst gibt es für mich noch 1,2 offene Fragen zum Thema Garmin Connect und Synchronisation, die aber vermutlich erst in einem Langzeittest abschließend geklärt werden können.

Ein Eindruck von Garmin Connect - mittels der Reiter oben könnte ich jetzt sofort auf die Aktivitätsübersicht meiner Forerunner wechseln
Ein Eindruck von Garmin Connect – mittels der Reiter oben könnte ich jetzt sofort auf die Aktivitätsübersicht meiner Forerunner wechseln

Bis dahin erfreue ich mich an der immensen Funktionsvielfalt (insbesondere im Vergleich mit den fünf leuchtenden Kugeln des Fitbit Flex), der Möglichkeit beim Laufen die Musikwiedergabe nun auch am Handgelenk steuern zu können und der hervorragenden Haptik des Geräts. Selten hat ein Gadget in den ersten Stunden der Benutzung zumindest aus Sicht der Hardware einen so positiven Eindruck auf mich hinterlassen.

Vivosmart an der soliden Ladeklemme. Macht bisher einen guten Eindruck
Vivosmart an der soliden Ladeklemme. Macht bisher einen guten Eindruck

Abschließend noch ein paar erste Gedanken zu den Eindrücken einiger Funktionen:

Für mich bisher völlig enttäuschend ist die Schlafanalyse. Von Danis Misfit Shine und auch von meinem Fitbit Flex bin ich gewohnt, dass die insgesamt als Schlaf markierte Zeit (beim Shine wird sie wie gesagt automatisch ermittelt, beim Flex muss man zu Beginn und Ende der Nacht kurz doppelt auf das Gerät tippen) hinsichtlich der realen Schlafqualität ausgewertet wird. Das mag jetzt – wie die Bewegungsmessung auch – nur bedingt genau sein, doch über Wochen und Monate hinweg ist es schon sehr interessant zu sehen wie gut man wirklich schläft und das eine vermeintlich kurze Nacht mitunter genau so viele Tiefschlafminuten beinhaltet, wie eine ausgedehnte Langschläfersession. Etwaige Ungenauigkeiten durch das geteilte Bett sind für mich dabei zu vernachlässigen. Tja, schade eigentlich, denn Garmin zeigt einfach nur die Minuten zwischen dem Zeitpunkt für „Ins Bett gehen“ (manuell markiert) und „Aufstehen“ (erneut manuell markiert). Für den Zeitraum dazwischen sieht man zwar lustige Aktivitätswellen, aber keine weiterführende Auswertung. Bilder sagen mehr als Worte.

Schlafanalyse bei Misfit Shine (links), Garmin vivosmart (mitte) und Fitbit (rechts) im Vergleich; wobei die von Misfit und Garmin analysierte Nacht jeweils die gleiche war (Dani hatte beide Tracker um)
Schlafanalyse bei Misfit Shine (links), Garmin vivosmart (mitte) und Fitbit (rechts) im Vergleich; wobei die von Misfit und Garmin analysierte Nacht jeweils die gleiche war (Dani hatte beide Tracker um)

Die Detailbetrachtung der Schrittaktivitäten ist solide und scheint grundsätzlich das gleiche zu leisten, was auch die Konkurrenz kann. Optisch finde ich die Nähe von Garmin und Fitbit bemerkenswert, Misfit macht einige Dinge anders (z.B. durch die Umrechnung in Aktivitätspunkte), bietet aber grundsätzlich die gleichen Informationen. Bezüglich der Genauigkeiten scheinen alle drei Tracker momentan recht nah beieinander zu sein, wenn gleich der Umrechnungsfaktor von Schritten in Distanz scheinbar recht stark variiert. Hier müssen wir für eine Aussage aber noch mehr Erfahrungen als 20h Benutzungsdauer sammeln. Bei einer ersten Laufsession hat das Garmin vivosmart bei mir eine sehr gute Figur gemacht: 12,94km laut Forerunner GPS-Aufzeichnung vs. 13,02km gemäß vivosmart.

Aktivitätsdarstellung bei Misfit, Garmin und Fitbit (von links nach rechts)
Aktivitätsdarstellung bei Misfit, Garmin und Fitbit (von links nach rechts)

Etwas schade ist übrigens, dass die Funktion zur Steuerung der Musikwiedergabe scheinbar zur Zeit nicht mit Spotify harmoniert. Zumindest in meinen bisherigen Tests konnte ich wild auf dem Armband herumdrücken, ohne das Spotify sich hiervon beeindrucken ließ. Dies klappt z.B. besser, wenn ich am Apple Headset oder meinem Bluetooth Sportheadset von Plantronics den Befehl für „Nächster Titel“ auslöse. Auch hier werde ich weiter beobachten..

Eine letzte Anmerkung noch zum Thema Benachrichtigungsweiterleitung: Dargestellt wird alles, was auch in der Mitteilungszentrale des iPhones angezeigt wird (Einstellungen –> Mitteilungen –> <In Frage kommendes Element> –> In Mitteilungszentrale anzeigen). Was hier sehr positiv auffällt, ist die Möglichkeit, eingehende Texte zu scrollen. Auch längere iMessages / WhatsApp-Nachrichten kann man auf diese Weise bis zum Ende lesen (klappt erstaunlich gut). Ferner war ich von der Bluetooth-Reichweite angenehm überrascht .. auch durch mehrere Wände hindurch halten Armband und Smartphone stabil die Verbindung und tauschen eifrig Informationen aus (iPhone lädt auf dem Nachtschrank, Benutzer nebst Band sitzt im Arbeitszimmer .. alles kein Problem!). Sollte die Verbindung doch mal verloren gehen, wird sie automatisch wiederhergestellt, wenn beide Geräte in einen adäquaten Abstand zueinander gebracht werden – über beide Vorgänge (also Trennung und Kopplung) informiert das vivosmart per kurzer, von einer Vibration begleiteter, Meldung.

Abschließende Bemerkung: Das Garmin vivosmart kostet zur Zeit bei einschlägigen Internetversandhäusern 169€. Unsere Exemplare sind regulär erworben und (leider ;-)) nicht gesponsert.

In eigener Sache: Redesign 2013

Dem ein oder anderen ist es sicher schon aufgefallen: SlashHo.me erstrahlt in neuem Glanz. Nach mehreren Jahren (ich vermute mal rund zwei bis drei Jahre waren wir mit dem bisherigen Outfit „chocotheme“ von CSS mayo unterwegs), wurde es endlich Zeit für etwas Neues.

Der Wunsch rein optisch zu renovieren bestand schon recht lang, doch mit den Anforderungen „klassisches“ Blog-Design (ich brauch keine Featured Posts, keine Imageslider und auch sonst die meisten Spielereien nicht), eine Seitenleiste (die finde ich doch ganz praktisch) und vor allem Responsiveness (d.h. adaptiv für unterschiedlichste Auflösungen und Displaygrößen) fallen doch recht viele WordPress-Vorlagen durch das Suchraster. So verbrachte ich über Monate hinweg – immer mal wieder – schon die ein oder andere Stunde damit, ein (für meine subjektive Wahrnehmung) ansprechendes Template zu finden.

Wie so oft ist mir der „Durchbruch“ jetzt mit Hilfe von Dani gelungen und dieses Mal stammt das gewählte Design auch ganz langweilig aus der internen Suche von WordPress. Ich hoffe nun eine Vorlage gefunden zu haben, die von den Entwicklern auch weiter gepflegt wird und daher hoffentlich das ein oder andere Update erfährt (war bei der bisher eingesetzten Lösung leider nicht der Fall).

Ansonsten hoffe ich mit dem leicht maritimen Hintergrund im Landhausstil (falls man sehr hell gestrichene Bretter in der Endlosschleife so nennen mag) und den dezenten Grün/-Türkistönen einen gefälligen Stil- und Farbmix gefunden zu haben. Entgegen der eigentlichen Vorlage habe ich den oberen Banner etwas verkleinert und die vermutlich so gut wie nie verwendeten Buttons (Über mich, Impressum etc.) mit einem dezenten CSS3-Gradient-Effekt versehen (da gibt es tolle Generatoren für: Klick). Auch bei den Darstellungsoptionen der Bilderkästen und -unterschriften habe ich die Vorgaben des Stripes & Blue genannten Designs leicht verändert – hoffentlich zum Positiven 😉

Und hier geschieht die Magie ;-) (so nebenbei bemerkt)
Und hier geschieht die Magie 😉 (so nebenbei bemerkt)

Mit diesem sommerlichen Outfit starten wir nun also in die schönsten Tage des Jahres .. und wie dem geneigten Leser sicher schon aufgefallen ist, tun wir dies mit der lange überfälligen Vervollständigung des Reiseberichts 2012, bevor es in den nächsten Wochen an dieser Stelle auch neue Eindrücke aus diesem Jahr geben sollte. Wie immer wünsche ich viel Spaß beim Lesen 🙂

P.S.: Entgegen der bisher eingesetzten Vorlage sind wir nun natürlich nicht mehr saisonal-unabhängig. Folglich kann das nun gewählte Design in dieser Form die Zeiten diesmal nicht unverändert überdauern 😉

Fitbit Flex: Die Rückkehr des Motivators

„Quantified Self“, die digitale Vermessung und Dokumentation von Vitalitätswerten und Aktivitäten ist ein durchaus spannendes Themenfeld, dass nicht nur aus gesundheitlicher Sicht Sinn macht, sondern auch den typischen Spieltriebs eines ITlers befriedigt. Als Folge dieser These könnte man sogar die gewagte Aussage treffen, dass die Aufzeichnung und Auswertung von Bewegungs- und Körperdaten den Spaß am Sport weiter steigert.

Soweit würde ich jetzt vielleicht nicht gleich gehen wollen; trotzdem finde ich die unauffällige Messung und Auswertung von Aktivitätsinformationen sehr interessant. Vor diesem Hintergrund kaufte ich mir (nach finaler Aufforderung von Dani) im September letzten Jahres meinen ersten „Fitbit Ultra“ und war sofort begeistert. Kompakte Abmessungen, eine gefühlt ewige Akkulaufzeit (10 Tage waren keine Seltenheit, danach genügten wenige Stunden, manchmal gar Minuten zum Laden) und eine sehr komfortable, drahtlose Synchronisation begeisterten mich.

Auch das Webinterface („Fitbit-Dashboard“) zur Auswertung der von der kleinen Wäscheklammern gewonnenen Informationen sagte mir sehr zu – klar, simpel, man sieht auf einen Blick, was interessant ist. Der einzige Konkurrent war zum damaligen Zeitpunkt übrigens das Nike Fuelband, dass jedoch am deutschen Markt nicht offiziell erhältlich war und für mich daher nach kurzer Überlegung ausschied.

Der Ultra und ich erlebten gemeinsam rund sieben spannende Monate voller Geocaching, Laufen, Skifahren und Wandern. Je nach Sportart zeigte er sich dabei hinsichtlich der gemessenen Distanz mal mehr, mal weniger synchron zu meiner Garmin Forerunner GPS-Uhr. Besonders beim Wandern harmonierten meine beiden Begleiter sehr gut, zeigten sie auf einer Distanz von ca. 20km doch weniger als 100m Abweichung. Weniger gut klappte die Entfernungsmessung beim Laufen, denn hier hatte ich regelmäßig eine Abweichung von ca 3km (zu wenig auf dem Fitbit) bei einer Gesamtstrecke von 8km. Ob zumindest die gemessene Schrittanzahl gepasst hat, kann ich nicht beurteilen.

Spannend fand ich neben den lustigen bunten Abzeichen im Dashboard jedoch stets die Beantwortung der Frage: Wo ist denn eigentlich mein Fitbit? Das Teil ist nämlich derart klein und unauffällig, dass man es (leider) allzu leicht vergessen kann. In der Waschmaschine zum Beispiel (wie meine Mama) oder im Mietwagen am Flughafen von Mallorca (wieder meine Mama). Beides verkraftet das Gerät übrigens nicht besonders gut, mag es doch fortan nicht mehr Laden oder ist gleich ganz verloren. Doch auch ich hab meinen Fitbit mindestens drei mal fast versetzt – in der Retrospektive war es reines Glück, dass er beim Aussteigen aus dem Auto jedes mal auf die Innenseite des Schwellers fiel.

Knallige Farben, lustige Abzeichen: Das Fitbit Dashboard (mir fehlt definitiv noch die Waage..)
Knallige Farben, lustige Abzeichen: Das Fitbit Dashboard (mir fehlt definitiv noch die Waage..)

Neben der mangelnden Wasserfreudigkeit und dem nicht immer ganz optimalen Tragekomfort (zumindest wenn als Klammer am Gürtel genutzt) stellte sich in meinem Fall die Langlebigkeit des Gehäuses als größte Schwachstelle heraus. Nach sechs Monaten der Benutzung begannen plötzlich Teile der Plastikklammer auf der Innenseite abzubrechen und vier weitere Wochen später hielt ich  das Innenleben des Trackers in der Hand. Schade. Ich versuchte noch zu retten, was zu retten war, doch leider wollte sich das Gerät fortan nur noch laden lassen, wenn man mit gefühlt 11 Fingern gleichzeitig Druck auf die richtigen Stellen des Gehäuses ausübte. Damit trennten sich die Wege des Ultras und mir .. und meine Mama gewann unseren Wettstreit im Dashboard über die meisten Schritte in den letzten sieben Tagen außerhalb jeder Konkurrenz.

Danach hörte ich in mich hinein und fragte mich: Fehlt dir jetzt was .. so ganz ohne Schrittzähler? Stört es dich das Dashboard aus den Favoriten zu entfernen, die App zu löschen, die tägliche Herausforderung „Schaffe ich heut meine 10.000 Schritte?“ kampflos aufzugeben? Insgesamt war der Verlust des kleinen Zählers offen gesagt nicht allzu schlimm. Auf Basis der gewonnenen Erfahrungen konnte ich mittlerweile ganz gut beurteilen, wie aktiv ich war, und zumindest beim Joggen leistet mir die Garmin Uhr ja nach wie vor sehr gute und unersetzliche Dienste. Trotzdem beobachtete ich die Entwicklung am Markt recht genau, und als das Fitbit Flex endlich verfügbar war, schlug ich sofort zu.

Beim Fitbit Flex handelt es sich um die Armband-Version des Trackers, welche hinsichtlich des Tragekomforts also eine ganz neue Richtung einschlagen sollte. Als gewohnheitsmäßiger Uhren- und Hemdträger fragte ich mich zwar seit Längerem ob der Flex hierzu kompatibel sein würde, aber wer nicht wagt, der nicht gewinnt. Also orderte ich das kleine „Bändel“ fix bei Amazon; glücklicherweise fand ich die schiefergraue Version schon die ganze Zeit interessanter – das schwarze Exemplar ist derzeit nämlich nicht bzw. nur sehr stark limitiert lieferbar.

So sieht das Ding am Handgelenk aus
So sieht das Ding am Handgelenk aus

Einen Tag später wurde Fitbits neueste Kreation dann auch bereits in die Packstation meines Vertrauens geliefert und ich begann Augenblicke später mit dem Auspacken und der Begutachtung. Was sofort auffällt ist die nette Verpackung (zweckmäßig, aber ansprechend) und der vergleichsweise respektable Lieferumfang (es werden gleich zwei Armbandgrößen mitgeliefert). Auch die Ersteinrichtung des Geräts gestaltet sich (wie bei Fitbit üblich) recht einfach, und so beginnt das Gerät wenige Minuten nach seiner Befreiung mit der Aktivitätsaufzeichnung. Das Anlegen am Handgelenk gestaltet sich wie zuvor bereits gelesen etwas knifflig, gelingt dann aber doch recht gut (nach rund zwei Wochen kann ich sagen: Absolut problemlos). Das Tragegefühl ist zunächst leicht ungewohnt aber tatsächlich recht angenehm. Das Armband ist leicht, das Gummi geruchsneutral und die Haptik durchaus ansprechend. Schnell finde ich eine angenehme Weiteneinstellung und nachdem die grundsätzliche Funktionsfähigkeit gegeben ist, gehe ich mit dem Flex gleichmal auf eine 9km Laufrunde ins Wochenende. Nach den ersten 500m bei 25°C Außentemperatur schmiegen sich Band und Arm angenehm aneinander, so dass ich den Flex ein wenig auf Spannung nach oben schiebe und ihn fortan kaum noch spüre. Kaum bin ich eine Stunde später wieder zu Hause, habe ich das Schrittpensum für diesen Tag fast erfüllt und beginne den nächsten Test: Der Flex soll ja wasserfest sein. Ergebnis: Ist er scheinbar; trotzdem bleiben Feuchtigkeitsspuren im Armband .. muss also nicht dauerhaft sein.

Schiefergrau, kompakt, dezent (im Hintergrund die Ladeeinrichtung)
Schiefergrau, kompakt, dezent (im Hintergrund die Ladeeinrichtung)

Doch dieser kleine Makel bringt mich auch gleich zu einem der (aus meiner Sicht) größten Vorteile des Trackers gegenüber seinem Vorgänger und gegenüber diversen Marktbegleitern: Er ist modular. Endlich kann ich die (gekappselte) Elektronik aus dem Band lösen und damit den „wertvollen“ Teil sehr leicht vom „verzichtbaren“ Part trennen. Dies ermöglicht es nicht nur schnell zwischen verschiedenen Armbandfarben zu wechseln (so selbige denn mal verfügbar sind), sondern verringert auch die Folgen von etwaigen „Gehäuseschäden“. Genau das, was meinem alten Ultra das Genick gebrochen hat, sollte sich also in Zukunft nicht wiederholen. Diese smarte Weiterentwicklung gefällt mir mindestens so gut wie die drahtlose Synchronisation, welche im Gegensatz zu meinem alten Tracker nun endlich auch via Bluetooth 4.0 und damit dem iPhone klappt. Dies funktioniert derart reibungslos, dass mich das fehlende Display des Flex kaum stört. Die chic animierten 5 Kugeln zeigen mir ganz grob den Tagesfortschritt; alles Weitere kann ich problemlos wenige Sekunden später auf dem iPhone-Display ablesen. Trotz der minimalistischen Art der Informationsauskunft macht es übrigens immer wieder Spaß auf das kleine Gerät zu tatschen und die „elegante“ Fortschrittsanimation anzuschauen.

Tracker außerhalb des Armbands - hier mit gerade aktivierter Fortschrittsanzeige
Tracker außerhalb des Armbands – hier mit gerade aktivierter Fortschrittsanzeige

An dieser Stelle ist mir übrigens völlig unerklärlich, wie man die gerade zu anachronistische Synchronsation eines Jawbone UP (Klinkenstecker) bevorzugen kann.

Ansonsten verliefen die ersten Tage mit dem Flex erwartungsgemäß unkompliziert .. alles funktionierte wie es soll, und wenn das Gerät nach 10.000 Schritten am Tag fröhlich vor sich hin brummt, fühlt man sich gleich ein wenig besser. Das das Flex im Gegensatz zum Ultra (und seinem Nachfolger, dem One) keine Stockwerke zählen kann, finde ich ebenso erträglich wie die aus meiner Sicht nicht ganz optimale Datenbank zur Nahrungsmitteleingabe. Wer hier mehr möchte, dem sei der kostenlose und auch in Deutsch verfügbare Service von MyFitnessPal ans Herz gelegt! Dieser synchronisiert sich im Hintergrund vollautomatisch mit den Aktivitätswerten von Fitbit und bietet daher eine smarte Vermaschung von Kalorienaufzeichnung und sportlichen Unternehmungen – ganz unkompliziert und sehr gut funktionierend! MyFitnessPal bietet übrigens neben einem recht gelungenen WebInterface (an einigen Stellen noch mit englischen Satzfetzen behaftet) und einer recht umfangreichen Nahrungsmitteldatenbank auch eine gute iPhone-App, die kostenpflichtigen Alternativen (wie z.B. dem ShapeUp-Club, den ich selbst auch schon mal benutzt habe) in Nichts nachsteht.

Screenshot der MyFitnessPal App - man beachte die automatisch aus Fitbit übertragenen Kalorien für Trainings
Screenshot der MyFitnessPal App – man beachte die automatisch aus Fitbit übertragenen Kalorien für Trainings

Der Tragekomfort des Geräts ist am „nackigen“ Arm (d.h. mit T-Shirt und damit ohne verhüllenden / drückenden Stoff drüber) sehr gut. Auch unter einem Businesshemd verhält sich der Flex unauffällig, neigt jedoch (wie eine Armbanduhr auch) dazu zu drücken, wenn er beim Tippen auf der Handballenauflage der Tastatur liegt. Grad in diesem Moment schmiegt er sich zum Beispiel relativ unangenehm an den Aluminium-Body meines MacBooks; dieses Problem habe ich an der heimischen Tastatur nicht so intensiv. Die Erfahrung von weiteren zwei Wochen des täglichen Gebrauchs sagt hier: Man gewöhnt sich an alles. Mittlerweile sucht sich das Armband ganz unmerklich seine Positiv und verrichtet absolut unauffällig seinen Dienst. Einzig beim Überziehen des Jackets merkt man die kleine Verdickung am Handgelenk etwas (die Gehäusekante hätte aber durchaus auch etwas abgerundeter ausfallen dürfen). Als positiven Effekt des unauffälligen Tragens kann ich zudem festhalten, dass auch die Aufzeichnung der Schlafinformationen mit dem Flex Spaß macht und man dies fortwährend tut – mit dem Ultra verließ mich hier nach spätestens fünf Nächten die Lust ob des relativ sperrigen Armbands. Apropos Fitbit Ultra: Dessen Akkulaufzeit erreicht das Flex erwartungsgemäß nicht ganz. Nacht ca. 4 – 6 Tagen möchte das kleine Plastikriegelchen in seiner proprietären Halterung geladen werden, was für mich aber kein Problem darstellt. Auch nach der ersten „Akkustand ist niedrig“-Meldung hält das Gerät noch einige Stunden durch und ein paar Momente der Inaktivität, in denen der Tracker sich wieder auflädt, finden sich immer.

Fitbit Flex - auch beim Cabriofahren unauffällig zu tragen
Fitbit Flex – auch beim Cabriofahren unauffällig zu tragen

Was bleibt? Prinzipiell bin ich mit dem Fitbit Flex sehr zufrieden und finde die Umsetzung in Form eines Armbands recht gelungen. Je nach Einsatzzweck und persönlichen Präferenzen lässt sich der Fitbit One (bei gleichem Preis und gerüchteweise besserer Messgenauigkeit) jedoch möglicherweise besser in den Alltag integrieren. In jedem Fall störe ich mich ein wenig an der Vielzahl mitgeführter Geräte: Smartphone (für die Erreichbarkeit und aktuell für Zombies Run nebst musikalischer Begleitung), GPS-Uhr (zur genauen Aufzeichnung von Strecke, Geschwindigkeit und Puls) und Bewegungstracker zur Aufzeichnung der Aktivitätsinformationen sind nach meiner Ansicht etwas zu viel des Guten. Konsolidierung wäre hier das Schlagwort und mein Gedanke zum Abschluss lautet daher: „Apple, bitte versaut es mit einer iWatch nicht“.

Erneuerung unseres HomeNAS

Achtung, schon wieder so ein IT-Beitrag .. diesmal über Netzwerkspeicher

Ein großer Freund des ITlers ist in der Regel ein Netzwerkdatenspeicher, der möglichst ressourcenschonend vergleichsweise große Datenmengen bereitstellen kann, die dann hoffentlich auch noch relativ sicher vorgehalten werden. In diesem Kontext setzen wir als „Datengrab“ seit knapp vier Jahren einen Scaleo Homeserver des Typs 2205 von Fujitsu ein, der auf Windows Home Server basiert und uns allzeit gute Dienste geleistet hat.

In der Tat ist es beeindruckend, wie stabil, wartungsarm, leise und erweiterbar (immerhin vier Steckplätze für 3,5″ Festplatten) das vergleichsweise kostengünstige Gerät uns über die Jahre hinweg immerhin vier TB Speicherkapazität zur Verfügung gestellt hat. Windows Home Server gab sich dabei eigentlich immer recht problemfrei – der (konzeptbedingt) fehlende VGA-Anschluss am System war nie eine Schwierigkeit. Doch wachsende Datenmengen und eine Evolution der sonstigen Infrastrukturteile (Windows 7 bzw. Windows 8) ließen eine immer größere Lücke zum vergleichsweise alten Home Server auf Basis von Windows Server 2003 entstehen. Darüber hinaus machten mir die verwendeten Festplatten zunehmend Bauchschmerzen, die zwar allesamt noch nie versagt haben, aber in den bereits genannten vier Jahren sicherlich schon die ein oder andere Betriebsstunde leisten mussten. Das ich die Spiegelungsfunktion von WHS aus Platzgründen dabei sträflicherweise nur für die wichtigsten Daten aktivierte hatte, machte meinen Nachtschlaf nicht eben besser.

Gleichzeitig fiel mir seit geraumer Zeit auf, dass mein stylisher Virtualisierungsserver im fast kubistischen Lian Li Gehäuse zusehends in der Ecke verstaubt, da ich bedingt durch neue Tätigkeitsschwerpunkte nahezu keinerlei Test-Setups mehr aufbauen muss. Über mehrere Monate hinweg reifte daher der Gedanke den WHS als Massenspeicher abzulösen und eine passende Anschlussverwendung für den ehemaligen Virtualisierungsserver zu finden. Die Ziele hierbei waren die Weiterverwendung der bestehenden Komponenten (soweit möglich und sinnvoll), ein möglichst geringes Geräuschniveau im Betrieb und eine  verbesserte Datensicherheit. Irgendwie (…) reifte in meinem Kopf daher der Gedanke vier große Platten zu kaufen und diese in einem RAID-5 Array zu verschalten. Da der On-Board-Chip des eingesetzten Mainboards diesen RAID-Modus nicht kann, entschloss ich mich nach einiger Recherche dazu den Dawicontrol 624e anzuschaffen, welcher vier SATA3-Ports bietet, über PCIe angebunden wird und alle gewünschten RAID-Spielarten beherrscht.

Nach längeren Diskussionen und mehrmaliger Aufschiebung des gesamten Vorgehens war es dann irgendwann so weit: Alle Komponenten waren vorhanden und der Umbau konnte losgehen. Da das von uns eingesetzte Lian Li V350 intern über nur zwei 3,5″ Schächte verfügt, plante ich die weiteren Platten in den externen 5,25″ Buchten zu verbauen. Das dies (mit Hinblick auf den externen Charakter eben dieser) eigentlich ohne optische Katastrophen nicht klappen kann, ignorierte ich zu diesem Zeitpunkt munter. Hoch motiviert öffnete ich also das Gehäuse, entfernte die alten Festplatten, verbaute zwei der neuen Disks nebst entsprechender Entkopplung und freute mich über das Werk. Da ja dieses Mal alles besonders toll werden sollte, beschriftete ich sämtliche Festplatten mit meinem geliebten Dymo und schrieb sogar fein säuberlich auf die SATA-Kabel welchem Bestimmungszweck sie dienen.

Umbauchaos - im Hintergrund der alte Server, im Vordergrund der "Neue"
Umbauchaos – im Hintergrund der alte Server, im Vordergrund der „Neue“

Irgendwann kam ich dann an den Punkt, an dem ich die verbleibenden Laufwerke gemeinsam mit dem Sharkoon Vibe Fixer III in den 5,25″-Schächten verbauen wollte. Dazu befestigte ich die „Adaptergummis“ zu erst an den Festplatten, was noch problemlos klappte. Auch die testweise Montage der so vorbereiteten Disks in den Montageschienen hinterließ einen sehr guten Eindruck – hier hat Sharkoon für wenig Geld ein wirklich tolles Produkt am Start. Leider verdüsterte sich meine Miene kurze Zeit später, als ich (mit sehr wenig Vorausplanung) die Schienen im Gehäuse verbaute. Nutzte ich die vorgesehenen Schraublöcher, würden die 5,25″ Blenden keinen Platz mehr finden (wie überraschend …) und das Gehäuse stünde einfach offen. Also baute ich mal eben noch das Netzteil aus (so ein Lian Li Cube ist wahnsinnig wartungsfreundlich…) und schaute, ob man die Adapterschienen nicht „mittig“ verbauen kann. Keine 20 Minuten, ein wenig Gefriemel und einige Flüche später waren die Schienen auf der Innenseite des Gehäuses montiert und saßen mit spontan gefundenen Schrauben gut gesichert fest.

So werden aus externen 5,25" Einbauplätzen interne ;-)
So werden aus externen 5,25″ Einbauplätzen interne 😉

Leider ließ sich diese tolle Lösung nicht auf die zur Gehäusefront hin gewandten Seite anwenden, da man hier schlicht und ergreifend keine Schraube von Außen eindrehen kann (man kommt nicht ran, da das Befestigungskonzept von Lian Li dies nicht vorsieht und die Stirnplatte zudem genietet ist). Trotzdem war das Gesamtergebnis aus meiner Sicht akzeptabel, denn eine Schienenseite saß fest, die andere hatte nur wenig Spiel und durch die breiten Dämpfer hingen die Laufwerke so stabil in der Konstruktion, dass eigentlich nichts passieren konnte.

Sitzt, passt und wackelt nicht zu sehr
Sitzt, passt und wackelt nicht zu sehr

Nachdem der Hardware-Teil nun also erledigt war (zumindest dachte ich das) ging es an die Software. Schnell war die Windows Server 2012 Installations-DVD bereit und ebenso schnell fand ich mich im Setup wieder. Dieses durchlief ich routinemäßig und legte eine 100 GB große Partition für das System an – den Rest des Platzes konnte ich ja später zuweisen. Als Windows dann wenige Minuten später lief, hatte ich ein unangenehmes Meeting mit der Datenträgerverwaltung. Diese wollte mich nur genau eine weitere Partition anlegen lassen und diese durfte auch nur maximal 2 TB groß sein. Nanu? Das das Startlaufwerk bei Verwendung eines MBR maximal 2TB groß sein darf verstehe ich ja, aber gilt diese Limitation für alle Partitionen des Laufwerks? Na klar .. der MBR gilt ja für die gesamte Disk (und das RAID stellt sich für Windows ja als ein großes Laufwerk dar) und somit gelten die genannten Einschränkungen auch für alle Partitionen. Lösungswege? Variante 1: Neues Board mit UEFI Unterstützung kaufen – dieses kann auch von GPT-Laufwerken booten, die größer als 2 TB sein dürfen (hätte jedoch auch neuen RAM und eine neue CPU bedingt, da es nicht so viele UEFI-fähige Boards mit DDR2 und AM2+ gibt), oder Variante 2: Dediziertes Startmedium. Den Ankauf eines PCI-Slot auf 2,5″-Einbauschacht-Adapters (total cooles Teil für weniger als 10€) und eine SSD später lief Windows dann wie es sollte und präsentierte mir stolz ein Laufwerk mit 8 TB Kapazität.

Eine schöne Lösung, wenn die Einbauplätze zur Neige gehen
Eine schöne Lösung, wenn die Einbauplätze zur Neige gehen

Neugierig suchte ich nach einem Benchmarking-Tool für das Array und ließ wenige Augenblicke später HDTune darauf los – Ergebnis: Klasse. Auch der erste Kopiervorgang zur Migration vom bisher verwendeten Datenspeicher über das Netzwerk lief vielversprechend mit konstant 60 MB/s an; gleiches galt für einen Test von der SSD auf das RAID (konstant über 200 MB/s). Wow, ich glaubte, alles wäre prima. Meine Wunschvorstellung endete ca. 5GB später, als das System aufhörte die Daten zwischenzuspeichern und mit der eigentlichen Schreibarbeit auf den Platten begann. Plötzlich stellten sich reproduzierbar Transferraten von 8-12MB/s ein, teilweise sogar weniger. Nanu, was war los? Eigentlich hatte ich die Strip Size mit 128 kB (mehr kann der Controller doch nicht) optimal für große Dateien gewählt, das Alignment passte laut gängiger Tools auch und auch die Clustergröße des NTFS-Volumes war mit 64 kB gar nicht so doof. Doch irgendwie wollte es nicht. Es ergab sich eine Irrfahrt, während der ich nach viel goggeln per Trial and Error alle möglichen Kombinationen aus Strip Size des RAIDs und Cluster-Größe des NTFS-Volumes nach der bestmöglichen (Schreib)-Performance suchte. Als Test verwendete ich eine 10GB große Datei, die ich von der System-SSD auf das RAID-Array kopierte. Nacheinander teste ich die folgenden Varianten mit unterschiedlichem Erfolg:

Stripe Size: 128 kB
64 kB Cluster Size:8 - 12 MB/s
32 kB Cluster Size:8 - 12 MB/s
Stripe Size: 64 kB
64 kB Cluster Size:26 MB/s
32 kB Cluster Size:28 MB/s
Standard Cluster Size:23 MB/s
Stripe Size: 32 kB
64 kB Cluster Size:29 MB/s
32 kB Cluster Size:28,5 MB/s
Standard Cluster Size:25 MB/s
Stripe Size: 16 kB
64 kB Cluster Size:29 MB/s
32 kB Cluster Size:28 MB/s

Von nun an begann der große Rätselraten. Ich entschloss mich daher dazu den Mythos „RAID5 auf vier Disks ist doof“ zu untersuchen und kam mit nur drei Laufwerken zu folgenden Ergebnissen:

Stripe Size: 128 kB
64 kB Cluster Size:12 MB/s
32 kB Cluster Size:12 MB/s
Stripe Size: 64 kB
64 kB Cluster Size:29 MB/s
32 kB Cluster Size:30 MB/s
Stripe Size: 32 kB
64 kB Cluster Size:28 MB/s
32 kB Cluster Size:29 MB/s

Wie man sieht, ist die Auswirkung (zumindest mit Hinblick auf die von mir eingesetzten Laufwerke mit relativ wenig Cache und 5900 Umdrehungen / Minute) eher überschaubar. Deutlich spaßiger ist die Verwendung eines RAID10 Arrays, bei dem ich testweise ganz bequem die Performance der SSD ausnutzen konnte – leider unter Verlust von weiterem Speicherplatz.

300 MB/s Schreibgeschwindigkeit wären schön gewesen - RAID10
300 MB/s Schreibgeschwindigkeit wären schön gewesen – RAID10

Zähneknirschend entschloss ich mich also dazu ein RAID5-Array mit 32 kB Strip Size und 64 kB großen Zuordnungsdateien zu verwenden und begann ein weiteres Mal mit der Datenmigration. Diese lief mehr oder weniger stabil mit rund 30 MB/s durch und ließ mir daher viel Zeit zum Grübeln. Worte wie „Fake RAID“, „macht man nicht mehr“, „ZFS“ und „RAIDz“ schossen mir durch den Kopf. Also goggelte ich nochmal nach alternativen Lösungen und entschloss mich kurzer Hand dazu das System mit Nas4Free auf FreeBSD-Basis neuzuinstallieren (wenn nicht jetzt, wann dann?). In gewohnter Linux / UNIX / BSD Manier ging die Basisinstallation extrem schnell und auch vergleichsweise komfortabel von der Hand – theoretisch hätte ich das Ganze auch direkt vom USB-Stich betreiben können (ich wollte aber eine Vergleichbarkeit gewährleisten). Nach dem Setup nahm ich einige Optimierungen gemäß verschiedener Foreneinträge (siehe z.B. hier) vor und Begann mit der Erstellung des Pools (Kurzform: Laufwerke hinzufügen, Laufwerke für ZFS formatieren, virtuelles Gerät anlegen, Pool anlegen, fertig .. siehe NAS4Free Doku, alles ganz einfach). Danach noch fix die Daten-Partition der SSD eingebunden (für’s Benchmark), CIFS aktiviert und konfiguriert, SSH aktiviert und konfiguriert und schon konnte es losgehen.

Ready when you are - Wärmer als 40°C werden die Disks auch nach Stunden intensiver Nutzung nicht
Ready when you are – Wärmer als 40°C werden die Disks auch nach Stunden intensiver Nutzung nicht

Das Ergebnis war von Anfang an sehr beeindruckend: Deutlich über 100MB/s von der SSD auf das RAIDz-Array und auch vom bisherigen Homeserver auf das neue NAS wurden die Fähigkeit des alten Systems (Senderichtung ca. 65 MB/s) konstant ausgenutzt. Dazu kamen das klare Interface von NAS4Free, die vielfältigen Möglichkeiten und das vergleichsweise ressourcenschonende Betrieb. Nachdem ich nun das Hardware-Setup des Windows-Systems 1:1 unter BSD getestet hatte, begann ich damit den Server zurückzubauen. RAID-Controller raus, 128 GB SSD gegen 32GB Cache SSD getauscht, NAS4Free ein weiteres Mal installiert und siehe da: Unveränderte Performance. Nach sehr viel Bastelei und Troubleshooting entschloss ich mich dazu Gedanken wie SSD-Caching zu verwerfen und setzte das System endlich wieder zusammen.

Performance-Messung mit dem guten alten Midnight Commander (und falschem Char Set)
Performance-Messung mit dem guten alten Midnight Commander (und falschem Char Set)

Im Weiteren galt es dann noch so Kleinigkeiten wie Wake up on LAN (sollte man dringend auf „WOL_Magic“ und nicht „On“ stellen, sonst geht der Server ständig wieder an 😉 ) und den pyloader (Alternative zum jDownloader mit hervorragender Chrome-Integration, wenn man folgenden Bug in Version 0.4.9 beachtet: Link) zum Laufen zu bringen .. aber dies war eher die Kür 😉

Sehr komfortabel: pyload Extension für Chrome
Sehr komfortabel: pyload Extension für Chrome

Aktuell läuft die Datenmigration ein drittes Mal (ich habe mich dazu entschieden diese vom alten System aus mittels FastCopy durchzuführen) und zum derzeitigen Zeitpunkt bin ich mit dem System, der Performance und dem Verlauf sehr zufrieden. Eine „High-End“-Lösung mit Hot-Swap fähigen Platten und einem Hardware-RAID-Controller wäre sicherlich schöner, würde aber möglicherweise ein wenig über das Ziel hinausschießen. Eine andere Option wäre die Verwendung von Standardgeräten ala Synology oder Qnap, aber ich fand den Gedanken etwas Eigenes zu bauen an dieser Stelle einfach recht reizvoll. Ob das System auch wie geplant arbeitet, gibt es wie gewohnt an späterer Stelle hier zu lesen.

HTPC 21 – Abschluss einer Langzeitbaustelle

Warnung vorab: Endlich mal wieder ein IT Beitrag. Wer keine Lust auf die Themen HTPC, MediaPortal, XBMC hört an diesem Punkt besser auf zu lesen 😉

Wie hier bereits an der ein oder anderen Stelle beschrieben, verwenden wir im Wohnzimmer einen selbst gebauten HTPC zum Zugriff auf die heimische Mediendatenbank und bis vor unserem Umzug auch zum Fernsehen via DVB-S2. Letzerer Task liegt mittlerweile in der Hand des HD-Recorders von Unity Media, den es quasi kostenattraktiv dazu gab und der – für die ca. 5h TV die wir im Monat schauen (Formel 1 .. das war’s eigentlich auch) – völlig ausreichend ist und einen guten Job macht.

Nahezu täglich kommt dagegen unser Bastelobjekt zum Einsatz .. und das tut es seit fast vier Jahren nur bedingt optimal. In der langen Zeit unseres gemeinsamen Zusammenlebens gab es ja schon so einige Änderungen an der „Kiste“, die unsere Zufriedenheit zumindest ein wenig gesteigert haben – trotzdem war ich nie wirklich zufrieden mit dem Gesamtsetup. Nachdem nun der Umzug gemeistert war und ich, bedingt durch eine längere Dienstreise Danis ein wenig Zeit hatte, ergab sich endlich die Gelegenheit hier Hand anzulegen. In diesem Zusammenhang habe ich als mehrjähriger MediaPortal-Benutzer schon lange über die fremde Welt „XBMC“ nachgedacht. Klang ja alles ganz nett, gab auch tolle Screenshots .. aber den Mut hatte ich dann doch nicht. Bedingt durch das Release 12 von XBMC (bzw. 12.1; „Frodo“) und einen interessanten Artikel im MediaPortal Forum) schöpfte ich neue Motivation den Umstieg doch mal zu wagen. Zu interessant sahen die Screenshots aus, zu spannend fand ich die Aussagen bezüglich „erheblich besserer Performance“. Auf der anderen Seite las ich immer wieder negatives Feedback von Umsteigern zur angeblich deutlich schlechteren Bildqualität von XBMC unter Windows und das man hier ja soviel von Hand einstellen müsse.

Okay, grau ist alle Theorie und so versuchte ich das, was vor ca. zwei Jahren bereits gescheitert ist, erneut und erstellte eine Live-CD (bzw. einen Live-USB-Stick). Dies war schnell getan und entgegen meiner alten Erfahrungen (keine Ahnung welche XBMC-Version das damals war) bootete das System nun tatsächlich bis zum Startbildschirm durch. Aha .. das ist also XBMC. Völlig unlogisch stand für mich zu erst der optische Aspekt im Vordergrund und so wollte ich zunächst den oft gerühmten Skin „Aeon Nox“ testen. Die Installation desselben über die integrierte, grafisch-eingebettete Menüführung von XBMC ließ sich zwar recht schnell anstoßen, doch irgendwie verblieb die Fortschrittsanzeige mit viel Ausdauer bei „0%“. Nagut, eine erste Bestandsaufnahme verlief dennoch erfreulich: Die Hardware wurde soweit vollständig erkannt, ein Zugriff auf meine SMB-Freigaben klappte fix, die Fernbedienung funktionierte und eine Audio-Übergabe über HDMI an den AV-Receiver klappte auch. Nach diesem extrem intensiven Test, der ca. 10 Minuten dauerte, kam ich also zu dem fundierten Schluss (Achtung, Ironie), dass eine Installation auf die lokale Platte eine gute Idee wäre. Dieser Augenblick besiegelte dann auch das Ende meiner MediaPortal-Installation (fairerweise muss ich gestehen, dass ich vorher ganz feige ein Image der Festplatte erstellt habe). Augenblicke später war XBMC vom Live-Stick aus direkt auf der SSD installiert und nach einem schnellen Reboot fand ich mich mitten in der XBMC-Welt wieder. Ein wenig später lief auch Aeon Nox und ich war grundsätzlich erstmal positiv angetan.

XBMC unter Linux - es geht los
XBMC unter Linux – es geht los

Grundsätzlich .. denn irgendwie gab es noch das ein oder andere Problem. Blöd fand ich zum Beispiel, dass das LD-Display meines Gehäuses (Antec Fusion) unbedingt dunkel bleiben wollte. Blöd fand ich auch, dass die frische XBMC-Installation so gar keine Lust hatte in den Standyby-Mode (S3) zu fahren und aus diesem wieder erfolgreich aufzuwachen. Letztlich war es auch nicht so schön, dass die Video-Wiedergabe extrem ins Stocken geriet, sobald ich den AV-Receiver abschaltete. Aber diese rationale Zusammenfassung gelingt mir natürlich erst jetzt, in der Retrospektive, und so bastelte ich in bester Linux-Manier viele lustige Stunden im Schneidersitz vor dem 46″-LCD sitzen an den Problemen herum (SSH ist doch für Mädchen…). Irgendwann lief das Display sogar und ich fühlte mich ganz kurz vor glücklich. Leider war die Scroll-Geschwindigkeit der Zeichen derart schnell, dass einem drohte schlecht zu werden. Zwar gab es auch hierzu Code-Anpassungen, die bei mir jedoch auch nach mehrmaligem Neucompilieren einfach nicht greifen wollten .. schade. Irgendwann kam ich zu dem Schluss, dass ich schon wieder mehr Frickelte als ich wollte und mir kamen leichte Zweifel zur Zukunftstauglichkeit der Installation. Also beendete ich die Arbeiten für diesen Tag und beschloss am nächsten Tag wieder von Neuem zu beginnen.

Einige Stunden später fand ich mich also im Setup von Windows 8 wieder .. erstmal eine vertraute Basis schaffen. Die nächsten Schritte, geprägt von der Windows-Grundeinrichtung, der Konfiguration des automatischen Logins (Google hilft), der Installation von Konfiguration von Classic Shell (zur Administration einfach leichter, Google hilft) und der Integration von XBMC für Windows in den Autostart (Ausführen –> shell:startup) überspringe ich an dieser Stelle einfach mal. Nach relativ kurzer Zeit lief XBMC, mein favorisierter Skin funktionierte ebenfalls, die Video-Wiedergabe klappte und nach der Installation der passenden IMon-Version (grausam) wurde auch das Display weitestgehend korrekt angesteuert. Ein „paar“ Optimierungen in der Benamung unserer Medien-Dateien konnten die in XBMC integrierten Scrapper auch augenscheinlich alle Inhalte unserer lokalen Bibliothek korrekt zuordnen und ich hatte quasi den Zustand des Systems unter MediaPortal wiederhergestellt. Tatsächlich lief nun alles etwas schneller, das Aussehen gefiel mir besser und auch die Idee der Konfiguration der gesamten Installation über EIN GUI war durchaus charmant (die Plugin-Verwaltung von MediaPortal um mal wieder irgend eine suboptimal benannte Mediadatei, die falsch zugeordnet wurde, wieder zu korrigieren, werde ich definitiv nicht vermissen).

XBMC Gesamtsetup im Betrieb - ist doch ganz nett
XBMC Gesamtsetup im Betrieb – ist doch ganz nett

Allerdings blieben ein paar der alten Probleme, die vermutlich mit unserem spezifischen Setup zusammenhingen (HTPC + Samsung LCD + Yamaha AV Receiver + Steuerung durch eine Logitech Harmony). Konkret gesprochen gab es im Wesentlich zwei große Herausforderungen: Zum einen lief XBMC nach dem Verlassen des Standby-Modus grundsätzlich minimiert bzw. in falscher Auflösung (war bei Mediaportal auch so) und zum anderen musste ich nach dem Aufwachen häufig abermals den korrekten Eingang am AV-Receiver wählen (HDMI 1) – andernfalls gab es zwar Bild, aber keinen Ton (ebenfalls bei MePo auch schon so gewesen. Beide Probleme nerven mich seit Langem, aber irgendwie fand ich nie den Nerv mich darum zu kümmern. Nun war es so weit.

Problem Nummer 1: Window-Mode nach dem Aufwachen

Um es gleich vorweg zu nehmen: Ich beschreibe hier den suboptimal verlaufenen Lösungsweg; wer nicht die gleiche ineffektive Lösungsart wie ich wählen möchte, sollte sich direkt am Ergebnis orientieren 😉 Da mir der Standby-Mode etwas suspekt war, man ja vielleicht ein paar Watt Strom sparen könnte und der Bootvorgang dank SSD ja sowieso ganz schnell geht, dachte ich, es wäre eine tolle Idee Windows einfach komplett herunterzufahren, anstatt es nur zu pausieren. Das ist über die Fernbedienung (MCE Remote) übrigens gar nicht so einfach (auch nicht wenn man sich in den Energieoptionen von Windows ganz viel Mühe gibt) und so kam ich zu einem tollen Registry-Hack (einfach mal hier nachlesen, meine Quelle war damals eine andere). Windows fuhr also via Fernbedienung herunter, yeah. Windows ließ sich sogar via Fernbedienung wieder zum Leben erwecken und stolz präsentierte ich Dani nach Ihrer Rückkehr das Ergebnis: Der PC ging an, Windows fuhr hoch (uiii, chic), der automatische Login fand statt (noch chicer), das Modern-UI von Windows 8 zeigte sich kurz (hallo, Kacheln), dann wurde für einen kurzen Augenblick der Desktop mit angepasstem Hintergrundbild sichtbar („Muss das so?“) und schon Augenblicke später zeigte sich der Start-Bildschirm von Frodo. Alles was danach kam (Aeon Nox) fand dann schon mehr Zuspruch. Ich muss es ja zugeben, schön war die Lösung nicht (vor allem nicht, da das blöde IMon XBMC ab und an den Fokus klaute und ich daher auch noch eine Start-Verzögerung für XBMC einbauen musste).

Was tun? AppleTV2 für 170€ bei eBay und mit ohne 1080p Wiedergabe? Raspberry Pi mit minimalstem Skin (lag sogar schon hier)? Android-HDMI-Stick? Nein, es musste einfach noch mehr Liebe („Google“ hätte auch gereicht)  her. Die Sache mit dem Standby-Mode war schon gar nicht so schlecht, aber die bestehenden Hürden mussten einfach noch überwunden werden. Also erstmal wieder den Registry-Hack rückgängig gemacht und dann mal genau überlegt, was da eigentlich passiert. Wie sich herausstellte, war meine initiale Überlegung hierzu auch die richtige: Bedingt durch die schnelle Reihenfolge der Geräte-Aktivierung durch die Harmony wacht der HTPC auf, noch während der recht träge Samsung LCD hochfährt. In Folge dessen möchte die Grafikkarte des Rechners recht frühzeitig eine Auflösung aushandeln, worauf der Fernseher zu diesem Zeitpunkt noch gar keine Lust hat. Wenn Letzterer dann endlich soweit ist, läuft die Anwendung schon in einem zu kleinen Fenster oder das zu kleine Fenster wird auf Full-HD aufgezogen – beides blöd. Im Laufe meiner langen Irrfahrt glaubte ich dies durch eine Einschaltverzögerung bei der Harmony in den Griff zu bekommen. Da es hier bei der Parametrisierung ebenfalls Limitationen gibt, wurde ich durch Foren und den Logitech-Support auf den Pfad eines Dummy-Devices geschickt .. doch irgendwie war das alles nicht wirklich sexy (Idee: TV einschalten, 15 Sekunden warten, dann erst HTPC einschalten). Dann gab ich mir endlich einen Ruck und beschäftigte mich mit einem Tool, von dem ich bisher zwar gelesen, welches ich bis dato aber gekonnt ignoriert hatte: XBMC Launcher (Link). Dabei machte der XBMC-Launcher wirklich alles was ich wollte: Er zwang XBMC sich zu beenden, wenn der PC schlafen ging, sich neu zu starten, wenn das System wieder anging, hierbei eine Verzögerung für den lahmen Samsung LCD vorzusehen (aktuell übrigens 7s) und im Kampf um den Fokus gegen IMon stets die Überhand zu behalten. Sollte ich XBMC doch mal temporär verlassen wollen, genügt ein Druck auf „Windowstaste + F9). Was will man mehr? Das Ding erfüllte wirklich alle meine Wünsche und ließ sich noch dazu binnen weniger Minuten einrichten. Nach ein wenig Trial and Error mit der Verzögerungszeit ist es jetzt tatsächlich so, dass ich unmittelbar nachdem der TV angeht den Frodo-Ladebildschirm sehe (manchmal für weniger als eine halbe Sekunde den Windows-Desktop .. Streuung bei der Einschaltzeit) und Augenblicke später steht XBMC bereit. Diesmal war sogar Dani beeindruckt!

Fazit: Windows 8 + Classic Shell + XBMC 12.1 + XBMC Launcher + XBMConImon + kompatible IMon Version (Display..) = Alles super.

XBMC Launcher - eines der besten Tools im Mediacenter-Umfeld (meiner Meinung nach zumindest)
XBMC Launcher – eines der besten Tools im Mediacenter-Umfeld (meiner Meinung nach zumindest)
Auch ohne XBMConImon geht es nicht - die Lösung ist ein Puzzle
Auch ohne XBMConImon geht es nicht – die Lösung ist ein Puzzle

Problem Nummer 2: Kein Ton nach dem Einschalten

Nach meinem Erfolg in Angelegenheit Nummer 1 war ich hoch motiviert auch die zweite Baustelle, das Ton-Problem nach dem Einschalten, zu lösen. Auch hier dachte ich zuerst an den hemdsärmeligen Weg und wollte die Problematik mit Hilfe der Logitech Harmony Software (wer sie kennt, weiß sie toll diese ist…) lösen. Man müsste doch eigentlich nur alles einschalten, ein paar Sekunden warten (Dummy Device schon wieder?) und dann nochmal HDMI1 drücken .. also das Automatisieren, was ich seit einem Jahr von Hand mache. Grundsätzlich ist der Ansatz schon mal fragwürdig, noch dazu missfiel mir der Gedanke eine über 20 Sekunden lange Tasksequenz zu verwenden. Trotzdem bastelte ich, ebenso wie an der Window-Mode-Geschichte, sehr lange mit der Harmony rum und verbrachte auf diese Weise viele tolle Stunden (Software starten, Konfigurationsänderung vornehmen, Änderungen auf die Fernbedienung überspielen, Sequenz testen, fluchen, alles wieder von Hand in den richtigen Zustand bringen, wieder bei Schritt 1 respektive 2 anfangen). Ich hatte ja die ganze Zeit schon das Gefühl hier auf dem Holzweg zu seien, doch fielen mir nicht die richtigen Suchbegriffe für Google ein. „Samsung HDMI1 AV4“ wäre eine gute Idee, denn schon im ersten Treffer wird die Lösung meines Problems beschrieben (Link): Anynet+ (also die „Datenverbindung“ zwischen AV-Receiver und Samsung LCD) unterbrechen. Nachteil: Die Geräte reden nicht mehr so schön, was die Lautstärkeeinstellung etc. angeht, doch dafür muss ich mich nicht mit einem 10s Delay in der Befehlskette rumschlagen und auch sonst keine Kompromisse in der Verkabelung o.ä. eingehen. Ich entschied mich also dazu Anynet+ abzuschalten und die Lautstärke-Steuerung des Receivers mit Hilfe der Harmony zu adressieren.

Selbige benötigte eh noch etwas Liebe, da die MCE-Remote in XBMC (ein wenig umständlich, aber zuverlässig) laut diversen Forenbeiträgen idealerweise als MCE-Keyboard (also Tastatur) angesprochen wird. Diese Lösung funktioniert zwar grundsätzlich sehr gut und ist recht flexibel, bedarf jedoch ein wenig Zuwendung hinsichtlich der passenden Keymap o.ä.

Harmony-Tastenbelegung der (neuen) Aktion "Digitale Bibliothek"
Harmony-Tastenbelegung der (neuen) Aktion „Digitale Bibliothek“

An dieser Stelle war das Abenteuer HTPC für mich beendet. Nachdem die „großen“ Herausforderungen der Vergangenheit auf für mich akzeptable Arten gelöst schienen, konnte ich mich endlich mit ein paar Komfortfeatures beschäftigen. Sehr nett finde ich z.B. das hervorragend funktionierende WOL-Plugin für XBMC: Über das GUI installieren, ein paar wenige Klicks und schon wacht mein Mediaserver auf, sobald XBMC gestartet wird. Dieses scannt einige Augenblicke später die Mediendatenbank und neue Dateien sind so ohne jegliche Handarbeit und nach wenigen Augenblicken sichtbar und können wiedergegeben werden. Das gesamte Setup läuft so seit mehr als sechs Wochen und bis auf den Wunsch das HTPC-Gehäuse irgendwann mal durch etwas Ansprechenderes zu ersetzen (OrigenAE S10V – Link) bin ich rundum zufrieden.

GUI-basierte WOL-Konfiguration die alle Sonderwünsche berücksichtigt (Screenshot während RDP Verbindung, daher suboptimale Qualität)
GUI-basierte WOL-Konfiguration die alle Sonderwünsche berücksichtigt (Screenshot während RDP Verbindung, daher suboptimale Qualität)

Function follows form? Umstieg auf MacOS

Nach acht Windows Generationen war es soweit .. ich konnte mich das erste mal nicht so wirklich mit der Optik und Handhabung einer neuen Version anfreunden. Ich habe Windows 3.1, Windows 95, Windows 98, Windows ME, Windows 2000, Windows XP, Windows Vista und Windows 7 als Desktop-Betriebssystem eingesetzt und mich mit diesen – trotz der teilweise negativen Kritiken der Fachpresse (vor allem bei Vista) – stets anfreunden. Teilweise habe ich sogar die Beta-Versionen verwendet, um möglichst frühzeitig erste Erfahrungen mit der „Next Generation“ sammeln zu können .. so natürlich auch bei Windows 8.

Da mich mein bisheriges Arbeitsgerät (HP Elitebook 8560p) eher genervt als erfreut hat und meine Gehversuche mit XenClient 2 leider eher unerfreulich verliefen, ließ ich mich sogar dazu verleiten die Windows 8 Consumer Preview quasi produktiv zu verwenden. Ich sortierte also fleißig Kacheln, wundert mich über die vergleichsweise völlig schwachen MetroApps und fragte mich konstant, wie ich jemals einem unbedarften Anwender erklären sollte, dass es einen Desktop gibt auf dem Anwendungen laufen und natürlich auch jene Applikationen, die eben nicht in der Taskleiste auftauchen. Sicher, auf einem Gerät mit Touchscreen würde die Welt noch mal anders aussehen .. aber auf meinem klassischen 15″-Arbeitsnotebook macht das tägliche Handling von Windows 8 weder Spaß, noch sah es besonders chic aus.

Dazu kam, dass ich einfach keine Lust mehr auf ein knapp 3kg schweres Gerät hatte, dass noch dazu alle 3h von einem ca. 1kg auf die Waage bringenden Netzteil gespeist werden wollte, was für den gemeinsamen Transport eine recht klobige und ebenfalls nicht ganz leichte Tasche bedingte. Mit der fremden Welt „MacOS“ liebäugelte ich bereits eh schon sehr lange und als Apple sich dann dazu entschloss ein leichtes, ausdauerndes Gerät mit HighEnd-Retina-Display im passenden Formfaktor (13″) herauszubringen, war es um mich geschehen. Nach zwei unruhigen Abenden war die Bestellung endlich ausgelöst; damit das Gerät auch im Business verwendet werden kann, orderte ich gleich noch für 28€ einen Thunderbolt auf VGA-Adapter (Beamer..) dazu. In Summe zwar eine sehr heftige Investition für eine 1,6kg leichte Flunder ohne dedizierte Grafikeinheit, aber ich glaube Vernunft ist nicht der treibende Faktor zur Anschaffung von Apple Produkten.

Die Lieferzeit überbrückten wir dann durch den ein oder anderen Besuch in den lokalen Apple Stores (zum Glück haben wir im Rhein Main Gebiet ja derer gleich zwei). Dort wurde das MacBook Air eifrig mit dem MacBook Pro Retina verglichen und überprüft, wie sich Microsoft Office (wie gesagt, das Gerät sollte ja mein Alltagsbegleiter werden und insbesondere im Dateiaustausch mit Kunden sind die Office Produkte von Microsoft nun mal unentbehrlich für mich) unter MacOS anfühlte. Bis auf die Tatsache, dass bei optimaler Auflösung etwas mehr auf das Display des Airs passt (1440×900 sind nunmal größer als die effektiv nutzbaren 1280×800 des Retina Displays), machte eigentlich alles einen sehr guten Eindruck. Wie sich später herausstellen sollte, war diese erste Impression doch etwas trügerisch.

Rettung aus der kalten Gruft
Rettung aus der kalten gelben Gruft

Bevor ich jedoch groß in Grübeln und Zweifeln kommen konnte, signalisierte mir die Packstation meines Vertrauens: Das Fallobst ist eingetroffen. Pünktlich vor der Fahrt ins Wochenende sammelten wir den unscheinbaren Karton ein und harrten der Dinge, die da kommen würden. Der Erstkontakt war so, wie man es erwarten würde; tolle Verpackung, geniale Haptik, geringes Gewicht. Die Ersteinrichtung verliefen dann ebenso wie die ersten Minuten mit MacOS sehr intuitiv und eigentlich sehr vertraut. Ein bisschen iOS, ein bisschen gesunder Menschenverstand und ein paar vertraute Applikationen (Chrome, Thunderbird, Dropbox) .. jaja, die Gesamtumstellung auf die Apfel-Welt wird schon kein Problem werden. Auch der sporadische Kontakt zum Unix-Unterbau gefiel mir sehr gut .. hier fühlt man sich auf angenehme Weise an die Gehversuche mit Linux erinnert.

Pack! Mich! Aus!
Pack! Mich! Aus!

Wie bei vermutlich jedem MacOS-Anfänger mit massivem Windows-Background kamen jedoch schnell die ersten Fragen auf: Warum nur sollen Ordner im Finder bei der Sortierung die gleiche Gewichtung wie Dateien haben, warum läuft eine Anwendung noch wenn ich sie eigentlich wie gewohnt beende und warum kann ich eine Anwendung nicht einfach und schnell auf die gesamte Bildschirmfläche maximieren? Pathfinder (als Finder-Alternative meiner Meinung nach unschlagbar .. und noch dazu deutlich cooler und funktionaler als der Windows-Explorer), ein wenig googeln und BetterTouchTool später (geniales Tool für verschiedenste Zwecke .. z.B. um Shortcuts zum Fenster-Management zu definieren) sah die Welt schon wieder besser aus. Das MBPr lief die versprochenen >6h, war dabei quasi unhörbar und das Retina-Display zeigte wiederholt seine Stärken. Es spiegelte wenig, bot die Möglichkeit bedarfsweise eine sehr hohe Auflösung anzuzeigen und brilliert besonders bei feinen bzw. sehr kleinen Inhalten, die extrem scharf wiedergegeben werden. Alles hätte so gut sein können (Ausnahme: Mausgesten unter Chrome .. aber das ist ein anderes Thema).

Einfach nur elegant
Einfach nur elegant

Dann kam Microsoft Office for Mac – Office 2011. Die Installation war problemlos, doch bereits wenig später begann der Spaß. Ein Excel-Workbook mit Macros (.xslm; Zeitnachweis) ließ sich mit Hinblick auf die integrierten Formeln zum Handling von Datumsangaben gar nicht vernünftig bearbeiten, Outlook lässt verschiedene Funktionen vermissen (z.B. Signaturen bei internen E-Mails nicht standardmäßig einfügen) und irgendwie hat Word ja – ebenso wie jede andere Anwendung – da oben so eine komische Menüleiste? An diese habe ich mich mittlerweile gewöhnt .. ebenso an den Mix des Menüs mit der Ribbon-Leiste. Word unter MacOS würde sogar fast anstandslos laufen, wenn es nicht beim Einfügen von Multimediainhalten (z.B. aus Powerpoint) deutlich öfter abstürzen würde als sein Windows Pendant und die Grammatikkorrektur zumindest eine Grundintelligenz erkennen ließe (Word 2011: Ein Leerzeichen nach einem Komma ist böse und muss grundsätzlich entfernt werden – siehe auch hier). Aber gut .. mit kleineren Einschränkungen kann man sich auch an Word, Powerpoint und Excel 2011 gewöhnen. Man stößt zwar immer mal wieder auf gewohnte Funktionen die einfach nicht vorhanden sind, doch mit dem wiederholt in den Foren dieser Welt auftauchenden Hinweis „Melde es doch über dieses Formular dem zuständigen Microsoft Produktteam“ fühlt man sich zumindest nicht allein.

Elitebook vs. MacBook Pro Retina 13" - ein gewaltiger Unterschied
Elitebook vs. MacBook Pro Retina 13″ – ein gewaltiger Unterschied

Wirklich anstrengend finde ich Outlook 2011. Dies mag vor allem daran liegen, dass E-Mails naheliegender Weise auch immer eine gewisse Außenwirkung haben, und ich mich einfach darauf verlassen können muss, dass diese genauso beim Empfänger (der meist ebenfalls Outlook einsetzt) ankommen, wie ich sie erstelle. Klappt aber nicht. Da wäre zum einen der Trick mit der Schriftgröße (Arial 10 in Windows = Arial 13 unter MacOS .. warum nicht) und zum anderen der beinahe tägliche Kampf mit HTML-Formatierungen. Diese sind ja durchaus verpönt, doch zumindest was Aufzählungen angeht, erwarte ich einfach, dass diese beim Empfänger genauso ankommen, wie ich sie erstelle. Das Problem scheint serverseitig verursacht zu werden und ist durchaus bekannt – siehe z.B. dieser Blogbeitrag mit Gegenmaßnahmen. Gut, dafür hat uns Microsoft mit Outlook 2011 „Unified Inboxes“ gegeben .. ein nettes Feature, auf das Outlook 2010 noch verzichten muss.

Auch wenn die vorherigen Zeilen vielleicht von etwas Enttäuschung zeugen .. generell finde ich die Mac-Welt nicht schlecht. Ich finde sie jedoch nicht so unendlich viel besser als das Windows-Universum, wie es oft propagiert wird. Weder erledigt das Notebook meine Arbeit von allein, noch bleibe ich von Abstürzen und Programmaussetzern verschont. Wie schon beschrieben, hat Word ab und an keine Lust mehr, auch der Boxcrytor verweigert sporadisch seinen Dienst und besteht auf einen Neustart. Als letztlich sogar das USB-Tethering des iPhones ausgefallen ist (auch ein laut Recherchen recht verbreiteter Fehler) fiel ich temporär ganz vom Glauben ab. Aber gut, es gibt auch richtig tolle Dinge – iMessage zum Beispiel. Selten hat es so viel Spaß gemacht auch längere Dialoge via iMessage zu führen .. mit der hervorragenden Tastatur des MacBooks lassen sich Texte einfach viel schneller und komfortabler eingeben, als mit dem kleinen Touchscreen des iPhones. Die Synchronisation der Nachrichten erfolgt dabei übrigens (zumindest für mich) in aller Regel absolut problemlos; wird eine ankommende Nachricht nicht binnen einiger Sekunden am Mac gelesen, vibriert mein Smartphone. Im lebendigen Dialog merkt man überhaupt nichts davon, dass mehrere Geräte mit der gleichen Kennung am iMessage-Dialog teilnehmen .. genauso würde ich mir das ohne jegliches Vorwissen vorstellen.

Ende eines langen Tages .. und jeder sieht, dass es kein Ultrabook ist..
Ende eines langen Tages .. und jeder sieht, dass es kein Ultrabook ist..

Ein Wort auch noch zum Thema Peripherie: Von dem „Ich brauch kein Ethernet“-Ansatz musste ich ebenso schnell verabschieden, wie ich davon ausging, meine Logitech Maus einfach weiterzuverwenden. Der vom Unified Receiver der Maus blockierte USB-Anschluss sowie die in diesem Zusammenhang unförmige Erweiterung des sonst so schlanken Gehäuses gingen mir auf Dauer doch so sehr auf die Nerven, dass eine Alternative her musste. Hier denkt man natürlich zunächst an die Magic Mouse, welche mich bei einem Hands On Test im Apple Store (mittlerweile kannten wir uns dort ja so gut aus) jedoch nicht überzeugte. Nach längerem Hin und Her habe ich sie dann aber doch bestellt und muss sagen, dass sie das bisher beste Eingabegerät ist, dass mir soweit untergekommen ist. Obgleich die Maus recht flach ist, liegt meine Hand sehr ruhig darauf, die glatte Oberfläche fühlt sich einfach zu jedem Zeitpunkt sehr gut an. Das Scrollen per Wischgesten funktioniert hervorragend und dank BetterTouchTool sind die Möglichkeiten zur Gestensteuerung quasi nahezu unendlich. Einzig die Notwendigkeit extra eine maßgeschneiderte Tasche aus UK senden lassen zu müssen, fand ich nicht so toll .. dafür passt diese umso besser 😉 Auch eine Tasche für das Notebook insgesamt zu besorgen war übrigens gar nicht so einfach; nicht zu groß, nicht zu klein, kein allzu hohes Eigengewicht .. da war schon eine längere Recherche erforderlich.

Nach knapp 2,5 Monaten mit dem MacBook bleibt zu sagen: Interessant. Doch obgleich ich nie eine Parallelinstallation von Windows wollte (also kein Bootcamp) und eigentlich auch vor hatte auf Virtualisierung zu verzichten, muss wohl doch Parallels her. Zu sehr stört es mich kein vernünftiges / vertrautes Pendant zu Visio zu haben (OmniGraffle ist irgendwie nicht so mein Fall), zu sehr fehlt mir OneNote (Evernote mochte ich gar nicht, Circus Ponnies Notebook ist ganz nett, aber nicht auf Augenhöhe) und das totale Fehlen von Microsoft Project ist auch nicht gerade hilfreich. In diesem Kontext finde ich es umso deplatzierter, dass Apple für das Upgrade auf eine 256GB SSD mehr als doppelt so viel Geld haben möchte (299€), als ein vergleichbares Gerät generell (ca. 150€) kostet.

Eine kurze Notiz noch zu den häufig angeschnittenen Themen „eingeklebter Akku“ bzw. „mangelnde Wartungsfreudigkeit“: Ist mir völlig egal. So lange ich das Gerät benutze, hat es Garantie bzw. wird diese durch ein Protection Plan verlängert. Bevor selbiger ausläuft, wird mich das Gerät mit Hinblick auf die stetige Weiterentwicklung im Hardwaremarkt (verbesserte GPU-Einheit lässt grüßen) und dank vergleichsweise extrem stabiler Preise auf dem Gebrauchtgerätemarkt mit wenig Schmerzen verlassen – hier sehe ich also zunächst keine Schwierigkeiten. Was die Aspekte Nachhaltigkeit angeht, sind diese Themen sicher abermals differenziert zu betrachten, doch dies soll nicht Fokus dieses Artikels sein.

Ansonsten sehe ich den nahezu täglichen Wechsel von MacOS zu Windows und zurück primär als Gehirnjogging: Cmd + C oder doch Strg + C? Und warum fehlt Chrome unter Windows eigentlich plötzlich die mittlerweile so vertraute Menüleiste? 😉 Man arrangiert sich..

Der virtuelle Umzug

Ein Umzug – das weiß jeder der diese Herausforderung schon mal hinter sich gebracht hat – ist je nach individueller Risikofreudigkeit und Ausgangssituation ein ziemlich aufwändiges Unterfangen.

Bereits vorhandene Möbel suchen ein neues zu Hause bzw. eine Anschlussverwendung, Neuanschaffungen wollen in Dimension, Stil und Funktion in die Wohnlandschaft integriert und bereits vor dem Kauf so gut wie möglich auf deren tatsächliche Praxistauglichkeit geprüft werden.

Während man früher gern auf Schere und Papier zum lustigen Möbelrücken zurückgriff, hat (zumindest für mich) seit geraumer Zeit das digitale Zeitalter gesiegt. Allzu leicht kann ein Grundriss in Visio abgebildet werden und falls die eigenen Möbel bereits elektronisch vorliegen (was bei uns seit dem Ende der Studienzeit der Fall ist), ist es relativ schnell möglich eine Aussage bezüglich eventueller Stellmöglichkeiten zu treffen. So war es auch Visio, dass im Laufe unserer Wohnungssuche das Ende des einen oder anderen interessanten Objekts einläutete..

Inhaltlicher Vorgriff: Unser neues Domizil von oben betrachtet (aktualisierte Version)
Inhaltlicher Vorgriff: Unser neues Domizil von oben betrachtet (aktualisierte Version)

Doch nun war ja alles gut, der neue Mietvertrag ist unter Dach und Fach, ein gedruckter Grundriss vom Architekten lag vor und wir waren uns sicher: Die Wohnung wirkt so groß, da muss einfach alles passen. Diese, durch das großzügige Aufrunden des Maklers gestützte These, sollte sich rund eine halbe Stunde später als relativ gewagt herausstellen. Irgendwie schienen unsere Vorstellungen des Schlaf- und Wohnzimmers nicht so recht mit dem Plan zu harmonieren und es wurde schnell klar, dass hier ein wenig mehr „Liebe“ erforderlich werden würde. Da sich in der Vergangenheit schon mehrmals gezeigt hatte, dass 2D-Planungen hier mitunter nicht wirklich zuverlässig sind und das „graue Rechteck“ direkt hinter der Tür zwar in Visio ganz nett aussieht, in der Realität aber jede Wohnlichkeit zerstört, wollten wir im Planungsprozess gern einen Schritt weiter gehen. So fanden wir über Umwege zum pCon.Planner, einer flexiblen und sehr mächtigen Gratis-Lösung (kostenpflichtige Versionen sind jedoch ebenfalls erhältlich) zur 2D- und 3D-Planung von Gebäuden. Durch das intuitive Interface sieht man sehr schnell Erfolge und wenn parallel zur Erstellung des Grundrisses die ersten Räume auch zeitnah in der dritten Dimension bewundert werden können, ist man schnell „angefixt“.

Schematische Darstellung - hier jedoch schon nach Hinzugabe von VIEL Liebe
Schematische Darstellung – hier jedoch schon nach Hinzugabe von VIEL Liebe

Das Handling der Oberfläche erinnerte mich dabei an meine ersten (fehlgeschlagenen) Gehversuche mit AutoCAD, ist jedoch relativ eingängig. Darüber hinaus bietet der Hersteller (leider tonlose) Tutorial Videos in Deutsch und Englisch auf YouTube bzw. Vimeo, welchen den Zugang zum Planungstool abermals vereinfachen. Nach rund einer halben Stunde war unsere neue Wohnung also zunächst in 2D fertig gestellt, zügig zogen auch Türen, Fenster und Durchbrüche ein. Dann kam der Knackpunkt: Der Übergang zur 3D-Planung und der Import der ersten räumlichen Objekte. Selbige können ebenso wie Lacke, Oberflächen, Materialien etc. aus einem integrierten Katalog bezogen und sehr einfach auf alle möglichen Objekte angewendet werden. So füllte sich unser zukünftiges Domizil rasch mit Schränken, Tischen, Sitzmöbeln, Schreibtischen und so weiter, welche sich relativ einfach an die Abmessungen ihrer realen Vorbilder anpassen ließen.

Auch eine Küche werden wir haben - obgleich wir hier beim Design ob fehlender Informationen etwas improvisieren mussten
Auch eine Küche werden wir haben – obgleich wir hier beim Design ob fehlender Informationen etwas improvisieren mussten

Zu diesem Zeitpunkt hatten wir eine 2D- und 3D-Darstellung, die recht „nett“ war. Die wichtigsten Objekte waren platziert, der Grundriss stimmte, doch der „Kick“ hat gefehlt. Dann entdeckte ich den unscheinbaren Knopf „3D-Galerie“, welcher zum 3D Warehouse von Google Sketchup führt .. und danach war ich völlig fasziniert. Egal ob ein beliebiger Ikea Artikel, Heimkino Receiver, Heim-PC, LCD, TV oder Boxenständer .. es gibt für alles passende Modelle oder zumindest solche, die sehr nah am Original sind. Freudig füllt man die Simulation der neuen Wohnung so mit einem Objekt nach dem anderen, vermisst (von messen, nicht vermissen) die eigenen Einrichtungsgegenstände und ist zunehmend fasziniert von der realitätsnahen Darstellung.

Blick auf dem Schlafzimmer - man beachte die mehrfachen Spiegelungen (Rendering Qualität: gering)
Blick auf dem Schlafzimmer – man beachte die mehrfachen Spiegelungen (Rendering Qualität: gering)

An dieser Stelle sei nicht unerwähnt, dass der Prozess der virtuellen Möblierung teilweise durchaus nervenaufreibend ist. Nur allzu gern schwebt die perspektivische Kamera überall hin, nur nicht dort wo sie soll. Auch die Bewegung von Modellen im Raum scheint immer auf genau der Achse zu erfolgen, die man gerade nicht modifizieren möchte. Doch der Heimkino-Receiver, der perfekt im Regal steht, die Box die bündig auf dem Ständer montiert ist und dabei exakt auf die Hörposition ausgerichtet ist und das Logo auf der Razer Maus im Arbeitszimmer machen all diese Mühen wett. Dani meinte in diesem Zusammenhang übrigens eine Hass-Liebe zwischen dem Planner und mir erkannt zu haben .. eine Theorie, der ich absolut zustimmen würde.

Blick ins Arbeitszimmer - aus Zeitgründen nur mit geringer Rendering-Qualität
Blick ins Arbeitszimmer – aus Zeitgründen nur mit geringer Rendering-Qualität

Schnell stellt sich der „Nur noch ein Objekt“ („nur noch ein Level“)-Effekt ein, der einen quasi zwingt weiter zu machen. 3D-Titel wie Assassins Creed 3 bleiben links liegen, während der Planner auch beim dritten Absturz am Stück (manche Objekte aus dem Warehouse mag er einfach nicht), immer und immer wieder gestartet wird. Nach rund 12h Arbeit besteht die Belohnung in virtuellen Kamerafahrten durch die noch nicht mal fertig gebaute Wohnung, realitätsnahen Renderings der schönsten Blickwinkel und faszinierten Freunden und Kollegen, die meist mit großem Interesse mehr über den Entstehungsprozess dieser „Werke“ wissen möchten. Dabei ist auch meine Begeisterung nach wie vor groß, denn der simulierte Blick an der Türklinke vorbei ins Arbeitszimmer war für mich noch vor wenigen Tagen in dieser Qualität einfach nicht vorstellbar. Ob Realität und Illustration in der Tat so dicht wie angenommen zusammen liegen werden, muss sich freilich später noch zeigen.

Blick auf unsere zukünftige Wohnecke .. bereits mit neuen Möbeln
Blick auf unsere zukünftige Wohnecke .. bereits mit neuen Möbeln

Ein wenig Unmut bereiteten mir übrigens „flackernde“ Bodenbelägen, bei denen die Maserung der Steinfliesen in Holzoptik (ich habe ersatzweise Laminat verwendet) wiederholt von einem kantigen braun durchbrochen wurden. Keine Rendering-Einstellung half, Tutorials und Google Suchen verliefen im Sande. Als ich irgendwann begann den Boden frustriert zu löschen, wurde die Ursache des Problems dann klar: Ich hatte (wie bei einem Erstlingswerk vielleicht typisch) teilweise mehrere Boden-Ebenen übereinander gelegt .. peinlich.

Wie bei einem guten Computer-Spiel ist man natürlich nie am Ende: Mein nächstes Ziel besteht (neben der Anfrage von Umzugsdienstleistern, denn Simulation soll ja auch mal Wirklichkeit werden) darin die generische „Grundbeleuchtung“ durch möglichst realistische Lampen und Lichtobjekte zu ersetzen und die Wohnung damit während einer virtuellen Nacht abzubilden .. ich bin gespannt, ob dies klappen wird.

Blick aus dem Arbeitszimmer bei Nacht
Blick aus dem Arbeitszimmer bei Nacht

Nach so vielen Informationen zur virtuellen Planung unseres neuen zu Hauses nun auch ein paar handfeste Informationen: Nach ewiger (hier ja bereits thematisierter) Suche haben wir eine Drei-Zimmer-Wohnung in einem bestehenden Objekt gefunden, dass sich momentan im Abschluss einer Kernsanierung befindet. In diesem Zusammenhang wird das Drei-Parteien-Haus auf KW70 Standard angehoben, was neben einer steuerbaren Wohnraumbelüftung mit Wärmerückgewinnung, Geothermie und zentral gesteuerten Jalousien (sonnenstand-, uhrzeit-, jahreszeit- und windgesteuert) auch Dreifach-Verglasung (14cm starke Balkontüren) und damit vergleichsweise attraktive Nebenkosten mit sich bringt. Auch im Innenraum wurde seitens des Eigentümers / Vermieters viel wert auf Langlebigkeit und Qualität gelegt, so werden für den Boden italienische Steinfliesen in Holzoptik verwendet, die Oberflächen im Bad und in der Küche bestehen (ebenso wie die Fensterbretter und das Treppenhaus) primär aus Granit. Sehr schön ist in diesem Zusammenhang auch die Tatsache, dass in beiden Badezimmern und im Flur individuell angefertigte Möbel verbaut werden, welche ebenfalls fix zum Objekt gehören. Dass unser zukünftiger Vermieter generell eine sehr starke Serviceorientierung an den Tag legt, ist da nur der Punkt auf dem i.

Wo Licht ist, ist übrigens auch ein wenig Schatten: Von der doch recht liebgewonnenen Garage müssen wir uns verabschieden, dafür wohnen wir künftig nur zwei Ampeln von der A661 entfernt und haben auch eine unmittelbare Anbindung zur Rosa-Luxemburg-Straße. Zusammenfassend führt dies zu ca. 8km kürzeren Anfahrtsstrecken für uns beide (einfache Strecke), was auch eine Zeitersparnis von ungefähr 11 Minuten mit sich bringt (die tägliche Durchquerung von Bad Homburg entfällt). Sollten wir mal keine Lust mehr auf das Schwimmen im Strom des Berufsverkehrs haben, ist die nächste S-Bahn-Haltestelle nur ca. 4 Gehminuten entfernt.

Bleibt nur die nächsten sechs Wochen voller Vorbereitungen, vor allem aber voller Vorfreude, erfolgreich zu überstehen.

ZBOX ID82: Wir basteln einen Mini-PC

Wer mich kennt (oder die wenigen IT-Beiträge hier im Blog in den letzten Jahren verfolgt hat), weiß, dass ich eine Schwäche für unkonventionelle, manchmal nicht ganz vernünftige und allgemein eher außergewöhnliche Gadgets habe. So musste unsere ESXi-Whitebox zu Virtualisierungszwecken unbedingt in ein quadratisches Lian Li-Gehäuse gepfercht werden (für einen Server nicht unbedingt gewöhnlich), im Wohnzimmer dient ein HTPC  für alle Multimediaaufgaben und mein Heimrechner versteckt sich in einem „Ich bin leise“-Gehäuse.

Vor dem Hintergrund dieser Historie ist es sicherlich nicht schwer zu ahnen, dass ich seit geraumer Zeit auch mit einem Mac mini liebäugle. Leider gibt es keinen wirklich praxisnahen Verwendungszweck um das Gerät und mich zusammenzubringen: Mein Heimrechner dient (primär) dem ein oder anderen Spiel, unterwegs nutze ich ein Notebook und zwischendurch ein iPhone oder iPad. So blieb mir der Wunsch nach einem kompakten, leisen und einfach faszinierenden Desktop-PC lange verwährt. Es gab aber Hoffnung am Horizont: Der Rechner meiner Eltern wurde zunehmend langsamer und im Vergleich zur heimischen IT-Infrastruktur wollte ich bei der Arbeit mit besagtem Gerät am liebsten zu einem Schallschutzkopfhörer greifen. Das deutlich vernehmbare Rattern der mittlerweile recht betagten Festplatten verstärkte mein Vertrauen in eben jenes System ebenfalls nicht.

Zur Ablösung dieser „Kiste“ erwog ich daher schon seit fast einem Jahr die Anschaffung eines Nettops: Notebook-Technik, kompakte Abmessungen, günstige Anschaffung .. könnte gut passen. Weniger ermutigend fand ich die verfügbaren Benchmarks der Geräte, welche allesamt auf eine katastrophale CPU- und Grafikperformance hinwiesen. Ein wenig Vernunft muss schon sein, so dass ich mir (da kommt der Berater durch) Gedanken zum Use Case gemacht hab: Hochauflösende Flash-Videos und eine Runde Moorhuhn-Remake, sowie gelegentliches Blättern im riesigen, digitalen Fotoarchiv trafen auf wenig ressourcenintensive Standardaufgaben wie Office, Thunderbird und Chrome. Alles in allem also ein Zwiespalt zwischen „wenig Leistung reicht“ und „a bisserl mehr geht immer“.

Eben diesen Konflikt schien Zotac im Rahmen der Cebit 2012 mit der Vorstellung der IDBox 82 zu lösen. Dieses kompakte Gerät verfügt im Gegensatz zu den meisten anderen Nettops über eine relativ leistungsstarke CPU vom Typ Core i3 (2330m, 2x 2,20 GHz), welche von einer OnBoard-Grafik in Form des Intel HD3000 Chipsatzes unterstützt wird. Erste Benchmarks bei Tomshardware.de bescheinigten dem Gerät eine hervorragende Performance (zumindest den avisierten Aufgaben gegenüber), weshalb sich hier alle meine Anforderungen in einer kleinen Kiste zu konzentrieren schienen.

Gab es nur noch zwei Probleme: 1. Der vergleichsweise unerfreuliche Preis, 2. Die schlecht Verfügbarkeit. Da 2. langsamer besser wurde als ich bereit war 1. zu akzeptieren, dachte ich zwischendurch über einen selbstständigen Nachbau der Lösung nach (Board, CPU und co gibt es ja regulär zu kaufen). Leider war die Verfügbarkeit auch hier eingeschränkt und der Kostenaspekt ebenfalls eher suboptimal .. die Mühe hätte schlicht nicht gelohnt. Irgendwann Mitte Juni war es dann aber soweit: Die üblichen Verdächtigen des Online-Handels meldeten eine kurzfristige Verfügbarkeit des Produkts. Nach kurzem Grübeln setzte ich dann auch eifrig eine Bestellung für den „Barebone“ (Festplatte und RAM mussten noch manuell ergänzt werden) ab. Ich entschied mich an dieser Stelle bewusst gegen das fertige Produkt ZBOX ID82 Plus, da dieses (meiner Meinung nach völlig unzeitgemäß) auf eine klassische 300GB Magnet-Festplatte setzte.

Normalerweise bastle ich unsere Rechner ja alle selbst, so dass die Zusammenstellung von RAM und Festplatte zumindest ein wenig „Restspannung“ bot. So entschied ich mich nach kurzer Überlegung für eine 128GB große SSD von SanDisk sowie 2×2 GB RAM (Hochrechnungen ergaben, dass meine Eltern einfach nie von 8 GB profitieren würden). Nach nur 2 Tagen konnte ich das knapp 500€ teure Gesamtpaket vom lokalen Händler (Computeruniverse) abholen und mich nach dem ersten Öffnen der Box zu Hause über die faszinierenden Abmessungen sowie den tollen Lieferumfang freuen: Wand/Vesa-Halterung, Standfuß, DVI auf VGA-Adapter, Schrauben zur Montage, WLAN-Antenne, Empfänger für eine Fernbedienung und natürlich eine Windows Media Center kompatible (sehr angenehm anzufassende) Fernbedienung warteten darauf ausgepackt zu werden. Der Ersteindruck war hier insgesamt sehr positiv und auch die ZBOX selbst weiß in Form und Gestaltung durchaus zu begeistern. Klar handelt es sich nicht um einen durchgestylten Mac mini, dafür verfügt das Gerät mit einem integrierten Kartenleser und insgesamt 6 USB Anschlüssel (davon 2x USB 3.0) über einen hohen Nutzwert. Auch die integrierten SATA 6G Anschlüsse empfand ich mit Hinblick auf die Systemperformance ebenso wie die 2 DDR3 Bänke sehr positiv.

Schlicht, aber nicht plump

Der weitere Zusammenbau des Systems gestaltete sich dann wie erwartet sehr einfach und ging leider viel zu schnell vorbei: Gehäuse mittels Rändelschrauben öffnen, Abdeckung aufschieben, SO-DIMMs einklippsen, Fixierung der Festplattenhalterung öffnen, SSD einklippsen, Fixierung schließen, Gehäuse schließen, fertig. Alles in allem ein nicht mal 10 Minuten dauernder Prozess. Anschließend schloss ich mein USB-DVD-Laufwerk an und installierte wie gewohnt Windows 7. Weniger gewohnt: Die USB 3.0 Ports, die integrierte WLAN-Karte sowie die Netzwerkkarte (sowie ein paar andere unwichtige Geräte) wurden von den integrierten Treibern nicht erkannt. Das erste mal seit ca. 3 Jahren musste ich Treiber auf einem zweiten Rechner herunterladen, bevor ich das kleine Kistchen überhaupt ins Netz bekam. Dafür lief ansonsten alles sehr schnell und zumindest weitestgehend so leise, wie ich es erwartet hätte.

Fertig zusammengesetztes Innenleben

Insgesamt muss man sich aber in jedem Fall darüber bewusst sein, dass in der ZBOX Notebooktechnik steckt. In der Praxis bedeutet dies, das der Lüfter  relativ klein ist und im Bedarfsfall spontan und hörbar aufdreht. Dies ist nicht wirklich störend und erzeugt eine Geräuschkulisse, die z.B. mit meinem HP Elitebook 8560p vergleichbar ist. Beim ruhendem Desktop ist das Gerät beispielsweise nahezu unhörbar. Bedingt durch die SSD (deren Firmwareupdate übrigens mittels intuitiv bedienbarem Windows-Tool sehr schnell durchgeführt werden kann), bootet das Gerät natürlich sehr schnell (ca. 12 Sekunden vom Anschalten bis zum fertigen Desktop) und fühlt sich auch sonst im Alltag äußerst performant an. Alle avisierten Aufgaben (Moorhuhn, Full-HD-Videos auf YouTube, Blättern in der Bilderbibliothek) lassen sich sehr angenehm, schnell und wie erwartet bewältigen. Die Idee der Wandmontage mussten wir jedoch verwerfen, da die doch recht zahlreichen Kabel eine optisch ansprechende Montage unwahrscheinlich erscheinen ließen.

Wie so oft zeigte sich bei der praktischen Verwendung nach wenigen Minuten dann doch ein erstes (und bisher ungelöstes) Problem: Die USB 3.0 Ports reagieren gar nicht gut auf den Energiesparmodus. Selbigen benötigt man zwar nicht wirklich, da die ZBOX fast so schnell bootet, wie sie aus dem Standby erwacht .. aber letztendlich möchte man ja doch alle Funktionen nutzen können. Konkret stellt es sich übrigens so dar, dass an den USB 3.0 Ports nach einem Nickerchen keine Geräte mehr erkannt werden. Teilweise verschwand der gesamte Controller aus dem Geräte-Manager, was auch über Ab- und Anschalten im BIOS nicht gelöst werden konnte. Im Netz gibt es hierzu allerlei Empfehlungen (Energiesparmodus der Ports deaktivieren etc.), die jedoch nicht zielführend waren. Ich glaubte bereits die Störung durch ein Firmware-Update des NEC Chips gelöst zu haben, was jedoch nur bis zum nächsten Abstecher in den Standby-Mode half. Abschließend müssen wir die USB 3.0 Energiesparthematik vermutlich bis zu einem weiteren Treiber- und/oder Firmwareupdate aussitzen (temporäre Lösungsansätze wären natürlich die Unterdrückung oder Umschaltung des Standby-Modus).

Insgesamt finde ich die ZBOX nach wie vor als eine empfehlenswerte Lösung, die ich so jederzeit wieder einsetzen würde. Das System ist insgesamt stimmig, bietet ausreichend Leistungsreserven (in Abhängigkeit davon, was man damit vor hat) und funktioniert mit sehr wenig Bastelaufwand genau wie gewünscht. Die kleineren Schwächen sind vertretbar und werden durch den bzw. die Hersteller hoffentlich demnächst behoben. In jedem Fall stellt die ZBOX einen im Vergleich zum davor eingesetzten Rechner einen gigantischen Sprung in Sachen Lautstärke und Geschwindigkeit dar .. und ich konnte mir einen lange geplanten Wunsch erfüllen 😉