Computer

Review: Microsoft Surface Pro 7

Photo by Zachary Fetters on Unsplash

Mein gutes altes Surface Pro 4 gab im September den Geist auf. Scheinbar hatte sich der Akku im Gerät so weit aufgebläht, dass es das Display vorne z.T. aus dem Gehäuse wölbte. Das war zum einen nicht sehr schön, störte wegen des entstehenden Farbstichs (ein nicht fürs Biegen gemachtes Display sieht komisch aus) beim Arbeiten und außerdem hatte ich Sorge, dass der defekte Akku irgendwann in Flammen aufgehen könnte.

Und weil es bei einem berühmt-berüchtigten Online-Riesen ein sehr gutes Angebot gab, schlug ich sofort zu und orderte die neueste Version des Surface, das Surface Pro 7. Und weil ich das Platingrau des alten Surface nach gut vier Jahren doch ein wenig satt hatte, nahm ich die Variante in mattschwarz inklusive TypeCover – die alte Tastatur hatte dem täglichen Einsatz in optischer Hinsicht auch schon Tribut gezollt. Damit passt das Surface zwar farblich nicht mehr zu meinem Surface Pen und der Surface Arc Mouse, aber ein wenig Abwechlsung braucht der Mensch ja hin und wieder mal.

Nachdem ich die letzten Jahre die Version mit Core i5-Prozessor, 8GB RAM und 256 GB SSD in Verwendung hatte, gönnte ich mir nun das Modell „eine Nummer größer“: Core i7-CPU, 16GB RAM und (weiterhin) 256GB SSD. Ich hätte lieber 512GB gehabt, die Variante gab es aber nicht (jedenfalls nicht im Angebot, und für die Version mit 1TB SSD war ich dann doch zu geizig).

Warum die schnellere CPU und mehr RAM?
Beim Bearbeiten von Raw-Dateien meiner Spiegelreflex und beim Rendern von Videos im Frühjahr hatte ich doch bemerkt, dass mein Surface Pro 4 schon ein paar Jahre auf dem Buckel hatte. Vom schnelleren Prozessor und größeren Arbeitsspeicher erhoffte ich mir nun einen spürbaren Geschwindigkeitszuwachs, und mehr ist ja immer besser.

Photo by Andrew Mantarro on Unsplash

Was ist mir nach dem Wechsel aufgefallen?
Man bemerkt ja zunächst immer nur die Probleme, also fange ich damit mal an:

Die Treiberprobleme, die es schon beim Pro 4 zu Beginn gab, scheinen auch beim Surface Pro 7 zu existieren. Beim 4er war es vor allem das Surface Dock, das ungefähr fünf Runden Treiberupdates brauchte, bis alles richtig lief.
Beim neuen Surface war es der Grafiktreiber, der erst nach mehreren Update-Orgien (und nachdem ich irgendwann den von Microsoft zur Verfügung gestellten Treiber ignorierte und das Intel-eigene Treiber-Update-Tool installierte) wirklich zuverlässig lief. Zuvor kam es immer wieder zu Problemen mit externen Bildschirmen (bzw. Beamern in der Schule), was äußerst nervig war.
Im gleichen Zuge habe ich auch festgestellt, dass es offenbar riesige Qualitätsunterschiede zwischen billigen und teuren USB-C zu HDMI-Adaptern gibt. Am alten Surface hatte ich jahrelang einen günstigen (aber nicht den günstigsten) Mini-DP auf HDMI/VGA-Adapter im Einsatz und das gleiche hatte ich beim neuen Surface auch vor – nur eben per USB-C, da dieser Anschluss den Mini-DisplayPort vom 4er abgelöst hat. Zwei Wochen und unzählige Stunden ohne funktionierendes Bild auf dem Beamer kam ich dann aber zu der Erkenntnis, dass der Weg von USB-C zu HDMI oder VGA (ja, die technische Ausstattung der Schule ist im Jahr 2005 stehengeblieben) kein leichter ist. Am Ende entpuppte sich dann die Nutzung eines (sündteuren) Belkin USB-C auf HDMI-Adapters mit dahinter hängendem HDMI zu VGA-Adapter als die am zuverlässigsten funktionierende Lösung. Ich weiß nicht, ob das ein spezielles Problem des Surface ist, habe von derartigen Problemen bei anderen aber noch nicht gehört.
Auch das Zusammenspiel von Surface Pen und externen Monitoren birgt einige Tücken. Mit dem Oktober-Update von Windows 10 schlich sich ein heftiger Fehler ein, der dazu führte, dass das Surface bei Nutzung von Stift und externem Monitor regelmäßig Probleme machte (der Bildschirm wurde z.B. einfach schwarz und ähnliches). Hier half nur ein Rollback auf die vorherige Windows-Version und Abwarten bis zum Winter-Update.

Weniger Fehler, aber etwas enttäuschend sind die Akku-Laufzeit und die CPU-Leistung. Der Akku soll laut Microsoft bis zu 10,5 Stunden bei „typischer Nutzung“ halten, was drei Stunden weniger als beim Vorgänger, dem Surface Pro 6, sind. Damit sollte man ja eigentlich problemlos durch einen Schul(vor)mittag kommen, dachte ich. In der Realität ist es allerdings so, dass ich nach ca. vier Schulstunden aktiver Nutzung (OneNote mit Stifteingabe, Webbrowser, evtl. kurze Videos von YouTube) langsam an eine Steckdose muss, spätestens nach sechs Schulstunden ist definitiv der Saft raus. Das ist weit entfernt von dem, was Microsoft angibt. Wenn ich – wie derzeit – ein Videokonferenz-Tool zum Streamen des Unterrichts offen habe, ist nach zwei Schulstunden der Strom aus. Damit liegt das Surface Pro 7 in praktisch neuem Zustand nur unwesentlich über meinem vier Jahre alten Surface Pro 4 mit defektem (aufgeblähtem) Akku. Das ist schon recht schwach, bedenkt man, dass das Teil ja drei Generationen neuer ist.
Auch der i7 kann mich nicht wirklich überzeugen. Im Alltag ist der Unterschied zum alten (!) i5 praktisch nicht zu bemerken. Sobald das Gerät am Strom hängt (und die CPU nicht in der Leistung gedrosselt wird), rauscht dafür sehr häufig der Lüfter – zwar nicht unangenehm, aber doch hörbar. Bei der Fotobearbeitung und beim Video-Rendern bemerke ich ehrlich gesagt keinen gravierenden Unterschied. Mag sein, dass es eine Idee schneller geht, den Sprung, den ich mir von einem drei Generationen neueren Prozessor und der nächsthöheren „Kategorie“ (i5 zu i7) versprochen hatte, erlebe ich aber nicht. So gesehen hätte ich also auch beim i5 bleiben können und würde mir das Lüfterrauschen sparen. Für normale Office- und Schul-Anwendungen wäre dieser also meine Empfehlung. Und wer mehr Videoschnitt oder Fotoretusche betreibt, sollte wohl ein anderes Gerät als das Surface Pro ins Auge fassen.


Photo by Bahman Adlou on Unsplash

Gibt’s auch was Gutes zu sagen?
Ja, klar – alles, was es auch schon zum Surface Pro 4 zu sagen gab. Das Tablet ist – nachdem alle Treiber laufen – sehr zuverlässig, schnell startklar, die Stifteingabe funktioniert hervorragend und die Tastatur des TypeCovers lässt sich, obwohl dieses im ersten Moment erschreckend dünn wirkt, wunderbar „beschreiben“.
Das Display ist mit seinen 12,3″ ausreichend groß, stellt aber einen guten Kompromiss in Sachen Handlichkeit dar. Der Bildschirm ist richtig gut: Er ist mit 267dpi knackig scharf und hat eine tolle Farbwiedergabe. Das fällt vor allem dann auf, wenn man einen altersschwachen Beamer anschließt und das auf dem Laptop wunderschön leuchtende Bild auf einmal sehr fad daherkommt.
Das Surface ist angenehm leicht, sodass man es bei Bedarf auch gut ‚in der Hand‘ verwenden kann, und es steht mit dem ausklappbaren ‚Kickstand‘ fast überall sehr sicher.
Es ist also, das hat ja schon Jan-Martin Klinge festgestellt, praktisch das perfekte Gerät für die Schule, wenn man einen ‚echten‘ Computer mit Stift will. Der Preis ist allerdings schon recht happig – ich hoffe daher, dass das Surface Pro 7 mindestens genauso lang durchhält wie sein Ur-Großvater, das Pro 4.

tl;dr
Das Surface Pro 7 ist ein tolles Gerät, ein Upgrade von älteren Versionen lohnt sich aber in meinen Augen nicht, solange diese noch funktionstüchtig sind. Die leistungsstärkste Variante kann man sich sparen und der Akku ist ein Rückschritt zu den Vorgängern.

Was im deutschen Kindle-Store falsch läuft

Der Amazon Kindle. Ich bin wirklich extrem versucht, einen zu kaufen. Eigentlich schon seit ein paar Monaten. Der Grund ist ganz klar: Das Ding nimmt in der Tasche einfach viel weniger Platz weg als ein Buch, geschweige denn mehrere. Momentan schmökere ich mich durch George R. R. Martins A Song of Ice and Fire-Serie,wovon jeder Band ein Schinken mit 800 bis 1000 Seiten ist. Geht zwar problemlos ins vordere Fach meiner Tasche, ist aber a) schwer und b) doch recht sperrig und macht die Tasche dicker als mir lieb ist. So ein Kindle dagegen… den könnte man sogar ins flache Reisverschlussfach hinten flutschen lassen, wo er dann quasi komplett unsichtbar verschwinden würde. Und dann hätte man nicht nur den aktuellen Fantasy-Roman dabei, sondern auch noch ne Reihe Aufsätze für die Uni als PDF, vielleicht eine Zeitung oder Zeitschrift und noch einen ganzen Haufen mehr Lesestoff. Alles in allem also eine totale „win-win-Situation“. Mehr dabei bei weniger Platzbedarf und Gewicht. Seit Amazon vor kurzem den neuen – billigen – Kindle für 99,- Euro vorgestellt hat, kann ich meinem Kaufdrang kaum Einhalt gebieten.

Oder besser: Könnte. Wäre da nicht eine Kleinigkeit, die mich extrem nervt. Nicht am Kindle per se, sondern am deutschen Buchmarkt. Hier eine Illustration des Problems:

Nicht nur, dass es in Deutschland – im Vergleich zu den USA, wo es so gut wie jedes Buch als Kindle-Edition gibt – extrem wenige Bücher für Amazons eBook-Reader gibt, nein, die Dinger sind oftmals auch noch teurer als die jeweilige gedruckte Ausgabe! Das lässt sich natürlich leicht erklären. Schließlich ist es für die Verlage sehr viel aufwändiger, ein eBook an Amazon zu mailen, als ein Buch drucken und binden zu lassen und dann per Post zum Händler zu schicken. Und ich als Kunde habe bei einem eBook halt auch den Vorteil, dass ich es nicht (wirklich) verleihen oder verkaufen kann, wenn ich es ausgelesen habe. All das lassen die Verlage sich anscheinend bezahlen. Ah Moment, da passt was nicht? Sehe ich genau so! Wenn ich eine digitale Version kaufe, würde ich allein deshalb einen günstigeren Preis erwarten, weil der Verlag keine Kosten für Papier und Druck hat. Und dann sollte das Buch zudem günstiger sein, weil mir ja – so gesehen – die Option des Wiederverkaufs genommen wird. Ich würde also erwarten, dass eBooks ca. 60-75% der Druck-Ausgabe kosten. Und auf keinen Fall ein paar Euro mehr!

Allem Anschein nach machen die Buchverlage (die sind nämlich genauso wie bei den gedruckten Büchern auch für die eBook-Preise verantwortlich, Buchpreisbindung sei Dank) die gleichen Fehler, die die Musikwirtschaft in den 90ern mit dem Aufkommen von mp3s gemacht hat. Das Digitalangebot ist nur sehr spärlich und schlecht und dazu noch überteuert. In der Musik war es dann Apple, welches mit dem iTunes Store digitale Musikstücke zu vernünftigen Preisen anbot (und den Musik-Labels klare Regeln diktierte, was diesen überhaupt nicht geschmeckt hat) und somit eine erfolgreiche – und von den Nutzern akzeptierte – digitale Vermarktung von Musik etabliert hat. Ich habe die Hoffnung, dass Amazon jetzt ähnliches mit dem neuen Kindle schafft. Amazon hat schon lange die nötige Infrastruktur (riesiger erprobter Shop mit Millionen bereits existierender Kunden und funktionierendem Bezahlsystem), und jetzt gibt es auch ein sehr bezahlbares „Endgerät“ in Form des günstigen Kindles. Was fehlt ist der Inhalt in ausreichender Menge und zu fairen Preisen. Im Idealfall kann Amazon allein durch die Tatsache, dass sich jetzt sehr viele Leute einen Kindle kaufen werden, genügend Druck auf die Verlage ausüben, endlich die Lücken im Sortiment zu schließen und die Preise zu senken. Schließlich sind die ganzen Kindle-Käufer potenzielle Kunden für die Verlagshäuser, die sollte man doch auch bedienen. Ich würde jedenfalls gerne deren Kunde sein, wenn das Angebot passt.

Noch eine letzte Anmerkung: Mir sind die Nachteile und Einschränkungen eines eBook-Readers, insbesondere des Kindle (proprietäres Format, keine Weitergabe möglich, quasi uneingeschränkter und willkürlicher Zugriff durch Amazon auf den persönlichen eBook-Bestand und das Kundenkonto, geschlossenes System), durchaus bewusst. Genauso wie bei Apples iTunes. Ich kann damit aber gut leben. Ich will meine Bücher einfach nur günstig kaufen und überall und einfach lesen können, ohne kiloweise Papier mit mir rumschleppen zu müssen. Das kann der Kindle, und das bietet (zumindest eingeschränkt) der Kindle-Store bei Amazon. Eine Diskussion darüber halte ich also für müßig.

Evernote

Nachdem ich letzte Woche ja schon von Genie Timeline geschwärmt habe, kommt hier die nächste Software-Empfehlung von mir. Es geht um Evernote, ein cross-platform Notizprogramm.

Evernote läuft auf Windows PCs und Macs sowie auf fast allen mobilen Geräten, wie iPhone, iPod touch, iPad, Android, Palm, Blackberry etc. Die Idee dahinter ist einfach, aber genial: Alle Notizen, die man im Programm speichert, werden autmatisch in die cloud (um mal das neueste Modewort zu verwenden) geladen und mit allen anderen Geräten synchronisiert. Wenn mir also unterwegs einfällt, dass ich noch dieses oder jenes erledigen muss, mache ich mir auf dem Handy eine Notiz in Evernote und habe diese dann automatisch zu Hause auf dem Computer. Dabei ist Evernote nicht auf reine Textnotizen beschränkt, sondern man kann auch Fotos und Sprachmemos „notieren“ und diese (z.B. auf dem iPhone mittels GPS) mit Ortsangaben versehen. Das ganze sieht auf dem PC dann beispielsweise so aus:

Das Programm sieht ein bisschen so aus, wie die Vertikalansicht mancher eMail-Clients. Links hat man die grobe Übersicht, in welcher man – wie bei mir z.B. „Uni“ – unterschiedliche Notizbücher anlegen kann. Hier finden sich auch gelöschte Notizen und die Rubrik Schlagwörter, mit Hilfe derer sich Notizen besser ordnen und später über die Suchfunktion schneller finden lassen. In der mittleren Spalte wird dann das gerade gewählte Notizbuch angezeigt und ganz rechts kann man eine einzelne Notiz – hier gerade eine Literaturrecherche – ansehen. Die Notizen lassen sich mehr oder weniger frei formatieren, auch Hyperlinks sind möglich. Wie man sieht lassen sich sogar Bilder in die Notiz einfügen bzw. werden automatisch eingefügt, wenn man den Inhalt einer Webseite als Notiz speichert.

Auf dem iPhone (hier mal stellvertretend für alle mobilen Geräte) sieht das ganze sehr ähnlich aus, allerdings wird aus Platzgründen immer nur eine Spalte des Hauptprogramms dargestellt. Anbei mal obige Notizen auf dem iPhone. Ein Tap auf die jeweilige Notiz zeigt diese dann vollständig an.

Unten findet sich, wie bei fast allen iPhone Apps, eine Art Navigation, welche weitgehend der linken Spalte der Windows-Version entspricht. Über das große blaue Plus-Symbol lassen sich neue Notizen erstellen, was einen dann zu folgendem Bildschirm führt:

Hier kann man zunächst auswählen, in welchem Notizbuch die Notiz gespeichert werden soll, und ob ein Bild (bestehend oder neu) oder eine Sprachnotiz aufgenomen werden soll. Auch Schlagwörter sowie Standortangaben lassen sich hier vornehmen. Mit einem Tap auf das kleine Tastatur-Icon wandeln sich die grauen Felder in die gewohnte iPhone-Tastatur um und man kann seine Notiz verfassen.

So weit so gut, ich habe Evernote (was ja bei Leibe keine brandaktuelle Neuigkeit ist) schon länger auf dem PC und auf dem iPhone installiert und auch ab und an (mehr oder minder regelmäßig) verwendet. Was es in meinen Augen jetzt aber zu einer der praktischsten Apps überhaupt macht ist der Evernote Web Clipper. Dabei handelt es sich um eine Extension für alle handelsüblichen Internetbrowser (Firefox, Safari, Chrome, IE), welche ein kleines Evernote-Icon in der Symbolleiste des Browsers plaziert.

Mit Hilfe dieses Icons lassen sich ganze Webseiten bzw. der gerade auf einer Seite markierte Text (und auch Bilder, wie wir oben gesehen haben) mit einem Klick als Notiz zu Evernote hnizufügen. Somit kann man sich Inhalte aus dem Web, seien das nun interessante News, Kochrezepte oder, wie in meinem Fall, Literaturangaben aus einer Datenbank blitzschnell und ohne größere Umwege auf den heimischen PC und das Handy ziehen. Genial.

Das Beste noch zum Schluss: Evernote ist komplett kostenlos. Es gibt allerdings eine kostenpflichtige Premiumversion ($5 im Monat oder $45 im Jahr), welche folgende Vorteile bietet: 1GB statt nur 60MB pro Monat Traffic für Notizen und Dateien, Upload aller Dateitypen statt nur Bild-, Ton-, Handschrift- und PDF-Dateien erlaubt, besserer Support, Texterkennung auch in PDFs sowie Werbefreiheit (wobei mir selbst in der kostenlosen Version keine großartige Werbung aufgefallen ist). Wer’s wirklich viel und insbesondere für Bilder nutzt mag beim Traffic an die Grenzen der kostenlosen Version stoßen, für mich (der ich fast ausschließlich Text synchronisiere) waren die 60MB/Monat bisher absolut ausreichend.

Gewinnspiele

Mittlerweile wird man ja regelrecht mit Gewinnspielen im Netz überflutet. Und damit meine ich jetzt nicht die „Der 100000. Klick gewinnt ein Auto“-Banner bei Google Ads, sondern die Verlosungen etc., die sich in letzter Zeit auf Fotoseiten und Blogs häufen. So verlost Scott Bourne auf photofocus.com beispielsweise alle paar Monate DSLR-Kameras (da sind dann Hämmer wie ne Canon 5D Mk II dabei), und auch auf kleineren Blogs gibts immer mal wieder ein Buch oder so zu gewinnen. Derzeit gibt es auf Robert Kneschkes Blog – anlässlich des 500. Artikels – auch etwas zu gewinnen, und zwar eine ganze Reihe wirklich heißer Preise.

Robert’s Blog ist übrigens sehr zu empfehlen, wenn man sich für Stockfotografie interessiert. Stockfotografie bedeutet, dass man als Fotograf ohne speziellen Auftrag eher „allgemeine“ Bilder macht, welche dann über eine sogenannte (Micro-) Stockagentur gekauft werden können. Klassisches Beispiel wären eine Gruppe Büromenschen an einem Konferenztisch – sowas wird z.B. gern für Imagebroschüren oder Webseiten verwendet. Hier hat Robert eine ganze Menge zu erzählen, von Bildkritiken zu Stockfotos über Download- und Umsatzzahlen, die mit seinen Bildern erzielt wurden, bis hin zur richtigen Technik und Motivauswahl. Besonders spannend ist dabei die Kategorie „Pimp my Stock„, in welcher er von seinen Lesern eingesendete Fotos auf deren „Stock-Tauglichkeit“ hin überprüft und bewertet. Habe zwar noch keine Stockfotos gemacht, aber finde es äußerst interessant, was da teilweise für Kriterien angelegt werden, mit denen man im ersten Moment nicht wirklich rechnet. Auch der Bereich „Foto-Tipps“ ist klasse, hier gibts ein paar echte Schätze (z.B. wie man sich eine „Küche“ für 99,- Euro bastelt) und ich hoffe, da wird noch mehr nachgelegt. 😉

So, jetzt probiere ich noch ein bisschen im Bereich Food Photography rum, wer weiß, vielleicht kann ich ja irgendwann das 10-millionste Tomate-Mozzarella-Bild bei einer Agentur einreichen…  🙂

 

Backup-Software: Genie Timeline

Ich bin bzw. war schon längere Zeit auf der Suche nach einer vernünftigen und vor allem bequemen und „wartungsarmen“ Backup-Lösung. Mir ist wichtig, dass meine Fotos, Dokumente etc. möglichst schnell nach Erstellung gesichert werden, und das bitte ohne, dass ich ständig die Backup-Software starten muss. Habe mir daher die üblichen Verdächtigen wie beispielsweise Acronis TrueImage mal angesehen und bin am Ende bei der Windows-eigenen Sicherung hängengeblieben. Viel mehr als die können kommerzielle Backup-Programme nämlich auch nicht: In definierten Abständen vorher festgelegte Ordner kopieren. Was mich daran immer gestört hat ist das folgende „Regen oder Traufe“ Problem. Entweder ich wähle ein möglichst kurzes Backup-Intervall, zum Beispiel einmal täglich, dann habe ich meine Daten immer auf dem aktuellsten Stand, das geht aber zu Lasten der Benutzbarkeit, da die Backup-Kopiervorgänge immer signifikante Leistungseinbußen bei der Bildbearbeitung etc. bedeuten. Oder aber ich wähle einen Zeitabstand für die Backups, der möglichst wenig mit meiner Arbeit am Computer konfligiert, meinetwegen einmal pro Woche am Sonntagabend, dann habe ich aber das Problem, dass. 1. der PC in der Zeit laufen muss und 2. meine Daten nur in recht großen Abständen gesichert werden.

Genie Timeline geht nun einen etwas anderen Weg und umgeht damit die beiden obigen Probleme: Ähnlich wie Apples TimeMachine (glückliche Mac-Benutzer, die das frei Haus bekommen) erstellt es nicht komplette Backup-„Blöcke“ zu bestimmt festgelegten Zeiten, sondern überwacht permanent die Veränderungen an den zu sichernden Daten (i.d.R. vorher festgelegte Laufwerke oder Ordner). Wenn Dateien hinzugekommen sind oder verändert wurden merkt Genie Timeline dies und sichert die neuen Dateien. Beim ersten Mal muss man natürlich einmal alles komplett kopieren, danach läuft es permanent im Hintergrund und sichert (übrigens recht ressourcenschonend) die Änderungen. Den aktuellen Status des Backups kann man sich im Programm anzeigen lassen, über den sogenannten „Timeline Explorer“ kann man sich auch den Stand des Backups zu einer bestimmten Zeit/an einem bestimmten Tag ansehen.

Einen Nachteil hat diese Art der Sicherung natürlich: Wenn ich ein normales Backup-Programm verwende, kann ich mehrere Backup-Versionen parallel halten, so dass ich Zugriff auf unterschiedliche Dateiversionen habe oder auf Dateien, die ich vor einiger Zeit schon gelöscht habe. Dies ist bei Genie Timeline nur eingeschränkt (aber immerhin!) möglich. Ich persönlich kann aber damit leben, und mir ist die unkomplizierte und vor allem ständig aktualisierte Art des Backups von Genie Timeline lieber als ein Programm, dass nur alle paar Tage sichert und dann gigabyteweise Daten schaufeln muss. Ein weiterer Nachteil: Genie Timeline kostet ein paar Euro, der Preis ist aber absolut vertretbar und die Sicherheit meiner Daten ist mir das schon wert. Wer’s ausprobieren möchte: Es gibt eine uneingeschränkt nutzbare Testversion, mit welcher man das Programm für 30 Tage ausprobieren kann. Ich kann’s jedenfalls nur empfehlen.

Our latest creation

Da ist es also nun, nachdem alle Welt schon Wochen und Monate darüber spekuliert hat: Das Apple iPad. Ein Tablet-„Computer“ mit knapp 10″ großem Touchscreen, 16-64GB Speicher und einer CPU mit genug Leistung, um (fast-)HD-Videos flüssig wiederzugeben. Dazu das aus dem iPhone bekannte Betriebssystem inklusive aller Späße wie Bewegungssensoren, Mutlitouch-Gesten etc.

Die Idee, ein nicht zu großes, einfach zu bedienendes Gerät zu haben, mit dem man Filme ansehen, ebooks lesen, Mails schreiben und im Internet surfen kann ist ziemlich klasse, und das ganze dann auch noch gepaart mit der wirklich intuitiven und kinderleichten Steuerung des iPhones lässt auf ein wirklich geniales Gadget hoffen.

Ich werd’s mir aber trotzdem nicht kaufen. Warum? Nun, zum einen der Preis: Mit knapp 500 USD startet das iPad zwar in Apple-untypisch niedrigen Preisregionen, will man aber das ganze Potential des Gerätes nutzen, so muss man eigentlich zur größten Version (64GB Speicher) mit 3G greifen, und dann ist man bei stolzen 830 USD. Warum die größte Version und mit UMTS? Erstens, wenn ich ein Teil mit so großem Bildschirm mit mir rumtrage, dann will ich auch eine ordentliche Sammlung Videos dabeihaben – da sind 64GB eigentlich eh schon zu wenig, das reicht in HD-Auflösung ja nichtmal für eine Staffel der neusten TV-Serie. Zweitens, wenn ich meine Literatur (und ich hoffe, dass da zu den bisher verfügbaren Büchern auch noch Zeitschriften und Zeitungen dazukommen) schon digital lese, dann will ich auch immer und überall Zugriff auf die neusten und aktuellsten Titel haben. Wenn ich mir erst ein WLAN zum Downloaden der heutigen Zeitung suchen muss, kann ich auch gleich zum Kiosk gehen. Also, die größte, beste, tollste Version, drunter macht’s keinen Sinn. Was aber kriege ich für meine 800 USD? Ein Gerät, dass ungefähr so groß und schwer ist wie ein Netbook, ungefähr das doppelte kostet und nichtmals die Hälfte der Anschluss- und Erweiterungsfähigkeit eines Netbooks bietet.

Damit wären wir beim zweiten Grund, weshalb ich es nicht kaufen werde (und einer Sache, die mich auch beim iPhone desöfteren aufregt). Die mangelnde Ausstattung, was Schnittstellen angeht: USB-Sticks, Speicherkarten, Digitalkamera oder eine externe Festplatte anschließen und schnell meine Daten und Bilder sichern? Nix da, und wenn dann nur mit kostenpflichtigem Zubehör. Diese Daten dann (via USB-Stick, Festplatte, Speicherkarte etc.) an Andere weitergeben? Dürfte wie beim iPhone Fehlanzeige sein. Stattdessen brauche ich immer einen extra Computer, um das iPad mit neuen Daten zu versorgen (oder ich kaufe sie online im iTunes/iBook-Store, das geht aber natürlich nur mit Musik, Apps und Büchern).

Letzteres ist auch der Grund, weshalb das iPad in meinen Augen auch nicht wirklich als „Computer for the masses“ für Oma und Opa geeignet ist. Ein Webbrowser, der einen signifikanten Teil der Seiten im Internet mangels Flash nicht richtig darstellen kann, die fehlende Möglichkeit, eigene Dateien (z.B. Bilder) ordentlich zu verwalten sowie diverse andere Einschränkungen dürften bei dieser Zielgruppe wohl eher zu Frustration als einem „Aha“-Erlebnis führen.

Würde das Ding in der größten Ausstattung die Hälfte kosten, oder böte es zumindest ab Werk eine Anschlussmöglichkeit für USB-Massenspeicher und SD-Karten sowie einen ordentlichen Dateimanager dafür, so käme ich wirklich in allergrößte Versuchung. Aber so kaufe ich lieber ein Netbook – auf dem kann ich auch lesen und Videos schauen, der Akku hält auch ordentlich lange und ich kann zumindest unterwegs Date(ie)n austauschen.

Forum offline

Da seit einem Update der MySQL-Datenbank das Seniorenheim-Forum nicht mehr richtig funktioniert (es gibt div. Fehlermeldungen beim Erstellen eines neuen Beitrags), habe ich es erstmal deaktiviert. Da sich der Fehler nicht, wie gehofft, mit einem schnellen Update der Datenbankeinträge beheben ließ und die Aktivität im Forum in den letzten Wochen ohnehin gegen 0 gegangen ist, sehe ich auch keinen Grund, noch viel Zeit zu investieren, um das Board wieder richtig ans Laufen zu bringen. Von daher bleibt das Forum jetzt erstmal geschlossen, Kontakt lässt sich ja weiterhin via Facebook, ICQ, Twitter und die Blog-Kommentare halten.

Google Apps und Windows 7

Mehr von der Computer-Front: Nachdem ich schon länger mit dem Gedanken gespielt habe, von meinem (kostenpflichtigen) GMX ProMail-Account zu einem (kostenlosen) GoogleMail-Account zu wechseln, und ich ohnehin schon länger eine eMail-Adresse mit „eigener“ Domain haben wollte, habe ich vor ein paar Tagen meine gesamten eMails von GMX zu Google transferiert. Jetzt habe ich in der Tat die prototypische Mailadresse „vorname@nachname“ – allerdings nicht .com oder .de, sondern .eu. Es gibt anscheinend doch mehr Leute, die so heißen wie ich, wenn man sich ansieht, wie viele TLDs mit meinem Nachnamen schon vergeben sind.

Da ich GoogleMail erstmal testen wollte, bevor ich mir ein eMail-Konto mit eigener Domain eingerichtet habe, habe ich zunächst einen normalen GoogleMail-Account eingerichtet. Leider funktionierte dabei der von Googlemail angebotene Migrationsservice nicht, so dass ich alle meine xx-tausend eMails in größeren Blöcken manuell per IMAP in Thunderbird rüberschieben musste. Habe zwar den Tip bekommen, dies per imapsync zu machen, aber der Aufwand, das ans Laufen zu kriegen, war mir dann doch etwas hoch. Schon blöd, wenn man keinen Linux/Unix-Rechner zur Hand hat. Nachdem ich dann nach ein paar Tagen festgestellt habe, dass Googlemail mir vom Funktionsumfang sehr zusagt (insbesondere das Web-Interface sowie die Möglichkeit, Push-eMail mit meinem iPhone zu nutzen spielten dabei eine Rolle), beschloss ich dann Google Apps für meine eigene Domain einzurichten.

Ich hatte dabei darauf gehofft, dass es doch problemlos möglich sein müsste, einen bestehenden Googlemail-Account zu einem Google Apps-Account umzuwandeln bzw. zu erweitern. Pustekuchen! Anscheinend sind Googlemail und Google Apps zwei völlig verschiedene Dinge, es wird nichtmals so ein POP-Transfer-Service angeboten, wie man ihn zur Migration von einem anderen Mailprovider zu Googlemail verwenden kann (wenn er denn funktioniert). Also habe ich mir erstmal fluchend meine Domain registriert, die entsprechenden DNS-Einträge für Google Apps gemacht und nach einer Stunde oder so lief das ganze dann auch. Ich wollte mich gerade daran machen, meine eMails wieder Gigabyte-weise per Hand durchs Netz zu schaufeln, als ich über den Tipp stolperte, die IMAP-Migration der Google Apps Professional Edition zu nutzen. Diese lässt sich nämlich in vollem Funktionsumfang 30 Tage lang kostenlos testen (sonst kostet sie 40€ pro Account und Jahr) und bietet eine tadellos funktionierende Möglichkeit, eMails inklusive Ordnerstruktur bzw. Labels von einem IMAP-Server zu Google Apps zu transferieren. Das ganze dauerte bei mir eine Nacht, dann waren alle eMails „drüben“ und ich habe die Testphase der Professional Edition wieder abgebrochen.

Seitdem genieße ich den Luxus, jede eMail binnen weniger als einer Minute auf dem Handy zu haben und überdies eine eMail-Adresse zu besitzen, die sich von all den anderen @web.de- und @gmx.net-Adressen angenehm unterscheidet.

Zweiter Teil des Blogposts: Windows 7. Nachdem so ziemlich alle Online- und Offlinemedien unisono davon schwärmten, wie gut, problemlos und vor allem schnell Windows 7 selbst auf älterer Hardware laufe, habe ich gestern in einer spontanen Aktion den Wechsel von Vista Home Premium 32bit auf Windows 7 Home Premium 64bit gemacht. Da Windows 7 auf http://www.windows7fuerstudenten.de/ für nur 35,- Euro angeboten wird (aber, wer hätte das gedacht, nur für Studenten), fiel mir der Kauf nicht so wahnsinnig schwer. Aber Achtung: Es handelt sich bei der dort angebotenen Version um ein Upgrade, nicht um eine Vollversion. D.h. man kann das dort erworbene Windows 7 nur legal nutzen, wenn man auch eine gültige (Voll-)Lizenz von Windows XP oder Vista hat. Was das für praktische Konsequenzen mit sich bringt, will ich hier kurz schildern.

Der Upgrade-Pfad für Windows 7 sieht so aus: Wer eine 32bit-Version von Vista oder XP hat, soll auf eine 32bit-Version von Win7 wechseln. Wer schon eine 64bit -Version hat, auf die 64bit-Version. Ein Wechsel von 32 auf 64bit, wie ich ihn vollzogen habe, ist wohl nicht geplant. Da ich aber auf jeden Fall die 64bit-Versio haben wollte, allein schon, um endlich meine gesamten 4GB RAM nutzen zu können, waren mir Microsofts Vorstellungen, wie ich upzudaten hätte, relativ egal. Ich habe mir also die 64bit-Version geholt, und war nach dem Download (den man übrigens nur ein mal tätigen kann, außer man erkauft sich für ein paar Euro extra die Möglichkeit, das System für zwei Jahre beliebig oft herunterzuladen) etwas perplex, als ich mit dem Ordnerinhalt der Win7-Installations-CD konfrontiert wurde. Dies enthält nämlich (logischerweise) nur eine 64bit-Version des Installationsprogramms, was sich aber unter meinem 32bit-Vista nicht starten ließ. Was für den Nutzer äußerst ärgerlich ist, ist für MS nur logisch: Da man nur von einem 64bit-Vista oder -XP auf ein 64bit-Win7 updaten soll, brauchts auch nur ein 64bit-Installationsprogramm. Also musste ich mir aus dem Netz erstmal eine Anleitung besorgen, wie man aus dem Disk-Inhalt, den ich auf Platte hatte (und bei dem es sich unpraktischerweise nicht einfach um ein ISO-Image handelte), eine bootfähige Win7-DVD macht. Der Inhalt ist nämlich, wenngleich es nur ein Update ist, komplett identisch mit einer Vollversions-DVD von Windows 7.

Nachdem ich aus den heruntergeladenen Datein mittels ImgBurn (übrigens ein unglaublich praktisches Programm, noch dazu kostenlos) eine bootfähige DVD erstellt hatte, wollte ich die Installation also angehen. Doch was passierte dann? Beim Starten des Rechners von der DVD bekam ich die lapidare Fehlermeldung „Cannot boot from CDROM. Error 05.“ und mein gutes altes Vista fuhr von Platte hoch. Also wieder mal gegoogelt und herausgefunden, dass es mit älteren Mainboards von MSI und AsRock wohl öfter dieses Problem gäbe, da der Bootsektor der Win7-DVD mit diesen inkompatibel ist. Nun ist mein Mainboard weder alt noch von MSI oder AsRock (sondern von Asus), aber was solls. Abhilfe schafft das Erstellen einer Windows7-DVD, bei welcher man den Bootsektor durch einen anderen, z.B. von einer Vista- oder XP-DVD oder dergleichen ersetzt. Dabei ist es auch wurscht, ob es sich um eine 64bit oder 32bit-Version handelt, es geht alles. Also fluchs die nächste DVD mit anderem Bootsektor gebrannt, und siehe da, die Installation startet. Im Laufe der Installation kann man auch bequem die Festplatte (um-)partitionieren bzw. einzelne Partitionen formatieren, und dann geht das Kopieren der Windows-7-Dateien auch schon ohne weiteres Nachfragen los.

Die Installation ging ersten recht flott (würde mal schätzen so 20 Minuten) und zweitens völlig selbständig. Ich wurde weder nach irgendwelchen Treibern, noch nach einer Netzwerkkonfiguration oder der Auswahl bestimmter Komponenten gefragt. Nach einer guten Viertelstunde war die erste Frage von Win7, mit welchem der verfügbaren Drahtlosnetzwerke ich mich verbinden wollte, und wie denn bitte das Passwort für das gewählte Netzwerk sei. Dann wurde nochmal etwas weiterinstalliert, und nach ein oder zwei Neustarts saß ich vor einem arbeitsbereiten System, welches im Hintergrund noch die Treiber für meinen Laserdrucker und meine WebCam runterlud und installierte. Ich war online, alle Hardware (wie Soundkarte, Tintenstrahl- und Laserdrucker oder Webcam) funktionierte, und das System fühlte sich deutlich weniger träge und zäh an als Vista. Weiterer Pluspunkt: Es nervt nicht dauernd mit Fragen, ob diese Programm wirklich installiert oder jene Datei tatsächlich verschoben werden soll. Gerade beim Sortieren des Startmenüs wirklich angenehm, das hat mich bei Vista regelmäßig in den Wahnsinn getrieben.

Die Installation der restlichen Software wie Firefox, Thunderbird, Office etc. ging problemlos und schnell, und die 64bit-Versionen von Adobe Lightroom und Photoshop machen einen wesentlich flotteren Eindruck (zumindest beim Starten) als vorher mit 32bit unter Vista. Soweit alles gut.

Was bietet Windows 7 sonst? Das auffälligste ist die neue Taskbar, bei welcher Programme jetzt nur noch mit ihrem Icon dargestellt werden, und wo nicht mehr zwischen Verknüpfung zum Starten des Programms und dem Symbol des gerade geöffneten Fensters unterschieden wird. Man hat also z.B. nur noch ein Firefox-Symbol in der Taskbar. Klickt man darauf, wenn Firefox noch nicht geöffnet ist, so wird er gestartet. Klickt man darauf, während Firefox schon läuft, so holt man das Firefox-Fenster in den Vordergrund. Hat man mehrere FF-Fenster offen, kriegt man eine Miniaturansicht aller Fenster, indem man den Mauszeiger kurz über dem Firefox-Icon verweilen lässt und kann dann gezielt das gewünschte Fenster nach vorne holen. Das ganze erinnert somit an Apples Dock, ist aber noch etwas vielseitiger und – meiner Meinung nach – beim Arbeiten mit mehreren Fenstern eines Programms noch etwas besser durchdacht als das Dock von MacOS.

Eine weitere Neuerung sind die sogenannten Bibliotheken. Das sind virtuelle Ordner, welche den Inhalt beliebig vieler echter Ordner sozusagen „unter einem Dach“ anzeigen. Wenn man z.B. seine Fotos in verschiedenen Ordnern über die ganze Festplatte verstreut gespeichert hat (oder sogar auf verschiedenen Festplatten), kann man diese ganzen Ordner der Bibliothek ‚Bilder‘ hinzufügen und muss sich von da an nicht mehr durch alle Ordner hangeln, wenn man ein bestimmtes Bild sucht. Kein gerade revolutionäres Feature, aber dennoch sehr praktisch.

Für mich persönlich sind der ‚gefühlte‘ Geschwindigkeitsvorteil sowie das seltener durch Sicherheitsfragen unterbrochene Arbeiten neben dem Upgrade auf ein 64bit-System die wichtigsten Gründe für den Wechsel, die anderen Sachen sind alle nett und schön zu haben, aber sicher kein Muss. Aber es ist ja auch so immer wieder schön, was neues auszuprobieren und eine schöne neue bunte Oberfläche zu haben.

Games people play

Ich weiß zwar nicht, ob das hier noch irgendwer liest, nachdem der letzte Blogeintrag ja schon fast einen Monat her ist, aber es gibt ja doch was zu erzählen.

Zum einen habe ich, um mal ne Abwechslung zum ganzen Seminararbeitschreiben zu haben, wieder ein bisschen mit WoW angefangen – hätte zwar Lust auf mehr, aber mehr als den ein oder anderen Abend pro Woche ‚zocken‘ ist gerade nicht drin. Habe die Zeit aber genutzt und mir für meinen Paladin endlich einen Netherdrachen gefarmt. Die Daily-Quests gehen auf 80 natürlich immens schnell (v.a. wenn man eben dank Dual-Spec auf Retribution umskillen kann), außerdem kann man pro Tag locker 10-15 Eier einsammeln. Da sonst (fast) niemand anderes noch im Outland unterwegs ist, liegen die Dinger überall rum und machen es möglich, in wenigen Tagen den benötigten Ruf zusammenzubekommen. Jetzt hat der Kerl endlich ein standesgemäßes Mount, bisher musste er ja mit dem ollen Flügeldrachen durch die Gegend fliegen.

Des Weiteren habe ich mir die Dreistigkeit erlaubt, meiner Freundin Sims 2 zu kaufen. Wer konnte ahnen, was ich damit anrichten würde? Dass die Sims ja ein Mädchenspiel sind, war mir vorher klar, aber dass es dann doch so gut ankommen würde, hätte ich nicht gedacht. Jetzt lenkt meine sonst allen Computerspielen sehr skeptisch gegenüberstehende Freundin die Geschicke eines Ehepaares, welches mittlerweile schon zwei Nachkommen in die virtuelle Welt gesetzt hat. Trotz widriger Umstände (ihre beiden Sims haben eigentlich keinen Spaß im Leben und kommen zwischen Essen, Schlafen und Kinder versorgen zu überhaupt nichts anderem mehr) ist sie  voll dabei und spielt bis spät in die Nacht hinein. Immerhin, so kann ich mal in World of Warcraft in Ruhe ne Instanz machen – wenngleich ich doch immer wieder gucken kommen muss, welches Unglück als nächstes über die Familie hereingebrochen ist. Meine Favoriten sind übrigens der brennender Herd und der Gerichtsvollzieher, der die halbe Einrichtung pfändet!

Soweit von hier, und wie immer am Schluss das mittlerweile wenig glaubwürdige Versprechen, in Zukunft öfter was zu bloggen.

„What’s wrong with the Germans?“ Jugendschutz in Deutschland

  Den folgenden Artikel habe ich gerade auf heise.de gefunden:

„What’s wrong with the Germans?“ – an dieser provokanten Frage hat Electronic-Arts-Manager Gerhard Florin am Donnerstag auf der Kölner Spielemesse gamescom seine harte Kritik am deutschen Jugendschutz und dem System der Selbstkontrolle aufgehängt. Besonders an der Nicht-Freigabe vieler Spiele entzündet sich die Kritik des EA-Vertreters: „Das ist für mich Zensur“.

Der Branchenkenner beklagt das spielefeindlichen Klima in Deutschland: So würden Politiker bei der Diskussion um die Sperrung kinderpornographicher Websites im gleichen Atemzug sogenannte Killerspiele auf die Sperrliste setzen wollen. „Das ist eine Beleidigung für Millionen Spieler“, empörte sich der Manager. „Den Begriff Killerspiele gibt es im Ausland gar nicht.“ Auch die Politik trage große Verantwortung: „Man kann nicht alle halbe Jahre die Regeln ändern, weil jemand in einer Schule herumgeschossen hat. Das eine hat mit dem anderen nichts zu tun.“

Im Zentrum von Florins Kritik steht das deutsche Jugendschutzsystem um die Unterhaltungssoftware Selbstkontrolle (USK). Die habe bisher 218 Spielen jegliche Altersfreigabe verweigert und damit den Handel der Titel verhindert. An ihre Stelle solle besser das industrieeigene Jugendschutz-System Pan-European Game Information (PEGI) gestellt werden, das ähnlich wie die USK arbeite. „Mir geht es aber nicht darum, Spiele mit Freigabe ab 18 nun eine Freigabe ab 16 zu erteilen“, stellte Florin klar. So sei ein immer größerer Anteil der Spieler erwachsen und benötigten keinen Jugendschutz.

Florin bestreitet nicht die Zulässigkeit nationaler Regeln, die zum Beispiel in Deutschland die Verbreitung von Nazi-Symbolen verbietet. Zudem gebe es illegale Inhalte, die auch für Erwachsene verboten werden könnten. Davon sei aber nur ein kleiner Teil der Spiele betroffen, die von der USK keine Altersfreigabe erhalten haben. Deshalb forderte der EA-Manager die Erarbeitung verlässlicher Richtlinien. Diese existierten bei PEGI und ermöglichten dem Hersteller schon Monate vor Veröffentlichung, die Altersfreigabe selbst zu bestimmen.

Die industrieeigene Prüfung sei dabei keineswegs ineffizienter als der deutsche Sonderweg, meint Florin. Mit PEGI habe die Industrie ein System geschaffen, das in 28 Ländern ohne Probleme eingesetzt und auch im Handel durchweg akzeptiert werde: „Wenn ein Spiel keinen PEGI-Sticker hat, kommt es einfach nicht in den Handel.“ Die Einstufung werde von einem unabhängigen Gremium geprüft, Missbrauch durch harte Vertragsstrafen verhindert. Damit sei die Spielebranche wesentlich weiter als alle anderen Medienzweige: „Suchen Sie mal nach einer Altersfreigabe für Bücher oder Musik“, meint Florin.

Der Mann hat Recht! Aber solange in der deutschen Politik das Durchschnittsalter bei weit über 50 liegt brauchen wir uns wohl keine Hoffnungen zu machen, dass sich da etwas ändert oder mal jemand ‚das Sagen‘ hat, der auch nur im entferntesten Ahnung von Computerspielen hat.