Computer

Review: Microsoft Surface Pro 7

Photo by Zachary Fetters on Unsplash

Mein gutes altes Surface Pro 4 gab im September den Geist auf. Scheinbar hatte sich der Akku im Gerät so weit aufgebläht, dass es das Display vorne z.T. aus dem Gehäuse wölbte. Das war zum einen nicht sehr schön, störte wegen des entstehenden Farbstichs (ein nicht fürs Biegen gemachtes Display sieht komisch aus) beim Arbeiten und außerdem hatte ich Sorge, dass der defekte Akku irgendwann in Flammen aufgehen könnte.

Und weil es bei einem berühmt-berüchtigten Online-Riesen ein sehr gutes Angebot gab, schlug ich sofort zu und orderte die neueste Version des Surface, das Surface Pro 7. Und weil ich das Platingrau des alten Surface nach gut vier Jahren doch ein wenig satt hatte, nahm ich die Variante in mattschwarz inklusive TypeCover – die alte Tastatur hatte dem täglichen Einsatz in optischer Hinsicht auch schon Tribut gezollt. Damit passt das Surface zwar farblich nicht mehr zu meinem Surface Pen und der Surface Arc Mouse, aber ein wenig Abwechlsung braucht der Mensch ja hin und wieder mal.

Nachdem ich die letzten Jahre die Version mit Core i5-Prozessor, 8GB RAM und 256 GB SSD in Verwendung hatte, gönnte ich mir nun das Modell „eine Nummer größer“: Core i7-CPU, 16GB RAM und (weiterhin) 256GB SSD. Ich hätte lieber 512GB gehabt, die Variante gab es aber nicht (jedenfalls nicht im Angebot, und für die Version mit 1TB SSD war ich dann doch zu geizig).

Warum die schnellere CPU und mehr RAM?
Beim Bearbeiten von Raw-Dateien meiner Spiegelreflex und beim Rendern von Videos im Frühjahr hatte ich doch bemerkt, dass mein Surface Pro 4 schon ein paar Jahre auf dem Buckel hatte. Vom schnelleren Prozessor und größeren Arbeitsspeicher erhoffte ich mir nun einen spürbaren Geschwindigkeitszuwachs, und mehr ist ja immer besser.

Photo by Andrew Mantarro on Unsplash

Was ist mir nach dem Wechsel aufgefallen?
Man bemerkt ja zunächst immer nur die Probleme, also fange ich damit mal an:

Die Treiberprobleme, die es schon beim Pro 4 zu Beginn gab, scheinen auch beim Surface Pro 7 zu existieren. Beim 4er war es vor allem das Surface Dock, das ungefähr fünf Runden Treiberupdates brauchte, bis alles richtig lief.
Beim neuen Surface war es der Grafiktreiber, der erst nach mehreren Update-Orgien (und nachdem ich irgendwann den von Microsoft zur Verfügung gestellten Treiber ignorierte und das Intel-eigene Treiber-Update-Tool installierte) wirklich zuverlässig lief. Zuvor kam es immer wieder zu Problemen mit externen Bildschirmen (bzw. Beamern in der Schule), was äußerst nervig war.
Im gleichen Zuge habe ich auch festgestellt, dass es offenbar riesige Qualitätsunterschiede zwischen billigen und teuren USB-C zu HDMI-Adaptern gibt. Am alten Surface hatte ich jahrelang einen günstigen (aber nicht den günstigsten) Mini-DP auf HDMI/VGA-Adapter im Einsatz und das gleiche hatte ich beim neuen Surface auch vor – nur eben per USB-C, da dieser Anschluss den Mini-DisplayPort vom 4er abgelöst hat. Zwei Wochen und unzählige Stunden ohne funktionierendes Bild auf dem Beamer kam ich dann aber zu der Erkenntnis, dass der Weg von USB-C zu HDMI oder VGA (ja, die technische Ausstattung der Schule ist im Jahr 2005 stehengeblieben) kein leichter ist. Am Ende entpuppte sich dann die Nutzung eines (sündteuren) Belkin USB-C auf HDMI-Adapters mit dahinter hängendem HDMI zu VGA-Adapter als die am zuverlässigsten funktionierende Lösung. Ich weiß nicht, ob das ein spezielles Problem des Surface ist, habe von derartigen Problemen bei anderen aber noch nicht gehört.
Auch das Zusammenspiel von Surface Pen und externen Monitoren birgt einige Tücken. Mit dem Oktober-Update von Windows 10 schlich sich ein heftiger Fehler ein, der dazu führte, dass das Surface bei Nutzung von Stift und externem Monitor regelmäßig Probleme machte (der Bildschirm wurde z.B. einfach schwarz und ähnliches). Hier half nur ein Rollback auf die vorherige Windows-Version und Abwarten bis zum Winter-Update.

Weniger Fehler, aber etwas enttäuschend sind die Akku-Laufzeit und die CPU-Leistung. Der Akku soll laut Microsoft bis zu 10,5 Stunden bei „typischer Nutzung“ halten, was drei Stunden weniger als beim Vorgänger, dem Surface Pro 6, sind. Damit sollte man ja eigentlich problemlos durch einen Schul(vor)mittag kommen, dachte ich. In der Realität ist es allerdings so, dass ich nach ca. vier Schulstunden aktiver Nutzung (OneNote mit Stifteingabe, Webbrowser, evtl. kurze Videos von YouTube) langsam an eine Steckdose muss, spätestens nach sechs Schulstunden ist definitiv der Saft raus. Das ist weit entfernt von dem, was Microsoft angibt. Wenn ich – wie derzeit – ein Videokonferenz-Tool zum Streamen des Unterrichts offen habe, ist nach zwei Schulstunden der Strom aus. Damit liegt das Surface Pro 7 in praktisch neuem Zustand nur unwesentlich über meinem vier Jahre alten Surface Pro 4 mit defektem (aufgeblähtem) Akku. Das ist schon recht schwach, bedenkt man, dass das Teil ja drei Generationen neuer ist.
Auch der i7 kann mich nicht wirklich überzeugen. Im Alltag ist der Unterschied zum alten (!) i5 praktisch nicht zu bemerken. Sobald das Gerät am Strom hängt (und die CPU nicht in der Leistung gedrosselt wird), rauscht dafür sehr häufig der Lüfter – zwar nicht unangenehm, aber doch hörbar. Bei der Fotobearbeitung und beim Video-Rendern bemerke ich ehrlich gesagt keinen gravierenden Unterschied. Mag sein, dass es eine Idee schneller geht, den Sprung, den ich mir von einem drei Generationen neueren Prozessor und der nächsthöheren „Kategorie“ (i5 zu i7) versprochen hatte, erlebe ich aber nicht. So gesehen hätte ich also auch beim i5 bleiben können und würde mir das Lüfterrauschen sparen. Für normale Office- und Schul-Anwendungen wäre dieser also meine Empfehlung. Und wer mehr Videoschnitt oder Fotoretusche betreibt, sollte wohl ein anderes Gerät als das Surface Pro ins Auge fassen.


Photo by Bahman Adlou on Unsplash

Gibt’s auch was Gutes zu sagen?
Ja, klar – alles, was es auch schon zum Surface Pro 4 zu sagen gab. Das Tablet ist – nachdem alle Treiber laufen – sehr zuverlässig, schnell startklar, die Stifteingabe funktioniert hervorragend und die Tastatur des TypeCovers lässt sich, obwohl dieses im ersten Moment erschreckend dünn wirkt, wunderbar „beschreiben“.
Das Display ist mit seinen 12,3″ ausreichend groß, stellt aber einen guten Kompromiss in Sachen Handlichkeit dar. Der Bildschirm ist richtig gut: Er ist mit 267dpi knackig scharf und hat eine tolle Farbwiedergabe. Das fällt vor allem dann auf, wenn man einen altersschwachen Beamer anschließt und das auf dem Laptop wunderschön leuchtende Bild auf einmal sehr fad daherkommt.
Das Surface ist angenehm leicht, sodass man es bei Bedarf auch gut ‚in der Hand‘ verwenden kann, und es steht mit dem ausklappbaren ‚Kickstand‘ fast überall sehr sicher.
Es ist also, das hat ja schon Jan-Martin Klinge festgestellt, praktisch das perfekte Gerät für die Schule, wenn man einen ‚echten‘ Computer mit Stift will. Der Preis ist allerdings schon recht happig – ich hoffe daher, dass das Surface Pro 7 mindestens genauso lang durchhält wie sein Ur-Großvater, das Pro 4.

tl;dr
Das Surface Pro 7 ist ein tolles Gerät, ein Upgrade von älteren Versionen lohnt sich aber in meinen Augen nicht, solange diese noch funktionstüchtig sind. Die leistungsstärkste Variante kann man sich sparen und der Akku ist ein Rückschritt zu den Vorgängern.

Evernote

Nachdem ich letzte Woche ja schon von Genie Timeline geschwärmt habe, kommt hier die nächste Software-Empfehlung von mir. Es geht um Evernote, ein cross-platform Notizprogramm.

Evernote läuft auf Windows PCs und Macs sowie auf fast allen mobilen Geräten, wie iPhone, iPod touch, iPad, Android, Palm, Blackberry etc. Die Idee dahinter ist einfach, aber genial: Alle Notizen, die man im Programm speichert, werden autmatisch in die cloud (um mal das neueste Modewort zu verwenden) geladen und mit allen anderen Geräten synchronisiert. Wenn mir also unterwegs einfällt, dass ich noch dieses oder jenes erledigen muss, mache ich mir auf dem Handy eine Notiz in Evernote und habe diese dann automatisch zu Hause auf dem Computer. Dabei ist Evernote nicht auf reine Textnotizen beschränkt, sondern man kann auch Fotos und Sprachmemos „notieren“ und diese (z.B. auf dem iPhone mittels GPS) mit Ortsangaben versehen. Das ganze sieht auf dem PC dann beispielsweise so aus:

Das Programm sieht ein bisschen so aus, wie die Vertikalansicht mancher eMail-Clients. Links hat man die grobe Übersicht, in welcher man – wie bei mir z.B. „Uni“ – unterschiedliche Notizbücher anlegen kann. Hier finden sich auch gelöschte Notizen und die Rubrik Schlagwörter, mit Hilfe derer sich Notizen besser ordnen und später über die Suchfunktion schneller finden lassen. In der mittleren Spalte wird dann das gerade gewählte Notizbuch angezeigt und ganz rechts kann man eine einzelne Notiz – hier gerade eine Literaturrecherche – ansehen. Die Notizen lassen sich mehr oder weniger frei formatieren, auch Hyperlinks sind möglich. Wie man sieht lassen sich sogar Bilder in die Notiz einfügen bzw. werden automatisch eingefügt, wenn man den Inhalt einer Webseite als Notiz speichert.

Auf dem iPhone (hier mal stellvertretend für alle mobilen Geräte) sieht das ganze sehr ähnlich aus, allerdings wird aus Platzgründen immer nur eine Spalte des Hauptprogramms dargestellt. Anbei mal obige Notizen auf dem iPhone. Ein Tap auf die jeweilige Notiz zeigt diese dann vollständig an.

Unten findet sich, wie bei fast allen iPhone Apps, eine Art Navigation, welche weitgehend der linken Spalte der Windows-Version entspricht. Über das große blaue Plus-Symbol lassen sich neue Notizen erstellen, was einen dann zu folgendem Bildschirm führt:

Hier kann man zunächst auswählen, in welchem Notizbuch die Notiz gespeichert werden soll, und ob ein Bild (bestehend oder neu) oder eine Sprachnotiz aufgenomen werden soll. Auch Schlagwörter sowie Standortangaben lassen sich hier vornehmen. Mit einem Tap auf das kleine Tastatur-Icon wandeln sich die grauen Felder in die gewohnte iPhone-Tastatur um und man kann seine Notiz verfassen.

So weit so gut, ich habe Evernote (was ja bei Leibe keine brandaktuelle Neuigkeit ist) schon länger auf dem PC und auf dem iPhone installiert und auch ab und an (mehr oder minder regelmäßig) verwendet. Was es in meinen Augen jetzt aber zu einer der praktischsten Apps überhaupt macht ist der Evernote Web Clipper. Dabei handelt es sich um eine Extension für alle handelsüblichen Internetbrowser (Firefox, Safari, Chrome, IE), welche ein kleines Evernote-Icon in der Symbolleiste des Browsers plaziert.

Mit Hilfe dieses Icons lassen sich ganze Webseiten bzw. der gerade auf einer Seite markierte Text (und auch Bilder, wie wir oben gesehen haben) mit einem Klick als Notiz zu Evernote hnizufügen. Somit kann man sich Inhalte aus dem Web, seien das nun interessante News, Kochrezepte oder, wie in meinem Fall, Literaturangaben aus einer Datenbank blitzschnell und ohne größere Umwege auf den heimischen PC und das Handy ziehen. Genial.

Das Beste noch zum Schluss: Evernote ist komplett kostenlos. Es gibt allerdings eine kostenpflichtige Premiumversion ($5 im Monat oder $45 im Jahr), welche folgende Vorteile bietet: 1GB statt nur 60MB pro Monat Traffic für Notizen und Dateien, Upload aller Dateitypen statt nur Bild-, Ton-, Handschrift- und PDF-Dateien erlaubt, besserer Support, Texterkennung auch in PDFs sowie Werbefreiheit (wobei mir selbst in der kostenlosen Version keine großartige Werbung aufgefallen ist). Wer’s wirklich viel und insbesondere für Bilder nutzt mag beim Traffic an die Grenzen der kostenlosen Version stoßen, für mich (der ich fast ausschließlich Text synchronisiere) waren die 60MB/Monat bisher absolut ausreichend.

Gewinnspiele

Mittlerweile wird man ja regelrecht mit Gewinnspielen im Netz überflutet. Und damit meine ich jetzt nicht die „Der 100000. Klick gewinnt ein Auto“-Banner bei Google Ads, sondern die Verlosungen etc., die sich in letzter Zeit auf Fotoseiten und Blogs häufen. So verlost Scott Bourne auf photofocus.com beispielsweise alle paar Monate DSLR-Kameras (da sind dann Hämmer wie ne Canon 5D Mk II dabei), und auch auf kleineren Blogs gibts immer mal wieder ein Buch oder so zu gewinnen. Derzeit gibt es auf Robert Kneschkes Blog – anlässlich des 500. Artikels – auch etwas zu gewinnen, und zwar eine ganze Reihe wirklich heißer Preise.

Robert’s Blog ist übrigens sehr zu empfehlen, wenn man sich für Stockfotografie interessiert. Stockfotografie bedeutet, dass man als Fotograf ohne speziellen Auftrag eher „allgemeine“ Bilder macht, welche dann über eine sogenannte (Micro-) Stockagentur gekauft werden können. Klassisches Beispiel wären eine Gruppe Büromenschen an einem Konferenztisch – sowas wird z.B. gern für Imagebroschüren oder Webseiten verwendet. Hier hat Robert eine ganze Menge zu erzählen, von Bildkritiken zu Stockfotos über Download- und Umsatzzahlen, die mit seinen Bildern erzielt wurden, bis hin zur richtigen Technik und Motivauswahl. Besonders spannend ist dabei die Kategorie „Pimp my Stock„, in welcher er von seinen Lesern eingesendete Fotos auf deren „Stock-Tauglichkeit“ hin überprüft und bewertet. Habe zwar noch keine Stockfotos gemacht, aber finde es äußerst interessant, was da teilweise für Kriterien angelegt werden, mit denen man im ersten Moment nicht wirklich rechnet. Auch der Bereich „Foto-Tipps“ ist klasse, hier gibts ein paar echte Schätze (z.B. wie man sich eine „Küche“ für 99,- Euro bastelt) und ich hoffe, da wird noch mehr nachgelegt. 😉

So, jetzt probiere ich noch ein bisschen im Bereich Food Photography rum, wer weiß, vielleicht kann ich ja irgendwann das 10-millionste Tomate-Mozzarella-Bild bei einer Agentur einreichen…  🙂

 

Backup-Software: Genie Timeline

Ich bin bzw. war schon längere Zeit auf der Suche nach einer vernünftigen und vor allem bequemen und „wartungsarmen“ Backup-Lösung. Mir ist wichtig, dass meine Fotos, Dokumente etc. möglichst schnell nach Erstellung gesichert werden, und das bitte ohne, dass ich ständig die Backup-Software starten muss. Habe mir daher die üblichen Verdächtigen wie beispielsweise Acronis TrueImage mal angesehen und bin am Ende bei der Windows-eigenen Sicherung hängengeblieben. Viel mehr als die können kommerzielle Backup-Programme nämlich auch nicht: In definierten Abständen vorher festgelegte Ordner kopieren. Was mich daran immer gestört hat ist das folgende „Regen oder Traufe“ Problem. Entweder ich wähle ein möglichst kurzes Backup-Intervall, zum Beispiel einmal täglich, dann habe ich meine Daten immer auf dem aktuellsten Stand, das geht aber zu Lasten der Benutzbarkeit, da die Backup-Kopiervorgänge immer signifikante Leistungseinbußen bei der Bildbearbeitung etc. bedeuten. Oder aber ich wähle einen Zeitabstand für die Backups, der möglichst wenig mit meiner Arbeit am Computer konfligiert, meinetwegen einmal pro Woche am Sonntagabend, dann habe ich aber das Problem, dass. 1. der PC in der Zeit laufen muss und 2. meine Daten nur in recht großen Abständen gesichert werden.

Genie Timeline geht nun einen etwas anderen Weg und umgeht damit die beiden obigen Probleme: Ähnlich wie Apples TimeMachine (glückliche Mac-Benutzer, die das frei Haus bekommen) erstellt es nicht komplette Backup-„Blöcke“ zu bestimmt festgelegten Zeiten, sondern überwacht permanent die Veränderungen an den zu sichernden Daten (i.d.R. vorher festgelegte Laufwerke oder Ordner). Wenn Dateien hinzugekommen sind oder verändert wurden merkt Genie Timeline dies und sichert die neuen Dateien. Beim ersten Mal muss man natürlich einmal alles komplett kopieren, danach läuft es permanent im Hintergrund und sichert (übrigens recht ressourcenschonend) die Änderungen. Den aktuellen Status des Backups kann man sich im Programm anzeigen lassen, über den sogenannten „Timeline Explorer“ kann man sich auch den Stand des Backups zu einer bestimmten Zeit/an einem bestimmten Tag ansehen.

Einen Nachteil hat diese Art der Sicherung natürlich: Wenn ich ein normales Backup-Programm verwende, kann ich mehrere Backup-Versionen parallel halten, so dass ich Zugriff auf unterschiedliche Dateiversionen habe oder auf Dateien, die ich vor einiger Zeit schon gelöscht habe. Dies ist bei Genie Timeline nur eingeschränkt (aber immerhin!) möglich. Ich persönlich kann aber damit leben, und mir ist die unkomplizierte und vor allem ständig aktualisierte Art des Backups von Genie Timeline lieber als ein Programm, dass nur alle paar Tage sichert und dann gigabyteweise Daten schaufeln muss. Ein weiterer Nachteil: Genie Timeline kostet ein paar Euro, der Preis ist aber absolut vertretbar und die Sicherheit meiner Daten ist mir das schon wert. Wer’s ausprobieren möchte: Es gibt eine uneingeschränkt nutzbare Testversion, mit welcher man das Programm für 30 Tage ausprobieren kann. Ich kann’s jedenfalls nur empfehlen.

Forum offline

Da seit einem Update der MySQL-Datenbank das Seniorenheim-Forum nicht mehr richtig funktioniert (es gibt div. Fehlermeldungen beim Erstellen eines neuen Beitrags), habe ich es erstmal deaktiviert. Da sich der Fehler nicht, wie gehofft, mit einem schnellen Update der Datenbankeinträge beheben ließ und die Aktivität im Forum in den letzten Wochen ohnehin gegen 0 gegangen ist, sehe ich auch keinen Grund, noch viel Zeit zu investieren, um das Board wieder richtig ans Laufen zu bringen. Von daher bleibt das Forum jetzt erstmal geschlossen, Kontakt lässt sich ja weiterhin via Facebook, ICQ, Twitter und die Blog-Kommentare halten.

Google Apps und Windows 7

Mehr von der Computer-Front: Nachdem ich schon länger mit dem Gedanken gespielt habe, von meinem (kostenpflichtigen) GMX ProMail-Account zu einem (kostenlosen) GoogleMail-Account zu wechseln, und ich ohnehin schon länger eine eMail-Adresse mit „eigener“ Domain haben wollte, habe ich vor ein paar Tagen meine gesamten eMails von GMX zu Google transferiert. Jetzt habe ich in der Tat die prototypische Mailadresse „vorname@nachname“ – allerdings nicht .com oder .de, sondern .eu. Es gibt anscheinend doch mehr Leute, die so heißen wie ich, wenn man sich ansieht, wie viele TLDs mit meinem Nachnamen schon vergeben sind.

Da ich GoogleMail erstmal testen wollte, bevor ich mir ein eMail-Konto mit eigener Domain eingerichtet habe, habe ich zunächst einen normalen GoogleMail-Account eingerichtet. Leider funktionierte dabei der von Googlemail angebotene Migrationsservice nicht, so dass ich alle meine xx-tausend eMails in größeren Blöcken manuell per IMAP in Thunderbird rüberschieben musste. Habe zwar den Tip bekommen, dies per imapsync zu machen, aber der Aufwand, das ans Laufen zu kriegen, war mir dann doch etwas hoch. Schon blöd, wenn man keinen Linux/Unix-Rechner zur Hand hat. Nachdem ich dann nach ein paar Tagen festgestellt habe, dass Googlemail mir vom Funktionsumfang sehr zusagt (insbesondere das Web-Interface sowie die Möglichkeit, Push-eMail mit meinem iPhone zu nutzen spielten dabei eine Rolle), beschloss ich dann Google Apps für meine eigene Domain einzurichten.

Ich hatte dabei darauf gehofft, dass es doch problemlos möglich sein müsste, einen bestehenden Googlemail-Account zu einem Google Apps-Account umzuwandeln bzw. zu erweitern. Pustekuchen! Anscheinend sind Googlemail und Google Apps zwei völlig verschiedene Dinge, es wird nichtmals so ein POP-Transfer-Service angeboten, wie man ihn zur Migration von einem anderen Mailprovider zu Googlemail verwenden kann (wenn er denn funktioniert). Also habe ich mir erstmal fluchend meine Domain registriert, die entsprechenden DNS-Einträge für Google Apps gemacht und nach einer Stunde oder so lief das ganze dann auch. Ich wollte mich gerade daran machen, meine eMails wieder Gigabyte-weise per Hand durchs Netz zu schaufeln, als ich über den Tipp stolperte, die IMAP-Migration der Google Apps Professional Edition zu nutzen. Diese lässt sich nämlich in vollem Funktionsumfang 30 Tage lang kostenlos testen (sonst kostet sie 40€ pro Account und Jahr) und bietet eine tadellos funktionierende Möglichkeit, eMails inklusive Ordnerstruktur bzw. Labels von einem IMAP-Server zu Google Apps zu transferieren. Das ganze dauerte bei mir eine Nacht, dann waren alle eMails „drüben“ und ich habe die Testphase der Professional Edition wieder abgebrochen.

Seitdem genieße ich den Luxus, jede eMail binnen weniger als einer Minute auf dem Handy zu haben und überdies eine eMail-Adresse zu besitzen, die sich von all den anderen @web.de- und @gmx.net-Adressen angenehm unterscheidet.

Zweiter Teil des Blogposts: Windows 7. Nachdem so ziemlich alle Online- und Offlinemedien unisono davon schwärmten, wie gut, problemlos und vor allem schnell Windows 7 selbst auf älterer Hardware laufe, habe ich gestern in einer spontanen Aktion den Wechsel von Vista Home Premium 32bit auf Windows 7 Home Premium 64bit gemacht. Da Windows 7 auf http://www.windows7fuerstudenten.de/ für nur 35,- Euro angeboten wird (aber, wer hätte das gedacht, nur für Studenten), fiel mir der Kauf nicht so wahnsinnig schwer. Aber Achtung: Es handelt sich bei der dort angebotenen Version um ein Upgrade, nicht um eine Vollversion. D.h. man kann das dort erworbene Windows 7 nur legal nutzen, wenn man auch eine gültige (Voll-)Lizenz von Windows XP oder Vista hat. Was das für praktische Konsequenzen mit sich bringt, will ich hier kurz schildern.

Der Upgrade-Pfad für Windows 7 sieht so aus: Wer eine 32bit-Version von Vista oder XP hat, soll auf eine 32bit-Version von Win7 wechseln. Wer schon eine 64bit -Version hat, auf die 64bit-Version. Ein Wechsel von 32 auf 64bit, wie ich ihn vollzogen habe, ist wohl nicht geplant. Da ich aber auf jeden Fall die 64bit-Versio haben wollte, allein schon, um endlich meine gesamten 4GB RAM nutzen zu können, waren mir Microsofts Vorstellungen, wie ich upzudaten hätte, relativ egal. Ich habe mir also die 64bit-Version geholt, und war nach dem Download (den man übrigens nur ein mal tätigen kann, außer man erkauft sich für ein paar Euro extra die Möglichkeit, das System für zwei Jahre beliebig oft herunterzuladen) etwas perplex, als ich mit dem Ordnerinhalt der Win7-Installations-CD konfrontiert wurde. Dies enthält nämlich (logischerweise) nur eine 64bit-Version des Installationsprogramms, was sich aber unter meinem 32bit-Vista nicht starten ließ. Was für den Nutzer äußerst ärgerlich ist, ist für MS nur logisch: Da man nur von einem 64bit-Vista oder -XP auf ein 64bit-Win7 updaten soll, brauchts auch nur ein 64bit-Installationsprogramm. Also musste ich mir aus dem Netz erstmal eine Anleitung besorgen, wie man aus dem Disk-Inhalt, den ich auf Platte hatte (und bei dem es sich unpraktischerweise nicht einfach um ein ISO-Image handelte), eine bootfähige Win7-DVD macht. Der Inhalt ist nämlich, wenngleich es nur ein Update ist, komplett identisch mit einer Vollversions-DVD von Windows 7.

Nachdem ich aus den heruntergeladenen Datein mittels ImgBurn (übrigens ein unglaublich praktisches Programm, noch dazu kostenlos) eine bootfähige DVD erstellt hatte, wollte ich die Installation also angehen. Doch was passierte dann? Beim Starten des Rechners von der DVD bekam ich die lapidare Fehlermeldung „Cannot boot from CDROM. Error 05.“ und mein gutes altes Vista fuhr von Platte hoch. Also wieder mal gegoogelt und herausgefunden, dass es mit älteren Mainboards von MSI und AsRock wohl öfter dieses Problem gäbe, da der Bootsektor der Win7-DVD mit diesen inkompatibel ist. Nun ist mein Mainboard weder alt noch von MSI oder AsRock (sondern von Asus), aber was solls. Abhilfe schafft das Erstellen einer Windows7-DVD, bei welcher man den Bootsektor durch einen anderen, z.B. von einer Vista- oder XP-DVD oder dergleichen ersetzt. Dabei ist es auch wurscht, ob es sich um eine 64bit oder 32bit-Version handelt, es geht alles. Also fluchs die nächste DVD mit anderem Bootsektor gebrannt, und siehe da, die Installation startet. Im Laufe der Installation kann man auch bequem die Festplatte (um-)partitionieren bzw. einzelne Partitionen formatieren, und dann geht das Kopieren der Windows-7-Dateien auch schon ohne weiteres Nachfragen los.

Die Installation ging ersten recht flott (würde mal schätzen so 20 Minuten) und zweitens völlig selbständig. Ich wurde weder nach irgendwelchen Treibern, noch nach einer Netzwerkkonfiguration oder der Auswahl bestimmter Komponenten gefragt. Nach einer guten Viertelstunde war die erste Frage von Win7, mit welchem der verfügbaren Drahtlosnetzwerke ich mich verbinden wollte, und wie denn bitte das Passwort für das gewählte Netzwerk sei. Dann wurde nochmal etwas weiterinstalliert, und nach ein oder zwei Neustarts saß ich vor einem arbeitsbereiten System, welches im Hintergrund noch die Treiber für meinen Laserdrucker und meine WebCam runterlud und installierte. Ich war online, alle Hardware (wie Soundkarte, Tintenstrahl- und Laserdrucker oder Webcam) funktionierte, und das System fühlte sich deutlich weniger träge und zäh an als Vista. Weiterer Pluspunkt: Es nervt nicht dauernd mit Fragen, ob diese Programm wirklich installiert oder jene Datei tatsächlich verschoben werden soll. Gerade beim Sortieren des Startmenüs wirklich angenehm, das hat mich bei Vista regelmäßig in den Wahnsinn getrieben.

Die Installation der restlichen Software wie Firefox, Thunderbird, Office etc. ging problemlos und schnell, und die 64bit-Versionen von Adobe Lightroom und Photoshop machen einen wesentlich flotteren Eindruck (zumindest beim Starten) als vorher mit 32bit unter Vista. Soweit alles gut.

Was bietet Windows 7 sonst? Das auffälligste ist die neue Taskbar, bei welcher Programme jetzt nur noch mit ihrem Icon dargestellt werden, und wo nicht mehr zwischen Verknüpfung zum Starten des Programms und dem Symbol des gerade geöffneten Fensters unterschieden wird. Man hat also z.B. nur noch ein Firefox-Symbol in der Taskbar. Klickt man darauf, wenn Firefox noch nicht geöffnet ist, so wird er gestartet. Klickt man darauf, während Firefox schon läuft, so holt man das Firefox-Fenster in den Vordergrund. Hat man mehrere FF-Fenster offen, kriegt man eine Miniaturansicht aller Fenster, indem man den Mauszeiger kurz über dem Firefox-Icon verweilen lässt und kann dann gezielt das gewünschte Fenster nach vorne holen. Das ganze erinnert somit an Apples Dock, ist aber noch etwas vielseitiger und – meiner Meinung nach – beim Arbeiten mit mehreren Fenstern eines Programms noch etwas besser durchdacht als das Dock von MacOS.

Eine weitere Neuerung sind die sogenannten Bibliotheken. Das sind virtuelle Ordner, welche den Inhalt beliebig vieler echter Ordner sozusagen „unter einem Dach“ anzeigen. Wenn man z.B. seine Fotos in verschiedenen Ordnern über die ganze Festplatte verstreut gespeichert hat (oder sogar auf verschiedenen Festplatten), kann man diese ganzen Ordner der Bibliothek ‚Bilder‘ hinzufügen und muss sich von da an nicht mehr durch alle Ordner hangeln, wenn man ein bestimmtes Bild sucht. Kein gerade revolutionäres Feature, aber dennoch sehr praktisch.

Für mich persönlich sind der ‚gefühlte‘ Geschwindigkeitsvorteil sowie das seltener durch Sicherheitsfragen unterbrochene Arbeiten neben dem Upgrade auf ein 64bit-System die wichtigsten Gründe für den Wechsel, die anderen Sachen sind alle nett und schön zu haben, aber sicher kein Muss. Aber es ist ja auch so immer wieder schön, was neues auszuprobieren und eine schöne neue bunte Oberfläche zu haben.

Games people play

Ich weiß zwar nicht, ob das hier noch irgendwer liest, nachdem der letzte Blogeintrag ja schon fast einen Monat her ist, aber es gibt ja doch was zu erzählen.

Zum einen habe ich, um mal ne Abwechslung zum ganzen Seminararbeitschreiben zu haben, wieder ein bisschen mit WoW angefangen – hätte zwar Lust auf mehr, aber mehr als den ein oder anderen Abend pro Woche ‚zocken‘ ist gerade nicht drin. Habe die Zeit aber genutzt und mir für meinen Paladin endlich einen Netherdrachen gefarmt. Die Daily-Quests gehen auf 80 natürlich immens schnell (v.a. wenn man eben dank Dual-Spec auf Retribution umskillen kann), außerdem kann man pro Tag locker 10-15 Eier einsammeln. Da sonst (fast) niemand anderes noch im Outland unterwegs ist, liegen die Dinger überall rum und machen es möglich, in wenigen Tagen den benötigten Ruf zusammenzubekommen. Jetzt hat der Kerl endlich ein standesgemäßes Mount, bisher musste er ja mit dem ollen Flügeldrachen durch die Gegend fliegen.

Des Weiteren habe ich mir die Dreistigkeit erlaubt, meiner Freundin Sims 2 zu kaufen. Wer konnte ahnen, was ich damit anrichten würde? Dass die Sims ja ein Mädchenspiel sind, war mir vorher klar, aber dass es dann doch so gut ankommen würde, hätte ich nicht gedacht. Jetzt lenkt meine sonst allen Computerspielen sehr skeptisch gegenüberstehende Freundin die Geschicke eines Ehepaares, welches mittlerweile schon zwei Nachkommen in die virtuelle Welt gesetzt hat. Trotz widriger Umstände (ihre beiden Sims haben eigentlich keinen Spaß im Leben und kommen zwischen Essen, Schlafen und Kinder versorgen zu überhaupt nichts anderem mehr) ist sie  voll dabei und spielt bis spät in die Nacht hinein. Immerhin, so kann ich mal in World of Warcraft in Ruhe ne Instanz machen – wenngleich ich doch immer wieder gucken kommen muss, welches Unglück als nächstes über die Familie hereingebrochen ist. Meine Favoriten sind übrigens der brennender Herd und der Gerichtsvollzieher, der die halbe Einrichtung pfändet!

Soweit von hier, und wie immer am Schluss das mittlerweile wenig glaubwürdige Versprechen, in Zukunft öfter was zu bloggen.

„What’s wrong with the Germans?“ Jugendschutz in Deutschland

  Den folgenden Artikel habe ich gerade auf heise.de gefunden:

„What’s wrong with the Germans?“ – an dieser provokanten Frage hat Electronic-Arts-Manager Gerhard Florin am Donnerstag auf der Kölner Spielemesse gamescom seine harte Kritik am deutschen Jugendschutz und dem System der Selbstkontrolle aufgehängt. Besonders an der Nicht-Freigabe vieler Spiele entzündet sich die Kritik des EA-Vertreters: „Das ist für mich Zensur“.

Der Branchenkenner beklagt das spielefeindlichen Klima in Deutschland: So würden Politiker bei der Diskussion um die Sperrung kinderpornographicher Websites im gleichen Atemzug sogenannte Killerspiele auf die Sperrliste setzen wollen. „Das ist eine Beleidigung für Millionen Spieler“, empörte sich der Manager. „Den Begriff Killerspiele gibt es im Ausland gar nicht.“ Auch die Politik trage große Verantwortung: „Man kann nicht alle halbe Jahre die Regeln ändern, weil jemand in einer Schule herumgeschossen hat. Das eine hat mit dem anderen nichts zu tun.“

Im Zentrum von Florins Kritik steht das deutsche Jugendschutzsystem um die Unterhaltungssoftware Selbstkontrolle (USK). Die habe bisher 218 Spielen jegliche Altersfreigabe verweigert und damit den Handel der Titel verhindert. An ihre Stelle solle besser das industrieeigene Jugendschutz-System Pan-European Game Information (PEGI) gestellt werden, das ähnlich wie die USK arbeite. „Mir geht es aber nicht darum, Spiele mit Freigabe ab 18 nun eine Freigabe ab 16 zu erteilen“, stellte Florin klar. So sei ein immer größerer Anteil der Spieler erwachsen und benötigten keinen Jugendschutz.

Florin bestreitet nicht die Zulässigkeit nationaler Regeln, die zum Beispiel in Deutschland die Verbreitung von Nazi-Symbolen verbietet. Zudem gebe es illegale Inhalte, die auch für Erwachsene verboten werden könnten. Davon sei aber nur ein kleiner Teil der Spiele betroffen, die von der USK keine Altersfreigabe erhalten haben. Deshalb forderte der EA-Manager die Erarbeitung verlässlicher Richtlinien. Diese existierten bei PEGI und ermöglichten dem Hersteller schon Monate vor Veröffentlichung, die Altersfreigabe selbst zu bestimmen.

Die industrieeigene Prüfung sei dabei keineswegs ineffizienter als der deutsche Sonderweg, meint Florin. Mit PEGI habe die Industrie ein System geschaffen, das in 28 Ländern ohne Probleme eingesetzt und auch im Handel durchweg akzeptiert werde: „Wenn ein Spiel keinen PEGI-Sticker hat, kommt es einfach nicht in den Handel.“ Die Einstufung werde von einem unabhängigen Gremium geprüft, Missbrauch durch harte Vertragsstrafen verhindert. Damit sei die Spielebranche wesentlich weiter als alle anderen Medienzweige: „Suchen Sie mal nach einer Altersfreigabe für Bücher oder Musik“, meint Florin.

Der Mann hat Recht! Aber solange in der deutschen Politik das Durchschnittsalter bei weit über 50 liegt brauchen wir uns wohl keine Hoffnungen zu machen, dass sich da etwas ändert oder mal jemand ‚das Sagen‘ hat, der auch nur im entferntesten Ahnung von Computerspielen hat.

Das Apple-Virus und Safari

Also gut, ich gebs zu… Da mein alter Handy-Vertrag bald ausläuft, und mich das iPhone schon immer fasziniert hat, habe ich mich mal über die T-Mobile Tarife schlau gemacht und einen brauchbaren Tarif mit ausreichend Freiminuten und -SMS gefunden, den es dann auch noch zum Studententarif vergünstigt gab. Alle andern Optionen, ein iPhone mit einem anderen Anbieter zu nutzen, ist meiner Meinung nach wegen der fehlenden Datenflatrate nicht sinnvoll… wenn ich „das Internet“ schon  immer dabei hab, will ich es auch nutzen können, ohne ständig an die Gebühren denken zu müssen.

Was soll ich sagen? Das iPhone ist der helle Wahnsinn. Habe mir das iPhone 3G mit 8GB geholt, das es  für nen schlappen Euro gab, da ich die 16GB Version einfach nicht brauche. Auf 8GB kriege ich ausreichend Musik unter, und die Apps brauchen ohnehin nur ein paar KB. Die Bedienung ist der Hammer, die Online-Funktionen sind zusammen mit GPS der Wahnsinn – ich sage nur schnell mal eben die nächste Bushaltestelle suchen und sehen, wann dort der nächste Bus abfährt, oder die nächsten Restaurants und Cafes im Umkreis anzeigen lassen. Genial! Die „Touch-Tastatur“ ist natürlich etwas gewöhnungsbedürftig, aber nach ein wenig Üben kommt man gut damit klar.

Das Problem: Der Apple-Virus ergreift mich wieder… nachdem ich zuletzt (nach Jahren mit dem iBook und diversen iPod-Käufen danach) ja ziemlich weg von Apple-Produkten war, nicht zuletzt weil ich mehr am PC gespielt habe, was auf dem Mac ja nur sehr begrenzt möglich ist, bin ich nun durch das iPhone wieder infiziert worden. Das Konzept von Apples Produkten ist einfach der Hammer, alles funktioniert tadellos und hat dabei dieses gewisse Etwas, was das Benutzen von Apple-Hardware und -Software einfach zu einem Genuss macht. Nachdem nun gestern auf der WWDC die neuen 13″ MacBook Pros vorgestellt wurden, und der Faktor Spiele für mich nicht mehr besonders relevant ist, muss ich gestehen, dass es mich doch sehr stark in den Fingern juckt. Wenns halt nich so teuer wäre…

Im Anschluss an die Keynote der WWDC habe ich mir dann noch den neuen Safari 4 (natürlich für Windows) runtergeladen. Beim Ausprobieren ist mir dann echt die Kinnlade runtergeklappt! Der Browser ist dermaßen schnell, das ist unfassbar. Werde ihn jetzt mal ein paar Tage lang testen, aber ich denke, dass er gute Chancen hat, mein neuer Standardbrowser zu werden.

Firefox Personas

Mal wieder was „nerdiges“: Habe heute auf heise.de von Firefox Personas gelesen. Personas ist ein Firefox PlugIn, welches das man sich als „light Skins“ vorstellen muss. D.h. man kann mit dem AddOn das Aussehen von Firefox ändern, wobei aber Symbole und Menüs gleichbleiben und nur eine Art Bild anstelle des üblichen Graus unter die Symbolleiste und Statusleiste gelegt wird. Daneben wird – je nach „Persona“ – auch eventuell die Schriftfarbe von Bookmark-Bar und Menüleiste geändert.

Nette Sache: Die Personas lassen sich „on the fly“ im Betrieb wechseln und vorab ansehen. So kann man, wenn einem der eigene Browser zu fad ist, schnell und leicht für etwas Abwechslung sorgen. Mein Browser sieht im Moment so aus, was ich nach jahrelangem Grau als eine angenehme Alternative empfinde:

personas

Unten links in der Statusleiste ist das Personas-Icon zu sehen, ein Klick darauf lässt einen per Kontextmenü neue Skins auswählen. Diese werden, fährt man im Menü mit der Maus darüber, direkt im Browser angezeigt, so dass man eine sofortige Vorschau des ganzen hat. Wird einem alles sprichwörtlich zu bunt, reicht im Menü ein Klick auf „Standard“ und Firefox sieht wieder normal aus. Sicherlich ein sinnloses und überflüssiges AddOn, aber mir gefällts.