Was im deutschen Kindle-Store falsch läuft

Der Amazon Kindle. Ich bin wirklich extrem versucht, einen zu kaufen. Eigentlich schon seit ein paar Monaten. Der Grund ist ganz klar: Das Ding nimmt in der Tasche einfach viel weniger Platz weg als ein Buch, geschweige denn mehrere. Momentan schmökere ich mich durch George R. R. Martins A Song of Ice and Fire-Serie,wovon jeder Band ein Schinken mit 800 bis 1000 Seiten ist. Geht zwar problemlos ins vordere Fach meiner Tasche, ist aber a) schwer und b) doch recht sperrig und macht die Tasche dicker als mir lieb ist. So ein Kindle dagegen… den könnte man sogar ins flache Reisverschlussfach hinten flutschen lassen, wo er dann quasi komplett unsichtbar verschwinden würde. Und dann hätte man nicht nur den aktuellen Fantasy-Roman dabei, sondern auch noch ne Reihe Aufsätze für die Uni als PDF, vielleicht eine Zeitung oder Zeitschrift und noch einen ganzen Haufen mehr Lesestoff. Alles in allem also eine totale „win-win-Situation“. Mehr dabei bei weniger Platzbedarf und Gewicht. Seit Amazon vor kurzem den neuen – billigen – Kindle für 99,- Euro vorgestellt hat, kann ich meinem Kaufdrang kaum Einhalt gebieten.

Oder besser: Könnte. Wäre da nicht eine Kleinigkeit, die mich extrem nervt. Nicht am Kindle per se, sondern am deutschen Buchmarkt. Hier eine Illustration des Problems:

Nicht nur, dass es in Deutschland – im Vergleich zu den USA, wo es so gut wie jedes Buch als Kindle-Edition gibt – extrem wenige Bücher für Amazons eBook-Reader gibt, nein, die Dinger sind oftmals auch noch teurer als die jeweilige gedruckte Ausgabe! Das lässt sich natürlich leicht erklären. Schließlich ist es für die Verlage sehr viel aufwändiger, ein eBook an Amazon zu mailen, als ein Buch drucken und binden zu lassen und dann per Post zum Händler zu schicken. Und ich als Kunde habe bei einem eBook halt auch den Vorteil, dass ich es nicht (wirklich) verleihen oder verkaufen kann, wenn ich es ausgelesen habe. All das lassen die Verlage sich anscheinend bezahlen. Ah Moment, da passt was nicht? Sehe ich genau so! Wenn ich eine digitale Version kaufe, würde ich allein deshalb einen günstigeren Preis erwarten, weil der Verlag keine Kosten für Papier und Druck hat. Und dann sollte das Buch zudem günstiger sein, weil mir ja – so gesehen – die Option des Wiederverkaufs genommen wird. Ich würde also erwarten, dass eBooks ca. 60-75% der Druck-Ausgabe kosten. Und auf keinen Fall ein paar Euro mehr!

Allem Anschein nach machen die Buchverlage (die sind nämlich genauso wie bei den gedruckten Büchern auch für die eBook-Preise verantwortlich, Buchpreisbindung sei Dank) die gleichen Fehler, die die Musikwirtschaft in den 90ern mit dem Aufkommen von mp3s gemacht hat. Das Digitalangebot ist nur sehr spärlich und schlecht und dazu noch überteuert. In der Musik war es dann Apple, welches mit dem iTunes Store digitale Musikstücke zu vernünftigen Preisen anbot (und den Musik-Labels klare Regeln diktierte, was diesen überhaupt nicht geschmeckt hat) und somit eine erfolgreiche – und von den Nutzern akzeptierte – digitale Vermarktung von Musik etabliert hat. Ich habe die Hoffnung, dass Amazon jetzt ähnliches mit dem neuen Kindle schafft. Amazon hat schon lange die nötige Infrastruktur (riesiger erprobter Shop mit Millionen bereits existierender Kunden und funktionierendem Bezahlsystem), und jetzt gibt es auch ein sehr bezahlbares „Endgerät“ in Form des günstigen Kindles. Was fehlt ist der Inhalt in ausreichender Menge und zu fairen Preisen. Im Idealfall kann Amazon allein durch die Tatsache, dass sich jetzt sehr viele Leute einen Kindle kaufen werden, genügend Druck auf die Verlage ausüben, endlich die Lücken im Sortiment zu schließen und die Preise zu senken. Schließlich sind die ganzen Kindle-Käufer potenzielle Kunden für die Verlagshäuser, die sollte man doch auch bedienen. Ich würde jedenfalls gerne deren Kunde sein, wenn das Angebot passt.

Noch eine letzte Anmerkung: Mir sind die Nachteile und Einschränkungen eines eBook-Readers, insbesondere des Kindle (proprietäres Format, keine Weitergabe möglich, quasi uneingeschränkter und willkürlicher Zugriff durch Amazon auf den persönlichen eBook-Bestand und das Kundenkonto, geschlossenes System), durchaus bewusst. Genauso wie bei Apples iTunes. Ich kann damit aber gut leben. Ich will meine Bücher einfach nur günstig kaufen und überall und einfach lesen können, ohne kiloweise Papier mit mir rumschleppen zu müssen. Das kann der Kindle, und das bietet (zumindest eingeschränkt) der Kindle-Store bei Amazon. Eine Diskussion darüber halte ich also für müßig.

Evernote

Nachdem ich letzte Woche ja schon von Genie Timeline geschwärmt habe, kommt hier die nächste Software-Empfehlung von mir. Es geht um Evernote, ein cross-platform Notizprogramm.

Evernote läuft auf Windows PCs und Macs sowie auf fast allen mobilen Geräten, wie iPhone, iPod touch, iPad, Android, Palm, Blackberry etc. Die Idee dahinter ist einfach, aber genial: Alle Notizen, die man im Programm speichert, werden autmatisch in die cloud (um mal das neueste Modewort zu verwenden) geladen und mit allen anderen Geräten synchronisiert. Wenn mir also unterwegs einfällt, dass ich noch dieses oder jenes erledigen muss, mache ich mir auf dem Handy eine Notiz in Evernote und habe diese dann automatisch zu Hause auf dem Computer. Dabei ist Evernote nicht auf reine Textnotizen beschränkt, sondern man kann auch Fotos und Sprachmemos „notieren“ und diese (z.B. auf dem iPhone mittels GPS) mit Ortsangaben versehen. Das ganze sieht auf dem PC dann beispielsweise so aus:

Das Programm sieht ein bisschen so aus, wie die Vertikalansicht mancher eMail-Clients. Links hat man die grobe Übersicht, in welcher man – wie bei mir z.B. „Uni“ – unterschiedliche Notizbücher anlegen kann. Hier finden sich auch gelöschte Notizen und die Rubrik Schlagwörter, mit Hilfe derer sich Notizen besser ordnen und später über die Suchfunktion schneller finden lassen. In der mittleren Spalte wird dann das gerade gewählte Notizbuch angezeigt und ganz rechts kann man eine einzelne Notiz – hier gerade eine Literaturrecherche – ansehen. Die Notizen lassen sich mehr oder weniger frei formatieren, auch Hyperlinks sind möglich. Wie man sieht lassen sich sogar Bilder in die Notiz einfügen bzw. werden automatisch eingefügt, wenn man den Inhalt einer Webseite als Notiz speichert.

Auf dem iPhone (hier mal stellvertretend für alle mobilen Geräte) sieht das ganze sehr ähnlich aus, allerdings wird aus Platzgründen immer nur eine Spalte des Hauptprogramms dargestellt. Anbei mal obige Notizen auf dem iPhone. Ein Tap auf die jeweilige Notiz zeigt diese dann vollständig an.

Unten findet sich, wie bei fast allen iPhone Apps, eine Art Navigation, welche weitgehend der linken Spalte der Windows-Version entspricht. Über das große blaue Plus-Symbol lassen sich neue Notizen erstellen, was einen dann zu folgendem Bildschirm führt:

Hier kann man zunächst auswählen, in welchem Notizbuch die Notiz gespeichert werden soll, und ob ein Bild (bestehend oder neu) oder eine Sprachnotiz aufgenomen werden soll. Auch Schlagwörter sowie Standortangaben lassen sich hier vornehmen. Mit einem Tap auf das kleine Tastatur-Icon wandeln sich die grauen Felder in die gewohnte iPhone-Tastatur um und man kann seine Notiz verfassen.

So weit so gut, ich habe Evernote (was ja bei Leibe keine brandaktuelle Neuigkeit ist) schon länger auf dem PC und auf dem iPhone installiert und auch ab und an (mehr oder minder regelmäßig) verwendet. Was es in meinen Augen jetzt aber zu einer der praktischsten Apps überhaupt macht ist der Evernote Web Clipper. Dabei handelt es sich um eine Extension für alle handelsüblichen Internetbrowser (Firefox, Safari, Chrome, IE), welche ein kleines Evernote-Icon in der Symbolleiste des Browsers plaziert.

Mit Hilfe dieses Icons lassen sich ganze Webseiten bzw. der gerade auf einer Seite markierte Text (und auch Bilder, wie wir oben gesehen haben) mit einem Klick als Notiz zu Evernote hnizufügen. Somit kann man sich Inhalte aus dem Web, seien das nun interessante News, Kochrezepte oder, wie in meinem Fall, Literaturangaben aus einer Datenbank blitzschnell und ohne größere Umwege auf den heimischen PC und das Handy ziehen. Genial.

Das Beste noch zum Schluss: Evernote ist komplett kostenlos. Es gibt allerdings eine kostenpflichtige Premiumversion ($5 im Monat oder $45 im Jahr), welche folgende Vorteile bietet: 1GB statt nur 60MB pro Monat Traffic für Notizen und Dateien, Upload aller Dateitypen statt nur Bild-, Ton-, Handschrift- und PDF-Dateien erlaubt, besserer Support, Texterkennung auch in PDFs sowie Werbefreiheit (wobei mir selbst in der kostenlosen Version keine großartige Werbung aufgefallen ist). Wer’s wirklich viel und insbesondere für Bilder nutzt mag beim Traffic an die Grenzen der kostenlosen Version stoßen, für mich (der ich fast ausschließlich Text synchronisiere) waren die 60MB/Monat bisher absolut ausreichend.

Gewinnspiele

Mittlerweile wird man ja regelrecht mit Gewinnspielen im Netz überflutet. Und damit meine ich jetzt nicht die „Der 100000. Klick gewinnt ein Auto“-Banner bei Google Ads, sondern die Verlosungen etc., die sich in letzter Zeit auf Fotoseiten und Blogs häufen. So verlost Scott Bourne auf photofocus.com beispielsweise alle paar Monate DSLR-Kameras (da sind dann Hämmer wie ne Canon 5D Mk II dabei), und auch auf kleineren Blogs gibts immer mal wieder ein Buch oder so zu gewinnen. Derzeit gibt es auf Robert Kneschkes Blog – anlässlich des 500. Artikels – auch etwas zu gewinnen, und zwar eine ganze Reihe wirklich heißer Preise.

Robert’s Blog ist übrigens sehr zu empfehlen, wenn man sich für Stockfotografie interessiert. Stockfotografie bedeutet, dass man als Fotograf ohne speziellen Auftrag eher „allgemeine“ Bilder macht, welche dann über eine sogenannte (Micro-) Stockagentur gekauft werden können. Klassisches Beispiel wären eine Gruppe Büromenschen an einem Konferenztisch – sowas wird z.B. gern für Imagebroschüren oder Webseiten verwendet. Hier hat Robert eine ganze Menge zu erzählen, von Bildkritiken zu Stockfotos über Download- und Umsatzzahlen, die mit seinen Bildern erzielt wurden, bis hin zur richtigen Technik und Motivauswahl. Besonders spannend ist dabei die Kategorie „Pimp my Stock„, in welcher er von seinen Lesern eingesendete Fotos auf deren „Stock-Tauglichkeit“ hin überprüft und bewertet. Habe zwar noch keine Stockfotos gemacht, aber finde es äußerst interessant, was da teilweise für Kriterien angelegt werden, mit denen man im ersten Moment nicht wirklich rechnet. Auch der Bereich „Foto-Tipps“ ist klasse, hier gibts ein paar echte Schätze (z.B. wie man sich eine „Küche“ für 99,- Euro bastelt) und ich hoffe, da wird noch mehr nachgelegt. 😉

So, jetzt probiere ich noch ein bisschen im Bereich Food Photography rum, wer weiß, vielleicht kann ich ja irgendwann das 10-millionste Tomate-Mozzarella-Bild bei einer Agentur einreichen…  🙂

 

Backup-Software: Genie Timeline

Ich bin bzw. war schon längere Zeit auf der Suche nach einer vernünftigen und vor allem bequemen und „wartungsarmen“ Backup-Lösung. Mir ist wichtig, dass meine Fotos, Dokumente etc. möglichst schnell nach Erstellung gesichert werden, und das bitte ohne, dass ich ständig die Backup-Software starten muss. Habe mir daher die üblichen Verdächtigen wie beispielsweise Acronis TrueImage mal angesehen und bin am Ende bei der Windows-eigenen Sicherung hängengeblieben. Viel mehr als die können kommerzielle Backup-Programme nämlich auch nicht: In definierten Abständen vorher festgelegte Ordner kopieren. Was mich daran immer gestört hat ist das folgende „Regen oder Traufe“ Problem. Entweder ich wähle ein möglichst kurzes Backup-Intervall, zum Beispiel einmal täglich, dann habe ich meine Daten immer auf dem aktuellsten Stand, das geht aber zu Lasten der Benutzbarkeit, da die Backup-Kopiervorgänge immer signifikante Leistungseinbußen bei der Bildbearbeitung etc. bedeuten. Oder aber ich wähle einen Zeitabstand für die Backups, der möglichst wenig mit meiner Arbeit am Computer konfligiert, meinetwegen einmal pro Woche am Sonntagabend, dann habe ich aber das Problem, dass. 1. der PC in der Zeit laufen muss und 2. meine Daten nur in recht großen Abständen gesichert werden.

Genie Timeline geht nun einen etwas anderen Weg und umgeht damit die beiden obigen Probleme: Ähnlich wie Apples TimeMachine (glückliche Mac-Benutzer, die das frei Haus bekommen) erstellt es nicht komplette Backup-„Blöcke“ zu bestimmt festgelegten Zeiten, sondern überwacht permanent die Veränderungen an den zu sichernden Daten (i.d.R. vorher festgelegte Laufwerke oder Ordner). Wenn Dateien hinzugekommen sind oder verändert wurden merkt Genie Timeline dies und sichert die neuen Dateien. Beim ersten Mal muss man natürlich einmal alles komplett kopieren, danach läuft es permanent im Hintergrund und sichert (übrigens recht ressourcenschonend) die Änderungen. Den aktuellen Status des Backups kann man sich im Programm anzeigen lassen, über den sogenannten „Timeline Explorer“ kann man sich auch den Stand des Backups zu einer bestimmten Zeit/an einem bestimmten Tag ansehen.

Einen Nachteil hat diese Art der Sicherung natürlich: Wenn ich ein normales Backup-Programm verwende, kann ich mehrere Backup-Versionen parallel halten, so dass ich Zugriff auf unterschiedliche Dateiversionen habe oder auf Dateien, die ich vor einiger Zeit schon gelöscht habe. Dies ist bei Genie Timeline nur eingeschränkt (aber immerhin!) möglich. Ich persönlich kann aber damit leben, und mir ist die unkomplizierte und vor allem ständig aktualisierte Art des Backups von Genie Timeline lieber als ein Programm, dass nur alle paar Tage sichert und dann gigabyteweise Daten schaufeln muss. Ein weiterer Nachteil: Genie Timeline kostet ein paar Euro, der Preis ist aber absolut vertretbar und die Sicherheit meiner Daten ist mir das schon wert. Wer’s ausprobieren möchte: Es gibt eine uneingeschränkt nutzbare Testversion, mit welcher man das Programm für 30 Tage ausprobieren kann. Ich kann’s jedenfalls nur empfehlen.

Our latest creation

Da ist es also nun, nachdem alle Welt schon Wochen und Monate darüber spekuliert hat: Das Apple iPad. Ein Tablet-„Computer“ mit knapp 10″ großem Touchscreen, 16-64GB Speicher und einer CPU mit genug Leistung, um (fast-)HD-Videos flüssig wiederzugeben. Dazu das aus dem iPhone bekannte Betriebssystem inklusive aller Späße wie Bewegungssensoren, Mutlitouch-Gesten etc.

Die Idee, ein nicht zu großes, einfach zu bedienendes Gerät zu haben, mit dem man Filme ansehen, ebooks lesen, Mails schreiben und im Internet surfen kann ist ziemlich klasse, und das ganze dann auch noch gepaart mit der wirklich intuitiven und kinderleichten Steuerung des iPhones lässt auf ein wirklich geniales Gadget hoffen.

Ich werd’s mir aber trotzdem nicht kaufen. Warum? Nun, zum einen der Preis: Mit knapp 500 USD startet das iPad zwar in Apple-untypisch niedrigen Preisregionen, will man aber das ganze Potential des Gerätes nutzen, so muss man eigentlich zur größten Version (64GB Speicher) mit 3G greifen, und dann ist man bei stolzen 830 USD. Warum die größte Version und mit UMTS? Erstens, wenn ich ein Teil mit so großem Bildschirm mit mir rumtrage, dann will ich auch eine ordentliche Sammlung Videos dabeihaben – da sind 64GB eigentlich eh schon zu wenig, das reicht in HD-Auflösung ja nichtmal für eine Staffel der neusten TV-Serie. Zweitens, wenn ich meine Literatur (und ich hoffe, dass da zu den bisher verfügbaren Büchern auch noch Zeitschriften und Zeitungen dazukommen) schon digital lese, dann will ich auch immer und überall Zugriff auf die neusten und aktuellsten Titel haben. Wenn ich mir erst ein WLAN zum Downloaden der heutigen Zeitung suchen muss, kann ich auch gleich zum Kiosk gehen. Also, die größte, beste, tollste Version, drunter macht’s keinen Sinn. Was aber kriege ich für meine 800 USD? Ein Gerät, dass ungefähr so groß und schwer ist wie ein Netbook, ungefähr das doppelte kostet und nichtmals die Hälfte der Anschluss- und Erweiterungsfähigkeit eines Netbooks bietet.

Damit wären wir beim zweiten Grund, weshalb ich es nicht kaufen werde (und einer Sache, die mich auch beim iPhone desöfteren aufregt). Die mangelnde Ausstattung, was Schnittstellen angeht: USB-Sticks, Speicherkarten, Digitalkamera oder eine externe Festplatte anschließen und schnell meine Daten und Bilder sichern? Nix da, und wenn dann nur mit kostenpflichtigem Zubehör. Diese Daten dann (via USB-Stick, Festplatte, Speicherkarte etc.) an Andere weitergeben? Dürfte wie beim iPhone Fehlanzeige sein. Stattdessen brauche ich immer einen extra Computer, um das iPad mit neuen Daten zu versorgen (oder ich kaufe sie online im iTunes/iBook-Store, das geht aber natürlich nur mit Musik, Apps und Büchern).

Letzteres ist auch der Grund, weshalb das iPad in meinen Augen auch nicht wirklich als „Computer for the masses“ für Oma und Opa geeignet ist. Ein Webbrowser, der einen signifikanten Teil der Seiten im Internet mangels Flash nicht richtig darstellen kann, die fehlende Möglichkeit, eigene Dateien (z.B. Bilder) ordentlich zu verwalten sowie diverse andere Einschränkungen dürften bei dieser Zielgruppe wohl eher zu Frustration als einem „Aha“-Erlebnis führen.

Würde das Ding in der größten Ausstattung die Hälfte kosten, oder böte es zumindest ab Werk eine Anschlussmöglichkeit für USB-Massenspeicher und SD-Karten sowie einen ordentlichen Dateimanager dafür, so käme ich wirklich in allergrößte Versuchung. Aber so kaufe ich lieber ein Netbook – auf dem kann ich auch lesen und Videos schauen, der Akku hält auch ordentlich lange und ich kann zumindest unterwegs Date(ie)n austauschen.

Forum offline

Da seit einem Update der MySQL-Datenbank das Seniorenheim-Forum nicht mehr richtig funktioniert (es gibt div. Fehlermeldungen beim Erstellen eines neuen Beitrags), habe ich es erstmal deaktiviert. Da sich der Fehler nicht, wie gehofft, mit einem schnellen Update der Datenbankeinträge beheben ließ und die Aktivität im Forum in den letzten Wochen ohnehin gegen 0 gegangen ist, sehe ich auch keinen Grund, noch viel Zeit zu investieren, um das Board wieder richtig ans Laufen zu bringen. Von daher bleibt das Forum jetzt erstmal geschlossen, Kontakt lässt sich ja weiterhin via Facebook, ICQ, Twitter und die Blog-Kommentare halten.

Google Apps und Windows 7

Mehr von der Computer-Front: Nachdem ich schon länger mit dem Gedanken gespielt habe, von meinem (kostenpflichtigen) GMX ProMail-Account zu einem (kostenlosen) GoogleMail-Account zu wechseln, und ich ohnehin schon länger eine eMail-Adresse mit „eigener“ Domain haben wollte, habe ich vor ein paar Tagen meine gesamten eMails von GMX zu Google transferiert. Jetzt habe ich in der Tat die prototypische Mailadresse „vorname@nachname“ – allerdings nicht .com oder .de, sondern .eu. Es gibt anscheinend doch mehr Leute, die so heißen wie ich, wenn man sich ansieht, wie viele TLDs mit meinem Nachnamen schon vergeben sind.

Da ich GoogleMail erstmal testen wollte, bevor ich mir ein eMail-Konto mit eigener Domain eingerichtet habe, habe ich zunächst einen normalen GoogleMail-Account eingerichtet. Leider funktionierte dabei der von Googlemail angebotene Migrationsservice nicht, so dass ich alle meine xx-tausend eMails in größeren Blöcken manuell per IMAP in Thunderbird rüberschieben musste. Habe zwar den Tip bekommen, dies per imapsync zu machen, aber der Aufwand, das ans Laufen zu kriegen, war mir dann doch etwas hoch. Schon blöd, wenn man keinen Linux/Unix-Rechner zur Hand hat. Nachdem ich dann nach ein paar Tagen festgestellt habe, dass Googlemail mir vom Funktionsumfang sehr zusagt (insbesondere das Web-Interface sowie die Möglichkeit, Push-eMail mit meinem iPhone zu nutzen spielten dabei eine Rolle), beschloss ich dann Google Apps für meine eigene Domain einzurichten.

Ich hatte dabei darauf gehofft, dass es doch problemlos möglich sein müsste, einen bestehenden Googlemail-Account zu einem Google Apps-Account umzuwandeln bzw. zu erweitern. Pustekuchen! Anscheinend sind Googlemail und Google Apps zwei völlig verschiedene Dinge, es wird nichtmals so ein POP-Transfer-Service angeboten, wie man ihn zur Migration von einem anderen Mailprovider zu Googlemail verwenden kann (wenn er denn funktioniert). Also habe ich mir erstmal fluchend meine Domain registriert, die entsprechenden DNS-Einträge für Google Apps gemacht und nach einer Stunde oder so lief das ganze dann auch. Ich wollte mich gerade daran machen, meine eMails wieder Gigabyte-weise per Hand durchs Netz zu schaufeln, als ich über den Tipp stolperte, die IMAP-Migration der Google Apps Professional Edition zu nutzen. Diese lässt sich nämlich in vollem Funktionsumfang 30 Tage lang kostenlos testen (sonst kostet sie 40€ pro Account und Jahr) und bietet eine tadellos funktionierende Möglichkeit, eMails inklusive Ordnerstruktur bzw. Labels von einem IMAP-Server zu Google Apps zu transferieren. Das ganze dauerte bei mir eine Nacht, dann waren alle eMails „drüben“ und ich habe die Testphase der Professional Edition wieder abgebrochen.

Seitdem genieße ich den Luxus, jede eMail binnen weniger als einer Minute auf dem Handy zu haben und überdies eine eMail-Adresse zu besitzen, die sich von all den anderen @web.de- und @gmx.net-Adressen angenehm unterscheidet.

Zweiter Teil des Blogposts: Windows 7. Nachdem so ziemlich alle Online- und Offlinemedien unisono davon schwärmten, wie gut, problemlos und vor allem schnell Windows 7 selbst auf älterer Hardware laufe, habe ich gestern in einer spontanen Aktion den Wechsel von Vista Home Premium 32bit auf Windows 7 Home Premium 64bit gemacht. Da Windows 7 auf http://www.windows7fuerstudenten.de/ für nur 35,- Euro angeboten wird (aber, wer hätte das gedacht, nur für Studenten), fiel mir der Kauf nicht so wahnsinnig schwer. Aber Achtung: Es handelt sich bei der dort angebotenen Version um ein Upgrade, nicht um eine Vollversion. D.h. man kann das dort erworbene Windows 7 nur legal nutzen, wenn man auch eine gültige (Voll-)Lizenz von Windows XP oder Vista hat. Was das für praktische Konsequenzen mit sich bringt, will ich hier kurz schildern.

Der Upgrade-Pfad für Windows 7 sieht so aus: Wer eine 32bit-Version von Vista oder XP hat, soll auf eine 32bit-Version von Win7 wechseln. Wer schon eine 64bit -Version hat, auf die 64bit-Version. Ein Wechsel von 32 auf 64bit, wie ich ihn vollzogen habe, ist wohl nicht geplant. Da ich aber auf jeden Fall die 64bit-Versio haben wollte, allein schon, um endlich meine gesamten 4GB RAM nutzen zu können, waren mir Microsofts Vorstellungen, wie ich upzudaten hätte, relativ egal. Ich habe mir also die 64bit-Version geholt, und war nach dem Download (den man übrigens nur ein mal tätigen kann, außer man erkauft sich für ein paar Euro extra die Möglichkeit, das System für zwei Jahre beliebig oft herunterzuladen) etwas perplex, als ich mit dem Ordnerinhalt der Win7-Installations-CD konfrontiert wurde. Dies enthält nämlich (logischerweise) nur eine 64bit-Version des Installationsprogramms, was sich aber unter meinem 32bit-Vista nicht starten ließ. Was für den Nutzer äußerst ärgerlich ist, ist für MS nur logisch: Da man nur von einem 64bit-Vista oder -XP auf ein 64bit-Win7 updaten soll, brauchts auch nur ein 64bit-Installationsprogramm. Also musste ich mir aus dem Netz erstmal eine Anleitung besorgen, wie man aus dem Disk-Inhalt, den ich auf Platte hatte (und bei dem es sich unpraktischerweise nicht einfach um ein ISO-Image handelte), eine bootfähige Win7-DVD macht. Der Inhalt ist nämlich, wenngleich es nur ein Update ist, komplett identisch mit einer Vollversions-DVD von Windows 7.

Nachdem ich aus den heruntergeladenen Datein mittels ImgBurn (übrigens ein unglaublich praktisches Programm, noch dazu kostenlos) eine bootfähige DVD erstellt hatte, wollte ich die Installation also angehen. Doch was passierte dann? Beim Starten des Rechners von der DVD bekam ich die lapidare Fehlermeldung „Cannot boot from CDROM. Error 05.“ und mein gutes altes Vista fuhr von Platte hoch. Also wieder mal gegoogelt und herausgefunden, dass es mit älteren Mainboards von MSI und AsRock wohl öfter dieses Problem gäbe, da der Bootsektor der Win7-DVD mit diesen inkompatibel ist. Nun ist mein Mainboard weder alt noch von MSI oder AsRock (sondern von Asus), aber was solls. Abhilfe schafft das Erstellen einer Windows7-DVD, bei welcher man den Bootsektor durch einen anderen, z.B. von einer Vista- oder XP-DVD oder dergleichen ersetzt. Dabei ist es auch wurscht, ob es sich um eine 64bit oder 32bit-Version handelt, es geht alles. Also fluchs die nächste DVD mit anderem Bootsektor gebrannt, und siehe da, die Installation startet. Im Laufe der Installation kann man auch bequem die Festplatte (um-)partitionieren bzw. einzelne Partitionen formatieren, und dann geht das Kopieren der Windows-7-Dateien auch schon ohne weiteres Nachfragen los.

Die Installation ging ersten recht flott (würde mal schätzen so 20 Minuten) und zweitens völlig selbständig. Ich wurde weder nach irgendwelchen Treibern, noch nach einer Netzwerkkonfiguration oder der Auswahl bestimmter Komponenten gefragt. Nach einer guten Viertelstunde war die erste Frage von Win7, mit welchem der verfügbaren Drahtlosnetzwerke ich mich verbinden wollte, und wie denn bitte das Passwort für das gewählte Netzwerk sei. Dann wurde nochmal etwas weiterinstalliert, und nach ein oder zwei Neustarts saß ich vor einem arbeitsbereiten System, welches im Hintergrund noch die Treiber für meinen Laserdrucker und meine WebCam runterlud und installierte. Ich war online, alle Hardware (wie Soundkarte, Tintenstrahl- und Laserdrucker oder Webcam) funktionierte, und das System fühlte sich deutlich weniger träge und zäh an als Vista. Weiterer Pluspunkt: Es nervt nicht dauernd mit Fragen, ob diese Programm wirklich installiert oder jene Datei tatsächlich verschoben werden soll. Gerade beim Sortieren des Startmenüs wirklich angenehm, das hat mich bei Vista regelmäßig in den Wahnsinn getrieben.

Die Installation der restlichen Software wie Firefox, Thunderbird, Office etc. ging problemlos und schnell, und die 64bit-Versionen von Adobe Lightroom und Photoshop machen einen wesentlich flotteren Eindruck (zumindest beim Starten) als vorher mit 32bit unter Vista. Soweit alles gut.

Was bietet Windows 7 sonst? Das auffälligste ist die neue Taskbar, bei welcher Programme jetzt nur noch mit ihrem Icon dargestellt werden, und wo nicht mehr zwischen Verknüpfung zum Starten des Programms und dem Symbol des gerade geöffneten Fensters unterschieden wird. Man hat also z.B. nur noch ein Firefox-Symbol in der Taskbar. Klickt man darauf, wenn Firefox noch nicht geöffnet ist, so wird er gestartet. Klickt man darauf, während Firefox schon läuft, so holt man das Firefox-Fenster in den Vordergrund. Hat man mehrere FF-Fenster offen, kriegt man eine Miniaturansicht aller Fenster, indem man den Mauszeiger kurz über dem Firefox-Icon verweilen lässt und kann dann gezielt das gewünschte Fenster nach vorne holen. Das ganze erinnert somit an Apples Dock, ist aber noch etwas vielseitiger und – meiner Meinung nach – beim Arbeiten mit mehreren Fenstern eines Programms noch etwas besser durchdacht als das Dock von MacOS.

Eine weitere Neuerung sind die sogenannten Bibliotheken. Das sind virtuelle Ordner, welche den Inhalt beliebig vieler echter Ordner sozusagen „unter einem Dach“ anzeigen. Wenn man z.B. seine Fotos in verschiedenen Ordnern über die ganze Festplatte verstreut gespeichert hat (oder sogar auf verschiedenen Festplatten), kann man diese ganzen Ordner der Bibliothek ‚Bilder‘ hinzufügen und muss sich von da an nicht mehr durch alle Ordner hangeln, wenn man ein bestimmtes Bild sucht. Kein gerade revolutionäres Feature, aber dennoch sehr praktisch.

Für mich persönlich sind der ‚gefühlte‘ Geschwindigkeitsvorteil sowie das seltener durch Sicherheitsfragen unterbrochene Arbeiten neben dem Upgrade auf ein 64bit-System die wichtigsten Gründe für den Wechsel, die anderen Sachen sind alle nett und schön zu haben, aber sicher kein Muss. Aber es ist ja auch so immer wieder schön, was neues auszuprobieren und eine schöne neue bunte Oberfläche zu haben.

Games people play

Ich weiß zwar nicht, ob das hier noch irgendwer liest, nachdem der letzte Blogeintrag ja schon fast einen Monat her ist, aber es gibt ja doch was zu erzählen.

Zum einen habe ich, um mal ne Abwechslung zum ganzen Seminararbeitschreiben zu haben, wieder ein bisschen mit WoW angefangen – hätte zwar Lust auf mehr, aber mehr als den ein oder anderen Abend pro Woche ‚zocken‘ ist gerade nicht drin. Habe die Zeit aber genutzt und mir für meinen Paladin endlich einen Netherdrachen gefarmt. Die Daily-Quests gehen auf 80 natürlich immens schnell (v.a. wenn man eben dank Dual-Spec auf Retribution umskillen kann), außerdem kann man pro Tag locker 10-15 Eier einsammeln. Da sonst (fast) niemand anderes noch im Outland unterwegs ist, liegen die Dinger überall rum und machen es möglich, in wenigen Tagen den benötigten Ruf zusammenzubekommen. Jetzt hat der Kerl endlich ein standesgemäßes Mount, bisher musste er ja mit dem ollen Flügeldrachen durch die Gegend fliegen.

Des Weiteren habe ich mir die Dreistigkeit erlaubt, meiner Freundin Sims 2 zu kaufen. Wer konnte ahnen, was ich damit anrichten würde? Dass die Sims ja ein Mädchenspiel sind, war mir vorher klar, aber dass es dann doch so gut ankommen würde, hätte ich nicht gedacht. Jetzt lenkt meine sonst allen Computerspielen sehr skeptisch gegenüberstehende Freundin die Geschicke eines Ehepaares, welches mittlerweile schon zwei Nachkommen in die virtuelle Welt gesetzt hat. Trotz widriger Umstände (ihre beiden Sims haben eigentlich keinen Spaß im Leben und kommen zwischen Essen, Schlafen und Kinder versorgen zu überhaupt nichts anderem mehr) ist sie  voll dabei und spielt bis spät in die Nacht hinein. Immerhin, so kann ich mal in World of Warcraft in Ruhe ne Instanz machen – wenngleich ich doch immer wieder gucken kommen muss, welches Unglück als nächstes über die Familie hereingebrochen ist. Meine Favoriten sind übrigens der brennender Herd und der Gerichtsvollzieher, der die halbe Einrichtung pfändet!

Soweit von hier, und wie immer am Schluss das mittlerweile wenig glaubwürdige Versprechen, in Zukunft öfter was zu bloggen.

„What’s wrong with the Germans?“ Jugendschutz in Deutschland

  Den folgenden Artikel habe ich gerade auf heise.de gefunden:

„What’s wrong with the Germans?“ – an dieser provokanten Frage hat Electronic-Arts-Manager Gerhard Florin am Donnerstag auf der Kölner Spielemesse gamescom seine harte Kritik am deutschen Jugendschutz und dem System der Selbstkontrolle aufgehängt. Besonders an der Nicht-Freigabe vieler Spiele entzündet sich die Kritik des EA-Vertreters: „Das ist für mich Zensur“.

Der Branchenkenner beklagt das spielefeindlichen Klima in Deutschland: So würden Politiker bei der Diskussion um die Sperrung kinderpornographicher Websites im gleichen Atemzug sogenannte Killerspiele auf die Sperrliste setzen wollen. „Das ist eine Beleidigung für Millionen Spieler“, empörte sich der Manager. „Den Begriff Killerspiele gibt es im Ausland gar nicht.“ Auch die Politik trage große Verantwortung: „Man kann nicht alle halbe Jahre die Regeln ändern, weil jemand in einer Schule herumgeschossen hat. Das eine hat mit dem anderen nichts zu tun.“

Im Zentrum von Florins Kritik steht das deutsche Jugendschutzsystem um die Unterhaltungssoftware Selbstkontrolle (USK). Die habe bisher 218 Spielen jegliche Altersfreigabe verweigert und damit den Handel der Titel verhindert. An ihre Stelle solle besser das industrieeigene Jugendschutz-System Pan-European Game Information (PEGI) gestellt werden, das ähnlich wie die USK arbeite. „Mir geht es aber nicht darum, Spiele mit Freigabe ab 18 nun eine Freigabe ab 16 zu erteilen“, stellte Florin klar. So sei ein immer größerer Anteil der Spieler erwachsen und benötigten keinen Jugendschutz.

Florin bestreitet nicht die Zulässigkeit nationaler Regeln, die zum Beispiel in Deutschland die Verbreitung von Nazi-Symbolen verbietet. Zudem gebe es illegale Inhalte, die auch für Erwachsene verboten werden könnten. Davon sei aber nur ein kleiner Teil der Spiele betroffen, die von der USK keine Altersfreigabe erhalten haben. Deshalb forderte der EA-Manager die Erarbeitung verlässlicher Richtlinien. Diese existierten bei PEGI und ermöglichten dem Hersteller schon Monate vor Veröffentlichung, die Altersfreigabe selbst zu bestimmen.

Die industrieeigene Prüfung sei dabei keineswegs ineffizienter als der deutsche Sonderweg, meint Florin. Mit PEGI habe die Industrie ein System geschaffen, das in 28 Ländern ohne Probleme eingesetzt und auch im Handel durchweg akzeptiert werde: „Wenn ein Spiel keinen PEGI-Sticker hat, kommt es einfach nicht in den Handel.“ Die Einstufung werde von einem unabhängigen Gremium geprüft, Missbrauch durch harte Vertragsstrafen verhindert. Damit sei die Spielebranche wesentlich weiter als alle anderen Medienzweige: „Suchen Sie mal nach einer Altersfreigabe für Bücher oder Musik“, meint Florin.

Der Mann hat Recht! Aber solange in der deutschen Politik das Durchschnittsalter bei weit über 50 liegt brauchen wir uns wohl keine Hoffnungen zu machen, dass sich da etwas ändert oder mal jemand ‚das Sagen‘ hat, der auch nur im entferntesten Ahnung von Computerspielen hat.

Das Apple-Virus und Safari

Also gut, ich gebs zu… Da mein alter Handy-Vertrag bald ausläuft, und mich das iPhone schon immer fasziniert hat, habe ich mich mal über die T-Mobile Tarife schlau gemacht und einen brauchbaren Tarif mit ausreichend Freiminuten und -SMS gefunden, den es dann auch noch zum Studententarif vergünstigt gab. Alle andern Optionen, ein iPhone mit einem anderen Anbieter zu nutzen, ist meiner Meinung nach wegen der fehlenden Datenflatrate nicht sinnvoll… wenn ich „das Internet“ schon  immer dabei hab, will ich es auch nutzen können, ohne ständig an die Gebühren denken zu müssen.

Was soll ich sagen? Das iPhone ist der helle Wahnsinn. Habe mir das iPhone 3G mit 8GB geholt, das es  für nen schlappen Euro gab, da ich die 16GB Version einfach nicht brauche. Auf 8GB kriege ich ausreichend Musik unter, und die Apps brauchen ohnehin nur ein paar KB. Die Bedienung ist der Hammer, die Online-Funktionen sind zusammen mit GPS der Wahnsinn – ich sage nur schnell mal eben die nächste Bushaltestelle suchen und sehen, wann dort der nächste Bus abfährt, oder die nächsten Restaurants und Cafes im Umkreis anzeigen lassen. Genial! Die „Touch-Tastatur“ ist natürlich etwas gewöhnungsbedürftig, aber nach ein wenig Üben kommt man gut damit klar.

Das Problem: Der Apple-Virus ergreift mich wieder… nachdem ich zuletzt (nach Jahren mit dem iBook und diversen iPod-Käufen danach) ja ziemlich weg von Apple-Produkten war, nicht zuletzt weil ich mehr am PC gespielt habe, was auf dem Mac ja nur sehr begrenzt möglich ist, bin ich nun durch das iPhone wieder infiziert worden. Das Konzept von Apples Produkten ist einfach der Hammer, alles funktioniert tadellos und hat dabei dieses gewisse Etwas, was das Benutzen von Apple-Hardware und -Software einfach zu einem Genuss macht. Nachdem nun gestern auf der WWDC die neuen 13″ MacBook Pros vorgestellt wurden, und der Faktor Spiele für mich nicht mehr besonders relevant ist, muss ich gestehen, dass es mich doch sehr stark in den Fingern juckt. Wenns halt nich so teuer wäre…

Im Anschluss an die Keynote der WWDC habe ich mir dann noch den neuen Safari 4 (natürlich für Windows) runtergeladen. Beim Ausprobieren ist mir dann echt die Kinnlade runtergeklappt! Der Browser ist dermaßen schnell, das ist unfassbar. Werde ihn jetzt mal ein paar Tage lang testen, aber ich denke, dass er gute Chancen hat, mein neuer Standardbrowser zu werden.