Computer

Review: Microsoft Surface Pro 7

Photo by Zachary Fetters on Unsplash

Mein gutes altes Surface Pro 4 gab im September den Geist auf. Scheinbar hatte sich der Akku im Gerät so weit aufgebläht, dass es das Display vorne z.T. aus dem Gehäuse wölbte. Das war zum einen nicht sehr schön, störte wegen des entstehenden Farbstichs (ein nicht fürs Biegen gemachtes Display sieht komisch aus) beim Arbeiten und außerdem hatte ich Sorge, dass der defekte Akku irgendwann in Flammen aufgehen könnte.

Und weil es bei einem berühmt-berüchtigten Online-Riesen ein sehr gutes Angebot gab, schlug ich sofort zu und orderte die neueste Version des Surface, das Surface Pro 7. Und weil ich das Platingrau des alten Surface nach gut vier Jahren doch ein wenig satt hatte, nahm ich die Variante in mattschwarz inklusive TypeCover – die alte Tastatur hatte dem täglichen Einsatz in optischer Hinsicht auch schon Tribut gezollt. Damit passt das Surface zwar farblich nicht mehr zu meinem Surface Pen und der Surface Arc Mouse, aber ein wenig Abwechlsung braucht der Mensch ja hin und wieder mal.

Nachdem ich die letzten Jahre die Version mit Core i5-Prozessor, 8GB RAM und 256 GB SSD in Verwendung hatte, gönnte ich mir nun das Modell „eine Nummer größer“: Core i7-CPU, 16GB RAM und (weiterhin) 256GB SSD. Ich hätte lieber 512GB gehabt, die Variante gab es aber nicht (jedenfalls nicht im Angebot, und für die Version mit 1TB SSD war ich dann doch zu geizig).

Warum die schnellere CPU und mehr RAM?
Beim Bearbeiten von Raw-Dateien meiner Spiegelreflex und beim Rendern von Videos im Frühjahr hatte ich doch bemerkt, dass mein Surface Pro 4 schon ein paar Jahre auf dem Buckel hatte. Vom schnelleren Prozessor und größeren Arbeitsspeicher erhoffte ich mir nun einen spürbaren Geschwindigkeitszuwachs, und mehr ist ja immer besser.

Photo by Andrew Mantarro on Unsplash

Was ist mir nach dem Wechsel aufgefallen?
Man bemerkt ja zunächst immer nur die Probleme, also fange ich damit mal an:

Die Treiberprobleme, die es schon beim Pro 4 zu Beginn gab, scheinen auch beim Surface Pro 7 zu existieren. Beim 4er war es vor allem das Surface Dock, das ungefähr fünf Runden Treiberupdates brauchte, bis alles richtig lief.
Beim neuen Surface war es der Grafiktreiber, der erst nach mehreren Update-Orgien (und nachdem ich irgendwann den von Microsoft zur Verfügung gestellten Treiber ignorierte und das Intel-eigene Treiber-Update-Tool installierte) wirklich zuverlässig lief. Zuvor kam es immer wieder zu Problemen mit externen Bildschirmen (bzw. Beamern in der Schule), was äußerst nervig war.
Im gleichen Zuge habe ich auch festgestellt, dass es offenbar riesige Qualitätsunterschiede zwischen billigen und teuren USB-C zu HDMI-Adaptern gibt. Am alten Surface hatte ich jahrelang einen günstigen (aber nicht den günstigsten) Mini-DP auf HDMI/VGA-Adapter im Einsatz und das gleiche hatte ich beim neuen Surface auch vor – nur eben per USB-C, da dieser Anschluss den Mini-DisplayPort vom 4er abgelöst hat. Zwei Wochen und unzählige Stunden ohne funktionierendes Bild auf dem Beamer kam ich dann aber zu der Erkenntnis, dass der Weg von USB-C zu HDMI oder VGA (ja, die technische Ausstattung der Schule ist im Jahr 2005 stehengeblieben) kein leichter ist. Am Ende entpuppte sich dann die Nutzung eines (sündteuren) Belkin USB-C auf HDMI-Adapters mit dahinter hängendem HDMI zu VGA-Adapter als die am zuverlässigsten funktionierende Lösung. Ich weiß nicht, ob das ein spezielles Problem des Surface ist, habe von derartigen Problemen bei anderen aber noch nicht gehört.
Auch das Zusammenspiel von Surface Pen und externen Monitoren birgt einige Tücken. Mit dem Oktober-Update von Windows 10 schlich sich ein heftiger Fehler ein, der dazu führte, dass das Surface bei Nutzung von Stift und externem Monitor regelmäßig Probleme machte (der Bildschirm wurde z.B. einfach schwarz und ähnliches). Hier half nur ein Rollback auf die vorherige Windows-Version und Abwarten bis zum Winter-Update.

Weniger Fehler, aber etwas enttäuschend sind die Akku-Laufzeit und die CPU-Leistung. Der Akku soll laut Microsoft bis zu 10,5 Stunden bei „typischer Nutzung“ halten, was drei Stunden weniger als beim Vorgänger, dem Surface Pro 6, sind. Damit sollte man ja eigentlich problemlos durch einen Schul(vor)mittag kommen, dachte ich. In der Realität ist es allerdings so, dass ich nach ca. vier Schulstunden aktiver Nutzung (OneNote mit Stifteingabe, Webbrowser, evtl. kurze Videos von YouTube) langsam an eine Steckdose muss, spätestens nach sechs Schulstunden ist definitiv der Saft raus. Das ist weit entfernt von dem, was Microsoft angibt. Wenn ich – wie derzeit – ein Videokonferenz-Tool zum Streamen des Unterrichts offen habe, ist nach zwei Schulstunden der Strom aus. Damit liegt das Surface Pro 7 in praktisch neuem Zustand nur unwesentlich über meinem vier Jahre alten Surface Pro 4 mit defektem (aufgeblähtem) Akku. Das ist schon recht schwach, bedenkt man, dass das Teil ja drei Generationen neuer ist.
Auch der i7 kann mich nicht wirklich überzeugen. Im Alltag ist der Unterschied zum alten (!) i5 praktisch nicht zu bemerken. Sobald das Gerät am Strom hängt (und die CPU nicht in der Leistung gedrosselt wird), rauscht dafür sehr häufig der Lüfter – zwar nicht unangenehm, aber doch hörbar. Bei der Fotobearbeitung und beim Video-Rendern bemerke ich ehrlich gesagt keinen gravierenden Unterschied. Mag sein, dass es eine Idee schneller geht, den Sprung, den ich mir von einem drei Generationen neueren Prozessor und der nächsthöheren „Kategorie“ (i5 zu i7) versprochen hatte, erlebe ich aber nicht. So gesehen hätte ich also auch beim i5 bleiben können und würde mir das Lüfterrauschen sparen. Für normale Office- und Schul-Anwendungen wäre dieser also meine Empfehlung. Und wer mehr Videoschnitt oder Fotoretusche betreibt, sollte wohl ein anderes Gerät als das Surface Pro ins Auge fassen.


Photo by Bahman Adlou on Unsplash

Gibt’s auch was Gutes zu sagen?
Ja, klar – alles, was es auch schon zum Surface Pro 4 zu sagen gab. Das Tablet ist – nachdem alle Treiber laufen – sehr zuverlässig, schnell startklar, die Stifteingabe funktioniert hervorragend und die Tastatur des TypeCovers lässt sich, obwohl dieses im ersten Moment erschreckend dünn wirkt, wunderbar „beschreiben“.
Das Display ist mit seinen 12,3″ ausreichend groß, stellt aber einen guten Kompromiss in Sachen Handlichkeit dar. Der Bildschirm ist richtig gut: Er ist mit 267dpi knackig scharf und hat eine tolle Farbwiedergabe. Das fällt vor allem dann auf, wenn man einen altersschwachen Beamer anschließt und das auf dem Laptop wunderschön leuchtende Bild auf einmal sehr fad daherkommt.
Das Surface ist angenehm leicht, sodass man es bei Bedarf auch gut ‚in der Hand‘ verwenden kann, und es steht mit dem ausklappbaren ‚Kickstand‘ fast überall sehr sicher.
Es ist also, das hat ja schon Jan-Martin Klinge festgestellt, praktisch das perfekte Gerät für die Schule, wenn man einen ‚echten‘ Computer mit Stift will. Der Preis ist allerdings schon recht happig – ich hoffe daher, dass das Surface Pro 7 mindestens genauso lang durchhält wie sein Ur-Großvater, das Pro 4.

tl;dr
Das Surface Pro 7 ist ein tolles Gerät, ein Upgrade von älteren Versionen lohnt sich aber in meinen Augen nicht, solange diese noch funktionstüchtig sind. Die leistungsstärkste Variante kann man sich sparen und der Akku ist ein Rückschritt zu den Vorgängern.

Evernote

Nachdem ich letzte Woche ja schon von Genie Timeline geschwärmt habe, kommt hier die nächste Software-Empfehlung von mir. Es geht um Evernote, ein cross-platform Notizprogramm.

Evernote läuft auf Windows PCs und Macs sowie auf fast allen mobilen Geräten, wie iPhone, iPod touch, iPad, Android, Palm, Blackberry etc. Die Idee dahinter ist einfach, aber genial: Alle Notizen, die man im Programm speichert, werden autmatisch in die cloud (um mal das neueste Modewort zu verwenden) geladen und mit allen anderen Geräten synchronisiert. Wenn mir also unterwegs einfällt, dass ich noch dieses oder jenes erledigen muss, mache ich mir auf dem Handy eine Notiz in Evernote und habe diese dann automatisch zu Hause auf dem Computer. Dabei ist Evernote nicht auf reine Textnotizen beschränkt, sondern man kann auch Fotos und Sprachmemos „notieren“ und diese (z.B. auf dem iPhone mittels GPS) mit Ortsangaben versehen. Das ganze sieht auf dem PC dann beispielsweise so aus:

Das Programm sieht ein bisschen so aus, wie die Vertikalansicht mancher eMail-Clients. Links hat man die grobe Übersicht, in welcher man – wie bei mir z.B. „Uni“ – unterschiedliche Notizbücher anlegen kann. Hier finden sich auch gelöschte Notizen und die Rubrik Schlagwörter, mit Hilfe derer sich Notizen besser ordnen und später über die Suchfunktion schneller finden lassen. In der mittleren Spalte wird dann das gerade gewählte Notizbuch angezeigt und ganz rechts kann man eine einzelne Notiz – hier gerade eine Literaturrecherche – ansehen. Die Notizen lassen sich mehr oder weniger frei formatieren, auch Hyperlinks sind möglich. Wie man sieht lassen sich sogar Bilder in die Notiz einfügen bzw. werden automatisch eingefügt, wenn man den Inhalt einer Webseite als Notiz speichert.

Auf dem iPhone (hier mal stellvertretend für alle mobilen Geräte) sieht das ganze sehr ähnlich aus, allerdings wird aus Platzgründen immer nur eine Spalte des Hauptprogramms dargestellt. Anbei mal obige Notizen auf dem iPhone. Ein Tap auf die jeweilige Notiz zeigt diese dann vollständig an.

Unten findet sich, wie bei fast allen iPhone Apps, eine Art Navigation, welche weitgehend der linken Spalte der Windows-Version entspricht. Über das große blaue Plus-Symbol lassen sich neue Notizen erstellen, was einen dann zu folgendem Bildschirm führt:

Hier kann man zunächst auswählen, in welchem Notizbuch die Notiz gespeichert werden soll, und ob ein Bild (bestehend oder neu) oder eine Sprachnotiz aufgenomen werden soll. Auch Schlagwörter sowie Standortangaben lassen sich hier vornehmen. Mit einem Tap auf das kleine Tastatur-Icon wandeln sich die grauen Felder in die gewohnte iPhone-Tastatur um und man kann seine Notiz verfassen.

So weit so gut, ich habe Evernote (was ja bei Leibe keine brandaktuelle Neuigkeit ist) schon länger auf dem PC und auf dem iPhone installiert und auch ab und an (mehr oder minder regelmäßig) verwendet. Was es in meinen Augen jetzt aber zu einer der praktischsten Apps überhaupt macht ist der Evernote Web Clipper. Dabei handelt es sich um eine Extension für alle handelsüblichen Internetbrowser (Firefox, Safari, Chrome, IE), welche ein kleines Evernote-Icon in der Symbolleiste des Browsers plaziert.

Mit Hilfe dieses Icons lassen sich ganze Webseiten bzw. der gerade auf einer Seite markierte Text (und auch Bilder, wie wir oben gesehen haben) mit einem Klick als Notiz zu Evernote hnizufügen. Somit kann man sich Inhalte aus dem Web, seien das nun interessante News, Kochrezepte oder, wie in meinem Fall, Literaturangaben aus einer Datenbank blitzschnell und ohne größere Umwege auf den heimischen PC und das Handy ziehen. Genial.

Das Beste noch zum Schluss: Evernote ist komplett kostenlos. Es gibt allerdings eine kostenpflichtige Premiumversion ($5 im Monat oder $45 im Jahr), welche folgende Vorteile bietet: 1GB statt nur 60MB pro Monat Traffic für Notizen und Dateien, Upload aller Dateitypen statt nur Bild-, Ton-, Handschrift- und PDF-Dateien erlaubt, besserer Support, Texterkennung auch in PDFs sowie Werbefreiheit (wobei mir selbst in der kostenlosen Version keine großartige Werbung aufgefallen ist). Wer’s wirklich viel und insbesondere für Bilder nutzt mag beim Traffic an die Grenzen der kostenlosen Version stoßen, für mich (der ich fast ausschließlich Text synchronisiere) waren die 60MB/Monat bisher absolut ausreichend.

Backup-Software: Genie Timeline

Ich bin bzw. war schon längere Zeit auf der Suche nach einer vernünftigen und vor allem bequemen und „wartungsarmen“ Backup-Lösung. Mir ist wichtig, dass meine Fotos, Dokumente etc. möglichst schnell nach Erstellung gesichert werden, und das bitte ohne, dass ich ständig die Backup-Software starten muss. Habe mir daher die üblichen Verdächtigen wie beispielsweise Acronis TrueImage mal angesehen und bin am Ende bei der Windows-eigenen Sicherung hängengeblieben. Viel mehr als die können kommerzielle Backup-Programme nämlich auch nicht: In definierten Abständen vorher festgelegte Ordner kopieren. Was mich daran immer gestört hat ist das folgende „Regen oder Traufe“ Problem. Entweder ich wähle ein möglichst kurzes Backup-Intervall, zum Beispiel einmal täglich, dann habe ich meine Daten immer auf dem aktuellsten Stand, das geht aber zu Lasten der Benutzbarkeit, da die Backup-Kopiervorgänge immer signifikante Leistungseinbußen bei der Bildbearbeitung etc. bedeuten. Oder aber ich wähle einen Zeitabstand für die Backups, der möglichst wenig mit meiner Arbeit am Computer konfligiert, meinetwegen einmal pro Woche am Sonntagabend, dann habe ich aber das Problem, dass. 1. der PC in der Zeit laufen muss und 2. meine Daten nur in recht großen Abständen gesichert werden.

Genie Timeline geht nun einen etwas anderen Weg und umgeht damit die beiden obigen Probleme: Ähnlich wie Apples TimeMachine (glückliche Mac-Benutzer, die das frei Haus bekommen) erstellt es nicht komplette Backup-„Blöcke“ zu bestimmt festgelegten Zeiten, sondern überwacht permanent die Veränderungen an den zu sichernden Daten (i.d.R. vorher festgelegte Laufwerke oder Ordner). Wenn Dateien hinzugekommen sind oder verändert wurden merkt Genie Timeline dies und sichert die neuen Dateien. Beim ersten Mal muss man natürlich einmal alles komplett kopieren, danach läuft es permanent im Hintergrund und sichert (übrigens recht ressourcenschonend) die Änderungen. Den aktuellen Status des Backups kann man sich im Programm anzeigen lassen, über den sogenannten „Timeline Explorer“ kann man sich auch den Stand des Backups zu einer bestimmten Zeit/an einem bestimmten Tag ansehen.

Einen Nachteil hat diese Art der Sicherung natürlich: Wenn ich ein normales Backup-Programm verwende, kann ich mehrere Backup-Versionen parallel halten, so dass ich Zugriff auf unterschiedliche Dateiversionen habe oder auf Dateien, die ich vor einiger Zeit schon gelöscht habe. Dies ist bei Genie Timeline nur eingeschränkt (aber immerhin!) möglich. Ich persönlich kann aber damit leben, und mir ist die unkomplizierte und vor allem ständig aktualisierte Art des Backups von Genie Timeline lieber als ein Programm, dass nur alle paar Tage sichert und dann gigabyteweise Daten schaufeln muss. Ein weiterer Nachteil: Genie Timeline kostet ein paar Euro, der Preis ist aber absolut vertretbar und die Sicherheit meiner Daten ist mir das schon wert. Wer’s ausprobieren möchte: Es gibt eine uneingeschränkt nutzbare Testversion, mit welcher man das Programm für 30 Tage ausprobieren kann. Ich kann’s jedenfalls nur empfehlen.

Mein Wunschzettel

Habe in den letzten Wochen mal meinen Wunschzettel auf amazon.de durchgesehen und aktualisiert. Der Wunschzettel ist weniger als „Einkaufsliste“ um mich zu beschenken gedacht, ich nutze ihn viel mehr als eine Art Gedächtnisstütze. Immer wenn ich etwas haben will, es mir aber (jetzt *hust*) nicht leisten kann, suche ich es auf Amazon.de raus und packe es auf den Wunschzettel. So habe ich eine stets aktuelle Liste mit Dingen, die ich mir eventuell irgendwann mal kaufen will. Natürlich habe ich auch nie was dagegen, wenn tatsächlich mal jemand etwas vom Wunschzettel kauft und mir schenkt 🙂

Ich will einfach mal ein paar Sachen von meinem Wunschzettel vorstellen und erklären, warum ich sie gerne hätte, für was sie gut sind, und worin sie sich vielleicht von ähnlichen Dingen, die ich schon habe, unterscheiden.

Zusätzliche 4GB RAM

Grundsätzlich kann man nie genug Arbeitsspeicher haben. Das gilt insbesondere bei der Bearbeitung von RAW-Dateien.  Ich merke bei der Retusche von Bildern in Lightroom deutlich, wie mein PC an seine Grenzen stößt, wenn man intensiv den Korrekturpinsel oder den Verlaufsfilter nutzt. Durch eine Verdoppelung des Arbeitsspeichers sollte das Bearbeiten von Fotos einfach etwas flüssiger und flotter gehen.

HP LP 2275w Monitor

Ein besserer Monitor wäre wünschenswert, da er einen größeren Farbraum darstellen kann. D.h. man kann auf einem solchen Monitor noch zwischen „ganz schwarz“ und „fast ganz schwarz“ unterscheiden, wo ein anderer (schlechterer) Bildschirm nur noch „schwarz“ darstellt. Das ist für die Retusche von Bildern wichtig, da sich solche Unterschiede beim Druck von Fotos ganz böse rächen können. Passt man nämlich hier nicht auf, kann es sein, dass auf dem gedruckten Bild plötzlich jede Menge Bearbeitungsspuren (z.B. Pinselstriche und runde Stempelflecken) zu sehen sind, welche man auf dem „schlechten“ Monitor nicht erkennen konnte. Dies liegt an der verwendeten Panel-Technologie: Bessere Monitore setzen auf IPS- oder (S)PVA-Panels, günstigere Monitore haben meist TN-Panels verbaut. Erstere stellen nicht nur mehr Farben dar, sie sind auch blickwinkelstabiler. D.h. auch wenn ich schräg vor dem Bildschirm sitze, sehe ich alle Farben so, wie sie sein sollen. Bei einem Monitor mit TN-Panel verändern sich Farben und Helligkeit teilweise dramatisch, wenn ich nur ein wenig schräg auf den Bildschirm schaue – auch das ein bei der Bildbearbeitung höchst unerwünschter Effekt.

Wacom Bamboo Pen Grafiktablett

Ein Grafiktablett hat gegenüber der Maus den großen Vorteil, dass man den Cursor beim Retuschieren sehr viel genauer und intuitiver steuern kann. Bei der einfachen Anpassung von Tonwerten und Farben sowie beim Freistellen eines Bildes macht dies keinen großen Unterschied, fängt man aber mit Korrekturpinseln, Stempeln oder anderen „Freihandwerkzeugen“ wie Nachbelichter und Abwedler an, ist die Maussteuerung teilweise schon sehr nervig. Mit dem Grafiktablett sind solche Korrekturen (vom richtigen Zeichnen und Malen am PC ganz abgesehen) viel natürlicher möglich.

Adobe Lightroom 3

Adobe Lightroom 3 ist der Nachfolger der von mir zur RAW-Konvertierung und ersten Bearbeitung verwendeten Software (Lightroom 2). In der Student & Teacher Edition ist das Programm sogar für relativ „wenig“  Geld (wenn man in den Dimensionen von Adobe-Produkten denkt) zu haben. Die relevantesten Verbesserungen gegenüber Lightroom 2 sind für meinen Geschmack die integrierte Objektivkorrektur, also das automatische Entzerren von Bildern sowie die deutlich verbesserte Rauschunterdrückung bei hohen ISO-Werten. Lightroom 2 geht beim Entrauschen relativ grob vor, wodurch viele Details verloren gehen. Lightroom 3 stellt hier einen enormen Entwicklungssprung dar: Bilder werden effektiver entrauscht, behalten aber dennoch selbst feine Details. Da ich regelmäßig mit hohen ISOs (z.B. 1600) fotografiere, wäre das eine enorme Hilfe.

Tamrac Expedition 5 Fotorucksack

Warum einen neuen Fotorucksack? Weil er mehr Platz bietet! Mein derzeitiger Rucksack ist ziemlich voll, und wenn noch ein bisschen Zubehör dazukommt, läuft er förmlich über. Der Tamrac Expedition bietet einfach deutlich mehr Raum (insbesondere auch mehr kleine Fächer für Zubehör wie Ball-Bungees, Gel-Folien, Reinigungszubehör, Funkauslöser etc.) und ist – da er ein kein Sling-Rucksack ist – auch noch angenehmer zu tragen als mein Slingshot von Lowepro. Daneben bietet er hintendrauf auch noch die Möglichkeit, ein Stativ zu befestigen, so dass man dieses bei einer Fototour bequem transportieren kann. Leider sind die Dinger so unverschämt teuer, sonst hätte ich schon längst einen…

Delamax Easy Folder Softbox 60×60

Die Delamax EasyFolder ist eine 60x60cm große Softbox, welche speziell für Systemblitzgeräte (also z.B. die Canon Speedlites) gebaut wurde. Der Die Softbox wird also nicht, wie bei normalen Studiosoftboxen, direkt am Blitz festgeschraubt (geht ja auch nicht, da ein Speedlite kein Bajonett vorne dran hat), sondern auf einer speziellen Halterung befestigt. Der Blitz leuchtet dann von hinten durch ein kleines Loch in die Box rein. Dadurch bleibt auch der optische Empfänger des Blitzes draußen, so dass man das Speedlite auch im drahtlosen E-TTL-Betrieb nutzen kann, wenn man möchte. Durch einen Kugelkopf ist die Softbox frei schwenk- und drehbar. Warum nun aber eine Softbox? Einen Durchlichtschirm habe ich ja bereits. Dieser macht das Licht vom Blitz schön weich – aber er streut es auch in alle Richtungen. Eine wirklich exakte Lichtsetzung (also die Bestimmung, wo Licht und wo Schatten sein soll) ist damit nicht wirklich möglich. Die Softbox hingegen erzeugt auch ein wunderbar weiches Licht, hat aber durch die überstehenden Ränder ein viel schärfer begrenztes Ausleuchtungsfeld. So kann man z.B. bei einem Portrait relativ genau festlegen, welche Körperteile Licht abbekommen, und welche eher im Schatten „versinken“.
Direkt einher mit der Softbox geht der nächste Punkt auf dem Wunschzettel:

Walimex Galgenstativ

Ein einfaches Galgenstativ. Im Gegensatz zu einem normalen Lampenstativ ermöglicht der Galgen es dem Fotografen, die Lichtquelle (z.B. o.g. Softbox) direkt über bzw. schräg über der fotografierten Person zu positionieren. Dies erweitert die Möglichkeiten der Lichtsetzung enorm. Außerdem kann man durch den Galgen das Stativ weiter vom Modell weg aufstellen und rückt der fotografierten Person nicht ganz so nah „auf die Pelle“. Rückblickend muss ich sagen, dass ich besser von Anfang an nur Galgenstative gekauft hätte, denn außer für ein stur geradeaus leuchtendes Fülllicht hat ein normales Lampenstativ kaum Verwendung, bzw. ein Galgenstativ kann alles andere besser. Aber nuja, man lernt nie aus.

Canon EF 35mm f/2 Objektiv

Das Canon EF 35/2 ist eigentlich ein Weitwinkelobjektiv, an (m)einer Crop-Kamera wird es von der Bildwirkung her ungefähr zu einer „Normalbrennweite“ (entspricht ungefähr 56mm). Durch die große Blendenöffnung von f/2 bietet es sich in Situationen mit wenig Licht an und kann gut dazu verwendet werden, Personen oder Objekte freizustellen. Es ist zwar nur der „kleine Bruder“ des qualitativ überragenden EF 35mm f/1.4 L und schon etwas betagt, aber dafür ist es ziemlich bezahlbar. Als „Normalobjektiv“ bietet es sich für Portraits von kleinen Gruppen, Ganzkörperportraits von Einzelpersonen sowie Fotos von Personen mit ein wenig ‚Umgebung‘ drumherum an. Könnte dann noch durch ne weitere Festbrennweite mit 20 oder 24mm Brennweite und ähnlich großer Blende für richtige Weitwinkelaufnahmen ergänzt werden. Wichtiger als mehr Brennweite ‚unten rum‘ ist mir persönlich aber das folgende Objektiv:

Canon EF 85mm f/1.8 USM

Das Canon EF 85/1.8 ist die Portraitlinse schlechthin, und vermutlich die Linse mit dem besten Preis-Leistungs-Verhältnis aller Canon-Objektive. Am Vollformat wird sie vor allem für Portraits ab der Hüfte verwendet, am Crop ist sie für Kopfportraits perfekt. Hat man etwas mehr Platz zur Verfügung, kann man sie natürlich auch an einer Crop-Kamera für Hüft- oder Ganzkörperportraits verwenden, daneben ist sie auf Grund ihrer riesigen Blendenöffnung und des schnellen USM-Autofokus auch für Hallensportarten wie z.B. Handball geeignet. Die Linse ist – vor allem wenn man den relativ günstigen Preis berücksichtigt – von der Abbildungsleistung her der Hammer. Sie liefert gestochen scharfe Bilder und ist perfekt, um Personen bzw. deren Gesichter freizustellen und den Hintergrund in einer schönen Unschärfe verschwinden zu lassen. Da sie meinen derzeitigen Objektivpark (wenn man bei drei Objektiven davon sprechen kann) da um sehr viel Lichtstärke erweitern würde, wo ich noch nichts lichtstarkes habe – im leichten Telebereich – steht sie momentan unangefochten auf Platz 1 der von mir gewünschten Objektive. Leider ist das Ding so gut, dass es 1) fast niemand verkauft und 2) der Gebrauchtpreis fast genauso hoch ist wie der Neupreis.
Kommen wir zum letzten und leider auch teuersten Punkt meines ‚Wunschzettels‘:

Canon EOS 60D Kamera

Die Canon EOS 60D ist eine Kamera, die vor ihrer Veröffentlichung auf Grund ihrer technischen Daten von den meisten Benutzern sehr kritisch gesehen wurde. Das liegt weniger daran, dass die Kamera selbst schlecht wäre, als vielmehr daran, dass Canon mit der 60D die „Zweistelligen“ neu am Markt positioniert hat. Traditionell standen die zweistelligen EOS-Kameras zwischen den Einsteiger-SLRs (450D, 500D, …) und den Profimodellen (1D, 5D). Mit Erscheinen der EOS 7D letztes Jahr war diese Position doppelt besetzt, wobei die 7D deutlich näher an den Profikameras war als die damals aktuelle 50D. Canon hat darauf reagiert und die 60D mehr in Richtung der Einsteigermodelle verschoben. Im Detail heißt das: Ein etwas kleineres Gehäuse als bei der 50D (dennoch größer als bei den Dreistelligen), Verzicht auf den Innenrahmen aus Magnesium, Verzicht auf den Joystick zur Menüsteuerung sowie eine geringere Anzahl an Knöpfen für diverse Einstellungen (diese müssen nun über Menüs aufgerufen werden) und ein etwas vereinfachtes oberes Display. Dafür hat die Kamera – völlig neu bei Canon-DSLRs – ein dreh- und schwenkbares Display bekommen. Geblieben ist der gute Autofokus mit neun Kreuzsensoren, außerdem hat die Kamera die aus der 7D bekannte digitale Wasserwaage bekommen. Ein weiteres „first“ in der Serie der Zweistelligen: Die Kamera setzt auf SD(HC)-Karten zur Speicherung der Bilder. Warum hätte ich aber nun gerne diese Kamera, wo ich doch mit meiner guten alten 450D eigentlich recht zufrieden bin?

Zu allererst: Die High-ISO-Performance. Die 60D unterstützt nicht nur höhere ISO-Werte als die 1600 meiner 450D, die Bilder sehen bei diesen extrem hohen Empfindlichkeiten auch noch besser aus! Dies liegt nicht nur an der sicherlich enorm verbesserten Software in der Kamera, sondern vor allem auch am überarbeiteten Bildsensor, welcher über nahtlos aneinander anschließende Mikrolinsen verfügt, wodurch kein Licht mehr (in den vorher vorhandenen Zwischenräumen) verloren geht. Dadurch und durch die Tatsache, dass die Pixel nun trotz erhöhter Megapixel-Zahl gleich groß geblieben sind, erreicht der Sensor (der auch schon in der 7D und der 550D verwendet wurde) diese ausgezeichnete Leistung bei hohen ISO-Werten. Der Punkt ist ein echtes Killer-Argument, insbesondere da ich auf Veranstaltungen, aber auch privat, sehr oft in Regionen über ISO 1000 fotografiere. Daneben ist die 60D in Sachen Bedienbarkeit einfach ein Fortschritt zur 450D. Sie hat das unglaublich praktische zweite Scrollrad auf der Rückseite der Kamera, bietet diverse Knöpfe zur direkten Anwahl verschiedener Einstellungen und hat ein beleuchtetes Display auf der Oberseite. Daneben bietet sie einen verbesserten Autofokus und eine doppelt so schnelle Serienbildgeschwindigkeit und liegt auf Grund ihres größeren Gehäuses einfach besser in der Hand. Ach ja, und das allerwichtigste *hust hust*: Der Spiegel klackt bei der Auslösung viel satter und kräftiger als bei meiner 450D, welche bloß ein höchst fisteliges „Klick“ zustande bringt. Das ist natürlich völlig blödsinnig, bringt aber ungemein viel Spaß.

So, das war’s nun mit meinem Wunschzettel (zumindest im Groben), wie schon gesagt, dies soll keine Aufforderung an irgendwen sein, mir etwas davon zu schenken, sondern bloß eine kleine Erklärung warum man sich als Fotografie-Begeisterter dieses oder jenes wünscht.

Our latest creation

Da ist es also nun, nachdem alle Welt schon Wochen und Monate darüber spekuliert hat: Das Apple iPad. Ein Tablet-„Computer“ mit knapp 10″ großem Touchscreen, 16-64GB Speicher und einer CPU mit genug Leistung, um (fast-)HD-Videos flüssig wiederzugeben. Dazu das aus dem iPhone bekannte Betriebssystem inklusive aller Späße wie Bewegungssensoren, Mutlitouch-Gesten etc.

Die Idee, ein nicht zu großes, einfach zu bedienendes Gerät zu haben, mit dem man Filme ansehen, ebooks lesen, Mails schreiben und im Internet surfen kann ist ziemlich klasse, und das ganze dann auch noch gepaart mit der wirklich intuitiven und kinderleichten Steuerung des iPhones lässt auf ein wirklich geniales Gadget hoffen.

Ich werd’s mir aber trotzdem nicht kaufen. Warum? Nun, zum einen der Preis: Mit knapp 500 USD startet das iPad zwar in Apple-untypisch niedrigen Preisregionen, will man aber das ganze Potential des Gerätes nutzen, so muss man eigentlich zur größten Version (64GB Speicher) mit 3G greifen, und dann ist man bei stolzen 830 USD. Warum die größte Version und mit UMTS? Erstens, wenn ich ein Teil mit so großem Bildschirm mit mir rumtrage, dann will ich auch eine ordentliche Sammlung Videos dabeihaben – da sind 64GB eigentlich eh schon zu wenig, das reicht in HD-Auflösung ja nichtmal für eine Staffel der neusten TV-Serie. Zweitens, wenn ich meine Literatur (und ich hoffe, dass da zu den bisher verfügbaren Büchern auch noch Zeitschriften und Zeitungen dazukommen) schon digital lese, dann will ich auch immer und überall Zugriff auf die neusten und aktuellsten Titel haben. Wenn ich mir erst ein WLAN zum Downloaden der heutigen Zeitung suchen muss, kann ich auch gleich zum Kiosk gehen. Also, die größte, beste, tollste Version, drunter macht’s keinen Sinn. Was aber kriege ich für meine 800 USD? Ein Gerät, dass ungefähr so groß und schwer ist wie ein Netbook, ungefähr das doppelte kostet und nichtmals die Hälfte der Anschluss- und Erweiterungsfähigkeit eines Netbooks bietet.

Damit wären wir beim zweiten Grund, weshalb ich es nicht kaufen werde (und einer Sache, die mich auch beim iPhone desöfteren aufregt). Die mangelnde Ausstattung, was Schnittstellen angeht: USB-Sticks, Speicherkarten, Digitalkamera oder eine externe Festplatte anschließen und schnell meine Daten und Bilder sichern? Nix da, und wenn dann nur mit kostenpflichtigem Zubehör. Diese Daten dann (via USB-Stick, Festplatte, Speicherkarte etc.) an Andere weitergeben? Dürfte wie beim iPhone Fehlanzeige sein. Stattdessen brauche ich immer einen extra Computer, um das iPad mit neuen Daten zu versorgen (oder ich kaufe sie online im iTunes/iBook-Store, das geht aber natürlich nur mit Musik, Apps und Büchern).

Letzteres ist auch der Grund, weshalb das iPad in meinen Augen auch nicht wirklich als „Computer for the masses“ für Oma und Opa geeignet ist. Ein Webbrowser, der einen signifikanten Teil der Seiten im Internet mangels Flash nicht richtig darstellen kann, die fehlende Möglichkeit, eigene Dateien (z.B. Bilder) ordentlich zu verwalten sowie diverse andere Einschränkungen dürften bei dieser Zielgruppe wohl eher zu Frustration als einem „Aha“-Erlebnis führen.

Würde das Ding in der größten Ausstattung die Hälfte kosten, oder böte es zumindest ab Werk eine Anschlussmöglichkeit für USB-Massenspeicher und SD-Karten sowie einen ordentlichen Dateimanager dafür, so käme ich wirklich in allergrößte Versuchung. Aber so kaufe ich lieber ein Netbook – auf dem kann ich auch lesen und Videos schauen, der Akku hält auch ordentlich lange und ich kann zumindest unterwegs Date(ie)n austauschen.

Google Apps und Windows 7

Mehr von der Computer-Front: Nachdem ich schon länger mit dem Gedanken gespielt habe, von meinem (kostenpflichtigen) GMX ProMail-Account zu einem (kostenlosen) GoogleMail-Account zu wechseln, und ich ohnehin schon länger eine eMail-Adresse mit „eigener“ Domain haben wollte, habe ich vor ein paar Tagen meine gesamten eMails von GMX zu Google transferiert. Jetzt habe ich in der Tat die prototypische Mailadresse „vorname@nachname“ – allerdings nicht .com oder .de, sondern .eu. Es gibt anscheinend doch mehr Leute, die so heißen wie ich, wenn man sich ansieht, wie viele TLDs mit meinem Nachnamen schon vergeben sind.

Da ich GoogleMail erstmal testen wollte, bevor ich mir ein eMail-Konto mit eigener Domain eingerichtet habe, habe ich zunächst einen normalen GoogleMail-Account eingerichtet. Leider funktionierte dabei der von Googlemail angebotene Migrationsservice nicht, so dass ich alle meine xx-tausend eMails in größeren Blöcken manuell per IMAP in Thunderbird rüberschieben musste. Habe zwar den Tip bekommen, dies per imapsync zu machen, aber der Aufwand, das ans Laufen zu kriegen, war mir dann doch etwas hoch. Schon blöd, wenn man keinen Linux/Unix-Rechner zur Hand hat. Nachdem ich dann nach ein paar Tagen festgestellt habe, dass Googlemail mir vom Funktionsumfang sehr zusagt (insbesondere das Web-Interface sowie die Möglichkeit, Push-eMail mit meinem iPhone zu nutzen spielten dabei eine Rolle), beschloss ich dann Google Apps für meine eigene Domain einzurichten.

Ich hatte dabei darauf gehofft, dass es doch problemlos möglich sein müsste, einen bestehenden Googlemail-Account zu einem Google Apps-Account umzuwandeln bzw. zu erweitern. Pustekuchen! Anscheinend sind Googlemail und Google Apps zwei völlig verschiedene Dinge, es wird nichtmals so ein POP-Transfer-Service angeboten, wie man ihn zur Migration von einem anderen Mailprovider zu Googlemail verwenden kann (wenn er denn funktioniert). Also habe ich mir erstmal fluchend meine Domain registriert, die entsprechenden DNS-Einträge für Google Apps gemacht und nach einer Stunde oder so lief das ganze dann auch. Ich wollte mich gerade daran machen, meine eMails wieder Gigabyte-weise per Hand durchs Netz zu schaufeln, als ich über den Tipp stolperte, die IMAP-Migration der Google Apps Professional Edition zu nutzen. Diese lässt sich nämlich in vollem Funktionsumfang 30 Tage lang kostenlos testen (sonst kostet sie 40€ pro Account und Jahr) und bietet eine tadellos funktionierende Möglichkeit, eMails inklusive Ordnerstruktur bzw. Labels von einem IMAP-Server zu Google Apps zu transferieren. Das ganze dauerte bei mir eine Nacht, dann waren alle eMails „drüben“ und ich habe die Testphase der Professional Edition wieder abgebrochen.

Seitdem genieße ich den Luxus, jede eMail binnen weniger als einer Minute auf dem Handy zu haben und überdies eine eMail-Adresse zu besitzen, die sich von all den anderen @web.de- und @gmx.net-Adressen angenehm unterscheidet.

Zweiter Teil des Blogposts: Windows 7. Nachdem so ziemlich alle Online- und Offlinemedien unisono davon schwärmten, wie gut, problemlos und vor allem schnell Windows 7 selbst auf älterer Hardware laufe, habe ich gestern in einer spontanen Aktion den Wechsel von Vista Home Premium 32bit auf Windows 7 Home Premium 64bit gemacht. Da Windows 7 auf http://www.windows7fuerstudenten.de/ für nur 35,- Euro angeboten wird (aber, wer hätte das gedacht, nur für Studenten), fiel mir der Kauf nicht so wahnsinnig schwer. Aber Achtung: Es handelt sich bei der dort angebotenen Version um ein Upgrade, nicht um eine Vollversion. D.h. man kann das dort erworbene Windows 7 nur legal nutzen, wenn man auch eine gültige (Voll-)Lizenz von Windows XP oder Vista hat. Was das für praktische Konsequenzen mit sich bringt, will ich hier kurz schildern.

Der Upgrade-Pfad für Windows 7 sieht so aus: Wer eine 32bit-Version von Vista oder XP hat, soll auf eine 32bit-Version von Win7 wechseln. Wer schon eine 64bit -Version hat, auf die 64bit-Version. Ein Wechsel von 32 auf 64bit, wie ich ihn vollzogen habe, ist wohl nicht geplant. Da ich aber auf jeden Fall die 64bit-Versio haben wollte, allein schon, um endlich meine gesamten 4GB RAM nutzen zu können, waren mir Microsofts Vorstellungen, wie ich upzudaten hätte, relativ egal. Ich habe mir also die 64bit-Version geholt, und war nach dem Download (den man übrigens nur ein mal tätigen kann, außer man erkauft sich für ein paar Euro extra die Möglichkeit, das System für zwei Jahre beliebig oft herunterzuladen) etwas perplex, als ich mit dem Ordnerinhalt der Win7-Installations-CD konfrontiert wurde. Dies enthält nämlich (logischerweise) nur eine 64bit-Version des Installationsprogramms, was sich aber unter meinem 32bit-Vista nicht starten ließ. Was für den Nutzer äußerst ärgerlich ist, ist für MS nur logisch: Da man nur von einem 64bit-Vista oder -XP auf ein 64bit-Win7 updaten soll, brauchts auch nur ein 64bit-Installationsprogramm. Also musste ich mir aus dem Netz erstmal eine Anleitung besorgen, wie man aus dem Disk-Inhalt, den ich auf Platte hatte (und bei dem es sich unpraktischerweise nicht einfach um ein ISO-Image handelte), eine bootfähige Win7-DVD macht. Der Inhalt ist nämlich, wenngleich es nur ein Update ist, komplett identisch mit einer Vollversions-DVD von Windows 7.

Nachdem ich aus den heruntergeladenen Datein mittels ImgBurn (übrigens ein unglaublich praktisches Programm, noch dazu kostenlos) eine bootfähige DVD erstellt hatte, wollte ich die Installation also angehen. Doch was passierte dann? Beim Starten des Rechners von der DVD bekam ich die lapidare Fehlermeldung „Cannot boot from CDROM. Error 05.“ und mein gutes altes Vista fuhr von Platte hoch. Also wieder mal gegoogelt und herausgefunden, dass es mit älteren Mainboards von MSI und AsRock wohl öfter dieses Problem gäbe, da der Bootsektor der Win7-DVD mit diesen inkompatibel ist. Nun ist mein Mainboard weder alt noch von MSI oder AsRock (sondern von Asus), aber was solls. Abhilfe schafft das Erstellen einer Windows7-DVD, bei welcher man den Bootsektor durch einen anderen, z.B. von einer Vista- oder XP-DVD oder dergleichen ersetzt. Dabei ist es auch wurscht, ob es sich um eine 64bit oder 32bit-Version handelt, es geht alles. Also fluchs die nächste DVD mit anderem Bootsektor gebrannt, und siehe da, die Installation startet. Im Laufe der Installation kann man auch bequem die Festplatte (um-)partitionieren bzw. einzelne Partitionen formatieren, und dann geht das Kopieren der Windows-7-Dateien auch schon ohne weiteres Nachfragen los.

Die Installation ging ersten recht flott (würde mal schätzen so 20 Minuten) und zweitens völlig selbständig. Ich wurde weder nach irgendwelchen Treibern, noch nach einer Netzwerkkonfiguration oder der Auswahl bestimmter Komponenten gefragt. Nach einer guten Viertelstunde war die erste Frage von Win7, mit welchem der verfügbaren Drahtlosnetzwerke ich mich verbinden wollte, und wie denn bitte das Passwort für das gewählte Netzwerk sei. Dann wurde nochmal etwas weiterinstalliert, und nach ein oder zwei Neustarts saß ich vor einem arbeitsbereiten System, welches im Hintergrund noch die Treiber für meinen Laserdrucker und meine WebCam runterlud und installierte. Ich war online, alle Hardware (wie Soundkarte, Tintenstrahl- und Laserdrucker oder Webcam) funktionierte, und das System fühlte sich deutlich weniger träge und zäh an als Vista. Weiterer Pluspunkt: Es nervt nicht dauernd mit Fragen, ob diese Programm wirklich installiert oder jene Datei tatsächlich verschoben werden soll. Gerade beim Sortieren des Startmenüs wirklich angenehm, das hat mich bei Vista regelmäßig in den Wahnsinn getrieben.

Die Installation der restlichen Software wie Firefox, Thunderbird, Office etc. ging problemlos und schnell, und die 64bit-Versionen von Adobe Lightroom und Photoshop machen einen wesentlich flotteren Eindruck (zumindest beim Starten) als vorher mit 32bit unter Vista. Soweit alles gut.

Was bietet Windows 7 sonst? Das auffälligste ist die neue Taskbar, bei welcher Programme jetzt nur noch mit ihrem Icon dargestellt werden, und wo nicht mehr zwischen Verknüpfung zum Starten des Programms und dem Symbol des gerade geöffneten Fensters unterschieden wird. Man hat also z.B. nur noch ein Firefox-Symbol in der Taskbar. Klickt man darauf, wenn Firefox noch nicht geöffnet ist, so wird er gestartet. Klickt man darauf, während Firefox schon läuft, so holt man das Firefox-Fenster in den Vordergrund. Hat man mehrere FF-Fenster offen, kriegt man eine Miniaturansicht aller Fenster, indem man den Mauszeiger kurz über dem Firefox-Icon verweilen lässt und kann dann gezielt das gewünschte Fenster nach vorne holen. Das ganze erinnert somit an Apples Dock, ist aber noch etwas vielseitiger und – meiner Meinung nach – beim Arbeiten mit mehreren Fenstern eines Programms noch etwas besser durchdacht als das Dock von MacOS.

Eine weitere Neuerung sind die sogenannten Bibliotheken. Das sind virtuelle Ordner, welche den Inhalt beliebig vieler echter Ordner sozusagen „unter einem Dach“ anzeigen. Wenn man z.B. seine Fotos in verschiedenen Ordnern über die ganze Festplatte verstreut gespeichert hat (oder sogar auf verschiedenen Festplatten), kann man diese ganzen Ordner der Bibliothek ‚Bilder‘ hinzufügen und muss sich von da an nicht mehr durch alle Ordner hangeln, wenn man ein bestimmtes Bild sucht. Kein gerade revolutionäres Feature, aber dennoch sehr praktisch.

Für mich persönlich sind der ‚gefühlte‘ Geschwindigkeitsvorteil sowie das seltener durch Sicherheitsfragen unterbrochene Arbeiten neben dem Upgrade auf ein 64bit-System die wichtigsten Gründe für den Wechsel, die anderen Sachen sind alle nett und schön zu haben, aber sicher kein Muss. Aber es ist ja auch so immer wieder schön, was neues auszuprobieren und eine schöne neue bunte Oberfläche zu haben.

Games people play

Ich weiß zwar nicht, ob das hier noch irgendwer liest, nachdem der letzte Blogeintrag ja schon fast einen Monat her ist, aber es gibt ja doch was zu erzählen.

Zum einen habe ich, um mal ne Abwechslung zum ganzen Seminararbeitschreiben zu haben, wieder ein bisschen mit WoW angefangen – hätte zwar Lust auf mehr, aber mehr als den ein oder anderen Abend pro Woche ‚zocken‘ ist gerade nicht drin. Habe die Zeit aber genutzt und mir für meinen Paladin endlich einen Netherdrachen gefarmt. Die Daily-Quests gehen auf 80 natürlich immens schnell (v.a. wenn man eben dank Dual-Spec auf Retribution umskillen kann), außerdem kann man pro Tag locker 10-15 Eier einsammeln. Da sonst (fast) niemand anderes noch im Outland unterwegs ist, liegen die Dinger überall rum und machen es möglich, in wenigen Tagen den benötigten Ruf zusammenzubekommen. Jetzt hat der Kerl endlich ein standesgemäßes Mount, bisher musste er ja mit dem ollen Flügeldrachen durch die Gegend fliegen.

Des Weiteren habe ich mir die Dreistigkeit erlaubt, meiner Freundin Sims 2 zu kaufen. Wer konnte ahnen, was ich damit anrichten würde? Dass die Sims ja ein Mädchenspiel sind, war mir vorher klar, aber dass es dann doch so gut ankommen würde, hätte ich nicht gedacht. Jetzt lenkt meine sonst allen Computerspielen sehr skeptisch gegenüberstehende Freundin die Geschicke eines Ehepaares, welches mittlerweile schon zwei Nachkommen in die virtuelle Welt gesetzt hat. Trotz widriger Umstände (ihre beiden Sims haben eigentlich keinen Spaß im Leben und kommen zwischen Essen, Schlafen und Kinder versorgen zu überhaupt nichts anderem mehr) ist sie  voll dabei und spielt bis spät in die Nacht hinein. Immerhin, so kann ich mal in World of Warcraft in Ruhe ne Instanz machen – wenngleich ich doch immer wieder gucken kommen muss, welches Unglück als nächstes über die Familie hereingebrochen ist. Meine Favoriten sind übrigens der brennender Herd und der Gerichtsvollzieher, der die halbe Einrichtung pfändet!

Soweit von hier, und wie immer am Schluss das mittlerweile wenig glaubwürdige Versprechen, in Zukunft öfter was zu bloggen.

„What’s wrong with the Germans?“ Jugendschutz in Deutschland

  Den folgenden Artikel habe ich gerade auf heise.de gefunden:

„What’s wrong with the Germans?“ – an dieser provokanten Frage hat Electronic-Arts-Manager Gerhard Florin am Donnerstag auf der Kölner Spielemesse gamescom seine harte Kritik am deutschen Jugendschutz und dem System der Selbstkontrolle aufgehängt. Besonders an der Nicht-Freigabe vieler Spiele entzündet sich die Kritik des EA-Vertreters: „Das ist für mich Zensur“.

Der Branchenkenner beklagt das spielefeindlichen Klima in Deutschland: So würden Politiker bei der Diskussion um die Sperrung kinderpornographicher Websites im gleichen Atemzug sogenannte Killerspiele auf die Sperrliste setzen wollen. „Das ist eine Beleidigung für Millionen Spieler“, empörte sich der Manager. „Den Begriff Killerspiele gibt es im Ausland gar nicht.“ Auch die Politik trage große Verantwortung: „Man kann nicht alle halbe Jahre die Regeln ändern, weil jemand in einer Schule herumgeschossen hat. Das eine hat mit dem anderen nichts zu tun.“

Im Zentrum von Florins Kritik steht das deutsche Jugendschutzsystem um die Unterhaltungssoftware Selbstkontrolle (USK). Die habe bisher 218 Spielen jegliche Altersfreigabe verweigert und damit den Handel der Titel verhindert. An ihre Stelle solle besser das industrieeigene Jugendschutz-System Pan-European Game Information (PEGI) gestellt werden, das ähnlich wie die USK arbeite. „Mir geht es aber nicht darum, Spiele mit Freigabe ab 18 nun eine Freigabe ab 16 zu erteilen“, stellte Florin klar. So sei ein immer größerer Anteil der Spieler erwachsen und benötigten keinen Jugendschutz.

Florin bestreitet nicht die Zulässigkeit nationaler Regeln, die zum Beispiel in Deutschland die Verbreitung von Nazi-Symbolen verbietet. Zudem gebe es illegale Inhalte, die auch für Erwachsene verboten werden könnten. Davon sei aber nur ein kleiner Teil der Spiele betroffen, die von der USK keine Altersfreigabe erhalten haben. Deshalb forderte der EA-Manager die Erarbeitung verlässlicher Richtlinien. Diese existierten bei PEGI und ermöglichten dem Hersteller schon Monate vor Veröffentlichung, die Altersfreigabe selbst zu bestimmen.

Die industrieeigene Prüfung sei dabei keineswegs ineffizienter als der deutsche Sonderweg, meint Florin. Mit PEGI habe die Industrie ein System geschaffen, das in 28 Ländern ohne Probleme eingesetzt und auch im Handel durchweg akzeptiert werde: „Wenn ein Spiel keinen PEGI-Sticker hat, kommt es einfach nicht in den Handel.“ Die Einstufung werde von einem unabhängigen Gremium geprüft, Missbrauch durch harte Vertragsstrafen verhindert. Damit sei die Spielebranche wesentlich weiter als alle anderen Medienzweige: „Suchen Sie mal nach einer Altersfreigabe für Bücher oder Musik“, meint Florin.

Der Mann hat Recht! Aber solange in der deutschen Politik das Durchschnittsalter bei weit über 50 liegt brauchen wir uns wohl keine Hoffnungen zu machen, dass sich da etwas ändert oder mal jemand ‚das Sagen‘ hat, der auch nur im entferntesten Ahnung von Computerspielen hat.

Killerspiel-Debatte

Weil vermutlich niemand die Kommentare zu einem alten Blogeintrag zum Thema Verbot von „Killerspielen“ liest, poste ich sie hier mal auszugsweise:

Wenn der Zugang für junge Spieler deutlich erschwert ist, müsste die Verbreitung auch über unerlaubte Wege viel schwieriger sein und die Kids hätten geringere Chancen an die Spiele zu kommen und die Eltern mit der Begrenzung der Spielzeiten nicht so einen Stress. Außerdem: wenn nur ein Irrer davon abgehalten wird, anderen zu schaden, ist ein Verbot auf jeden Fall gerechtfertigt. Viel besser wäre es, die Spielemacher würden Games entwickeln, die bei friedlichen Aktivitäten genauso spannend sind und Teamarbeit erfordern. Gewalt ist in unserem Zeitalter out, Terroristen werden auch nicht geduldet, warum dann spielerisch andere abknallen.

Ja, genau darum geht es ihm ja: Bereits bestehende Jugendschutzvorschriften effektiv durchzusetzen, und nicht, wie die Union es fordert, alles sofort für ALLE (also auch Erwachsene) zu verbieten.

Und was ist denn das für ein Vorschlag? Der Staat soll Dinge komplett verbieten und für illegal erklären, weil die Eltern nicht in der Lage sind, es ihre eigenen Kindern davon fernzuhalten? Dann wäre aber ein Komplettverbot von Alkohol, Zigaretten und dem halben deutschen Fernsehprogramm (von Tatort bis Vera am Mittag) wesentlich wichtiger! Ein ähnliches Verfahren wird ja aber bereits beim Thema Schulen angewandt: Warum sollen Eltern ihre Kinder vernünftig erziehen, dafür machen wir doch gerade lauter Ganztagsschulen auf, die sind dann dafür zuständig.

Ganz abgesehen davon, dass sich Amokläufe effektiver verhindern ließen, wenn man jeglichen privaten Waffenbesitz verbieten würde und ein offeneres und weniger “aussortierenderes” Schulsystem einführen würde. Aus mir unbekannten Gründen sperrt sich v.a. die CSU aber gegen beides. Zumindest im sogenannten bürgerlich Lager scheint also “Gewalt” noch mächtig “in” zu sein – oder wofür brauchen die die Schützenvereine?

Es wäre besser, die Kinder würden rechtzeitig lernen, sich anderweitig zu beschäftigen. Aber je mehr Spiele auf dem Markt sind, die dann zuerst bei Freunden und später dann auch zu Hause gespielt werden, um so schwieriger wird es, die Kinder auf andere Dinge um zu polen.

Auch hier wäre es doch wohl Aufgabe der Eltern und von mir aus teilweise auch der Schule, Kindern eine Alternative zu bieten und den ‚Konsum‘ solcher Spiele mit geeigneten Mitteln zu beschränken. Und das Kinder versuchen, die ihnen gesetzten Grenzen zu überwinden, ist ja wohl das normalste von der Welt! Oder haben Kinder früher nicht versucht, bei Hausarrest zu flüchten oder sich trotz Verbot der Eltern mit einem Freund/Freundin zu treffen?

Noch was:viele junge Eltern sind ja auch schon spielbegeistert.( besessen), was sollen die denn ihren Kindern anderes Sinnvolles vermitteln? Schlechte Zeiten für die nächste Generation!

Was die nächste Generation angeht: Das war doch schon immer so! Im 18. Jahrhundert fürchtete man einen Verfall der Sitten durch übermäßiges und zügelloses Lesen (v.a. bei Frauen), vor 50 Jahren rauften sich Eltern die Haare, weil ihre Kinder durch die Beatles, die Rolling Stones und Elvis “the pelvis” Presley und deren “Negermusik” verdorben würde. Heute sind es die Computerspiele und Hip-Hop, und morgen dann irgendetwas anderes. Und ist irgendeine Generation völlig verkorkst? Ich glaube nicht…

Es wäre daher wohl mal angebracht, wenn sich die derzeit “herrschende” Generation intensiv, ernsthaft und ehrlich mit den Dingen auseinandersetzt, die sie der ‘Jugend’ (die ja mittlerweile bis zu 35 Jahre alt ist) als Laster vorwirft. Stattdessen werden Veranstaltungen, bei denen Eltern, Lehrer und Politiker einmal selbst Computerspiele im großen Rahmen spielen sollten mit dem Hinweis auf den Amoklauf in Winnenden untersagt.

Außerdem, wie würdest du die Sache beurteilen, wenn deine Freundin bei so einem Amoklauf getötet würde?

Zu diesem doch ziemlich fiesen Argument möchte ich folgendes sagen: Ich weiß nicht, wie ich die Sache dann sehen würde, und ich möchte es auch nie herausfinden. Ich glaube aber, dass ich dann trotzdem in erster Linie dafür wäre, alle Schusswaffen in Privathaushalten zu verbieten, und erst in zweiter Instanz für eine Einschränkung oder gar ein Verbot von bestimmten Comptuerspielen eintreten würde. Genau das gleiche tun übrigens im Moment die Angehörigen der Opfer des Amoklaufs in Winnenden!

Abgesehen davon wäre ich in einer solchen Situation aber der letzte, der darüber dann zu entscheiden haben sollte. Das wäre ja so, als würde man die Angehörigen eines Mordopfers das Urteil über den Mörder sprechen lassen. Es gibt glaube ich genug Argumente, weshalb in einem Rechtsstaat jemand, der so dermaßen befangen ist, als Richter keinen Prozess führen darf!

Abgesehen davon bin ich als potentieller Lehrer wohl deutlich stärker der Gefahr ausgesetzt, Opfer eines Amoklaufs zu werden, als meine Freundin. Und darüber habe ich mir schon manche Gedanken gemacht… Und trotzdem, oder vielleicht gerade deshalb, bin ich nicht für ein generelles Verbot von Gewalt beinhaltenden Spielen, sondern viel mehr für ein vollständiges Verbot von Schusswaffen in allen Haushalten. Zusätzlich müssen Kinder, die im System „Schule“ leistungsmäßig oder sozial gescheitert sind, aufgefangen werden. Es kann nicht sein, dass jemand nur schlechte Noten schreibt, von der Schule fliegt oder sozial isoliert ist, und niemand kümmert sich um sie oder ihn. Hier wäre einfach mal angebracht, mehr Sozialpädagogen, Beratungslehrer oder anderes psychologisch geschultes Personal an den Schulen einzustellen. Übrigens wird genau dies laut einer Umfrage der Lehrergewerkschaft GEW von einem Großteil der deutschen Lehrer gefordert. Aber das würde ja mehr Geld kosten, als einfach mal ein paar „böse Spiele“ zu verbieten.

Das Apple-Virus und Safari

Also gut, ich gebs zu… Da mein alter Handy-Vertrag bald ausläuft, und mich das iPhone schon immer fasziniert hat, habe ich mich mal über die T-Mobile Tarife schlau gemacht und einen brauchbaren Tarif mit ausreichend Freiminuten und -SMS gefunden, den es dann auch noch zum Studententarif vergünstigt gab. Alle andern Optionen, ein iPhone mit einem anderen Anbieter zu nutzen, ist meiner Meinung nach wegen der fehlenden Datenflatrate nicht sinnvoll… wenn ich „das Internet“ schon  immer dabei hab, will ich es auch nutzen können, ohne ständig an die Gebühren denken zu müssen.

Was soll ich sagen? Das iPhone ist der helle Wahnsinn. Habe mir das iPhone 3G mit 8GB geholt, das es  für nen schlappen Euro gab, da ich die 16GB Version einfach nicht brauche. Auf 8GB kriege ich ausreichend Musik unter, und die Apps brauchen ohnehin nur ein paar KB. Die Bedienung ist der Hammer, die Online-Funktionen sind zusammen mit GPS der Wahnsinn – ich sage nur schnell mal eben die nächste Bushaltestelle suchen und sehen, wann dort der nächste Bus abfährt, oder die nächsten Restaurants und Cafes im Umkreis anzeigen lassen. Genial! Die „Touch-Tastatur“ ist natürlich etwas gewöhnungsbedürftig, aber nach ein wenig Üben kommt man gut damit klar.

Das Problem: Der Apple-Virus ergreift mich wieder… nachdem ich zuletzt (nach Jahren mit dem iBook und diversen iPod-Käufen danach) ja ziemlich weg von Apple-Produkten war, nicht zuletzt weil ich mehr am PC gespielt habe, was auf dem Mac ja nur sehr begrenzt möglich ist, bin ich nun durch das iPhone wieder infiziert worden. Das Konzept von Apples Produkten ist einfach der Hammer, alles funktioniert tadellos und hat dabei dieses gewisse Etwas, was das Benutzen von Apple-Hardware und -Software einfach zu einem Genuss macht. Nachdem nun gestern auf der WWDC die neuen 13″ MacBook Pros vorgestellt wurden, und der Faktor Spiele für mich nicht mehr besonders relevant ist, muss ich gestehen, dass es mich doch sehr stark in den Fingern juckt. Wenns halt nich so teuer wäre…

Im Anschluss an die Keynote der WWDC habe ich mir dann noch den neuen Safari 4 (natürlich für Windows) runtergeladen. Beim Ausprobieren ist mir dann echt die Kinnlade runtergeklappt! Der Browser ist dermaßen schnell, das ist unfassbar. Werde ihn jetzt mal ein paar Tage lang testen, aber ich denke, dass er gute Chancen hat, mein neuer Standardbrowser zu werden.