Der Apple-Faktor: Von der Philosophie zum Kompromiss

Die Erschaffung etwas Neuen beginnt mit einer Vision. Irgendwann entsteht dann ein Kompromiss. Das Ziel jeder erfolgreichen Visionsumsetzung ist, unterwegs nicht zu viel von der Vision zu verlieren und den Kompromiss nicht als solchen erkennen zu lassen. Klare Prioritäten und Erfordernisse diktieren oft, welche Optionen möglich sind. Gelegentlich muss man dann aus dem Heer der Standardbefolger ausscheren und etwas eigenes wagen.

Der Beitrag bildet das achte Kapitel im Buch „Der Apple-Faktor“. (bei amazon.de für 14,90 Euro bestellen)

Bei der Konzeption des ersten Macintosh schrieb Jef Raskin im September 1979 einen Brief an Apple-Chef Steve Jobs.

It is impossibleÜbertragung: Es ist unmöglich, bloß mit den gewünschten Spezifikationen zu starten: Das wäre zu einfach. Wir wollen einen kleinen, leichten Computer mit einer hervorragender Tastatur, die wie bei einer Schreibmaschine gestaltet ist. Er ist verbunden mit einem Bildschirm, der 96 Zeichen auf 66 Zeilen anzeigen kann und fast keine physische Tiefe besitzt. Außerdem mit einem Drucker, der wenig wiegt, normales Papier benutzt und eine Seite pro Sekunde druckt (nicht so schnell, dass man Seiten nicht mehr greifen kann, wenn sie herauskommen). Der Drucker kann außerdem jede Grafik ausgeben, die der Bilschirm anzeigt (mit einer Auflösung von mindestens 1.000 mal 1.200 Bildpunkten). In Farbe. Der Drucker sollte nur den Bruchteil eines Pfunds wiegen und weder Farbband noch mechanische Justierung erfordern. Er sollte jede Schriftart drucken. Es gibt etwa 200 Kilobyte Hauptspeicher, neben dem Bildschirmspeicher, und ein kleines, handliches Speicherelement, das 1 Megabyte fasst und 50 Cent kostet. Wer den Computer kauft, erhält unbegrenzten Zugriff auf das Arpa-Net, verschiedene Timesharing-Dienste und andere Datenbanken. Neben einer unvergleichlichen Ausstattung mit Anwendungsprogrammen enthält die Software zahlreiche Programmiersprachen und einen Emulator für jeden Prozessor seit der IBM 650. Lass uns noch Sprachausgabe und -eingabe einbauen, mit einem Wortschatz von 34.000 Wörtern. Diese kann außerdem Musik erzeugen, sogar Caruso simulieren, der mit einem Mormonentempelchor singt – mit veränderlichem Nachhall. to merely start with the desired specifications: it is too easy. We want a small, lightweight computer with an excellent, typewriter style keyboard. It is accompanied by a 96 character by 66 line display that has almost no depth, and a letter-quality printer that also doesn’t weigh much, and takes ordinary paper and produces text at one page per second (not so fast so that you can’t catch them as they come out). The printer can also produce any graphics the screen can show (with at least 1000 by 1200 points of resolution). In color.

The printer should weigh only a fraction of a pound, and never need a ribbon or mechanical adjustment. It should print in any font. There is about 200K bytes of main storage besides screen memory and a miniature, pocketable, storage element that holds a megabyte, and costs $.50, in unit quantity.

When you buy the computer, you get a free unlimited access to the ARPA net, the various timesharing services, and other informational, computer accessible data bases. Besides an unexcelled collection of application programs, the software includes BASIC, Pascal, LISP, FORTRAN, APL, PL1, COBOL, and an emulator for every processor since the IBM 650.

Let’s include speech synthesis and recognition, with a vocabulary of 34,000 words. It can also synthesize music, even simulate Caruso singing with the Mormon tabernacle choir, with variable reverberation.

Was wäre das für ein großartiger Computer geworden! Die Idee war damals noch, den Mac für 500 Dollar zu verkaufen, er kam schließlich 1984 für 2.500 Dollar auf den Markt. Einige der Visionen benötigten mehr als zwei Jahrzehnte, um Wirklichkeit zu werden. Doch der Apple-Chef wollte damals – und auch heute noch – das beste und leistungsfähigste Gerät anbieten. Erst später sollte Jobs erkennen und zugeben, dass der Wert des Macintosh weniger in seiner Hardware als in der Software liegen würde. Auch heute noch präsentiert sich Apple so, als würde sich das Unternehmen primär als Hardware-Hersteller verstehen. Software und Online-Dienste dienen demnach nur dazu, die Hardware attraktiver zu machen.

Die großartige Vision eines erstklassigen Personal Computers – dessen wichtigste Merkmale nicht Geschwindigkeit, sondern Leichtigkeit, ein guter Drucker sowie Netzwerkfähigkeiten, Software waren – im Jahr 1979 scheiterte einfach an den Marktbedingungen.

Conclusion:Übertragung: Schlussfolgerung: Mit den gewünschten Fähigkeiten zu beginnen, ist sinnlos. Wir müssen gleichermaßen mit einem Preisziel und einer Reihe von Fähigkeiten beginnen, dabei die aktuelle und kommende Technologie im Auge behalten. Diese Faktoren müssen alle gleichzeitig unter einen Hut gebracht werden. starting with the abilities desired is nonsense. We must start both with a price goal, and a set of abilities, and keep an eye on today’s and the immediate future’s technology. These factors must be all juggled simultaneously.

Raskin beweist mit dieser Schlussfolgerung seinen Sinn für die Realität. Aber das Wichtigste sind die Fähigkeiten, das „set of abilities“ sowie der Blick auf „today’s and the immediate future’s technology“. Diese drei Faktoren sollten die Geschichte der Apple-Computer prägen: Wenn es heißt, ein Mac hat eine bestimmte Fähigkeit, dann kann er das auch – und zwar richtig gut. Der Blick für aktuelle und künftige Technologien sorgte für leistungsfähige Geräte, die den IBM-kompatiblen PCs ebenbürtig waren und oft genug Technologien am Markt durchsetzten oder den Macs einen erkennbaren Komfortgewinn brachten.

So setzte Apple für Tastaturen und Mäuse konsequent auf den selbstentwickelten AppleBus. Dieser ermöglichte mehrere Dinge, die der von IBM als Ablösung für den Serial Bus entwickelte PS/2-Anschluss nicht kannte. Am AppleBus angeschlossene Geräte konnten den Computer anschalten, jede Mac-Tastatur verfügte damals über eine Taste zum Anschalten; lief der Computer bereits, rief er den Dialog zum Ausschalten auf. Die Geräte konnten in Reihe verbunden werden, die Maus war also an die Tastatur angeschlossen und brauchte kein eigenes Kabel zum Computer. Diese Funktion hat Apple bei USB-Tastaturen beibehalten, deshalb sind die Kabel von Apple-Mäusen immer vergleichsweise kurz; schließlich befindet sich die Maus meist neben der Tastatur. Als Apple auf den USB-Standard setzte, gab es den eigenen Anschluss auf, sodass auch Nicht-Apple-Mäuse an Macs benutzt werden konnten, allerdings fehlt nun auf den Tastaturen die Taste zum Einschalten.

Die Entscheidung, in den iMacs 1998 kein Diskettenlaufwerk einzubauen und den Universal Serial Bus (USB) zur Standardschnittstelle zu erklären, läutete das Ende der Disketten-Ära ein. Bislang hatte kein Hersteller gewagt, auf diese veraltete Technologie so radikal und alternativlos zu verzichten. Doch mit der Internetfähigkeit des Systems (und die einfache Nutzbarkeit) waren Dateien leicht via eMail zu versenden oder via USB-Stick auszutauschen. Die Gerätehersteller waren skeptisch, den damals jungen USB-Anschluss zu verwenden, der an vielen Computern noch fehlte. Doch durch den Erfolg des iMac gab es bald zahlreiche Rechner, an die USB-Geräte angeschlossen werden konnten, was den Durchbruch von USB stark beschleunigte.

So hat Apple mehrfach veraltete Technologien konsequent für obsolet erklärt und stattdessen auf neue Standards gesetzt. Die Entscheidung, bei den Unibody-Laptops auf DisplayPort als Anschluss für Monitore zu setzen, fällt ebenfalls in dieses Schema. Als Steve Jobs 2002 offiziell das Ende von MacOS 9 verkündete, war MacOS X (10.2., „Jaguar“) in den Augen vieler noch nicht bereit, das alte System vollständig zu ersetzen. Doch Apple war rigoros und ließ neue Rechner nicht mehr mit dem klassischen System starten. Damit zwang es seine Nutzer und Programmierer, sich auf das neue System zu konzentrieren und das alte System, dessen Kern und Prinzipien noch auf der 1984er Version basierten, hinter sich zu lassen. Langfristig zahlte sich die Entscheidung aus, kurzfristig brachte sie Apple zahlreiche böse Kommentare.

Raskin war bewusst, dass er viele Kompromisse würde eingehen werden, dass der fertige Rechner mit dem idealen Computer nicht mehr so viel gemein haben würde. Also galt es, den Fokus klar auf bestimmte Aspekte zu legen, diese umzusetzen und bei diesen Aspekten eine deutlich geringere Kompromissbereitschaft zu zeigen als bei anderen. Der Fokus war bei Raskin die einfache Handhabbarkeit des Gerätes – das bezieht sich auf Hard- und Software. Nutzer sollten es so leicht wie möglich haben, einen Macintosh zu bedienen und effektiv damit arbeiten können, ohne erst ausführliche Schulungen absolviert haben zu müssen.

Ein Mac soll sich quasi selbst erklären und einmal Gelerntes vielerorts wiederverwendet werden können. Daher sind die Menüs in allen Programmen identisch aufgebaut, diese Einheitlichkeit war ein wichtiges Element des „Mac-Feelings“. Gleiche Objekte lösen gleiche Aktionen aus, ähnliche Objekte ähnliche Aktionen, unterschiedliche Aktionen benötigen unterschiedliche Objekte auf dem Bildschirm. Diese Forderung nach Konsistenz und die daraus resultierenden „Einschränkungen“ irritierten damals viele Programmierer.

Mit seinen Ansprüchen wurde Raskin zu einem der wichtigsten Begründer der Usability und gilt vielen Enthusiasten auch nach seinem Tod 2005 als Guru. Nicht grundlos erhielt er den inoffiziellen Namenszusatz „Vater des Macintosh“. Doch Raskin war irgendwann die Kompromisse leid, denen er unter Jobs’ Führung, der das Macintosh-Projekt an sich gerissen hatte, ausgesetzt war. Er verließ das Mac-Team und Apple. Seine Gedanken, Ideen und Ansprüche hatten jedoch einen Geist heraufbeschworen, der zum Wesenszeichen des Mac wurde. Wenn er auch selbst mit dem fertigen Gerät nicht sonderlich zufrieden war, hatte er doch deutliche Spuren hinterlassen, die den Mac trotz aller Kompromisse (Hardwareausstattung, Bedienung, Modi im System) zum einfachsten Computer auf dem Markt machten. Er war so einfach, dass er von seriösen Leuten als Spielzeug betrachtet wurde – wenn Arbeit nicht wie Arbeit aussieht, sondern zu einfach wirkt, kann man sie einfach nicht ernst nehmen. Doch nichts nahm Raskin ernster als das Komplexe einfach zugänglich, das Schwierige leicht bedienbar und das Unübersichtliche gut verständlich für den Nutzer zu gestalten.

Auch wenn die Fähigkeiten des ersten Mac heute erbärmlich wirken – geringe Bildschirmauflösung, es kann nur ein Programm laufen, kein Multimedia – stieß er doch auf Interesse. Viele Mac-Nutzer blieben bei diesem Computersystem und verteidigen es bis heute mit Liebe, Nachdruck und Begeisterung gegen Anfeindungen. Nach Douglas AdamsÜbertragung: Er [der Mac] war die erste Maschine, die einen früh aus dem Bett springen ließ, begierig, ihn zu starten und [mit ihm] zu arbeiten. war der Autor und Schauspieler Stephen Fry der zweite Brite, der einen Mac besaß. Denn „it was the first machine that would make you bounce out of bed in the morning eager to boot up and work.“

Warten, bis der Nutzer bereit dafür ist

Die Schreibtischmetapher gab dem abstrakten Datenraum in einem Computer ein Gesicht und offerierte die räumliche Interaktion mithilfe der Maus oder ähnlicher Geräte. Stellt man sich eine Anwaltskanzlei vor, in der alle Unterlagen gut sortiert in Ordnern und Regalen aufbewahrt werden, hat man eine ungefähre Entsprechung für die Datenhaltung in seinem Rechner. Der Nutzer ist dabei der Chef-Anwalt. Muss er sich in einen neuen Fall einarbeiten, kann er in alten Unterlagen nach ähnlich gelagerten Fällen, Beispielurteilen, Gutachten suchen. Der Chef-Anwalt sucht jedoch nicht selbst, sondern lässt einen seiner Angestellten suchen. Ebenso sucht der Nutzer nicht selbst, sondern lässt den Computer suchen.

Hier wird der Unterschied deutlich. Der Chef-Anwalt kann seinem Angestellten den neuen Fall kurz schildern, und dieser sucht selbstständig alle Unterlagen heraus, die von Relevanz sein können, auch wenn diese keines der Schlüsselwörter enthalten. Der Nutzer dagegen muss selbst eine ungefähre Ahnung haben, welche Suchbegriffe sinnvolle Ergebnisse zutage fördern können. Möglicherweise benötigt er mehrere Suchanläufe, bis er alle relevanten Dokumente beisammen hat. Dies ist ein klassischer Kompromiss, der auf der Tatsache basiert, dass der Computer nicht denken kann.

Computer können keine Analogien entdecken, sondern Daten nur statistisch auswerten. Taucht ein Suchbegriff in einem Dokument nicht aufSeit MacOS 10.4 kann mittels Spotlight jeder Dokumentinhalt global durchsucht werden. Die Suche nach einem Namen liefert den Eintrag im Adressbuch, sämtliche eMails von und an diese Person, alle Text-Dokumente, in denen der Name vorkommt sowie Fotos, auf denen die Person zu sehen ist, sogar Musik-Dateien, wenn es welche mit dieser Person als Interpret gibt. Auch unter dem klassischen Mac-System gab es eine Inhaltssuche, die sich jedoch auf Texte beschränkte. Mit Windows Sieben ist eine solche Inhaltssuche auch unter Windows möglich. Vorher waren separate Programme dafür nötig., wird dieses Dokument nicht gefunden. Das Beispiel verdeutlicht, wie wichtig es im Berufsalltag sein kann, kompetente Angestellte zu haben, die ihr Gehirn nicht ausschalten. In der Computerwelt bleibt automatisch alles am Chef-Anwalt hängen, der die Finde-Kriterien selbst bestimmt.

Ist die Beispielskanzlei besonders groß und bearbeitet zahlreiche Fälle parallel, wäre es praktisch, wenn der Such-Angestellte das Suchergebnis immer aktuell halten würde. Hat er am Montag alle Dokumente zusammengesucht, sollte er am Dienstag schauen, ob nicht relevante Dokumente für einen der anderen Fälle eingetroffen sind, die für den Fall des Chef-Anwalts interessant sein könnten. Auch am Mittwoch, Donnerstag oder anderen Tagen können ja Gutachten, Analysen, Urteile eintreffen. Die Suche wird somit zu einem Dauerauftrag. Der Ergebnisstapel kann jederzeit anwachsen.

In der Computerpraxis wird eine Suche ausgeführt, die Ergebnisse ausgewertet und eine neue Suche gestartet. Suchergebnisse sind nicht permanent, sondern der Nutzer entscheidet, wie er mit den gefundenen Dokumenten verfährt, er kopiert sie beispielsweise in einen neuen Ordner, wo er Materialien zum Fall sammelt. Bereits in den 1990er Jahren entwickelte Apple einen Prototypen, um eine Suche abzuspeichern und damit die Ergebnisse jederzeit aufrufen zu können, diese müssen nicht irgendwohin kopiert werden.

Eine gespeicherte Suche ist wie ein Ordner, in dem alle Dokumente angezeigt werden, die den Suchkriterien entsprechen. Jedoch können in diesen Ordner keine Dateien kopiert oder verschoben werden. Der Computer ist der „Chef“ über diesen Ordner und fügt erst dann weitere Dokumente hinzu, wenn diese ebenfalls den Suchkriterien entsprechen. Damit ergibt sich ein Problem im aktiven Umgang mit Dateien und Ordnern. Eigentlich kann jede Datei in jeden Ordner bzw. in jedes Ordner-Fenster gelegt werden – doch bei den automatisch generierten Ordnern eben nicht. Diese entmachten den Nutzer, der bestimmte Aktionen (eben etwas hineintun) plötzlich nicht mehr ausführen kann.

Aus dieser Überlegung heraus wurden die „intelligenten“ Ordner nicht im klassischen Mac-System integriert. Doch mit MacOS X haben sich die Zeiten und die Nutzererwartungen verändert. iTunes hat den Umgang der Nutzer mit dem Computer nachhaltig geprägt.

Die Logik bei iTunes ist einfach. An einer zentralen Stelle werden alle Musiktitel vorgehalten: die Mediathek. Diese ist mit den Dateien auf der Festplatte verbunden, wo die Musik-Dateien nach Interpreten und Alben in Datei-Ordnern abgelegt werden. Wird der Interpret eines Titels in der Mediathek geändert, wird automatisch die Datei angepasst (Dateiname geändert, Ordnername geändert, in den passenden Interpreten-Ordner verschoben, etc.). Bei Änderungen berücksichtigt iTunes nicht nur den Dateinamen und Ablageort, sondern auch die sogenannten Meta-Informationen. In jeder Musikdatei sind die Informationen über Interpret, Album, Titel hinterlegt. Damit sind die Meta-Informationen und die eigentliche Datei immer synchron.

Neben der Mediathek existieren Playlists. Diese enthalten sozusagen nur Verweise auf die Titel in der Mediathek. Wird ein Titel aus einer Playlist gelöscht, bleibt er in der Mediathek erhalten, nur der Verweis auf den Titel in der Playlist verschwindet. Für iTunes-Nutzer ist dieses Verhalten selbstverständlich, doch viele mussten sich erst daran gewöhnen, dass es Bereiche gibt, die auf Dateien verweisen, ohne direkt die Datei selbst zu repräsentieren. Dieses Verhalten entspricht Links im Internet: Löscht man den Link in einer HTML-Datei, ist die Ziel-Datei davon nicht betroffen.

Die Playlists können manuell befüllt oder automatisch generiert werden. Beispielsweise kann ich eine „intelligente Playlist“ anlegen, die alle Titel enthält, die länger als drei und kürzer als fünf Minuten sind. Füge ich neue Titel in der Mediathek hinzu, werden alle Titel zwischen drei und fünf Minuten Spieldauer automatisch in die intelligente Playlist integriert. So eine intelligente Playlist ist nichts anderes als eine permanente Suche nach Musiktiteln.

Im Finder von MacOS X gibt es solch eine permanente Suche inzwischen ebenfalls. Sie wird als „intelligenter Ordner“ repräsentiert. Die Pointe der Entwicklung besteht darin, dass der Fokus von der direkten Technik-Bedienung (Kommandozeile) über die räumliche Orientierung (GUI) innerhalb einer Metapher zur Bedeutung der Inhalte führte. Damit die Nutzer jedoch in der Lage sind, diese Funktionen zu nutzen, müssen sie daran gewöhnt werden. Selbst wenn eine Funktion nützlich und sinnvoll erscheint, muss sie sich in die bestehende Bedienlogik integrieren und den Nutzer er-, nicht entmächtigen. Erst die Gewöhnung an intelligente Playlists ließ die Nutzer intelligente Ordner nicht als Entmächtigung gegenüber dem Computer empfinden. Mehr als zehn Jahre, nachdem die permanente Suche bereits im Prototyp zuverlässig funktionierte, konnte sie in das System integriert werden und zu einem nützlichen Feature werden.

Der Mythos von Multitasking

Welche Aufgaben erledigt man mit einem Mobiltelefon? Telefonieren. SMS empfangen und schreiben. Nummern im Adressbuch suchen oder hinzufügen. Wenn es ein modernes Mobiltelefon ist, kann man außerdem eMails empfangen und senden, im Internet surfen oder Fotos aufnehmen. Nur selten muss man mehrere dieser Aufgaben gleichzeitig erledigen.

iPhone und iPod touch wären natürlich in der Lage, mehrere Aufgaben gleichzeitig zu bewältigen. Doch Multitasking war in den ersten drei Versionen nicht vorgesehen. Apple begründet dies damit, dass mehrere parallel laufende Programme die Akkulaufzeit verkürzen. Daher können nur wenige Programme im Hintergrund laufen, während andere im Vordergrund bedient werden, beispielsweise die Musikwiedergabe. Wichtiger scheinen mir jedoch drei andere Argumente.

Zum einen handelt es sich um ein Mobiltelefon, nicht um einen Computer – jedenfalls vom Gerätetyp her. Damit gelten andere Erwartungen an das Gerät als an einen Laptop. Die Forderung nach Multitasking wird auch vorwiegend von Technik-Redakteuren vorgebracht und nicht von Nutzern.

Zum anderen ist aufgrund der Gerätegröße und Bedienmöglichkeiten Multitasking nicht leicht zu integrieren. Das Problem stellt sich weniger für die Programmierer, die es einfach hätten programmieren können, als vielmehr für die Nutzer, die damit auch arbeiten müssen. Bei den Windows-PDAs ließ sich gut erleben, wie umständlich es sein kann, Programme manuell beenden zu müssen. Wenn iPhone, iPod touch und iPad Multitasking unterstützen sollen, muss es so integriert sein, dass der Nutzer es einfach bedienen kann. Denn wenn etwas nicht funktioniert, schimpft der Nutzer nicht auf sich selbst, nicht auf die Programmierer von schlecht programmierten Apps aus dem App-Store, sondern auf das Gerät und auf Apple. Naheliegenderweise möchte Apple nicht beschimpft werden und vermeidet daher alles, was dazu führen könnte, Nutzer zu verärgern. Wie gesagt: Apple interessiert sich für Nutzer und nicht für Technik-Redakteure.

Zum dritten benötigt ein Gerät Zeit zum Reifen. Ist die erste Version bereits in jeder Hinsicht komplett, bleibt kein Raum mehr für Evolution. Die ersten Macs konnten aufgrund der beschränkten Hardware kein Multitasking, dieses wurde mit besserer Hardwareausstattung bald zum Standard und in die bestehende Bedienweise integriert: Das wichtigste optische Bedienelement bilden Dokumentfenster, die einander überdecken können; der Programmwechsel erfolgt automatisch mit dem Aktivieren eines anderen Fensters. Bei Touch-Geräten gibt es jedoch weder Fenster noch Menüzeile, sondern die Programme füllen den gesamten Bildschirm. Beim Mac gewöhnten sich die Nutzer an die neuartige Bedienung, und der Wunsch nach Multitasking wuchs erst im Lauf der Zeit, als die Aufgaben komplexer wurden und mehr Nutzer an die Grenzen der Möglichkeiten stießen. Ein neuartiges Gerät – iPhone und iPod touch waren beim Erscheinen sehr neuartig, da sie auf Tasten verzichteten und nur noch einen einzigen Button am unteren Bildschirmrand aufwiesen – sollte daher so wenig komplex wie möglich sein, um „die Welt“ (also die Nutzer) erst einmal die Grundlagen dieser neuartigen Bedienung lernen zu lassen. Multitasking hätte die Bedienung eines Mobiltelefons unnötig verkompliziert und die Nutzer eher verwirrt als ihnen genutzt.

Jede Entscheidung, welche Fähigkeiten ein Gerät besitzt und welche nicht, ist vor dem technischen Umfeld und der Nutzererwartung zu bewerten. Wenn auch das erste iPhone-Betriebssystem problemlos Multitasking ermöglicht hätte, wurde es vor dem Nutzer verborgen, um das Gerät unkompliziert und fokussiert erscheinen zu lassen. Erst mit dem Erfolg des App-Store und der gestiegenen Vielfalt von Programmen für iPhone und iPod touch sowie der veränderten Nutzung, eben nicht nur als Mobiltelefon, sondern als Universal-Minicomputer (surfen, Termine verwalten, spielen, Daten erfassen und auswerten, telefonieren, chatten), entstand auch aus Nutzersicht der starke Wunsch nach Multitasking. Version 4 bringt auf iPhone, iPod touch und iPad eine Programmverwaltungsinstanz, mit der Nutzer leicht mehrere Programme gleichzeitig gestartet haben können. Denn die grundsätzliche Bedienung ist inzwischen so weit Gemeingut und verbreitet, dass diese zusätzliche Komplexität auch Neunutzer nicht mehr irritiert.

Wenn die Hardware noch nicht so weit ist

Der erste Mac musste aufgrund der knappen Hardwareausstattung auf Multitasking verzichten. Der Arbeitsspeicher war mit 128 Kilobyte mehr als knapp, der Prozessor lief mit 8 Megahertz um ein Vielhundertfaches langsamer als der im iPhone verbaute, als einziges Speichermedium kamen Disketten mit 400 Kilobyte zum Einsatz. Festplatten wurden erst später Standard. Mit einer solchen Ausstattung wäre es illusorisch, ein befriedigendes Hin- und Herschalten zwischen verschiedenen Programmen umzusetzen.

Als MacOS X vorgestellt wurde, lief es träge langsam – aus Nutzersicht. Denn die grafische Oberfläche setzte auf die neue Quartz-Schnittstelle, die zwar zeigte, wo konzeptionell die Zukunft hinführte, aber auf den damaligen Computern nur schleppend lief, Grafikkarten und Prozessoren waren noch nicht leistungsfähig genug, um die Effekte und Fenster stets tatsächlich in Echtzeit bereitzustellen. Mit „Tiger“ (MacOS 10.4) war Quartz so optimiert und die Technik so leistungsfähig geworden, dass die beabsichtigte Wirkung der direkten Manipulierbarkeit tatsächlich eintrat. Die Nutzerschnittstelle, nichts anderes ist ja die grafische Präsentation auf dem Bildschirm, bremste nun das System nicht mehr aus, sondern trug tatsächlich dazu bei, die Nutzer gegenüber den Computern zu ermächtigen.

Hätte Apple jeweils mit der Veröffentlichung warten sollen, bis die Technik schnell genug für all ihre Ambitionen geworden war? Dann wären wohl kaum die Innovationen entstanden, die die Computerwelt jeweils nachhaltig beeinflussten. Vielmehr spornte die Entwicklung von neuen Systemen auch die Entwicklung noch leistungsfähigerer Technik an, sodass am Ende alle profitierten.

Regeln erleichtern das Leben

„Kinder brauchen Grenzen“, ist ein typischer Erziehungsgrundsatz. In der Computerwelt setzen die technischen Gegebenheiten diese Grenzen. „Kinder brauchen Regeln“, wird als Abwandlung des ersten Grundsatzes gern gesagt. In der Computerwelt ist es nicht leicht, Regeln durchzusetzen. Programmierer wissen oft am besten, wie ihre Programme bedient werden sollen. Insofern erscheint es frech, dass Apple plötzlich vorschrieb, wie Programme zu funktionieren hätten und dem Nutzer zu präsentieren wären.

Was als Affront erscheinen mag, zeigte bald Früchte. Dass alle Programme auf dem Mac gleichartig zu bedienen waren, sparte Dokumentations- und Schulungsaufwand. Die Programme konnten über ihre Fähigkeiten beworben werden. Die Programmierer konnten sich auf die Funktionalität ihrer Programme konzentrieren und mussten keine eigene Benutzerschnittstelle entwickeln.

Die Regeln für die Gestaltung der Nutzerschnittstelle (Interface) legten den Programmierern enge Korsetts an (Gestaltung von Fenstern, Menüs, Schaltflächen, etc.), und manche Innovationen sind aufgrund dieser Regelungen möglicherweise nicht entstanden. Doch so wie wir im Alltag nahezu jedes Auto ohne Einweisung fahren können, erschließen sich uns die Grundlagen jedes Programms von allein. Lenkrad, Pedale, Blinker, Schaltung, Radio und Scheibenwischer sind an der selben Stelle zu finden und über ähnliche Symbole gekennzeichnet. Ebenso ist die Datei-Verwaltung (speichern, öffnen, drucken) und das Bearbeiten von Inhalten (kopieren, ausschneiden, einfügen) auf dem Computer stets an der selben Stelle zu finden und über gleiche Tastenkürzel zu bedienen.

Was zunächst als Gängelung erschien, erwies sich für die Nutzer als große Erleichterung und bedeutete auch für Programmierer eine Erleichterung. Sicherlich mussten alle Seiten dabei Einschränkungen eingehen, denn manche Idee ließ sich nicht so leicht in die Interface-Richtlinien integrieren. Stellt man die Nutzer ins Zentrum seiner Überlegungen, sind aus Technik- und Entwicklersicht zahlreiche Kompromisse nötig. Nutzer denken nicht wie Ingenieure, sondern wollen mit dem geringstmöglichen Aufwand schnell zu bestmöglichen Ergebnissen kommen. Werden die Erwartungen an die Ergebnisse durch die Firmenpolitik oder andere äußere Einflüsse vorgegeben, sinken die eigenen Erwartungen an diese, dabei steigt zumeist der Anspruch, die Ziele noch leichter zu erreichen; verlangt der Chef einen Report, will man diesen Auftrag möglichst schnell wieder vom Schreibtisch haben. Nur bei selbstgesetzten Zielen sind Nutzer motiviert, zahlreiche Hürden überwinden und Denkarbeit investieren zu wollen.

Sicherheit wird zum Problem

Wir erwarten von unseren Computern, dass sie einfach funktionieren, dabei verstehen wir „einfach“ im doppelten Wortsinn: Sie sollen unkompliziert zu bedienen sein (wir wollen keine Schulung absolvieren müssen) und möglichst wenig Pflege oder anderen Aufwand verursachen. Jeder Aufwand verursacht Kosten.

Es gibt aber durchaus Fälle, in denen neben der Einfachheit noch andere Anforderungen ausschlaggebend sind: Robustheit des Systems, Echtzeitereignisauswertung, Datensicherheit und absolute Korrektheit. Banken, Ärzte und Krankenhäuser, Regierungen und Regierungseinrichtungen wie Militär oder NASA sind solche Kunden mit speziellen Ansprüchen. Es gab eine Zeit, da hat jede Einrichtung sein eigenes Computersystem entwickelt und gepflegt. Heute laufen alle unter Windows.

Daran sind zwei Entwicklungen schuld. Zum einen müssen alle Einrichtungen sparen und setzen daher auf kostengünstige Lösungen von der Stange. Viele Nutzer kennen Windows von zuhause oder anderen Computern, sodass der Schulungsaufwand beträchtlich reduziert werden kann. Die Entwicklung eigener Software kann sich auf wesentliche Programme beschränken; es muss kein eigenes Betriebssystem gepflegt werden.

Microsoft schürte mit seinen Anti-Linux-Kampagnen zahlreiche Befürchtungen und sorgte durch aktive Lobby-Arbeit dafür, dass Windows beispielsweise auch bei der NASA zum Haupt-System wurde, obwohl diese auch intensiv mit Linux gearbeitet und es mit weiterentwickelt hatten. Mit der Verbreitung von Windows verbreiteten sich aber auch dessen Probleme und Sicherheitslücken. Windows war und ist als Arbeitssystem für den Schreibtisch konzipiert, nicht als einbruchssicheres Bank-Terminal, nicht als Kontrollsystem für Weltraumflüge, nicht als Überwachungsinstrument für Lebensfunktionen in medizinischen Geräten.

Wenn unser Computer beim Textschreiben abstürzt, ist der Schaden ärgerlich, aber überschaubar. Wenn jemand meine Kontodaten ausspäht, ist der Schaden individuell und kann im Normalfall ausgeglichen werden. Wenn aber jemand die Daten von Millionen Konten ausspäht, wenn jemand die Steuerung für ein Kraftwerk oder eine Telefonverwaltung missbraucht, wenn jemand über einen Virus eine Raumschiffsteuerung lahmlegt oder die Medikamentierung in einem Krankenhaus verändert, entstehen Schäden, die nicht so leicht zu beheben sind. Da fast jeder einen Windows-Computer besitzt, kann jeder die Fehler entdecken und dann auf entfernte Geräte anwenden. Horrorszenarien zum Thema „Cyberwar“ lassen sich leicht ausmalen. Jedenfalls trägt eine forcierte Monokultur nicht dazu bei, dass man sich sicher fühlen kann.

Man könnte sich jedenfalls sicherer fühlen, wenn Windows aufgrund seiner Qualitäten diese Verbreitung gefunden hätte. Wenn man aber die Strategien kennt, mit denen Microsoft operiert und es schafft, die Verbreitung seines Systems voranzutreiben, obwohl besser geeignete und preiswertere Systeme (Linux) existieren, schwindet das Vertrauen in die Selbstregulation des Marktes. Erst mit Windows Vista erklärte Microsoft die Sicherheit zu einem relevanten Kriterium. Als jedoch bekannt wurde, dass die User Account Control (UAC, die ständig fragt, ob der Nutzer etwas wirklich zulassen will und sich sicher ist, dass er etwas wirklich zulassen will), leicht umgangen werden kann, sah Microsoft keine Notwendigkeit zum Handeln:Übertragung: Es sollte klar sein, dass weder UAC-Aufwertung noch der Geschützte Modus des Internet Explorer neue Windows-Sicherheitsgrenzen (Grenzen zwischen Sicherheitszonen) definieren. … Weil Rechte-Aufwertungen und Integritätslevel (Sicherheitsstufe) keine Sicherheitsgrenzen definieren, sind potenzielle Attacken, unabhängig von der Einfachheit und ihrer Auswirkung, keine Sicherheitsprobleme. „It should be clear then, that neither UAC elevations nor Protected Mode IE define new Windows security boundaries. … Because elevations and ILs don’t define a security boundary, potential avenues of attack, regardless of ease or scope, are not security bugs.“Probleme in der als wichtige Sicherheitsmaßnahme beworbenen UAC sind keine Sicherheitsprobleme, und daher müsse man sie auch nicht dringend reparieren.

Der ehemalige Berater des Weißen Hauses Richard A. Clarke erklärte in seinem Buch „Cyber War: The Next Threat to National Security and What to Do About It“ zum Verdrängungs-„wettbewerb“ mit Linux:

MicrosoftÜbertragung: Microsoft machte mir sehr deutlich, dass wenn die US-Regierung Linux befürwortet, Microsoft die Zusammenarbeit mit der US-Regierung einstellen würde. Microsoft-Insider haben mir gegenüber zugegeben, dass das Unternehmen Sicherheit wirklich nicht wichtig genommen hat. gave me the very clear impression that if the US government promoted Linux, Microsoft would stop cooperating with the US government.

Microsoft insiders have admitted to me that the company really did not take security seriously.

Ob die US-Regierung wirklich mit Microsoft zusammenarbeiten muss, ist eine andere Frage. Im Sinne eines freien Marktes sollte jeder frei entscheiden können. Linux ist in vielen kritischen Bereichen eine sinnvolle Alternative, und das Pentagon setzte sich ernsthaft mit diesem kostenlosen und – aus Sicherheitsgründen ein wichtiger Aspekt – quelloffenenen Betriebssystem auseinander. Sie konnten den Computercode einsehen, verbessern und ergänzen. Von solcher Offenheit ist Windows weit entfernt.

Die gängige Reaktion auf eine solche „Marktbedrohung“ wird als FUD abgekürzt: Fear, Uncertainty, Doubt. Microsofts Anti-Linux-Kampagne lief nach genau diesem Muster und schüchterte Kunden und Behörden ein. Lobbying gegen hohe Sicherheitsstandards der Regierung flankierte diese Kampagne.

Vielleicht hat sich Microsofts Haltung inzwischen etwas gewandelt. Aber als Apples Börsenwert im Mai 2010 für ein paar Stunden höher war als der von Microsoft, reagierte der jetzige Microsoft-Chef Steve Ballmer auf altbekannte Weise:Übertragung: Ich werde mehr Profit machen, und bestimmt gibt es kein Technologieunternehmen auf dem Planeten, das so profitabel ist wie wir.„I will make more profits and certainly there is no technology company in the planet which is as profitable as we are.“

Ungeachtet der monetären Ziele scheint Windows Sieben zahlreiche der Ansprüche und Hoffnungen zu erfüllen. Ob neben der verbesserten Nutzbarkeit auch tatsächlich die versprochene höhere Sicherheit zu bekommen ist, muss sich erst noch erweisen. Jedenfalls kann und will sich keiner einen zweiten Fall der „USS Yorktown“ leisten. Die Computer des Lenkwaffenkreuzers liefen unter Windows NT und „als das Windows-System abstürzte, wie Windows es oft tut, wurde aus dem Schiff ein schwimmender Ziegelstein“, berichtet Clarke über das Desaster von 1997. Wenn an diesem Fall zwar keine Sabotage oder „Cyber-Kriminelle“ schuld hatten, so lassen sich diese nie ausschließen.

Eine zentrale Beobachtung von Clarke wird durch seine ausgeschmückten Worst-Case-Szenarien gern übersehen. Indem die Regierung Aufgaben privatisiert und beispielsweise fertige Programme von der Stange einsetzt, statt eigene zu entwickeln, kann sie zwar Geld sparen. Das Land wird dadurch aber auch in vielerlei Hinsicht verwundbar gegenüber Angriffen aus dem Netz.


Die Kritik an Microsofts Sicherheitsgebaren bedeutet nicht, dass Apple-Systeme sicherer sind. Vielleicht sogar im Gegenteil. Aber nur vielleicht. Das klassische Mac-System war jedenfalls alles andere als sicher. Da es aber nie versuchte, in sicherheitsrelevanten Bereichen Fuß zu fassen, ist dies unerheblich. Macs wurden als Arbeitscomputer für den normalen Schreibtisch von Textern, Fotografen, Designern beworben – nicht als sichere Computerplattform.

Mit MacOS X wurde Unix zur Systembasis und damit dessen Sicherheitsphilosophie. Diese sieht vor, dass für jede Datei (Programm, Einstellungsdaten, Dokument, Programm-Modul, etc.) klare Benutzerrechte vergeben sind. Für jeden Eintrag auf der Festplatte ist genau geregelt, wer diesen lesen, ändern, ausführen darf. Will jemand eine Datei direkt aufrufen (Doppelklick) oder indirekt starten (beispielsweise eine Programmkomponente), für die er keine Berechtigung besitzt, muss er sich mit einem Passwort legitimieren. So ist das System vor fehlerhaften Nutzereingaben geschützt, denn auch der Administrator muss sich beim Ändern von Systemdateien als Berechtigter mittels Passwort ausweisen.

Einstellungsdateien für das System, für Programme, für Nutzer sind auf dem Mac klar voneinander getrennt: mittels Dateirechten. Windows verwaltet alle in einer einzigen Datei, der sogenannten Registry. Diese muss innerhalb der Datei die einzelnen Bereiche für System-, Programm- und Nutzereinstellungen voneinander trennen. Damit ist eine zusätzliche Instanz nötig, die beim Auslesen oder Ändern der Registry sicherstellt, dass nur die Einträge gelesen bzw. geändert werden können, für die auch die Rechte vorhanden sind.

Wenn nichts Besseres klappt

Mit MacOS 10.5 (Leopard), spätestens „Snow Leopard“ (10.6) sollte nach ersten Ankündigungen das Dateisystem auf ZFS umgestellt werden. Dieses Dateisystem hätte auf der technischen Seite zahlreiche Vorzüge mitgebracht, technische Redakeure waren von den Aussichten euphorisiert. Doch daraus wurde ohne Angabe von Gründen nichts, Apple verwendet weiter das HFS-Dateisystem, das seit den 90ern Mac-Standard ist.

Jede MacOS-X-Version erweiterte das HFS-System weiter. HFS vermeidet bereits die Fragmentierung von Dateien, und das System optimiert in ruhigen Phasen die Anordnung der Dateien zusätzlich. Elementarer Bestandteil von HFS sind sogenannte ↑ Metadaten. Dabei besitzt jede Datei eine Zusatzdatei. Das Dateisystem sorgt – unabhängig vom Betriebssystem – dafür, dass die Datei nie von ihrer Meta-Information getrennt wird.

Jede MP3-Datei enthält neben der eigentlichen Musik noch Einträge zu Album, Interpret, Komponist und andere Informationen (sogenannte ID3-Tags). Auch Word-Dateien bestehen nicht nur aus dem Text, sondern speichern den Namen des Bearbeiters, die verwendete Word-Version und Veränderungen in der Datei. Diese Metadaten, ihre Nutzung und Änderungen durch den Nutzer sind vom Dokumenttyp und dem verwendeten Programm abhängig. iTunes beispielsweise sorgt dafür, dass der Dateiname und Speicherort einer Musikdatei immer den Metadaten entspricht, bei Änderungen wird automatisch beides geändert.

Im Mac-System kann zusätzlich jede Datei ein sogenanntes Etikett erhalten, also mittels Farbmarkierung beispielsweise als „wichtig“, „dringend“ oder „Löschkandidat“ auszeichnen. Bis „Snow Leopard“ konnte jeder Datei ein eigenes Programm zugewiesen werden. Einige rtf-Dateien waren so eingestellt, dass sie mit Word geöffnet wurden, andere so, dass automatisch TextEdit gestartet wurde. Mit „Uniform Type Identifier“ (einheitliche Typ-Erkennung) erhält jede Datei die Information, welche Dateiart (Bild, Text, Ton, Film, etc.) sie darstellt. Standard-Typen sind als „public“ definiert, für andere Typen kann jeder Programmierer seinen eigenen Typ deklarieren, beispielsweise „com.apple.quicktime-movie“. Die UTI geben analog zu den „Universal Resource Identifier“, die Tim Berners-Lee 1994 für das Internet einführte, dem Betriebssystem Hinweise, welches Programm ein Dokument bearbeiten kann.

Da Computer durch Festplattenzugriffe ausgebremst werden, wendet das MacOS einen Trick an, um Programme schneller zu starten. Programme liegen als komprimierte Datei auf der Festplatte, trotz des zusätzlichen Aufwands zur Dekomprimierung ist der Zugriff immer noch schneller als der Verzicht auf die Komprimierung. Indem die komprimierten Dateien in den Metadaten „versteckt“ werden, wird die Komprimierung vor dem Nutzer verborgen, und alle Datei-Aktionen funktionieren wie gewohnt. Auch wenn man mit älteren MacOS-Versionen auf Laufwerke mit solchen komprimierten Daten zugreift, kann man sie problemlos kopieren, verschieben, umbenennen, per Mail versenden etc.

Statt also das Dateisystem komplett zu wechseln, was einen hohen Aufwand bedeutet hätte, wurde das bestehende um nützliche Funktionen ergänzt. So wie die Nutzer den Wechsel zu ZFS kaum bewusst gespürt hätten, so sind den meisten die technischen Möglichkeiten von HFS unbekannt. Erst durch sinnvolle Funktionen für den Nutzer (z. B. Etiketten, Schlagworte für die Spotlight-Suche) bestimmt sich die Nützlichkeit. Warum HFS mit MacOS 10.6 erneut ausgebaut statt gegen ZFS ausgetauscht wurde, lässt sich nur spekulieren. Vermutlich wäre die Umstellung auf der technischen Seite so komplex und umständlich geworden und hätte einige etablierte Funktionen zunächst nicht ermöglicht, sodass stattdessen das bestehende System um weitere Funktionen ergänzt wurde.


Überblick über „Der Apple-Faktor, Band I“:
1. Einleitung
2. Die Anfänge
3. Von der Taste zum Touch
4. Von der Anweisung zum Klick
5. Virtueller Schreibtisch
6. Vom Buchstaben zur Transparenz
7. Vom Einzelplatz zum Netz
8. Von der Philosophie zum Kompromiss
9. Die wunderbare Welt der Software
10. Zum Ende: Versuch eines Vergleichs zwischen Mac OS X und Windows Sieben
Epilog: Eine neue Zeit

VG Wort Zählpixel

Alexander Florin: Alexander Florinein Kind der 70er • studierter Anglist/Amerikanist und Mediävist (M.A.) • wohnhaft in Berlin • Betreiber dieses Blogs zanjero.de • mehr über Alexanders Schaffen: www.axin.de ||  bei Google+ || auf Twitter folgen

5 Kommentare

  1. Pingback: Der Apple-Faktor: Vom Buchstaben zur Transparenz | zanjero.de

  2. Pingback: Der Apple-Faktor: Einleitung | zanjero.de

  3. Pingback: Der Apple-Faktor, Band I | zanjero.de

  4. Pingback: Der Apple-Faktor: Vom Einzelplatz zum Netz | zanjero.de

  5. Pingback: Der Apple-Faktor: Epilog – Eine neue Zeit | zanjero.de

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

*