<<

6.3 Das Dynabook: Ein Computer für Kinder in jedem Alter

Die Formierung einer Idee Auch Alan C. Kay gehört zu dem Typus Wissenschaftler, dem es immer wieder gelingt, Ideen aus unterschiedlichsten Bereichen aufzunehmen und für seine ei- gene, von einer Vision geleiteten Arbeit fruchtbar zu machen. Als hochbegabter Sohn eines Physiologen und einer Musikerin war er in einem Umfeld aufgewach- sen, in dem Wissenschaft und Kunst zum Alltag gehörten. So entwickelte er ein umfassendes Interesse für Wissenschaft, Kultur und Technik und eignete sich eine Vielzahl von Techniken an, seine Ideen ausdrücken.1 Kay begann Anfang der sechziger Jahre ein Studium in Mathematik und Bio- logie am Bethany College in West Virginia, das er allerdings unterbrechen mußte, als er zur Luftwaffe eingezogen wurde. Er wurde zum Programmierer ausgebildet und arbeitete in den folgenden zwei Jahren unter anderem mit einem Burroughs B220 Computer. Nach eigener Darstellung wurde Kay dabei 1961 auf das Pro- gramm eines unbekannten Programmierers aufmerksam, das für ihn zum Aus- gangspunkt eines neuen Programmierkonzepts wurde, das heute als Objektorien- tierung bekannt ist. Es handelte sich um ein Programm zur Übertragung eines Programms und der zugehörigen Daten von einem Rechner zum anderen. Da ei- ne Unterscheidung wegen eines fehlenden Standards häufig problematisch war, hatte der Programmierer die Programmroutinen von den Daten getrennt und die Verknüpfung in Form einer Tabelle mit Verweisen am Beginn der Übertragung festgelegt. So konnte das Programm auf dem Zielcomputer verwendet werden, selbst wenn das Format der Daten nicht vorher bekannt war.2 Nach dem Ende seiner Militärzeit schloß Kay 1966 sein Studium an der Uni- versity of Colorado ab. Er wechselte als Doktorand an die University of Utah in Salt Lake City, die seit Mitte der sechziger Jahre unter der Leitung von David Evans und Ivan Sutherland führend bei der Entwicklung der Computergrafikwar und zu den von der ARPA geförderten Centers of Excellence gehörte.3 Bereits zu Beginn seiner dortigen Tätigkeit beschäftigte sich Kay mit zwei wichtigen Softwareentwicklungen, deren Konzepte ihn stark beeinflussen sollten. Das erste dieser Programme war das von Ivan Sutherland 1962 am MIT entwi- ckelte interaktive Grafikprogramm Sketchpad. Jedes mit Sketchpad gezeichnete Objekt war eine Instanz einer »Urzeichnung« oder Klasse, in der die grundlegen- den Eigenschaften festgelegt sind. So legt beispielsweise die Klasse Kreis fest, daß alle Punkte des Objekts den gleichen Abstand vom Mittelpunkt haben müs- sen. Alle Instanzen haben zusätzliche Werte, im Falle des Kreises für die Koor- dinaten des Mittelpunkts und den Radius. Zeichnungen wurden direkt am Bild- schirm erstellt und bearbeitet, wobei der Benutzer Objekte mit Hilfe des Lichtgrif-

1 Shasha and Lazere 1995, S. 39f. 2 Shasha and Lazere 1995, S. 41; Kay 1996, S. 514f. 3 Shasha and Lazere 1995, S. 42; Kay 1996, S. 515f.

251 6. Xerox PARC und die Architektur der Information

Abbildung 71. Alan C. Kay um 1984 fels direkt manipulieren konnte und die Zeichnung entsprechend der Einschrän- kungen vom Computer verändert wurde.1 Zum anderen war es eine von Kays ersten Aufgaben gewesen, einen Compiler für die Programmiersprache SIMULA auf der UNIVAC 108 lauffähig zu machen. SIMULA hatte das Konzept der Klassen und Instanzen auch im Bereich der Pro- grammiersprachen eingeführt, wenngleich es sich noch um eine herkömmliche prozedurale Sprache handelte.2 Nach seiner eigenen Schilderung erkannte Kay, daß er es mit einem universa- len Konzept zu tun hatte, dessen geistige Wurzeln bis auf Leibniz’ Monadenlehre zurückzuführen war und das auch in der Biologie zu beobachten ist.3 Insbeson- dere sah er eine Parallele zur Funktion vielzelliger Organismen, die sich eben- falls aus gleichartigen und dennoch verschieden spezialisierten Zellen zusam- mensetzen. Und ebenso wie Zellen über bestimmte Botensubstanzen miteinander kommunizieren, müßten auch die Objekte eines Computerprogramms Botschaf-

1 Sutherland 1963. 2 Dahl and Nygaard 1966; Dahl and Nygaard 1967; Kay 1996, S. 516f. 3 Nicht nur Alan Kay bezieht sich in seiner Argumentation gern auf Leibniz, sondern auch Norbert Wiener bei seiner Darstellung der Grundlagen der Kybernetik. Vgl. Wiener 1948, S. 52f. Zum Zusammenhang zwischen Leibniz’ Monadenlehre und programmierbaren Automaten siehe Künzel und Bexte 1993, S. 156ff.

252 6.3 Das Dynabook: Ein Computer für Kinder in jedem Alter

Abbildung 72. Selbst- porträt des Flex, ca. 1968 ten austauschen können. Zunächst waren dies alles nur Ideen, für die Kay noch keine Verwendung hatte, obwohl er sie für wichtig hielt.1 FLEX Konkreter waren die Arbeiten, die Kay 1967–69 zusammen mit Edward Cheadle durchführte. Cheadle war Mitarbeiter in einem Unternehmen der Flugzeugindu- strie, für das Kay durch die Vermittlung von David Evans als Berater tätig war. Sie entwickelten einen kleinen Computer namens FLEX (Abb. 72), den auch Compu- terlaien, z. B. Ärzte, Anwälte und Ingenieure bedienen können sollten.2 Es stellte sich allerdings heraus, daß es schwierig war, für eine so diffus umrissene Nut- zergruppe eine geeignete Programmiersprache auszuwählen. Aus diesem Grund begann sich Kay für die Möglichkeiten von erweiterbaren Programmiersprachen zu interessieren, mit denen es –ähnlich wie bei Engelbarts NLS – möglich wä- re, die Funktionalität an unterschiedliche Anwendungen anzupassen. Kay begann deshalb mit der Entwicklung einer eigenen Programmiersprache, die sich an Ni- klaus Wirths EULER und an SIMULA orientierte. Trotz des beschränkten Bud- gets wurde der FLEX mit einem Grafikbildschirm ausgestattet, auch wenn die Leistung von Sketchpad bei weitem nicht erreicht werden konnte.3 Obwohl eine Vielzahl moderner Komponenten verwendet wurde, ergab der FLEX Computer kein einheitliches Ganzes. Das mit mehr als 160 kg immer noch sehr unhandliche Gerät schien trotz seiner Flexibilität und einer grafischen Benut- zungsschnittstelle die potentiellen Benutzer eher abzuschrecken.4

1 Shasha and Lazere 1995, S. 43; Kay 1996, S. 517. 2 Kay 1977, S. 232. 3 Kay 1968; Kay 1969; Kay 1990, S. 192. 4 Kay 1990, S. 192.

253 6. Xerox PARC und die Architektur der Information

Wichtig für die Entwicklung von Kays Idee eines persönlichen Computers war auch, daß er als Mitglied der ARPA-Gemeinschaft Einblick in eine Reihe anderer Forschungsprojekte erhielt. Auf einem Treffen der in den ARPA-Projekten be- schäftigten Studenten1 im Sommer 1967 wurde ein kleiner Prototyp eines flachen Plasmabildschirms vorgeführt, der an der University of Illinois entwickelt worden war.2 Kay erkannte unmittelbar den Wert, den ein solcher Bildschirm für einen wirklich persönlichen Computer haben konnte. Auf der Grundlage von Moores Gesetz stellte er Berechnungen an, wann es die Fortschritte in der Mikroelektro- nik erlauben würden, die komplette Elektronik seines FLEX Computers auf der Rückseite eines Plasmabildschirm unterbringen zu können. Er kam zu dem Ergeb- nis, daß ein solcher (tragbarer) Computer etwa 1980 realisierbar wäre – zunächst eine zu lange Zeit, um dem Gedanken weiter nachzugehen.3 Ebenfalls 1968 lernte Kay Seymour Papert (* 1928) kennen, der am MIT ein Projekt leitete, in dem die Möglichkeiten des Computers für die Erziehung von Kindern untersucht wurde. Dazu hatten Papert und seine Mitarbeiter die Pro- grammiersprache LOGO entwickelt, mit der Kinder einer Grundschule in Le- xington das Programmieren erlernten. Sie entwickelten Programme, mit denen man zeichnen oder Englisch in »Küchenlatein«übersetzen konnte. Kay war tief beeindruckt, wie mühelos sich die Kinder Computerkenntnisse aneignen konnten und wie kreativ sie bei der Entwicklung von Programmen und deren Verwendung waren. Noch während der Entwicklung des FLEX hatte er angenommen, daß ein Computernutzer wirklich programmieren können müßte, bevor er die Maschine als sein persönliches Werkzeug verwenden könnte. Paperts Arbeiten schienen das Gegenteil zu beweisen, denn die Kinder verwendeten mit Freude und Kreativität auch die Programme, die sie nicht selbst geschrieben hatten, sie waren ebenso begeisterte und kreative Anwender wie Entwickler. All dies schien darauf hin- zudeuten, daß der Computer vielleicht doch nicht nur die Eigenschaften eines Werkzeugs hatte, sondern auch ein Medium war, mit dessen Hilfe sich sein Be- nutzer ausdrücken konnte.4 Kay kam so zu der Überzeugung, daß die Metapher des Computers als »Fahrzeug in der Informationslandschaft«, die von Douglas Engelbart verwendet wurde, unzutreffend ist. Der Computer sei vielmehr ein per-

1 Diese Treffen waren 1967 auf Anregung von John Warnock als Ergänzung zu den regelmäßigen Treffen der Projektleiter eingeführt worden. 2 Bitzer and Slottow 1966; Slottow 1976. 3 Kay 1972b; Kay 1996, S. 522. Tatsächlich erreichte die Technologie der flachen Bildschirme erst nach 1980 die Produktionsreife. Obwohl Xerox auch bei der Grundlagenforschung in diesem Be- reich führend war, wurden keine Anstrengungen unternommen, die Technologie der flachen Bild- schirme in kommerzielle Produkte zu überführen. Alan Kay war sich zu Beginn der siebziger Jahre dieser Tatsache sehr wohl bewußt und regte erfolglos mehrfach eine Verstärkung der Produktent- wicklungsaktivitäten an. Vgl. Email von Alan C. Kay an den Autor, 15. Mai 1998. 4 Papert 1993; Brand 1990, S. 152ff.; Kay 1977, S. 232; Kay 1990, S. 193.

254 6.3 Das Dynabook: Ein Computer für Kinder in jedem Alter

Abbildung 73. Dyna- books in Gebrauch. Jimmy und Beth spielen »Spacewar«. Zeichnung von Alan Kay aus dem Jahre 1972 sönliches, dynamisches Medium. Da ein solcher Computer nicht größer als ein Notizbuch sein sollte, gab er ihm den Namen Dynabook (Abb. 73).1 Über Papert machte Kay Bekanntschaft mit den Arbeiten von Jean Piaget2 und Jerome Bruner, den Pionieren einer Entwicklungs- und Erziehungstheorie, die sich auf die kognitive Psychologie stützte. Für die Gestaltung eines interak- tiven Computerbetriebs griff Kay vor allem Bruners Stufenmodell der kogniti- ven Entwicklung des Kindes auf, das seinerseits auf Piagets Arbeiten aufbaute. Demnach werden Fähigkeiten in einer ersten, enaktiven oder sensomotorischen Stufe vor allem durch Handlungen bzw. die Imitation von Handlungen erworben. In der zweiten, präoperationalen oder ikonischen Entwicklungsstufe kommt die Fähigkeit hinzu, Information, die durch Bilder oder andere sinnliche Wahrneh- mungen repräsentiert werden, aufzunehmen. Bilder entwickeln dabei die wichtige Funktion, Handlungen zusammenzufassen. Erst in der dritten, der symbolischen Entwicklungsstufe wird die Fähigkeit entwickelt, mit abstrakten Begriffen umzu- gehen, die nach formalen Regeln formuliert oder transformiert werden können.3 Dabei sind die meisten Wissensbereiche (oder Problemstellungen) in allen drei Repräsentationsformen darstellbar, wenn auch nicht immer gleich effizient.4

1 Kay 1972b; Kay 1972a; Kay and Goldberg 1977; Kay 1977, Dabei ist es ganz interessant, bei welchen Unternehmen Kay die besten Chancen für die Realisierung des Dynabook sah. Nach seinem Weggang von Xerox im Jahre 1980 hat Kay bei Atari, Apple und Walt Disney Imagineering gearbeitet. 2 Seymour Papert war selbst Schüler von Piaget und hatte vor seiner Berufung ans MIT einige Jahre in Piagets Institut in Genf gearbeitet. 3 Bruner 1974, S. 16ff. 4 Bruner 1974, S. 49.

255 6. Xerox PARC und die Architektur der Information

Zap! With a beautiful flash and appropriate noise, Zap! With a beautiful flash and noise, Jimmy's Jimmy's spaceship disintegrated; Beth had won spaceship disintegrated; Beth had won Spacewar Spacewar again. The nine-year olds were lying again. The nine-year olds were lying on the grass

Zap! With a beautiful flash and appropriate noise, Zap! With a flash and beautiful noise, Jimmy's Jimmy's spaceship disintegrated; Beth had won spaceship disintegrated; Beth had won Spacewar Spacewar again. The nine-year olds were lying again. The nine-year olds were lying on the grass Abbildung 74. Bearbeiten eines Textes mit handschriftlichen Eingaben, links vor der Bear- beitung, rechts danach. Im oberen Beispiel wird das Wort »appropriate« gelöscht (DELE- TE), im unteren Beispiel durch das Wort »beautiful« ersetzt (MOVE). Der Befehl MOVE setzt sich aus dem Befehl für COPY (Kreis mit zusätzlicher Schleife und anschließendem Pfeil) und dem Befehl für DELETE (Zickzacklinie) zusammen.

Kays Folgerung war, daß auch ein Computermedium wie das Dynabook nicht nur auf der symbolischen Ebene zu bedienen oder zu programmieren sein dürfte, sondern in gleicher Weise auch die sensomotorischen und ikonischen Fähigkeiten des Menschen unterstützen mußte, oder in Kays eigenen Worten: »Doing with Images makes Symbols«.1 Was dieses abstrakte Ziel praktisch bedeuten konnte, soll kurz am Beispiel von Texteditoren verdeutlicht werden, die bislang vor allem mit symbolischen Repräsentationen arbeiteten (Abb. 74). So sollte die Auswahl der zu bearbeiten- den Textelemente vor allem auf den sensomotorischen Fähigkeiten des Benutzers basieren, der mit einem geeigneten Eingabegerät – Kay dachte zu diesem Zeit- punkt weniger an die Maus, als an einen Lichtgriffel oder ein Grafiktablett – ar- beitet. Das anschließende Zeichnen eines Pfeils würde dann angeben, wohin das markierte Wort kopiert werden soll. Eine Zickzacklinie könnte für den Lösch- befehl stehen usw., wobei auch Kombinationen der Befehle möglich wären. Die Kodierung von Befehlen würde in diesem Fall auf der ikonischen Ebene stattfin- den. Kompliziertere Befehle wie »Suche und Ersetze« würden schließlich auf der symbolischen Ebene mit Hilfe einer Kommandosprache realisiert.2 Um eine solche Art der Textmanipulation, bei der einzelne Worte auch hand- schriftlich eingegeben werden sollten, bedurfte es eines leistungsfähigen Systems zur Erkennung von Zeichnungen und handgeschriebenen Buchstaben. Da Kay im Sommer 1968 auch das bei der RAND Corporation entwickelte, leistungsfähige Grafiksystem GRAIL kennengelernt hatte, das handschriftliche Eingaben verar- beiten konnte3, schien ihm dies ein mittelfristig realisierbarer Ansatz zu sein.

1 Kay 1990, S. 196. 2 Kay 1972a. 3 Ellis et al. 1969b; Ellis et al. 1969a; Ellis et al. 1969c; Negroponte 1973. Sonst war GRAIL al- lerdings weit von Kays Schilderungen des Dynabook entfernt. GRAIL lief auf einem großen IBM System/360-Computer mit konventionellen Grafikterminals, während die handschriftlichen Einga- ben über ein Grafiktablett erfolgten.

256 6.3 Das Dynabook: Ein Computer für Kinder in jedem Alter

Mit diesem Konzept übernahm Kay Ideen, die Engelbart bereits für sein Online-System entwickelt hatte, und erweiterte sie um die von Engelbart bewußt abgelehnten ikonischen Elemente. Engelbart hatte zwar im Rahmen seiner theo- retischen Arbeiten zu Beginn der sechziger Jahre die Möglichkeiten einer ikoni- schen Repräsentation erkannt, hatte sich aber frühzeitig gegen die Verwendung von sogenannten Lichtdruckknöpfen, d. h. Bildschirmmenüs oder Icons zur Aus- wahl von Befehlen entschieden. Hintergrund dieser Entscheidung war, daß jede Eingabe mit der Maus vom Aufwand vergleichbar mit 3 bis 6 Tastatureingaben war. In einem solchen Fall, so Engelbarts Vorstellung, habe sich der menschliche Benutzer an das technische System anzupassen, um eine optimale Gesamtleistung zu erreichen.1 Obwohl Kay durchaus ähnliche Ziele wie Engelbart verfolgte, hatte er eine völlig entgegengesetzte Auffassung über den Weg dorthin. Der Computer sollte bedingungslos an die Fähigkeiten und Bedürfnisse des Menschen angepaßt wer- den. Zusammenfassend formulierte er in seiner Doktorarbeit die drei zentralen Anforderungen, die ein Dynabook erfüllen sollte. »The communications device must be as available (in every way) as a slide rule, the services must not be esoteric to use (It must be learnable in pri- vate), and the transactions must inspire confidence (›Kindness‹ should be an integral part).«2 Das Dynabook sollte also die Zusammenführung von intuitiver Benutzbarkeit und Programmierung mit einer hochwertigen grafischen Ausgabe und einer leis- tungsfähigen, aber preiswerten Hardware sein.3 Für die Realisierung eines Com- putersystems, das diesen Anforderungen gerecht werden konnte, eröffneten sich zwei mögliche Wege: »[The] ›civilized‹ desires for flexibility, resolution, and response lead to the conclusion that a user of a dynamic personal medium needs several hundred times as much power as the average adult now typically enjoys from timeshared computing. This means that we should either build a new resource several hundred times the capacity of current machines and share it (very difficult and expensive), or we should investigate the possibility of giving each person his own powerful machine.«4 Alan Kay und seine Mitarbeiter wählten den zweiten Weg.

1 Engelbart 1973, S. 222. 2 Kay 1969, S. 9. 3 Kay 1977, S. 234f.; Kay and Goldberg 1977, S. 31f. 4 Kay and Goldberg 1977, S. 32.

257 6. Xerox PARC und die Architektur der Information

Der beste Weg die Zukunft vorherzusagen Obwohl der FLEX Computer kein Erfolg war, brachte er Alan Kay den Doktorti- tel und die Aufmerksamkeit seiner Fachkollegen ein.1 Im Herbst 1969 erhielt er das Angebot, seine Idee des Dynabook am renommierten Labor fürKünstliche Intelligenz an der weiterzuentwickeln. Als Alan Kay schließ- lich Anfang 1971 von Bob Taylor zum PARC geholt wurde, geschah dies eben- falls mit dem ausdrücklichen Wunsch, er solle auch am PARC seine bisherigen Arbeiten fortführen.2 Allerdings erhielt Kay nicht sofort die Gelegenheit, einen Prototypen seines Dynabooks zu realisieren. Stattdessen wurde er – wie auch andere Mitarbeiter – von Don Pendery, dem Chefplaner von Xerox, dazu aufgefordert, aktuelle Ent- wicklungstrends zu identifizieren und zu beschreiben, »wie die Zukunft aussehen würde«.3 So verfaßten die Mitarbeiter des PARC im Sommer 1971 eine Reihe von Berichten, in denen sie ihre Forschungsziele definierten. Neben Kay, der in seinem Text »Display Transducer« nochmals seine Idee des Dynabook niederleg- te, extrapolierte James Mitchell unter dem Titel »Considerations for Future Office Systems« die Erfahrung mit Engelbarts NLS in die Zukunft, während Gary Stark- weather den Laserdrucker als eines der »Advanced Output/Printing Devices« be- schrieb.4 Es stellt sich allerdings bald heraus, daß die in ARPA-Projekten geschulten Wissenschaftler diese Form der langfristigen Planung als einengend ablehnten und die evolutionäre Methodik des Bootstrapping bevorzugten. Schon frühzeitig hatte Bob Taylor die Vorgabe gemacht, daß die am PARC entwickelten Compu- tersysteme nicht allein zu Demonstrationszwecken dienen dürften: »A strategy for carrying out work in experimental computer science was also adopted at this time. It was based on the idea that demonstrations of ›toy‹ systems are insufficient to determine the worth of a system design. Instead, it is necessary to build real systems, and to use them in daily work to assess the validity of the underlying ideas and to understand the conse- quences of those ideas.«5 Im Gegensatz zu Engelbarts Projekt versuchte man am PARC allerdings die Kurzsichtigkeit des evolutionären Ansatzes zu überwinden, indem man – Moores Gesetz folgend – die Entwicklung der Hardware berücksichtigte. So glaubte man sicherzustellen, daß zum Zeitpunkt der Marktreife eines möglichen Produkts we- der Hard- noch Software hinter der technologischen Entwicklung hinterherhinkte:

1 Email von Alan C. Kay an den Autor, 13. Januar 1998. 2 Kay 1996, S. 525. 3 Kay 1996, S. 527. 4 Pake 1985, S. 56. 5 Thacker 1988, S. 269, Hervorhebungen im Original.

258 6.3 Das Dynabook: Ein Computer für Kinder in jedem Alter

Abbildung 75. Alan Kays Entwurf für den miniCOM

». . . we thought that it is important to predict the evolution of hardware technology, and start working with a new kind of system five to ten years before it becomes feasible as a commercial product.«1 Alan Kay fand auch für diese Vorgehensweise eine griffige und bis heute gern zitierte Formel: »Der beste Weg die Zukunft vorherzusagen, [sei], sie zu erfin- den«.2 In diesem Sinne und unterstützt von William English begann Alan Kays Ar- beitsgruppe, die Learning Research Group (LRG), mit dem Entwurf eines Proto- typen für das Dynabook unter dem Namen miniCOM. Bei der Entwicklung von Hard- und Software sollte gelten, daß»einfache Aufgaben einfach zu meistern sein sollten und die Lösung komplexer Aufgaben zumindest möglich sein soll- te.«3 Die Benutzerfreundlichkeit stand bei diesem Entwurf also eindeutig im Vor- dergrund. Probleme tauchten erst auf, als Kay im Mai 1972 versuchte, finanzielle Mittel für den Bau mehrerer Prototypen zu erhalten. Diese wurden ihm von Jerry Elkind mit dem Hinweis verweigert, daß bereits in ausreichendem Maße Hardwareent- wicklungen durchgeführt würden.4 Im Laufe des Jahres stellte sich allerdings her- aus, daß die Ziele der Labors weniger weit auseinanderlagen als es den Anschein hatte. Bei einem informellen Treffen auf einer Skihütte im Januar 1972 hatten 1 Lampson 1988, S. 296. 2 Kay 1996, S. 527. 3 Kay 1977, S. 231. 4 Auch die Entwicklung des Alto-Computer Ende 1972 fand ohne offizielle Genehmigung durch Elkind während dessen Abwesenheit statt, wurde aber angesichts des positiven Resultats im Nach- hinein abgesegnet. Vgl. Email von Alan Kay an den Autor, 12. März 1998.

259 6. Xerox PARC und die Architektur der Information

Kay, Lampson und Thacker ihre Vorstellungen über einen zukünftigen Computer präsentiert. Kay trug über das vor, Lampson sprach über die Möglichkeit, einen PDP-10 für 500 $ in der Größe eines Handkoffers zu bauen und Thacker äußerte den Wunsch, eine zehnfach schnellere Nova zu konstruieren. Tatsächlich wurde das Treffen zum Ausgangspunkt für die Konstruktion eines kleinen interaktiven Computers ab Ende 1972.1 Unter die eher idealistischen Vorstellungen mischte sich auch die externe Vor- gabe, ein Computersystem für das »Büro der Zukunft« zu entwerfen. Dabei hatte sich der Gedanke eingebürgert, der Computer könne zu einem so selbstverständ- lichen Werkzeug fürBüroarbeiten werden wie es auch Papier und Bleistift waren. Daraus entstand ein neues Leitbild der Computernutzung, das Butler Lampson als Personal bezeichnete. So sollte das neu zu entwerfen- de Computersystem ein persönliches Werkzeug seines Benutzers sein, das dieser unter seiner vollständigen Kontrolle hatte und für alle anfallenden Tätigkeiten nutzte. Es sollte dabei Texte ebenso schnell bearbeiten und in hoher Qualität dar- stellen können wie Bilder, Grafiken und Audiodaten. Dazu mußte man sich von einer Grundannahme der konventionellen Datenverarbeitung trennen, die besagte, daß der Computer mit seinen Berechnungen sehr viel schneller ist als der Mensch mit seinen Eingaben. Ging man nämlich davon aus, daß der Mensch am Com- puter Texte und Grafiken interaktiv und in Echtzeit bearbeitet, kehrt sich dieses Verhältnis um, wenngleich ein großer Teil der Rechenleistung für »unprodukti- ve« Aufgaben wie die Ansteuerung eines Grafikbildschirms aufgewendet werden mußte. Die Verwendung eines Time-Sharing-Systems war unter diesen Vorgaben ausgeschlossen, die vollständige Rechenleistung mußte dazu verwendet werden, eine möglichst perfekte Simulation z. B. von Papier und Bleistift zu erzeugen.2 Gerade in dieser Vorstellung zeigen sich die Unterschiede zwischen Engel- barts und dem am PARC verfolgten Konzept. Es widersprach Engelbarts Vorstel- lung der Intelligenzverstärkung, ein existierendes Medium durch ein anderes, viel leistungsfähigeres und universelleres einfach nur zu simulieren. Er sprach zwar davon, daß es sehr viele Vorteile habe, Dokumente mit dem Computer zu erstel- len (vgl. Abs. 5.8.5, S. 211), sah aber in reinen Textverarbeitungssystemen nur blutleere Varianten dessen, was sein eigener konzeptioneller Rahmen an Mög- lichkeiten zur Effektivitätssteigerung versprach.3 Wenn aber jeder seinen eigenen Computer zur Verfügung haben sollte, mußte gewährleistet werden, daß man Programme und Daten austauschen, sowie teure

1 Email von Alan C. Kay an den Autor, 13. Januar 1998 und Email von Butler Lampson an den Autor, 9. Januar 1998. Vgl. auch Kay 1996, S. 532; Pake 1985, S. 59 und Lampson 1972. 2 Lampson 1988, S. 294f. 3 Insofern war Engelbart auch einer der ersten Verfechter des sogenannten papierlosen Büros, wenn- gleich er selbst von allen Dokumenten des Journals einen Ausdruck anfertigen ließ, die in Dutzen- den von Ordnern archiviert wurden. Vgl. Engelbart 1988, S. 214 (Figure 24), 219.

260 6.4 Der Alto: Ein gemeinsame Ressourcen wie einen Drucker gemeinsam nutzen konnte. Deshalb war es notwendig, die Computer untereinander zu vernetzen, so daß die Rechen- leistung gleichsam über das Netz verteilt war.1

6.4 Der Alto: Ein Personal Computer

Unter dem Vorzeichen der konvergierenden Vorstellungen über die Konstruktion eines kleinen und leistungsfähigen Computers kam es schließlich zu einer Zu- sammenarbeit der bislang getrennt arbeitenden Gruppen. Alan Kay berichtet, daß Lampson und Thacker im September 1972 an ihn herantraten und ihm anboten, einen kleinen Computer zu bauen, der die Summe ihrer Vorstellungen sein soll- te. Kay nahm das Angebot an, und in nur vier Monaten entwarfen und bauten Chuck Thacker und Edward McCreight mit der Hilfe von zwei Technikern den ersten Prototypen eines Rechners, der den Namen Alto erhielt.2 Der Alto entwi- ckelte sich ab 1973 zur Grundlage der wichtigsten Entwicklungen am PARC, er wurde kontinuierlich durch neue Hardwarekomponenten für neue Aufgaben wei- terentwickelt, er war die wichtigste Plattform zur Entwicklung und Benutzung neuer Programme. Ende der siebziger Jahre existierte schließlich ein umfangrei- ches System von Hard- und Software (Abb. 76), auf das im folgenden nur in Ausschnitten eingegangen werden kann. Die konkreten Ziele der Entwickler waren zunächst recht bescheiden. Das Dy- nabook war nicht das Ziel, sondern nur der Ansporn ihrer Bemühungen. Es war auch zunächst nicht vorgesehen, den Alto in irgendeiner Form als Produkt auf den Markt zu bringen.3 Er war einzig und allein ein Experiment, mit dem gezeigt werden sollte, daß die Vorstellungen von Kay, Lampson und Thacker über eine neue Form der Computernutzung realisierbar waren: »If our theories about the utility of cheap, powerful personal computers are correct, we should be able to demonstrate them convincingly on Alto. If we are wrong, we can find out why.«4 Der Alto (Abb. 77) bestand aus vier Hauptkomponenten, dem Prozessor, der zusammen mit dem Plattenlaufwerk in einem beigen Metallgehäuse untergebracht war, dem Grafikbildschirm, der Tastatur und der Maus. Mit der Ausnahme des Gehäuses waren alle anderen Komponenten so konstruiert, daß sie auf einem Schreibtisch untergebracht werden konnten.

1 Lampson 1988, S. 295; Memorandum von Butler Lampson an CSL über »Why Alto«, 19. Dezem- ber 1972. Abgedruckt als Anhang 8 auf Seite 424. 2 Kay 1996, S. 534; Thacker 1988, S. 273f. 3 Lampson 1988, S. 294. 4 Memorandum von Butler Lampson an CSL über »Why Alto«, 19. Dezember 1972.

261 6. Xerox PARC und die Architektur der Information

1973 1974 1975 1976 1977 1978 1979 1980 1981 1982 Hardware Alto Alto 2 Dolphin Dorado Dicentra NoteTaker Dandelion SLOT Dover 8044 Orbit Puffin Systemsoftware Alto OS Pilot Cedar exec Scavenger Alto exec Programmiersprachen BCPL Swat Mesa Cedar Mesa debugger Copilot

Smalltalk-72 Smalltalk-76 Smalltalk-80 Alto Lisp D

Kommunikation Pup worm RPC Chat Grapevine FTP

Server EARS Press Spruce Interpress Juniper Alpine WFS IFS

Anwendungen Gypsy Officetalk Star Tajo Viewers

Bravo Laurel BravoX Tioga Sil Markup Sil Draw

Abbildung 76. Chronologische Übersicht über die am PARC entwickelten Computer und Programme. Im Text erwähnte Systeme sind fett gedruckt.

262 6.4 Der Alto: Ein Personal Computer

6.4.1 Der Prozessor Die Architektur des Alto-Computers wurde nicht nur durch die hohen Anforde- rungen an Ein- und Ausgabe geprägt, sondern in gleichem Maße von der Vorstel- lung, welche Anwendungen auf ihm entwickelt und benutzt werden sollten. Da es sich dabei um interaktive Textbearbeitung, Echtzeitanimationen und Musiker- zeugung handelte, war die reine Rechenleistung von untergeordneter Bedeutung. Deshalb legte man keinen Wert auf einen umfangreichen Befehlssatz, sondern versuchte, einen Rechner mit einer einfachen und erweiterbaren Struktur zu ent- werfen, der allerdings seine wenigen Befehle besonders schnell ausführen konnte. Die einfache Struktur war dann auch ein Grund für die extrem kurze Bauzeit des ersten Prototypen, der am 1. April 1973 fertiggestellt war.1 So bestand der Prozessor des Alto (Abb. 78) aus nicht mehr als 160 nied- rig bzw. mittelhoch integrierten handelsüblichen Schaltkreisen, die auf drei handverdrahteten Platinen angeordnet waren. Das Rechenwerk war aus vier SN74S181 Chips von Texas Instruments zusammengesetzt, einer schnellen 4-bit- Recheneinheit mit paralleler Übertragungslogik und insgesamt 64 arithmetische und logische Funktionen, von denen aber nur 14 verwendet wurden.2 Um eine möglichst schnelle Ein- und Ausgabe realisieren zu können, hatte Chuck Thacker ein unkonventionelles, aber effizientes Verfahren zur Taskver- waltung entwickelt.3 Während bei den frühen Computern, z. B. beim Whirlwind- Computer, die Ein- und Ausgabe vollständig vom Prozessor gesteuert wurde, war man während der sechziger Jahre zum Einsatz spezieller Ein-/Ausgabehardwa- re übergegangen. Diese übernahm auf Befehl der Zentraleinheit selbständig die Ansteuerung der Peripheriegeräte, z. B. eines Lochkartenlesers oder eines Zeilen- druckers. So konnte der Zentralprozessor während der vergleichsweise langsa- men Ein- und Ausgabe für andere Aufgaben genutzt werden. Weil solche halb- autonomen Ein- und Ausgabeprozessoren einen enormen zusätzlichen Hardware- aufwand bedeuteten, kehrte Thacker beim Entwurf des Altos zum Prinzip eines einziges Prozessors für alle Aufgaben zurück.4 Deshalb besaß der Alto 16 Programmzähler, so daß auf der Mikroprogramme- bene 16 verschiedene Programme, sogenannte Tasks, gleichzeitig verwaltet wer- den konnten, die feste Prioritäten besaßen. Die sogenannte Emulatortask, die die Befehle des Anwenderprogramms ausführte, hatte die geringste Priorität, die rest- lichen Tasks wurden für die als Mikroprogramm realisierten Teile der Ein- und Ausgabesteuerung, d. h. für Grafikbildschirm, Tastatur, Maus, Festplatte und das 1 Thacker et al. 1982, S. 549f. 2 Del Russo 1994; Thacker et al. 1982, S. 555; Texas Instruments Deutschland 1978, S. 232ff. – Thacker et al. sprechen sogar davon, daß die restlichen Befehle des SN74S181 nutzlos gewesen seien. 3 Thacker 1978b. 4 Bell 1988, S. 22ff.

263 6. Xerox PARC und die Architektur der Information

Abbildung 77. Alto II Workstation mit der Disk/Processor Box, Bildschirm, Tastatur, Maus und Wechselplatten. Der Alto I war mit dem gleichen Bildschirm und der gleichen Tastatur ausgestattet, hatte allerdings ein leicht unterschiedliches Gehäuse.

264 6.4 Der Alto: Ein Personal Computer

NTASK CTASK

4 PROM 22 RSel[0:4] MIR 12 Control Memory BS[0:2] 1-2 Kw x 32 10 ALUF[0:3] MPC LL 16x12 LT RAM F1[0:3] Write Control Memory F2[0:3] Address 1-2 Kw x 32 Next Address Priority Wakeup Encoder Requests

Control Shift Signals CTASK RSel[0:2] RSel[0:2] 3 5 S Constant RSel[3:4] Disk Display Ethernet Registers Registers IR[1:2] Branch Controller Controller Controller BS[0:2] PROM 8x32x16 32x16 2 256x16 IR[3:4] Logic ALU Results Processor Bus (16 bit)

T Reg IR Drivers, Parity Skip Carry Flag Flag ALU Data Data

Addr Addr Main Memory Memory Bus L Reg MAR 128-512 kB I/O Devices

Abbildung 78. Blockschaltbild des Alto-Prozessors (MPC: Microprogram Counter, NTASK: Next Task, CTASK: Current Task, MIR: Microinstruction Register, MAR: Mem- ory Address Register, IR: Instruction Register) lokale Netzwerk reserviert. Schließlich gab es noch eine sogenannte timed task, die alle 38 µs den Inhalt des Hauptspeichers auffrischte und eine fault task, die immer dann aktiviert wurde, wenn ein Speicherfehler registriert wurde. Dadurch konnte beim Alto das Monitorbild alle 2 ms neu aufgebaut, die Eingaben über Ta- statur und Maus in Echtzeit überwacht und Daten zwischen Haupt- und Platten- speicher transferiert werden, ohne daß die Ausführung des Anwenderprogramms merklich verlangsamt wurde, und dies obwohl die Ansteuerung des Bildschirms fast 75 % der Gesamtleistung benötigte.1 Der Prozessor des Alto war um den 16 bit breiten Prozessorbus organisiert, über den der Hauptspeicher, das Rechenwerk, eine Reihe von Hochgeschwindig- keitsregistern (R und S) sowie die Ein- und Ausgabecontroller miteinander ver- bunden waren. Die Übertragung von Daten über den Bus und die auszuführenden Operationen wurden von 32 bit breiten Mikrobefehlen gesteuert, die entweder einem programmierbaren Festwertspeicher oder einem speziellen Schreib-Lese- Speicher entnommen wurden. Jede Mikroinstruktion wurde von einer zweistufi- 1 Thacker et al. 1982, S. 550; Thacker 1988, S. 274ff.

265 6. Xerox PARC und die Architektur der Information gen Befehlspipeline ausgeführt, die dazu bei einer Taktrate von 5,88 MHz 170 ns benötigte. Jedesmal, wenn von einem der Ein-/Ausgabecontroller ein Unterbrechungssi- gnal erzeugt wurde oder wenn eine bestimmte Zeitspanne abgelaufen war, wur- de in das Register NTASK (=Next Task) die Nummer derjenigen zur Bearbei- tung anstehenden Task geladen, die die höchste Priorität besaß. Das NTASK- Register adressierte dann den entsprechenden Mikroprogrammzähler. Ein Task- wechsel ging in der Regel ohne großen zusätzlichen Zeitaufwand vor sich, da außer dem Mikroprogrammzähler keine weiteren Register- oder Speicherinhalte gesichert wurden. Da der Hauptspeicher des Alto mit dem Prozessor synchroni- siert war, konnte ein 16-bit-Wort innerhalb von fünf Maschinenzyklen, ein 32- bit-Doppelwort innerhalb von sechs Maschinenzyklen gelesen oder geschrieben werden.1 Während sich der normale, als Mikroprogramm realisierte Befehlssatz des Al- to an der Nova orientierte, um eine Portierung der für diese Maschine entwickel- ten Programme zu erleichtern, gab es auch eine Reihe von sogenannten Emulato- ren, Anwendungsprogrammen, die direkt als Mikroprogramm realisiert waren. Es existierten beispielsweise Mikroprogrammimplementierungen für die Program- miersprachen Lisp, Mesa, Smalltalk und BCPL (Basic Combined Programming Language). Während die Mikroprogramme für die ersten drei Sprachen aus dem Schreib-Lese-Speicher geladen werden mußten, war der BCPL-Emulator sogar in einem eigenen Festwertspeicher enthalten, da BCPL bis 1977 die am meisten verwendete Programmiersprache am PARC war.2 Zur weiteren Optimierung wur- de die Steuerhardware des Alto um einige BCPL-spezifische Funktionen ergänzt, die aber nicht mehr als zehn integrierte Schaltkreise an Aufwand erforderten.3 Die für die Leistung des Alto kritischste Hardwarekomponente war aber nicht die Taskverwaltung, sondern der Hauptspeicher, für den von Beginn an Halbleiter- speicherchips verwendet wurden. Da diese Anfang der siebziger Jahre noch sehr teuer waren und der Alto durch die Verwendung eines Rastergrafikbildschirms besonders viel Speicher benötigte, wurde die Speicherausstattung des Alto im Laufe der Jahre immer weiter erhöht (Tab. 3). Für den 128 kByte umfassenden Hauptspeicher des Alto von 1973 wurden knapp 300 1-Kbit-Chips von Intel ver- wendet, die zusammen etwa 7 000 $ kosteten.4 Bis 1979 wurde der Speicher auf 512 KByte aufgerüstet. Da mit 16 bit nur 128 kByte adressiert werden konnten,

1 Thacker et al. 1982, S. 553ff.; McCreight et al. 1979, S. 10ff. 2 BCPL war eine an der Universität Cambridge entwickelte höhere Programmiersprache, die sich an der Blockstruktur von ALGOL orientierte, aber speziell für die Systemprogrammierung geeignet war und ein unmittelbarer Vorläufer der populären C-Programmiersprache ist. 3 Richards 1969; Curry and PARC Staff 1979; Thacker 1988, S. 276f. 4 Smith and Alexander 1988, S. 90.

266 6.4 Der Alto: Ein Personal Computer

Tabelle 3. Größe und Technologie der beim Alto verwendeten Speicherbausteine. Die Spei- chergrößen sind in Worten zu 16 bit angegeben. Year Main Memory Control Memory Processor Memory

Size Technology Size Technology Size Technology

¢ ¢ 1973 64 K 1K¢1 1K PROM 256 4 32 R Regs 16 4 Parity Dynamic Schottky bipolar Schottky bipolar

1974 Metal gate 1 K PROM PROM as above 32 R Regs 16¢4

PMOS 1 K RAM 1K¢1 RAMs 32 S Regs Schottky bipolar

1975 64 K 4K¢1 Schottky bipolar Error Dynamic

1976 Correction Si gate 2 K PROM 1K¢4 NMOS 1 K RAM PROMs Schottky bipolar

1977 256 K 16 K¢1 RAM as above Error Dynamic

1979 Correction Si gate 1 K PROM PROM as above 32 R Regs R Regs as above

¢ ¢ NMOS 3 K RAM 4K¢1 RAMs 8 32 256 4 Static NMOS SRegs Schottky bipolar mußte man den Speicher in vier sogenannte Bänke aufteilen, die dann durch eine Technik namens bank selection angesprochen wurden.1 Schließlich war der Alto auch noch mit einem oder zwei Diablo- Wechselplattenlaufwerken ausgestattet. Jede der Platten mit einem Durchmesser von etwa 38 cm hatte eine Speicherkapazität von 2.5 MByte und eine durch- schnittliche Zugriffszeit von etwa 10 µs pro Speicherwort. Die Schnittstelle zum Computer war durch zwei Mikroprogrammtasks und Plattencontroller realisiert, wobei die Plattencontroller nur diejenigen Aufgaben übernahmen, die die Mikro- programme nicht übernehmen konnten. Dadurch konnte der Hardwareaufwand für einen Controller mit 55 integrierten Schaltkreisen klein gehalten werden. Die Plattencontroller und die Dateiverwaltung des Betriebssystems wurden parallel entworfen, um eine möglichst hohe Geschwindigkeit und Sicherheit beim Zugriff auf die Dateien sicherzustellen. Bestimmte Funktionen für den Datenzugriff (z. B. die Manchestercodierung der Daten) wurden allein durch den Plattencontroller übernommen.2 Insgesamt gab es drei Möglichkeiten, Ein- und Ausgabegeräte an den Alto an- zuschließen, die davon abhängen, welche Übertragungsbandbreite benötigt wird und inwieweit der entsprechende Controller durch spezielle Mikroprogramme un- terstützt wird (Abb. 79). Peripheriegeräte, die hohe Anforderungen an die Über- tragungsgeschwindigkeit oder die Rechenleistung stellten, wurden direkt an den

1 McCreight et al. 1979, S. 6ff.; Wadlow 1981, S. 60. 2 McCreight et al. 1979, S. 43ff.; Thacker et al. 1982, S. 560ff.; Cizmic et al. 1978.

267 6. Xerox PARC und die Architektur der Information

Logical Interface Level

BCPL or Asm Emulator or Timed Private Task (Load & Store) Task Microcode Microcode

Impact Printer Stitch welder PROM programmer CPU Debugger Low Speed XY input tablet • raster scanner Cassette Tape • raster printer Parallel I/O Port

Terminal Medium Speed Keyboard* • concentrator • raster scanner Keyset* Console Computer Modem interface Console Computer Memory Bus Physical Connections

Display* Disk* Ethernet* Arpanet Mouse* 9 Track Tape Hardware Multiplier High Speed • raster scanner Abbildung 79. Übersicht der Audio

Processor Bus Modem interface Möglichkeiten zum Anschluß von Ein- und Ausgabegeräten * included in standard Alto an den Alto

Prozessorbus angeschlossen und belegten eine der sechzehn Mikroprogramm- tasks. Der Plattenspeicher, der Bildschirm, das Ethernet und ein gegebenenfalls vorhandener Laserdrucker wurden so an den Computer angeschlossen. Dabei galt, daß die Priorität der zugehörigen Mikroprogrammtask um so größer sein mußte, je höher die Übertragungsrate und je kleiner der Pufferspeicher war. Da für den Plattenspeicher nur ein einziges Wort als Puffer zur Verfügung stand (1.5 Mbit/s bei einer Latenzzeit von 10 µs), hatte dieser auch die höchste Priorität. Das Ether- net hatte hingegen trotz der höheren Übertragungsgeschwindigkeit eine geringe Priorität, weil es einen Pufferspeicher von 16 Worten besaß (3 Mbit/s bei einer La- tenzzeit von 87 µs). Für den Bildschirm wurde die höchste Bandbreite benötigt, er hatte aber ebenfalls einen Puffer von 16 Worten, so daß auch er eine niedrigere Priorität besaß als der Plattenspeicher (20 Mbit/s bei einer Latenzzeit von 12.8 µs). Es war auch möglich, ein Peripheriegerät wie die Maus direkt an den Prozes- sorbus anzuschließen, ohne ihm eine eigene Task zuzuweisen. Dafür wurde dann das Mikroprogramm der timed task so abgewandelt, daß z. B. alle 38 µs auch die Koordinaten der Maus abgefragt wurden.1 Peripheriegeräte, die eine weniger hohe Übertragungsrate benötigten, wurden an den Speicherbus des Alto angeschlossen, so daß kein spezielles Mikropro- gramm benötigt wurde. Die Kommunikation zwischen Programm und Controller erfolgte unter der Kontrolle des Prozessors über normale Speicherbefehle und re-

1 Thacker et al. 1982, S. 551f.

268 6.4 Der Alto: Ein Personal Computer servierte Bereiche im Hauptspeicher. Da der Zugriff auf den Hauptspeicher fünf Maschinenzyklen benötigte, war bei dieser Methode die Übertragungsrate deut- lich niedriger. Sie war aber für die Tastatur, ein Modem oder einen langsameren Drucker ausreichend.1 Besonders langsame Peripheriegeräte wurden über die parallele Ein-/Ausga- beschnittstelle angeschlossen. Diese bestand aus einem einzelnen 16-bit-Register, das per Programm gelesen bzw. gesetzt werden konnte. Die meisten im Quittungs- betrieb arbeitenden Peripheriegeräte (z. B. Bandlaufwerke, PROM-Brenner oder Typenraddrucker) wurden so an den Alto angeschlossen.2 Alle bislang geschilderten konstruktiven Details des Alto hatten nur den ein- zigen Zweck, die Kommunikation des Benutzers mit dem Computer deutlich zu verbessern. Um dieses Ziel zu erreichen wurden nicht nur zahlreiche konstruktive Tricks verwendet, sondern auch in Kauf genommen, daß die Rechenleistung des Prozessors zum größten Teil für die Verwaltung von Ein- und Ausgabe verwen- det wurde, dem Benutzer also nicht zur Verfügung stand. Der Alto war demnach weniger eine Rechen- als vielmehr eine Kommunikationsmaschine. Diese Eigen- schaft läßt sich auch an den leistungsfähigen Ein- und Ausgabegeräten erkennen, die für den Alto entwickelt wurden.

6.4.2 Der Grafikbildschirm

Der Grafikbildschirm und der Zeichengenerator sollten die Rolle des elektroni- schen Papiers und der elektronischen Tinte übernehmen und waren deshalb wohl der wichtigste Bestandteil des Alto. Bei beiden Komponenten konnten die Ent- wickler des Alto auf die Arbeiten der POLOS-Arbeitsgruppe zurückgreifen, die bereits seit über einem Jahr an einem leistungsfähigen Grafiksystem für die Nova arbeiteten.3 Um den Vorstellungenvom »Büro der Zukunft« und Alan Kays Idee eines per- sönlichen dynamischen Mediums gleichermaßen gerecht zu werden, wurden nicht nur die Eigenschaften existierender Medien nachgeahmt, sondern man versuch- te auch neue Darstellungsformen zu erschließen. Auf jeden Fall sollten folgende Möglichkeiten bestehen:

¯ Alphanumerische Zeichen sollten in verschiedenen Formen und Schriftarten dargestellt werden. Neben der rein textlichen Information sollten auf indirekte Weise, z. B. durch Fettdruck und kursive Darstellung auch andere Informatio- nen übermittelt werden können.

1 Thacker et al. 1982, S. 552. 2 Thacker et al. 1982, S. 552f. 3 Lampson 1975; Rider and Lampson 1978; Vgl. Email von Butler Lampson an den Autor, 5. März 1998.

269 6. Xerox PARC und die Architektur der Information

Abbildung 80. Darstellung des Buchstaben a auf einem Rasterbildschirm (rechts) und im Speicher (links)

¯ Es sollte möglich sein, gerade und gekrümmte Linien zu erzeugen, aus denen auch komplexe Zeichnungen entstehen können.

¯ Mit Hilfe von Strukturen oder Farben sollten sich Informationen auf dem Bild- schirm strukturieren und betonen lassen.

¯ Es sollte eine Möglichkeit geben, durch geeignete Verfahren Graustufenbilder anzuzeigen.

¯ Der Bildschirm sollte eine so hohe Auflösung besitzen, daß alle Bildschirm- objekte beliebig positioniert werden konnten, beispielsweise um hochgestellte Zeichen, Fußnoten, aber auch komplizierte mathematischer Formeln wie auf Papier darstellen zu können.

¯ Damit sollte letztlich die von herkömmlichen Medien gewohnte hohe Informa- tionsdichte erreicht werden.1 Zusätzlich zur Flexibilität der Darstellung sollte der Grafikbildschirm auch weite- re Vorteile von Papier und Tinte besitzen. Dazu gehört die Möglichkeit, umfang- reiche Sachverhalte auf mehrere Blätter zu verteilen, von denen immer nur eines aktuell betrachtet wird. Außerdem sollte auch auf einem elektronischen Blatt Pa- pier die (räumliche) Beziehung von vielen Tausend Objekten präsentiert werden können.2 Schon frühzeitig sahen die Entwickler am PARC nur eine einzige Möglichkeit, alle gewünschten Eigenschaften zu realisieren: die Verwendung von Rastergrafik. Dabei wird der Wert eines jeden Bildpunktes als Element einer zweidimensiona- len Matrix im Hauptspeicher (oder einem speziellen Bildschirmspeicher) abge- legt, die als Pixelmuster (Bitmap) bezeichnet wird. Dabei steht eine 1 für einen schwarzen und eine 0 für einen weißen Bildpunkt (Abb. 80). Für eine farbige Darstellung müßten für jeden Bildpunkt nicht nur ein Bit, sondern entsprechend der gewünschten Farbabstufung mehrere Bits zur Verfügung stehen (z. B. 8 bit für 256 Farben).

1 Thacker et al. 1982, S. 556. 2 Thacker et al. 1982, S. 556.

270 6.4 Der Alto: Ein Personal Computer

Es wurde bereits im vorigen Kapitel darauf hingewiesen, daß eine solche Tech- nik sehr speicherintensiv ist. Anders als Engelbarts Labor fünf Jahre zuvor, konn- te man es sich beim finanziell gut ausgestatteten PARC durchaus leisten, jeden Computer mit genügend Speicher auszurüsten. Einer der Gründe hierfür waren die Fortschritte bei der Herstellung von integrierten Schaltkreisen, die seit etwa 1970 die noch kostspieligere Technologie der Magnetkernspeicher ablöste. Ob- wohl der Speicher des Alto 1972 noch über 7 000 $ kostete, rechnete man damit, daß ein Speicher von 128 KByte innerhalb weniger Jahre nur noch 35 $ kosten würde.1 Da ein Hauptspeicher in Halbleitertechnik zwar nicht mehr unbezahlbar, aber immer noch teuer war, bediente man sich einiger Kunstgriffe, um den »Speicher- hunger« des Grafikbildschirms gering zu halten. So hatte man berechnet, daß für eine Darstellung, die qualitativ an Papier und Tinte heranreichen sollte, ei- ne Auflösung von 500–1000 Bildelementen pro Zoll benötigt wurde. Bei einer

Bildschirmgröße von 8.5¢11 Zoll (entsprechend dem amerikanischen Standard- papierformat), wäre man dann auf einen Speicherbedarf von 25–100 Millionen Bit gekommen, weit mehr als sich selbst das PARC leisten konnte, an eine Farb- darstellung war unter diesen Umständen erst gar nicht zu denken.2 Wahrnehmungspsychologische Untersuchungen hatten jedoch ergeben, daß auch eine sehr viel geringere Auflösung noch zu brauchbaren Darstellungen führ- te. Demnach wirkten 10 Punkt große Buchstaben bei einer Auflösung von etwa 80 Bildpunkten pro Zoll viel besser, als man erwartet hatte. Der Grund hierfür liegt in der Charakteristik des visuellen Wahrnehmungssystems, das ein leichtes Rauschen so glättet, daß die Bögen bei den Buchstaben trotz der erkennbaren Rasterung glatt und rund wirken. Probleme treten erst dann auf, wenn die Schrift vergrößert wird, dann allerdings umso offensichtlicher. Auch bei kleinen Buch- staben mußten Tricks (Veränderung des Seitenverhältnisses, Verbreiterung der Li- nien) angewendet werden, um die Lesbarkeit der Schrift auf dem Bildschirm zu

erhöhen.3 ¢ Auf dem 8.5¢11 Zoll großen Bildschirm wurden schließlich 606 808 Bild- punkte dargestellt, das entspricht einer Auflösung von 72 Bildpunkten pro Zoll. Für die 489 648 Bildpunkte benötigte man aber immer noch die Hälfte des vor- handenen Hauptspeichers.4 Der Speicherbedarf konnte allerdings durch einen weiteren Kunstgriff noch- mals deutlich verringert werden. Die Entwickler des PARC verwendeten eine Da- tenstruktur, die der Tatsache Rechnung trug, daß die Textblöcken auf dem Bild- 1 Smith and Alexander 1988, S. 90. 2 Thacker et al. 1982, S. 556. 3 Kay 1972b, S. 7; Thacker et al. 1982, S. 556; Bigelow 1985, S. 256ff.; Rubinstein 1988, S. 20ff., 104ff. 4 Thacker 1978a; Thacker et al. 1982, S. 556.

271 6. Xerox PARC und die Architektur der Information

Width=32 LeftMargin=0 Height=150 Alto: A Personal Computer Bitmap A Window A

0

Width=0 LeftMargin=0 Height=150

Window B

0 Width=15 LeftMargin=17 Height=300 Bitmap B

Display Bitmaps Windows on the display screen Control Blocks Abbildung 81. Struktur der Videodaten und ihre Darstellung auf dem Bildschirm schirm bei vielen Anwendungen durch vertikale Zwischenräume getrennt sind, die keine Information enthalten. Jeder Kontrollblock in einer Liste (Abb. 81) ent- hielt die Information über seinen Nachfolger, über die Zeilenzahl des Textblocks, über den linken Rand und die Breite des Darstellungsbereichs sowie einen Ver- weis auf das darzustellende Pixelmuster. Die Nullen für den Bereich rechts und links des Textblocks wurden automatisch eingefügt, brauchten also nicht extra abgespeichert werden. Vertikale Abstände, also eine Reihe von vollständig leeren Zeilen, wurden durch einen Kontrollblock dargestellt, bei dem alle Angaben außer der Höhe auf Null gesetzt waren. Auf diese Weise reduzierte sich der Speicherbe- darf für die Darstellung typischer Textseiten um etwa 30 %, für die Darstellung von Programmlistings sogar noch stärker.1 Diese Technik hatte aber auch unbestreitbare Nachteile. Bei der Entwicklung von Textverarbeitungsprogrammen war es z. B. nicht möglich, mehrere Textblö- cke nebeneinander auf dem Bildschirm darzustellen. Damit war eine Darstellung von mehrspaltigen Dokumenten oder Marginalien nicht möglich. Das Verfahren verlor schließlich zunehmend an Bedeutung, als der Hauptspeicher im Laufe der Zeit erweitert wurde und immer mehr Programme entstanden, die eine grafische Benutzungsoberfläche hatten, bei der Text und Grafik beliebig kombiniert werden konnten und deshalb nur mit einem einzigen Pixelmuster arbeiteten.2

1 Thacker et al. 1982, S. 557f.; Thacker 1988, S. 278. 2 Lampson 1988, S. 322f.

272 6.4 Der Alto: Ein Personal Computer

Trotz aller technischen Tricks war die Bildschirmdarstellung des Alto aber of- fenbar an der Grenze des Erträglichen. Die von Ball Brothers Inc. hergestellten Monitore waren zwar durch die Verwendung eines »langsameren« Leuchtstoffs so modifiziert worden, daß sie nicht mehr allzusehr flackerten, von einer flimmer- freien Darstellung war man aber noch weit entfernt.1

6.4.3 Eingabegeräte: Tastatur und Maus Als Standardeingabegerät wurde auch beim Alto eine an die Schreibmaschine an- gelehnte Tastatur verwendet, die allerdings im Vergleich mit anderen Computerta- staturen der Zeit sehr bequem zu bedienen war. Vor allem war die Tastatur völlig unkodiert, d. h. jede Taste war einzeln mit dem Computer verbunden. Dadurch wurde es möglich, auch die Betätigung von Tastenkombinationen zu erkennen, über die bestimmte Befehle ausgeführt werden konnten.2 Daneben war auch die Einhandtastatur Bestandteil des Alto. Obwohl dies bis Anfang der achtziger Jahre so blieb, war die Einhandtastatur nie sonderlich beliebt und wurde deshalb bei den Nachfolgern des Alto nicht mehr verwendet.3 Als Zeigeinstrument wurde am PARC von Beginn an die Maus verwendet, die Engelbarts ehemalige Mitarbeiter, wie auch die Einhandtastatur, zum PARC mitgebracht hatten. Es stellte sich allerdings bald heraus, daß die »Urmaus« ge- wisse Unzulänglichkeiten besaß. Dies betraf insbesondere die beiden senkrecht zueinander stehenden Rädchen, die sich zwar bei einer Bewegung der Maus in horizontaler oder vertikaler Richtung leidlich drehten, aber bei diagonalen Be- wegungen häufig blockierten.4 Aus diesem Grund konstruierte Ronald E. Rider 1972 eine Maus (Abb. 82), bei der die Bewegung von einer Kugel (8) aufgenom- men wurde. Die Bewegungskomponenten in horizontaler und vertikaler Richtung wurden im Innern der Maus von zwei senkrecht zueinander angeordneten Rollen (26, 29) aufgenommen, die sich über die Oberfläche der Kugel bewegten und an Potentiometer (42, 46) angeschlossen waren. Um Schlupf zu vermeiden und ei- ne möglichst genaue Übertragung zu gewährleisten, wurde die Kugel durch zwei weitere Rollen (27, 28) in ihrer Position gehalten. Außerdem waren sowohl die Kugel als auch die Rollen mit Gummi beschichtet.5 Wie bei der SRI-Maus waren auch bei der PARC-Maus auf der Oberseite drei Tasten (14) angebracht, die mit Rot, Blau und Gelb bezeichnet wurden (obwohl 1 Thacker et al. 1982, S. 557. Thacker schreibt beschwichtigend, daß die meisten Benutzer das Fla- ckern des Bildschirms nicht als wirklich störend empfanden. 2 Taft 1979, passim. 3 Wadlow 1981, S. 60; McCreight et al. 1979, S. 35ff.; Clement and Stengel 1977. Vgl. auch Email von Charles Simonyi an den Autor, 9. März 1998 und Email von Alan C. Kay an den Autor, 12. März 1998. 4 Rider 1974, Sp. 1. 5 Rider 1974, Sp. 2ff.

273 6. Xerox PARC und die Architektur der Information

Abbildung 82. Aufbau der 1972 von Ronald Rider am PARC konstruierten Maus (links). Die später verwendeten Mäuse hatten allerdings eine andere äußere Form (rechts). die realen Tasten schwarz waren). Jede Maustaste hatte eine eigene Leitung, so daß auch Tastenkombinationen abgefragt werden konnten.1 Wie schon in Engelbarts Labor war die Maus auch am PARC Gegenstand er- gonomischer Untersuchungen. Diese bestätigten die Überlegenheit der Maus bei den meisten Anwendungen gegenüber Zeigeinstrumenten wie dem Lichtgriffel oder dem Steuerknüppel.2 Um dem Benutzer eine Rückmeldung über die Mausposition zu geben, wurde bei jedem Bildschirmaufbau ein Cursor eingeblendet. Der Cursor war ein Pixel-

muster von 16¢16 Punkten, das an einer bestimmten Speicheradresse abgelegt

1 Wadlow 1981, S. 60; McCreight et al. 1979, S. 36. 2 Card et al. 1978; Card et al. 1983, S. 241f., 255. Bei diesen Versuchen stellte sich auch heraus, daß die Eingaben mit der Maus der gleichen Gesetzmäßigkeit (Fitts Gesetz) unterliegen wie ma- nuelle Positionierbewegungen. Die Überlegenheit der Maus ist überwiegend auf diese Parallele zurückzuführen.

274 6.4 Der Alto: Ein Personal Computer

Abbildung 83. Situationsabhängige Cursorformen (hier beim Xerox Star). Von links nach rechts: Normal, Move Mode, Copy Mode, Copy Properties Mode, Menu Selecting, Illegal Destination, Graphics. war und in das Bitmap des Bildschirms kopiert wurde. Dabei stellte es sich als vorteilhaft heraus, daß das Bitmap des Cursors durch das Programm geändert werden konnte. So war es beispielsweise möglich, dem Benutzer durch die Ver- änderung der Cursorform einen Hinweis auf mögliche Aktionen oder Systemzu- stände zu geben (Abb. 83).1

6.4.4 Die Weiterentwicklung des Alto

Nachdem der erste Prototyp des Alto mit dem Codenamen Bilbo am 1. April 1973 fertiggestellt worden war, wurde der Computer in folgenden Monaten wei- ter verbessert und optimiert. Gegen Ende 1973 war der Alto dann so ausgereift, daß man gedruckte Schaltungen entwerfen und eine Kleinserie in Auftrag geben konnte. Die ersten 20 von insgesamt 50 Computern, die Xerox’ Special Projects Group in Los Angeles 1974 produzierte, wurden zwischen Mai und September 1974 an die Labors des PARC geliefert.2 Der praktische Wert der Maschinen war allerdings zu diesem Zeitpunkt noch gering, da es kaum Programme gab. Erst im Frühjahr 1974 stellten die Entwick- ler des Computer Science Laboratory unter der Leitung von Butler Lampson das Betriebssystem (Alto OS), einen BCPL-Compiler und einen einfachen Textedi- tor fertig. Damit standen zwar die wichtigsten Werkzeuge zur Entwicklung von Programmen zur Verfügung, der Alto konnte aber keinesfalls sofort den zentra- le Time-Sharing-Computer ersetzen. Bis 1975 hatten die Entwickler am PARC allerdings alle Softwarewerkzeuge entwickelt, die sie für ihre Arbeit benötigten.3 Obwohl der Alto als experimenteller Computer entwickelt worden war, hatte das Alto-System spätestens zu diesem Zeitpunkt seine eigene Dynamik entwi- ckelt, weil immer mehr Mitarbeiter des PARC ihren eigenen Alto haben wollten. Man entschloß sich, den bereits zwei Jahre alten Alto völlig neu zu entwerfen,

1 Bates and Thacker 1975; Thacker et al. 1982, S. 559f.; Thacker 1988, S. 272f.; Newman 1979, S. 87ff.; Baudelaire 1979, S. 99ff. 2 Thacker 1988, S. 281. 3 Thacker 1988, S. 280f.

275 6. Xerox PARC und die Architektur der Information um die Herstellung zu verbilligen und die Zuverlässigkeit zu erhöhen. Dazu wur- de bei der Special Projects Group unter der Leitung von John Ellenby die Anzahl der Bauteile optimiert und ein völlig neues Layout für die Platinen erstellt. Für den Hauptspeicher wurden nun 4-Kbit-Chips und ein zusätzliches Verfahren zur Fehlerkorrektur verwendet. Dadurch war der Alto II einfacher herzustellen und zu warten, die Kosten sanken von 18 000 $ auf 12 000 $. Die letzte größere Änderung war 1979 die Erweiterung des Hauptspeichers auf 512 kByte und der Einsatz von 16-Kbit-Speicherchips. Vom Alto II und Alto II XM (Extended Memory) wurden bis 1980 über 1 500 Exemplare hergestellt.1

6.4.5 Systemsoftware

Erst durch ein Betriebssystem, das den Benutzern ein Minimum an Diensten zur Verfügung stellen konnte, wurde der Alto zu einem Werkzeug für die Entwicklung von Anwendungsprogrammen, die ihn wiederum zu einem Werkzeug für jeder- mann machen sollten. Die erste Version des von Butler Lampson entworfenen und von ihm, Gene McDaniel, Robert Sproull und implementierten Sys- tems wurde im März 1974 fertiggestellt und hatte einen gänzlich anderen Aufbau als Betriebssysteme, die fürz.B.für Time-Sharing-Computer entwickelt worden waren.2 Die Hauptmerkmale des Betriebssystems waren seine Offenheit und Erweiter- barkeit. Während viele Time-Sharing-Betriebssysteme der Zeit zu den umfang- reichsten und komplexesten Softwaresystemen gehörten, war das Alto Operating System (Alto OS) nicht viel mehr als eine in BCPL geschriebene Sammlung von Systemroutinen, die der Programmierer eines Anwendungsprogramms benutzen konnte, aber nicht benutzen mußte.3 Es enthielt Routinen zur Abfrage der Tasta- tur und zur Verwaltung von Dateien auf dem Plattenspeicher, von Datenströmen für die Ein- und Ausgabe sowie Routinen für die Speicherverwaltung. Außerdem gehörte ein Programmlader und ein »Fernschreibsimulator« zum Umfang des Al- to OS.4 Alle diese Routinen wurden beim Start des Computers geladen und jedes Pro- gramm konnten sie aufrufen. Die Programmentwickler hatten allerdings auch die Möglichkeit, Teile des Betriebssystems aus dem Speicher zu entfernen oder durch eine selbstgeschriebene Routine zu ersetzen. Dies geschah mit Hilfe der soge- nannten Junta-Prozedur, mit der ein Programm die Kontrolle über den komplet- ten Rechner übernehmen konnte. So konnte nicht nur wertvoller Hauptspeicher

1 Smith and Alexander 1988, S. 205; Thacker 1988, S. 283f. 2 Lampson 1988, S. 301. 3 Anonymous 1980. 4 Lampson and Sproull 1979, S. 104; Lampson 1988, S. 301.

276 6.4 Der Alto: Ein Personal Computer gespart werden, sondern auch jede Betriebssystemfunktion an die speziellen Er- fordernisse einer Anwendung angepaßt werden. Das Betriebssystem des Alto hin- derte den Programmierer also nie daran, unmittelbar auf die Hardware des Com- puters zuzugreifen.1 Obwohl der Alto auf der Mikroprogrammebene 16 verschiedene Tasks bear- beiten konnte, war für das Anwenderprogramm lediglich eine einzige Task vor- gesehen, und auch das Betriebssystem konnte nur zwei Prozesse gleichzeitig ver- walten – von denen einer nur damit beschäftigt war, die über die Tastatur einge- gebenen Zeichen in einer Pufferspeicher zu schreiben. Dementsprechend konnte auf dem Alto stets nur ein einziges Anwenderprogramm laufen. Trotzdem gab es Verfahren, um während des Programmlaufs von einem Programm zum anderen zu wechseln. Dazu gab es die sogenannte world-swap-Funktion, mit deren Hil- fe der Maschinenzustand innerhalb von zwei Sekunden auf den Plattenspeicher gesichert und ein anderer Maschinenzustand geladen werden konnte; so konnte ein beliebiges Programm die Kontrolle über die Maschine übernehmen. Verwen- det wurde dieses Verfahren, um den Computer über das Netz zu starten oder bei einem Programmfehler automatisch den Debugger (Swat) zu laden.2 Schließlich besaß der Alto ein außerordentlich robustes Dateisystem, das trotz der regelmäßig auftretenden Programm- und Speicherfehler Datenverluste ver- hinderte. Zu diesem Zweck wurden Dateien in sogenannte Seiten mit jeweils 512 Byte aufgeteilt, die vorwärts und rückwärts miteinander verkettet sind. Bei dem in Abbildung 84 gezeigten Beispiel besteht die Datei mit dem Namen Alto1.txt aus drei Seiten, die nicht sequentiell auf der Platte abgespeichert sind, sondern an den physikalischen Adressen3 (0,0,4), (0,0,2) und (0,0,6). Zusätzlich zu dieser Adresse enthält jede Seite ein »Etikett«, auf dem die Dateinummer und die Infor- mationen über die vorherige und die nachfolgende Seite eingetragen ist. Die erste Seite der Datei enthält zusätzliche Informationen, darunter den bis zu 31 Zeichen langen Dateinamen, das Erstell- und das letzte Änderungsdatum. Jede Datei ist zusätzlich in ein Dateiverzeichnis eingetragen, das genau wie eine Datei in Form verketteter Seiten abgespeichert ist. Im vorliegenden Beispiel ist die Datei Al- to1.txt auf der dritten Seite des Verzeichnisses mit seiner Dateinummer und der Adresse der ersten Seite aufgeführt.4 Die in dieser Datenstruktur vorhandene Redundanz konnte dazu genutzt wer- den, um das Dateisystem nach einem eventuellen Programmabsturz oder Platten- fehler zu rekonstruieren. Dazu mußten lediglich die »Etiketten« sämtlicher Seiten gelesen werden. Diese Möglichkeit wurde von einem wichtigen Dienstprogramm namens Scavenger genutzt, das das Dateisystem nach Inkonsistenzen durchsuchte 1 Lampson and Sproull 1979, S. 103f.; Anonymous 1980, S. 18ff.; Lampson 1988, S. 301f. 2 Lampson 1974, S. 213; Lampson and Sproull 1979, S. 102; Lampson 1979b, S. 54. 3 Die Adresse setzt sich dabei aus Angaben über den Zylinder, den Kopf und den Sektor zusammen. 4 Lampson 1974, S. 210ff.

277 6. Xerox PARC und die Architektur der Information

Cyl, Hd, Sec 0, 0, 1 0, 0, 2 0, 0, 3 0, 0, 4 0, 0, 5 0, 0, 6 Header File# 2000000144 145 2000000144 145 2000000144 145 Page# 0 1 1 0 2 2 # bytes 512 512 512 512 500 512 Label Next DA 0,0,3 0,0,6 0,0,5 0,0,2 nil 0,0,7 Previous DA nil 0,0,4 0,0,1 nil 0,0,3 0,0,2 Filename During early • Filename= • of these "RootDir" 1973, the • "Alto1.txt" • components Created Xerox Palo 2000000144 Created 145 with the 1-Mar-1979 Alto 0,0,1 1-Mar-1979 0,0,4 exception of 12:15:35 Research "RootDir" 14:12:15 "Alto1.txt" the user Read Center • Read terminal are Data 17-Jun 1979 designed the • 17-Jun 1979 packaged in 15:34:10 Alto 12:00:04 a small Written computer Written cabinet 17-Jun 1979 system 17-Jun 1979 ••• 15:42:12 ••• 12:05:47

Leader page of First data page First data page Leader page of Last data page Second data file RootDir of Alto1.txt of RootDir file Alto1.txt of RootDir page of Alto1.txt

Abbildung 84. Struktur des Alto Dateisystems. Der Wert nil zeigt an, daß die betreffende Seite keinen Vorgänger bzw. Nachfolger besitzt. DA: Disk Address. und Fehler korrigierte. Die Benutzer des Alto waren dazu angehalten, ihre Platten- speicher regelmäßig einmal im Monat mit dem Scavenger zu überprüfen, zumal die Ausführung des Programms nicht mehr als 60 Sekunden benötigte.1 Tatsächlich war das Dateisystem des Alto so stabil und die Wiederherstellung beschädigter Einträge durch das Scavenger-Programm so effektiv, daß es trotz regelmäßig auftretender Hard- und Softwarefehler fast keine Datenverluste gab.2 Auf der Betriebssystemebene besaß der Alto nur eine sehr einfache, zeilen- orientierte Benutzungsschnittstelle. Nach dem Starten des Computers konnte der Benutzer –ähnlich wie bei MS-DOS oder einer Unix-Shell – Befehle an ein Steu- erprogramm (Alto Executive) eingeben. Durch die Eingabe des Programmnamens und möglicher Parameter konnten beliebige Programme gestartet werden, egal ob es sich um Betriebssystem- oder Anwenderprogramme handelte. Außerdem stan- den dem Benutzer eine Reihe von einfachen Befehlen zum Löschen, Kopieren oder Anzeigen von Dateien zur Verfügung. Dabei war die Eingabe der Datein- amen durch die Verwendung der »Jokerzeichen« # (für ein beliebiges Zeichen) und * (für eine Zeichenkette) besonders komfortabel, *.memo stand beispiels- weise für alle Dateien mit der Endung memo. Schließlich konnte man Dateinamen durch die Betätigung der ESC-Taste vom System komplettieren lassen, wenn dies eindeutig möglich war. Die Eingabe von Delete Alto 3 genüg-

1 Lampson and Sproull 1979, S. 101; Lampson 1979a, S. 9. 2 Lampson 1988, S. 302. 3 Die mit (=Carriage Return) bezeichnete Taste, bezeichnete auf der Schreibmaschinentastatur den Wagenrücklauf. Bei Computertastaturen wurde sie zum Starten eines Befehls verwendet.

278 6.4 Der Alto: Ein Personal Computer te etwa, um die Datei Alto1.txt zu löschen, wenn es keine weiteren Dateien gab, deren Name mit der Zeichenkette Alto begann.1 Ergänzend gab es ein ähnliches Steuerprogramm (Network Executive), das verwendet wurde, wenn man Dateien manipulieren oder Programme starten woll- te, die auf einem anderen Alto-Computer innerhalb des lokalen Netzwerks abge- speichert waren.2 Das Alto OS hatte im Vergleich zu anderen Betriebssystemen aber auch erheb- liche Schwächen, die meist auf die relativ geringe Leistungsfähigkeit der Hardwa- re zurückzuführen war. Hier ist z. B. die fehlende Unterstützung von virtuellem Speicher zu nennen und die Tatsache, daß es nicht möglich war, mehrere Pro- gramme gleichzeitig auszuführen. Schließlich machte sich auch bemerkbar, daß das Betriebssystem in kurzer Zeit entstanden war und die Dienstprogramme re- lativ unkoordiniert von mehreren Programmierern in unterschiedlichen Program- miersprachen implementiert wurden.3 Am Beispiel des Betriebssystems werden Unterschiede zu Engelbarts hier- archisch gegliedertem Entwicklungskonzept deutlich, dem ein eher chaotisches Entwicklungsmuster gegenüberstand. Bei Engelbart hatte das Betriebssystem die einzige Aufgabe, normierte Dienste und Funktionen bereitzustellen, auf die das Anwendungsprogramm aufsetzen konnte. Insofern war es schwierig, überhaupt zwischen Betriebssystem und Anwenderprogramm zu unterscheiden – NLS war vom Konzept her ein integriertes System. Ganz anders am PARC: Die hier ent- standenen Anwendungsprogramme wurden nicht explizit als Bestandteile eines größeren Systems konzipiert. Betriebssystemfunktionen wurden in unterschied- lich hohem Maße durch Routinen ersetzt, die für die konkrete Anwendung opti- miert waren. So waren beispielsweise bei der Smalltalk-Software von Alan Kay und Daniel Ingalls die meisten Betriebssystemroutinen durch eigene ersetzt. Eine solche Vorgehensweise führte zwar zu Inkompatibilitäten und war auf den ersten Blick ineffizient, da sie Mehrfachentwicklungen zur Folge hatte. Immerhin wur- den auf diese Weise aber alternative Entwürfe produziert, aus denen man die am besten geeigneten auswählen konnte.4 Trotz seiner einfallsreichen Architektur war der Alto selbst für die Verhältnis- se der frühen siebziger Jahre keine besonders leistungsfähige Maschine. Wichti- ger als die Spitzenleistung war aber in den Augen der Konstrukteure die Tatsa- che, daß es sich um einen Rechner mit einer offenen und flexiblen Architektur 1 Lampson 1979a, S. 7f.; Wadlow 1981, S. 62. 2 Lampson 1979a, S. 6. 3 Lampson 1988, S. 303; Lampson and Sproull 1979, S. 98. 4 Ein Beispiel für diesen Vorgang sind die von Dan Ingalls geschriebenen Routinen für die Mani- pulation von Pixelmustern, die die vom Betriebssystem bereitgestellten Funktionen im Lauf der Zeit verdrängten, aber erst bei der Star-Workstation, dem Nachfolger des Alto, zum Bestandteil des Betriebssystems wurden. Vgl. Ingalls 1981b; Thacker 1988, S. 272; Kay 1996, S. 554.

279 6. Xerox PARC und die Architektur der Information handelte, dessen Leistung berechenbar und gleichbleibend war. Weil es sich um eine Einbenutzermaschine handelte lief der Alto, im Gegensatz zu Time-Sharing- Computern, nachts nicht schneller als am Tage.1 Obwohl die Hardware des Alto im Detail durchaus innovativ war, war sie für den Charakter des Gesamtsystems nicht mehr bestimmend. Die folgenden Ausführungen werden illustrieren, daß der eigentlich innovative Beitrag des PARC in der Entwicklung eines lokalen Netz- werks mit verteilten Ressourcen, der Entwicklung neuer Softwareprodukte und einer grafischen Benutzungsoberfläche lag.

6.5 Von ARPANET zu Ethernet und wieder zurück

Weil es am PARC eine starke Kontinuität der von der ARPA geförderten For- schungsfelder gab, wurde bereits seit der Gründung des PARC auch an Verfahren der Datenkommunikation gearbeitet. Zu diesem Zweck wurde im Juni 1972 Ro- bert M. Metcalfe (* 1946, Abb. 85) von Bob Taylor und Jerry Elkind als Netz- werkspezialist nach Palo Alto verpflichtet. Metcalfe hatte noch als Student am MIT an den Netzwerkentwicklungen des Project MAC mitgearbeitet und dort Netzwerkprotokolle und experimentelle Netzwerksoftware für das ARPANET entworfen. Metcalfes erste Aufgabe war deshalb auch der Anschluß des Maxc ans ARPANET.2

6.5.1 ALOHAnet und Paketvermittlung

Etwa zur gleichen Zeit wurde Metcalfe auf einen Aufsatz von Norman Abram- son aufmerksam, der zur Inspiration seiner weiteren Arbeiten wurde. Abramson beschrieb darin die Topologie des ALOHAnet, eines experimentellen paketver- mittelten Netzwerks, das an der University of Hawaii entwickelt wurde. Dabei wurden die Terminals verschiedener Institute über Funk mit einem Time-Sharing- Computer in Honolulu verbunden. Wegen der Benutzung von Funkstrecken sowie des schwachen und unregelmäßig anfallenden Kommunikationsbedarfs verzich- tete man auf die Etablierung von festen Verbindungen, sondern sendete die Da- tenpakete ohne zuvor zu überprüfen, ob der Empfänger bereits mit einem anderen Rechner kommunizierte. Nach dem Senden eines Pakets wartete der Computer eine gewisse Zeit auf eine Bestätigung. Traf diese nicht ein, so begann der Com- puter erneut mit der Übertragung der Daten. Abramson kam zu dem Ergebnis, daß ein solches Computernetz zwar bei einer geringen Zahl von Stationen stabil war,

1 Thacker 1988, S. 276, 280; Wadlow 1981, S. 62. 2 Metcalfe 1994, S. 82.

280 6.5 Von ARPANET zu Ethernet und wieder zurück

Abbildung 85. Robert M. Metcalfe (links) und Ronald E. Rider (rechts) aber bereits bei einer Kanalauslastung von knapp 19 % durch die zunehmende Anzahl mehrfach übertragener Pakete instabil wurde.1 Metcalfe bezweifelte allerdings, daß man das Datenaufkommen der Compu- terterminals als idealen Zufallsprozeß beschreiben konnte. Dies hätte bedeutet, daß die Eingaben der (unendlich vielen) Benutzer unabhängig von der Antwort- zeit des Zentralrechners gewesen wären. Ausgehend von Abramsons Arbeit ent- wickelte Metcalfe ein alternatives Modell, bei dem einige wenige Benutzer mit neuen Eingaben so lange warteten, bis sie eine Antwort des Zentralrechners er- halten hatten. Metcalfe bestätigte darin zwar die grundsätzliche Instabilität des ALOHAnet, zeigte aber auch, wie man den Übertragungskanal durch ein geeig- netes Kontrollverfahren auch unter hoher Last stabil halten konnte.2 Obwohl Met- calfes Modell zunächst von Netzwerkspezialisten wie Leonard Kleinrock stark angegriffen wurde, wurde das Verfahren, nachdem auch das lokale Netzwerk am PARC funktionierte, schließlich doch allgemein anerkannt und erhielt die schwer- fällige offizielle Bezeichnung Carrier sense multiple access (CSMA). Als man sich 1973 Gedanken darüber machte, wie man die Kommunikation zwischen mehreren Altos herstellen sollte, existierten eine Reihe von Alterna- tiven. Man erwog zunächst, das für POLOS entwickelte sternförmige Netz zu

1 Abramson 1970. 2 Metcalfe 1973; Metcalfe 1994, S. 82.

281 6. Xerox PARC und die Architektur der Information verwenden. Hierbei erwies sich allerdings die beschränkte Leitungslänge als un- praktisch. Da außerdem beim Ausfall eines einzigen Geräts auch kein Datenver- kehr zwischen den noch funktionierenden Stationen mehr möglich war und solche Fehler mehrmals täglich auftraten, wurde dieser Ansatz bald wieder aufgegeben.1 Gleichzeitig arbeitete Charles Simonyi, der zu diesem Zeitpunkt noch Student in Berkeley war, unter der Leitung von Lampson und Thacker an einem Netzwerk- projekt, bei dem das Übertragungsverfahren des ARPANET (Store and Forward) für ein lokales Netz abgewandelt wurde und das eine Übertragungsrate von 50 MBit/s erreichen sollte. Als Simonyi im Frühjahr 1973 die Entwicklung des Text- verarbeitungssystems Bravo übernahm, wurde Robert Metcalfe die Entwicklung des lokalen Netzwerks übertragen.2 Neben dem Wunsch der Wissenschaftler, Zugang zum ARPANET zu haben, gab es auch eine Reihe von pragmatischen Gründen, warum das PARC ein loka- les Netzwerk benötigte. Zunächst wollte man die Vorteile, die ein Time-Sharing- Computer gegenüber einem Einbenutzercomputer besaß, nicht verlieren. Dies war vor allem die Möglichkeit zur Kommunikation in Form von elektronischer Post und zur gemeinsamen Nutzung von Daten und teuren Peripheriegeräten, z. B. ei- nes Laserdruckers.3 Darüber hinaus bot das lokales Netz die Möglichkeit, gewisse konstruktive Schwächen des Alto zu kompensieren. Dies betraf vor allem die Feh- leranfällgkeit der Speicherchips und die geringe Kapazität des Plattenspeichers.

6.5.2 Ethernet: Ein experimentelles lokales Netzwerk

Metcalfes explizite Aufgabe war es also, ein Netzwerk zu konstruieren, das spe- ziell auf den Alto zugeschnitten war. Obwohl die Idee eines lokalen Netzwerks bereits Mitte der sechziger Jahre an der Stanford University diskutiert worden war, war Robert Metcalfe der erste, der ein solches lokales Netzwerk mit einem gemeinsam genutzten Medium tatsächlich realisierte. Da eine einfache, preiswerte und robuste Netzwerkarchitektur benötigt wurde, stellte Metcalfe Überlegungen an, wie er das ALOHAnet für die Verwendung als lokales Netzwerk abwandeln konnte. Zunächst suchte nach einer Alternative zur Funkübertragung, die nicht benötigt wurde, weil die Altos wegen ihrer Größe ortsfest installiert waren. Man entschied sich für die bitserielle Übertragung über ein einfaches Koaxialkabel, das Chuck Thacker gern als materialisierten Äther bezeichnete. Ähnlich wie der legendäre Äther bei der Funkübertragung wurde das Kabel als passives Medium für die Ausbreitung digitaler Signale verwendet.4

1 Metcalfe 1994, S. 83. 2 Metcalfe 1994, S. 83. 3 Memorandum von Butler Lampson an CSL über »Why Alto«, 19. Dezember 1972. 4 Perry and Wallich 1985, S. 66; Metcalfe and Boggs 1976, S. 396.

282 6.5 Von ARPANET zu Ethernet und wieder zurück

Terminator Controller Interface

Tap Trans- Interface ceiver Cable Station Controller Interface Trans- ceiver Station Ether Segment #1

Station

Trans- Repeater ceiver Controller Interface

Trans- Trans- ceiver ceiver

Ether Segment #2 Abbildung 86. Struktur eines Ethernet mit zwei Segmenten

Das Koaxialkabel besaß außerdem den Vorteil, daß es sich gut gegen Störungen abschirmen ließ, und deshalb eine Datenübertragung von bis zu 10 Mbit/s möglich erschien.1 Der Bezug auf die Äthertheorie wurde schließlich namensgebend für die PARC-Netzwerktechnologie, das Ethernet.2 Als Topologie entschied sich Metcalfe für eine einfache Busstruktur (Abb. 86). Diese konnte im einfachsten Fall aus einem Kabel mit Abschlußwiderständen an beiden Enden bestehen, an das die Computer angeschlossen wurden. Solche Seg- mente konnten an jeder beliebigen Stelle mit anderen Ethernetsegmenten verbun- den werden.3 Bereits im Juni 1973 übergab Metcalfe eine ausführliche Darstellung seiner Ideen an die Patentabteilung von Xerox und begann mit der Entwicklung der entsprechenden Hardware. Dabei tat sich Metcalfe mit David Boggs zusammen, dessen Erfahrungen mit der Amateurfunktechnik besonders wertvoll bei der Kon- struktion der Hochfrequenzkomponenten waren. Sukzessive entwarfen und tes- teten Metcalfe und Boggs die Komponenten des Ethernet. Während die Puffer- speicher und die Steuerlogik vergleichsweise unproblematisch waren, stellte sie

1 Metcalfe 1994, S. 84. 2 Die Schreibweise Ethernet etablierte sich erst Ende der siebziger Jahre. 1973 sprach man noch vom ETHER network, wenig später vom EtherNet. 3 Metcalfe and Boggs 1976, S. 397.

283 6. Xerox PARC und die Architektur der Information die Konstruktion der Sende- und Empfangseinheit (Transceiver1) vor unerwarte- te Probleme. Obwohl es sich um eine digitale Übertragung handelte, hatte man es tatsächlich eher mit hochfrequenten Analogsignalen zu tun. Die Konstruktion des ersten Transceiver wurde deswegen von einem Vertragsingenieur übernom- men, der auf analoge Schaltungen spezialisiert war. Damit gelang es Metcalfe und Boggs 1974 ein Ethernet aufzubauen, das eine Übertragungsgeschwindigkeit von 2,94 Mbit/s2 bei einer Leitungslänge von bis zu 1 000 m erreichte. Die Kosten für den Transceiver und das Ethernetinterface sanken schnell von 1 000 $ (für die Prototypen) auf etwa 200 $ und betrugen damit weniger als 5 % der Kosten für den Computer.3 Jeder an das Ethernet angeschlossene Computer konnte seine Datenpakete senden, sobald er feststellte, daß keine anderen Übertragungen stattfanden. Al- le anderen Stationen waren dann in der Lage, die Daten zu empfangen. Während einer kurzen Zeit konnte es dann allerdings vorkommen, daß mehrere Computer gleichzeitig versuchten, Daten über das Ethernet zu verschicken. Die auf diese Weise kollidierenden Datenpakete konnten dann nicht mehr von ihren Empfän- gern erkannt werden. Deswegen mußte die Netzwerkhardware jedes Computers in der Lage sein, Kollisionen festzustellen und die weitere Übertragung abzu- brechen. Ein erneuter Übertragungsversuch fand nach einer zufällig bestimmten Zeitdauer statt, um fortwährende Konflikte zu vermeiden. Ereignete sich beim erneuten Senden der Daten wieder eine Kollision, so wird die Zufallszeit verdop- pelt, nach dem dritten erfolglosen Sendeversuch erneut verdoppelt, usw. So wie bei Metcalfes alternativem ALOHAnet-Modell, sollte auf diese Weise die Netz- stabilität selbst dann noch gewährleistet werden, wenn es bei einer zunehmenden Zahl angeschlossener Computer auch zu einer Zunahme der Kollisionen kam.4 Um ein Paket zu übertragen, sendete der Ethernetadapter zunächst ein Startbit, das der Synchronisation diente, gefolgt von der Ziel- und der Absenderadresse mit jeweils 8 bit. Damit konnten 256 Stationen innerhalb des Ethernet physikalisch adressiert werden. Es folgte ein beliebig langer Datenblock und eine abschlie- ßende 16-bit-Prüfsumme. Während der Sendung kontrollierte der Transceiver mit Hilfe einer einfachen Logik, ob kein anderes Signal auf dem Netz vorhanden war, andernfalls wurde die Übertragung unterbrochen und eine Wiederholung initiiert. Beim Empfang identifizierte der Transceiver jedes angeschlossenen Rechners das Startbit und startete ein Mikroprogramm, das die Zieladresse des ankommen-

1 Kurzform für Transmitter and Receiver. 2 Die Übertragungsrate wurde durch die verwendete Kodierung und die Taktrate des Alto bestimmt.

Da bei der Manchesterkodierung jedes Bit doppelt übertragen wird, ergab sich eine maximale

=´ ¡ µ= ; Übertragungsrate von r = 1 2 170ns 2 94Mbit/s. 3 Metcalfe 1994, S. 84ff.; Shoch et al. 1982, S. 11; Metcalfe and Boggs 1976, S. 398, dort nennen die Autoren den Entwurf eines Transceivers »an exercise in paranoia«. 4 Metcalfe and Boggs 1976, S. 397.

284 6.5 Von ARPANET zu Ethernet und wieder zurück den Pakets mit der eigenen Adresse verglich. Wurde eine Übereinstimmung fest- gestellt, wurden die restlichen Daten des Pakets im Pufferspeicher abgelegt und konnten von dort in den Hauptspeicher transferiert werden. Dieser Vorgang wie- derholte sich so lange, bis kein Signal mehr registriert wurde. Abschließend wur- den die berechnete und die empfangene Prüfsumme verglichen. Auf diesem un- tersten Niveau existierten keine Mechanismen zur Sicherstellung einer fehlerfrei- en Übertragung, diese war lediglich sehr wahrscheinlich. Wurde eine garantiert fehlerfreie Übertragung erforderlich, mußte dies von Protokollen einer höheren Schicht oder vom Anwendungsprogramm selbst überwacht werden.1 Messungen bei umfangreichen Simulationen, die Metcalfe und Boggs durch- führten, ergaben, daß das Ethernet eine durchschnittliche Auslastung von nur 10 % hatte und auch bei einem deutlich höheren Datenaufkommen stabil blieb. Die Simulationsergebnisse wurden dann auch durch Messungen an PARCs experi- mentellem Ethernet weiter untermauert.2 Hatten die bekannten Netzwerktheoreti- ker Metcalfes erste Arbeiten noch sehr zurückhaltend rezipiert oder gar abgelehnt, so mußten sie sie nun doch als richtig akzeptieren.3 Um das Netz über die maximale Leitungslänge hinaus zu erweitern, konnten mehrere Ethernetsegmente über den von David Boggs entwickelten Repeater ver- bunden werden, der keine andere Aufgabe hatte, als die Signale aus dem ersten Ethernetsegment zu empfangen und in das zweite Segment neu einzuspeisen.4 Das Patent für das Ethernet wurde im März 1975 angemeldet und im Dezember 1977 erteilt.5 Trotz der Leistungsfähigkeit des Netzwerks hatten Wissenschaft und Industrie zunächst wenig Interesse an Metcalfes Arbeiten, die er auf der AFIPS-Jahrestagung im Juni 1976 erstmals der Öffentlichkeit vorstellte. Kaum einer der Anwesenden sah den Nutzen eines lokalen Netzwerks mit hoher Daten- übertragungsrate, gab es doch in den meisten Institutionen kaum einen einzigen Computer pro Gebäude, geschweige denn Hunderte. Außerdem mußte Metcalfe einsehen, daß der Begriff Kollision schlecht gewählt war, da er negativ (etwa mit dem Bild von Autounfällen) belastet war. Kollisionen bzw. Konflikte zwischen Datenpaketen waren eben keine Ausnahmen bzw. Unfälle, sondern der Normal- fall beim Ethernet. Schließlich wurde Metcalfe Bandbreitenverschwendung vor- geworfen: 1200 bit/s seien bereits mehr als genug, da der Mensch ohnehin nicht in der Lage sei, schneller als mit 600 bit/s am Terminal zu lesen. Diese Kritik

1 Metcalfe and Boggs 1976, S. 399f. In dem Patent, das Xerox für das Ethernet 1977 erteilt wurde, wurden alle Funktionen, die beim Alto als Mikroprogramm realisiert waren, durch ein Hardware- äquivalent beschrieben, da abstrakte Methoden nicht patentfähig waren und die Patentierung von Software noch nicht geregelt war. Vgl. Boggs and Metcalfe 1978; Metcalfe 1994, S. 87. 2 Shoch and Hupp 1980; Thacker 1988, S. 280; Metcalfe 1994, S. 85f. 3 Sweet 1996, S. 53. 4 Boggs and Metcalfe 1978. 5 Metcalfe et al. 1977.

285 6. Xerox PARC und die Architektur der Information war vollkommen berechtigt, solange man die typischen Time-Sharing-Computer der Zeit im Auge hatte. Ethernet war jedoch ideal für ein Netz, in dem – wie am PARC – eine Vielzahl von kleinen Computern installiert waren.1 Ethernet wurde allerdings in den Worten von Metcalfe »noch zwei weitere Male erfunden«, zum einen, als sich Xerox, DEC und Intel 1979 auf den gemein- samen Standard IEEE 802.3 einigten, und ein weiteres Mal als Metcalfes eigenes Unternehmen 3COM 1982 mit dem EtherLink das erste kommerziell erfolgreiche Ethernet-Produkt auf den Markt brachte.2

6.5.3 Vernetzte Netze

Trotz des Einsatzes von Repeatern konnten wegen der 8-bit-Adressen nicht mehr als 256 Computer an ein Ethernet angeschlossen werden. Da am PARC mittelfris- tig deutlich mehr Computer vernetzt werden sollten, und auch ein Anschluß des lokalen Netzes an das überregionale ARPANET geplant war, wurden parallel zum Ethernet Verfahren entwickelt, mit denen man unterschiedliche Netze miteinan- der verbinden konnte. Nachdem die Netzwerktechnologie vom Hochgeschwin- digkeitsnetz bis zur langsamen Datenübertragung über Telefonleitungen reichte, wurden diese Verfahren bzw. Protokolle vorzugsweise in Software realisiert.3 Das PARC war Mitte der siebziger Jahre bei weitem nicht die einzige In- stitution, die an der Schaffung einheitlicher Protokolle beteiligt war. Die Ver- bindung unterschiedlicher Netzwerke war vielmehr seit der Inbetriebnahme des ARPANET das wichtigste Ziel der durch die ARPA geförderten Netzwerkfor- schung, an der auch PARC-Wissenschaftler beteiligt waren. Deshalb finden sich auch in den von ihnen entwickelten Protokollen und Programmen zur Datenkom- munikation alle wichtigen Ansätze wieder, die auch bei anderen (paketvermittel- ten) Netzen der Zeit verfolgt wurden.4 Speziell für die Anforderungen des PARC wurde das PARC Universal Packet- Protokoll (Pup) entwickelt. Da es sich bei Pup um ein experimentelles Protokoll handelte, wurde besonderer Wert auf eine einfache und offene Architektur gelegt, um flexibel auf Änderungen aller Art reagieren zu können.5 Metcalfe, Boggs und weitere Wissenschaftler wählten bei ihrer Netzwerkar- chitektur ein Schichtenmodell (Abb. 87), das sich bereits in anderen Projekten als besonders vorteilhaft erwiesen hatte. In der untersten Schicht waren die ver- schiedenen Möglichkeiten zur paketvermittelten Datenübertragung angeordnet,

1 Metcalfe 1983, S. 526f.; Metcalfe 1994, S. 87f. Heute spricht man statt von Kollisionen neutraler von der Interferenz von Datenpaketen. 2 Pearson 1992, S. 159ff.; Bell 1988, S. 17ff.; Metcalfe 1994, S. 81. 3 Boggs et al. 1980, S. 612. 4 Cerf and Kahn 1974; Cerf and Kirstein 1978; Postel 1980; Kinkartz 1998, Kap. 5. 5 Boggs et al. 1980, S. 613; Thacker et al. 1982, S. 565.

286 6.5 Von ARPANET zu Ethernet und wieder zurück

Level 4 and above:

Application defined protocols

Level 3: Conventions for data structuring and Document FTP Telnet Wood- .. process interaction printing stock

Level 2: Interprocess communication Routing table EFTP RTP BSP WFS maintenance .. primitives

Level 1: packet format Internet addressing Internetwork Datagram (Pup) Internet routing

Level 0: Abbildung 87. Die Packet transport mechanisms Leased Packet Pup-Protokoll-Hier- Ethernet MCA Arpanet Lines Radio .. archie z. B. Ethernet und ARPANET. Auf der nächsthöheren Ebene war das gemeinsame Pup-Protokoll angesiedelt, bei dem neben Absender- und Empfängeradresse u. a. auch Informationen über das Herkunfts- und Zielnetzwerk und eine weitere Prüf- summe enthalten waren. Zur Übertragung über ein konkretes Netzwerk mußten diese Pup-Datagramme in Ethernet- oder ARPANET-Pakete eingebettet werden. Da Pup das einzige Protokoll der Schicht 1 war, konnte es die höheren, funkti- onsorientierten Protokolle vom eigentlichen Übertragungsverfahren trennen. Da- mit wurde die Datenkommunikation letztlich unabhängig vom verwendeten Netz- werk. Basis der Netzwerk-Vernetzung war der Einsatz von sogenannten Gateway- Computern, die an zwei oder mehr Netzwerke angeschlossen waren. Datenpake- te, die zwischen zwei Netzen ausgetauscht werden sollten, wurden an das Ga- teway geschickt, das die Empfängeradresse interpretierte und in das Netzwerk weiterschickte, das dem Ziel am nächsten lag. Wollte man beispielsweise Daten von einem an das Ethernet bei PARC angeschlossenen Computer zu einem an das ARPANET angeschlossenen Computer übertragen, so wurde das Pup-Datagramm in ein Ethernet-Paket eingebettet und an das nächste Gateway geschickt. Das Ga- teway erkannte, daß es sich um ein Pup-Datagramm handelte, packte es aus, iden- tifizierte die Zieladresse, bettete das Datagramm erneut in ein Ethernet-Paket ein und schickte es zu dem Gateway, das nicht nur ans Ethernet, sondern auch ans ARPANET angeschlossen war. Nachdem auch dort das Datagramm ausgepackt worden war, mußte unter Umständen eine Übersetzung des Datenformats von Ethernet nach ARPANET erfolgen. Schließlich wurde es in ein ARPANET-Paket

287 6. Xerox PARC und die Architektur der Information eingebettet und an den Empfänger im ARPANET weitergeschickt, der es aus- packte und weiterverarbeitete.1 Bei den Protokollen höherer Schichten kamen sukzessive immer anwendungs- spezifischere Eigenschaften hinzu. Das Byte Stream Protokoll (BSP) in Schicht 2 stellte beispielsweise sicher, daß alle Pakete einer Übertragung fehlerfrei beim Empfänger ankamen und veranlaßte gegebenenfalls eine erneute Sendung. Bei den Protokollen in Schicht 3 kamen Konventionen für das Datenformat bei be- stimmten Übertragungen hinzu, z. B. für die Übertragung von Dateien (FTP) oder bei Terminalemulation (Telnet). Alle wichtigen am PARC entwickelten Netz- werkanwendungen verwendeten die Protokolle der dritten Schicht.2 Ende der siebziger Jahre bestand das interne Netz von Xerox aus 25 Teilnet- zen, die über 20 Gateways untereinander verbunden und an die über 120 Compu- tern angeschlossenen waren (Abb. 88). Darunter befanden sich neben den Altos auch die Novas und die beiden Maxc Time-Sharing-Computer.3

6.5.4 Clients und Server: Ein verteiltes System

Ausgehend von der nackten Technologie begannen die Wissenschaftler am PARC die Möglichkeiten auszuloten, die ein lokales Netzwerk mit einer Vielzahl von an- geschlossenen Kleincomputern bot. Dabei wurden sowohl Ideen aus der Entwick- lung des ARPANET und dem wenig erfolgreichen POLOS-Projekt aufgegriffen, aber auch ganz neue Formen der Nutzung entdeckt. Ein wichtiges Ziel war es dabei, die Nachteile von Einbenutzermaschinen gegenüber einem Time-Sharing- Computer wettzumachen. Dies betraf vor allem die wirtschaftliche Nutzung teurer Peripheriegeräte und die Möglichkeit zur Kommunikation. Die erste und einfachste Nutzung des Ethernet war deshalb die Möglichkeit, auf dem Alto eine Terminalemulation zu starten und sich in den Maxc Time- Sharing-Computer einzuloggen. Diese Möglichkeit wurde vor allem immer dann genutzt, wenn die Rechenleistung und die Hauptspeicherausstattung des Alto für ein bestimmtes Problem nicht ausreichend waren. Beispielsweise programmier- te eine Reihe von Wissenschaftlern in Lisp, darunter Peter Deutsch und Daniel

1 Boggs et al. 1980, S. 616ff.; Memorandum von Ed Taft und Bob Metcalfe über »Pup Specificati- ons«, 30. Juni 1978. 2 Boggs et al. 1980, S. 614; Lampson 1988, S. 308. 3 Shoch and Hupp 1980, S. 712; Thacker et al. 1982, S. 565. Obwohl Pup ein Internet-Protokoll war, dessen Funktionalität weitgehend identisch mit dem späteren Transmission Control Proto- col/Internet Protocol (TCP/IP) war, fand es wegen der langjährigen Geheimhaltung durch Xerox keine größere Verbreitung. Vgl. Cerf 1990, Tape 1, Side A. In den achtziger Jahren wurde Pup zum Xerox Network System weiterentwickelt, das nach eini- gen Vereinfachungen zur Grundlage von Novells IPX-Protokoll wurde. Vgl. Lampson 1988, S. 309 und Metcalfe 1994, S. 87.

288 6.5 Von ARPANET zu Ethernet und wieder zurück

Workstation Workstation

Printer Server File Server

Ethernet Communication Server (Internetwork Router, Clearinghouse)

Leased Line

Ethernet Communication Server Printer Server (Clearinghouse, File Server Protocol Conversion Gateway)

Personal Computer Abbildung 88. Struktur Dialup or des Xerox-Netzwerks Leased Line Terminal (1982)

Bobrow. Obwohl Lisp bereits 1973 auf den Alto portiert worden war, war es für Programmentwicklungsaufgaben wertlos, da der Hauptspeicher des Alto für rea- listische Lisp-Programme viel zu klein war. Deshalb liefen Lisp-Programme wei- terhin auf dem Maxc, selbst wenn die Entwickler und Nutzer der Programme an einem Alto arbeiteten.1 Das zentrale Element aller anderen Netzwerkanwendungen waren die so- genannten Server. Darunter versteht man Computer, über die an das Netz an- geschlossene Benutzer auf gemeinsame Ressourcen zugreifen oder bestimmte Dienste nutzen können. Server waren benutzerlose Altos, an die z. B. ein La- serdrucker oder ein besonders großer Plattenspeicher angeschlossen waren und auf denen entsprechende Serverprogramme liefen. Da auf dem Alto nicht mehr als ein Anwendungsprogramm gleichzeitig laufen konnte, mußte für jedes ge- meinsam genutzte Gerät bzw. jeden Dienst ein eigener Server im Netz installiert werden.2 Auch auf dieser Ebene setzte sich also die dezentrale Organisation der Datenverarbeitung fort. Die wichtigsten Einsatzbereiche für Server waren (vgl. Abb. 88):

¯ die Archivierung von Programmen, Programmdokumentationen und Benutzer- dateien (Dateiserver), 1 Lampson 1988, S. 306. 2 Lampson 1988, S. 309f.

289 6. Xerox PARC und die Architektur der Information

¯ die Abwicklung der Kommunikation über elektronische Post (Mail Server),

¯ die Abwicklung von Druckaufträgen über einen Laserdrucker (Druckserver) sowie

¯ die Verwaltung der Datenströme zwischen verschiedenen Netzwerken (Com- munication Server, Internetwork Router, Protocol Conversion Gateway).1

Dateiserver Dateiserver gehörten zu den wichtigsten Bestandteilen des dezentralen Compu- tersystems am PARC. Dabei handelte es sich um Altos, an die bis zu sieben Plattenspeicher mit einer Kapazität von jeweils 300 MByte angeschlossen wa- ren. Auf ihnen war die am PARC entwickelte Software und die dazugehörende Dokumentation für jeden Benutzer zugänglich. Außerdem konnten die Benutzer auf dem Dateiserver alle Dateien ablegen, die auf den vergleichsweise kleinen Plattenspeichern keinen Platz mehr hatten.2 In den Jahren bis 1976 hatte noch der Maxc Computer die Rolle des Dateiser- vers übernommen. Der erste eigenständige Dateiserver wurde dann im Rahmen des POLOS-Projekts von David Boggs mit Blick auf das experimentelle Büroin- formationssystem Woodstock entwickelt. Das Woodstock File System (WFS) war ein besonders einfaches System, das ein verbindungsloses Protokoll verwendete und nur Dateien übertragen konnte, während z. B. die Dateiverzeichnisse und Zu- gangsberechtigungen in der Verantwortung des Anwendungsprogramms lagen. Wegen dieser einfachen Struktur konnte das WFS nach Einführung des Alto in weniger als zwei Monaten portiert werden; es war allerdings nie mehr als eine Notlösung.3 Nachdem mehr und mehr Altos in Betrieb genommen wurden, war bald auch der Dateiserver auf dem Maxc überlastet. Deshalb entwickelten Boggs und Ed- ward Taft 1976 den sogenannten Interim File Server (IFS), der dieses Problem beheben sollte, bis der Dateiserver Juniper fertiggestellt war, an dem bereits seit 1974 gearbeitet wurde. Zu diesem Zweck wurden bereits existierende Software- komponenten neu zusammengesetzt. IFS bestand schließlich im wesentlichen aus den Datenübertragungsroutinen des FTP-Programms, den Dateiroutinen des Alto Betriebssystems und einem neuen, von Ed McCreight entwickelten Verzeichnis- system.4 Als Juniper 1977 fertiggestellt war, mußte man jedoch feststellen, daß die Software auf dem Alto nicht die erhoffte Leistung erbrachte und deswegen für

1 Thacker et al. 1982, S. 570f. 2 Lampson 1979a, S. 11ff.; Thacker 1988, S. 282. 3 Swinehart et al. 1979; Lampson 1988, S. 313f; Email von David Boggs an den Autor, 23. April 1998. 4 Israel et al. 1978; McCreight 1977; Lampson 1988, S. 314; Email von David Boggs an den Autor, 23. April 1998.

290 6.5 Von ARPANET zu Ethernet und wieder zurück den praktischen Einsatz ungeeignet war. Aus diesem Grund entwickelte sich IFS von einer Notlösung zum Standard-Dateiserver, der mehrfach erweitert und bis weit in die achtziger Jahre genutzt wurde.1 Der Zugriff auf den Dateiserver erfolgte normalerweise über ein spezielles FTP-Programm oder das Network Executive des Betriebssystems, die beide über eine Kommandozeile zu bedienen waren.2 Schließlich konnte ein Dateiserver auch dazu genutzt werden, um gewisse technische Schwächen des Alto auszugleichen und seine Zuverlässigkeit zu er- höhen. Die Mitte der siebziger Jahre erhältlichen Wechselplattenlaufwerke wa- ren noch sehr fehleranfällig, und regelmäßige Defekte gehörten zum Alltag bei der Nutzung des Alto. Um den Computer auch bei einem Defekt des Platten- laufwerks starten zu können, wurde die Möglichkeit eines Systemstarts über das Netzwerk geschaffen. Dazu war der Alto mit einem Festwertspeicher ausgerüstet, der ein Programm enthielt, das eine Verbindung zu einem Dateiserver hergestellte und die benötigte Systemsoftware lud. Diese zunächst nur für Problemsituationen gedachte Technik, entwickelte sich nach und nach zur normalen Betriebsweise. Seit Mitte der siebziger Jahre wurden die Altos immer häufiger mit nur einem Laufwerk ausgestattet, in das eine Platte mit der benötigten Anwendungssoftware eingelegt wurde, während das Betriebssystem über das Netz gestartet wurde.3 Mail Server Obwohl das Ethernet ähnlich wie das ARPANET ursprünglich entwickelt wur- de, um die Kommunikation zwischen Maschinen zu ermöglichen, entwickelte es sich ebenfalls bald zu einem wichtigen Medium zur Kommunikation zwischen den Mitarbeitern des PARC. Zu diesem Zweck wurde bis zur Inbetriebnahme des speziell für den Alto entwickelten Serverprogramms Grapevine der zentrale Maxc Computer verwendet, auf dem 1980 fast 4 000 Nutzer von elektronischer Post verwaltet werden mußten.4 Für jeden dieser Nutzer wurde eine Datei verwaltet, in der die neu ankom- menden Mitteilungen gesammelt wurden. Der Zugriff auf diese Dateien erfolgte entweder, indem sich der Nutzer in den Time-Sharing-Computer einloggte und das Dienstprogramm MSG startete oder mit Hilfe des Programms Laurel. Laurel initiierte dann eine FTP-Verbindung zum Mail Server und transferierte die neu hereingekommenen Mitteilungen auf den lokalen Plattenspeicher.5

1 Brown et al. 1985; Thacker 1988, S. 282. 2 Boggs and Taft 1979; Lampson 1979a, S. 11ff. 3 Memorandum von Ed Taft und David Boggs über »Alto Boot Protocol«, 13. Februar 1979; Wadlow 1981, S. 62; Perry and Wallich 1985, S. 67; Crosby and Elbaum 1994. 4 Birrell et al. 1982; Brotz and Levin 1979; Thacker 1988, S. 284f. 5 Brotz and Levin 1979; Boggs and Taft 1979.

291 6. Xerox PARC und die Architektur der Information

Bei der Adressierung von elektronischen Mitteilungen orientierte man sich an den Konventionen, die sich seit 1973 für das ARPANET herausgebildet hatten. Dies erleichterte die Integration von PARCs internem Netz in das ARPANET.1

6.6 Bausteine für das Büro der Zukunft

6.6.1 Drucken mit Licht und Schatten: der Laserdrucker

Schließlich konnte über das Ethernet ein Peripheriegerät angesteuert werden, das zum Kern des geplanten Büroinformationssystems werden sollte: der Laserdru- cker. Er kombinierte Xerox’ erfolgreiche Fotokopiertechnik mit den Möglichkei- ten der Mikroelektronik und der Lasertechnik, die beide Forschungsgegenstand im Systems Science Laboratory und im General Science Laboratory des PARC waren. Die Xerographie basiert auf der Möglichkeit, eine elektrische Ladung, die auf bestimmte Halbleitermaterialien aufgebracht wird, durch Licht zu neutralisieren. Im Kopierer wird eine mit einer Halbleiterschicht überzogene Walze belichtet, da- bei entsteht ein »elektrostatisches Bild«. Dieses wird durch Einstäuben mit feins- tem Farbstoff sichtbar gemacht und unter Wärmeeinwirkung auf das Trägerpapier übertragen. Die Erwärmung wird benötigt, um den Farbstoff auf dem Papier halt- bar zu machen. Bereits in den sechziger Jahren waren einige Ingenieure in Xerox’ For- schungslabor in Webster auf den Gedanken gekommen, daß man mit dieser Tech- nologie mehr als nur kopieren könne. Darunter war auch Gary K. Starkweather, der gezeigt hatte, daß man mit Hilfe einer Laserlichtquelle xerographische Ab- bildungen erzeugen konnte. 1969 schlug er vor, auf diese Weise einen xerogra- phischen Drucker zu konstruieren, und da man bei Xerox große Hoffnungen in die Lasertechnik setzte, übersiedelte Starkweather mit seinem Projekt nach Palo Alto an die amerikanische Westküste. Dort wurde seine Idee von den Computer- wissenschaftlern begeistert aufgenommen, weil sie eine Ausgabetechnik mit der Möglichkeit zur Rastergrafik versprach.2 Ähnlich wie beim Monitor sollte das Druckbild zeilenweise aufgebaut wer- den, wobei die Laserquelle im Takt der Nullen und Einsen ein- und ausgeschaltet werden mußte. Für die geplante Auflösung von 500 Punkten pro Zoll in jeder Richtung ergab dies 22 Millionen anzusteuernde Punkte pro Druckseite. Da der Xerox Kopierer vom Typ 3600, der als Grundlage für den ersten experimentellen

1 Bhushan et al. 1977; Crocker et al. 1977; Brotz and Levin 1979, S. 76; Levin and Schroeder 1979, S. 10f.; Hardy 1996. 2 Smith and Alexander 1988, S. 98.

292 6.6 Bausteine für das Büro der Zukunft

Laserdrucker verwendet wurde, eine Geschwindigkeit von einer Seite pro Sekun- de hatte, mußte der Laser mit einer erheblichen Geschwindigkeit angesteuert wer- den. Berücksichtigt man die Zeit für den Transport des Papiers, mußte der Laser fast 35 Millionen mal pro Sekunde an- bzw. abgeschaltet werden. Diese hohen Anforderungen konnte Starkweather durch zwei konstruktive De- tails elegant erfüllen. Zum einen verwendete er ein Polygon, dessen 24 Seiten jeweils aus Spiegeln bestanden, die den Laserstrahl reflektierten. Das Polygon wurde auf eine rotierende Welle montiert und ermöglichte die Ablenkung des Laserstrahls auf die komplette Seitenbreite. Mit einer einzigen Drehung des Po- lygons konnten also insgesamt 24 Zeilen mit dem Laserstrahl abgetastet werden.1 Zum anderen verwendete Starkweather einen akusto-optischen Modulator, da die Laserquellen selbst nicht mit 35 MHz geschaltet werden konnte. Es handelte sich dabei um ein halbleitendes Glas, in dem mittels eines piezoelektrischen Elements akustische Druckwellen erzeugt wurden, die wiederum die Brechungseigenschaf- ten des Glases veränderten. Der Ablenkwinkel des Laserstrahls beim Durchgang durch den Modulator veränderte sich also analog zum angelegten Signal. Je nach Ablenkung traf er dann die aktuelle Zeile auf der Druckwalze oder wurde durch eine Blende abgeschirmt.2 Schließlich mußte sichergestellt werden, daß der Laserstrahl die Trommel mit allerhöchster Genauigkeit traf. Betrachtet man Abbildung 80 auf Seite 270, so ist leicht zu erkennen, daß die Linien der Buchstaben zu flattern beginnen, wenn die Punkte nicht präzise übereinander angeordnet sind. Um kein unregelmäßi- ges Druckbild zu erhalten, durften die Punkte auf dem Papier nach Starkweathers Berechnungen um nicht mehr als 1/1000 Zoll von ihrem theoretischen Mittel- punkt abweichen. Um diese Toleranz einhalten zu können, hätte man hochpräzise Spiegel herstellen müssen, und auch die Drehzahlregelung für das Polygon wäre aufwendig und teuer gewesen. Statt genauer gefertigter Bauteile oder einer me- chanischen Nachführung verwendete Starkweather eine einfache und preiswerte zylindrische Linse zur Korrektur möglicher Strahlabweichungen.3 Der erste, bereits 1971 fertiggestellte Prototyp wurde Scanned Laser Output Terminal oder kurz SLOT Machine genannt. Um aus SLOT ein brauchbares Peri- pheriegerätfür den Computer zu machen, mußten die Ausgaben des Computers allerdings noch für den Druck aufbereitet werden. Unter der Leitung von Butler Lampson entwickelte Ron Rider 1972 für diesen Zweck den Research Character Generator (RCG). Und so wie für den Buchdruck im Laufe der Jahrhunderte eine Vielzahl von Schriften entworfen wurden, mußten auch Schriften entworfen wer-

1 Starkweather and Damouth 1975. 2 Biegelsen et al. 1976; Starkweather 1980, S. 139ff. 3 Starkweather 1977; Starkweather 1980, S. 157ff.

293 6. Xerox PARC und die Architektur der Information

Abbildung 89. Bild- aufbau beim Scanned Laser Output Ter- minal (links) und beim Dover-Drucker (rechts) den, die an die neue Technologie angepaßt waren.1 Dabei hätte man theoretisch auf das gesamte Erbe des Buchdrucks zurückgreifen können. Da die Schriftschnit- te allerdings in Speicherbausteinen abgelegt werden mußten, hätten die Kosten für eine solche Vielfalt in der Praxis jedes vernünftige Maßüberstiegen. Aus die- sem Grund beschränkte man sich zunächst auf eine kleine Anzahl von Brot- und Zierschriften. Ebenfalls aus Speichergründen war es auch nicht möglich, belie- bige Pixelgrafiken zu drucken. Die Grafikfähigkeiten des RCG beschränken sich vielmehr auf senkrechte und waagerechte Linien.2 Rider hatte bei der Entwicklung auch mit Schwierigkeiten zu kämpfen, die damit zu tun hatten, daß SLOT ein modifizierter Kopierer war. Der Xerox 3600 kopierte eine Seite nämlich von links nach rechts, anstatt von oben nach unten. Für den Zeichengenerator bedeute dies, daß alle Zeilen einer Seite gleichzeitig bearbeitet werden mußten (Abb. 89). So wurde für die erste Druckzeile eine Rei- he von schwarzen und weißen Punkten erzeugt, die einen schmalen Streifen der Buchstaben A, B, C und D darstellen. Die Aufbereitung einer Seite war so kom- pliziert, daß der RCG schließlich aus über 2 500 Logikschaltkreisen bestand. Au- ßerdem konnte eine Seite erst dann gedruckt werden, wenn sie vollständig an den Druckerserver übertragen war.3 Das System aus SLOT und Research Character Generator wurde zwar 1973 fertiggestellt, aber noch nicht für die täglichen Druckaufgaben verwendet. Ei- nerseits besaß man dafür mit dem Xerox Graphics Printer einen vergleichsweise

1 Rubinstein 1988, S. 195ff. 2 Rider and Lampson 1978; Thacker 1988, S. 282; Lampson 1988, S. 310f. 3 Smith and Alexander 1988, S. 101.

294 6.6 Bausteine für das Büro der Zukunft preiswerten und leistungsfähigen Drucker.1 Andererseits war SLOT so teuer, daß nur eine gemeinsame Nutzung über das Netzwerk in Frage kam. Da der Aufbau einer Druckseite mit 22 Millionen Bildpunkten sehr rechen- und speicherinten- siv war, wurde diese Aufgabe von einem speziellen Server übernommen. Dieses Druckersystem wurde nach seinen Bestandteilen EARS2 genannt und komplet- tierte im Herbst 1974 das Hardwaresystem des PARC.3 Neben der Schnittstelle zum Ethernet und zum Drucker umfaßte der Drucker- server auch einen großen Plattenspeicher sowie zusätzliche Hard- und Software zum Aufbau des Druckbilds, den sogenannten Imager. Die Druckdateien wurden über das File Transfer Program zum Druckerserver übermittelt und auf dessen Platten zwischengespeichert.4 Bei nachfolgenden Druckerservern wurde die Bilderzeugung immer mehr von Programmen übernommen, zumal die Hardware besser als bei SLOT auf die Er- fordernisse des Druckerbetriebs abgestimmt war. So wurde die Druckseite beim Server für den verbesserten Dover-Laserdrucker in 250 sogenannte Bänder aufge- spalten (Abb. 89). Da das Gerät eine Seite auch von oben nach unten verarbeitete, konnte das Druckbild inkrementell erzeugt werden, d. h. sobald die Daten für ein Band übertragen waren, konnte der Ausdruck beginnen. Durch diese Vereinfa- chungen sank der Hardwareaufwand für den Druckerserver auf weniger als 300 integrierte Schaltkreise.5 Der vielleicht wichtigste Schritt zur Integration von Hard- und Software auf dem Weg zum »Büro der Zukunft« war eine druckerunabhängige Schnittstelle mit dem Namen Press, die William Newman und Robert Sproull 1974 für EARS ent- warfen. Press enthielt ein systematisches Modell zur Bilderzeugung, unterstützte beliebige Grafiken und besaß eine Systematik zur Benennung von Schriftarten, weil sich herausgestellt hatte, daß gerade letzteres viele Benutzer vor erhebli- che Probleme stellte. Ursprünglich hatten Newman und Sproull geplant, daß man Press-Dokumente nicht nur ausdrucken, sondern mit einer neuen Generation von Textverarbeitungs- und Grafikprogrammen auch beliebig bearbeiten können soll- te. Angesichts der großen Unterschiede von Text- und Bildverarbeitung wurde dieser Plan allerdings bald wieder aufgegeben. Dennoch konnte jedes am PARC entwickelte Anwendungsprogramm Press-Dokumente erzeugen, und es gab auch

1 Der XGP basierte auf einem Druckwerk, das von Xerox für ein Telefaxgerät entwickelt worden war. Die Walze des XGP wurde nicht von einem Laserstrahl, sondern von einer (einzeiligen) Ka- thodenstrahlröhre beschrieben. Vgl. Email von L. Peter Deutsch an den Autor, 1. April 1998 und Email von Gary S. Starkweather an den Autor, 4. Mai 1998. 2 EARS steht für Ethernet, Alto, RCG, SLOT und ist damit sogar ein Akronym aus Akronymen. 3 Lampson 1988, S. 311f., 327; Metcalfe 1994, S. 86f. 4 Lampson 1988, S. 310. 5 Thacker et al. 1982, S. 568; Thacker 1988, S. 567. Vgl. auch Email von Butler Lampson an den Autor, 10. April 1998.

295 6. Xerox PARC und die Architektur der Information

Abbildung 90. Der Xerox 9700 war 1977 einer der ersten kommerziell erhältlichen La- serdrucker (Preis: ca. 30 000 $) und wurde einige Dutzend mal verkauft. Er besaß eine Auflösung von 300 Punkten pro Zoll bei einer Leistung von 120 Seiten pro Minute.

Hilfsprogramme, um aus mehreren einfachen Press-Dateien komplexere Doku- mente zu erzeugen.1 Mit der Einführung des Laserdruckers veränderte sich freilich auch die Vision des »Büros der Zukunft«, das immer häufiger als Büroautomation bezeichnet wur- de. Während in den ersten Jahren – vielleicht sogar unter dem Einfluß von En- gelbarts Konzepten – das sogenannte papierlose Büro ein wichtiges Ziel bei den Entwicklungsarbeiten darstellte, wurde seit der Einführung des Laserdruckers am PARC – und seit den achtziger Jahren auch in allen anderen Bereichen von Wirt- schaft und Verwaltung – mehr bedrucktes Papier produziert als je zuvor.2 Bevor aber ein Dokument, ein Brief, Forschungsbericht oder Schaltplan vom Laserdrucker ausgegeben werden konnte, mußte er zunächst mit einem geeigne- ten Anwendungsprogramm erstellt werden. Die am häufigsten verwendeten Pro- gramme am PARC waren das Textverarbeitungsprogramm »Bravo« und die Gra- fikprogramme »Markup«, »Draw« und »Sil«.

1 Lampson 1988, S. 311; Newman 1987, S. 211; Bhushan and Plass 1986, S. 72. Nachdem um 1980 die ersten Allzweckdrucker erhältlich waren, wurde Press zur Dokumentenbeschreibungsspra- che Interpress weiterentwickelt, deren Definition 1984 von Xerox öffentlich zugänglich gemacht wurde. Charles Geschke und John Warnock entwickelten daraus nach ihrem Weggang von Xer- ox die heute meistverwendete Dokumentenbeschreibungssprache PostScript. Vgl. Cringely 1993, S. 243ff.; Rubinstein 1988, S. 227ff.. 2 Spencer 1990; Tenner 1990; Perry and Wallich 1985, S. 68.

296 6.6 Bausteine für das Büro der Zukunft

6.6.2 Benutzerfreundliche Textverarbeitung

Bravo: What you see is what you get Ähnlich wie Douglas Engelbart war auch Robert Taylor und seinen Mitarbeitern bewußt, daß Textverarbeitung die zentrale Rolle bei der Entwicklung von Büroau- tomationssystemen spielen würde. Sie orientierten sich bei ihren Entwicklungen allerdings am klassischen Herstellungsprozeß für Druckerzeugnisse, den man in drei Schritte aufgliedern kann. Zunächst muß der Autor das Manuskript erstel- len, das dann im zweiten Schritt formatiert bzw. gesetzt und schließlich gedruckt wird.1 Die meisten der bis Anfang der achtziger Jahre existierenden Textverar- beitungssysteme oder Editoren waren mit einer anderen Zielrichtung entwickelt worden und deckten deshalb nur Teile des Produktionszyklus ab. Einfache Texte- ditoren waren Hilfsmittel, die dem Programmierer eine komfortable Eingabe von Programmen ermöglichen sollten. Spezielle Funktionen zur Formatierung waren für solche Anwendungen überflüssig, und für die Ausgabe war die geringe Qua- lität von typischen Zeilendruckern ausreichend. Engelbarts NLS beinhaltete zwar leistungsfähige Routinen zur Erstellung und Manipulation von Texten am Bild- schirm, war aber nicht mit Blick auf die Herstellung von gedruckten Dokumenten entwickelt worden.2 Dennoch bot NLS mit dem Output Formatter die Möglich- keit zur Ausgabe von Texten in Druckqualität. Eine Beurteilung von Layout und Schriftbild des Druckdokuments schon am Bildschirm war allerdings nicht mög- lich. Spätestens seitdem das PARC mit dem Verlagshaus Ginn & Company an ei- nem System zur Automatisierung der Buchproduktion arbeitete, war es auch das Ziel der PARC-Wissenschaftler, ein Programm zu entwickeln, bei dem alle Her- stellungsschritte der Buchproduktion interaktiv am Monitor durchgeführt werden konnten. Das Ergebnis dieser Bemühungen war das Textverarbeitungsprogramm Bravo, das zwischen 1974 und 1976 von Butler Lampson entworfen und von ei- nem jungen, ungarisch-stämmigen Informatiker namens Charles Simonyi imple- mentiert wurde, der sich bereits seit seiner Jugend für die traditionelle Technik des Buchdrucks interessiert hatte.3 Das herausragende Merkmal von Bravo war die grafische Darstellung eines Dokuments mit verschiedenen Schriftarten und Schriftstilen auf dem Bildschirm, die weitgehend mit dem Ausdruck des Doku- ments auf dem Laserdrucker übereinstimmte. Dieses Konzept wurde später unter der Bezeichnung What you see is what you get oder WYSIWYG bekannt.4

1 van Dam and Rice 1970, S. 145ff. 2 Engelbart hat wiederholt betont, daß ein Computersystem, das allein zur Erzeugung von gedruck- ten Dokumenten verwendet werden kann, nur eine anämische Version dessen sei, was man nach seinen Analysen von 1962 erwarten durfte. Vgl. Engelbart 1988, S. 219. 3 Email von Charles Simonyi an den Autor, 7. März 1998 4 Smith and Alexander 1988, S. 102f.

297 6. Xerox PARC und die Architektur der Information

Bei bisherigen Textverarbeitungssystemen war der Benutzer gezwungen, die für die Formatierung benötigte Information in Form von speziellen Zeichenkom- binationen in den eigentlichen Text einzufügen. Erst das Formatierprogramm er- zeugte aus dieser unübersichtlichen Mischung ein formatiertes Dokument.1 Bei Bravo wurden der Editor und der Formatierer zu einem einzigen Pro- gramm verschmolzen. Anstatt also bei der Formatierung auf das Wissen und die Erfahrung eines menschlichen Schriftsetzers zurückgreifen zu müssen, erteilte nun der Benutzer seinem Textverarbeitungssystem explizite Befehle zur Forma- tierung seines Textes. Ein sogenannter Dokumentencompiler wandelte die Benut- zereingaben in ein computerlesbares Dokument um und zeigte gleichzeitig auf dem Bildschirm die Auswirkungen der eingegebenen Befehle an. Der Dokumen- tencompiler mußte also nach jedem Einsetzen, jedem Löschen, nach jeder Verän- derung der Schriftart oder des Seitenrandes, kurz nach jeder noch so kleinen Ver- änderung, das neue Layout des Dokuments berechnen – eine rechen- und damit auch zeitaufwendige Aufgabe. Um dennoch eine akzeptable Arbeitsgeschwindig- keit erreichen zu können, betrachtete Bravo zunächst nur die Auswirkungen einer Eingabe auf die aktuelle Zeile. Stellte sich heraus, daß z. B. durch eine Eingabe auch die nächste Zeile betroffen war, wurde auch deren Layout neu berechnet. Durch diese Vorgehensweise konnte das neue Layout nach der Eingabe eines ein- zelnen Zeichens innerhalb von Sekundenbruchteilen berechnet werden und der Benutzer erhielt den Eindruck einer sofortigen Reaktion des Systems.2 Die Geschwindigkeit, mit der Bravo auf Benutzereingaben reagierte, war aber nicht nur ein Resultat des Dokumentencompilers selbst, sondern auch der ver- wendeten Datenstruktur. Bei einem Text, der in einem zusammenhängenden Be- reich des Hauptspeichers abgelegt ist, hätte beispielsweise das Einfügen eines Zeichens zur Folge gehabt, daß der Rest des Dokuments im Hauptspeicher ver- schoben werden müßte. Aus diesem Grund arbeiteten Lampson und Simonyi mit Zeigern, also Verweisen auf bestimmte Speicherzellen. Wurde in der Mitte eines Textes ein neuer Textblock eingefügt, so wurde an der Änderungsstelle ein Zeiger auf den neuen Text eingefügt, der in einem beliebigen freien Speicherbereich ab- gelegt werden konnte. Am Ende des neuen Textes wurde ein weiterer Zeiger auf den Beginn des restlichen Textes eingefügt. Statt ganze Textteile zu verschieben, mußte man auf diese Weise nur noch den neuen Text und zwei zusätzliche Zeiger abspeichern. Ein zuvor zusammenhängender Text bestand also nach einer Ände- rung aus drei separaten, durch Zeiger verbundene Teile, wobei gelöschte Passagen

1 Diese Form der Dokumentenbeschreibung hat nicht nur Nachteile. So ist das von Donald Knuth während der siebziger Jahre an der Stanford University entwickelte Textsatzsystem TEX, bei dem Editor und Formatierer zwei unabhängige Programme sind, bis heute im Verlagswesen sehr ver- breitet. Vgl. Knuth 1979. 2 Smith and Alexander 1988, S. 102.

298 6.6 Bausteine für das Büro der Zukunft zunächst nicht aus dem Speicher entfernt werden brauchten. Erst nach einer grö- ßeren Zahl von Änderungen machte sich der Verwaltungs- und Speicheraufwand für die Zeiger bei der Arbeitsgeschwindigkeit des Programms negativ bemerkbar. In diesem Fall mußte der Text in einer Datei abgespeichert werden, dabei wurden die Verweise aufgelöst und ein konsolidiertes, zusammenhängendes Dokument erstellt.1 Schließlich wurde Text als eine Struktur betrachtet, die mehr war als eine Fol- ge von 8-bit-Zeichen. Jedes Objekt (Zeichen, Wort, Zeile, Absatz) konnte viel- mehr eine Reihe von Eigenschaften (properties oder looks) besitzen, die einen Umfang von mehreren Tausend Bit haben konnten. Auf dem Bildschirm waren die Bestandteile des Textes nicht sichtbar, sondern nur ihre Auswirkungen auf die zugehörigen Objekte. Über die Eigenschaften eines Zeichens oder Absatzes lie- ßen sich beispielsweise Fett- oder Kursivdruck, Einrückungen oder Zeilenabstän- de definieren. Welche Auswirkungen die Eigenschaften für die Darstellung des Textes hatten, war von der jeweilig verfügbaren Bildschirm- und Druckertechnik abhängig, für den Großteil des Bravo-Programms war es ohne Bedeutung, ob die Bitfolgen der properties nun Schriftgrößen in Punkten darstellten oder Zeichen- abstände in Pica.2 Die Bedienung von Bravo erfolgte, ähnlich wie bei NLS, über die Maus und die Tastatur. Der Bildschirm war in zwei Bereiche aufgeteilt, das Systemfenster und das Textfenster (Abb. 91). Das Systemfenster enthielt in den beiden obersten Zeilen Informationen über die letzte abgeschlossene Aktion und gab Hinweise, welche Eingaben als nächstes erwartet wurden. In der dritten Zeile wurde (von links nach rechts) angezeigt, welcher Text zuletzt gelöscht und eingefügt wurde und nach welchem Begriff zuletzt gesucht wurde.3 Das System- und das Textfens- ter wurden durch einen Balken getrennt, in dem der Dateiname des Dokuments angezeigt wurde. Auf der linken Seite des Textfensters war beim Bravo-Editor erstmals ein so- genannter Rollbalken (Scroll Bar) angeordnet, der zur Navigation innerhalb des Dokuments verwendet wurde. Dazu bewegte man den Mauszeiger auf den Roll- balken und konnte dann den im Fenster angezeigten Text durch Betätigung der linken oder rechten Maustaste nach oben bzw. unten rollen lassen. Außerdem er- schien innerhalb des Rollbalkens ein stilisierter Schieber, den man dazu verwen- den konnte, um bestimmte Punkte eines Dokuments anzuspringen. Für diesen Zweck repräsentierte der Rollbalken von oben nach unten das Dokument von sei- ner ersten zur letzten Seite. Wollte man also zur Mitte des Dokuments springen,

1 Lampson 1988, S. 324. 2 Email von Charles Simonyi an den Autor, 6. Februar 1998; Vgl. Furuta et al. 1982, S. 447f. 3 Lampson 1979b, S. 33, 56.

299 6. Xerox PARC und die Architektur der Information

Abbildung 91. Bildschirmdarstellung des Bravo-Editors. Man beachte die Verwendung von fetten und kursiven Schriften sowie die Einrückung eines Absatzes. Der unterstrichene Satz ist markiert, darunter ist der Mauszeiger zu erkennen.

300 6.6 Bausteine für das Büro der Zukunft so bewegte man den Mauszeiger auf die Mitte des Rollbalkens und betätigte eine Maustaste.1 Zur Manipulation von Text wurde der Operand, ähnlich wie bei Engelbarts NLS, mit der Maus ausgewählt und der Operator anschließend über die Tastatur eingegeben. Um beispielsweise ein Wort zu löschen, wurde dieses durch Betäti- gung der mittleren Maustaste ausgewählt und der Löschbefehl mit dem Drücken der Tasten D und ESCAPE ausgeführt. Zum Einfügen von Text wurde der Cur- sor mit der Maus an den gewünschten Ort positioniert, nach Drücken der Taste I konnte dann der Text eingegeben werden. Nach Ende der Eingabe kehrte man durch Betätigung von ESCAPE in den Befehlsmodus des Editors zurück.2 In analoger Weise erfolgte auch die Formatierung des Textes. Der betreffen- de Abschnitt des Textes wurde mit Hilfe der Maus markiert und durch Eingabe eines L (für Look) in den Formatiermodus gewechselt. Mit der nächsten Einga- be konnte dann festgelegt werden, wie der Text formatiert wurde. So stand B für Fettdruck (bold), I für Kursivschrift (italic) und - für unterstrichenen Text. Durch Eingabe von 0 bis 9 konnte eine von zehn Schriften in unterschiedlichen Größen ausgewählt werden. Durch ein zusätzliches Drücken der SHIFT-Taste konnten Formatierungen wieder rückgängig gemacht werden. Auch Zeilenabstand, Ein- rückungen oder die Ausrichtung des Textes konnten durch Look-Befehle verän- dert werden.3 Schließlich ließ sich die Arbeitsfläche des Bravo-Editors in mehrere Fenster aufteilen, in denen verschiedene Dokumente oder unterschiedliche Ansichten des gleichen Dokuments angezeigt werden konnten. Dazu wurde das Textfenster an einer beliebigen Stelle durch Einfügen einer horizontalen Linie einfach geteilt. Da die Hardware des Alto besonders effiziente Verfahren zur Verwaltung von vertikal angeordneten Textblöcken auf dem Bildschirm besaß (vgl. Abs. 6.4.2), wurde auf die Verwendung nebeneinanderliegender oder überlappender Textfenster verzich- tet.4 Bravo wurde schnell zum beliebtesten und einflußreichsten aller am PARC verwendeten Programme. Seit 1975 wurden die meisten Texte, Briefe, Memos, Programmdokumentationen und Forschungsberichte mit Bravo erstellt. In der Fachpresse wurde das Programm seit Ende der siebziger Jahre häufig als Vor- bild für eine neue Generation von Textverarbeitungssystemen propagiert.5 Ge- radezu allgegenwärtig wurden die grundlegenden Ideen von Bravo, als Charles

1 Lampson 1979b, S. 34; Meyrowitz and van Dam 1982, S. 370ff. 2 Lampson 1979b, S. 35ff.; Meyrowitz and van Dam 1982, S. 372. 3 Lampson 1979b, S. 40ff. 4 Dies hatte auch zur Folge, daß man mit Bravo keine mehrspaltigen Dokumente erstellen konnte. 5 Fischer 1980, S. 21; Wadlow 1981, S. 66; Meyrowitz and van Dam 1982, S. 370; Seybold 1981, S. 4.

301 6. Xerox PARC und die Architektur der Information

Simonyi 1979 zur Corp. wechselte und dort die Entwicklung des Text- verarbeitungssystems Microsoft Word leitete, das seit Ende der achtziger Jahre der unangefochtene Marktführer bei den Textverarbeitungssystemen für Personal Computer ist.1 Am PARC selbst wurden 1979/80 eine Evaluation von Texteditoren durch- geführt wurde, bei der auch NLS und Bravo verglichen wurden. Dabei er- gab sich eine leichte Überlegenheit von Bravo in den meisten untersuchten Kategorien. So war die Geschwindigkeit bei typischen Texterfassungs- und -formatierungsaufgaben vergleichbar. Ebenfalls vergleichbar war der Zeitauf- wand, um die Bedienung beider Programme zu erlernen. Durch die geringere Anzahl an Befehlen machten die Benutzer von Bravo allerdings deutlich weniger Fehler als die von NLS. Vor allem aber zeigte sich, daß Bravo von Laien ebenso schnell beherrscht wurde wie von Computerfachleuten.2 Trotz seiner Popularität hatte Bravo auch klare Schwächen. Es war beispiels- weise nicht möglich, Grafiken in den Text zu integrieren, obwohl für die Er- stellung von Bildern und Grafiken leistungsfähige Programme zur Verfügung standen. Wollte man dennoch einen Text mit Abbildungen produzieren, mußte man Text und Bild mit unterschiedlichen Programmen erstellen, beide als Press- Dateien abspeichern und diese mit dem Hilfsprogramm PressEdit überlagern.3 So gut diese Methode auch funktionierte, sie war umständlich und widersprach den Prinzipien der interaktiven Bearbeitung und des WYSIWYG. Gypsy: Textverarbeitung ohne Ballast Vor allem Mitarbeiter des System Science Laboratory, die sich mit der systemati- schen Gestaltung von Mensch-Computer-Schnittstellen befaßten, kritisierten die Benutzungsoberfläche von Bravo. Der Entwurf folgte keinen einheitlichen Re- geln, deshalb war Bravo nicht intuitiv bedienbar. Beispielsweise war der Rollbal- ken am Rande des Textfenster aus Implementierungsgründen nicht sichtbar, man mußte also wissen, wohin man mit der Maus klicken sollte.4 Der grundlegendste Einwand, den vor allem Larry Tesler (* 1945) gegen Bra- vo hatte, war die Existenz verschiedener Arbeitsmodi. Unter einem Modus bei einem interaktiven Computersystem verstand Tesler ». . . a state of the user interface that lasts for a period of time, is not as- sociated with any particular object, and has no role other than to place an interpretation of user input .«5

1 Email von Charles Simonyi an den Autor, 7. März 1998. Vgl. auch Cringely 1993, S. 120ff. 2 Roberts 1980; Roberts and Moran 1983. 3 Lampson 1979a, S. 22ff. 4 Email von Larry Tesler an den Autor, 7. März 1998. Vgl. Lampson 1988, S. 325. 5 Larry Tesler, zitiert in Smith et al. 1983, S. 310.

302 6.6 Bausteine für das Büro der Zukunft

Bei vielen Computersystemen waren Modi notwendig geworden, weil es für die zunehmende Zahl von Befehlen nicht genügend Funktionstasten auf der Ta- statur gab. Deshalb wurde die Interpretation einer Tastatureingabe vom Arbeits- modus des Programms abhängig gemacht.1 Bei einem Texteditor unterschied man normalerweise zwischen einem Eingabe- und einem Befehlsmodus. Im Eingabe- modus war es häufig nicht möglich, ein falsch eingegebenes Zeichen oder Wort zu löschen. Zu diesem Zweck mußte man über eine bestimmte Taste in den Befehls- modus wechseln, in dem entweder explizit Befehle eingegeben werden mußten, oder jede Taste für einen bestimmten Befehl stand. Sowohl NLS als auch Bravo sind typische Beispiele für solche Programme. Unterschiedliche Modi konnten aber gerade bei ungeübten oder unkonzen- trierten Benutzern zur Ursache von besonders unangenehmen Fehlern werden. Wenn man sich beispielsweise nicht bewußtwar,daß man sich im Befehlsmodus befand, konnte die Eingabe von scheinbar harmlosem Text ungewollt eine gan- ze Kette von Befehlen initiieren. Eine häufig erzählte Anekdote berichtete, welch verheerende Auswirkungen die Eingabe des Wortes »Edit« haben konnte, wenn man sich nicht im Eingabe- sondern im Befehlsmodus befand. In diesem Fall in- terpretiert Bravo »Edit« folgendermaßen: E(verything) – wählt den kompletten Text aus, D(elete) – löscht ihn, I(nsert) – wechselt in den Eingabemodus und mit t – wird ein einzelnes t eingegeben. Der komplette Inhalt des Dokuments wird also durch den einzelnen Buchsta- ben »t« ersetzt. Obwohl dieses Beispiel gewiß erfunden ist, verdeutlicht es doch die Nachteile von Programme mit unterschiedlichen Arbeitsmodi. Es erscheint al- so plausibel, daß eine ganze Reihe von Wissenschaftlern – unter ihnen auch Alan Kay und Larry Tesler – seit den frühen siebziger Jahre vehement die Entwicklung von benutzerfreundlicheren modusfreien Programmen forderte.2 Nachdem POLOS von Ginn & Company als zu kompliziert abgelehnt worden war, entschlossen sich Larry Tesler und Tim Mott (* 1949) 1974 für die Entwick- lung eines modusfreien Textverarbeitungssystems mit dem Namen Gypsy. Für dieses Programm verwendeten sie den größten Teil des Bravo-Programmcodes, ersetzten aber dessen modale Benutzungsschnittstelle.3 Für die Benutzungsschnittstelle Gypsy stellten Tesler und Mott einige einfa- che Regeln auf, durch die die Benutzung des Programms einheitlich und einfach

1 Smith et al. 1983, S. 310. 2 Smith et al. 1983, S. 310; Sneeringer 1978, S. 555f.; Tesler 1981, S. 90f.; Kay 1990, S. 197. 3 Email von Larry Tesler an den Autor, 14. April 1998; Lampson 1988, S. 325.

303 6. Xerox PARC und die Architektur der Information

Abbildung 92. Ersetzen von Text im modusfreien Smalltalk-Editor. Der zu ersetzende Text wird mit der Maus markiert (a) und mit den nächsten Tastatureingaben überschrieben (b). Um die Ersetzung rückgängig zu machen, wird der Befehl undo aus dem Menü ausge- wählt (c). gehalten werden konnte. Die wichtigste Regel lautete, daß die Eingabe eines al- phanumerischen Zeichens niemals einen Befehl initiiert, sondern immer den aus- gewählten Text ersetzt. Um einen Teil des Text zu ändern, mußte dieser zunächst mit der Maus ausgewählt werden (Abb. 92a). Der neue Text wurden dann über die Tastatur eingegeben und ersetzte den markierten Text (Abb. 92b). Da Ände- rungen bei dieser Arbeitsweise nicht extra bestätigt werden mußten, konnte jede Änderung und jeder Befehl über einen undo-Befehl wieder rückgängig gemacht werden (Abb. 92c). Die Eingabe von neuem Text wurde zu einem Spezialfall des Ersetzens, indem man den Cursor an der gewünschten Stelle positionierte und dort eine »leere Auswahl«überschrieb. Die sonst üblichen Einsetz-, Einfüge- und Ersetzmodi waren somit bei Gypsy zu einem einzigen Modus zusammengefaßt und wie Larry Tesler es formulierte »one mode is no mode at all«. Alle anderen Befehle, z. B. zur Veränderung von Schriftart- und -größe, konnten über die Funk-

304 6.6 Bausteine für das Büro der Zukunft tionstasten, ein Befehlsmenü am oberen Bildschirmrand und die ansonsten wenig verwendete Einhandtastatur aktiviert werden.1 Bei der bereits erwähnten Evaluation von Texteditoren zeigte sich, daßübliche Editieraufgaben mit Gypsy schneller und mit weniger Fehlern zu erledigen waren als mit Bravo oder NLS. Außerdem war das Programm selbst von Computerlai- en fast ohne Übung zu bedienen.2 Solche Programme waren ideal für die bisher wenig beachteten »naiven Benutzer« geeignet, die weder Kenntnis über die in- terne Funktionsweise von Software besaßen noch besonders viel Zeit hatten, die Bedienung eines Programms zu erlernen. Insofern war Gypsy eines der ersten Anwendungsprogramme, das Alan Kays Maxime erfüllte, daß einfache Aufga- ben auch einfach zu lösen sein sollten. Aus diesem Grund wurde die Einführung von Gypsy bei Ginn & Co. im Februar 1975 zu einem ersten großen Erfolg bei der Neugestaltung von Büroarbeit.3 Obwohl Gypsy die gleiche Funktionalität wie die erste Version von Bravo be- saß, konnte es sich am PARC nicht durchsetzen. Einer der Gründe hierfürwar die Tatsache, daß Gypsy nach 1975 nicht weiterentwickelt wurde, während Bravo und dessen Nachfolger BravoX mit immer neuen Funktionen ausgestattet wurde. Andererseits waren viele von Teslers Kollegen der Meinung »that a UI (=User Interface, d. Autor) so simple could not be useful and that the whole modeless approach would collapse when we tried to add more features«.4 Die interne Ab- lehnung eines benutzerfreundlicheren Textverarbeitungssystems mag ein Hinweis darauf sein, daß die virtuose Beherrschung von kryptischen Programmen unter Informatikern (immer noch) als ein Zeichen von Meisterschaft oder Genialität gilt.5 Insofern zeigt diese Episode aus der Geschichte der Textverarbeitung, wie problematisch sich die Entwicklung von benutzerfreundlichen Programmen per Bootstrapping darstellt, bei der neue Softwareprodukte nur von den Entwicklern, nicht aber von ihren endgültigen Nutzern getestet werden.6

6.6.3 Grafikprogramme von Konstruktion bis Kunst

Die neben der Textverarbeitung wichtigsten Anwendungsprogramme, die wäh- rend der siebziger Jahre am PARC entwickelt wurden, dienten der Erstellung von grafischen Darstellungen. Bei der Entwicklung dieser Programme hatten die

1 Tesler 1981, S. 103f. (Zitat); Tesler and Mott 1975; Email von Larry Tesler an den Autor, 18. April 1998. 2 Roberts 1980; Roberts and Moran 1983; Perry and Wallich 1985, S. 69f. 3 Smith and Alexander 1988, S. 111ff. 4 Email von Larry Tesler an den Autor, 14. April 1998. 5 Helmers 1996; Turkle 1984, S. 263. 6 Bardini and Horvath 1995, S. 54ff.

305 6. Xerox PARC und die Architektur der Information

Abbildung 93. Ausschnitt aus einer typischen Markup-Illustration (links) und Programme- nü (rechts)

Programmierer – stärker noch als bei den Textverarbeitungsprogrammen – un- terschiedliche Anwendungen und Nutzergruppen im Auge. Es ist deshalb auch nicht verwunderlich, daß sich die Grafikprogramme in bezug auf Funktionsum- fang, Hardwareanforderungen und Benutzerfreundlichkeit stark unterscheiden.1 Das 1975 von William M. Newman entwickelte Programm Markup war ur- sprünglich gar nicht als eigenständiges Anwendungsprogramm gedacht. New- man, der auch das Grafikformat Press mitentwickelt hatte, wollte ein Werkzeug schaffen, mit dem man in Press-Dokumenten Änderungen vornehmen konnte. Solche Änderungen konnten beispielsweise darin bestehen, Abbildungen in Text- dokumente einzufügen, die zuvor in Bravo geschrieben worden waren. Da ein solcher Text nachträglich nicht mehr in Bravo editiert werden konnte, wurden die Illustrationen schließlich in der Regel in eigenständigen Press-Dateien gespei- chert und mit Hilfe des Dienstprogramms PressEdit in ein Textdokument einge- fügt (Abb. 93).2 1 Neben den hier vorgestellten Programmen, die auf dem Alto liefen, wurden auf der Data General Nova weitere Mal- und Zeichenprogramme entwickelt. Das einflußreichste dieser Programme war Richard Shoups SuperPaint (1974/75), mit dem man animierte Grafiken erzeugen konnte und das bald in die professionelle Fernsehtechnik Eingang fand. Vgl. Shoup 1979. 2 Newman 1979, S. 86; Newman 1987, S. 266f. Diese »zweckwidrige« Verwendung von Markup machte es erforderlich, daß jeder Benutzer ein leeres Press-Dokument auf seiner Platte haben muß- te, bevor er mit Markup arbeitete, weil Markup selbst keine neuen Dateien anlegen konnte.

306 6.6 Bausteine für das Büro der Zukunft

Die Möglichkeiten von Markup waren durch die Eigenschaften von Press be- schränkt. Dies bedeutete, daß alle grafischen Elemente durch ein Pixelmuster re- präsentiert wurden. Grafiken setzten sich also nicht aus einer Vielzahl von unter- scheidbaren Objekten (Geraden, Kurven, Kreise, etc.) zusammen, sondern waren für den Computer schwarze und weiße Punkte. Dem Benutzer standen lediglich für das Zeichnen von horizontalen, vertikalen und diagonalen Linien einige ein- fache Werkzeuge zur Verfügung. Da Text in Bildschirmauflösung im Druck sehr unschön aussah, wurden Zeichenketten nicht direkt in ein Bitmuster umgesetzt, sondern getrennt verwaltet. So konnten für die Bildschirmdarstellung bzw. den Ausdruck Schriften mit der jeweils notwendigen Auflösung verwendet werden.1 Für die Gestaltung der Benutzungsschnittstelle wählte Newman die Metapher der Malerpalette. So wie der Maler mit Pinseln unterschiedlicher Größe Farben auf eine Leinwand aufträgt, sollte der Markup-Benutzer mit verschieden großen »elektronischen Pinseln« in einem Bildschirmfenster schwarze Pixel erzeugen. Die Pinsel wurden in einem grafischen Menü durch Kreuze, Kreise, Rechtecke und Linien unterschiedlicher Größe repräsentiert, wobei die Form bereits einen

Hinweis auf die Funktion geben sollten. So stand ein ¢ für einen Pinsel, mit

dem man nur Linien im Winkel von 45 Grad zeichnen konnte, ¾ symbolisierte ein Radiergummi, usw. Die Bedienung des Programms erfolgte ausschließlich mit Hilfe der Maus. Nachdem man ein Werkzeug ausgewählt hatte, bewegte man den Cursor an die gewünschte Stelle und konnte zeichnen, so lange die linke Maustaste gedrückt war.2 Weil der Platz auf dem Bildschirm knapp war, griff Newman die Idee des Pop- up-Menüs auf, die der englischer Informatiker Neil Wiseman Ende der sechziger Jahre entwickelt hatte. Das Menü von Markup blieb dabei während des Arbeitens so lange unsichtbar, bis die mittlere Maustaste betätigt wurde. Dann erschien an der Position des Mauszeigers die Palette mit den verschiedenen Werkzeugen, aus denen der Benutzer das geeignete auswählen konnte. Mit einer erneuten Betäti- gung der Maustaste verschwand das Menü wieder vom Bildschirm.3 Obwohl Markup ein leistungsfähiges und beliebtes Programm war, das auch zur Bearbeitung von Fotos verwendet werden konnte, war es wegen seiner Pixel- orientierung nur in engen Grenzen brauchbar. Beispielsweise war es nicht mög- lich, Grafiken ohne Qualitätsverluste zu skalieren. Aus diesem Grund entwickel- te Patrick Baudelaire 1976 das objektorientierte Illustrationsprogramm Draw, bei dem sich Zeichnungen aus beliebigen Linien und mathematisch formulierten Kurvenzügen, sogenannten Splines zusammensetzen konnten. Wegen der großen Zahl von Objekten in typischen Zeichnungen erreichte man bei der Benutzung

1 Lampson 1988, S. 325f. 2 Newman 1979, S. 88ff.; Newman and Sproull 1979, S. 247ff. 3 Newman and Sproull 1979, S. 174; Wiseman et al. 1969.

307 6. Xerox PARC und die Architektur der Information

Abbildung 94. Mit Draw erstellte Zeichnungen. Auch Abbildung 64 auf Seite 225 wurde mit Draw erstellt. von Draw allerdings schnell die Grenzen der Speicherkapazität, so daß das Pro- gramm nur für vergleichsweise einfache Zeichnungen verwendet werden konnte (Abb. 94).1 Ein ganz anderes Konzept verfolgte hingegen Charles Thacker bei der Ent- wicklung von Sil (Simple Illustrator). Hier stand nicht die Erstellung von Bil- dern und Grafiken zu Illustrationszwecken im Vordergrund, sondern der Bedarf nach einem einfachen und leistungsfähigen CAD-Programm, mit dem im Com- puter Science Laboratory Schaltpläne gezeichnet werden konnten (Abb. 95). Ein solches Programm mußte einerseits objektorientiert sein, um jederzeit problem- los Änderungen durchführen zu können. Andererseits mußte der Benutzer auch Schaltpläne mit einer Vielzahl von Elementen erstellen können, ohne daß Spei- cherprobleme auftreten durften. Da die Anzahl der benötigten grafischen Elemen- te begrenzt war, bot es sich an, in Sil-Zeichnungen nur senkrechte und waagerech-

1 Baudelaire 1979; Baudelaire and Stone 1980; Lampson 1988, S. 326f.

308 6.6 Bausteine für das Büro der Zukunft

Abbildung 95. Mit Sil erstell- tes Schaltbild und Signaldia- gramm te Linien sowie Schrift zu unterstützen, wobei alle Schaltzeichen als Elemente eines speziellen Zeichensatzes definiert waren.1 Da Sil, anders als Markup und Draw, für die Benutzung durch Experten ge- dacht war, die regelmäßig viele Stunden mit der Erstellung von Schaltplänen be- schäftigt waren, war die Benutzungsschnittstelle weniger auf Benutzerfreundlich- keit als auf Effizienz ausgelegt. Obwohl Sil keine Arbeitsmodi kannte, mußte der Benutzer die Tastenkombinationen für den Aufruf aller Funktionen im Gedächtnis haben oder im Handbuch nachschlagen, weil es auf dem Bildschirm keine Menüs und kaum andere Hilfsmittel gab.2 Nachdem Sil bereits im Computer Science Laboratory verwendet wurde, kam der Gedanke auf, ergänzende Programme zu entwickeln. Damit konnten aus dem Schaltplan Stücklisten erstellt und die Anordnung der Leiterbahnen auf der Plati- ne gestaltet werden. Sogar die Ansteuerung einer Bestückungsmaschine war mög- lich.3 Obwohl Sil mit seinen Hilfsprogrammen ein typisches System für CAD/CAM war, erfreute es sich zur Erstellung von Illustrationen großer Beliebtheit. Zeich- nungen, wie sie am PARC typischerweise zur Illustration von Schriftstücken be- nötigt wurden, setzten sich zumeist nur aus einfachen Linien zusammen, so daß Sil wegen seiner Geschwindigkeit und geringen Speicheranforderungen zum Gra- fikprogramm der Wahl wurde.4 Wie schon bei der Textverarbeitung muß man auch bei den Illustrationspro- grammen feststellen, daß die erfolgreichsten Programme nicht notwendigerwei- se die benutzerfreundlichsten waren. Entgegen der Meinung vieler ehemaliger 1 Thacker 1983, S. 479ff.; Lampson 1988, S. 326f. 2 Thacker 1983, S. 481f. 3 Thacker et al. 1982, S. 570; Thacker 1983, S. 487. 4 Lampson 1988, S. 327.

309 6. Xerox PARC und die Architektur der Information

PARC-Wissenschaftler lag dies nicht nur an den technischen Beschränkungen des Alto, sondern am Bild des Computernutzers, das viele Entwickler verinnerlicht hatten. Obwohl das »Büro der Zukunft« ein – wenn auch von außen vorgegebe- nes – Entwicklungsziel war, wurden die Programme nicht für die Nutzung durch Sekretärinnen und Sachbearbeiter entworfen, sondern weiterhin für Informatiker und Ingenieure. Dies hat seinen Grund in der Beibehaltung des Bootstrapping mit seiner Forderung, alle im Labor entstehenden Programme auch für die eigene Ar- beit zu verwenden und so ihre Verwendbarkeit im Arbeitsalltag zu überprüfen. Erschwerend kam hinzu, daß viele der Wissenschaftler eine elitäre Einstellung verinnerlicht hatten, die sie hinderte, die Anforderungen vieler Computerlaien zu berücksichtigen oder nur wahrzunehmen. So erklärte Butler Lampson 1986 in ei- nem Interview auf die Frage nach dem Realitätsbezug der PARC-Forschungen: »Were we aware of the outside world? Yes, we knew that it existed. Did we un- derstand the whole situation perfectly? Probably not. (...)Thepurpose of PARC was to learn.«1 Außer der elitären Haltung der Wissenschaftler war auch der Managementstil hinderlich für die kohärente Umsetzung der von Peter McColough formulierten Ziele. Mögen die Ergebnisse der Entwicklungstätigkeit im Einzelfall noch so be- eindruckend gewesen sein, so ist doch auffallend, wie wenig die einzelnen Pro- gramme sich zu einem einheitlichen Ganzen zusammenfügen. So waren die Text- und Grafikprogramme, die zu Kernbestandteilen eines Büroautomationssystems werden sollten, untereinander weitgehend inkompatibel.2 Da gleichzeitig viele Programme nur nach den Bedürfnissen ihrer Entwickler gestaltet waren, kam Chuck Thacker rückblickend zu der ernüchternden Bewertung, daß eine Mensch- Computer-Symbiose im Sinne Lickliders außer bei wenigen Experten längst nicht erreicht wurde.3 Da der innere Zusammenhalt der Gruppe durch die Kommunikation der Wis- senschaftler zustande kam, ist es nicht verwunderlich, daß ein rhetorisch begabter und von seinen Ideen überzeugter Wissenschaftler wie Alan Kay schließlich die Entwicklung des geschlossensten Softwaresystems leitete, das vor 1980 am PARC entstand. Mit seiner gut organisierten Forschungsgruppe entwickelte er die Pro- grammiersprache und Entwicklungsumgebung Smalltalk, die einen nachhaltigen Einfluß auf die Entwicklung benutzerfreundlicher PCs hatte.4

1 Butler Lampson, zitiert in Lammers 1986, S. 28f. 2 Lampson 1988, S. 325. 3 Thacker 1988, S. 287. 4 Lampson 1988, S. 297.

310 6.7 Smalltalk und die grafische Benutzungsoberfläche

6.7 Smalltalk und die grafische Benutzungsoberfläche

6.7.1 Eine Programmiersprache für wen?

Obwohl der Alto auf Anregung von Alan Kay konstruiert wurde, hatte er noch nicht viel Ähnlichkeit mit seiner Vorstellung vom Dynabook. Der Computer und der Bildschirm waren dazu viel zu schwer und unhandlich und noch weit davon entfernt, portabel zu sein. Das Betriebssystem des Alto war ebenso kryptisch und benutzerunfreundlich wie bei vielen anderen Computern. Erst die Software – so hatte Alan Kay schon beim Entwurf des FLEX festgestellt –»gives form and purpose to a programmable machine«.1 Deshalb entwickelte die Learning Research Group2 seit 1972 die Program- miersprache Smalltalk und eine zugehörige Entwicklungsumgebung, die aus dem Alto das Interim Dynabook machen sollten. Zunächst mußte man sich einigen, wer die typischen Nutzer von Smalltalk sein sollten. Adele Goldberg, seit Juni 1973 Mitglied der Learning Research Group, schrieb über dieses Problem: »The mantra was that simple things should be easy to create, and hard things still feasible. (. . . ) The compelling research question, though, was, simple for whom? Feasible by whom? The target audience for Smalltalk was everyone. And everyone included young children as well as adults not interested in becoming programming professionals.«3 Die Entscheidung fiel nicht leicht. Da die neue Sprache im Sinne des Boot- strapping für alle anfallenden Programmieraufgaben der Entwicklergruppe ge- nutzt werden sollte, besaß man gleichzeitig den Anspruch, mit Smalltalk eine Sprache für »ernsthafte Systemprogrammierung« zu entwickeln, die mindestens so leistungsfähig war, wie andere Programmiersprachen der Zeit.4 Dieses Span- nungsverhältnis sollte in den Jahren bis 1980 eine Ursache von mehr oder weniger unterschwelligen Konflikten in der Learning Research Group bleiben. Da Xerox Ende der sechziger und Anfang der siebziger Jahre in Technik für Aus- und Weiterbildung investiert hatte, und Kay durch die Ergebnisse von Pa- perts Forschungen am MIT besonders ermutigt wurde, kam man bald überein, ». . . that children are the special instances of everyone«.5 Smalltalk wurde al- so von Kay als Programmiersprache für Kinder konzipiert. Jede Implementierung und Erweiterung der Sprache bewertete er danach, wie gut sie von Kindern erlernt

1 Kay 1984, S. 41. 2 Permanente Mitglieder der LRG waren Adele Goldberg, Daniel Ingalls, Chris Jeffers, Ted Kaehler, Alan Kay, Diane Merry, John Shoch und Steve Weyer. 3 Goldberg 1998, S. 59. 4 Learning Research Group 1976, S. 10. 5 Goldberg 1998, S. 61.

311 6. Xerox PARC und die Architektur der Information werden konnte und in welchem Maße sie den Entwurf komplexer Programme ver- einfachte.1 Kay sah in Smalltalk aber wesentlich mehr als nur ein Programmierwerkzeug. Unter dem Einfluß des kanadischen Medientheoretikers Marshall McLuhan ver- trat er die Überzeugung, das Softwaresystem sei in erster Linie ein Mittel, um aus dem Computer ein Medium zur Kommunikation und ein Mittel des persönli- chen Ausdrucks zu machen.2 Die Weiterentwicklung des Alto zu einem persön- lichen, dynamischen Medium wurde so zum eigentlichen Programm von Kays Forschungsgruppe: »The Xerox Learning Research Group (LRG) is concerned with all as- pects of the communication and manipulation of knowledge. (...) [We] have designed and built a communication system: the Smalltalk language, implemented on small computers we refer to as interim Dynabooks. We explore the use of this system for programming and problem solving; as an interactive memory for the storage and manipulation of data; as a text edi- tor; and as a medium for expression through drawing, painting, animating pictures, and composing and generating music.«3 Smalltalk sollte demnach nicht dazu verwendet werden, »normale« Program- me zu schreiben. In einer Rede zur Eröffnung der Westküsten-Computermesse 1978 sagte Kay: »We decided to focus on simulation in Smalltalk, because that’s the only really interesting thing to do with a computer.«4 Unter Simulation ver- stand er allerdings nicht nur die sehr speziellen Methoden der damaligen Informa- tik zur Modellierung (technischer) Systeme mit exotischen Programmiersprachen wie Simscript oder GPSS (General Purpose Simulation System), sondern eine Nachbildung von alltäglichen Problemen mit Hilfe eines persönlichen Compu- ters.5 Hintergrund für diese Überlegung war die Erkenntnis, daß Neulinge den Com- puter zunächst für bekannte Aufgaben zu nutzen versuchen. Bei Kindern sind dies in der Regel Malen und Spielen, bei Erwachsenen häufig das Schreiben von Tex- ten. Smalltalk sollte ihnen deshalb die Möglichkeit eröffnen, die Eigenschaften und das Verhalten konkreter Dinge zu beschreiben. Dies, so war die Hoffnung, würde sie dann befähigen, die grundlegenden Methoden und Algorithmen der

1 Goldberg 1998, S. 61. 2 Kay 1990, S. 193. Die Betonung der kommunikativen Funktion war auch ein Grund für die Na- mengebung der neuen Programmiersprache. Vgl. Kay 1980, S. 8. 3 Learning Research Group 1976, S. 3; Kay and Goldberg 1977, S. 31. 4 Zitiert in Walker 1994, Section 2.44 5 Learning Research Group 1976, S. 27; Kay and Goldberg 1977, S. 36.

312 6.7 Smalltalk und die grafische Benutzungsoberfläche

Computerwissenschaft leichter zu verstehen.1 Ähnlich wie Bush bei der Beschrei- bung seines Memex war also auch Kay der Überzeugung, daß das technische System es erlauben müsse, menschliche Problemlösestrategien nachzubilden. Die Objektorientierung war der Ansatz, den die Learning Research Group auf diesem Weg wählte.2

6.7.2 Programmieren mit Objekten

Auf seine Erfahrungen mit dem Burroughs Computer, mit Sketchpad, Simula und LOGO formulierte Kay die Grundsätze der objektorientierten Programmierung in Form von sechs grundlegenden Prinzipien:3 1. In Smalltalk gibt es keine Hauptwörter und Verben, sondern nur Objekte. 2. Jedes Objekt ist eine Instanz einer Klasse. 3. Objekte besitzen ihren eigenen Speicher, in dem die Eigenschaften des Ob- jekts abgelegt sind und der als temporärer Speicher bei der Verarbeitung von Botschaften genutzt wird. Damit besitzt das Konzept einige Parallelen mit der platonischen Ideenlehre. Eine Klasse enthält wie eine Idee das abstrakte Urbild, während die Objekte die konkreten Erscheinungen darstellen. So wird in der Klasse Quadrat festge- legt, daß jedes Quadrat vier gleichlange Seiten und vier rechte Winkel besitzt und wie man ein Quadrat erzeugt. Erst die Objekte der Klasse Quadrat erhal- ten zusätzliche Informationen über Seitenlänge, Dicke der Linien, Farbe und Füllung.4 4. Objekte kommunizieren, indem sie Botschaften senden und empfangen. 5. Eine Klasse beinhaltet das gemeinsame Verhalten ihrer Instanzen. Dazu werden in der Klassendefinition alle zulässigen Botschaften und die dann auszuführen- den Operationen aufgelistet. 6. Mit der ersten Zeichenkette eines Smalltalkbefehls wird das Objekt bestimmt, an den die restlichen Zeichen als Botschaft geschickt werden. Ein Beispiel soll zeigen, wie sehr sich diese Prinzipien dazu eignen, Eigen- schaften und Verhalten alltäglicher Dinge zu beschreiben, etwa die Türen eines Hauses. Es gebe zwei Objekte, die Vordertür und die Hintertür. Diese Objekte sind Mitglieder oder Instanzen der Klasse Tür und haben deshalb gemeinsame

1 Kay 1977, S. 234f.; Turkle 1984, S. 120. 2 Kay 1977, S. 236–242. 3 Kay 1996, S. 534; Learning Research Group 1976, S. 42; Shoch 1979, S. 64. 4 Platon 1958, 7. Buch; Russell 1993, S. 135–146.

313 6. Xerox PARC und die Architektur der Information

Eigenschaften. Jede Instanz der Klasse Tür besitzt zusätzliche individuelle Ei- genschaften, z. B. Lage, Farbe, Zustand (offen oder geschlossen), die im loka- len Speicher jeden einzelnen Objekts abgespeichert sind. Jeder Tür kann man bestimmte Befehle oder Botschaften übermitteln, um ein bestimmtes Verhalten auszulösen oder Informationen über das Objekt zu erhalten. Eine Türe ließe sich etwa mit der Botschaft Vordertür öffnen öffnen, mit der Botschaft Hin- tertür abschließen mit Schlüssel xyz verschließen, der Zustand der Türkönnte über die Botschaft Vordertür bist-du-geöffnet abge- fragt werden. Schließlich ist in der Definition der Klasse Tür festgelegt, wie sich eine bestimmte Tür verhält, wenn sie eine Botschaft erhält. Beispielsweise wird die Tür auf die Botschaft öffnen hin geöffnet, aber nur, wenn sie nicht abge- schlossen ist. Nach Erhalt der Botschaft Hintertür bist-du-geöffnet wird eine Botschaft mit dem aktuellen Zustand an das abfragende Objekt zurück- geschickt, usw.1 Ihre ersten Erfahrungen mit Smalltalk sammelten die Benutzer normalerwei- se, indem sie lernten, mit der aus LOGO entlehnten Turtlegrafik2 einfache Zeich- nungen auf dem Bildschirm zu erzeugen. Bei der Turtlegrafik geht man von der Vorstellung aus, daß man eine Schildkröte anweisen kann, wie sie über den Bild- schirm laufen soll und dabei eine Linie zieht. Wollte man in Smalltalk mit Turt-

legrafik arbeiten, schickte man die Botschaft turtle. an das Sys- tem.3 Smalltalk erzeugte dann eine Instanz der bereits definierten Klasse turt-

le, deren Name aus dem Zeichen bestand, der Operator weist also dem Objekt auf der linken Seite des Pfeils den Wert auf der rechten Seite zu. Dieser Befehl zeigt gleichzeitig, daß Alan Kay – zumindest in der ersten Version von Smalltalk – versuchte, die sonst eher auf symbolischer Ebene stattfindende Pro- grammierung durch ikonische Elemente zu ergänzen. Er war beispielsweise der Meinung, daß die Hand ( )prägnanter einen Objektnamen andeute als das sonst verwendete Anführungszeichen (").4 Um eine Linie zu zeichnen sendete man die Botschaft go 50. . Damit wurde der Schildkröte mit dem Namen signalisiert, daß sie sich um 50 Einhei- ten vorwärts bewegen sollte. Um ein Quadrat mit der Seitenlänge 100 zu zeichnen, schickte man die Botschaft do 4( go 100 turn 90.) , und die Schild- kröte bewegte sich vier mal um 100 Einheiten vorwärts und drehte sich dann um 90 Einheiten nach rechts.

1 Shoch 1979, S. 64f. 2 Papert 1993, S. 55ff. 3 In Smalltalk wurde mit dem Symbol (Do it!) die Taste für die Datenfreigabe bezeichnet, die bei anderen Systemen Carriage Return oder Enter hieß. 4 Learning Research Group 1976, S. 44. David C. Smith entwickelte im Rahmen seiner Doktor- arbeit unter dem Namen »Pygmalion« sogar ein Smalltalk-Programm, das die Entwicklung von Computerprogrammen auf rein ikonischer Ebene ermöglichte. Vgl. Smith 1977.

314 6.7 Smalltalk und die grafische Benutzungsoberfläche

Um nicht jedesmal diesen langen Befehl eingeben zu müssen, konnte man eine einfache Klasse für Quadrate definieren:

box class : size

( size :. do 4( go size turn 90)) Durch die Botschaften box 50. box 100. box 200. konnte man nun bequem drei unterschiedlich große Quadrate erzeugen. Mit dieser einfachen Klasse konnten die einmal erzeugen Quadrate allerdings nicht weiter manipuliert werden, sie konnten nicht gedreht, gelöscht, vergrößert oder verkleinert werden. Es war daher sinnvoll, die Klassendefinition für ein Quadrat durch alle notwen- digen Verfahren zur Manipulation von Objekten zu ergänzen. Eine solchermaßen erweiterte Klassendefinition konnte dann folgendermaßen aussehen:

box class : size

(isnew µ ( turtle. size 50. SELF draw.)

draw µ (do 4 ( go size turn 90.))

undraw µ ( white. SELF draw. black.)

grow µ (SELF undraw. size size + :. SELF draw.)

turn µ (SELF undraw. turn :. SELF draw.)

move µ (SELF undraw. penup goto (:) (:) pendn. SELF draw.)) In dieser Definition werden eine Reihe von Operationen festgelegt, die man auf ein Quadrat anwenden kann. Jedes Mal, wenn ein neues Objekt der Klas- se box erzeugt wird, wird die Frage isnew positiv beantwortet. Dann, so die

Bedeutung von µ, wird eine neue Schildkröte erzeugt und die Seitenlänge des Quadrats auf 50 gesetzt. Schließlich schickt das neue Objekt sich selbst (SELF) die Botschaft draw, um das Quadrat auf dem Bildschirm zu zeichnen. Mit sei- nen »Augen« ( ) betrachtet ein Objekt die Botschaften, die es erhält und initiiert dann die entsprechenden Aktionen. Wenn also ein Quadrat die Botschaft grow erhält, wird das bisherige Quadrat auf dem Bildschirm gelöscht, der Wert für die Seitenlänge um den Wert in der Botschaft (:) vergrößert und das Quadrat neu gezeichnet.1 Mit dieser Klassendefinition war es nun bereits möglich, vergleichsweise komplexe Simulationen zu programmieren. Um beispielsweise ein Quadrat auf dem Bildschirm rotieren zu lassen, konnte man folgendes kleine Programm schreiben:

1 Learning Research Group 1976, S. 42–48; Goldberg and Kay 1976, S. 9ff.

315 6. Xerox PARC und die Architektur der Information

joe box Erzeugen eines Objekts der Klasse Box mit dem Namen joe joe grow 100 Die Seitenlänge von joe wird auf 50 verändert repeat (joe turn 5.) joe beginnt sich um jeweils 5 Grad gegen den Uhrzeigersinn zu drehen. Es war aber auch möglich, komplexere Klassen zu definieren, die Objekte der Klasse Box verwendeten. Auf diese Weise entstand eine schnell wachsende Bibliothek von Routinen, die alle Nutzer des Systems verwenden und weiterent- wickeln konnten. Damit sollte Smalltalk zu einem sich allmählich evolutionär herausbildenden »Gedächtnis« für die Nutzergemeinschaft werden, wie es sich auch Bush für seinen Memex vorgestellt hatte.1 In einem seiner utopischen Auf- sätze schrieb Kay 1972 über die Nutzung des Dynabook durch zwei achtjährige Kinder, die das Computerspiel Spacewar erweitern möchten: »›That’s great!‹ [Jimmy said to Beth.] ›I’ll bet you the Library has just about what you need.‹ At that, Jimmy connected his DynaBook to his class’s LIBLINK and became heir to the thought and knowledge of ages past, all perusable through the screen of his DB (=DynaBook, d. Autor). It was like taking an endless voyage through a space that knew no bounds.«2 Selbst wenn diese Hoffnung allzu idealistisch war und ihre Realisation noch einige Jahre in der Zukunft lag, hatte sie dennoch Auswirkungen auf die Entwick- lung der konkreten Smalltalk-Software für den Alto.

6.7.3 Smalltalk-72 und die Kinder

Nachdem Alan Kay bereits 1971 eine erste Version von Smalltalk entworfen hatte, erfolgte die erste Implementierung erst im Sommer 1972. Auf Grund einer Wette entwarf Kay eine neue Version von Smalltalk, später als Smalltalk-72 bezeich- net, als »the most powerful language in the world in a page of code«.3 Bereits im Oktober 1972 hatte Daniel H. Ingalls, als seinen Beitrag zu der Wette, Kays Entwurf in der Programmiersprache BASIC auf der Nova implementiert. Die An- weisungen wurden zwar so langsam ausgeführt, daß Butler Lampson von »gla- zialer Geschwindigkeit« sprach, die Implementierung zeigt aber immerhin die Realisierbarkeit des objektorientierten Ansatzes und wurde zur Grundlage aller weiteren Smalltalk-Versionen. Um die Leistung der Programmiersprache zu ver- bessern, implementierte Ingalls Smalltalk innerhalb von zwei Monaten erneut auf der Nova, diesmal allerdings in BCPL. Das Ergebnis war ein Interpreter mit einem

1 Goldberg 1998, S. 61f.; Goldberg and Ross 1981, S. 354. 2 Kay 1972b, S. 2. 3 Kay 1996, S. 532f.

316 6.7 Smalltalk und die grafische Benutzungsoberfläche einfachen Verfahren zur dynamischen Reservierung und Freigabe von Hauptspei- cher für Objekte.1 Der Interpreter beinhaltete außerdem einen (einfachen) Parser und die Klassendefinition für elementare Daten- und Kontrollstrukturen. Nach- dem die Learning Research Group im Frühjahr 1973 die ersten Altos erhalten hatte, konnte Smalltalk wegen der Ähnlichkeit der beiden Hardwarearchitekturen problemlos auf den Alto portiert werden.2 Als die Portierung von Smalltalk-72 auf den Alto im Sommer 1973 abge- schlossen war und nachdem die wichtigsten Klassen und ersten Werkzeuge, wie ein von John Shoch entwickelter strukturierter Editor, implementiert waren, konn- ten die ersten Experimente mit Kindern geplant werden. Da keines der bisherigen Gruppenmitglieder pädagogische Erfahrungen mitbrachte, engagierte Kay Adele J. Goldberg (* 1945) und Steve Weyer (* 1948), die am Institute of Mathemati- cal Studies in the Social Sciences der Stanford University unter Patrick Suppes gearbeitet hatten, einem der Pioniere des computerunterstützten Unterrichts. Ge- meinsam entwickelten sie ein Curriculum für Smalltalk-Kurse, die in Kooperation mit zwei Schulen für Hochbegabte zwischen Frühjahr 1974 bis Sommer 1976 mit jeweils zehn Kindern zwischen 9 und 15 Jahren durchgeführt wurden.3 Der erste Ansatz bei diesen Kursen war die Nachahmung von Paperts Arbei- ten zur Vermittlung von Geometrie mit Hilfe von LOGO und der Turtlegrafik. Obwohl die Kinder –ähnlich wie bei Paperts Experimenten – schnell Zeichnun- gen auf dem Bildschirm erzeugen konnten, stellte sich bei Kay und Goldberg das enttäuschende Gefühl ein, daß man auf diese Weise den Kindern vielleicht Geo- metrie beibringen könne, nicht aber Computerkompetenz. Unter Computerkom- petenz verstanden sie allerdings nicht die Fertigkeit, ein Anwendungsprogramm wie eine Textverarbeitung zu verwenden und auch nicht allein die Fähigkeit zu programmieren. Sie verstanden darunter vielmehr eine »so tiefe Beziehung zur Datenverarbeitung, daß das, was auf diesem Gebiet dem Lesen und Schreiben entspricht, fließend und mit Freude getan werden kann.«4 Ausgehend von Piagets Entwicklungstheorie und auf Anregung von entwickelte Adele Goldberg deshalb ein neues ganzheitliches und projektorientiertes Unterrichts- konzept für Smalltalk.5 Die grundlegende Idee dieses Konzepts war, daß die Kinder in explorativer Weise die Möglichkeiten bereits existierender Modelle benutzen, diese Model- le reproduzieren, sie ergänzen, um neue Effekte zu erzeugen und sie schließlich 1 Das Garbage Collection genannte Verfahren war von Daniel Bobrow für Lisp entwickelt worden und ermöglichte die Entwicklung von umfangreichen Programmen selbst bei den damals üblichen Hauptspeichergrößen bis etwa 128 kByte. Die Garbage Collection wurde am PARC von Bobrow und Peter Deutsch weiter verbessert. Vgl. Bobrow 1968; Deutsch and Bobrow 1976. 2 Ingalls 1983, S. 10; Goldberg 1998, S. 56; Kay 1996, S. 533f. 3 Goldberg 1977, S. 2f., 15. 4 Kay 1984, S. 47. Übersetzung des Autors. 5 Goldberg and Kay 1977a, S. 3f.

317 6. Xerox PARC und die Architektur der Information

Abbildung 96. Kathy Mansfields aus regelmäßigen Vielecken zusammengesetzter Clown (links) und Marian Goldeens Zeichenprogramm mit einer Stempelpalette (rechts) für einen anderen Kontext umschreiben. Dazu erhielten sie illustrierte Büchlein, etwa »The Box Book«, das auf spielerische Weise die Funktion der bereits er- läuterten Klasse Box vermittelte. Die Kinder wurden z. B. angeleitet, wie man das Spiel »Froschhüpfen« oder ein einfaches Zeichenprogramm programmieren konnte. Auf diese Weise sollten sie angeregt werden, eigene Programmideen zu entwickeln.1 Die Versuche waren zunächst unerwartet erfolgreich. Kay und Goldberg be- richten, welche Kreativität die Kinder allein bei der Verwendung der Klasse Box an den Tag legten. Obwohl keines der Kinder Programmier- bzw. Computerkennt- nisse besaß und alle der gleichen Anleitung folgten, entwickelten sie eine Viel- zahl von Grafiken, Animationen, im besten Fall sogar hochentwickelte Software- werkzeuge. Es entstand beispielsweise eine ganze Reihe von Programmen zum Zeichnen von Grafiken auf dem Bildschirm. Die zwölfjährige Kathy Mansfield erweitere beispielsweise die Klasse Box zu einer allgemeineren Klasse für re- gelmäßige Vielecke. Aus diesen Vielecken konnte man beliebige Zeichnungen

1 Goldberg and Tenenbaum 1975; Goldberg and Kay 1977a, S. 4–7.

318 6.7 Smalltalk und die grafische Benutzungsoberfläche

Abbildung 97. Susan Hammetts Zeichenprogramm mit einem Textmenü zusammenstellen (Abb. 96, links). Bei dem Zeichenprogramm der dreizehnjähri- gen Marian Goldeen wurden die verfügbaren Vielecke am oberen Bildschirmrand angezeigt. Durch Anklicken mit der Maus konnte man wie durch einen Stempel ein neues Vieleck erzeugen und dann beliebig auf dem Bildschirm positionieren (Abb. 96, rechts). Die zwölfjährige Susan Hammett verallgemeinerte schließlich die Vielecke zur Klasse Shapes (Formen). Jede Instanz dieser Klasse besaß In- formationen über ihre Bildschirmposition, Ausrichtung, Größe und die Anzahl der Seiten. Nachdem sie gelernt hatte, wie man in Smalltalk Textfenster erzeugt, definierte sie die Klasse Menü. Hatte man etwa das Wort move im Menü mar- kiert und klickte z. B. auf das Dreieck in der Zeichnung, so wurde die Botschaft »move« an das Objekt verschickt, und man konnte es verschieben (Abb. 97).1 Auf spielerische Weise entwickelten die Jugendlichen Programmelemente (Palet- ten, Bildschirmmenüs), wie sie auch von den Entwicklern des Computer Science Laboratory für ihre professionellen Grafikapplikationen verwendet wurden. Die Teilnehmer eines anderen Kurses beschäftigten sich mit der Erzeugung einfacher Simulationen und Animationen und programmierten dabei ihre Lieb- lingsspiele in Smalltalk. Dennis Burke und Kathy Mansfield programmierten bei- spielsweise eine einfache Version des Klassikers Spacewar.2 Der elfjährige Elliot und die zwölfjährige Sandy programmierten eine eigene Version des seinerzeit populären Videospiels Pong, und Marian Goldeen schrieb ein Programm zur Si- mulation eines Badmintonspiels mit animierten Strichmännchen.3 Trotz der offensichtlichen Erfolge wurden bei den Versuchen Schwächen of- fensichtlich. Zunächst konnte man Versuche an einer Schule für Hochbegabte im akademisch dominierten Palo Alto kaum als repräsentativ bezeichnen. Trotz des 1 Goldberg and Kay 1977a, S. 1ff.; Goldeen 1975; Kay 1996, S. 544. 2 Das Computerspiel Spacewar, das der MIT-Student Steve Russell 1962 auf der DEC PDP-1 pro- grammiert hatte, hatte seinen festen Platz in der Kultur junger Computerenthusiasten, der Hacker – so auch am PARC. Vgl. Levy 1984, S. 59–69; Brand 1974, S. 39–49. 3 Goldberg and Kay 1977a, S. 13–16; Goldeen 1975, S. 44.

319 6. Xerox PARC und die Architektur der Information günstigen Umfeldes gingen die meisten der erwähnten Spitzenleistungen auf nur 5% der beteiligten Schüler zurück, während über 80% der Kinder das Program- mieren in Smalltalk mühsam erlernen mußten und trotzdem nicht in der Lage wa- ren, kreativ Programme zu schreiben. Nicht die Syntax der Sprache oder die Be- dienung waren die limitierenden Faktoren, sondern die (kreative) Fähigkeit zum Entwurf eines Programmes.1 Eine Reaktion auf diese Erkenntnis war die Verwendung sogenannter Ent- wurfsschablonen, die als Zwischenstufe zwischen den unscharfen Ideen und der präzisen Formulierung des Computerprogramms fungieren sollte. Dabei sollten die jugendlichen Programmierer ihre Ideen nicht direkt in ein Programm umset- zen, sondern die Eigenschaften und das Verhalten einer zu programmierenden Klasse zunächst in einfachen englischen Sätzen formulieren. Erst in einem zwei- ten Schritt sollte daraus das Programm entstehen (Tab. 4). Diese Vorgehensweise erlaubte die Trennung von Idee und Realisierung, die es auch anderen Personen, z. B. dem Kursleiter erlaubte, die Intentionen des Programmierers nachzuvollzie- hen, um dann gezielte Hilfen bei der Umsetzung bzw. Fehlersuche zu geben. Kay und Goldberg hatten nämlich festgestellt, daß auch innerhalb der Gruppe Ideen- geber und Programmierer häufig unterschiedliche Personen waren, die erst durch Kommunikation zu einem produktiven Team wurden.2 Obwohl sich in den zeitgenössischen Berichten kaum eine konkrete Bewer- tung der Smalltalk-Kurse für Kinder findet, scheint das Projekt kein wirklicher Erfolg gewesen zu sein. Noch 1993 sprach Alan Kay davon, es habe sich um einen »relativen Erfolg« gehandelt, und »etwas Erfolg sei qualitativ etwas ande- res als kein Erfolg«. Dennoch mußte auch er einräumen, daß die Verwendung von Entwurfsschablonen eine »großartige Idee war und sehr gut funktionierte. Aber nicht gut genug, um uns zufriedenzustellen«.3 Wenngleich keiner der Verantwortlichen eine überzeugende Erklärung liefern konnte, stellte sich das Gefühl ein, daß die Probleme weniger mit der Program- miersprache zu tun hätten als mit der noch wenig ausgebildeten Computerkom- petenz der nichtprofessionellen Nutzer.4 So schrieb Adele Goldberg noch 1986, man habe sich zwar bislang darauf konzentriert, Programmierern beizubringen, lesbare Programme zu schreiben, habe aber versäumt, auch das richtige Lesen zu vermitteln. Gerade bei einer Programmiersprache wie Smalltalk, bei der sehr viel

1 Kay 1996, S. 545. Kay berichtet, daß bei einem Smalltalkkurs für erwachsene Nichtprogrammierer kein Teilnehmer in der Lage war, ein in seinen Augen einfaches Datenbankprogramm zu schreiben. Bei einer genaueren Analyse seines eigenen Programms zählte er schließlich 17 »nichtoffensicht- liche Ideen«. 2 Goldberg 1977, S. 5, 8. 3 Kay 1996, S. 544f. 4 Kay 1996, S. 545ff.

320 6.7 Smalltalk und die grafische Benutzungsoberfläche

Tabelle 4. Entwurfsschablone für die Klasse Box Messages English description of the action the box Smalltalk description a box can will carry out receive

new It creates a new box that needs its own Pal turtle.

turtle to draw the new box on the display, size 50. and that must remember its size whose SELF draw. first value is 50. Then it draws itself on the display screen. draw The box has its turtle draw a square on the do 4 screen at the turtle’s current location and ( draw size. orientation. The length of its four sides is turn 90.) size. undraw Erase the box. white. SELF draw. black.

grow After erasing itself, the box instance re- SELF undraw.

trieves a message which is interpreted as size size + :. an increment of its size. It then redraws SELF draw. itself as a bigger or smaller square.

Wert auf die Nutzung und Modifikation bereits existierender Klassen gelegt wird, sei eine solche Fähigkeit besonders wichtig.1

6.7.4 Programmentwicklung in Smalltalk

Parallel zu den geschilderten Experimenten wurde Smalltalk auch innerhalb des Labors für die Implementierung erster Programme verwendet. Dazu gehörten ne- ben der ersten Gestaltung einer grafischen Benutzungsschnittstelle auch Program- me, die sich nahtlos in Alan Kays Vision des Dynabooks einfügten, aber meist erheblich komplexer waren als die im Rahmen der Schulversuche erstellten Pro- gramme. Larry Tesler, der 1973 noch Mitarbeiter der POLOS-Entwicklergruppe war, nutzte die Möglichkeiten von Smalltalk-72, um mit miniMOUSE einen ersten modusfreien Texteditor, einen unmittelbaren Vorläufer von Gypsy, zu implemen- tieren. Er führte einige Untersuchungen mit potentiellen Nutzern durch, um sei-

1 Goldberg 1987, S. 62ff. Bereits 1971 hatte Gerald Weinberg in seinem Pionierwerk »The Psycho- logy of Computer Programming« darauf hingewiesen, daß man Mittel finden müsse, um nichte- goistisches Programmieren zu fördern. Vgl. Weinberg 1971, S. 56ff.

321 6. Xerox PARC und die Architektur der Information ne Kollegen von der Effizienz modusfreier Programme zu überzeugen. Die Test- personen bewerteten miniMOUSE durchweg positiv, und schon nach kurzer Zeit löste das Programm den von John Shoch programmierten strukturierten Editor als Standardwerkzeug zur Eingabe von Programmen ab.1 Alan Kay und Steve Weyer nutzten die Möglichkeiten der in Smalltalk inte- grierten Routinen zur Erstellung und Manipulation von Dateien, um ein experi- mentelles Dokumentenverwaltungssystem mit dem Namen FindIt zu schreiben. Damit konnten beliebige Dateien nach Schlüsselworten durchsucht werden. Der Benutzer gab dazu in einer Eingabemaske z. B. den Namen des Autors an, wähl- te im Menü des Programms den Befehl Retrieve aus, bekam das passende Dokument angezeigt, konnte dann beliebige Änderungen durchführen und das Dokument wieder abspeichern.2 Dieses Programm wurde einige Jahre von der Bibliothek des PARC zur Überwachung von Ausleihen verwendet.3 Neben diesen eher konventionellen Anwendungen wurden auch erste Pro- gramme zur Aufzeichnung, Bearbeitung und Wiedergabe von Musik entwickelt. Alan Kay, der sich noch nach seiner Militärzeit 1966 ernsthaft überlegt hatte, ob er nicht professioneller Musiker werden sollte, hatte bereits auf der Data Gene- ral Nova einen ersten Sampler entwickelt, mit dem man in Echtzeit dreistimmige Musik erzeugen konnte.4 Durch den Anschluß einer Klaviatur, eines Lautspre- chers und eines Digital-Analog-Wandlers wurde der Alto zu einem computeri- sierten Synthesizer. Mit dem von Ted Kaehler (* 1950) entwickelten Programm TWANG konnte man bis zu acht Stimmen aufzeichnen, die in Form von acht horizontalen Linien auf dem Bildschirm dargestellt wurden. Dabei entsprach die Länge der Linien der Dauer der Töne und ihre vertikale Position der Tonhöhe. Nach der Aufnahme konnte das Musikstück interaktiv am Bildschirm bearbeitet, auf der Platte abgespeichert oder über den Lautsprecher abgespielt werden.5 Noch einen Schritt weiter ging Chris Jeffers, der ursprünglich kein Compu- terwissenschaftler, sondern Musiker und Lehrer gewesen war. Sein Programm OPUS zeigte die Klaviatureingaben sofort in der klassischen Notenschrift auf dem Bildschirm an. Auch diese Darstellung konnte am Bildschirm bearbeitet, als Partitur auf dem Laserdrucker ausgegeben oder über den Lautsprecher abgespielt werden.6 1973/74 entstanden auch erste Programme zur Herstellung von Animationen, die ein zentraler Bestandteil jeder Simulation sein sollten. Bereits bei der Er-

1 Kay 1996, S. 538; Email von Larry Tesler an den Autor, 14. April 1998. 2 Learning Research Group 1976, S. 17–21; Kay and Goldberg 1977, S. 34f. 3 Kay 1996, S. 538; Email von Steve Weyer an den Autor, 29. Mai 1998. 4 Kay 1996, S. 539. 5 Learning Research Group 1976, S. 34–39; Kay and Goldberg 1977, S. 38f; Email von Ted Kaehler an den Autor, 30. Juni 1998. 6 Jeffers 1975; Learning Research Group 1976, S. 39f.; Kay and Goldberg 1977, S. 40.

322 6.7 Smalltalk und die grafische Benutzungsoberfläche läuterung der Programmierung am Beispiel der Klasse Box wurde gezeigt, daß man mit Smalltalk problemlos Objekte auf dem Bildschirm bewegen konnte. Die Wissenschaftler der Learning Research Group wollten allerdings Animationen in Disney-Qualität, also mit 10–15 Bildern pro Sekunde bei zehn oder mehr Ob- jekten realisieren. Dies gelang erstmals mit Steve Purcells Programm CHAOS, das im Mai 1974 fertiggestellt wurde. Davon ausgehend machten sich die Gast- wissenschaftler Ron Baecker1 und Tom Horseley sowie der professionelle Zeich- ner Eric Martin an die Entwicklung des leistungsfähigen und dennoch einfach zu bedienenden Animationssystems SHAZAM, das Begriffe und Verfahren aus der Filmbranche übernahm: Es gab Filme, die aus einer Reihe von Einzelbildern (frames) bestehen, die sich wiederum aus transparenten Zellen zusammensetzen, welche den Hintergrund oder bestimmte Darsteller beinhalten.2

6.7.5 Die Evolution von Smalltalk

All diese Programme, so beeindruckend sie im einzelnen waren, förderten die Schwächen von Smalltalk-72 zutage, so daß schon bald mit der Weiterentwick- lung der Sprache begonnen wurde. Die neue, nun Smalltalk-74 oder FastTalk ge- nannte Version ergänzte die Routinen zur Erzeugung von Turtlegrafik um neue, leistungsfähigere Routinen zur Manipulation rechteckiger Pixelblöcke. Aufbau- end auf Routinen, die Diane Merry schon 1973 entwickelt hatte, schrieb Dan In- galls ein Paket mit dem Namen BitBlt (Bit field block transfer), das effiziente Verfahren zum Verschieben, Ausschneiden, Kopieren, Überlagern und Rotieren von Pixelmustern enthielt, mit denen schnelle Änderungen des Bildschirminhalts (Öffnen von Fenstern, Rollen von Text etc.) in Echtzeit erfolgen konnten. Die Routinen, die auch außerhalb der Learning Research Group schnell zu Standards bei der Implementierung von Rastergrafik wurden, standen zwar jedem Smalltalk- Programmierer zur Verfügung, konnten von diesem aber nicht verändert werden, da BitBlt aus Geschwindigkeitsgründen in Maschinensprache geschrieben war.3 Außerdem wurde seit Smalltalk-74 ein von Ted Kaehler entwickeltes System zur Speicherverwaltung verwendet, welches das konstruktionsbedingte Problem

1 Baecker hatte bereits im Rahmen seiner Doktorarbeit am Lincoln Lab des MIT ein sehr erfolgrei- ches Animationsprogramm entwickelt. Vgl. Baecker 1969. 2 Learning Research Group 1976, S. 28f.; Kay and Goldberg 1977, S. 36f. – Obwohl es hier nicht explizit thematisiert werden soll, wurden die Arbeiten über Computeranimation am PARC zur Keimzelle einer Revolution bei den optischen Effekten in der Filmindustrie. Richard Shoup und Alvy Ray Smith, zwei ehemalige PARC-Mitarbeiter, erhielten im Frühjahr 1998 den begehrten Oscar der Academy of Motion Pictures Arts and Sciences »for their pioneering efforts in the deve- lopment of digital paint systems used in motion picture production«. 3 Ingalls 1981b; Ingalls 1983, S. 13f.; Newman and Sproull 1979, Chapter 18; Lampson 1988, S. 322f.; Perry and Wallich 1985, S. 71.

323 6. Xerox PARC und die Architektur der Information des zu kleinen Hauptspeichers löste. Durch das Object Oriented Zone Environ- ment (OOZE) besaß Smalltalk nun auch virtuellen Speicher, so daß die Größe des verfügbaren Hauptspeichers bis zur freien Kapazität der Platte anstieg (maximal 2.5 MByte statt 128 kByte).1 Trotz der Verbesserungen bei Smalltalk-74 blieben grundlegende Schwächen bestehen: entgegen der Philosophie von Smalltalk waren Klassen keine normalen Objekte. Dies führte dazu, daß das inzwischen für notwendig erachtete Prinzip hierarchischer Klassen mit Vererbung (s. u.) in Smalltalk-72 nicht zu realisieren war.2 Schließlich führte die flexible Syntax der Sprache nicht nur dazu, daß Pro- gramme schlecht zu lesen waren, sie konnten auch nicht in Maschinensprache übersetzt werden und waren entsprechend langsam. Smalltalk-74 stellte sich so- mit als eine Sackgasse dar. Im Dezember 1975 entschloß man sich daher zu einer vollkommenen Neuim- plementierung von Smalltalk, die nicht nur die Schwächen der alten Version be- heben sollte, sondern auch den hohen Ansprüchen der professionellen Program- mierer genügen sollte. Dieses Smalltalk-76 genannte System wurde 1976/77 von Dan Ingalls entworfen und von Dave Robson, Ted Kaehler, und Dia- ne Merry implementiert. Um die Leistungsfähigkeit des Altos möglichst aus- zuschöpfen, wurden die zentralen Teile des Systems – die sogenannte virtuelle Maschine – unmittelbar als Mikroprogramm implementiert. Die durch die Ver- änderung der Syntax geschaffene Möglichkeit zur Übersetzung von Smalltalk- Programmen in Maschinensprache stellte die Entwickler allerdings vor ein neues Problem. Bei herkömmlichen Programmiersprachen wird das Quellprogramm in der Regel in einem ersten Schritt syntaktisch analysiert, im zweiten Schritt wer- den die passenden Maschinenbefehle aus einer Bibliothek zu einem sogenannten Objektprogramm zusammengestellt, aus dem der sogenannte Programmbinder abschließend ein ausführbares Programm erzeugt. Da bei jeder noch so kleinen Änderung des Quellprogramms alle Schritte erneut ausgeführt werden müssen, kann die Programmentwicklung nicht im gleichen Maße interaktiv erfolgen wie mit einem Interpreter. Um dieses Problem zu umgehen, griffen die Smalltalk- Entwickler auf ein Verfahren zurück, das Peter Deutsch einige Jahre zuvor für Lisp entwickelt hatte: die Bytecodierung.3 Bei dieser Technik werden die Klassendefinitionen nur in intermediären Ob- jektcode übersetzt, der seinerseits von der virtuellen Maschine interpretiert wird. Da die virtuelle Maschine im Mikrocode des Alto implementiert war und nur noch beschränkte Aufgaben wahrnehmen mußte, konnte sowohl die Ausführungs- geschwindigkeit der Programme erhöht und die Interaktivität bei der Benutzung

1 Kaehler 1981; Goldberg 1998, S. 60; Kay 1996, S. 541. 2 Ingalls 1983, S. 12ff. 3 Krasner 1981; Ingalls 1978, S. 12ff.; Deutsch 1973.

324 6.7 Smalltalk und die grafische Benutzungsoberfläche beibehalten werden. Schließlich eröffnete die Bytecodierung auch die Möglich- keit zur Erstellung portabler Programme. Zwar mußte für jede Hardwareplattform eine eigene virtuelle Maschine programmiert werden, diese war jedoch im Ver- gleich zu den bytecodierten Bestandteilen des Systems vergleichsweise klein.1 Der Objektcode für die Klassendefinitionen bildete zusammen mit dem Quell- code und zusätzlichen Informationen über den Maschinenzustand das sogenannte virtual image, das als Datei abgespeichert war. Ein Benutzer konnte sich demnach auf seiner eigenen Smalltalk-Wechselplatte ein virtual image anlegen, das alle Klassen enthielt, die er für seine Arbeit benötigte. Er konnte sich damit an einen beliebigen Alto setzen, die virtuelle Maschine über das Netz starten, sein virtual image einlesen. Die Arbeitsumgebung entsprach dann genau dem Zustand, bei dem er Smalltalk bei seiner letzten Sitzung verlassen hatte.2 Insofern war Small- talk nun in hohem Maße an die individuellen Bedürfnisse des Benutzers anpaßbar und somit wirklich ein persönliches Medium. Nachdem Smalltalk-76 im Januar 1978 auch die ersten praktischen Tests er- folgreich überstanden hatte, entwickelte es sich zu einem soliden Entwicklungs- system, das während der nächsten vier Jahre von zwanzig Programmierern für ihre tägliche Arbeit und gelegentlich von mehr als hundert Personen genutzt wur- de. Trotz geringer Schwächen war der Entwurf so erfolgreich, daß ein großer Teil von Smalltalk-76 auch in das 1982 fertiggestellte Smalltalk-80 übernommen wur- den. Die in der Zwischenzeit entstandenen Versionen Smalltalk-78 und TinyTalk stellten, anders als Smalltalk-74, keine graduellen Verbesserungen des Basissys- tems dar. Es handelte sich vielmehr um experimentelle Implementierungen von Smalltalk-76 für die allmählich aufkommenden Mikrocomputer, insbesondere für den am PARC entwickelten NoteTaker (s. u.) bzw. für Computer mit den Ende der siebziger Jahre populären Mikroprozessoren Z80 von Zilog und 6502 von MOS Technology.3 Smalltalk-80 wurde schließlich zwischen 1980 und 1982 mit Blick auf die kommerzielle Vermarktung entwickelt. Diese – von Alan Kay häufig als über- konstruiert bezeichnete4 – Version wurde parallel von mehreren Entwicklungs- teams für unterschiedliche Hardwareplattformen implementiert. Schließlich gab

1 Email von Alan Kay an den Autor, 10. April 1998; Ingalls 1978, S. 12ff. – Krasner 1981 gibt an, daß die virtuelle Maschine von Smalltalk-80 eine Größe von 10 kByte hatte, während der bytecodierte Rest des Systems 300 kByte belegte. 2 Dies betraf natürlich nicht nur das Smalltalk im engeren Sinne. Da Kay und Ingalls der Meinung waren, ein Betriebssystem sei »eine Sammlung von Dingen, die normalerweise nicht in eine Pro- grammiersprache passen«, ersetzten sie kurzerhand alle Funktionen des Alto OS durch eigene, in Smalltalk geschriebene Routinen. Vgl. Ingalls 1981a, S. 298. 3 McCall and Tesler 1980; Ingalls 1983, S. 17ff. 4 Perry and Wallich 1985, S. 71; Frenkel 1994, S. 15f.

325 6. Xerox PARC und die Architektur der Information es Versionen für den Xerox Dorado, für Minicomputer von Digital Equipment, Tektronix und Hewlett-Packard sowie für den Motorola 68000 Mikroprozessor.1 Die Errungenschaft mit der langfristig gesehen stärksten Ausstrahlung in den Mainstream kommerzieller Computer dürfte aber die einheitliche grafische Benutzungsoberfläche gewesen sein, die erstmals ein integraler Bestandteil des Smalltalk-Systems war. Dabei war kaum eines der dort zusammengeführten Ele- mente am PARC selbst entstanden.

6.7.6 Benutzerillusion und grafische Benutzungsoberfläche

Der Begriff der Mensch-Computer-Schnittstelle, häufig verfälschend nur als Be- nutzerschnittstelle bezeichnet, tauchte in größerem Umfang Ende der sechziger Jahre auf. Natürlich hatten alle Computer auch vor diesem Zeitpunkt eine Schnitt- stelle, über die ein menschlicher Benutzer Daten in den Computer eingab oder vom Computer empfing. Da die beruflichen Kenntnisse und Fähigkeiten dieser Benutzer – Ingenieure, Mathematiker und Programmierer – normalerweise die Konstruktion und Programmierung des Computers selbst betrafen, brauchte der Begriff der Mensch-Computer-Schnittstelle nicht weiter thematisiert werden. Wie wir in den Abschnitten über das Semi-Automatic Ground Environment und die Verwendung von Engelbarts On-Line System gesehen haben, wird der Benutzer erst in dem Moment zum Gegenstand des Interesses, wenn die Vorstellung des Benutzers vom Computer von derjenigen des Konstrukteurs abweicht. Dabei steht dann allerdings eine explizit technikzentrierte Sichtweise im Vordergrund, wie der englische Begriff des non-expert users andeutet. Obwohl sie normalerweise sehr wohl Experten (in anderen Bereichen) waren, mußten sich die Computernutzer an den typischen Fähigkeiten der Computeringenieure und Programmierer mes- sen lassen.2 Während die technikorientierte Gestaltung von Mensch-Computer-Schnitt- stellen mit wissenschaftlichen Methoden in den frühen siebziger Jahre zuneh- mend Gegenstand von Forschung und Entwicklung an Universitäten und bei großen Computerherstellern wurde3, gingen die Wissenschaftler des PARC an- dere Wege. Nicht der möglichst effektive Zugriff auf die bekannte Funktionalität war ihr Ziel, sondern die Schaffung einer Umgebung, in der die Benutzer wäh- rend der Arbeit die Funktionsweise des Systems erlernen. Auf diese Weise konnte man auch die Lern- und Entwicklungstheorien von Piaget und Bruner, Montes- sori und Dewey in den Systementwurf einfließen lassen.4 Es dauerte allerdings

1 Goldberg 1983; Lampson 1988, S. 305f. 2 Grudin 1993. 3 Hansen 1971; Martin 1973; Foley and Wallace 1974; Myers 1998, S. 46ff. 4 Kay 1996, S. 552.

326 6.7 Smalltalk und die grafische Benutzungsoberfläche fünf Jahre und bedurfte einer Vielzahl von Tests, bis Smalltalk eine endgültige Mensch-Computer-Schnittstelle besaß. Eingang in die Entwicklung fanden neben diesen philosophischen und päd- agogischen Überlegungen auch solche Elemente, die während der sechziger Jah- re bereits bei anderen Computersystemen verwendet wurden, und von denen sich Alan Kay hatte inspirieren lassen. Nach seiner Vorstellung sollte das Computer- system so selbsterklärend sein, daß es intuitiv bedienbar ist und durch Erkunden erlernt werden kann. Dies sollte in angemessener Weise die kinästethische, ikoni- sche und symbolische Darstellung von Information ermöglichen. So wie das bei der RAND Corporation entwickelte System GRAIL sollte es eine möglichst mo- dusfreie Schnittstelle besitzen, die – wie schon in der Vorstellung von Joseph C. R. Licklider und Douglas C. Engelbart – im Idealfall als eine Art Vergrößerungs- spiegel für die Intelligenz des Benutzers dient. Obwohl sich der Mensch-Computer-Dialog an einem möglichst vertrauten Bild orientieren sollte, hatte Nicholas Negroponte vom MIT vorgeschlagen, ei- ne Schnittstelle solle wenn möglich »magische« Elemente besitzen.1 Wenn man sich beispielsweise, wie bei Xerox, an der Metapher des elektronischen Papiers orientiert, dürfe man sich nicht durch die Eigenschaften des wirklichen Papiers einschränken lassen. Zusätzliche »magische« Elemente müßten möglich sein. Da dabei die Gefahr bestehe, daß der Benutzer die Orientierung verliert, müsse es sich um verständliche oder nachvollziehbare Magie handeln.2 Insbesondere dieser letzte Punkt führte dazu, daß man sich im Laufe der Zeit am PARC (und nicht nur bei der Learning Research Group) vom Begriff der Meta- pher trennte, weil dieser zu einengend war. Er wurde durch den Begriff Benutzer- Illusion ersetzt3, über den Alan Kay 1984 schrieb: ». . . what is presented to one’s senses is one’s computer. The ›user illusion‹ as my colleagues and I called it at the Xerox Palo Alto Research Center, is the simplified myth everyone builds to explain . . . the system’s action and what should be done next.«4 Die Benutzerillusion war also die Vorstellung, die der Benutzer von der Ma- schine hat. Kay und seine Kollegen erkannten, daß es kaum eine Rolle spielte, ob diese Vorstellung richtig oder vollständig war, sie mußte nur kohärent und zweck- mäßig sein. Eine unvollständige und metaphorische Vorstellung von der Funkti- onsweise des Computers war allemal besser als gar keine. Dem Benutzer sollte nicht erklärt werden, wie die Maschine funktioniert, sondern es ging darum, eine

1 Bolt 1979. 2 Johnson 1987; Kay 1996, S. 552ff.; Kay 1990, S. 196ff. 3 Sweet 1985, S. 218ff. 4 Kay 1984, S. 42.

327 6. Xerox PARC und die Architektur der Information zweckmäßige Version zu bieten, die nicht vom Computer, sondern vom Benutzer ausging. Die weitere Entwicklung hat gezeigt, wie mächtig die Benutzerillusion ist. So hat John Seely Brown, der heutige Leiter des PARC, darauf hingewiesen, daß sie zum weitgehenden Verschwinden der meisten Computers aus dem Blickfeld der Öffentlichkeit geführt hat. Sie wurden entweder in alltäglicher Objekte wie Autos, Waschmaschinen oder Geldautomaten integriert oder zum Bestandteil des sozia- len Umfeldes, beispielsweise unserer Arbeit. Damit erfüllte sich der Traum von Vannevar Bush, die Benutzung des Computers möge für den Mathematiker zu ei- ner so alltäglichen Tätigkeit werden wie Autofahren.1 1972 stand man allerdings noch am Beginn dieser Entwicklung. Vom Fenster zur Schreibtisch-Metapher Für Alan Kay und seine Mitarbeiter war von Beginn an klar, daß Smalltalk auch bei der Benutzerschnittstelle die grafischen Möglichkeiten des Alto nutzen sollte. Außerdem sollte sie – so wie es Kay bei GRAIL und NLS kennengelernt hat- te – den Bildschirm in Fenster aufteilen, in denen unterschiedliche Dokumente in unterschiedlichen Repräsentationen angezeigt wurden. Kay hatte bereits 1969 in seiner Doktorarbeit eine solche Mensch-Computer-Schnittstelle angeregt.2 Fenster sind immer nur ein Hilfsmittel, um die begrenzte Bildschirmfläche möglichst ökonomisch zu nutzen. Dazu benötigt man ein möglichst effizientes und ergonomisches Verfahren, um den Bildschirm in mehrere Fenster aufzutei- len und bei Bedarf zwischen ihnen hin- und herzuschalten. Dabei kann man zwei grundlegende Verfahren unterscheiden, die sich auch kombinieren lassen. Beim sogenannten Switching oder Zeitmultiplex-Verfahren beansprucht ein Bild (bzw. Fenster) immer den vollständigen Bildschirm. Durch bestimmte Tastenkombina- tionen kann aber zwischen den offenen Fenstern hin- und hergesprungen wer- den. Dieses Verfahren hat freilich den Nachteil, daß dem Benutzer nicht unmittel- bar klar ist, welche Fenster er momentan zur Verfügung hat. Beim Splitting oder Raummultiplex-Verfahren wird hingegen jedem Fenster ein bestimmter Raum auf dem Bildschirm zugewiesen, der normalerweise kleiner als die Bildschirmober- fläche ist.3 Obwohl beim PARC alle Benutzungsschnittstellen das Splitting als Grund- konzept verwendeten, gab es doch unterschiedliche Ansätze der Umsetzung. So besaßen beispielsweise das Textverarbeitungsprogramm Bravo oder das Email- programm Laurel eindimensionale Schnittstellen, bei denen der Bildschirm hori- zontal in beliebig viele Fenster aufgeteilt werden konnte (vgl. Abb. 91, S. 300). Der Entwurf dieser Schnittstellen basierte allerdings weniger auf ergonomischen

1 Brown 1996; Bush 1945b, S. 105; auch Siegele 1998. 2 Kay 1969. 3 Card et al. 1984, S. 239; Lampson 1988, S. 315.

328 6.7 Smalltalk und die grafische Benutzungsoberfläche

Abbildung 98. Benutzungsoberfläche von Cedar mit diversen Text- und Grafikfenstern. Am unteren Bildrand sind Icons für Anwendungsprogramme (Sil, Mail), den Laserdrucker (Menlo) und Dokumente zu erkennen.

Überlegungen als auf der Tatsache, daß der Alto auf der untersten Ebene keine nebeneinanderliegenden Bildregionen verwalten konnte. Das Programmentwicklungssystem Cedar1 besaß hingegen eine zweidimen- sionale grafische Benutzungsschnittstelle (Abb. 98). Der Bildschirm wird dabei in eine Reihe nichtüberlappender (gekachelter) Fenster aufgeteilt, die unterschied- lich groß sein können. Um bei diesem Ansatz nicht zu viel Platz für Fenster zu verschwenden, die gerade nicht benötigt wurden, konnten man die Fenster zu Bildsymbolen, sogenannten Icons kollabieren lassen. Diese wurden am unte- ren Bildschirmrand angezeigt und konnten bei Bedarf wieder zum vollständigen

1 Nachdem BCPL in den ersten Jahren die wichtigste Programmiersprache im Computer Science Laboratory gewesen war, verwendete man seit 1976 die selbstentwickelte Programmiersprache Mesa. Ab 1978 wurde Mesa dann zur integrierten, objektbasierten Programmierumgebung Cedar weiterentwickelt. Vgl. Sweet 1985; Teitelman 1984, S. 44f.

329 6. Xerox PARC und die Architektur der Information

Fenster expandiert werden. Die Verwendung von Icons gehört allerdings zu den Verfahren des Switching.1 Die Learning Research Group entwickelte für Smalltalk schließlich eine »zweieinhalbdimensionale« Schnittstelle mit überlappenden Fenstern (Abb. 99). Obwohl die ersten Entwürfe für grafische Benutzungsschnittstellen noch nicht auf ergonomischen bzw. kognitiven Modellen basierten, entsprach die Idee der über- lappenden Bildschirmfenster ganz dem Leitbild vom »Büro der Zukunft« und der Metapher des elektronischen Papiers.2 Der Journalist Steven Levy schreibt über diesen Zusammenhang: »In his own interface design, Kay strived for the clarity and breadth of pa- per. He finally cracked the problem by a sleight of hand called overlapping windows. (...) Kay’s solution to this was to regard the screen as a desk and each project, or piece of a project, as paper on the desk. It was the original ›desktop metaphor.‹ As is working with real paper, the one you were working on at a given moment was on top of the pile. You could write happily in that window, or draw, or read a letter. Perhaps you could see corners or edges of those windows previously created. To move to the other windows, you used the mouse to move the cursor out of the window and over the representation of one of those windows ›underneath‹. That window would immediately fill out, giving the illusion it was ›on top‹.«3 Bei näherer Betrachtung fällt freilich auf, daß eine Schnittstelle mit Fenstern überhaupt nicht modusfrei ist. Jeder Wechsel von einem Fenster zum nächsten und von einem Dokument zum anderen ist genauso ein Moduswechsel wie das Betätigen der Insert-Taste bei Bravo, um vom Befehls- in den Eingabemodus zu wechseln. Das Erfolgsgeheimnis grafischer Benutzungsoberflächen ist die Tatsa- che, daß sie ihre Arbeitsmodi hinter der Benutzerillusion verstecken können. Die Analogie von überlappenden Fenstern mit einem Stapel Papier ermöglicht eine intuitive Bedienbarkeit und verringert die kognitive Belastung des Nutzers, sich ständig Gedanken darüber zu machen, in welchem Arbeitsmodus er sich momen- tan befindet, und welche Operationen er in diesem Modus ausführen kann.4 Die Implementierung einer Smalltalk-Klasse für überlappende Fenster war ei- nes der ersten Projekte, das von Diane Merry nach der Portierung der Software auf den Alto im Sommer 1973 in Angriff genommen wurde. Fenster waren in dieser ersten Version noch einfache Rechtecke ohne weitere Bedienelemente. Die

1 Teitelman 1984, S. 45ff. 2 Card et al. 1984, S. 240; Kay 1996, S. 537. 3 Levy 1995, S. 60f. 4 Kay 1990, S. 197; Bardini 2000, S. 217 (Manuskript).

330 6.7 Smalltalk und die grafische Benutzungsoberfläche

Abbildung 99. Be- nutzungsoberfläche von Smalltalk-76 mit überlappenden Fenstern, Icons für den elektronischen Briefkasten und die Uhr sowie dem System Browser von Larry Tesler.

Klasse wurde allerdings in den folgenden Jahren häufig umgeschrieben und mehr- fach völlig neu programmiert. Dabei wurde ein Fenster um eine ganze Reihe von neuen Elementen ergänzt. Von GRAIL übernahm man beispielsweise die Kon- vention, daß man das Fenster durch Anklicken bestimmter Regionen, sogenannter Schaltflächen, bewegen, schließen oder in seiner Größe ändern konnte.1 Im Lau- fe der Zeit wurden die Fenster um eine Titelbezeichnung sowie einen Rollbalken zur Navigation ergänzt und konnten in mehrere Unterfenster aufgeteilt werden (Abb. 99). Eine objektorientierte grafische Benutzungsschnittstelle Obwohl die Entwicklung der grafischen Benutzungsoberfläche also im wesentli- chen eklektischer Natur war, nicht geplant wurde und auf keiner Theorie basier- te, besaß Smalltalk-76 schließlich eine sehr homogene und einheitliche Mensch- Computer-Schnittstelle. Dies war in hohem Maße auf die Prinzipien der Objekt- orientierung und der Vererbung zurückzuführen, die bei Smalltalk-76 neu ein-

1 Kay 1996, S. 537f.; Ingalls 1983, S. 12; Ellis et al. 1969a, S. 6f.

331 6. Xerox PARC und die Architektur der Information geführt wurde. Vererbung bedeutet, daß eine Unterklasse die Eigenschaften und Methoden der übergeordneten Klasse übernimmt, zusätzlich aber weitere Eigen- schaften und Methoden enthält, die sie von einer anderen Unterklasse unterschei- det. Am Beispiel der Benutzungsoberfläche von Smalltalk-76 (Abb. 100) soll dies näher erläutert werden. Alle Elemente der Benutzungsoberfläche sind Gattungs- objekte, die zunächst nicht näher spezifiziert sind. Ein typisches Element ist z. B. ein Bildschirmfenster, das zunächst nichts anderes ist als ein rechteckiges Feld auf der Bildschirmoberfläche. Jedes Objekt der Klasse Rechteck wird durch Angaben zur Bildschirmposition, Größe, Dicke der Randlinie und seine Füllung vollstän- dig beschrieben. Alle Fenster, aber auch der stilisierte Kalender in Abbildung 99 gehören der Klasse Rechteck an. Fenster besitzen aber, anders als der Kalender weitere charakteristische Eigenschaften. Die Unterklasse Fenster enthält also alle Eigenschaften des Rechtecks und wird durch neue Elemente wie den Titel, Roll- balken und die diversen Schaltflächen zur Manipulation des Fensters ergänzt.1 Für eine spezielle Anwendung könnte es außerdem notwendig sein, zusätzliche Teilfenster zu definieren, die eine Unterklasse der Fenster wären. Erst oberhalb dieser Ebene werden die Fenster der Benutzungsoberfläche mit konkreten An- wendungen verbunden. Dabei waren die hier angegebenen Browser typische An- wendungen, wie sie während der siebziger Jahre am PARC entwickelt wurden. Ein Browser ist ein hierarchischer Datenfilter, mit dem die logische Struktur eines bestimmten Datenbestandes – einer Datenbank, eines Netzplans, eines Schaltkrei- ses oder eines Buchs – grafisch dargestellt wird.2 Der meistverwendete Browser war der von Larry Tesler entwickelte System Browser, mit dem die Klassenhierarchie von Smalltalk dargestellt und der Pro- grammtext der Klassen editiert werden konnte. In den vier oberen Fenstern wird dabei die Hierarchie der Klassen angezeigt, während in dem darunterliegenden großen Fenster der jeweils zugehörige Programmtext angezeigt wird. Indem der System Browser den herkömmlichen Texteditor als Werkzeug zur Erstellung von Programmen ersetzte, wurde vor allem die Möglichkeit geschaffen, existierende Programme besser lesbar zu machen, so wie es Adele Goldberg und Alan Kay als Ergebnis ihrer Arbeit mit den Kindern formuliert hatten.3 Beim Erstellen eines Anwendungsprogramms brauchte sich nun ein Program- mierer nicht mehr um die konkrete Implementierung von Fenstern kümmern. Er erzeugte lediglich ein Objekt der Klasse Fenster, das alle Bedienelemente in der

1 Die in Abbildung 99 gezeigte grafische Benutzungsoberfläche von Smalltalk-76 hatte zwar kei- ne Schaltflächen zum Schließen und Skalieren der Fenster, wohl aber Rollbalken. Diese waren allerdings normalerweise unsichtbar. Erst wenn man den Cursor mit der Maus auf die linke Be- grenzungslinie eines Fensters bewegte, wurde der Rollbalken sichtbar. 2 Kay 1984, 36f.; Herot 1980; Tesler 1981, S. 100ff., 116ff.; Weyer 1982. 3 Goldberg and Robson 1979, S. 151; Tesler 1981, S. 120ff.

332 6.7 Smalltalk und die grafische Benutzungsoberfläche

Gattungs- objekt ist wie dies au§er: neue Angaben Anzeige Genealogie Ihre Angaben?

Rechteck ist wie dies au§er: neue Angaben Anzeige Ursprung Ecke Mittelpunkt Rand Flächenfüllung

Fenster ist wie dies au§er: neue Angaben Anzeige Titel Rollbalken bewege erweitere öffne schließe Maustaste? Teil- sind wie dies au§er: neue Angaben fenster Anzeige Teilfenster Bezüge Quelle

Browser sind wie dies au§er: neue Angaben individuelle Spezifikationen

Datenbankbrowser Netzplanbrowser Schaltkreisbrowser Buch-Volltext-Browser Abbildung 100. Programmieren mit Vererbung. Man kann aus einem noch unspezifizierten Objekt ein Rechteck machen, indem man dem Sinn nach sagt »Ich will etwas wie dies, abge- sehen von ...«unddann Eigenschaften angibt wie die Lage des Ursprungs, die Breite, die Höhe usw. Ein Bildschirmfenster erbt die Eigenschaften des Rechtecks und besitzt zusätz- liche Eigenschaften wie Rollbalken, einen Titel und Möglichkeiten von Größe und Lage. Ein komplizierteres Fenster entsteht, wenn man neue Darstellungsmethoden für Teilfenster hinzufügt. Unterteilte Fenster lassen sich schließlich für unterschiedliche Anwendungspro- gramme, etwa eine Datenbank oder ein Zeichenprogramm, verwenden.

333 6. Xerox PARC und die Architektur der Information

Form enthielt, wie sie ein Systemprogrammierer bei der Definition der Klassen- hierarchie festgelegt hatte. Auf diese Weise hatten die objektorientierte Program- mierung und das Prinzip der Vererbung zur Folge, daß alle Anwenderprogramme eine einheitliche Benutzungsschnittstelle besaßen. Auf die gleiche Weise wurde auch ein einheitliches Interaktionsmodell festgelegt. Ebenfalls ein fester Bestandteil der grafischen Smalltalk-Benutzungsoberflä- che wie auch anderer am PARC entwickelter Programme waren Auswahlmenüs. Menüs konnten zu Beginn der siebziger Jahre bereits auf eine lange Geschich- te zurückblicken. Sowohl die SAGE-Software als auch die Grafik- und CAD- Programme der sechziger Jahre verwendeten Bildschirmmenüs.1 Ähnlich wie bei den Fenstern kann man auch bei Menüs zwei grundsätzliche Entwurfsverfahren unterscheiden. Menüskönnen an einem festen Platz des Bildschirms angeordnet sein, z. B. am oberen Bildschirmrand wie bei der Cedar-Benutzungsschnittstelle. Sie belegen dann zwar einen festen Anteil der knappen Bildschirmoberfläche, der Benutzer kann aber ständig erkennen, welche Befehle er zu einem bestimmten Zeitpunkt ausführen kann.2 Bei Smalltalk wurden hingegen, ähnlich wie auch beim Zeichenprogramm Markup, Menüs verwendet, die bei Betätigung der mitt- leren Maustaste am Ort des Cursors angezeigt wurden und deren Inhalt vom Kon- text abhängig war. Es wurden etwa völlig unterschiedliche Menüs angezeigt, je nachdem ob man sich im System Browser oder im Debugger befand. Obwohl sol- che Menüs besonders platzsparend sind und die Möglichkeit einer intelligenten Anpassung an die Situation ermöglichen, lassen sie den Benutzer vor der Akti- vierung im unklaren, welche Aktionen er durchführen kann.3 Das Modell, wie der Benutzer mit diesen Elementen der Benutzungsoberflä- che interagieren sollte, war bei Smalltalk ebenfalls durch die Grundprinzipien des objektorientierten Programmierens festgelegt. Hier unterscheidet man vor allem Arbeitsweisen mit Präfix- oder Postfixnotation. Bei der Postfixnotation, die z. B. bei Engelbarts NLS verwendet wurde, wurde zunächst ein Befehl festgelegt und erst dann die Operanden bestimmt. Dadurch »wußte« das System, was für eine Art von Eingabe folgen mußte und konnte entsprechende Hilfestellungen geben. Für den Benutzer war der Befehlsumfang eines solchen Systems allerdings nicht offensichtlich, er mußte ihn erst erlernen. Bei der Präfixnotation der Befehle wur- de hingegen zunächst ein Objekt und dann in einem Menü der gewünschte Befehl ausgewählt.4 Obwohl auch dieses Interaktionsmodell erlernt werden muß, sind bei der Verwendung von Fenstern und Menüs sowohl Operand als auch Opera- tor direkt erkennbar. Der Preis für die leichtere Erlernbarkeit war eine geringere

1 Hodgson and Ruth 1985; Perry and Voelcker 1989, S. 49. 2 Momentan nicht ausführbare Befehle werden deshalb durchgestrichen. 3 Lampson 1988, S. 316. 4 Newman and Sproull 1979, S. 451.

334 6.7 Smalltalk und die grafische Benutzungsoberfläche

Arbeitsgeschwindigkeit, wie überzeugte Mitarbeiter von Engelbart nicht müde werden zu betonen.1 Neben den ergonomischen Überlegungen entsprach die Präfixnotation auch der Syntax der Smalltalk-Programmiersprache. Jede Botschaft enthielt als erstes den Namen des empfangenden Objekts und danach den Text der Botschaft. In gleicher Weise wurde bei Smalltalk zuerst durch Anklicken das Empfängerobjekt festgelegt und danach aus einem Menü der zugehörige Text ausgewählt. Insofern war sowohl das Aussehen der Benutzungsoberfläche als auch das Interaktionsmo- dell ein genaues Abbild der Grundprinzipien von Smalltalk. Wenngleich die grafische Benutzungsoberfläche von Smalltalk innerhalb des PARC viel Aufsehen erregte, kam der Wissenstransfer zwischen den einzelnen Forschungsgruppen nur schleppend in Gang. Obwohl die wichtigsten Arbeiten der Learning Research Group bereits Ende 1975 abgeschlossen waren, wurde im Computer Science Laboratory erst 1978 für das bereits erwähnten Cedar-System eine ähnlich geschlossene Benutzungsoberfläche realisiert. Daniel Ingalls führt dies weitgehend auf die unterschiedlichen Techniken der dortigen Programment- wicklung zurück. Mesa war ursprünglich eine herkömmliche prozedurale Pro- grammiersprache, bei der sich objektorientierte Konzepte längst nicht so ele- gant und effizient umsetzen ließen wie in Smalltalk. Erst nachdem auch Ele- mente der objektorientierten Programmierung integriert wurden, erreichte die Entwicklung eine ähnliche Produktivität wie bei der Verwendung von Small- talk.2 Die PARC-Entwickler von Interlisp nahmen hingegen die Idee der gra- fischen Benutzungsschnittstelle wesentlich leichter auf und benutzten spätes- tens seit 1977 eine Mensch-Computer-Schnittstelle, die eine exakte Kopie der Smalltalk-Benutzungsoberfläche war.3 Systematisch und theoretisch fundiert wurde die Entwicklung einer grafischen Benutzungsschnittstelle allerdings erst beim System Development Department (SDD) in Palo Alto durchgeführt, das 1975 gegründet wurde, um eine markt- fähige Workstation für das Büro zu konstruieren.

1 Lehtman 1997; Belleville 1988 weist dabei unter anderem darauf hin, daß man beim Löschen eines Wortes in NLS nach der Eingabe des Befehls nur auf einen Buchstaben klicken mußte, während man bei Smalltalk alle Buchstaben des Wortes markieren mußte. 2 Email von Daniel Ingalls an den Autor, 11. März 1998; Sweet 1985. 3 Teitelman 1977; Email von Larry Tesler an den Autor, 7. März 1998 und von Daniel Ingalls an den Autor, 11. März 1998.

335 6. Xerox PARC und die Architektur der Information

6.8 Der lange Weg zum Produkt

6.8.1 Das Ende von Xerox Data Systems

Mitte der siebziger Jahre mußte Xerox seine Strategie im Computerbereich neu definieren. Dem Tochterunternehmen Xerox Data Systems in El Segundo war es nicht gelungen, IBM bei den Großcomputern ernsthaft Konkurrenz zu machen, wie es sich Peter McColough 1969 vorgestellt hatte. Auch die Zusammenarbeit mit dem Forschungszentrum in Palo Alto funktionierte nicht wie geplant: SDS hatte schon in den sechziger Jahren nur sehr zögernd Time-Sharing-Computer auf den Markt gebracht und nie wirklich eigene Kompetenz auf diesem Gebiet entwickelt. Der Erfolg des Unternehmens basierte vielmehr auf der geschickten Vermarktung existierender Technologie und nicht auf eigenen Innovationen. Auch nach der Übernahme durch Xerox änderte sich dies nicht. XDS besaß einfach nicht die Kapazität und den Willen, um die Erfindungen des PARC in Produkte umzusetzen.1 Seitdem das Unternehmen 1972 von der Federal Trade Commission angeklagt worden war, den Kopierermarkt auf unzulässige Weise zu monopolisieren und schließlich dazu gezwungen wurde, Lizenzen auf seine Patente an andere Unter- nehmen zu vergeben, befand sich Xerox in einer ernsthaften Krise. Als die ame- rikanische und japanische Konkurrenz daraufhin sehr schnell mit besseren und preiswerteren Geräten auf den Markt kam, verlor Xerox in seinem angestammten Geschäftsfeld zunehmend an Boden.2 Vor diesem Hintergrund begann Xerox mit der Umstrukturierung seiner Com- puteraktivitäten. XDS verlor 1972 zunächst seine Unabhängigkeit, wurde enger in das Unternehmen eingebunden. Dann entschied sich das Management, die direkte Konfrontation mit IBM aufzugeben und zu einer Nischenstrategie zurückzukeh- ren. Weil XDS nun aber von Managern geleitet wurde, die zwar den Kopierer-, nicht aber den Computermarkt kannten, scheiterte auch diese Strategie letztend- lich. Im Juli 1975 wurde Xerox Data Systems schließlich aufgelöst, die Investi- tion von fast einer Milliarde Dollar abgeschrieben und ein Teil der ehemaligen Beschäftigten auf andere Abteilungen verteilt.3 Nachdem die Forschung des PARC schon bis 1975 eine Vielzahl von innova- tiven Ideen, Geräten und Programmen entwickelt hatte, und nachdem der Einsatz des Alto bei Ginn & Co. sehr erfolgreich gewesen war, begann man bei Xerox darüber nachzudenken, wie man die am PARC entwickelte Technologie in markt- fähige Produkte transferieren könne. Zu diesem Zweck wurde auf Anregung von

1 Smith and Alexander 1988, S. 122ff. 2 Uttal 1978; Smith and Alexander 1988, S. 117ff. 3 Smith and Alexander 1988, S. 122, 184, 205.

336 6.8 Der lange Weg zum Produkt

George Pake und Xerox’ Chefwissenschaftler Jack Goldman Mitte 1975 das Sys- tem Development Department (SDD) gegründet, das in Palo Alto, in unmittelbarer Nachbarschaft des PARC und in El Segundo (Südkalifornien) angesiedelt wurde. Leiter des SDD wurde David Liddle, der seit 1972 Mitarbeiter bei POLOS gewe- sen war und im Gegensatz zu den meisten anderen Beschäftigten des PARC Indus- trieerfahrung besaß. Liddle versicherte sich der Mitarbeit der Stars des Computer Science Laboratory und engagierte Ron Rider, Charles Simonyi, Robert Metcalfe und Chuck Thacker als Mitarbeiter bzw. Berater für seine Abteilung. Wenig später kamen auch David Smith, Charles Irby, Hugh Lauer sowie ehemalige Mitarbeiter von XDS hinzu.1 Damit hatte das Personal des System Development Department einen signifikant anderen Charakter als das des PARC. Der kanadische Technik- historiker Thierry Bardini hat darauf hingewiesen, daß das Personal am PARC einen stark universitären Hintergrund hatte, während die Mitarbeiter der SDD mehrheitlich aus dem industriellem Umfeld kamen und daß dies Auswirkungen auf die Eigenschaften der von ihnen entwickelten Star-Workstation hatte.2

6.8.2 Die Ablehnung des Alto

Während sich das System Development Department mit einer mittelfristigen Pro- duktentwicklung beschäftigen sollte, befaßte sich eine Planungsgruppe mit der Frage, wie Xerox’ nächstes Textverarbeitungssystem aussehen sollte. Neben dem PARC und SDD entwickelte auch die Office Products Division in Dallas com- putergestützte Bürotechnik. Sie hatte mit einigem Erfolg traditionelle Büroma- schinen hergestellt und 1974 mit dem »850« ein einfaches System zur Textverar- beitung auf den Markt gebracht, das allerdings eine Weiterentwicklung der elek- trischen Schreibmaschine war. Obwohl diese Geräte ein ausgezeichnetes Preis-/ Leistungsverhältnis hatten, besaßen sie einen wichtigen Nachteil: sie waren nicht programmierbar.3 Als Konkurrenz zum 850 schlugen die beteiligten Manager des PARC und der SDD vor, ein System auf Basis des Alto auf den Markt zu brin- gen. John Ellenby, der den Alto bereits 1975 so überarbeitet hatte, daß er sich in Kleinserienproduktion herstellen ließ, hatte den Computer zusammen mit Chuck Thacker nochmals völlig überarbeitet und dabei auch den Haupt- und Mikropro- grammspeicher erweitert. Ellenby schätzte, daß der Alto III im 2. Quartal 1976 in Produktion gehen könnte und zwar mit geringeren Kosten als der »850«. Als auch ein weiteres Gutachten durch Ingenieure aus Rochester diese Analyse bestä- tigten, empfahl die Planungsgruppe zur Freude der PARC-Mitarbeiter im Sommer

1 Harslem and Nelson 1982, S. 377; Smith and Alexander 1988, S. 112f., 228f. 2 Bardini and Horvath 1995, S. 54f. 3 Minicucci 1974; Cumpston 1974; Kleinschrod 1974; Wohl 1977; Uttal 1981, S. 46ff.

337 6. Xerox PARC und die Architektur der Information

1976, den Alto III als Grundlage für Xerox nächstes Textverarbeitungssystem zu verwenden.1 Dennoch entschied sich die Unternehmensleitung letztlich entgegen der Emp- fehlung nicht für den Alto sondern für den 850, da es auch kritische Stimmen gab, die daran zweifelten, ob man aus der experimentellen Alto-Hardware innerhalb kurzer Zeit tatsächlich ein Produkt machen könne. Auch der zu erwartende Preis wurde als Argument gegen den Alto angeführt: bei Kosten von etwa 14 000 $ für den Alto II, müsse man einen Verkaufspreis von etwa 30 000 $ kalkulieren. Au- ßerdem sei der Alto ohne einen Laserdrucker für weitere 30 000 $ wertlos. Diese Kalkulation entsprachen der extrem vorsichtigen Geschäftstaktik, die Xerox unter seinem Präsidenten Archie McCardell, einem Finanzfachmann, seit 1972 prakti- zierte.2 Nicht berücksichtigt wurden bei dieser Kalkulation die Auswirkungen von Moores Gesetz auf die Kosten der projektierten Hardware. Ebenfalls unbe- rücksichtigt blieb die Möglichkeit, statt eines Laserdruckers preiswertere Nadel- oder Typenraddrucker als Bestandteil eines Textverarbeitungssystems anzubie- ten.3 Genau mit einer solchen Strategie hatte das bislang unbedeutende Unterneh- men Wang 1976 ein Computersystem auf den Markt gebracht, das es für einige Jahre zum Synonym für computergestützte Textverarbeitung werden ließ.4 Die Ablehnung des Alto durch das Management von Xerox hatte zumindest bei den idealistischen Mitarbeitern des PARC eine verheerende psychologische Wirkung. Alan Kay schrieb, »[that] this was a huge blow to many of us – even me, who had never really really thought of the ALTO as anything but a stepping stone to the ›real thing‹«.5 Der 18. August 1976 wurde so zu einem Wendepunkt in der bisherigen Erfolgsgeschichte des PARC. Unabhängig von der Entscheidung gegen den Alto III stellte sich etwa zur gleichen Zeit bei den Mitarbeitern des PARC allgemein das Gefühl ein, daß es an der Zeit sei, eine neue Hardwaregeneration zu entwickeln, um die Limitierungen des Alto bei Rechenleistung und Hauptspeicherausstattung zu überwinden.

6.8.3 Der NoteTaker

Alan Kay hatte bereits Ende 1975 mit den Mitarbeitern seiner Forschungsgrup- pe bei einem Seminar in Pajaro, 90 km südlich von Palo Alto, erläutert, daß die

1 Smith and Alexander 1988, 172f. 2 Einen sarkastischen Seitenhieb auf Xerox’übertriebene Vorsicht findet sich in Stewart Brands Ar- tikel über die (Sub-)kultur des Silicon Valley zu Beginn der siebziger Jahre. In diesem Artikel, in dem kein Unternehmen mit seinem richtigen Namen benannt wird, kann man die »Shy Corporati- on« eindeutig als Xerox identifizieren. Vgl. Brand 1974. 3 Smith and Alexander 1988, 174ff.; Kay 1996, S. 552. 4 Wohl 1977; Lee 1995, S. 704ff. 5 Kay 1996, S. 552.

338 6.8 Der lange Weg zum Produkt

Abbildung 101. Der Note- Taker, ein tragbarer Per- sonal Computer von Alan Kay und Douglas G. Fair- bairn.

Arbeit der Learning Research Group die »Balance verloren« habe. Die Idee des Dynabook verlor mehr und mehr von ihrem Leitbildcharakter, und bei der Ent- wicklung von Smalltalk begannen die Anforderungen der professionellen Pro- grammierer zu dominieren. Außerdem hatte er das Gefühl, daß der Alto mit sei- nen Schwächen begann, seine Nutzer zu formen statt umgekehrt. Deshalb schlug er vor: »Let’s burn our disk packs!«1 Kay wollte die bisher verwendete Hard- und Software aufgeben und stattdes- sen eine völlig neue, portable Computerhardware sowie eine benutzerfreundliche- re Variante der Software erstellen. Obwohl keiner der Mitarbeiter grundsätzlich widersprach, einigte man sich auf eine Doppelstrategie. Einerseits sollte die bishe- rige Linie mit einer neuen Version der Smalltalk-Programmiersprache fortgesetzt werden, andererseits wurde mit dem Entwurf eines neuen Computers begonnen. Da es sich um ein »hand-held device for notes« handeln sollte, erhielt er den Na- men NoteTaker.2 Es dauerte allerdings noch weitere zwei Jahre, bis Douglas Fairbairn mit dem Bau eines Prototypen beginnen konnte. In der Zwischenzeit hatte es so große Fort- schritte bei der Entwicklung von Mikroprozessoren gegeben, daß sich Kay und Fairbairn entschlossen, den Intel 8086 für den NoteTaker zu verwenden. Der No- teTaker stellte jedoch deutlich höhere Anforderungen an die Leistungsfähigkeit eines Prozessors als andere Mikrocomputer der Zeit. Deshalb mußten schließlich drei Mikroprozessoren verwendet werden: der erste für den Smalltalk-Interpreter,

1 Kay 1996, S. 549. 2 Ingalls 1983, S. 17; Goldberg 1998, S. 69.

339 6. Xerox PARC und die Architektur der Information der zweite für die Ansteuerung des Grafikbildschirms und der dritte für die Ab- wicklung aller weiteren Ein- und Ausgaben.1 Das Resultat war zwar ein portabler, batteriebetriebener Computer, aber kein »hand-held device« (Abb. 101). Die geringe Wortbreite und der kleine Hauptspeicher des NoteTaker machte auch die Überarbeitung von Smalltalk notwendig. Dazu wurden die Kernroutinen überarbeitet und ihr Speicherbedarf auf 6 kByte verringert sowie die Klassenbi- bliothek verkleinert. Obwohl die wichtigen Routinen für die Manipulation von Rastergrafiken (BitBlt) nicht die erwünschte Geschwindigkeit erreichten, führte der NoteTaker die Smalltalk-Instruktionen im Mittel zwei bis drei mal schneller aus als der Alto.2 Wiederum entstand bei den Wissenschaftlern das Gefühl, mit dem NoteTaker den Prototypen eines erfolgversprechenden Produkts konstruiert zu haben. Larry Tesler reiste mit dem NoteTaker während des Jahres 1979 durch das ganze Land, sprach mit Managern verschiedener Xerox-Abteilungen, die sich fast durchweg interessiert zeigten.3 Außerdem hatte Adele Goldberg die Idee, den NoteTaker für die Lösung eines internen Problems von Xerox zu verwenden. Seit einigen Jahren hatte Xerox Schwierigkeiten mit seinem Kundendienst, da die technische Doku- mentation mit der Geräteentwicklung nicht Schritt halten konnte und die Tech- niker vor Ort häufig nicht auf dem neuesten Stand waren.4 Goldberg schlug vor, den Kundendienst mit NoteTaker-Computern auszurüsten. Die darin gespeicherte Information hätte durch regelmäßige Datenübertragungen per Telefon ständig auf dem neuesten Stand gehalten werden können.5 Aber das Management entschied sich für die Einstellung des Projekts, diesmal mit dem Hinweis: »no one wants portability«.6 So blieb es Adam Osborne vor- behalten, im April 1981 mit dem Osborne 1 den ersten tragbaren Mikrocomputer auf den Markt zu bringen, der zumindest rein äußerlich sehr viel Ähnlichkeit mit dem NoteTaker besaß und zu einem glänzenden Erfolg wurde.7

1 Kay 1996, S. 558. 2 Ingalls 1983, S. 19. 3 Perry and Wallich 1985, S. 73; Email von Larry Tesler an den Autor, 4. Oktober 1998. 4 Kearns und Nadler 1993, S. 86ff. 5 Goldberg 1998, S. 70. 6 Goldberg 1998, S. 70. In einer Email an den Autor berichtete Larry Tesler über die mangelhafte Kommunikation zwischen den Wissenschaftlern und der Unternehmensleitung im Fall des No- teTaker: »To get an appointment with a Xerox VP (=Vice President, d. Autor) east of California required several months advance notice. Every time I got an appointment, they postponed the meet- ing before it occurred. After several postponements by two VP’s over the course of more than a year, I gave up and left Xerox«. 7 Anonymous 1981; Williams and Welch 1985, S. 205.

340 6.8 Der lange Weg zum Produkt

6.8.4 Der Dorado

Auch die Hardwareexperten des Computer Science Laboratory begannen 1976 mit der Planung eines leistungsfähigen Nachfolgers für den Alto. Die Konstruk- teure des Dorado unter der Leitung von Lampson, Thacker und Rider wollten aber nicht nur die Schwächen des Alto beheben, sondern auch neue Konzepte in einem experimentellen System testen, das kompatibel zum Alto war. Damit woll- te man einen Computer entwickeln, wie er innerhalb von fünf bis zehn Jahren auch kommerziell erhältlich sein könnte. Die ersten Prototypen dieses Rechners wurden nach eineinhalbjähriger Konstruktions- und Bauzeit im Herbst 1978 fer- tiggestellt. Es handelte sich um einen Minicomputer, der dank der fortschrittlichen ECL-Technologie (Emitter coupled logic) so schnell war wie der deutlich größere VAX-11/780-Minicomputer von Digital Equipment.1 Nach einer Überarbeitung der Architektur und einer Vereinfachung der Schaltungen ging der Dorado 1980 in eine kleine Serienfertigung und ersetzte den Alto als Arbeitsgerät der Wissen- schaftler.2 1977 hatte sich kurzzeitig auch das System Development Department für den Dorado interessiert. Aber schon nach einer kurzen Überprüfung der Entwürfe kam man zu dem Ergebnis, daß der Dorado nicht als Prototyp eines marktfähigen Bü- rocomputers in Frage kam. Die Kosten für den Dorado hätten bei etwa 50 000 $ gelegen, der daraus resultierende Verkaufspreis von schätzungsweise 150 000 $ hätte im gleichen Bereich wie der des VAX-11/780-Computers gelegen. Zu viel für einen Einbenutzercomputer in einer Büroumgebung.3

6.8.5 Der Xerox Star: Das Dokument ist das Herz der Welt

Das Ende des Bootstrapping Im Gegensatz zu der am PARC praktizierten Methodik sollte das Hardware- und Softwaresystem, das das System Development Department im Rahmen des Pro-

1 Die Gatterlaufzeiten beim Dorado lagen zwischen 2 und 4 ns. Dadurch konnte die Pipeline des Prozessors alle 60 ns einen Mikrobefehl ausführen. Zusätzlich besaß der Dorado einen bis zu 16 MByte großen Hauptspeicher und einen Prozessorbus mit einer Übertragungsbandbreite von 66 MByte/s. Vgl. Pier 1983; Clark et al. 1981, S. 18f. Die Technologiewahl brachte allerdings auch schwerwiegende Probleme mit sich. Der Dorado hatte eine Leistungsaufnahme von 2 500 Watt und produzierte so viel Abwärme, daß man ihn mit 56 m3 Luft pro Minute kühlen mußte. Die Lüftung erzeugte wiederum so viel Lärm, daß der als Arbeitsplatzrechner verwendete Dorado schließlich in einem Kellerraum aufgestellt werden, und Tastatur und Bildschirm wie bei einem Time-Sharing-Computer über lange Leitungen angeschlos- sen werden mußten. Vgl. Pier 1983, S. 267; Crosby and Elbaum 1994. 2 Thacker 1988, S. 285. 3 Crosby and Elbaum 1994, S. 18; Pearson 1992, S. 66.

341 6. Xerox PARC und die Architektur der Information jekts »Janus« entwickeln sollte, in allen Bereichen geplant und aufeinander ab- gestimmt von statten gehen. Die Anforderung an Hard- und Software sollten vor dem eigentlichen Beginn der Entwicklung festgelegt werden, und die Ent- wicklung selbst parallel zueinander ablaufen. Vor allem aber war man sich ange- sichts der Vielzahl von Mensch-Computer-Schnittstellen beim Alto einig, daß das System eine einheitliche grafische Benutzungsschnittstelle besitzen sollte, deren Funktionen bereits vor Projektbeginn definiert werden mußten. In bezug auf die verwendete Hardware war das Projekt, das schließlich den Namen »Star« erhielt, wenig innovativ. Im wesentlichen sollte er die wichtigsten Eigenschaften des Alto übernehmen und weiterentwickeln. Dabei stellte sich zu- nächst die Frage, auf welcher Maschine die Software entwickelt werden sollte, bis die endgültige Hardware für den Star fertiggestellt wäre. Man kam überein, zu diesem Zweck zunächst die existierenden Altos zu verwenden, weil auf ihnen die Programmiersprache Mesa verfügbar war. Als erster Prototyp für die Hard- ware wurde zwischen 1977 und 1979 unter der Leitung von Chuck Thacker der sogenannte »Dolphin« entwickelt, dessen Architektur dem Dorado ähnelte, aber technologisch weniger aggressiv war. Es stellte sich allerdings bald heraus, daß der Dolphin nur etwa doppelt so schnell wie der Alto und gleichzeitig für ein kommerzielles Produkt zu kompliziert war.1 Deshalb konstruierten Robert Belleville, Robert Garner und Ronald Crane 1979/80 nach einem Entwurf von Butler Lampson und Roy Levin den »Dan- delion«, der leistungsfähiger und kostengünstiger war als der Dolphin. Für die mikroprogrammierbare Zentraleinheit des Dandelion wurden Bitscheibenprozes- soren des Typs AMD 2901 von Advanced Micro Devices verwendet, einem jun- gen, aufstrebenden Elektronikunternehmen. Dadurch war der Dandelion der erste bei PARC bzw. SDD entwickelte Computer, der nicht mehr kompatibel zum Alto war. Ähnlich wie der Alto war auch der Dandelion mit einem großen hochauf-

lösenden Grafikbildschirm (17 Zoll Bilddiagonale, 1024¢808 Bildpunkte) und einer Festplatte mit 10 oder 29 MByte Speicherkapazität ausgestattet. Schließlich gehörte auch eine Ethernet-Schnittstelle zur Standardkonfiguration des Dandeli- on, da es auch mit den Star-Workstations möglich sein sollte, ein lokales Netz mit verteilten Ressourcen aufzubauen.2 Der mehrfache Wechsel der Hardware während des Entwicklungsprozesses hatte zur Folge, daß auch große Teile des Softwaresystems geändert oder völlig neu implementiert werden mußten. Diese Rückwirkungen der Hardware- auf die Softwareentwicklung hatte man allerdings von Beginn an in Kauf genommen.

1 Harslem and Nelson 1982, S. 379; Thacker 1988, S. 286. 2 Thacker 1988, S. 286f.; Smith et al. 1982, S. 517f.; Smith et al. 1983, S. 297f.; Johnson et al. 1989, S. 24; Harslem and Nelson 1982.

342 6.8 Der lange Weg zum Produkt

Bereits 1977 hatten Irby et al. bei der Darstellung ihrer Entwicklungsmethodik1 Frederick Brooks’ einflußreiches Buch »The Mythical Man-Month« zitiert, »[that the] question is not whether to build a pilot system and throw it away. You will do that. The only question is whether to plan in advance to build a throwaway, or to promise to deliver the throwaway to customers. . . . Hence plan to throw one away, you will, anyhow.«2 Dies bedeutete das Ende der bislang praktizierten evolutionären Methodik des Bootstrapping. Das Benutzermodell und seine Umsetzung Die neue Entwicklungsmethodik basierte auf der kognitiven Psychologie der Mensch-Computer-Interaktion, die am PARC während der frühen siebziger Jahre entscheidend mitentwickelt wurde. Geistiger Vater dieser psychologischen Teil- disziplin war der KI-Pionier Allen Newell, der seit Beginn der siebziger Jahre als Berater für das PARC tätig war. Unter dem Eindruck seines Werks »Human Pro- blem Solving« (1972) hatten sich Thomas P. Moran und Stuart K. Card erstmals mit der Psychologie des Computerbenutzers beschäftigt und wichtige theoretische Konzepte und entsprechende empirische Meßverfahren entwickelt, die während der Entwicklung bei SDD erstmals praktisch verwendet wurden.3 Nach dieser Theorie besteht eine Mensch-Computer-Schnittstelle »natürli- cherweise« aus vier Komponenten. Dazu gehören die dem Benutzer zur Verfü- gung stehenden Befehle, die sogenannte Befehlssprache, die unmittelbare Rück- meldung des Computers auf Benutzereingaben, eine sinnvolle Informationsdar- stellung sowie als übergeordnete Komponente ein Benutzermodell bzw. die be- reits erläuterte Benutzerillusion.4 Während das Benutzermodell bei den Wissenschaftlern am PARC entweder nur implizit vorhanden war, oder, wie im Fall von Alan Kay, sehr allgemein for- muliert war, machten sich die Mitarbeiter des System Development Department daran, genau zu beschreiben, »who the users are, what their goals are in perfor- ming the task, what information they use in performing it, what information they generate, and what methods they employ«.5 Bei der Definition des typischen Be- nutzers kam man überein, daß es sich um einen gelegentlichen Nutzer ohne spezi- elle Computervorkenntnisse handeln würde und weder um einen professionellen Programmierer noch um eine Schreibkraft, die den Großteil ihrer Arbeitszeit am Computer verbringt.6

1 Irby et al. 1977. 2 Brooks 1975, S. 116. Hervorhebungen im Original. 3 Card et al. 1980b; Card et al. 1980a; Card et al. 1983; Card and Moran 1988; Goldberg 1988, S. 489. 4 Newman and Sproull 1979, S. 445. 5 Smith et al. 1983, S. 300. 6 Johnson et al. 1989, S. 11.

343 6. Xerox PARC und die Architektur der Information

Es wurde weiterhin analysiert, welche Konzepte der Mensch-Computer- Interaktion als besonders einfach bzw. besonders schwierig empfunden wurden. Smith et al. kamen dabei auf folgende Klassifikation:1 Einfach Schwierig konkret abstrakt sichtbar unsichtbar kopieren und ändern neu erzeugen aus einer Liste auswählen leere Felder ausfüllen erkennen erzeugen editieren programmieren interaktiv batch Da die konkrete Gestaltung der Mensch-Computer-Schnittstelle mit dem Benut- zermodell in Einklang stehen sollte, plante man eine konsistente, modusfreie und einfache grafische Benutzungsoberfläche mit universellen Befehlen, die vom Be- nutzer nach seinen Bedürfnissen angepaßt werden konnte.2 Für die Gestaltung einer solchen Schnittstelle griffen die Entwickler des System Development De- partment auf die Elemente zurück, die in unterschiedlichen Projekten am PARC entwickelt worden waren, speziell für Smalltalk und Bravo. Ein vergleichsweise einfaches, aber dennoch sehr mächtiges Verfahren zur Formulierung eines Benutzermodells ist die Verwendung von Metaphern. Da der Star als System zur Büroautomation geplant war, bot es sich an, als Benutzer- modell die Büro- oder Schreibtischmetapher zu verwenden. Anders als bei der ursprünglichen Schreibtischmetapher von Alan Kay, der sich am Bild des elek- tronischen Papiers und seiner Möglichkeit als Medium orientiert hatte, orientierte sich die Bürometapher des Star ganz eng an den tatsächlichen Funktionen des Büros. Außerdem entschied man sich, die elektronischen Analogien als konkrete Objekte zu realisieren, die nicht wie bei vielen anderen Systemen als Namen von Dateien auf der Festplatte dargestellt wurden, sondern als Bilder auf der Bild- schirmoberfläche, die sich mit der Maus auswählen und mit wenigen universellen Befehlen manipulieren ließen. Nach dem Start des Systems wurde dem Benutzer die komplette Bildschirm- oberfläche als virtuelles Büro präsentiert. Auf dem Schreibtisch waren in Form von Icons alle vertrauten Bestandteile des Büros wie Dokumente, Ordner, Drucker oder Postfächer dargestellt. Icons waren – ganz in der objektorientierten Denk- weise von Smalltalk – eine hierarchisch organisierte Klasse, mit Unterklassen für Datenicons (Dokumente, Ordner etc.) und Funktionsicons (Drucker, Dateiserver,

1 Smith et al. 1983, S. 300. 2 Smith et al. 1983, S. 301.

344 6.8 Der lange Weg zum Produkt

Abbildung 102. Xerox 8010 »Star« Workstation (1981). Mit den Tasten auf der linken Seite der Tastatur werden die generischen Befehle gestartet. Mit den Funktionstasten an der Oberseite können bestimmte Textschnitte und -ausrichtungen festgelegt werden, ohne ein Property Sheet zu öffnen.

345 6. Xerox PARC und die Architektur der Information

Abbildung 103. Icons, wie sie für die Benutzungsschnittstelle des Star verwendet wurden. In der oberen Reihe die Datenicons für Dokumente, Ordner und Akten. In der unteren Reihe die Funktionsicons für ein lokales Diskettenlaufwerk, einen Drucker, einen Benutzer und den Postein- und -ausgangskorb.

Elektronische Mail), die in Abbildung 103 dargestellt sind.1 Um mit einem Do- kument arbeiten zu können, konnte das zugehörige Icon »geöffnet« werden und expandierte dann zu einem Bildschirmfenster, in dem die Daten angezeigt wur- den. Bei den Fenstern hatten sich die Entwickler wegen des großen Monitors für eine gekachelte Darstellung entschieden, da erfahrungsgemäß die Aufmerksam- keit des Benutzers in hohem Maße durch die Identifizierung des richtigen Fensters beansprucht wurde.2 Während der Benutzer bei anderen Computersystemen zunächst das passen- de Anwendungsprogramm starten mußte, waren die Entwickler des Star davon ausgegangen, daß der typische Nutzer mit dem Computer Dokumente erstellen, verändern und verschicken wollte und sich keine Gedanken darüber machen woll- te, mit welchem Anwendungsprogramm er welchen Dokumententyp in welcher Art bearbeiten kann. Da ihm das System diese Aufgabe abnahm, wurde der Com- puter mit seinen Programmen für den Benutzer weitgehend unsichtbar. Für ihn gab es nur Dokumente und Bürofunktionen wie editieren oder drucken.3 Bei einer solchen Sichtweise, bei der »das Dokument das Herz der Welt«4 ist, benötigte man nur sehr wenige, aber universelle Befehle. Die generischen Befeh- le des Star waren MOVE, COPY, DELETE, OPEN, SHOW PROPERTIES, COPY PROPERTIES, AGAIN, UNDO und HELP und hatten ihre eigenen Tasten auf der Tastatur. Um ein Dokument zu öffnen, wurde es mit Hilfe der Maus markiert und dann die OPEN-Taste betätigt. Ähnlich wie ein Objekt in Smalltalk »entschied« das Icon selbst, welches Anwendungsprogramm gestartet werden mußte. Noch offensichtlicher wurde die Leistungsfähigkeit bei einem Befehl wie MO- VE, der zur Initiierung höchst unterschiedlicher Funktionen verwendet werden 1 Smith et al. 1982, S. 519ff. 2 Smith et al. 1982, S. 518f; Smith et al. 1983, S. 301ff.; Johnson et al. 1989, S. 12. 3 Johnson et al. 1989, S. 20. 4 Johnson et al. 1989, S. 20.

346 6.8 Der lange Weg zum Produkt

Abbildung 104. Fortschreitende Enthüllung der Information. Die aktivierten Eigenschaften sind invers dargestellt. In der Titelzeile des Fensters sind Schaltflächen für solche Befehle angeordnet, die nur im Kontext des aktuellen Property Sheet verfügbar sind. konnte. Dazu wurde nach dem Markieren des entsprechenden Icons die MOVE- Taste betätigt. Je nachdem ob man nun mit der Maus auf das Icon für den Dru- cker, einen Ordner oder den Postausgangskorb klickte, wurde das Dokument aus- gedruckt, im Ordner abgelegt oder an einen anderen Nutzer verschickt. Auch hier »entschied« wieder jedes Icon selbst, wie es auf den Befehl reagieren sollte.1 Schließlich übernahm man von Smalltalk auch die Vorstellung, daß alle Ob- jekte, egal ob es sich um den Drucker, ein Textdokument oder ein Zeichen in ei- nem Text handelte, individuelle Eigenschaften besitzen, die ihr Verhalten bestim- men. Ansatzweise hatte man dieses Konzept auch bei Bravo umzusetzen versucht, wo es möglich war, jedem Zeichen zusätzliche Informationen über seine Größe, Schriftart und Schriftschnitt zuzuordnen. Da solche Informationen zwar nicht im- mer explizit zu erkennen waren, aber z. B. die Darstellung des Texts sichtbar be- einflußten, sprach man von einer fortschreitenden Enthüllung von Information. Während normalerweise nur diejenigen Informationen dargestellt wurden, die für die Arbeit des Benutzers wichtig waren, konnte man das System veranlassen, alle Eigenschaften anzuzeigen. Um etwa die Eigenschaften eines bestimmten Textelements zu verändern, wurde es mit Hilfe der Maus markiert und die Taste mit der Beschriftung SHOW PROPERTIES betätigt. Das System öffnete daraufhin ein sogenanntes Property

1 Smith et al. 1982, S. 525ff.; Smith et al. 1983, S. 307.

347 6. Xerox PARC und die Architektur der Information

Sheet (Abb. 104), in dem alle möglichen Eigenschaften eines Textelements ange- zeigt wurden und verändert werden konnten. Dabei wurde darauf geachtet, dem Benutzer stets zu zeigen, welche Alternativen ihm zur Verfügung standen. In glei- cher Weise konnte man aber auch die Eigenschaften von Dateien (z. B. Schreib- schutz) oder Druckern (z. B. Druckreihenfolge) ändern.1 Eine weitere Folge der veränderten Entwicklungsmethodik war die Einfüh- rung von Benutzertests, zumal sich die Entwickler bewußt waren, daß sie beim Entwurf des Bildschirmlayouts und der Icons keine Fachleute waren. Aus diesem Grund wurden vier Entwürfe bei professionellen Grafikern in Auftrag gegeben, die anschließend systematisch auf ihre Selbsterklärungsfähigkeit untersucht wur- den. Auch die Anzahl und Anordnung der Tasten auf der Maus war während der Entwicklung des Stars erneut ein Gegenstand ergonomischer Untersuchungen. Sie hatten zur Folge, daß der Star im Gegensatz zu NLS und Alto mit einer Maus mit nur zwei Tasten auf den Markt kam.2 Kein Star auf dem Computermarkt Aus unterschiedlichen Gründen dauerte es jedoch nach dem Beginn des Projekts Anfang 1977 über vier Jahre, bis Xerox ein fertiges Produkt vorstellen konnte. Dies lag nicht nur daran, daß die Software für den Star auf drei verschiedenen Rechnern entwickelt und deshalb häufig umgeschrieben werden mußte. Obwohl ein Teil der ursprünglich geplanten Funktionalität des Stars nicht mehr imple- mentiert werden konnte, umfaßte die Software 255 000 Zeilen Quellcode, die in 908 000 Mikroinstruktionen übersetzt wurden.3 Außerdem stellte sich die Aufteilung des System Development Department in zwei Teams für den Entwicklungsprozeß als hinderlich heraus. Obwohl zur Ver- besserung der Zusammenarbeit und Kommunikation ein eigenes überregionales Computernetz eingerichtet wurde, blieb die Kooperation zwischen den Gruppen unbefriedigend. Johnson et al. sehen den Hauptgrund für diese Probleme darin, daß die ehemaligen SDS-Mitarbeiter in El Segundo nicht den gleichen professio- nellen Hintergrund besaßen wie die Entwickler in Palo Alto.4 Trotzdem scheint die Produktivität des Entwicklungsteams mit 2 700 Zeilen Code pro Jahr und Kopf im Vergleich zu dem von Frederick Brooks angegebenen durchschnittlichen Wert von 1 500 Zeilen vergleichsweise hoch gewesen zu sein.5 Auch die Unternehmensführung an der Ostküste hatte ihren Anteil an der schleppenden Entwicklung. Nachdem 1979 die Office Products Division in Dallas

1 Johnson et al. 1989, S. 16f.; Smith et al. 1982, S. 523–525; Smith et al. 1983, S. 305f. 2 Bewley et al. 1983. 3 Harslem and Nelson 1982, S. 378. 4 Johnson et al. 1989, S. 25. 5 Harslem and Nelson 1982, S. 382.

348 6.8 Der lange Weg zum Produkt unter ihrem neuen, charismatischen Präsidenten Don Massaro völlig umstruktu- riert worden war, hatte dieser dem System Development Department seine Hilfe angeboten. Als Massaro allerdings bei der Konzernzentrale 15 Mio. $ beantrag- te, die er und Liddle als Kosten der verbleibenden Entwicklungsarbeiten und der Markteinführung veranschlagten, wurde dies von der Zentrale abgelehnt – mögli- cherweise auch, weil sich Massaro wegen seiner dynamischen Art keine Freunde unter den »Kopiererleuten« im Management gemacht hatte. Trotzdem versuch- te Massaro auch nach dieser Ablehnung, die Entwicklungsarbeiten des SDD mit Mitteln aus seinem regulären Etat weiter zu unterstützen. Erst im Frühjahr 1980 wurden Massaro schließlich doch die Mittel bewilligt, die für den Aufbau von Produktionsanlagen für den Star benötigt wurden.1 Mittlerweile drängte auch die Zeit. 1977 war mit dem Apple II ein erster Per- sonal Computer auf den Markt gekommen, der zwar bei weitem nicht so leis- tungsfähig und benutzerfreundlich war wie Xerox’ Star, aber als Pionierprodukt den Markt für preiswerte Einbenutzermaschinen dominierte. Nachdem schnell weitere Unternehmen Personal Computer auf den Markt brachten und selbst IBM 1980 mit der Entwicklung eines Mikrocomputers begann, wurde die Xerox 8010 Workstation, wie der Star nun offiziell hieß, im April 1981 endlich der Öffentlich- keit präsentiert. Die Reaktion der Fach- und Wirtschaftspresse auf Xerox’ innovatives und be- nutzerfreundliches System war einhellig positiv. Jonathan Seybold, einer der ein- flußreichsten Computerpublizisten, urteilte folgendermaßen: »This is a very different product. Different because it truly bridges word processing and typesetting functions; different because it has a broader range of capabilities than anything which has preceeded it; and different because it introduces to the commercial market radically new concepts in human engineering. (...)Ina broader context, we think that Star is a wa- tershed product. We believe that it will cause a lot of people to think of human/computer interfaces in a quite different terms. (...) Weare glad that the years of Xerox laboratory work have finally given birth to a com- mercial product. We think that the text processing world will be richer for it.«2 Und das Wirtschaftsmagazin Fortune überschrieb seinen hoffnungsvollen Ar- tikel zur Markteinführung des Star sogar mit »Xerox Xooms Towards the Office of the Future« und verglich darin den bisherigen Kopierergiganten Xerox mit dem

1 Smith and Alexander 1988, S. 228ff.; Kearns und Nadler 1993, S. 112ff. 2 Seybold 1981, S. 16-3, 16-18.

349 6. Xerox PARC und die Architektur der Information

Comic-Helden Superman, der sich aufmacht, die Computerindustrie zu revolutio- nieren.1 Aber so großartig die technischen Errungenschaften des Star auch waren, er wurde zu einem wirtschaftlichen Mißerfolg. Aus der Retrospektive fällt es rela- tiv leicht, die vielfältigen Gründe für dieses Scheitern anzugeben. Für die Ent- wickler des Star war es allerdings erheblich schwieriger abzusehen, wie sie dem gewöhnlichen Geschäftskunden in einer noch weithin von Großcomputern be- herrschten Welt die Verheißungen einer völlig neuen Art der Computernutzung vermitteln sollten. Insofern war der Star seiner Zeit weit voraus, ebnete allerdings den Weg für Produkte der zweiten und dritten Generation, deren Hersteller nicht nur technologisch von Xerox gelernt hatten. Beispielsweise war der Preis von an- fangs 16 596 $ ein Grund für die schlechten Verkaufszahlen. Obwohl der Star im Vergleich zu ähnlich leistungsfähigen Minicomputern wie der VAX-11/750 von Digital Equipment preiswert war, trat er in Konkurrenz zu anderen Einbenutzer- maschinen, eben den Personal Computern wie dem Apple II oder dem bald so erfolgreichen IBM Personal Computer, die mit 1 000–5 000 $ deutlich billiger, wenn auch weniger leistungsfähig waren.2 Am ehesten konnte man den Entwicklern des System Development Depart- ment zum Vorwurf machen, daß sie den aktuellen Trends in der (Mikro-)Com- puterindustrie zu wenig Aufmerksamkeit geschenkt hatten. Nur so konnte es pas- sieren, daß bei der Markteinführung des Star kein Tabellenkalkulationsprogramm zum Umfang des Softwaresystems gehörte. Diese Programme ermöglichten es, komplizierte Finanzpläne in wenigen Sekunden durchzurechnen, an bestimm- ten Stellen Zahlen zu variieren und unmittelbar die Auswirkungen auf eine oder mehrere Ergebnisgrößen zu beobachten. Tabellenkalkulationsprogramme für Mi- krocomputer wie den Apple II waren ein wichtiger Grund für den Verkaufser- folg dieser Geräte bei Geschäftsleuten.3 Das Fehlen dieses und anderer wichtigen Software-Werkzeuge beim Star war für diesen Kundenkreis ein wichtiges Argu- ment gegen die Anschaffung eines Star.4 Xerox praktizierte außerdem eine technologische Geheimniskrämerei, die ur- sprünglich zum Ziel gehabt hatte, den eigenen Entwicklungsvorsprung gegenüber der Konkurrenz zu bewahren. Sie führte jedoch, anders als noch beim Alto, zu ei- ner monolithisch empfundenen Architektur, die zu keinem Konkurrenzprodukt kompatibel war. Aus dem gleichen Grund weigerte sich das Unternehmen auch lange Zeit, ihre Programmiersprache Mesa an Dritte zu lizenzieren. Da die Pro- gramme für den Star ausschließlich in Mesa entwickelt werden konnten, war es

1 Uttal 1981. 2 Baecker and Buxton 1987, S. 650. 3 Cringely 1993, 72ff. 4 Hammer 1984; Johnson et al. 1989, S. 25; Miller and Johnson 1996, S. 92.

350 6.9 Das Labor, das Xerox davonlief für Softwareunternehmen nicht möglich, Programme für spezielle Anwendungen oder die individuellen Bedürfnisse ihrer Kunden anzubieten.1 Durch seine im Vergleich zur Hardware überambitionierte Software wurde der Star von den Benutzern auch als langsam empfunden. Obwohl Leistungsmessun- gen ergaben, daß Arbeiten mit dem Star Editor objektiv schneller durchgeführt wurden als mit anderen Textverarbeitungssystemen, trugen die subjektiven Emp- findungen der Nutzer maßgeblich zu ihrer Unzufriedenheit mit dem System bei.2 Letztlich besaß Xerox auch nicht die Verkaufsorganisation, die den Star auf dem enger werdenden Markt für Personal Computer und Workstations der anvi- sierten Kundschaft nahebringen konnte, zumal IBM seinen Personal Computer ab August 1981 mit einer großangelegten Werbekampagne zu einem riesigen Er- folg machte, dem das wirtschaftlich angeschlagene Kopiererunternehmen nichts entgegenzusetzen hatte.3

6.9 Das Labor, das Xerox davonlief

Die jahrelangen Querelen zwischen den PARC-Entwicklern und dem Xerox- Management an der Ostküste und die zögerliche und letztlich wenig erfolgrei- che Umsetzung von Forschungsergebnissen in Produkte führten bei vielen Mit- arbeitern zu dem Gefühl, daß Xerox nicht länger das Unternehmen war, bei dem die wirklich wichtigen Entwicklungen stattfanden. Außerdem machten sich viele Wissenschaftler nach fast zehn Jahren auch Gedanken über den Fortgang ihrer Karriere und die Möglichkeit, das am PARC erworbene Wissen im eigenen Un- ternehmen erfolgreicher zu verwerten.4 Zu den ersten Wissenschaftlern, bei denen sich ein solcher Eindruck einstellte, gehörte Alan Kay, der nach der Einstellung des NoteTaker-Projekts frustriert war, weil das Unternehmen immer weniger an seiner Vision des Dynabook interessiert war, das keine Workstation, sondern eine Playstation hätte sein sollen. Nachdem sich Alan Kay bereits 1979 wegen einer schweren Krankheit nicht mehr um seine Forschungsgruppe hatte kümmern können, nahm er im März 1980 ein Sabbat- jahr, von dem er nicht wieder zu Xerox zurückkehrte. Er wechselte zunächst als Chefwissenschaftler zu Atari und wurde 1984 schließlich »Vordenker« bei Apple. Doug Fairbairn, John Ellenby und Larry Tesler verließen das Unternehmen eben- falls noch 1980. Der Exodus setzte sich in den nächsten zwei Jahren fort, in de- nen sich Charles Simonyi, William Sutherland, Charles Geschke, John Warnock

1 Baecker and Buxton 1987, S. 650. 2 Smith and Alexander 1988, S. 235; Baecker and Buxton 1987, S. 650; Miller and Johnson 1996, S. 92f. 3 Smith and Alexander 1988, S. 237f.; Card 1996, S. 136f. 4 Perry and Wallich 1985, S. 75.

351 6. Xerox PARC und die Architektur der Information und David Liddle nach anderen Betätigungsfeldern umsahen. Anfang September 1983 wurde auch die Öffentlichkeit auf den Exodus bei einem der kreativsten Forschungszentren der siebziger Jahre aufmerksam, als Fortune unter dem Titel »The Lab that ran away from Xerox« darüber berichtete. Fast schon schadenfroh wurde dort George Pake mit den Worten zitiert: »My friends tease me by calling PARC a national resource«.1 Nur zwei Wochen später spitzte sich der schwelende Konflikt zwischen den verbliebenen Gründern des PARC und dem neuen Direktor, William Spencer, so weit zu, daß auch Robert Taylor, Butler Lampson und Chuck Thacker kündig- ten, um ein Angebot von Digital Equipment anzunehmen, ein PARC-ähnliches Forschungszentrum in Palo Alto aufzubauen.2 Sofern die ehemaligen PARC-Mitarbeiter nicht zu Apple Computer, Digital Equipment oder wechselten, gründeten sie eigene Unterneh- men. Zu diesen Neugründungen gehörten unter anderem die heutigen Branchen- riesen Adobe Systems (Warnock, Geschke) und 3COM (Metcalfe). Bei all diesen Unternehmen wurde das technologische Erbe des PARC gepflegt und weiterent- wickelt. Bei ihnen sollten aus den Ideen von Vannevar Bush, Joseph Licklider, Douglas Engelbart, Bob Taylor und Alan Kay erstmals auch erfolgreiche Produk- te hervorgehen. Was waren also die Gründe für das spektakuläre Scheitern von Xerox’ ambi- tionierten Plänen? Es ist zu einfach, aus der Kenntnis der weiteren Entwicklung heraus zu behaupten, das Management des Unternehmens habe den technologi- schen Vorsprung in ignoranter Weise leichtfertig verspielt, wie dies Smith und Alexander im Fazit ihres Buches »Fumbling the future« getan haben.3 Dabei kann nicht bestritten werden, daß das Unternehmen nach Peter McColoughs richtungsweisender Rede, der Übernahme von Scientific Data Sys- tems und der Gründung des PARC viele der sich bietenden Möglichkeiten nicht erkannt oder nicht richtig bewertet hatte. Andererseits befand sich Xerox nach den Untersuchungen der Monopolkommission und der Freigabe der Xerographiepa- tente in einer schwierigen wirtschaftlichen Lage, in der die Konsolidierung der etablierten Geschäftsfelder gegenüber riskanteren Expansionsstrategien zunächst Vorrang hatte. Vor allem aber waren im Zuge der Diversifikation Strukturen geschaffen wor- den, die einem reibungslosen Transfer von Forschungsergebnissen in marktreife Produkte entgegenstanden. Dies begann mit der Wahl des Standorts, bei der die Wissenschaftler des PARC zwar im innovativen Silicon Valley angesiedelt, aber

1 Uttal 1983b, S. 97. 2 Perry and Wallich 1985, S. 75; Smith and Alexander 1988, S. 250ff.; Brown and Squires 1990, S. iv. 3 Smith and Alexander 1988, S. 237f.

352 6.9 Das Labor, das Xerox davonlief von der Unternehmensleitung und den Zentren der Produktentwicklung an der amerikanischen Ostküste abgeschnitten wurden. In geringerem Maße galt dies auch für die räumliche Entfernung zwischen dem PARC und Xerox Data Systems in El Segundo, 500 km südlich von Palo Alto, die ursprünglich die Produktent- wicklung übernehmen sollten. Peter McColough selbst war seit Mitte der siebziger Jahre mit politischen Aufgaben innerhalb der demokratischen Partei so beschäftigt, daß er die Leitung des Unternehmens weitgehend Archie McCardell überließ und demnach auch die Realisierung seiner Vision des »Büros der Zukunft« aus den Augen verlor.1 Auch die Organisation des Palo Alto Research Center war nicht unproblema- tisch. Dabei war die flache, adhokratische Struktur an sich besonders gut geeignet, um in kurzer Zeit technische Innovationen zu produzieren. Robert Taylor war mit seinen langjährigen Erfahrungen bei der Leitung von Forschung und vor allem seinen kommunikativen Fähigkeiten auch der ideale Laborleiter. Taylors infor- meller Führungsstil, der die Konkurrenz zwischen starken Persönlichkeiten und die Selbstorganisation der Projekte förderte, besaß allerdings auch Schwächen. Taylor gewährte zwar jedem Mitarbeiter die größtmöglichen Freiheiten, war aber nicht in der Lage, eine Gruppe von talentierten Individualisten zu einem wirkli- chen Team mit gemeinsamen Zielen zu machen. Der schweizer Informatiker Niklaus Wirth, der die Jahre 1976/77 als Gastwis- senschaftler am PARC verbrachte, hatte etwa das Gefühl, »dass allzu sehr auf In- dividuen abgestellt und eher zu wenig koordiniert wurde.«2 Dies führte dazu, daß hochmotivierte und kreative Wissenschaftler auch unkonventionelle Ideen reali- sieren konnten, während andere mit der fehlenden Führung ihre Probleme hatten. So äußerte Charles Simonyi, der 1980 als Anwendungsentwickler zu Microsoft gewechselt war, die Überzeugung, »[that it] was not enough to have the freedom to do what I wanted, I needed that others also do what I wanted. Taylor could not help there. did.«3 Insofern darf bezweifelt werden, ob der adho- krative Führungsstil von Robert Taylor sich überhaupt dazu geeignet hätte, ein Hard- und Softwaresystem zu entwerfen, daß den Erfordernissen des Marktes für Bürocomputer gerecht geworden wäre. Trotz der flachen Hierarchie gab es auch am PARC Wissenschaftler, die »glei- cher als die anderen« waren. Butler Lampson und Chuck Thacker hatten beispiels- weise freie Hand bei der Wahl ihrer Forschungsprojekte und damit auch erhebli- chen Einfluß auf die Arbeit der anderen Wissenschaftler. Robert M. Metcalfe ist

1 Vgl. Smith and Alexander 1988, S. 130ff.; Blodgett and Pope 1975. McColough war unter anderem maßgeblich an der Kampagne für die erfolgreiche Präsidentschaftskandidatur von Jimmy Carter beteiligt. 2 Email von Niklaus Wirth an den Autor, 23. Januar 1998. 3 Email von Charles Simonyi an den Autor, 9. März 1998.

353 6. Xerox PARC und die Architektur der Information etwa der Überzeugung, daß er sein Ethernet-Projekt nicht hätte durchführen kön- nen, wenn Charles Thacker sein eigenes Netzwerkprojekt nicht zuvor aufgegeben hätte.1 Andererseits wurde das von Jerry Elkind ausdrücklich abgelehnte Projekt zur Entwicklung des Alto-Computers erst durch die Beteiligung von Lampson und Thacker ermöglicht.2 Durch die personelle Kontinuität, die wenig ausgeprägte Hierarchie und die Freiheit bei der Wahl der Forschungsgebiete wurden auch die typischen Einstel- lungen der ARPA-Wissenschafter am PARC weiter gepflegt. So wurde beispiels- weise im Nachhinein beklagt, das PARC habe die zur Verfügung stehenden fi- nanziellen Ressourcen nicht immer nach ökonomisch sinnvollen Kriterien einge- setzt. Ähnlich wie das Pentagon habe man einige Projekte ungeachtet aller Kosten durchgeführt. Schließlich pflegten die PARC-Wissenschaftler ein elitäres Selbst- bewußtsein. Entwicklungen, die nicht den selbstgesetzten hohen technischen An- forderungen entsprachen, wurden belächelt oder ignoriert. In einer Mischung aus Arroganz und Naivität ging so zunehmend der produktive Austausch mit ande- ren innovativen Bereichen der Computerindustrie, etwa dem aufstrebenden Be- reich der Mikroprozessorentwicklung, verloren.3 Der Hang zum Perfektionismus und die Ablehnung jeglicher Kompromisse waren auch die Hauptursache für das Scheitern des Xerox Star, den seine Entwickler als ein Gerät konzipierten, das nicht den Bedürfnissen des Marktes, sondern vor allem den eigenen Ansprüchen genügen mußte. Xerox war freilich nicht das einzige Unternehmen der Computerindustrie, das solche und ähnliche Erfahrungen machen mußte. AnnaLee Saxenian hat bei- spielsweise darauf hingewiesen, daß auch Digital Equipment während der achtzi- ger Jahre ähnliche Mißerfolge erlebte. Das Bostoner Unternehmen konnte eben- falls nicht im gewünschten Umfang von den Forschungsergebnissen seines For- schungslabors in Palo Alto profitieren, zu deren Gründungsvätern 1983 ironi- scherweise auch Bob Taylor, Butler Lampson und Chuck Thacker gehört hatten.4 Das nächste Kapitel wird illustrieren, daß selbst ein Unternehmen wie Apple, das als erstes die am PARC entwickelten Konzepte in wirtschaftlich erfolgreiche Produkte umzusetzen wußte, zunächst erhebliches Lehrgeld zu zahlen hatte.

1 Metcalfe 1994, S. 85f. 2 Email von Alan C. Kay an den Autor, 12. März 1998. – Noch heute nennt Alan Kay den Namen von Jerry Elkind in diesem Zusammenhang nicht explizit, sondern bezeichnet ihn verschwörerisch als executive X. 3 Lammers 1986, S. 28; Smith and Alexander 1988, S. 147. 4 Saxenian 1994, S. 137.

354 7. Die Computer für den Rest von uns

[Personal machines] will be delayed in coming principally by costs, and we know that costs will go down, how much and how rapidly none can tell. Vannevar Bush1

Nachdem bereits darauf hingewiesen wurde, daß weder das Stanford Research Institute noch das Palo Alto Research Center bzw. Xerox ihre Forschungs- und Entwicklungsergebnisse in kommerziell erfolgreiche Produkte überführen konn- te, handelt dieses Kapitel von der unerwartet erfolgreichen Entwicklung der Mi- krocomputer während der siebziger Jahre. Sie wird häufig als eigentliche Ge- schichte des Personal Computers betrachtet, ohne die Vielzahl von kulturellen, technischen und wirtschaftlichen Einflüssen zu betrachten, die vorausgingen. Die- se Entwicklung brachte eine Reihe von neuen technologieorientierten Unterneh- men hervor, denen es zu Beginn der achtziger Jahre mit wirtschaftlichem Erfolg gelang, benutzerfreundliche »Computer für den Rest von uns«2 auf den Markt zu bringen. Dazu muß allerdings zunächst skizziert werden, aus welchen Quel- len die sogenannte »zweite Computerrevolution«3 gespeist wurde und wie wenig revolutionär diese Entwicklung eigentlich war.4

7.1 Mikroprozessoren, Bastler und Homecomputer

7.1.1 Der Volkscomputer »Ready or not, computers are coming to the people. That’s good news, maybe the best since psychedelics.« Mit diesen Worten begann Stewart Brand im Dezem-

1 Bush 1967, S. 100 2 Mit diesem Slogan warb Apple Mitte der achtziger Jahre für den . Vgl. Scott 1991. 3 Bylinsky 1980. 4 Pfaffenberger 1988. Die Argumentation des folgenden Abschnitts folgt weitgehend derjenigen von Ceruzzi 1996.

355 7. Die Computer für den Rest von uns ber 1972 seinen Artikel »Life and Symbolic Death Among the Computer Bums« für das Rolling Stone Magazine, in dem er die Arbeit und das Lebensgefühl vie- ler Computerwissenschaftler im Großraum San Francisco beschrieb. Brand hatte sich zu diesem Zeitpunkt bereits als Herausgeber des Whole Earth Catalog einen Namen als Held der kalifornischen Gegenkultur gemacht, an LSD-Experimenten bei SRI teilgenommen und Douglas Engelbart bei der Vorbereitung seiner Prä- sentation 1968 geholfen.1 Die von ihm porträtierten Leute nutzten teure Computer als Einbenutzerma- schinen und für unproduktive Tätigkeiten wie Computerspiele. Sie gehörten einer neuen Generation von Hackern an, die sich im Umfeld des von John McCarthy ge- leiteten Stanford Artificial Intelligence Laboratory sammelte. Sie hatten nicht nur die Liebe für den Computer und das Programmieren gemeinsam, sondern auch bestimmte Glaubensgrundsätze, die sogenannte Hackerethik. Dazu gehörte unter anderem die Forderung, der Zugang zu Computern müsse völlig unbeschränkt und alle Information frei verfügbar sein. Außerdem hatten die Hacker ein starkes Mißtrauen gegen jede Form von Autorität und Zentralisierung verinnerlicht.2 Die Hacker am MIT hatten den Ruf, sozial unangepaßt, wenn nicht gar welt- fremd zu sein und besaßen noch weniger politisches Bewußtsein als kaufmänni- sches Talent; sie waren durchweg reine Techniker. Ihre kalifornischen Cousins waren hingegen teilweise durch die Bürgerrechts- und Anti-Vietnam-Bewegung mit ihrem Zentrum an der Universität Berkeley beeinflußt.3 Sie gaben dem Com- puter eine politische Bedeutung, die er im Hauptstrom der Industrie nicht hätte gewinnen können. Eine kleine Gruppe politisch aktiver Informatikstudenten traf sich beispiels- weise im Frühjahr 1970, um über Informationspolitik zu diskutieren. Bedauernd konstatierten sie, daß der Computer zu Zwecken des Profits und der Machtaus- übung von den gleichen militärischen und industriellen Gruppen monopolisiert werde, die auch alle anderen wichtigen Technologien kontrollierten. Sie waren aber auch davon überzeugt, mit dem Computer den Schlüssel zu einer echten Ba- sisdemokratie zu besitzen und gründeten unter dem Namen Resource One einen gemeinwirtschaftlichen Computernutzungsbetrieb. Sie erklärten in ihrem Mittei- lungsblatt: »Sowohl die Menge als auch der Inhalt verfügbarer Informationen wird von zentralisierten Institutionen bestimmt – der Presse, dem Fernsehen,

1 Brand 1974, S. 39 (Zitat); Ceruzzi 1996, S. 1f. Beim Management von Xerox an der Ostküste ent- stand durch Brands Artikel ein fataler Eindruck über das, was das gerade neu gegründete Zentrum eigentlich tat und führte zu einer Art Maulkorb für die PARC-Mitarbeiter. Vgl. dazu Kay 1996, S. 533f. 2 Ross 1990; Levy 1984, S. 40ff. 3 Roszak 1971; Raeithel 1995, Bd. 3, S. 391–400; Interview mit Christiane Floyd in Siefkes et al. 1999, S. 128f.

356 7.1 Mikroprozessoren, Bastler und Homecomputer

Abbildung 105. Zeich- nung aus einer Wer- bung für die People’s Computer Company (ca. 1972)

dem Radio, den Nachrichtendiensten, Planungsstäben, Regierungsstellen, Schulen und Universitäten – die von denselben Interessen kontrolliert wer- den wie die übrige Wirtschaft. Dadurch, daß sie Informationen ausschließ- lich von oben nachfließen lassen, halten sie uns voneinander getrennt. (...) Die Computertechnologie wurde bisher . . . hauptsächlich von der Regie- rung und denen, die sie vertritt, dazu benützt, riesige Mengen von Informa- tionen über unzählige Menschen zu speichern und wieder abzurufen. (...) Gerade diese Tatsache bringt uns zu der Überzeugung, daß die Kontrolle über den Informationsfluß von entscheidender Bedeutung ist.«1 Der Verein erhielt Spenden von Firmen und Stiftungen, darunter auch einen ausgedienten XDS-940-Computer, den Peter Deutsch vom Xerox PARC in seiner Freizeit für Resource One installierte. Der Computer sollte von politisch aktiven Leuten für die Auswertung von Wählerumfragen, die Erstellung von Sozialsta- tistiken, für Adressenlisten und eine städtische Datenbank genutzt werden. Nach- dem Resource One nicht im erwarteten Umfang angenommen wurde, kamen die Mitarbeiter auf den Gedanken, daß der Mißerfolg technische Gründe habe und der Computer zu den Menschen kommen müsse. Unter dem Namen Communi- ty Memory begannen sie im Großraum San Francisco mit der Installation eines Netzwerks von einfachen Computerterminals, die an den zentralen Rechner ange- schlossen waren. Obwohl Community Memory in bescheidenem Maße als elek- tronisches »Schwarzes Brett« funktionierte, löste sich Resource One 1975 auf, als klar wurde, daß man den benötigten neuen Computer nicht würde finanzieren können.2 Für die Männer und Frauen, die Resource One oder ähnliche Projekte ins Le- ben riefen, war Information mehr als ein Produktionsfaktor oder eine Ware wie jede andere. Information war für sie die Basis der Demokratie und deshalb zu 1 Zitiert in Roszak 1986, S. 204f. 2 Felsenstein 1993; Levy 1984, S. 164–180; Brand 1974, S. 71ff.; Freiberger and Swaine 1984, S. 99ff.

357 7. Die Computer für den Rest von uns kostbar, um sich die Kontrolle darüber aus der Hand nehmen zu lassen. Damit hingen sie einer typisch amerikanischen Form von Utopie an. So wie die atavisti- schen Utopisten wünschten sie sich eine Zukunft, die die industrielle Gesellschaft überwindet und zu einer vorindustriellen Gemeinschaft mit lebendigen Sozial- strukturen zurückkehrt, deren Wirtschaft auf Landwirtschaft und Handwerk be- ruht. Gleichzeitig waren die meisten von ihnen Technophile, die hofften, daß der Fortschritt in Wissenschaft und Technik helfen würden, ihr atavistisches Ziel zu erreichen. In diesem Sinne sollte der Computer die Grundlage einer neuen De- mokratie im Sinne von Thomas Jefferson bilden, die auf dem gleichen Zugang zu Informationen beruhte.1 Der amerikanische Anthropologe Bryan Pfaffenberger hat darauf hingewie- sen, daß die Vorstellung, der Computer könne die wahre Demokratie zu den Men- schen zurückbringen, eine neue Variante eines alten amerikanischen Mythos sei. Bereits 1964 hat Leo Marx in seinem Buch »The Machine in the Garden« argu- mentiert, daß auch während der Industrialisierung Amerikas im 19. Jahrhundert bestimmten Technologien die Fähigkeit zugesprochen wurde, die offensichtlichen Widersprüche zwischen pastoralem Ideal und industrieller Realität überwinden zu können. So hatte man etwa die Hoffnung, daß die Elektrifizierung der Ver- städterung und Zentralisierung entgegenwirke und die demokratische Autonomie wiederherstelle.2 Solche Vorstellungen tauchten seitdem regelmäßig auf, in Ed- ward Bellamys vielgelesenem utopischen Roman »Looking Backward« (1888) ebenso wie im Zusammenhang mit der Massenmotorisierung der amerikanischen Gesellschaft in den zwanziger Jahren und nicht zuletzt auch in Vannevar Bushs »The Inscrutable ’Thirties« (1933) und »As we may think« (1945). Die Ideen der Verfechter des »Volkscomputers« fügen sich problemlos in diese Reihe ein. Trotz seiner langen Tradition handelt es sich aber nur um einen Mythos. Die großen Hoffnungen in die demokratisierende Wirkung der Technik wurden zumeist nicht eingelöst.3 Die folgenden Abschnitte werden zeigen, daß der Computer, der seit 1975 tatsächlich zu den Menschen kam, alles andere war als das versprochene gesell- schaftliche Allheilmittel.

1 Felsenstein 1993; Rheingold 1985, S. 304f. – In einem Brief an P. S. Dupont de Nemours vom 24. April 1816 schrieb Jefferson beispielsweise: »I enlighten the people generally, and tyranny and oppressions of body and mind will vanish like evil spirits at the dawn of day . . . I believe it (human condition) susceptible of much improvement, and most of all, in matters of government and religion; and that the diffusion of knowledge among the people is to be the instrument by which it is effected.« Vgl. Jefferson 1993, S. 37. 2 Pfaffenberger 1988, S. 45; Marx 1964, S. 195ff. 3 Pfaffenberger 1988, S. 41. Gerade im Zusammenhang mit dem Internet hat der Mythos in den vergangenen Jahren viele neue Anhänger gefunden. Vgl. beispielsweise Schuler 1994 und Kapor 1993, kritisch Turkle and Brody 1996. Für eine umfangreichere Analyse dieser »kalifornischen Ideologie» vgl. Barbrook und Cameron 1997.

358 7.1 Mikroprozessoren, Bastler und Homecomputer

Abbildung 106. Auf dem Titelbild des Byte-Magazins vom Januar 1977 wird der Mikro- computer zum Schlüssel für ein digitales Utopia idealisiert.

359 7. Die Computer für den Rest von uns

7.1.2 Taschenrechner

Neben den jungen, politisch aktiven Computerenthusiasten wurde die Einführung von preiswerten Computern für jedermann auch von einer zweiten Gruppe vor- bereitet, für die die idealistischen Vorstellungen der Hacker keinerlei Bedeutung hatten. Dabei handelte es sich um Ingenieure aus der Computer-, Halbleiter- und Flugzeugindustrie, die seit Mitte der sechziger Jahre an kleinen Minicomputern wie dem DEC PDP-8, der Data General Nova oder gar mit dem von Wesley Clark und Charles Molnar entwickelten LINC (Laboratory Instrument Computer) arbei- teten. Solche Minicomputer waren zwar vom Preis her keine Geräte für den pri- vaten Gebrauch, hatten aber immerhin eine verhältnismäßig geringe Größe und wurden als Einbenutzermaschinen betrieben.1 Diese Ingenieure waren auch die ersten Benutzer von elektronischen Taschen- rechner, die seit 1964 auf den Markt kamen und erstmals einen nennenswerten zivilen Markt für integrierte Schaltungen schufen. Die dadurch wirksam werden- de Skalenökonomie führte zusammen mit der immer stärkeren Miniaturisierung zu rapide sinkenden Preisen für elektronische Bauelemente. Bis 1970 wurden ein- fache Taschenrechner (mit den vier Grundrechenarten) so viel billiger, daß es zwi- schen den Produzenten zum Preis- und Verdrängungswettbewerb kam. Während viele Unternehmen Konkurs anmelden mußten, entschloß sich Hewlett-Packard, ein großer Hersteller von Meßinstrumenten und Minicomputern in Palo Alto, leistungsfähigere Taschenrechner mit einer größeren Gewinnspanne herzustellen. 1972 brachten sie den wissenschaftlichen Taschenrechner HP-35 auf den Markt, mit dem man erstmals auch Logarithmen und trigonometrische Funktionen be- rechnen konnte. Mit dem 1974 vorgestellten HP-65 bot Hewlett-Packard erstmals auch einen programmierbaren Taschenrechner an, der als »Personal Computer« vermarktet wurde. Diese Geräte erwiesen sich als so erfolgreich, daß das Stan- dardrecheninstrument der Ingenieure, der Rechenschieber, innerhalb weniger Jah- re verschwand.2 Noch wichtiger war allerdings, daß der programmierbare Taschenrechner eine wachsende Zahl von Hobbyprogrammierern hervorbrachte, die nicht den Hackern im engeren Sinne zuzurechnen waren und diese der Zahl nach um ein Vielfaches übertrafen. Es handelte sich dabei fast ausschließlich um erwachsene, berufstätige Männer, Ingenieure, Anwälte, Manager etc. mit einem gesicherten Einkommen und wegen des vergleichsweise hohen Preises von 795 $ für den HP-65 nur um wenige Studenten.3

1 Ceruzzi 1996, S. 5ff.; Clark 1988; Pearson 1992, S. 52. Bei seiner Markteinführung kostete der PDP-8 nur 18 500 $ (1965), der PDP-11 sogar nur 10 800 $ (1970). 2 Ceruzzi 1996, S. 6ff.; House 1988, S. 414ff. Lee 1995, S. 701ff. 3 Ceruzzi 1996, S. 9ff.; Kaplan 1977.

360 7.1 Mikroprozessoren, Bastler und Homecomputer

Da sich die meisten Hersteller von Taschenrechnern, anders als die Unter- nehmen der Computerindustrie, als Konsumgüterproduzenten verstanden, boten sie neben einem Handbuch meist keine weiteren Hilfen für die Entwicklung von Programmen an. Aus dieser Situation heraus entstanden nichtkommerzielle An- wendervereinigungen und eine Vielzahl von populären Zeitschriften, die sich mit praktischen Ratschlägen, Programmlistings und Produktvergleichen an interes- sierte Hobbyprogrammierer und -bastler wendeten und im folgenden Jahrzehnt zu einer bedeutenden Mediensparte wurden.1 Die Einführung des Kleinstcomputers als Gebrauchsgegenstand erwies sich als Wendepunkt. Seit etwa einem Jahrzehnt, seit dem Aufkommen der Time- Sharing-Computer, hatten Propagandisten wie Stewart Brand oder Theodor Nel- son den »Volkscomputer« gefordert und dabei den freien Zugang zu großen Time- Sharing-Computern im Auge gehabt. Sie wurden von der neuen Bewegung, die den persönlichen Computer entdeckt hatte, überrascht und verloren teilweise so- gar den Anschluß, als ihre Visionen in veränderter Form Realität wurden. Ihr Traumcomputer war leistungsstärker und teurer als die programmierbaren Ta- schenrechner oder die ersten Hobbycomputer, auch wenn er überhaupt noch nicht existierte.2

7.1.3 Der Mikroprozessor

Obwohl Taschenrechner zeigten, welches Potential die Mikroelektronik für den Konsumgütermarkt und für den Bau von kleinen Computern besaß, öffneten sie nicht unmittelbar den Weg zu preiswerten Personal Computern. Dazu war die Architektur der verwendeten Schaltkreise zu speziell und zu wenig flexibel. Vor allem aber waren sie nicht frei programmierbar. Erst mit der Entwicklung von Mikroprozessoren wurde dieses Hindernis überwunden. Vielfach ist von Ingenieuren behauptet worden, der Personal Computer sei ei- ne zwangsläufige Konsequenz der immer stärkeren Miniaturisierung gewesen.3 Tatsächlich hatten Ingenieure während der sechziger Jahre beobachten können, wie die Anzahl der für die Zentraleinheit eines Computers benötigten Bauele- mente ständig abnahm4, und spätestens seit 1967 war die Idee eines »computer on a chip« weit verbreitet.5 Dies bedeutete allerdings nicht, daß man zu diesem Zeitpunkt bereits gewußthätte, wofür man einem solchen Chip hätte einsetzen können.

1 Ceruzzi 1996, S. 11. 2 Ceruzzi 1996, S. 11. 3 Gordon Bell, zitiert in Ceruzzi 1996, S. 6; House 1988, S. 413f. 4 Mazor 1995, S. 1605. 5 Lo 1968, S. 1461; Malone 1996, S. 6f.; Aspray 1997, S. 4f.

361 7. Die Computer für den Rest von uns

Unter diesen Randbedingungen erhielt die Intel Corporation im kalifornischen Santa Clara im Sommer 1969 vom japanischen Taschenrechnerproduzenten Busi- com den Auftrag, nach seinen Spezifikationen einen Satz von acht Chips für einen Taschenrechner zu entwickeln. Intel war nur ein Jahr zuvor von Robert Noyce und Gordon Moore, zwei ehemaligen Mitarbeitern von Fairchild Semiconductors, ge- gründet worden und hatte sich auf die Produktion von Speicherchips spezialisiert, besaß aber kaum Erfahrung bei der Herstellung komplexer Logikschaltungen. Da der Leiter des Projekts, Marcian E. (Ted) Hoff (* 1937) absehen konnte, daß die Komplexität der von Busicom gewünschten Chips Intel bei der Realisie- rung überfordert hätte, entwickelte er einen alternativen Plan, der die Komplexität der Schaltung stark verringern sollte. Im Zentrum des Taschenrechners sollte statt der kundenspezifischen Logikschaltkreise ein kleiner Universalcomputer stehen, dessen Architektur so einfach sein konnte wie die des von Hoff sehr geschätzten PDP-8 von Digital Equipment. Die eigentliche Funktionalität des Taschenrech- ners sollte hingegen als Programm in einem Festwertspeicher abgelegt sein. Dies hatte den zusätzlichen Vorteil, daß Intel auf diese Weise zusätzliche Speicherchips verkaufen konnte. Nachdem das Management von Intel und Busicom diesem Plan zugestimmt hatte, machten sich Hoff, Stanley Mazor und Masatoshi Shima von Busicom an die Entwicklung eines »microprogrammable computer on a chip« mit einer Wortbreite von 4 bit, die für die Darstellung und Verarbeitung von binär codierten Ziffern in einem Taschenrechner ausreichend war. Die eigentliche Umsetzung der integrierten Schaltung und die Anpassung des Entwurfs an die Erfordernisse der Produktion wurde seit April 1970 von Federi- co Faggin (* 1941) vorangetrieben, der die Chips für Busicom bis zum Dezem- ber 1970 zur Produktionsreife weiterentwickelte. Ein Microcomputersystem 4 (MCS-4), wie es später genannt wurde, bestand aus zwei Speicherchips (Pro- duktbezeichnung 4001) für die Zwischenspeicherung von Ergebnissen, vier Fest- wertspeichern (4002) mit dem eigentlichen Programm, drei Ein-/Ausgabeelemen- ten (4003) und dem Mikroprozessor mit der Bezeichnung 4004. Da 1970 eine leichte wirtschaftliche Rezession eingesetzt hatte und die Kon- kurrenz auf dem Taschenrechnermarkt 1971 sehr viel härter geworden war, for- derte Busicom Preisnachlässe. Als Gegenleistung erhielt Intel das Recht, den Mi- kroprozessor (außer für Taschenrechner) selbst zu vermarkten. Mit dieser Option konnte das Management zunächst allerdings nicht viel anfangen, rechnete man sich doch einen Anteil von höchstens 10 % des Minicomputermarktes aus, der zu dieser Zeit ein Volumen von etwa 20 000 neu installierten Geräten pro Jahr hatte. Erst nach intensiver Überzeugungsarbeit durch einige Optimisten unter der Füh- rung von Faggin, stellte Intel den 4004 im November 1971 mit einer Anzeige in Electronic News der Öffentlichkeit vor. Der wirtschaftliche Erfolg hielt sich aber

362 7.1 Mikroprozessoren, Bastler und Homecomputer noch in Grenzen: Die ersten Verkäufe bis Februar 1972 waren zwar vielverspre- chend, aber nicht überragend.1 Ebenfalls 1969 beauftragte auch die Computer Terminals Corp. (CTC, heu- te Datapoint) Intel mit der Entwicklung von Schaltkreisen für ein preiswertes Computerterminal. Hoff und Mazor schlugen auch in diesem Fall vor, die Lo- gikschaltkreise wie beim 4004 vollständig auf einem Chip unterzubringen. CTC vergab den gleichen Entwicklungsauftrag parallel auch an den Texas Instruments und entschloß sich Ende 1970, den Auftrag an Intel zu stornieren und die benö- tigten ICs von Texas Instruments herstellen zu lassen, die für ihren Entwurf 1973 auch ein Patent erhielten.2 Trotzdem wurde das Projekt bei Intel weitergeführt, da das japanische Unternehmen Seiko Interesse signalisierte. Der 8008, wie In- tels zweiter Mikroprozessor schließlich hieß, hatte eine Wortbreite von 8 bit, die für die Darstellung von alphanumerischen Zeichen hinreichend war und besaß einen Befehlssatz, der speziell auf die Verarbeitung von Textstrings abgestimmt war.3 Nach Faggins eigener Einschätzung war die Entwicklung des 8008 nach den Erfahrungen mit dem 4004 keine sonderlich schwierige Aufgabe mehr.4 Als der 8008 im April 1972 vorgestellt wurde, wurde er von der Fachpresse zwar enthusiastisch gefeiert, aber genauso mäßig verkauft wie der 4004.5 Da sowohl der 4004 als auch der 8008 ursprünglich für spezielle Anwendun- gen konstruiert worden waren, hatte man bei beiden Prozessoren Kompromisse eingehen müssen, die sich für eine universellere Verwendung als Schwächen her- ausstellten. Aus diesem Grund begannen Faggin und Shima Ende 1972 mit der Entwicklung des ersten echten Mikroprozessors, bei dem alle diese Schwächen behoben und eine neue, leistungsfähigere Technologie genutzt werden sollte. Das Ergebnis dieser Entwicklung war der 8080-Mikroprozessor mit einer Wortbreite von 8 bit, einer gegenüber dem 8008 verzehnfachten Arbeitsgeschwindigkeit und der Möglichkeit, 64 kByte Hauptspeicher zu adressieren.6 Mit dem , der im März 1974 auf den Markt kam, kam schließ- lich auch eine nennenswerte Nachfrage für Mikroprozessoren zustande, die rasch wuchs und andere Halbleiterunternehmen ermutigte, ebenfalls Mikroprozessoren herzustellen. Motorola war mit seinem 6800-Mikroprozessor nur sechs Monate

1 Noyce and Hoff 1981, S. 9–13; Braun and Macdonald 1982, S. 109f.; Faggin 1992, S. 146;Mazor 1995, S. 1601–1603; Malone 1996, S. 3–23; Aspray 1997, passim. 2 Boone 1973. Ein Basispatent auf die Architektur des Mikroprozessors wurde ironischerweise erst im Jahre 1990 an den bis dahin weitgehend unbekannten selbständigen Erfinder Gilbert Hyatt erteilt, dessen erster Patentantrag vom November 1969 datierte. Dieses Patent wurde aber mittler- weile von einem Patentgericht auf Antrag von Texas Instruments wieder aufgehoben. Vgl. Hyatt 1990. 3 Noyce and Hoff 1981, S. 13; Mazor 1995, S. 1603; Wood 1994. 4 Faggin 1992, S. 148. 5 Malone 1996, S. 19; Braun and Macdonald 1982, S. 110f. 6 Noyce and Hoff 1981, S. 15; Mazor 1995, S. 1604; Faggin 1992, S. 150.

363 7. Die Computer für den Rest von uns nach Intel auf dem Markt, andere große und kleine Unternehmen wie Fairchild, National Semiconductors, Toshiba, Signetics und Rockwell folgten zwischen 1973 und 1976 nach. Aber auch die großen Hersteller von Minicomputern wie Digital Equipment oder Data General begannen, die Architektur ihrer erfolgrei- chen Computer in Mikroprozessoren zu übertragen.1 So bedeutend die Rolle von Intel für die Entwicklung des Mikroprozessors auch war, sie bestand weniger in der Idee eines »computer on the chip«, die oh- nehin in der Luft lag, sondern in der tatsächlichen technischen Realisierung in MOS-Technologie durch Federico Faggin und dem Mut des Managements, ein Bauelement zu vermarkten, für das es bislang keine eigenständigen Anwendun- gen gab.2 Letzteres sollte sich bald durch das Engagement von begeisterten Elektronik- bastlern ändern.

7.1.4 Die ersten Mikrocomputer

Anfang 1974 waren also zwei Strömungen wirksam. Auf der einen Seite entwi- ckelte eine zunehmende Zahl von Unternehmen leistungsfähige und preiswerte Mikroprozessoren. Auf der anderen Seite arbeitete eine kleine Gruppe von En- thusiasten für die stärkere Verbreitung der Computertechnik. Zunächst schienen sich diese Strömungen nicht zu treffen. Intel verstand sich nämlich weiterhin als Zulieferer von Halbleiterbauelemen- ten und konzentrierte sich vor allem auf sein Kerngeschäft mit Speicherchips. Ein Grund für den zunächst schleppenden Absatz von Mikroprozessoren war auch die Tatsache, daß die potentiellen Kunden in der Lage sein mußten, Programme schreiben zu können. Dies konnten sie zunächst nur im binären Maschinencode des jeweiligen Prozessors – ein mühseliges und fehleranfälliges Vorgehen. Intel benötigte mehrere Schritte, um dieses Problem zu überwinden. Zunächst wurden Programmiersysteme entwickelt, die auf Groß- oder Mini- computern liefen und Programme in gängigen Sprachen wie FORTRAN in den Maschinencode eines beliebigen Mikroprozessors übersetzten. Um nicht ständig einen zweiten Computer zu benötigen, entwickelte Intel 1973 die erste »Blue Box«, ein Entwicklungssystem, in dem ein Mikroprozessor, etwas Speicher und weitere Steuerelektronik untergebracht waren und auf dem ein Assembler oder Hochsprachencompiler lief. Obwohl es sich im weitesten Sinne um einen voll- ständigen Computer handelte, der auf einem Schreibtisch Platz fand, wurde er

1 Noyce and Hoff 1981, S. 14f. 2 Aspray 1997, S. 13.

364 7.1 Mikroprozessoren, Bastler und Homecomputer von Intel nicht als solcher erkannt. Das Gerät wurde nicht frei verkauft, sondern als Entwicklungswerkzeug kostenlos an interessierte Unternehmen abgegeben.1 Dank des Engagements von begeisterten Elektronikbastlern kam es Ende 1974 schließlich doch zur Entwicklung von sogenannten Hobbycomputern. Im Zusam- menhang mit der amerikanischen Rundfunkentwicklung hat Susan J. Douglas be- reits vor einigen Jahren nachgewiesen, welch wichtige Rolle engagierte Ama- teure für die Durchsetzung von solcher Technik spielen, deren Potential von der Industrie zunächst nicht erkannt wird.2 Der typische Computerbastler der siebzi- ger Jahre besaß bereits Erfahrungen mit Digitalschaltungen, war häufig sogar in der Elektronik- oder Computerindustrie als Ingenieur beschäftigt und hatte einen großen Wunsch: seinen eigenen Computer zu besitzen.3 Jim Warren, der Her- ausgeber von Dr. Dobb’s Journal, charakterisierte die Anforderungen, die solche Bastler an einen Computer stellten, folgendermaßen: »To the hobbyist, price is crucial; speed and reliability are secondary. The user’s time and effort may essentially be considered to be free. The pri- mary motivation is entertainment in its broadest sense. The hobbyist en- vironment tends to be a non-competitive one in which enthusiasts readily share solutions to problems as soon as they are discovered.«4 In jeder Ausgabe von Radio Electronics und Popular Electronic, Zeitschriften speziell für Elektronikbastler, wurde mindestens ein Projekt zum Nachbauen vor- gestellt. Nachdem Radio Electronics bereits im Juli 1974 einen Bausatz für einen Mikrocomputer auf Basis des 8008 vorgestellt hatte und im gleichen Frühjahr der Intel 8080 vorgestellt worden war, präsentierte Ende des Jah- res einen ersten Computerbausatz, bei dem der 8080-Mikroprozessor verwendet wurde. Dieser Computer wurde für weniger als 400 $ von H. Edward Roberts an- geboten, dessen kleines Unternehmen MITS5 in Albuquerque, New Mexiko vor allem einfache Taschenrechner herstellte, damit aber kaum mehr Gewinn machte. Roberts kündigte den (Abb. 107), der nach einem fiktiven Planeten aus der Fernsehserie »Raumschiff Enterprise« benannt war, als einen Computer an, dessen Leistung sich mit der kommerzieller Minicomputer messen konnte.6

1 Ceruzzi 1996, S. 14ff.; Noyce and Hoff 1981, S. 14; Malone 1996, S. 175. 2 Douglas 1987; Douglas 1993; Fickers 1998, S. 14f. Die Verwendung von Kurzwellen für den Weitverkehrsfunk nach 1918, die Entwicklung der High-Fidelity-Audiotechnik nach dem Zweiten Weltkrieg und die Entwicklung von Transistorradios in den fünfziger Jahren wurden entscheidend von solchen Amateuren vorangetrieben. 3 Haddon 1988, S. 13ff.; Levy 1984, S. 180ff. 4 Warren 1977a, S. 10. 5 Der Name stand ursprünglich für Micro Instrumentation and Telemetry Systems, nachdem das Unternehmen begann, Taschenrechner und Computer herzustellen, firmierte es aber nur noch unter MITS. 6 Roberts and Yates 1975; Ceruzzi 1996, S. 18f.

365 7. Die Computer für den Rest von uns

Abbildung 107. MITS Altair 8800 (1975)

Schon das äußere Erscheinungsbild des Altair legte nahe, daß es sich nicht um ein Spielzeug, sondern um einen ernstzunehmenden Computer handelte. Wie die Nova von Data General oder der PDP-8 von Digital Equipment war der Al- tair in ein Industriegehäuse eingebaut, auf dessen Vorderseite Schalter und kleine Leuchten angebracht waren, die den Inhalt der Register anzeigten. Aber der Altair war in seiner Grundausführung für unter 400 $ sehr viel billiger als diese Geräte, die mindestens einige Tausend Dollar kosteten, allerdings auch um einiges leis- tungsfähiger waren. Der Grund für den geringen Preis war, daß Intel den 8080 nicht für die üblichen 375 $, sondern wegen der großen Stückzahl für nur 75 $ an Roberts lieferte. Der niedrige Preis und die Verwendung des fortschrittlichen 8080 machten den Altair sofort zu einem riesigen Erfolg: statt der erhofften 200 gingen bei MITS innerhalb weniger Wochen über 4 000 Bestellungen ein.1 Die Busarchitektur, für die sich Robert erst kurz vor der Auslieferung des ersten Bausatzes entschied, sollte ein wichtiger Grund für den Erfolg werden. Statt Erweiterungskarten über ein vieladriges Flachbandkabel an die Zentralein- heit anzuschließen, entschied er sich für die Verwendung von 100-poligen Steck- plätzen, in die man die Karten ohne Mühe (und ohne Löten) einsetzen konnte. Besonders wichtig war dabei die Entscheidung, die Spezifikationen des Busses zu veröffentlichen, so daß auch andere Hersteller Erweiterungskarten für den Al- tair entwickeln konnten. Mit dem sogenannten S-100-Bus entstand dann auch der erste Hardwarestandard der jungen Mikrocomputerindustrie, der in überarbeiteter Form als IEEE-696-Bus auch offiziell anerkannt wurde.2

1 Levy 1984, S. 192ff. 2 Ceruzzi 1996, S. 19f.; Freiberger and Swaine 1984, S. 122.

366 7.1 Mikroprozessoren, Bastler und Homecomputer

Dies war besonders wichtig, da der Altair in seiner Grundausstattung nur sehr eingeschränkte Möglichkeiten besaß. Da der Rechner weder über eine Tastatur noch über ein Sekundärspeichermedium verfügte, mußte jeder Befehl eines ma- ximal nur 256 Byte langen Programms in Maschinensprache über die Schalter auf der Frontplatte in den Computer eingegeben werden. Nachdem dies – hof- fentlich fehlerfrei – geschehen war, konnte man das Programm starten. Wegen des fehlenden Bildschirms bzw. Fernschreibterminals mußten die Ergebnisse des Programmlaufs an den Lämpchen auf der Frontplatte abgelesen werden, die die Registerinhalte anzeigten. Da für den Hauptspeicher dynamische Speicherchips verwendet wurden, ging der Speicherinhalt, Daten ebenso wie Programme, beim Ausschalten des Computers oder bei einem der gelegentlich vorkommenden Feh- ler der Stromversorgung unwiederbringlich verloren. Außer der Tatsache, daß man seinen eigenen Computer besaß, konnte man mit dem Altair 8800 in der Grundausstattung wenig Sinnvolles anfangen.1 Deshalb wurden bald wurden von MITS und anderen Unternehmen Erweiterungskarten für den Altair angeboten: Speichererweiterungen, Karten zum Anschluß eines Fernschreibterminals, einer Tastatur und eines Monitors oder Fernsehers und für den Anschluß von Kassetten- oder Diskettenlaufwerken. Rüstete man den Altair freilich so auf, daß er den vergleichsweise geringen Anforderungen der Hobbyisten entsprach, entstanden schnell Kosten von mehreren Tausend Dollar – was freilich dem Erfolg des Com- puters keinen Abbruch tat.2 Der Erfolg des Altair zog eine schnell wachsende Industrie nach sich. Viele der ehemaligen Amateure machten sich nun als Produzenten von Mikrocompu- tern oder Erweiterungskarten selbständig, spezielle Hobbycomputer-Zeitschriften wie Byte oder Dr. Dobb’s Journal kamen auf den Markt. Vor allem aber entstan- den im ganzen Land eine große Zahl von Einzelhandelsgeschäften, die Computer erstmals als Konsumgut verkauften.3

7.1.5 Software für Homecomputer: Basic und CP/M Ebenso wichtig für den Erfolg des Altair und späterer Mikrocomputer war die Entwicklung von Systemsoftware und Programmiersprachen, ohne die der Be- trieb des Rechners und das Schreiben von Programmen eine mühselige Ange- legenheit gewesen wäre. Wie kritisch die zunächst fehlende Software für die Verbreitung von Mikrocomputern war, thematisierte die Fachpresse, indem sie 1976/77 von einer »Softwarekrise« sprach.4

1 Ceruzzi 1996, S. 20f. 2 Ceruzzi 1996, S. 21f.; Mennie 1977, S. 29f.; Levy 1984, S. 206ff. 3 Yasaki 1977; Warren 1977a; Warren 1977b; Isaacson 1978a. 4 Yasaki 1976; Hawkings and d’Agapeyeff 1977; Warren 1977a, S. 17f.; Isaacson 1978b, Bernstein 1978.

367 7. Die Computer für den Rest von uns

Obwohl zunächst nicht sicher war, welche Programmiersprache MITS für den Altair anbieten sollte, entschied sich Roberts schließlich für BASIC. Der Begin- ner’s All Purpose Symbolic Instruction Code, kurz BASIC, war Anfang der sech- ziger Jahre von John G. Kemeny und Thomas Kurtz am Dartmouth College entwi- ckelt worden. Kemeny und Kurtz hatten dort ihre eigene Time-Sharing-Software für einen General-Electric-235-Großrechner entwickelt, auf den Studenten aller Fachrichtungen genauso unbeschränkten Zugriff haben sollten wie auf die Bi- bliothek der Universität, eine für die damalige Zeit geradezu revolutionäre Idee.1 BASIC war die zu diesem Konzept passende höhere Programmiersprache, die auch von Computerlaien leicht erlernt werden konnte. Da Kurtz und Kemeny auch den Quellcode von BASIC veröffentlichten, verbreitete sich BASIC nach 1964 rasch an amerikanischen Universitäten, an staatlichen und militärischen Institu- tionen, wurde aber auch von den politisch aktiven Hackern Ende der sechziger Jahre als »the people’s language« favorisiert (vgl. Abb. 105).2 William H. »Bill« Gates III, ein damals 19jähriger Jurastudent und passio- nierter Programmierer, bot Ed Roberts bereits im Januar 1975 einen BASIC- Interpreter für den Altair an, den er zusammen mit seinem Studienkollegen auf einem PDP-10 der Harvard University entwickelt hatte, nachdem sie im Dezember 1974 über den MITS Altair gelesen hatten. Da der Interpreter einwand- frei funktionierte, akzeptierte Roberts das Angebot und stellte den 22jährigen Al- len als Softwaredirektor ein. Die erste Version von BASIC kam mit nur 4 kByte Hauptspeicher aus und wurde ab Juni 1975 an die Benutzer des Altair verkauft, leistungsfähigere Versionen folgten bald nach. Obwohl 1975 auch andere Pro- grammierer BASIC-Interpreter für den Altair entwickelten, sprach sich herum, daß Gates’ und Allens Implementierung besonders gut war. Die beiden erkannten bald, daß mit der Verbreitung von Mikrocomputern auch eine enorme Nachfrage nach Software und ein lukrativer Markt entstehen würde. Im August 1975 gründe- ten Gates und Allen deshalb ein Unternehmen mit dem Namen »Micro-Soft« (für Microcomputer Software).3 Mit diesem Schritt veränderte sich auch die Rolle der Software grundlegend. Bislang hatten die Hobbyprogrammierer alle selbstgeschriebenen Programme untereinander getauscht, streng nach dem Glaubensgrundsatz der Hacker, daß alle Information, und als solche wurden Programme verstanden, frei zugänglich sein müsse. So hielten es viele Programmierer für ihr Recht, Microsofts BASIC zu kopieren ohne zu bezahlen, zumal sie den Preis von fast 500 $ für nicht gerecht- fertigt hielten. Die Kluft zwischen der neuen und der traditionellen Einstellung zur Software wurde besonders deutlich in einem »Open Letter to Hobbyists«,in

1 Kemeny and Kurtz 1968. 2 Ceruzzi 1996, S. 16f.; Lee 1995, S. 412f. 3 Ichbiah 1993, S. 45–56.

368 7.1 Mikroprozessoren, Bastler und Homecomputer dem sich Gates Anfang 1976 über die Praxis des Raubkopierens beschwerte. Er argumentierte, daß der Umgang mit Software nach der Hackerethik die Entwick- lung von mehr und besserer Software verhindere, die doch sein eigentliches Ziel sei: »One thing you do is prevent good software from being written. Who can af- ford to do professional work for nothing?«1 Er forderte die illegalen Benutzer von BASIC dazu auf, ihm einen Scheck zu schicken und versprach, als Gegenleistung zehn Programmierer einzustellen. Ein Betriebssystem für Mikrocomputer kam nur wenig später auf den Markt. Die Programmierer von Mikrocomputern speicherten ihre Programme zunächst auf billigen Speichermedien wie Lochstreifen oder Audiokassetten. Obwohl die damit verbundenen langen Such- und Ladezeiten von Hobbyisten toleriert wur- den, stellten sie bald fest, daß Disketten wesentliche Vorteile besaßen. Obwohl die Diskette ein rotierendes Speichermedium ist, kann es wie ein Speicher mit wahlfreiem Zugriff betrachtet werden. Anders als beim Magnetband mußte man nicht im ungünstigsten Fall die ganze Spule durchsuchen, um bestimmte Daten zu finden, sondern höchstens eine Umdrehung der Diskette. Dazu wurden ausgefeilte Systemroutinen benötigt, die man in der Welt der Großcomputer Disk Operating System (DOS) nannte.2 Gary Kildall (1942–1994) hatte bereits 1973 eine Programmiersprache na- mens PL/M (Programming Language for Microcomputers) entwickelt, die auf In- tels Entwicklungssystem, der »Blue Box«, lief.3 Um den Entwicklern die Arbeit zu erleichtern, schrieb Kildall auch einige kleine Programme, mit denen man ein an die »Blue Box« angeschlossenes Diskettenlaufwerk ansteuern konnte. Diese Programme konnten auch für die neuen Mikrocomputer verwendet werden und wurden schließlich zum Kern des Betriebssystems CP/M (Control Program for Microcomputers). Bei seinem Entwurf hatte sich Kildall vor allem an den Be- triebssystemen für die Computer von Digital Equipment orientiert.4 Diese Kom- patibilität mit dem DECSYSTEM-10 wurde von der Fachpresse ebenso gelobt wie die solide Architektur und die einfache Bedienung des ansonsten eher sparta- nischen Systems.5 Durch die technischen Vorzüge, den frühen Start und den ver- gleichsweise geringen Preis von 70 $ entwickelte sich CP/M schnell zum belieb- testen Betriebssystem für 8-bit-Mikrocomputer, das 1981 auf fast 200 000 Com- putern installiert war.6 Mit der Einführung des IBM Personal Computer fanden 1981 viele Elemente von CP/M Eingang in Microsofts Betriebssystem MS-DOS.

1 Bill Gates, zitiert in Freiberger and Swaine 1984, S. 169. Vgl. auch Warren 1977b, S. 495. 2 Denning and Brown 1984; Ceruzzi 1996, S. 16f. 3 Kildall 1975. 4 Kildall 1981, S. 222f. 5 Warren 1976, S. 5. 6 Kildall 1981, S. 227; Cringely 1993, S. 64ff.

369 7. Die Computer für den Rest von uns

Dieses bis Mitte der neunziger Jahre meistverwendete Betriebssystem konnte sei- ne Abstammung von den Betriebssystemen der sechziger Jahre also kaum ver- leugnen.1 Nachdem bereits die Hardware zu einem gewinnträchtigen Geschäft gewor- den war, etablierte sich auch der Softwarebereich nach den Gesetzen des Mark- tes. Nicht mehr als ein Jahr nach seiner Markteinführung war der Mikrocomputer damit bereits jeder idealistischen Vorstellung entkleidet. Der Mythos des Volks- computers wurde freilich noch einige Zeit gepflegt, am leidenschaftlichsten bei Apple Computer.

7.1.6 Der Aufstieg von Apple

1977 veränderte sich das Gesicht der Mikrocomputergeschäfts erneut. Die Schwä- chen des Altair waren überwunden und der Markt für Computerbausätze war weitgehend gesättigt. Mit Microsoft BASIC waren die Hobbyprogrammierer in der Lage, eigene Programme zu schreiben. Laufwerke für 5 1/4-Zoll Disketten, die mit Hilfe von CP/M verwaltet werden konnten, erleichterten die Speicherung und den Austausch von Programmen. Mittlerweile konnte man auch fertig mon- tierte Computer kaufen, an die sich ohne Probleme eine Tastatur und ein Bild- schirm bzw. Fernseher anschließen ließen. Auch einfache Nadeldrucker und Mo- dems waren bereits verbreitet. Man sprach nun auch nicht mehr vom Hobby- son- dern häufiger vom Homecomputer, was andeutete, daß die Rechner mittlerweile den Weg aus dem Bastelkeller in die Wohn- und Arbeitszimmer fanden.2 Drei Computer markierten den Übergang zur Reifephase. Im April 1977 stell- te Commodore Business Machines den PET vor, bei dem erstmals der Monitor, die Tastatur und ein Kassettenlaufwerk im gleichen kompakten Gehäuse unter- gebracht waren wie der eigentliche Computer. Während sich dieses Gerätfür et- wa 600 $ in den Vereinigten Staaten nur mäßig verkaufte, wurde es in Europa zu einem der meistverkauftesten Homecomputer. Ab August 1977 bot die Kauf- hauskette »Radio Shack« den TRS-80 Modell 1 in ihren Läden an, der in der Grundausstattung etwa 600 $ kostete. Dafür erhielt man einen recht beschränk- ten aber vollständigen Computer mit einem Z80A Prozessor von Zilog3, 4 kByte

1 Ceruzzi 1996, S. 25f. 2 Kaplan 1977; Seidman 1979; Warren 1983, S. 1133. 3 Zilog war 1974 in klassischer Silicon-Valley-Manier von Federico Faggin gegründet worden, der sich bei Intel in seiner Kreativität zunehmend durch Verwaltungstätigkeiten eingeschränkt fühlte. Vgl. Faggin 1992, S. 149f.

370 7.1 Mikroprozessoren, Bastler und Homecomputer

Abbildung 108. (links) und (rechts)

Hauptspeicher, 4 kByte Festwertspeicher mit eingebautem BASIC-Interpreter, ei- ne Tastatur, einen Bildschirm und ein Kassettenlaufwerk, das unter dem Betriebs- system CP/M lief.1 Den erfolgreichsten Mikrocomputer der zweiten Generation brachte allerdings ein junges Unternehmen aus dem kalifornischen Cupertino im April 1977 auf den Markt: den Apple II. Apple Computer, Inc.2 war erst 1976 von zwei jungen Com- puterenthusiasten, Steven Paul Jobs (* 1955) und Stephen G. Wozniak (* 1950) in der für das Silicon Valley schon sprichwörtlichen Garage von Jobs Eltern in Los Altos gegründet worden. Wozniak war zuvor Ingenieur bei Hewlett-Packard gewesen und hatte zusammen mit Jobs Computerspiele für Atari geschrieben. Er war auch ein aktives Mitglied des legendären Homebrew Computer Clubs,woer im Juli 1976 seinen ersten selbstgebauten Computer vorstellte, der auf dem nur 20 $ teuren Prozessor 6502 von MOS Technology basierte. Während Wozniak ursprünglich nicht geplant hatte, seinen Computer zu vermarkten, war Jobs da- von überzeugt, daß es einen Markt für den gab. Schon am Tag nach der Vorführung bestellte ein lokaler Computerhändler 50 Geräte, Wozniak und Jobs waren im Geschäft. Ganz im Sinne der Hackerethik stellten sie aber auch jedem, 1 Peddle 1977; Freiberger and Swaine 1984, S. 196ff.; Ceruzzi 1996, S. 26f.; Williams and Welch 1985, S. 202. 2 Der Firmenname ist bereits ein Zeugnis für den Einfluß der kalifornischen Gegenkultur. Es wird berichtet, daß Wozniak und Jobs ihr Unternehmen nach dem Plattenlabel der Beatles benannt haben sollen. In anderen Versionen wird ein Zusammenhang mit Jobs gelegentlicher Mitarbeit bei der Apfelernte in Oregon hergestellt. Ein anderer Grund sei gewesen, daß man im Telefonbuch vor Atari auftauchen wollte. Vgl. Williams and Moore 1984, S. A69.

371 7. Die Computer für den Rest von uns

Abbildung 109. Apple II (1977) der den Computer nachbauen wollte, die Schaltpläne zur Verfügung, und auch ihre selbstgeschriebene Software wollten sie zunächst kostenlos abgeben.1 Nach dem ermutigenden Erfolg des Apple I, von dem im Großraum San Fran- cisco an die 200 Stück für jeweils 666 $ verkauft wurden, drängte Jobs darauf, mit einer überarbeiteten Version des Apple I auch überregional in den Homecom- putermarkt einzusteigen. Die Elektronik des Apple II war von Wozniak nochmals verbessert worden und ermöglichte nun auch die Ausgabe von einfachen Farb- grafiken auf dem Bildschirm. Vor allem aber war der Apple II, der im April 1977 auf der Westküsten-Computermesse vorgestellt wurde, ein fertig montierter Com- puter, dessen Hauptplatine und Tastatur in einem ansprechenden Gehäuse unter- gebracht waren. Der Apple II war der erste Computer, der sich schon von seiner äußeren Gestalt als Konsumgut präsentierte. Statt eines Industriegehäuses, das an die etablierten Minicomputer erinnern sollten, fühlte man sich bei dem beigen Kunststoffgehäuse mit den abgerundeten Ecken eher an eine Reiseschreibmaschi- ne erinnert. Der Benutzer des Apple II mußte den Computer nur noch an den heimischen Fernseher anschließen und konnte nach Einschalten des Computers sofort arbeiten, da das Betriebssystem und ein BASIC-Interpreter fest eingebaut waren.2 Neben der Plazierung ihres Produkts auf dem Konsumgütermarkt war es für den rasch einsetzenden Erfolg von Apple ebenso wichtig, daß es Jobs gelang,

1 Levy 1984, S. 250ff.; Freiberger and Swaine 1984, S. 212f.; Williams and Moore 1984, S. A68f. 2 Wozniak 1977; Williams and Moore 1984, S. A70f.; Haddon 1988, S. 23.

372 7.1 Mikroprozessoren, Bastler und Homecomputer erfahrene Manager aus der Computerindustrie zu einem Wechsel zu Apple zu be- wegen, anstatt das Unternehmen in Überschätzung der eigenen Fähigkeiten selbst zu führen. Zunächst gelang es ihm, Amas Clifford (Mike) Markkula zu engagie- ren, der zuvor einige Jahre im Marketing von Fairchild und Intel gearbeitet hatte. Markkula hatte sich erst im Jahr zuvor 34jährig zur Ruhe gesetzt, nachdem ihn seine Intel-Aktien in kurzer Zeit zum Millionär gemacht hatten. Markkula gefiel die Idee, den Apple II in großem Stil auf den Markt zu bringen, und er akzeptier- te nach kurzem Zögern das Angebot, als Chairman of the Board of Directors in das junge Unternehmen einzusteigen. Er half Jobs bei der Erstellung eines Finan- zierungsplans und bürgte bei der Bank of America für einen langfristigen Kredit über 250 000 $. Außerdem brachte Markkula seinen ehemaligen Mitarbeiter Mike Scott dazu, den Posten als President bei Apple anzunehmen und künftig über die Finanzen des Unternehmens zu wachen.1 Mit Markkula und Scott als Manager, Wozniak als Hardwareentwickler und nicht zuletzt Steve Jobs als Visionär und Propagandist des Homecomputers wurde Apple Computer und der Apple II zu der Erfolgsgeschichte der späten siebziger Jahre. Wichtige Hardwareerweiterungen und innovative Software sorgten dafür, daß der Computer über mehrere Jahre auf dem Stand der Entwicklung blieb: 1978 stellte Apple ein Diskettenlaufwerk vor, 1979 kamen Dan Bricklins Tabellenkal- kulationsprogramms VisiCalc und das Textverarbeitungsprogramm Apple Writer auf den Markt. Schließlich bot Microsoft 1980 eine Erweiterungskarte mit einem Z80 Prozessor an, die den Benutzern des Apple II die Welt von CP/M mit seinen unzähligen Anwendungsprogrammen eröffnete.2 Auf der anderen Seite starteten Markkula und Scott eine aggressive Werbekampagne, die den Apple II als Ge- brauchsgegenstand herausstellte. In einer Werbung hieß es beispielsweise: »The home computer that’s ready to work, play and grow with you. . . . You’ll be able to organize, index and store data on household finances, income taxes, recipes, your biorhythms, balance your checking account, even control your home environment.«3 Auch wenn kaum jemand den Computer für solche Aufgaben verwendete, und es nicht einmal Software für alle beschriebenen Anwendungen gab, wurde das Image aufgebaut, das Unternehmen mit dem Apfel-Logo in den Regenbogen- farben sei »etwas anders als andere Unternehmen« und habe es sich zur Aufgabe gemacht, »den Computer für den Rest von uns« zu bauen. Obwohl spätestens mit

1 Freiberger and Swaine 1984, S. 215, 221ff.; Levy 1984, S. 257; Young 1989, S. 142ff. 2 Freiberger and Swaine 1984, S. 225ff.; Ceruzzi 1996, S. 27. 3 Zitiert in Moritz 1984, S. 224.

373 7. Die Computer für den Rest von uns

Markkula und Scott Apple ein gewinnorientiertes, scharf kalkulierendes Unter- nehmen geworden war, wies man gern auf die eigenen Wurzeln in der Volkscom- puterbewegung und der kalifornische Gegenkultur hin.1 Bis zum Herbst 1981 erlebte das junge Unternehmen einen rasanten Aufstieg. Als Apple Ende 1977 in die Gewinnzone kam, waren gerade 2 500 Computer verkauft worden. 1978 waren es bereits 8 000 und 1979 über 35 000 verkaufte Geräte. Mit der Markteinführung von VisiCalc und Apple Writer steigerten sich die Verkaufszahlen 1980 auf 78 000. Bis Ende 1980 war der Apple II mit über 150 000 verkauften Exemplaren zu einem wahren Volkscomputer geworden. Als Apple im Dezember 1980 an die Börse ging, machte das Unternehmen einen jähr- lichen Umsatz von 117 Mio. $, besaß Produktionsstätten in Cupertino, San Jose, Los Angeles und Dallas und hatte nicht weniger als 1 500 Beschäftigte. Mit dem Börsengang wurde Apples Kapital nochmals um 90 Mio. $ aufgestockt, während Jobs, Wozniak und Markkula über Nacht zu den reichsten Männern des Landes gehörten. Als Jobs im Herbst 1981 schließlich die Position als Chairman of the Board bei Apple übernahm und Markkula President wurde, war Apple längst zu einem Synonym für Personal Computer geworden.2

7.1.7 Der späte Start von IBM Erst sehr spät, mit dem Erfolg von Radio Shack und Apple, begannen die eta- blierten Computerhersteller Notiz von der Entwicklung auf dem Mikrocomputer- markt zu nehmen. Auch IBM, der eher zögerliche Marktführer, entschloß sich im Sommer 1980, als sich der Homecomputer mehr und mehr zur Büromaschine entwickelte, einen eigenen Mikrocomputer auf den Markt zu bringen.3 Nachdem der ursprüngliche Plan aufgegeben worden war, Geräte des Herstellers Atari unter eigenem Namen anzubieten, wurde in Boca Raton in Florida die Entry Systems Division eingerichtet, die innerhalb kürzester Zeit ein Low-Cost-System konstru- ieren sollte. Dazu rückte die Abteilung unter der Leitung des dynamischen Phi- lip D. Estridge (1937–1985) von der bisherigen Firmenstrategie ab, alle Hard- und Softwarekomponenten im eigenen Hause herzustellen. Nachdem IBM be- reits mit dem wenig erfolgreichen System/23 DataMaster Erfahrungen mit Mi- kroprozessoren von Intel gesammelt hatte, sollte ihr Mikrocomputer ebenfalls mit dem bewährten Intel 8080 ausgestattet sein.4 Auch weitere Hardwarekomponen- ten wie Diskettenlaufwerke, Stromversorgung und Drucker wurden von namhaf- ten Fremdanbietern eingekauft. Für das Betriebssystem und das fest eingebau- te BASIC wendete man sich an die Marktführer in diesen Bereichen, an Gary

1 Roszak 1986, S. 223f.; Friedman 1997. 2 Wright 1981, S. 160; Young 1989, S. 175ff., 208, 215ff.; Freiberger and Swaine 1984, S. 237. 3 Canning and McNurlin 1978. 4 Camenker 1983; Curran and Shuford 1983; Bradley 1990, S. 34.

374 7.1 Mikroprozessoren, Bastler und Homecomputer

Abbildung 110. IBM Personal Computer mit Monochrommonitor und zwei Diskettenlaufwerken (1981)

Kildalls Digital Research und an Microsoft. Nachdem Gary Kildall seine potenti- ellen Auftraggeber verärgert hatte, erhielt Bill Gates’ Unternehmen nicht nur den Auftrag zur Lieferung des BASIC-Interpreters, sondern auch für die Entwicklung eines Betriebssystems.1 Gates überzeugte die Vertreter von IBM allerdings davon, daß die Verwendung des neuen Intel 8086-Mikroprozessors IBM einen wichtigen Vorteil gegenüber den Mitbewerbern verschaffen würde. Da der leistungsfähigere Prozessor auch die Möglichkeit eröffnete, den Befehlssatz der IBM-Großcomputer zu emulie- ren und so eine Brücke zu IBMs weiterhin wichtigsten Produkten zu schlagen, verwendete IBM für seinen im August 1981 vorgestellten Personal Computer (Abb. 110) schließlich einen 16-bit-Prozessor von Intel, allerdings den weniger leistungsfähigen 8088-Prozessor.2 Dieser war nicht nur billiger als der 8086, son- dern ließ auch die Verwendung von unterstützenden Schaltkreisen zu, die IBM selbst herstellte und die die Ingenieure kannten.3 Abgesehen von der Verwendung eines 16-bit-Mikroprozessors war IBMs Personal Computer technisch solide, aber wenig aufregend. Die Basisversion wurde mit 64 kByte Speicher, einer Tastatur, Schnittstellen zum Anschluß eines Druckers und eines Kassettenlaufwerks ange- boten. Zusätzlich konnte man bis zu zwei Diskettenlaufwerke in den Computer 1 Carroll 1994, S. 30f.; Ichbiah 1993, S. 111ff.; Cringely 1993, S. 147ff. 2 Ichbiah 1993, S. 109f. 3 Bradley 1990, 109f.

375 7. Die Computer für den Rest von uns einbauen, den Speicher bis auf 256 kByte erweitern und einen Farbbildschirm

mit 320¢200 Punkten anschließen. Auch bei der Busarchitektur ging IBM eigene Wege und verwendete nicht den üblichen S-100-Bus des Altair, wie die Fachpres- se kritisch anmerkte. Das Unternehmen legte aber, ebenfalls entgegen der bishe- rigen Praxis, die eigene Spezifikationen offen, so daß Fremdanbieter problemlos Erweiterungskarten für den IBM Personal Computer entwickeln konnten.1 Das für diesen Rechner entwickelte Betriebssystem MS-DOS war mit keinem der bislang gängigen Betriebssysteme kompatibel, und es galt lange Zeit als unsi- cher, ob es sich gegen die Konkurrenz von CP/M-86 oder das bei Minicomputern beliebte Betriebssystem Unix würde durchsetzen können. Aus diesem Grund wa- ren bei der Markteinführung nur wenige Programme für den PC erhältlich, mit der Ausnahme der Tabellenkalkulation VisiCalc und einiger Produkte von Microsoft und IBM selbst.2 Das Interesse der Öffentlichkeit für IBMs ersten Personal Computer war den- noch enorm und die Besprechungen des Geräts in der Presse waren durchweg freundlich, wenn nicht sogar enthusiastisch. Sogar Apple schaltete im August 1981 im Wall Street Journal eine ganzseitige Anzeige mit dem Text »Welcome, IBM. Seriously.«3 Unterstützt wurde die Markteinführung durch die großange- legte und ungemein erfolgreiche Charlie-Chaplin-Werbekampagne. Die bekannte Figur des Tramp sollte verdeutlichen, wie leicht man mit dem IBM Personal Com- puter umgehen konnte und wie wenig Angst der »kleine Mann« vor der Compu- tertechnik haben mußte (Abb. 111).4 Der Personal Computer von IBM entwickelte sich nach seiner Markteinfüh- rung zu einem unerwarteten Erfolg. Das Unternehmen hatte zunächst angenom- men, daß 250 000 Geräte über fünf Jahre hinweg verkauft würden. Tatsächlich vergingen nur wenige Monate, bis diese Zahl erreicht war. Mitte 1983 überhol- te IBM bei der Zahl der verkauften Computer den bisherigen Marktführer Apple und hatte bis Ende 1985 mehr als 1.5 Mio. PCs verkauft und dessen Architek- tur zum Industriestandard gemacht. Bei näherer Betrachtung ist es aber weniger erstaunlich, daß ausgerechnet IBMs Personal Computer ein so großer Erfolg wur- de. Eine Vielzahl von Unternehmen hatte offensichtlich zu Beginn der achtziger Jahre einen großen latenten Bedarf nach kleinen Bürocomputern, scheute sich aber, in Produkte von jungen unerfahreren Firmen zu investieren. Angesichts der Marktpräsenz, dem soliden Image und des hervorragenden Service von IBM war auch die technische Mittelmäßigkeit des IBM PCs kein wesentliches Hindernis bei der Kaufentscheidung dieses Kundenkreises.5 Es wirkt wie eine Ironie der Ge- 1 Lemmons 1981, S. 27f. 2 Lemmons 1981, S. 32f. 3 Reproduziert in Linzmayer 1994, S. 51 4 Robinson 1989. 5 Gens and Christiansen 1983; Langlois 1992, S. 22f.

376 7.2 Die Lisa – Apples Computer der Zukunft

Abbildung 111. Werbung für den IBM Personal Computer XT (1983) schichte, daß ausgerechnet IBM, das erklärte Feindbild der Computerhacker und Volkscomputer-Propagandisten, auf diese Weise tatsächlich den Computer zu den Menschen brachte. Es ist aber auch ein weiterer Beweis, daß die jahrzehntelange Erfolgsgeschichte des Konzerns kein Zufall war. Obwohl Mikrocomputer wie der Apple II oder der IBM PC ein Riesengeschäft waren, hatte Steve Jobs bereits eine Vorstellung, wie die Zukunft des Computers aussehen würde. Er hatte sie im Herbst 1979 bei einem Besuch im Xerox Palo Alto Research Center gesehen.

7.2 Die Lisa – Apples Computer der Zukunft

Trotz der räumlichen Nähe existierten kaum Kontakte zwischen den Computer- wissenschaftlern des PARC und den Hardwarehackern der Bay Area. Wenn es doch gelegentlich zu Treffen von Mitgliedern beider Gruppen kam, waren diese durch Vorurteile und Mißverständnisse bestimmt. So berichtet Steven Levy bei- spielsweise über die Teilnahme Larry Teslers an einem Treffen des Homebrew Computer Clubs in Menlo Park:

377 7. Die Computer für den Rest von uns

»When PARC scientist Larry Tesler attended a Homebrew meeting in 1976, his disdain was indicative of his peers’ attitude: ›I watched guys car- rying around boxes of wires and showing programs that generated flashing lights. My neighbor said, ›This is the future!‹ . . . I told him, ›Forget it.‹‹«1 Auf der anderen Seite lehnten es Jobs und Wozniak noch 1978 ab, das PARC zu besuchen, da sie der Meinung waren, ein großes und etabliertes Unternehmen wie Xerox beschäftige sich wohl kaum mit Dingen, die für sie von Interesse sein könnten.2 Gleichzeitig wurde Apple davon überrascht, wie viele des als Homecomputer konzipierten Apple II von Unternehmen gekauft und in Büros verwendet wur- den. Man entschloß sich deswegen, in Zukunft eigens für dieses Marktsegment konstruierte Computer anzubieten. Im Rahmen dieser Strategie wurden zwei Ent- wicklungsprojekte gestartet. Der Apple III war eine Weiterentwicklung des Ap- ple II und sollte vor allem kleinere Unternehmen ansprechen. Dieser Computer wurde allerdings zu einem wirtschaftlichen Mißerfolg, da 1981 die ersten 10 000 Exemplare erhebliche Fertigungsmängel aufwiesen.3 Das zweite, im Frühjahr 1979 gestartete Projekt trug den Namen »Lisa«4 und wurde von Steve Jobs selbst geleitet, dessen größter Wunsch es gewesen war, end- lich ein eigenes Entwicklungsprojekt zu leiten und dabei den Computer zu kon- struieren, den er persönlich immer gern besessen hätte. Da er selbst vom Markt für Bürocomputer keine Ahnung hatte und von Hewlett-Packards HP-150 Computer besonders beeindruckt war, engagierte er John D. Couch (* 1947) und Ken Roth- mueller, die zuvor bei Hewlett-Packard gearbeitet hatten. Couch wurde Leiter der neuen Abteilung für Personal Office Systems,während Rothmueller die Hardware der Lisa entwerfen sollte, in dieser Funktion aber schon bald durch Wayne Rosing (* 1946) abgelöst wurde, der von Digital Equipment zu Apple gekommen war.5 Eine Schwäche des Apple II, die man bei der Lisa vermeiden wollte, war des- sen Bedienerunfreundlichkeit. Das Training Department von Apple hatte festge- stellt, daß man 20 bis 30 Stunden benötigte, um mit Apples Erfolgsprodukt ver- nünftig arbeiten zu können. Um auch die sogenannten »naiven« Benutzer in den Büros als Kunden zu gewinnen, mußte die Benutzung der Lisa leicht erlernbar und bei allen Anwendungsprogrammen einheitlich sein. Um etwaige Ängste vor

1 Levy 1995, S. 72. Tesler erläuterte in der Korrespondenz mit dem Autor, seine damalige Äußerung habe vor allem den Zukunftschancen von Computerbausätzen gegolten. Vgl. Email von Larry Tesler an den Autor, 10. Juli 1998. 2 Raskin 1995, S. 20. 3 Langlois 1992, S. 42ff. 4 Offiziell stand Lisa für Local bzw. Large Integrated Software Architecture, inoffiziell war der Com- puter nach der Tochter eines der Entwickler benannt worden. Vgl. Cringely 1993, S. 218. 5 Nulty 1983, S. 39f.; Levy 1995, S. 82ff.

378 7.2 Die Lisa – Apples Computer der Zukunft dem Computer abbauen zu können, sollte es außerdem Freude machen, mit ihm zu arbeiten:1 »The Lisa charter was to build a revolutionary computer that was truly easy to use and thereby mitigate the limitations of existing computers. A com- puter which is revolutionary may not be compatible with existing products or even with various industry standards and practice.«2 Um dieses Ziel zu erreichen, mußte das Unternehmen das Risiko eingehen, ih- re bisher so erfolgreiche Technologie hinter sich zu lassen und einen völlig neu- en, nicht kompatiblen Computer zu konstruieren, der leistungsfähig genug sein würde, um dieses ambitionierte Ziel zu erreichen. Schließlich war allen klar, daß ein Bürocomputer eine offene Struktur besitzen mußte, um die Entwicklung von Hardwareerweiterungen und Anwendungsprogrammen durch Dritte zu erleich- tern.3 Bis Ende 1979 hatte Rothmueller einen Computer mit einem grünen - chrommonitor und einer eingebauten Tastatur entwickelt, der wie der Xerox Star mit einem Bitscheibenprozessor von AMD arbeitete. Die für dieses Gerät entwi- ckelte erste Benutzungsschnittstelle verwendete das bei HP favorisierte Konzept der »Softkeys«. Dabei handelt es sich um Tasten, deren Funktionalität vom jewei- ligen Systemzustand abhängt. Insgesamt wirkte das Gerät nicht eben revolutionär, sondern eher wie eine Mischung aus dem Apple II und dem HP-150. Auf jeden Fall war die Lisa in dieser Form alles andere als Jobs’»Traumcomputer«.4 Bereits seit einiger Zeit hatte Apples Manager für Anwendungsprogramme, (* 1943), versucht, Jobs und Wozniak davon zu überzeugen, daß sie sich die Arbeiten von Xerox’ PARC ansehen müßten. Raskin hatte bereits wäh- rend seiner Studienzeit Ideen für einen benutzerfreundlichen Computer mit einem grafischen Bildschirm entwickelt und während eines Forschungsaufenthalts an der Stanford University auch die Arbeiten des PARC kennengelernt.5 Als die Xe- rox Venture Group im Sommer 1979 rund 1 Mio. $ bei Apple investierte, besuchte Steve Jobs zusammen mit John Couch im Sommer 1979 trotz seiner Vorbehalte Xerox’ Forschungszentrum in Palo Alto. Beide waren von Jef Raskin gut darauf vorbereitet worden, was sie zu erwarten hatten.6 Im Foyer des PARC bekamen

1 Daniels 1984, S. 331. 2 Daniels 1984, S. 331. Hervorhebung im Original. 3 Craig 1994, S. 19f.; Birss 1984, S. 321, 323, 326. 4 Young 1989, S. 186ff., 195; Perkins et al. 1997, S. 43f. 5 Raskin 1994a, S. 13; Raskin 1995, S. 18. 6 Raskin 1994a, S. 15. Die Vorführung für Steve Jobs und seine Mitarbeiter gehören zum Standar- drepertoire der Gründungslegende von Apple. Sie ist so häufig erzählt und nacherzählt worden, daß Wahrheit und Dichtung kaum mehr voneinander zu trennen sind. Michael Hiltzik berichtet in seiner Geschichte des PARC, daß jeder der beteiligten Personen eine andere Version zu erzählen

379 7. Die Computer für den Rest von uns sie eine typische Managementpräsentation zu sehen, die zwar einen Eindruck von den Arbeiten des PARC gab, aber keine technischen Details vermittelte. Die De- monstration weckte aber offensichtlich Jobs Interesse. Jedenfalls kam er nur we- nige Tage später mit dem kompletten Entwicklerteam1 der Lisa wieder, diesmal um sich Smalltalk vorführen zu lassen. Adele Goldberg, die für die Vorführungen der Learning Research Group verantwortlich war, weigerte sich zunächst, dem Entwicklerteam eines wichtigen Konkurrenten Einblick in die eigenen Arbeiten zu geben. Mit einem Hinweis auf eine Order »von ganz oben« ordnete der Leiter des PARC Science Center2 an, Jobs und seinen Mitarbeitern zu zeigen, was sie sehen wollten.3 Larry Tesler und Dan Ingalls erläuterten daraufhin ihren Besuchern die wich- tigsten Konzepte von Smalltalk und führten die grafische Benutzungsoberfläche sowie beispielhafte Anwendungsprogramme vor. Jobs und seine Begleiter waren begeistert. Larry Tesler beschreibt ihre Reaktion folgendermaßen: »Atkinson (Chefprogrammierer des Lisa-Projekts, d. Autor) starrte aus kurzer Entfernung auf den Bildschirm, seine Nase war nur etwa fünf Zen- timeter davon entfernt. Alles schaute er sich sehr sorgfältig an. Und Jobs lief im Zimmer auf und ab und spielte sich auf. Er war sehr erregt. Als er dann sah, was ich alles auf dem Bildschirm machen konnte, schaute er ei- ne Minute zu, sprang dann schließlich im Zimmer herum und rief: ›Warum machen Sie nichts draus? Das ist das Größte! Das ist revolutionär!‹«4 Vor allem bekamen sie eine Vorstellung davon, wie ihr zukünftiger Compu- ter aussehen müßte. Nur Jef Raskin war nicht ganz zufrieden, nahm Tesler nach der Präsentation zur Seite und sagte etwas wie: »Larry, wir brauchen das meis- te hiervon gar nicht!« Alan Kay hatte immer geglaubt, Smalltalk sei so leicht zu bedienen, daß selbst Kinder damit umgehen konnten. Raskin deutete hingegen an, daß er seine eigenen Vorstellungen von Benutzerfreundlichkeit hatte, in denen kein Platz für eine objektorientierte Programmiersprache war. Die Zukunft des

weiß. Eine sind sich sogar unsicher, ob sie selbst an den Vorführungen teilgenommen haben, oder ob ihre „Erinnerung“ nicht auch auf Erzählungen beruhen. Vgl. Hiltzik 1999, S. 329f. 1 Dabei handelte es sich um Steve Jobs, John Couch, Mike Scott, Ken Rothmueller, G. W. »Trip« Hawkins, , Richard Page und Tom Whitney. 2 Das PARC wurde zu diesem Zeitpunkt umstrukturiert, um die dauernden Konflikte zwischen dem übergroßen Computer Science Laboratory und den anderen Labors zu beheben. Außerdem hatte das Zentrum zu dieser Zeit auch einen neuen Direktor bekommen, nachdem George Pake zu Xerox’ neuem Chefwissenschaftler befördert worden war. Vgl. Smith and Alexander 1988, S. 217ff. 3 Goldberg 1998, S. 70f. Goldbergs ablehnende Haltung war begründet: Bis zum Tag der Vorführung hatte sie – wie die meisten anderen Mitarbeiter des PARC – nichts von der Kooperation von Xerox und Apple gehört. Vgl. Hiltzik 1999, S. 335. 4 Larry Tesler, zitiert in Young 1989, S. 193 und in Levy 1995, S. 79.

380 7.2 Die Lisa – Apples Computer der Zukunft

Computers lag für ihn in der Benutzung von Anwendungsprogrammen und nicht in der Programmierung.1 Aber auch Tesler war beeindruckt vom Sachverstand, den die gut vorbereiteten Mitarbeiter von Apple an den Tag legten und von den intelligenten Fragen, die sie stellten. Da er zu diesem Zeitpunkt ohnehin der Meinung war, Xerox werde nie auf dem Computermarkt erfolgreich sein, wechselte er im Frühjahr 1980 zu Apple und übernahm dort die Leitung der Softwareentwicklung für die Lisa, mit der eine ganze Reihe von ehemaligen Xerox-Mitarbeitern beschäftigt war.2 Steve Jobs wurde hingegen im April 1980 wegen seines impulsiven, manchmal sogar unberechenbaren Managementstils als Leiter des Lisa-Projekts vom Management durch John Couch abgelöst.3

7.2.1 Die technischen Herausforderungen der Hardware

Nachdem Jobs erfolglos versucht hatte, Xerox zu einer Lizenzvergabe für die am PARC entwickelte Technologie zu bewegen, entschloß er sich, die Lisa nach dem Vorbild von Smalltalk gestalten zu lassen. Als erstes wurde der vergleichsweise teure Bitscheibenprozessor durch den Motorola MC 68000 Mikroprozessor er- setzt, der seit September 1979 auf dem Markt war. Außerdem sollte die Lisa eine abnehmbare Tastatur, einen hochauflösenden Schwarzweißbildschirm und eine grafische Benutzungsoberfläche erhalten, die mit einer Maus zu bedienen war. Ein erster Prototyp des so überarbeiteten Computers stand den Softwareent- wicklern ab Frühjahr 1980 zur Verfügung und besaß einen Hauptspeicher mit 1024 KByte Kapazität. Damit hatten sich die Softwareentwickler gegen die Mar- ketingabteilung durchgesetzt, die die Lisa mit nur 128 kByte anbieten wollten, um den Preis niedrig halten zu können.4 Als externe Speicher wurden zwei selbstentwickelte 5 1/4-Zoll-Diskettenlauf- werke mit einer Kapazität von jeweils 860 kByte eingesetzt, die wegen ihrer fla- chen Bauart auch als Twiggy-Laufwerke bezeichnet wurden. Die für damalige Verhältnisse sehr hohe Speicherkapazität konnte nur durch den Einsatz eines spe- ziellen Mikroprozessors erreicht werden, der den Motor und den Schreib-/Lese- kopf des Laufwerks steuerte.5 Da die Twiggy-Laufwerke bis zur Markteinführung der Lisa noch nicht die notwendige Betriebssicherheit erreicht hatten, wurden sie schon bald durch ein zuverlässigeres Diskettenlaufwerk von Sony ersetzt, dessen 3 1/2-Zoll-Disketten eine Kapazität von 400 kByte hatten.6

1 Email von Larry Tesler an den Autor, 6. März 1998; Raskin 1996; Raskin 1997. 2 Tesler 1985, S. 17; Goldberg 1998, S. 70. 3 Young 1989, S. 213; Levy 1995, S. 88f. 4 Tesler, in Morgan et al. 1983, S. 113. 5 Jordan et al. 1984; Morgan et al. 1983, S. 94; Williams 1983, S. 42. 6 Craig 1994, S. 21.

381 7. Die Computer für den Rest von uns

Abbildung 112. 2 (1983)

Ein hochauflösender Ganzseitenbildschirm, wie er beim Alto und beim Star verwendet wurde, kam aus Kostengründen für die Lisa nicht in Frage. Zum einen waren Bildröhren dieser Größe nicht nur teuer, sondern hätten auch das Gehäuse der Lisa wesentlich vergrößert. Zum anderen hätte ein größerer Monitor auch den Bedarf an (teurem) Hauptspeicher erhöht.1 Der tatsächlich verwendete Monitor 2 mit einer Bilddiagonale von 12 Zoll, einer Auflösung von 720¢364 Bildpunkten und einer Wiederholrate von 60 Bildern pro Sekunde war deshalb nur ein Kom- promiß, auf dem eine halbe Seite im amerikanischen Standard-Papierformat dar- gestellt werden konnte. Auf diese Weise betrug die notwendige Übertragungsrate zwischen den Speicher und dem Bildschirm nur ein Drittel dessen, was eine Ganz- seitendarstellung benötigte. Aus ergonomischen Gründen ging man auch von

1 Daniels 1984, S. 334. 2 Da wahrnehmungspsychologische Untersuchungen ergeben hatten, daß die horizonte Auflösung für ein scharfes Schriftbild wichtiger ist als die vertikale Auflösung, waren die Bildpunkte des Lisa-

Bildschirm nicht quadratisch, sondern in vertikaler Richtung gestreckt. Die 720¢364 Bildpunkte

der Lisa entsprachen deshalb einer Auflösung von 720¢564 quadratischen Punkten. Vgl. Daniels 1984, S. 333.

382 7.2 Die Lisa – Apples Computer der Zukunft

Abbildung 113. Von Apple konstruierte Maus mit opti- scher Abtastung und nur ei- nem Taster der verbreiteten Darstellung von weißen (oder grünen) Buchstaben auf schwar- zem Grund ab und wählte die auch bei Xerox verwendete Schwarz-auf-Weiß- Darstellung, die die Metapher des elektronischen Papiers unterstützte.1 Mit der Genehmigung von Xerox konstruierte man bei Apple eine eigene Maus (Abb. 113), die zuverlässiger und preiswerter herzustellen war als die am PARC verwendete Bauform. Statt der fehleranfälligen mechanischen Abtastung der Maus durch ein Reibrad und ein Potentiometer, wurde die Bewegung der Kugel nun durch einen optoelektronischen Sensor in elektrische Signale umge- wandelt.2 Vor allem aber hatte Apples Maus nur noch einen einzigen Taster, da Benutzertests zum Ergebnis geführt hatten, daß die Benutzer bei den herkömmli- chen Mäusen mit drei Tastern den Blick allzu häufig vom Bildschirm abwendeten, um sich zu vergewissern, welche Taste sie betätigten. Die Entwickler entschieden sich in dieser Situation nicht für die Verwendung von zwei Tasten, sondern direkt für die einfachste Lösung, eine Maus mit nur einer einzigen Taste.3 Diese scheinbar kleine konstruktive Änderung der Maus hatte allerdings er- heblichen Einfluß auf das Interaktionsmodell bei der Lisa und die Gestaltung der

1 Birss 1984, S. 321; Daniels 1984, S. 333. 2 Lapson and Atkinson 1984, Sp. 1f.; Atkinson 1988; Manock et al. 1986; Levy 1995, S. 85. 3 Birss 1984, S. 321.

383 7. Die Computer für den Rest von uns

Benutzungsoberfläche. Beim Alto konnte nämlich eine der Maustasten dazu ver- wendet werden, um ein Pop-up-Menü zu aktivieren. Mit nur einer Taste konnte man die Maus nur noch zum Zeigen und Markieren verwenden, so daß die Ent- wickler der Benutzungsschnittstelle eine andere Form der Befehlsauswahl einfüh- ren mußten.1 Die komplette Elektronik der Lisa war in ein kompaktes beigefarbenes Kunst- stoffgehäuse eingebaut, das der Industriedesigner William Dresselhaus entworfen hatte2, zu Reparaturzwecken mit wenigen Handgriffen geöffnet werden konnte und auf dem Schreibtisch jedes Managers Platz fand.

7.2.2 Die Schwierigkeiten einfacher Software

Während die Hardware der Lisa während der Entwicklungszeit nur vier größere Revisionen durchlief, war die Entwicklung des Softwaresystems für die Verzöge- rung der Markteinführung um fast zwei Jahre verantwortlich. Unmittelbar nach dem Besuch des PARC hatte Jobs seinen Starprogrammierer William D. (Bill) Atkinson gefragt, wie lange es dauern würde, eine grafische Benutzungsschnitt- stelle wie die von Smalltalk zu programmieren. Atkinson schätzte sechs Monate und lag damit um fast drei Jahre falsch. Nach diesen dreieinhalb Jahren waren 500 Mannjahre und 50 Mio. $ in die Entwicklung der Lisa geflossen.3 Das von Bruce Daniels entworfene Betriebssystem der Lisa (Lisa OS) hatte vier zentrale Aufgaben, nämlich die Verwaltung der Dateien, der laufenden Pro- zesse oder Programme und des Hauptspeichers sowie die Steuerung des Systems auf Grund von äußeren Ereignissen, beispielsweise Tastatureingaben.4 Anfangs hatte man die Verwendung des von den Bell Laboratorien entwickel- ten Betriebssystems Unix in Erwägung gezogen. Es stellte sich allerdings heraus, daß Unix wegen der Vielzahl von Funktionen u. a. für den Mehrbenutzerbetrieb zu speicherintensiv war. Außerdem befand man das Dateiverwaltungsystem fürzu unsicher.5 Da der typische Nutzer der Lisa keine speziellen Hardware- und Pro- grammierkenntnisse besaß und die Sicherheit vor Datenverlust fürBüroanwen- dungen besonders wichtig war, wurde ein besonders stabiles Dateisystem entwi- ckelt, das dem des Alto sehr ähnlich war. Auch bei der Lisa gab es Redundanzen

1 Daniels 1984, S. 336; Lapson and Atkinson 1984, Sp. 5f. Apples Entscheidung für eine Maus mit nur einem Taster führte zu den sogenannten »Button Wars«, in denen sich die Anhänger der Ein-, Zwei- oder Dreitastenmaus in fast religiöser Weise über den (einzig) richtigen Entwurf stritten. Vgl. Bardini 2000, S. 225ff. (Manuskript). 2 Dresselhaus et al. 1985. 3 Morgan et al. 1983, S. 99; Levy 1995, S. 80. 4 Daniels 1984, S. 333f. 5 Daniels, in Morgan et al. 1983, S. 104ff.

384 7.2 Die Lisa – Apples Computer der Zukunft in der Dateiverwaltung, so daß das Dateisystem im Fehlerfall mit dem bereits beim Alto benutzten Scavenger-Programm wiederhergestellt werden konnte.1 Da geplant war, in unterschiedlichen Bildschirmfenstern unterschiedliche Pro- gramme ablaufen zu lassen, mußte der Prozessor vom Betriebssystem mit Hilfe eines Prioritätenschemas an die laufenden Prozesse zugeteilt werden. Diese Mul- titaskingfähigkeit der Lisa zog aber auch die Notwendigkeit von Verfahren zum Speicherschutz, zur Verwaltung gemeinsam genutzter Datensegmente und Datei- en nach sich, die den Umfang und die Komplexität des Betriebssystems deutlich vergrößerten.2 Die wohl wichtigste Neuerung beim Betriebssystem der Lisa waren die soge- nannten Desktop Libraries, in denen grundlegende Routinen abgelegt waren, die für die Erzeugung und Verwaltung der grafischen Benutzungsoberfläche benö- tigt wurden. Es gab beispielsweise einen Window Manager, einen Font Manager und einen Print Manager, auf die alle Anwendungsprogramme zugreifen konnten und deren einheitliche Bedienung sicherstellten. Bestandteil der Desktop Libra- ries war auch eine Sammlung von Grafikroutinen mit dem Namen QuickDraw, die Bill Atkinson programmiert hatte. Diese Betriebssystemroutinen unterstütz- ten die Bildschirmausgabe von Linien, Rechtecken, Ovalen und Bögen, war da- bei aber deutlich schneller als die beim Alto verwendeten BitBlt-Routinen von Dan Ingalls.3 Anders als bei Smalltalk auf dem Alto konnte ein Programm auf der Lisa damit auch in die verdeckten Bereiche eines Fensters zeichnen. Wurde ein Fenster geschlossen oder verschoben, wurde der Inhalt der verdeckten Fenster automatisch wiederhergestellt.4 Nach dem Besuch des Xerox PARC und der Fertigstellung des ersten Pro- totypen der Lisa entwickelte auch die Entwicklung der Benutzungsschnittstelle Anfang 1980 eine eigene Dynamik. Die Entwickler gaben das textbasierte Lay- out und die Softkeys auf und begannen mit den Elementen, die sie bei Smalltalk gesehen hatten, zu experimentieren. Es entstand eine erste Benutzungsoberfläche mit Fenstern und Icons, die mit der Maus zu bedienen war und als Desktop Ma- nager bezeichnet wurde.5 Statt der Pop-up-Menüs von Smalltalk wurde eine am oberen Bildschirmrand angeordnete Befehlsleiste eingeführt (Abb. 114). Die Befehlsleiste enthielt eine Reihe von Befehlskategorien, die durch Anklicken zu einer vollständigen Liste der Befehle aufklappte (Pull-down-Menü). Der Benutzer markierte nun mit der Maus ein Objekt auf dem Bildschirm, öffnete eines der Menüs in der Befehlsleis- te und wählte mittels »Drag & Drop« (Ziehen und Loslassen) den gewünschten 1 Daniels 1983; Daniels 1984, S. 333f. 2 Daniels 1984, S. 335f.; Craig 1994, S. 23. 3 Atkinson 1986; Daniels 1984, S. 339. Mit QuickDraw konnten 4000 Zeichen, 800 Linien oder 160 Quadrate pro Sekunde erzeugt werden. 4 Horn 1996. 5 Perkins et al. 1997, S. 45f.

385 7. Die Computer für den Rest von uns

Abbildung 114. Desktop der Apple Lisa

Befehl aus. »Drag & Drop« war eine erstmals bei der Lisa verwendete Technik zur direkten Manipulation von Bildschirmobjekten.1 Dabei wird das zu manipulieren- de Objekt durch Drücken der Maustaste markiert und kann so lange manipuliert werden, bis der Benutzer die Taste wieder losläßt. Bei den Pull-down-Menüs der Lisa bedeutete dies, daß der Benutzer ein Menü durch Drücken der Maustaste ak- tivierte, den Mauszeiger dann bei gedrückter Taste auf den gewünschten Befehl bewegte. Beim Loslassen der Maustaste wurde dann die entsprechende Aktion ge- startet und das Menü verschwand wieder vom Bildschirm. Bei einem Texteditor

1 »Direkt« ist die direkte Manipulation im eigentlichen Sinne gar nicht, sie ist indirekt und durch Maus und Bildschirm vermittelt. Dennoch ist die Bezeichnung gerechtfertigt, da die Koordination von Hand und Auge, die die Maus führen und gleichzeitig den Cursor beobachten, den allermeisten Menschen nach kurzer Übung sehr gut gelingt. Die kognitive Distanz zwischen Wahrnehmung der Maus- und Cursorbewegung wird sensomotorisch geschluckt, die Distanz zu den bearbeitenden Gegenständen verschwindet. Es ist tatsächlich so, als würde man die Dinge direkt manipulieren. Vgl. dazu Nake 1995, S. 40

386 7.2 Die Lisa – Apples Computer der Zukunft konnte man beispielsweise Text markieren, indem man den Cursor bei gedrückter Maustaste über den zu markierenden Text bewegte, usw.1 Die Verwendung einer gemeinsamen Befehlsleiste für alle Programme führte ebenfalls zu einer gewissen Einheitlichkeit der Handhabung, da die Menüs auf der linken Seite immer gleich blieben. Der Benutzer eines Anwendungsprogramms konnte sicher sein, daß sich unter dem Menüpunkt File/Print die Befehle zum Laden, Speichern und Drucken eines Dokuments und unter dem Menüpunkt Edit alle Funktionen zum Ausschneiden, Kopieren und Einsetzen von Objekten befanden. Insofern hatte die Einführung der gemeinsamen Befehlsleiste bei der Lisa eine ähnlich normierende Wirkung wie die generischen Befehle der Star- Workstation.2 Bei diesen anfänglichen Experimenten bildete sich bald ein Standard heraus, der als »look and feel« der Benutzungsschnittstelle bezeichnet wurde. Dies be- deutete, daß alle Anwendungsprogramme ein einheitliches Aussehen und eine einheitliche Benutzerführung haben sollten. Als Resultat dieses Prozesses wurde im Oktober 1980 ein 35seitiges Dokument mit dem Titel »Lisa User Interface Standard« formuliert, in dem detailliert festgelegt wurde, was bei der Entwick- lung von Anwendungsprogrammen zu beachten war.3 Dies bedeutete freilich nicht, daß damit die Entwicklung der Benutzungs- schnittstelle abgeschlossen war. Insbesondere war noch zu klären, wie Dokumen- te erzeugt, gelöscht und auf der Diskette lokalisiert werden sollten. Als besonders langwierig erwies sich vor allem die Suche nach einem ein- fachen und leistungsfähigen Verfahren zur Archivierung und zum Wiederauffin- den von Dokumenten. Zunächst hatte man zur Visualisierung des (hierarchischen) Dateiverzeichnisses die Metapher des Ordners gewählt, der auf dem Bildschirm durch einen Aktenreiter mit dem Namen des Ordners symbolisiert wurde. Jeder Ordner konnte Dokumente und weitere Ordner enthalten. Es kamen aber Beden- ken auf, ob die gleichzeitige Verwendung von Dokumentenfenster und Icons auf dem 12-Zoll-Monitor nicht zu unübersichtlich wäre. Es gab auch Zweifel, ob sich ein Dokument bei der Verwendung verschachtelter Ordner einfach und schnell lokalisieren ließe.4 Aus diesem Grund experimentieren die Entwickler des Desktop Managers im Herbst 1980 zunächst mit einem Browser, wie ihn Larry Tesler für die Darstellung der Smalltalk-Klassenhierarchie entwickelt hatte. Obwohl das Auffinden von Do- kumenten auf diese Weise sehr viel einfacher war, wurde der Ansatz bald wieder

1 Shneiderman 1983; Birss 1984, S. 322ff.; Lapson and Atkinson 1984, Sp. 6f. 2 Daniels 1984, S. 336, 338. 3 Morgan et al. 1983, S. 100. 4 Perkins et al. 1997, S. 47f.

387 7. Die Computer für den Rest von uns aufgegeben, da sich andere wichtige Funktionen wie das Kopieren eines Doku- ments von einem Verzeichnis in ein anderes nur schlecht realisieren ließen. Da das Browserkonzept außerdem zu abstrakt war, wurde im Frühjahr 1981 ein hier- archischer Browser entwickelt, der als »Twenty Questions Filer« bezeichnet wur- de. Dabei konnte der Benutzer in einer Eingabemaske festlegen, welchen Namen das gesuchte Dokument hat, ob es sich um einen Text, Grafik oder ein Rechenblatt handelt usw. Dieser Entwurf war zwar einfacher zu bedienen als der Browser,war aber immer noch wenig anschaulich und widersprach der Maxime, daß die Bedie- nung der Lisa Spaß machen sollte.1 Unter dem Eindruck des soeben vorgestellten Xerox Star und anderer experi- menteller Systeme bei IBM und am MIT kamen die Entwickler Ende 1981 lang- sam wieder zum ursprünglichen Entwurf mit Fenstern und Icons zurück.2 Bei dem aktualisierten Entwurf wurde allerdings nicht mehr zwischen den Verfahren zur Darstellung von Dokumenten und dem Dokumentenbrowser unterschieden. Egal ob der Benutzer ein Dokument oder einen Ordner öffnete, der Inhalt wurde in einem neuen Fenster angezeigt. Dabei führte das Betriebssystem der Lisa eine umfangreiche Folge von Aktionen durch: »When a user ›opens‹ any document icons, the Desktop Manager deter- mines the exact type of document which the user desires to open. Associ- ated with each document type is a Lisa tool, or application program. The Desktop Manager calls the Window Manager to establish a window with the same size and position on the screen as the document had when it was last opened. The Desktop Manager sends a DocOpen event to the new pro- cess passing both the window to be used and the identity of the document to be opened. When the application process retrieves the event, it opens the document files and displays the document in the window. Finally, the Desktop Manager makes the new window be the active window so that the user can proceed and edit its contents.«3 Neue Dokumente wurden bei der Lisa –ähnlich wie beim Xerox Star – durch Kopieren einer Vorlage erzeugt, die als Formular bezeichnet wurde. Das linke obere Fenster in Abbildung 114 enthält solche Formulare (Templates) für unter- schiedliche Anwendungen. Durch Öffnen des Formulars mit dem Namen »Li- saWrite Paper« wurde ein neues Textdokument erzeugt, das mit dem Programm LisaWrite bearbeitet werden konnte. Um ein Dokument zu löschen, wurde es mit- tels »Drag & Drop« einfach auf das neueingeführte Symbol für den Papierkorb

1 Perkins et al. 1997, S. 48ff. Das Konzept des System Browsers wurde später von Microsoft für den Dateimanager seiner eigenen grafischen Benutzungsoberfläche Windows verwendet. Der »Twenty Question Filer« wurde zur Grundlage des Macintosh-Dienstprogramms »Datei finden«. 2 Bolt 1979; Perkins et al. 1997, S. 50ff. 3 Daniels 1984, S. 340.

388 7.2 Die Lisa – Apples Computer der Zukunft

(Wastebasket) geschoben. Der Papierkorb war zunächst eines der umstrittensten Elemente der Lisa-Oberfläche, da er wie jedes andere Element durch ein Fenster verdeckt werden konnte und deswegen nicht immer unmittelbar zur Verfügung stand.1 Die Geschichte des Mikrocomputers seit 1975 hatte gelehrt, daß der Erfolg oder Mißerfolg eines neuen Computers entscheidend davon abhängt, wie schnell leistungsfähige Programme für die wichtigsten Anwendungen auf den Markt ka- men. Um dabei nicht von anderen Unternehmen abhängig zu sein, die außerdem bislang keine Erfahrung mit grafischen Benutzungsschnittstellen besaßen, wurden parallel zum Desktop Manager auch sechs Anwendungsprogramme entwickelt, von denen das Unternehmen annahm, daß sie für einen potentiellen Käufer von besonderer Wichtigkeit wären. Es handelte sich dabei um die Textverarbeitung LisaWrite, das Zeichenpro- gramm LisaDraw, die Tabellenkalkulation LisaCalc mit dem dazugehörenden Programm zur Erzeugung von Geschäftsgrafiken (LisaGraph), die Datenbank Li- saList und das Projektplanungsprogramm LisaProject. Außerdem gab es ein Ter- minalemulationsprogramm, mit dessen Hilfe man über ein Computernetzwerk auf einem Groß- oder Minicomputer arbeiten konnte.2 Diese Strategie, das sogenann- te »Bundling«, wurde bei der Markteinführung der Lisa auch ausdrücklich gelobt, auch wenn an einzelnen Programmen nicht unerhebliche Kritik geübt wurde.3 Die Anwendungsprogramme wurden von Apple als integriertes Softwaresys- tem konzipiert, obwohl es sich genaugenommen um sechs einzelne Programme handelte. Deswegen wurde ein Verfahren für einen problemlosen Austausch von Daten zwischen den Programmen entwickelt, in dessen Zentrum die sogenannte Zwischenablage (Clipboard) stand. In Analogie zur Arbeitsweise von Grafikern konnte der Benutzer ein beliebiges Objekt, einen Text, eine Tabelle oder Grafik »ausschneiden«. Das Objekt wurde dann zusammen mit der Information über die Datenform in der Zwischenablage abgelegt. Wechselte er dann in ein anderes Pro- gramm, konnte er das Objekt aus der Zwischenablage in ein anderes Dokument einsetzen – man sprach deswegen auch von der Methode des »Copy & Paste« (Kopieren und Einsetzen). Auf dieser Weise war es möglich, eine Tabelle in Lisa- Calc zu erstellen, diese in ein LisaGraph-Dokument zu importieren. Die aus der Tabelle erzeugte Grafik konnte dann von LisaWrite in ein Textdokument über- nommen werden.4

1 Birss 1984, S. 321f. 2 Craig 1994, S. 20; Birss 1984, S. 326. 3 Nulty 1983, S. 38; Williams 1983, S. 39ff. Als die ersten Anwendungen von Fremdanbietern auf den Markt kamen und 1984 auch Macintosh-Programme auf der Lisa laufen konnten, wurde diese Strategie zugunsten eines niedrigeren Preises aufgegeben. Vgl. Williams 1984a, S. 84. 4 Birss 1984, S. 326f.

389 7. Die Computer für den Rest von uns

7.2.3 Enthusiasmus, Enttäuschung und Hoffnung

Als die Apple Lisa am 19. Januar 1983 der Öffentlichkeit vorgestellt wurde, war das Interesse und der Enthusiasmus zunächst groß, wobei speziell von den Fachjournalisten immer wieder auf die Benutzerfreundlichkeit des Systems hin- gewiesen wurde.1 Apple selbst behauptete, innerhalb von nur 45 Minuten könne jeder die Bedienung der Lisa erlernen und lieferte zu diesem Zweck auch noch ein interaktives Lernprogramm mit aus.2 Erste Praxis- und Vergleichstests ließen jedoch Zweifel an diesem Verspre- chen aufkommen. So verglich das Wirtschaftsmagazin Fortune im Dezember 1983 die wichtigsten Softwarepakete für Manager, neben Produkten für den IBM Personal Computer auch die Anwendungsprogramme für die Lisa. Anders als bei der positiven Besprechung bei der Produktvorstellung im Frühjahr kam man nun zu dem Ergebnis, daß die Arbeit mit der Lisa zwar deutlich mehr Spaß bereite als mit allen anderen Programmen, aber deutlich mehr Zeit benötige.3 Zusammen- fassend kam die Autorin zu dem Urteil, ». . . if an executive has loads of time, doesn’t need to use the computer much, but wants some sort of machine to sit in his office, Lisa is probably the best bet.«4 Noch härter urteilten Jonathan und Andrew Seybold: »For executives it’satoy.«5 Hatten die Programmentwickler eine falsche Vorstellungvon der Arbeitsweise der Benutzer oder hatten die entwicklungsbegleitenden Benutzertests einen me- thodischen Fehler gehabt? Zumindest für die schlechten Ergebnisse des Vergleichstests in Fortune war die Erklärung relativ einfach. Offensichtlich besaßen die Testpersonen zwar ei- nige Fähigkeiten im Umgang mit Programmen für den IBM Personal Computer, hatten aber noch nie mit einem Computer mit grafischer Benutzungsoberfläche gearbeitet. Unter diesen Voraussetzungen – so die Einschätzung eines Apple- Ingenieurs – habe der Benutzer die Aufgabe in einer angemessenen Zeit gelöst, ein erfahrener Benutzer wäre hingegen deutlich schneller gewesen. Es hatte sich nämlich herausgestellt, daß die Testperson die Möglichkeiten des Datentransfers zwischen zwei Programmen nicht erkannt hatte. Die explorativ zu erlernende und intuitiv zu bedienende Benutzungsoberfläche der Lisa barg nämlich die Gefahr, daß sich ein neuer Benutzer mit einigen grundlegenden Funktionen vertraut mach- te, ohne zu ahnen, welche Funktionen das System darüber hinaus bot. Ähnlich wie

1 Merkin 1983; Williams 1983; Chin 1984. 2 Birss 1984, S. 322f. 3 Uttal 1983a, S. 138f. Die Testpersonen benötigten für die Erstellung einer Geschäftsgrafik bei Verwendung der Lisa 35 Minuten, mit den Konkurrenzprodukten für den IBM Personal Computer zwischen 13 und 28 Minuten. 4 Uttal 1983a, S. 142. 5 Seybold and Seybold 1983, S. 27.

390 7.2 Die Lisa – Apples Computer der Zukunft einige Jahre zuvor im Zusammenhang mit dem am PARC entwickelten Gypsy- Editor hatte sich nämlich die Einschätzung verbreitet, eine einfach zu bedienende Benutzungsschnittstelle könne nur für einfache Aufgaben wirklich nützlich sein.1 Die Lisa hatte also nicht nur gegen die bereits erworbenen Fähigkeiten vie- ler Büroangestellten und Manager im Umgang mit dem IBM Personal Computer anzukämpfen, sondern auch gegen Vorurteile gegenüber dem neuen Konzept der Mensch-Computer-Kommunikation. Eine unabhängige wissenschaftliche Untersuchung stellte jedoch einige Zeit später deutlich heraus, daß die Lisa tatsächlich nicht so bedienerfreundlich war, wie es die Entwickler selbst, die Marketingabteilung von Apple und Journalisten der Computerpresse dargestellt hatten. Zentrale Kritikpunkte waren die Schwä- chen der verwendeten Metaphern, die langen Antwortzeiten des Systems, die für viele Laien unverständlichen Systemmeldungen und die schlechten Handbücher. Beispielsweise wurde beklagt, daß das zentrale Konzept des Formulars für vie- le Benutzer verwirrend gewesen sei, weil man ein Blatt Papier nicht vor der Be- nutzung von einem Block abreißt, weil das Erzeugen eines neuen Ordners oder ei- ner Terminalemulation nicht zur Metapher des Formularblocks passe, usw. Auch viele der Begriffe, mit denen die Entwickler des Systems teilweise schon mehr als zehn Jahre umgingen, waren für die Benutzer nichtssagend oder sogar miß- verständlich.2 Es wurde berichtet, ein Benutzer habe mit dem Begriff des Icons im Zusammenhang mit dem Computer nichts anfangen können, weil er Ikonen nur als religiöse Gemälde kannte. Andere hatten Schwierigkeiten zwischen dem Icon und dem Gegenstand, das es symbolisierte, zu unterscheiden (z. B. dem Dis- kettenicon und der Diskette).3 Die langen Antwortzeiten des Systems waren eine weitere Quelle möglicher Frustrationen. Computerspezialisten urteilten zwar milde, die Lisa reagiere im Vergleich zu typischen CP/M-Systemen bei vielen Operationen sogar sehr schnell auf die Benutzereingaben, betrachteten das Antwortverhalten aber dennoch als problematisch. Nichtfachleute reagierten häufig mit Verunsicherung auf die lan- gen Wartezeiten beim Starten des Systems, betätigten unkontrolliert Tasten und Knöpfe und brachten damit die Software nicht selten zum Absturz.4 Schließlich hatte die Lisa nach dem Willen seiner Entwickler ein besonders fehlertolerantes System sein sollen. Dies sollte nicht nur durch die Verwendung

1 Birss 1984, S. 327. 2 Larry Tesler gab allerdings schon 1985 zu bedenken, wie schwierig es war, treffende und gleich- zeitig eingängige Begriffe zu prägen und daß man sich dieser Problematik bereits während der Entwicklung der Lisa bewußt gewesen sei. Vgl. Tesler 1985, S. 17. 3 Carroll and Mazur 1986, S. 41ff. Owen Linzmayer widmete den »dümmsten Benutzerfehlern« ein ganzes Kapitel in seinem Buch »The Mac Bathroom Reader«, das einen guten Überblick möglicher Mißverständnisse gibt. Vgl. Linzmayer 1994, S. 173–184. 4 Carroll and Mazur 1986, S. 37f.;Williams 1983, S. 50.

391 7. Die Computer für den Rest von uns von Bildschirmmenüs statt einer kryptischen Befehlssprache und die einheitliche Bedienung aller Anwendungsprogramme erreicht werden, sondern auch durch aussagekräftige und allgemeinverständliche Fehlermeldungen. Diese sollten den Benutzer darüber informieren, was er falsch gemacht hatte und wie er den Fehler zukünftig vermeiden konnte. Obwohl die Fehlermeldungen bei der Lisa weitaus besser waren als bei dem meisten anderen Computersystemen der Zeit, wurde die allgemeinverständliche Formulierung nicht konsequent durchgehalten. Schon ei- ne scheinbar harmlose Meldung wie »4692 Blöcke von 9690 frei«, die nach dem ordnungsgemäßen Abspeichern eines Dokuments erschien, konnte einen unerfah- renen Benutzer in Zweifel bringen, ob er alles richtig gemacht hatte.1 Obwohl selbst Kritiker anerkennen mußten, daß die Lisa trotz ihrer Schwä- chen der weitaus benutzerfreundlichste Mikrocomputer der frühen achtziger Jahre war, wurde sie nicht zu dem durchschlagenden Erfolg, den Apple erwartet hatte. Dafür waren die Unterschiede zwischen der Lisa und dem fast schon ubiquitären IBM Personal Computer und der finanzielle Aufwand für einen Umstieg ange- sichts der Inkompatibilität zwischen den Systemen zu groß. Schließlich war die Lisa mit einem Preis von anfangs 9 995 $ inklusive der Anwendungsprogramme immer noch deutlich teurer als ein Personal Computer von IBM. Schon Ende 1983 reagierte Apple mit der Ankündigung der Lisa 2 auf den schleppenden Verkauf. Statt der zwei 5 1/4-Zoll-Diskettenlaufwerke war die Li- sa 2 mit einem 3 1/2-Zoll-Diskettenlaufwerk und einer Festplatte mit 5 oder 10 MB Kapazität ausgerüstet. Weil auch die Anwendungsprogramme nicht mehr zum Standard-Lieferumfang gehörten, konnte Apple die Preise für die Lisa auf unter 5 500 $ senken. Damit lagen die Anschaffungskosten für eine Apple Li- sa 2 nur unwesentlich höher als für einen IBM Personal Computer mit ähnlicher Hauptspeicher- und Festplattenkapazität.2 Interne Planungen sahen vor, bis Ende 1983 10 000 und im Laufe des Jahres 1984 weitere 40 000 Lisa-Computer zu verkaufen. Trotz des schleppenden Be- ginns konnte das Unternehmen diese Planungen annähernd einhalten und bis zur Einstellung der Lisa im April 1985 insgesamt 80 000 Geräte verkaufen.3 Schon im Februar 1983 hatte sich Gregg Williams von der Zeitschrift Byte am Ende seines ansonsten begeisterten Berichts kritisch über die Marktchancen der in seinen Augen überteuerten Lisa geäußert. Er schloß aber mit den hoffnungsvollen Worten: »Fortunately for us, the history of computing does not stop with the Lisa. Technology, while expensive to create, is much cheaper to distribute. Apple knows this machine is expensive and is also not unaware that most people

1 Carroll and Mazur 1986, S. 47f. 2 Williams 1984a; Williams 1984c; Anonymous 1984; Redhed 1984. 3 Craig 1994, S. 21.

392 7.3 Small is beautiful: Der Apple Macintosh

would be incredibly interested in a similar but less expensive machine. We’ll see what happens.«1 Der Computer, der die besten Teile der Lisa-Technologie für jedermann er- schwinglich machte, war zu diesem Zeitpunkt bereits bei Apple in der Entwick- lung: der Macintosh oder kurz Mac.

7.3 Small is beautiful: Der Apple Macintosh

The Mac is the first computer good enough to be criticized. Alan C. Kay2

7.3.1 Lisas kleiner Bruder

Schon einige Monate bevor Steve Jobs das Entwicklungsprojekt für die Lisa an- regte, genehmigte Mike Markkula im März 1979 ein kleines Forschungsprojekt, das Jef Raskin (* 1943) vorgeschlagen hatte.3 Raskin, der bis 1977 Professor für Informatik und Leiter eines Rechenzentrums an der University of California in San Diego gewesen war, hatte die Vision eines Computers, der dem Dynabook nicht unähnlich war, aber auch von den Ideen der Volkscomputerbewegung be- einflußt war.4 Die Zeitschrift Dr. Dobb’s Journal schrieb 1976, Raskin sei »well known for his heretical belief that people are more important than computers, and that computer systems should be designed to alleviate human frailties, rather than have the human succumb to the needs of the machine«.5 Der Computer, den Raskin nach seiner Lieblingsapfelsorte Macintosh taufte, sollte nach seinen Vorstellungen ein 8-bit-Mikrocomputer mit 64 kByte Haupt- speicher und einem Diskettenlaufwerk sein, weniger als 10 kg wiegen und mit einem Preis von unter 1 000 $ die Nachfolge des Apple II antreten.6 Anfangs war allerdings von einem Produkt noch keine Rede, da Raskins Projekt intern nicht als Entwicklungs- sondern als Forschungsprojekt behandelt wurde und deshalb auch nur einen geringen Etat besaß.

1 Williams 1983, S. 50. 2 Zitiert in Linzmayer 1994, S. 136. 3 Raskin 1996. 4 Raskin 1982. 5 Raskin 1976, S. 17. 6 Linzmayer 1994, S. 88, 98.

393 7. Die Computer für den Rest von uns

Abbildung 115. Jef Raskin (1984)

Nach dem offiziellen Start des Projekts im September 1979 engagierte Raskin Brian Howard und , die für die Entwicklung der Hardware verant- wortlich waren. Im Herbst 1980 stieß auch noch Raskins ehemaliger Student Guy Tribble als Softwareentwickler zu der Projektgruppe.1 In den ersten Monaten stellten sie zunächst das sogenannte »Book of Mac- intosh« zusammen, das Entwurfsideen, einen Geschäfts- und Marketingplan so- wie die allgemeine Produktphilosophie enthielt. Darin hieß es unter anderem »the purpose of this design is to create a low-cost portable computer so useful that its owner misses it when it’s not around . . . even if it’s not a computer freak«2, und verband Aspekte der PARC-Philosophie, die Raskin bei seinen regelmäßigen Be- suchen während der frühen siebziger Jahre kennengelernt hatte mit dem schnör- kellosen und funktionalen Entwurf des Apple II. Raskins Macintosh-Projekt hatte also anfangs eine völlig andere Zielrichtung als Jobs’ Lisa und war auch techno- logisch sehr viel weniger anspruchsvoll. Schon Ende 1979 stellte Burrell Smith den ersten Prototypen3 des neuen Com- puters fertig, dessen Zentrum ein 6809-Mikroprozessor von Motorola war. Da- bei handelte es sich um eine Weiterentwicklung des höchst erfolgreichen 8-bit- Mikroprozessors MC 6800, der allerdings nicht leistungsfähiger war als der im Apple II verwendete Prozessor. Als Anzeige wurde zu diesem Zeitpunkt ein Fern-

1 Raskin 1996; Markoff and Shapiro 1984, S. 347. 2 Zitiert in Levy 1995, S. 111. 3 In Anhang 8 wird ein Überblick über die Entwicklung der Macintosh-Hardware zwischen 1979 und 1984 gegeben.

394 7.3 Small is beautiful: Der Apple Macintosh sehbildschirm verwendet, und Software konnte mit Hilfe eines Cross-Compilers auf dem Apple II entwickelt werden.1 Nach dem schnellen Start kamen die Entwicklungsarbeiten während des Jah- res 1980 allerdings nicht richtig voran, unter anderem weil sich Raskin darüber klar war, daß seinem Projekt angesichts der anlaufenden Entwicklungsarbeiten für die Lisa die Einstellung drohte. Als die Geschäftsleitung im Oktober 1980 tatsächlich die Beendigung der Arbeiten am Macintosh beschloß, konnte Raskin allerdings von Mike Scott einen Aufschub um drei Monate erwirken.2 Während dieser drei Monate, so plante das Team, würde man etwas so ein- drucksvolles entwickeln, daß das Management das Projekt verlängern mußte. Dieses Ziel war allerdings nicht leicht zu erreichen, zumal der Macintosh als be- sonders einfacher und preiswerter Computer geplant war, und die Entwickler der Lisa bereits eine erste grafische Benutzungsoberfläche vorweisen konnten. Um an diesen Entwicklungen teilhaben und insbesondere Bill Atkinsons QuickDraw- Routinen übernehmen zu können, setzte sich Guy Tribble vehement dafür ein, Motorolas neuen leistungsfähigen 68000-Prozessor auch für den Macintosh zu verwenden. Während Jef Raskin aus Kostengründen gegen den Einsatz des 68000 war, gab Steve Jobs’ Votum im Januar 1981 schließlich den Ausschlag für den Einsatz des teureren 16-bit-Prozessors.3 Nachdem er im Herbst 1980 die Leitung der Lisa-Entwicklung an John Couch hatte abgeben müssen, mischte sich Jobs seit Anfang 1981 immer stärker in die Entwicklung des Macintosh ein. Dies führte nach kurzer Zeit unweigerlich zum Konflikt mit Jef Raskin, der ohnehin nicht mit Jobs impulsivem Stil zurechtkam. Bereits im Februar 1981 beklagte er sich in einem Memorandum an die Geschäfts- leitung über die Schwierigkeiten bei der Zusammenarbeit mit Jobs und unterstell- te ihm implizit, er wolle ihn aus dem Projekt drängen. Tatsächlich war die Si- tuation mit zwei Projektleitern nicht haltbar und Jobs war als Mitbegründer des Unternehmens in der stärkeren Position. Raskin wurden mehrere andere Positio- nen innerhalb des Unternehmens angeboten, die er ohne Ausnahme ablehnte. Im Februar 1982 zog Raskin schließlich die Konsequenz des frustrierenden Macht- kampfes und kündigte.4

1 Markoff and Shapiro 1984, S. 347. 2 Guterl 1984, S. 34f.; Linzmayer 1994, S. 93. 3 Markoff and Shapiro 1984, S. 348ff.; Lemmons et al. 1984, S. 58ff. 4 Markoff and Shapiro 1984, S. 354f.; Linzmayer 1994, S. 95; Raskin 1994c. 1987 erhielt Raskin die Gelegenheit, seine Vision eines benutzerfreundlichen und preiswerten Computers doch noch zu realisieren. Für die Canon Corp. konstruierte er die »Canon Cat«, von der 20 000 Exemplare zu 1 495 $ verkauft wurden. Nach nur sechs Monaten stellte Canon die Produktion der »Cat« vemutlich wegen interner Konflikte mit der Abteilung für elektrische Schreibmaschinen wieder ein. Vgl. Linzmayer 1994, S. 112f.

395 7. Die Computer für den Rest von uns

Der Wechsel an der Spitze sicherte aber nicht nur die weitere Existenz des Pro- jekts, sondern gab ihm auch eine neue Richtung. Jetzt war der Macintosh Jobs’ »Traumcomputer« und er setzte alles daran, ihn zum »kleinen Bruder« der Lisa zu machen. Er veranlaßte, daß die mittlerweile 20 Mitarbeiter des Teams in ein Gebäude abseits von Apples Geschäftszentrale umzogen, um dort unbeeinflußt vom normalen Geschäftsbetrieb arbeiten zu können.1 Im Laufe des Jahres 1982 wurde das Projekt auch offiziell weiter aufgewertet. Nach dem Mißerfolg des Ap- ple III, einer ersten Krise des Unternehmens und dem überraschenden Erfolg des IBM Personal Computers entwickelte sich der Macintosh zunehmend zum Hoff- nungsträger bei den Computern des mittleren Preissegments.2 Technologisch näherte sich der Macintosh immer mehr der Lisa an. Bereits unmittelbar nachdem sich Jobs des Projekts angenommen hatte, legte er fest, daß der Macintosh wie die Lisa mit einem Rasterbildschirm, einer Maus und einer ge- trennten Tastatur ausgestattet sein sollte. Insbesondere der Rasterbildschirm be- reitete mit Blick auf die Kosten einige Probleme. Anfänglich sollte die Auflösung

bei bescheidenen 256¢256 Punkten liegen. Es stellte sich aber heraus, daß es bei einer solchen Auflösung nicht möglich war, 80 Buchstaben in einer Zeile darzu- stellen. Um nicht vom Prinzip des WYSIWYG abrücken zu müssen, wurde die

Auflösung bis Ende 1982 schrittweise auf 512¢342 Punkte erhöht. Durch die mehr als verdoppelte Zahl der Bildschirmpunkte erhöhte sich allerdings auch der Speicherbedarf entsprechend. Da auch die Software des Macintosh im Laufe der Zeit immer umfangreicher wurde, mußte der Hauptspeicher schließlich von 64 auf 128 kByte vergrößert werden.3 Nachdem man bereits QuickDraw übernommen hatte, wurden Überlegungen angestellt, ob auch Anleihen beim Betriebssystem, der grafischen Benutzungs- oberfläche und den Anwendungsprogrammen der Lisa gemacht werden soll- ten. Aber nur selten konnte die Lisa-Software unverändert übernommen wer- den. Meist mußten die Programme in ihrer Funktionalität verkleinert und an die bescheidenere Architektur des Macintosh angepaßt werden. Die Programment- wickler der Lisa setzten beispielsweise die PARC-Tradition fort, Anwendungs- programme und selbst Systemsoftware in einer höheren Programmiersprache zu schreiben. Die Entwickler des Macintosh waren überwiegend Hacker, die Pro- gramme mit Vorliebe in Maschinensprache schrieben. Sie versuchten dabei, den Programmcode so kompakt wie möglich zu halten; angesichts der geringen Spei-

1 Jef Raskin behauptet allerdings, er habe den Umzug veranlaßt, um den täglichen Konflikten mit Steve Jobs zu entgehen. Vgl. Raskin 1994c. 2 Linzmayer 1994, S. 96; Levy 1995, S. 123ff. 3 Markoff and Shapiro 1984, S. 350.

396 7.3 Small is beautiful: Der Apple Macintosh cherausstattung des Macintosh war dies auch die einzige Möglichkeit, ihre ambi- tionierten Ziele zu erreichen.1 So war das Betriebssystem des Macintosh eine schlankere, völlig neuimple- mentierte Version des Lisa OS, das (* 1953) innerhalb von drei Jahren entwickelte. Die wichtigsten Änderungen waren der Verzicht auf das hoch- redundante Dateisystem und die Multitaskingfähigkeiten der Lisa, durch die auch die speicherintensive Memory Management Unit der Lisa überflüssig wurde. Dies bedeute allerdings auch, daß der Benutzer nicht mehr mit mehreren Program- men gleichzeitig arbeiten konnte. Um dennoch Daten zwischen den Programmen austauschen zu können, wurde für die Zwischenablage ein eigener, von allen Pro- grammen nutzbarer Speicherbereich reserviert. Wollte man nun beispielsweise eine Grafik in ein Textdokument übernehmen, kopierte man die Grafik wie bei der Lisa in die Zwischenablage, mußte dann allerdings das Grafikprogramm be- enden und das Textverarbeitungsprogramm starten, konnte dann aber problemlos die Grafik aus der Zwischenablage in ein Dokument übernehmen. Außerdem wur- den sogenannte Schreibtischprogramme eingeführt, kleine Programme wie ein Kalender oder ein Taschenrechner, für die ebenfalls spezielle Speicherbereiche reserviert waren und deswegen tatsächlich parallel zu einem »richtigen« Anwen- dungsprogramm laufen konnten.2 Ebenso wie beim Rest der Systemsoftware ließen sich die Entwickler auch bei der grafischen Benutzungsoberfläche von der Lisa inspirieren. Der sogenann- te Finder, das Gegenstück zum »Desktop Manager« der Lisa, wurde von Bruce Horn und , zwei ehemaligen PARC-Mitarbeitern, völlig neu in Ma- schinensprache programmiert. Eine der wichtigsten Neuerungen war dabei die Trennung des eigentlichen Programmcodes von den sogenannten Ressourcen, zu denen z. B. Fenster, Menüs und die Texte der Systemmeldungen gehörten. Da- durch wurde es möglich, das Aussehen der Benutzungsoberfläche mit Hilfe ei- nes kleinen Dienstprogramms zu verändern, ohne den eigentlichen Programm- text verändern und neu übersetzen zu müssen. Dies wurde beispielsweise genutzt, um in kurzer Zeit nicht-englischsprachige Versionen von Macintosh-Programmen zu produzieren, wobei die mit dieser Aufgabe beschäftigten Übersetzer keinerlei Programmierkenntnisse besitzen mußten.3 Trotz aller Bemühungen wurde die Systemsoftware des Macintosh schließlich doch so umfangreich, daß man sich entschloß, nicht nur QuickDraw und ande- re Programmbibliotheken, sondern auch einen Teil des Betriebssystems nicht in den knappen Hauptspeicher zu laden, sondern in Festwertspeichern (ROMs) ab- zulegen. Statt des zunächst geplanten einzigen Chip mit 4 kByte Kapazität, besaß

1 Lemmons et al. 1984, S. 76ff. 2 Hertzfeld 1984; Lemmons et al. 1984, S. 59, 64f.; Guterl 1984, S. 36ff. 3 Horn 1996; Lemmons et al. 1984, S. 72f.

397 7. Die Computer für den Rest von uns der Macintosh schließlich drei ROMs, die insgesamt 64 kByte Programmcode enthielten.1 Während der Macintosh durch den Einfluß von Steve Jobs insbesondere soft- wareseitig immer mehr wie eine kleinere Version der Lisa wirkte, entsprach die Hardware noch weitgehend der von Jef Raskin vertretenen Idee des einfachen und preiswerten Computers. Man verzichtete beispielsweise auf die sonst üblichen Erweiterungssteckplätze und entwickelte ein Konzept zum Anschluß von Hard- wareerweiterungen wie einer Festplatte über eine schnelle serielle Schnittstelle. Dadurch wurde die zur Verwaltung von Steckkarten notwendige Schaltungslo- gik eingespart. Dafürmußte allerdings jedes Zusatzgerätfür den Macintosh mit einem eigenen einfachen Mikroprozessor ausgerüstet sein, der die Kommunikati- on über die serielle Schnittstelle abwickelte. Die auf diese Weise mögliche Platz- und Kostenersparnis meinte man sich leisten zu können, weil die meisten Besitzer eines Macintosh ohnehin keine Erweiterungskarten benutzen würden.2 Um die Kosten der Produktion durch eine weitgehend automatisierte Montage gering halten zu können, verringerten die Entwicklungsingenieure unter der Lei- tung von Robert L. Belleville3 die Anzahl der benötigten Bauteile so weit, daß die digitale Elektronik des Macintosh schließlich Platz auf einer einzigen Platine fand. Diese enthielt kaum noch diskrete Bauelemente und nur noch etwa 50 in- tegrierte Schaltkreise, weniger als ein durchschnittlicher Diskettencontroller oder Videoadapter für den IBM Personal Computer.4 Der Macintosh war schließlich ein sehr kompaktes Gerät. Obgleich er nun kein portabler Computer im Sinne des Dynabook oder von Jef Raskins ersten Entwür-

fen mehr war, hatte er eine sehr kleine Stellfläche von 25¢25 cm und konnte bei einem Gewicht von 10 kg bequem transportiert werden. Das kompakte Wür- felgehäuse mit dem Diskettenlaufwerk unterhalb des 9-Zoll-Monitors wurde vom Industriedesigner Jerry Manock entworfen und machte den Macintosh ebenso un- verwechselbar wie den VW Käfer.5

7.3.2 Apples Marketing-Blitzkrieg und die Killerapplikation

Die Produktion und Markteinführung des Macintosh wurde von Steve Jobs, dem leidenschaftlichen Propagandisten und Verkäufer, von langer Hand vorbereitet. Da er davon überzeugt war, daß der Macintosh ein riesiger Erfolg werden mußte,

1 Hertzfeld 1984; Markoff and Shapiro 1984, S. 350. 2 Lemmons et al. 1984, S. 60ff.; Guterl 1984, S. 38f. 3 Belleville war bereits als Mitarbeiter von Douglas Engelbart für die Entwicklung von NLS- Terminals verantwortlich, nach seinem Wechsel zu Xerox gehörte er zu den Entwicklern des Xerox Star. 1982 war Belleville dann zu Apple gekommen. 4 Smith 1984; Williams 1984b, S. 34; Lemmons et al. 1984, S. 59f., 68; Guterl 1984, S. 40. 5 Lemmons et al. 1984, S. 68f.; Levy 1995, S. 140.

398 7.3 Small is beautiful: Der Apple Macintosh

Abbildung 116. Apple Macintosh (1984)

399 7. Die Computer für den Rest von uns wollte er nicht den Fehler vieler junger Unternehmen wiederholen, die aus Ka- pitalschwäche oder Vorsicht nicht die Produktionskapazitäten besaßen, um nach einer erfolgreichen Produktvorstellung die Nachfrage decken zu können. Bereits 1982 hatte Jobs deshalb eine moderne Fabrik in Auftrag gegeben, die nach der Fertigstellung des Hardwareprototypen ab Herbst 1982 in Fremont auf der Ostsei- te der San Francisco Bay errichtet wurde. Diese Fabrik, in der nach Jobs’ Vorstel- lungen mehr als 500 000 Macintosh-Computer pro Jahr hergestellt werden sollten, wurde für die Fertigung »just-in-time« ausgelegt und mit modernsten Robotern ausgerüstet, die mehr als 85 % der Bauelemente automatisch in die Platinen ein- setzten. Die 20 Mio. $ teure Fabrik wurde im Dezember 1983 fertiggestellt, so daß im Januar 1984 die Produktion des Macintosh anlaufen konnte.1 Bei der Festlegung des Einführungspreises herrschte zunächst Uneinigkeit zwischen Jobs und der restlichen Geschäftsleitung. In der Produktion kostete ein Gerät etwa 500 $ (davon 83 % für Bauteile und nur 1 % Arbeitskosten). Nach der sonst bei Apple üblichen Kalkulation hätte der Verkaufspreis für den Macintosh bei 1 995 $ liegen müssen, obwohl Jobs auf einen Computer für 1 500 $ gehofft hatte. Apples neuer president John Sculley, der 1983 Mike Markkula abgelöst hatte, setzte jedoch einen Einführungspreis von 2 495 $ durch, der Spielraum für spätere Preissenkungen ließ. Im Gegenzug versprach er Jobs eine Werbekampa- gne mit »Knalleffekt«.2 So wurde die Markteinführung des Macintosh im Januar 1984 von ei- nem »Marketing-Blitzkrieg« begleitet. Höhepunkt der 15 Millionen Dollar teu- ren, 100tägigen Werbekampagne war die Ausstrahlung des legendären »1984«- Werbespots während des Super Bowl-Endspiels am 22. Januar 1984, die von mehr als 96 Millionen Fernsehzuschauern verfolgt wurde.3 Die Werbekampagne spiel- te nochmals Apples Image als Unternehmen der kalifornischen Gegenkultur aus, indem der Macintosh als die lange erwartete Befreiung aus der Abhängigkeit von den seelenlosen Computern der großen Konzerne, insbesondere IBM, dargestellt wurde. In der zentralen Botschaft des Werbespots wurde behauptet, der Macintosh sei der Grund, warum das Jahr 1984 nicht aussehen werde, wie es George Orwell in seinem gleichnamigen Roman beschrieben hatte. Bei nüchterner Betrachtung handelte es sich allerdings um ein glänzendes Beispiel für eine Form von Event- und Imagemarketing, mit der sich Sculley bereits beim Getränkehersteller Pepsi profiliert hatte.4 Die Werbekampagne zeigte zunächst Wirkung. Steve Jobs hatte geschätzt, man werde 50 000 Macs in den ersten 100 Tagen und eine halbe Million bis Ende 1 Morrison 1984, S. 60; Guterl 1984, S. 40ff. 2 Sculley und Byrne 1991, S. 175.; Linzmayer 1994, S. 109. 3 Für den Werbespot wurde der englische Starregisseur Ridley Scott (Alien, Blade Runner) enga- giert, der für den 60-Sekunden-Spot einen Produktionsetat von 900 000 $ zur Verfügung hatte. Die Sendezeit für den Spot kostete weitere 800 000 $. Vgl. Linzmayer 1994, S. 114ff. 4 Sculley und Byrne 1991, S. 176ff.; Friedman 1997.

400 7.3 Small is beautiful: Der Apple Macintosh

60000

40000

20000

0 Jan. Feb. März April Mai Juni Juli Aug. Sept. Okt. Nov. Dez. Abbildung 117. Verkaufsprognose für 1984 aus dem Macintosh-Produkteinführungsplan vom 7. November 1983

1984 verkauft haben. Sculley war etwas vorsichtiger und rechnete mit 250 000 verkauften Computern bis Ende des Jahres. Trotz des künstlich überhöhten Prei- ses wurden die kurzfristigen Ziele deutlich übertroffen: das 100-Tage-Ziel wurde bereits nach 74 Tagen erreicht und nach 100 Tagen waren bereits 72 000 Geräte verkauft worden. Nachdem die Nachfrage der Pionieranwender im Frühsommer 1984 gedeckt war, stagnierte der Absatz allerdings bei ca. 20 000 Verkäufen pro Monat, so daß der 500 000ste Macintosh erst im September 1985 verkauft wurde.1 Der mäßige Erfolg der Apple Lisa hatte noch durch die Einnahmen von Apples »Milchkuh«, dem immer noch sehr erfolgreichen Apple II, aufgefangen werden können. 1984 war jedoch unübersehbar, daß der über sieben Jahre alte Compu- ter ein Auslaufmodell war; der wirtschaftliche Erfolg des Macintosh war deshalb entscheidend für das Fortbestehen des Unternehmens. Die Zurückhaltung eines großen Teils der potentiellen Kunden bedeutete also für Apple eine existentielle Bedrohung, und es gab technische und ökonomische Gründe für dieses Käufer- verhalten. Der Hauptschwachpunkt des Macintosh war in den Augen der Öffentlichkeit der vergleichsweise hohe Preis, der nicht zum Image eines einfachen und preis- werten Volkscomputers paßte. Vielmehr wurde der Macintosh schnell von der Fachpresse als Arbeitsplatzcomputer für Angestellte und Manager abgestempelt, also genau dem Segment zugeordnet, das eigentlich die Lisa bedienen sollte. Es verwundert daher nicht, daß die Lisa nach wenigen Monaten als Modell XL in die Macintosh-Produktlinie eingeordnet und ein Jahr später gänzlich eingestellt

1 Linzmayer 1994, S. 111; Levy 1995, S. 185ff.

401 7. Die Computer für den Rest von uns wurde. Der hohe Preis schreckte aber nicht nur viele private Käufer ab, sondern auch Unternehmen, die stattdessen die etablierten und preiswerteren IBM Perso- nal Computer bevorzugten. Auf technischer Seite wurde beim Mac vor allem die magere Hauptspeicher- ausstattung von 128 kByte kritisiert. Nach dem Laden des Betriebssystems und eines Anwendungsprogramms war häufig nur noch sehr wenig Platz für ein Do- kument des Benutzers. Wenn man beispielsweise den BASIC-Interpreter von Mi- crosoft geladen hatte, blieben nur noch 13 kByte Speicherplatz für das eigene Programm übrig. Nach dem Start von MacWrite, dem kostenlos mitgelieferten Textverarbeitungsprogramm, standen nur noch 24 kByte für den Text zur Verfü- gung, dies entsprach etwas mehr als acht Seiten. Selbst auf dem Apple II hatte man größere Programme und längere Texte schreiben können.1 Die fehlende Festplatte und das einzelne Diskettenlaufwerk machten das Ar- beiten recht unbequem. Um beispielsweise Dateien von einer Diskette auf eine an- dere zu kopieren, mußten die entsprechenden Daten zunächst von der Ursprungs- diskette in den Hauptspeicher gelesen werden, dann wurde die Diskette ausge- worfen und der Benutzer mußte die Zieldiskette einlegen, auf die die Daten dann übertragen wurden. Da der Inhalt einer Diskette (400 kByte) nicht komplett im Hauptspeicher abgelegt werden konnte, mußten während eines Kopiervorgangs wiederholt die Disketten gewechselt werden. Ein Tester für das Magazin Byte be- richtete, er habe 50 mal die Diskette wechseln müssen und 20 Minuten gebraucht, um eine einzige Diskette zu kopieren.2 Apple war offensichtlich in einem Dilemma, das Anfang 1984 noch nicht gänzlich zu lösen war: ein brauchbarer Macintosh benötigte mehr als 128 kByte Hauptspeicher. Aber Hauptspeicher war teuer und hätte den ohnehin teuren Com- puter für die meisten Kunden gänzlich unattraktiv gemacht – hätte nicht Moores »Gesetz« immer noch Gültigkeit gehabt. Schließlich wurden die geringen Erweiterungsmöglichkeiten kritisiert. Dies betraf allerdings weniger die fehlenden Erweiterungssteckplätze als vielmehr die Tatsache, daß man den Mac nicht an ein Computernetzwerk anschließen konnte. Hier hatte sich Steve Jobs mit Blick auf die Kosten vor allem gegen die ehema- ligen Mitarbeiter des PARC durchsetzen können, für die die Vernetzbarkeit eine zentrale Eigenschaft moderner Computersysteme darstellte. In den Augen von Alan Kay, der 1984 als »Fellow«, also Vordenker und Visionär, zu Apple gekom- men war, war dies ein Hinweis auf Steve Jobs Schwäche als Entwicklungsleiter: »Wenn man [den Mac] von vorne betrachtet, ist er phantastisch. Wenn man ihn von hinten betrachtet, stimmt nichts. Steve denkt überhaupt nicht in

1 Williams 1984c; Webster 1984, S. 244ff.; Chor 1984, S. 248; Levy 1995, S. 186ff. 2 Jennings 1984, S. A99; Chor 1984, S. 248.

402 7.3 Small is beautiful: Der Apple Macintosh

Systemen. Das ist eben eine Mentalitätsfrage. Drehen Sie den Mac einmal um, und betrachten Sie die Ausgangsbuchsen an der Rückseite, und Sie werden sagen: ›Heiliger Strohsack, spinnen denn diese Typen? Denken sie nicht in Zusammenhängen, denken sie nicht an die Möglichkeit, sich einer größeren Welt anzuschließen?‹ (. . . ) Als ich zu Apple kam, bestand ihre Vorstellung von einem System darin, eine Floppy Disk in ein Laufwerk einzulegen und zu sagen: ›Das ist das einzige Bindeglied, das wir jemals benötigen werden.‹«1 Der zu kleine Hauptspeicher des Macintosh hatte außerdem zur Folge, daß Softwareproduzenten erhebliche Schwierigkeiten hatten, Programme für den Macintosh auf dem Macintosh zu entwickeln. Die beiden kostenlos mitgelieferten Programme MacWrite (Textverarbeitung) und MacPaint (Grafik) übten zwar auf viele neue Anwender zunächst einen erheblichen Reiz aus, konnten aber letztlich nicht die Anforderungen an ernsthafte Büroanwendungen erfüllen, obwohl es sich um benutzerfreundliche Programme mit WYSIWYG handelte.2 Dennoch war es letztlich die Bereitschaft von mehr als hundert Softwareun- ternehmen, angeführt von Bill Gates’ Microsoft, Programme für Apples neuen Computer zu entwickeln, die den langfristigen Erfolg des Macintosh sicherte.3 Steve Jobs hatte schon frühzeitig erkannt, daß die schnelle Verfügbarkeit von An- wendungsprogrammen besonders wichtig für den Erfolg des Macintosh sein wür- de und war deshalb bereits im Januar 1982 zu einer Übereinkunft mit Bill Gates gekommen: Apple würde Microsoft so bald wie möglich Prototypen des Mac zur Verfügung stellen, und im Gegenzug verpflichtete sich Microsoft, Anwendungs- programme für den Macintosh zu entwickeln.4 Auf diese Weise wollte Gates auch die Abhängigkeit seines noch kleinen Unternehmens von IBM abmildern. Die Entwicklung der Macintosh-Programme bei Microsoft wurde von Charles Sim- onyi geleitet, der bei Xerox die Textverarbeitungsprogramme Bravo bzw. BravoX entwickelt hatte und 1981 mit anderen ehemaligen PARC-Mitarbeitern zu Micro- soft gekommen war. Simonyi und sein Team waren also mit der ihnen gestellten Aufgabe bereits seit Jahren vertraut. Obwohl die Tabellenkalkulation Multiplan ursprünglich für die textbasierte Benutzungsschnittstelle des IBM Personal Com- puters gedacht war, konnten sie das Programm relativ schnell an die Erfordernisse des Macintosh anpassen.5 Multiplan kam gleichzeitig mit dem Macintosh auf den

1 Alan Kay, zitiert in Sculley und Byrne 1991, S. 240f. 2 Zopfi 1995; Williams 1984b, S. 46f.; Ichbiah 1993, S. 209. 3 Yasaki 1984, S. 62. 4 Linzmayer 1994, S. 244ff. 5 Ichbiah 1993, S. 204ff. Mehr Probleme als die Benutzungsschnittstelle machte allerdings die An- passung an das Betriebssystem des Macintosh, das sich erheblich von MS DOS unterschied. Durch Anwendung der am PARC entwickelten Methode des Metaprogramming ließ sich aber auch diese Aufgabe schnell und effizient lösen. Vgl. Simonyi 1976.

403 7. Die Computer für den Rest von uns

Markt, innerhalb weniger Monate waren auch die Textverarbeitung MS Word und das Geschäftsgrafikprogramm MS Chart für den Mac erhältlich. Ab Mitte 1984 kamen weitere Softwarehäuser mit einer breiten Palette an Anwendungsprogram- men auf den Markt, wie die Anzeigen in den einschlägigen Fachzeitschriften be- legen. Apple reagierte schnell auf die Kritik an der Hardware und die stagnieren- de Nachfrage. Im September 1984 wurden ein externes Diskettenlaufwerk und ein Macintosh mit 512 kByte Hauptspeicher vorgestellt. Obwohl das Disketten- laufwerk 400 $ und die nachträgliche Speichererweiterung etwa 1 000 $ kostete1, blieb den wenigsten Benutzern eine Wahl, zumindest wenn sie den Macintosh ernsthaft als Arbeitsgerät benutzen wollten. Eine ähnliche Nachfrage entstand, als eine Festplatte für den Macintosh erhältlich war, die das häufige Wechseln der Disketten überflüssig machte.2 Es handelte sich allerdings in allen Fällen nur um oberflächliche Kosmetik, die grundlegenden Schwächen des Mac wurden erst mit dem Macintosh Plus beseitigt, der im Januar 1986 auf den Markt kam.3 Aber erst zwei weitere Entwicklungen ließen den Macintosh zu einem wirk- lich erfolgreichen Produkt werden. Zunächst kündigte Apple das »Macintosh Of- fice« an, in dessen Zentrum die Vernetzung mehrerer Macintosh-Computer und die gemeinsame Nutzung eines Laserdruckers und eines Dateiservers stand. Be- reits 1983 hatte Apple begonnen, einen preiswerten Laserdrucker zu entwickeln. Der LaserWriter, den Apple schließlich für 7 000 $ auf den Markt brachte, war allerdings mehr als nur ein Drucker. Er war mit einem eigenen Motorola 68000- Mikroprozessor und 1.5 MByte Speicher ausgerüstet, so daß nicht nur ein zusätz- licher Druckerserver überflüssig war, sondern auch die Seitenbeschreibungsspra- che PostScript verwendet werden konnte, die John Warnock und Charles Gesch- ke nach ihrem Weggang von Xerox entwickelt hatten. Als Netzwerk verwendete man nicht das 1981 standardisierte Ethernet, sondern übernahm das ursprünglich für die Lisa entwickelte AppleTalk. Der Dateiserver, der von vielen Experten als wichtigstes Element des »Macintosh Office« betrachtet wurde, war allerdings zur Zeit der Produktankündigung noch in der Entwicklung und wurde nie fertigge- stellt.4 Parallel zur Entwicklung des LaserWriter schrieben Paul Brainard und vier weitere Programmierer ein Programm, das die grafischen Fähigkeiten des Mac- intosh und des Laserdruckers voll ausschöpfen sollte. PageMaker war das ers-

1 Der Listenpreis des neuen Macintosh 512k lag bei 3 195 $. 2 Levy 1995, S. 200f. 3 Levy 1995, S. 222f. Der Macintosh Plus verfügte über 1 MByte Hauptspeicher, zwei Disketten- laufwerke mit einer Kapazität von jeweils 800 kByte und eine größere Tastatur mit Cursortasten und einem Zehnerblock. Sein Einführungspreis betrug 2 600 $. 4 Markoff and Robinson 1985; Ushijima 1985; Kawasaki 1991, S. 37ff.; Linzmayer 1994, S. 145f.; Levy 1995, S. 204f., 211ff.

404 7.3 Small is beautiful: Der Apple Macintosh te Programm, mit dem man auf einfache Weise Bilder und Texte auf einer Seite kombinieren konnte. Damit konnte jedermann Zeitungsseiten, Rundschreiben und selbst Bücher am Computerbildschirm gestalten und in hoher Qualität auf dem Laserdrucker ausdrucken. Brainard prägte dafür den Begriff des Desktop Publis- hing oder Schreibtisch-Verlags, das er als neues, revolutionäres Medium betrach- tete, das den Computerbesitzer zwar nicht zum Verleger, aber zu seinem eigenen Schriftsetzer machte. Dieser Anspruch manifestierte sich auch darin, daß er sein Unternehmen in Anlehnung an Aldus Manutius, einen venezianischen Buchdru- cker und Verleger, Aldus Corporation nannte. Manutius hatte im 15. Jahrhundert erstmals preiswerte »Taschenbücher«1 hergestellt und damit die Entwicklung des Buchs zum Massenartikel eingeleitet.2 Mit massiver Unterstützung durch Apple wurde PageMaker für den Macin- tosh das, was VisiCalc für den Apple II und Lotus 1-2-3 für den IBM Personal Computer gewesen waren: die sogenannte Killerapplikation, wegen der sich ein potentieller Kunde für einen bestimmten Computer entscheidet. Killerapplikatio- nen sind aber auch prägend für das Image eines Computer. Der IBM PC, dessen Killerapplikation eine Tabellenkalkulation war, wurde gern als genügsames Ar- beitstier im wenig aufregenden Büroalltag betrachtet. Des Macintosh galt hinge- gen als spielerisches Werkzeug der Kreativen, der Grafiker und Layouter, Musiker und Schriftsteller. Damit wurde der Macintosh in eine Marktnische gedrängt, aus der er sich trotz erheblicher Anstrengungen bis heute nicht hat befreien können.3

7.3.3 Konkurrenten und Imitatoren

Apple war zwar Anfang der der achtziger Jahre der Vorreiter bei der Einführung von benutzerfreundlichen Computern mit grafischer Benutzungsoberfläche, aber längst nicht das einzige Unternehmen, das in diese Richtung steuerte. Im Herbst 1982 kündigte beispielsweise VisiCorp die Fensterumgebung VisiOn für den IBM Personal Computer an. Auch Digital Research (Concurrent DOS und GEM), Quarterdesk Office Systems (DesQ) und sogar IBM (TopView) entwickelten zur gleichen Zeit ähnliche Produkte, die zwar nicht alle im Grafik- modus arbeiteten, aber eine Benutzungsschnittstelle mit Bildschirmfenstern und Befehlsmenüs boten.4 Im Dezember 1983 kündigte schließlich auch Microsoft die Entwicklung einer eigenen grafischen Benutzungsschnittstelle für den IBM

1 Im Gegensatz zu den vorher verbreiteten, wertvoll ausgestatteten Folianten stellte Manutius 40 Jahre nach Erfindung des Buchdrucks erstmals Bücher im modernen Sinne her, die in eine Sattel- tasche paßten. Vgl. Schmidtchen 1992, S. 585f. 2 Sculley und Byrne 1991, S. 332; Linzmayer 1994, S. 190f; Levy 1995, S. 211–222. 3 Seybold 1987; Cringely 1993, S. 295ff. 4 Markoff 1984.

405 7. Die Computer für den Rest von uns

Tabelle 5. Vier Generationen von Personal Computern Xerox Star IBM PC Lisa Macintosh Datum der Einführung 04/1981 08/1981 01/1983 02/1984 Einführungspreis 16 596 $ 2 880 $ 9 995 $ 2 495 $ Preis im Dezember 1984 8 995 $ 1 800 $ 5 995 $ 2 195 $ Prozessor proprietär Intel 8088 MC 68000 MC 68000 AMD 2901

Hauptspeicher in kByte 768 64 1000 128

¢ ¢ ¢ Bildschirmauflösung 1024¢808 320 200 720 364 512 342

PC an, die den Namen Windows trug. Microsoft hatte allerdings gegenüber den anderen Herstellern den großen Vorteil, daß das Unternehmen bereits seit Mit- te 1982 Programme für den Macintosh entwickelte und indirekt auch an Apples Know-how bei der Entwicklung einer leistungsfähigen und benutzerfreundlichen grafischen Benutzungsoberfläche partizipierte. Die Fertigstellung der ersten Ver- sion von Windows verzögerte sich allerdings bis zum November 1985 und wurde genausowenig ein Erfolg wie die Produkte der Konkurrenz. Sie alle hatten dar- unter zu leiden, daß der IBM Personal Computer nicht genügend leistungsstark und mit zu wenig Hauptspeicher ausgerüstet war. Erst mit der Windows Version 3.0, die Microsoft im Mai 1990 auf den Markt brachte, und die nur auf Rechnern mit einem leistungsstärkeren Intel 80386 Prozessor lief, begann auch für die Per- sonal Computer mit Intel-Prozessoren und dem Betriebssystem DOS die Ära der grafischen Benutzungsoberflächen.1 Es gab also einige wichtige Gründe, warum der Macintosh, anders als die Li- sa oder der Xerox Star, schließlich zu einem erfolgreichen Produkt wurde. Die beiden Vorgängerprodukte, aber auch der Personal Computer von IBM hatten den Weg für den nun gar nicht mehr so revolutionären Macintosh geebnet. Ap- ple selbst hatte – ganz im Sinne des im letzten Kapitel zitierten Ratschlags von Frederick Brooks – mit der Lisa bereits einen ersten Computerentwurf weggewor- fen und die besten Bestandteile in das Nachfolgeprodukt übernommen. Anders als Xerox sorgte Apple durch die frühzeitige Offenlegung der Computerarchitek- tur dafür, daß schon kurz nach der Produktvorstellung sehr viele unterschiedliche Anwendungsprogramme verfügbar waren. Dadurch konnte auch ein Programm wie PageMaker entstehen, das dem Macintosh völlig neue Anwendungsbereiche eröffnete. Schließlich besaß Apple bei der Markteinführung des Macintosh eine wesentlich stärkere Präsenz auf dem Markt für Mikrocomputer als Xerox im Jahre

1 Sherman 1984; Ichbiah 1993, S. 238–312, passim. Windows in der Version 2 wurde von Microsoft Anfang 1988 vorgestellt und war ebenso erfolglos wie die Vorgängerversion.

406 7.3 Small is beautiful: Der Apple Macintosh

1981 und konnte sein über sieben Jahre aufgebautes, weit verzweigtes Vertriebs- netz nutzen.1

1 Baecker and Buxton 1987, S. 651; Card 1996, S. 137f.

407

8. Das Ende der Entwicklung?

Mitte der achtziger Jahre hatte sich eine neue Form der Computernutzung eta- bliert, die den Computer endgültig von dem Image befreite, das ihn vierzig Jahre lang begleitet hatte. Personal Computer wie der IBM PC und der Macintosh waren keine überdimensionalen Rechenmaschinen mehr, keine geheimnisvollen Elek- tronengehirne. Sie waren auch keine Werkzeuge einer herrschenden Elite, die im Zweifelsfall gegen die Interessen breiter Bevölkerungsschichten eingesetzt wur- den. Die neuen Computer waren vor allem Arbeits- und Spielgeräte, seit Beginn der neunziger Jahre zunehmend auch Kommunikations- und Informationsmedien. Der neue Stil der Computernutzung hatte freilich mit Alan Kays Idee des Dyna- book genausowenig zu tun wie mit den Großcomputern früherer Jahrzehnte.1 Mit Vannevar Bushs Memex hatten die Personal Computer der achtziger Jahre, außer dem Gedanken des persönlichen Informationsmediums, fast überhaupt nichts ge- meinsam, insofern ist zu bezweifeln, ob »Vannevar Bush, wäre er 102 Jahre alt geworden, ein [Apple] PowerBook gekauft hätte«2, wie Steven Levy vermutet. Seit dem Beginn dieser Ära sind 15 Jahre vergangen. Mittlerweile gibt es kaum mehr Computersysteme, die nicht über eine grafische Benutzungsober- fläche zu bedienen sind. Dabei fällt auf, daß bei der Gestaltung der Mensch- Computer-Schnittstelle seit Ende der achtziger Jahre kaum neue Ideen zu ent- decken sind. Vielmehr sind die Produkte der großen Hersteller heute kaum mehr voneinander zu unterscheiden, und es existieren sogar erste Bestrebungen zur of- fiziellen Standardisierung.3 Es bliebe abschließend zu diskutieren, ob man mit dem Defacto-Standard ein Optimum an Benutzerfreundlichkeit oder gar eine erste Stufe der Mensch- Computer-Symbiose erreicht hat, oder ob die eigentliche Computerrevolution noch bevorsteht. Alan Kay zumindest ist der Ansicht, daß die heutigen Benut- zungsoberflächen mit Fenstern, Icons, Menüs mit ihrem Schwerpunkt auf der di-

1 Lampson 1988, S. 294f. 2 Levy 1995, S. 261. Das PowerBook ist die portable Variante des Macintosh, die Apple 1991 auf den Markt gebracht hat. 3 Brown 1993.

409 8. Das Ende der Entwicklung? rekten Manipulation von Bildschirmobjekten die Möglichkeiten des Computers nur angekratzt haben.1 Tatsächlich sind heutige grafische Benutzungsoberflächen nicht viel intuiti- ver oder benutzerfreundlicher als zu den Zeiten, als Carroll und Mazur 1985 die Apple Lisa testeten. Und schon damals, so zeigen die Testergebnisse und die Ge- schichten über die »dümmsten Benutzerfehler«, war eine Benutzungsoberfläche, die mit Metaphern arbeitete, eine Abstraktion, die mit den realen Fähigkeiten vie- ler Benutzer nicht viel zu tun hatte. Mittlerweile haben sich die meisten Com- puterbenutzer so an die Benutzungsschnittstellen von Windows oder dem Mac- intosh gewöhnt, daß sie diese Gewöhnung mit der intuitiven Benutzbarkeit des Computers verwechseln.2 Tatsächlich kann man aber immer wieder beobachten, daß die scheinbar einfache Benutzungsoberfläche bei großen und leistungsfähi- gen Anwendungsprogrammen die Benutzer davon abhält, überhaupt Bedienungs- anleitungen und Handbücher zu lesen, weil sich Grundelemente des Programms bequem explorativ während der Arbeit erlernen lassen. Dies führt regelmäßig da- zu, daß diesen Benutzern ein großer Teil der Funktionalität verborgen bleibt oder daß sie die Fähigkeiten des Programms falsch einschätzen.3 Man darf wohl mit einiger Berechtigung behaupten, daß die Metapher des Schreibtisches wegen ihres Erfolgs heute zu einem Hemmnis bei der Entwicklung von noch benutzerfreundlicheren Computern geworden ist. Bereits 1984 formu- lierte Alan Kay diese Tendenz in einem Aufsatz für den Scientific American: »A powerful genre can serve as wings or chains. The most treacherous metaphors are the ones that seem to work for a time, because they can keep more powerful insights from bubbling up. As a result progress is slow. . . «4 So haben sich beispielsweise die Rahmenbedingungen der Computernutzung seit 1984 erheblich verändert. Die Leistungsfähigkeit der Hardware hat seit 1984 stark zugenommen. Man darf nicht vergessen, daß die grafische Benutzungso- berfläche des Macintosh für einen kleinen Computer mit relativ schmalbandigen Kommunikationskanälen entwickelt wurde, der keine Ein- und Ausgabemöglich- keiten für Ton, Video oder andere Daten bot, die in den vergangenen Jahren unter dem Schlagwort Multimedia vorangetrieben wurden.5 Die Zielgruppe, die Apple mit der Lisa und dem Macintosh ansprechen woll- te, waren die klassischen Informationsarbeiter wie Wissenschaftler und Mana- ger. Diese hatten in der Regel keine Erfahrungen im Umgang mit dem Compu- ter, waren aber mit der klassischen Büroumgebung vertraut. In der Zwischenzeit

1 Kay 1990, S. 203. 2 Raskin 1994b. 3 Dertouzos 1997. 4 Kay 1984, S. 42. Vgl. auch Kay et al. 1994 und Weinberger 1995. 5 Gentner and Nielsen 1996, S. 72.

410 8. Das Ende der Entwicklung? hat der Einsatz von Computern die Büroarbeit radikal verändert, und viele der jüngeren Computernutzer haben als Angehörige der sogenannten Post-Nintendo- Generation bereits als Kinder Erfahrungen mit Computern sammeln können. Für sie hat die Schreibtisch-Metapher des Computers viel von ihrer Nützlichkeit ver- loren, weil sie keine Beziehung mehr zum computerlosen Büro besitzen.1 So wie sich das Auto vom Vorbild der Kutsche lösen mußte, um ein eigenes Profilzu gewinnen, muß sich die Mensch-Computer-Schnittstelle von dem anfangs hilfrei- chen, nun aber eher hemmenden Vorbild des Schreibtisches befreien. Bei einer solchen Neudefinition der Mensch-Computer-Schnittstelle kann auch der Versuch unternommen werden, die immer noch divergierenden Nut- zergruppe zusammenzuführen. Dazu müßte dem Wunsch der »naiven Benutzer« nach leichter Erlernbarkeit und intuitiver Bedienung des Computers ebenso ent- sprochen werden wie dem Bedürfnis professioneller Benutzer nach umfassender Konfigurier- und Programmierbarkeit von Hard- und Software. Nur so kann wirk- lich sichergestellt werden, daß sich der durchschnittliche Benutzer eines Compu- ters, der irgendwo zwischen den beiden Extremen angesiedelt ist, weder bevor- mundet noch überfordert fühlt.2 Es ist allerdings nicht ausreichend, besonders benutzerfreundliche und aufga- bengerechte Computer und Benutzungsschnittstellen zu entwickeln. Schon Mitte der achtziger Jahren wurde festgestellt, daß die Computertechnik nicht in erwarte- tem Maße zur Produktivitätssteigerung in Unternehmen beitragen konnte.3 Mitt- lerweile ist klar, daß dieses Produktivitätsparadoxon vielfach auf Anpassungs- probleme der Verwender zurückzuführen ist. Der Einsatz der Informationstech- nik produziert keine materiellen Güter, sondern Informationen, die erst in einer angepaßten Organisationsstruktur und durch ihre effiziente Verwendung einen eigenständigen Wert erlangen. Dennoch wurden und werden die meisten Com- puteranwendungen nach tayloristischem Vorbild gestaltet, d. h. sie betonten eine inflexible Arbeitsteilung.4 Außerdem wird bei der Auswahl eines Computersys- tems der Gesichtspunkt der Software-Ergonomie nur selten beachtet. In vielen Entscheidungsmodellen, die heute für die Systemwahl angewendet werden, wird die Benutzbarkeit und Benutzerfreundlichkeit nicht oder nur schwach berücksich- tigt.5 Auch auf gesamtgesellschaftlicher Ebene sind die heutigen Computer kein Allheilmittel für das immer noch aktuelle Informationsproblem. Es scheint so- gar, als habe das exponentielle Anwachsen der verfügbaren Datenmenge im In-

1 Nake 1995, S. 41f. 2 Kolo and Friedewald 1999. 3 U. S. Congress, Office of Technology Assessment 1985; Brynjolfsson 1993; Tenner 1997, Kapi- tel 9. 4 David 1990; Klotz 1996, S. 43ff.; Dertouzos 1997. 5 Dué 1993, S. 70; Klotz 1996, S. 58ff.

411 8. Das Ende der Entwicklung? ternet mehr negative als positive Wirkungen. Die Handlung des bewußten Infor- mierens degeneriert zunehmend zur Datensammlung. In den vergangenen Jahr- zehnten sind uns bei allem technischen Fortschritt die gesellschaftlichen Institu- tionen verlorengegangen, die uns dieses Bewußtsein vermitteln könnten. Bis in die sechziger Jahre wurde die Vorauswahl und Bewertung von Information durch kompetente Herausgeber oder Verlage vorgenommen.1 Weil die individuellen und gesellschaftlichen Mechanismen zum Umgang mit Information mit der gewan- delten Situation heute immer mehr überfordert sind, spricht der amerikanische Mediensoziologe Neil Postman sogar von »kulturellem Aids«: »Die Informationsschwemme führt auch zu einem wachsenden Gefühl der Ohnmacht. (...)Daraus, daß man tausend Dinge kennt und weiß und nicht imstande ist, Einfluß auf sie zu nehmen, erwächst ein eigenartiger Egois- mus. Schlimmer: Die meisten Menschen glauben immer noch, Information und immer mehr Information sei das, was die Menschen vor allem benö- tigten. Die Information bilde die Grundlage all unserer Bemühungen um die Lösung von Problemen. Aber die wirklich ernsten Probleme der Menschheit erwachsen nicht dar- aus, daß die Menschen über unzureichende Informationen verfügen. Wenn es zu einer Nuklearkatastrophe kommt, dann nicht wegen unzureichender Information. Wo Menschen verhungern, geschieht das nicht wegen unzu- reichender Information ..., sondern weil wir kein zureichendes Bewußt- sein davon entwickeln, was sinnvoll und bedeutsam ist.«2 Diese Entwicklung konnte auch durch die Verwendung des Computers bis- lang nicht gestoppt werden. Heute sind gerade wegen der allgegenwärtigen Informations- und Kommunikationstechnik mehr Informationen verfügbar als je zuvor in der Geschichte. Wenn man den Computer trotzdem als grundsätzlich geeignet erachtet, der Informationsflut Herr zu werden, gibt es für die Wissen- schaft und Technik der nächsten Jahrzehnte noch genügend Aufgaben zu lösen. Erst dann werden die Visionen von Vannevar Bush und Joseph Licklider, Douglas Engelbart und Alan Kay – vielleicht – eingelöst sein.

1 Kornwachs 1995; Grassmuck 1995, S. 49. 2 Postman 1992, S. 62.

412 Anhang

413 Anhang

A. Übersicht über die finanzielle Förderung der SRI-ARC Pro- jekte, 1961–19671

SRI-Projekt 3578 Auftraggeber: Air Force Office for Scientific Research (AFOSR) Projektlaufzeit: 1. März 1961–30. Juni 1964 Titel: Research in Individual Information Handling Anträge: EU 60-251 wirksam ab 1. März 1961 26 924 $ EU 60-251 wirksam ab 20. Februar 1962 26 924 $ EU 62-85 wirksam ab 20. März 1962 35 997 $ Gesamt: 89 845 $ Vertragsnummer: AF 49(638)-1024 Projektleiter: Douglas C. Engelbart SRI-Projekt 4385 Auftraggeber: Office of Secretary of Defense (ARPA) Projektlaufzeit: 4. Februar 1963–8. Mai 1964 Titel: Research Aimed at Computer Augmentation of a Programmer Anträge: ESU 62-89 wirksam ab 4. Februar 1963 195 000 $ ESU 62-89 Rev. A wirksam ab 29. April 1964 48 689 $ Gesamt: 243 689 $ Vertragsnummer: SD-163 Projektleiter: John H. Wensley SRI-Projekt 4506 Auftraggeber: Air Force Electronic Systems Division (ESD) Projektlaufzeit: 1. Mai 1963–31. Dezember 1963 Titel: Research on Computer-Augmented Informa- tion Management Antrag: ESU 63-7 39 716 $ Vertragsnummer: AF 19(628)-2914 Projektleiter: Charles Bourne, D. C. Engelbart (supervisor)

1 Quelle: Memorandum von J. Reid Anderson an Jerre D. Noe über »List of Active Projects – Com- puter Techniques Laboratory«, 13. Juli 1961, SUL/EC, 3-11 Memorandum von Pat Conley an Torben Meisling über »Projects Relating to Man-Computer Program«, 21. Juli 1966, SUL/EC, 15-2; Brief von Engelbart an Robert Taylor, 25. August 1967, SUL/EC, 1-29

414 Anhang

SRI-Projekt 4784 Auftraggeber: U. S. Naval Training Device Center Projektlaufzeit: 31. Dezember 1963–30. Dezember 1964 Titel: Automatic Psychomotoric Skill Training Antrag: ESU 63-49 54 917 $ Vertragsnummer: N61339-1517 Projektleiter: Douglas C. Engelbart

SRI-Projekt 4987 Auftraggeber: Air Force Electronic Systems Division (ESD) Projektlaufzeit: 1. April 1964–30. April 1965 Titel: Research on Computer-Augmented Informa- tion Management Antrag: ESU 64-11 59 638 $ Vertragsnummer: AF 19(628)-4088 Projektleiter: Donald Lincicome, später D. C. Engelbart

SRI-Projekt 5061 Auftraggeber: National Aeronautics and Space Agency (NASA) Projektlaufzeit: 11. Juni 1964–11. Juli 1965 Titel: A Research Study of Computer-Aided Human Control of Computer Display Antrag: ESU 64-43 85 626 $ Vertragsnummer: NAS1-3988 Projektleiter: William K. English

SRI-Projekt 5150 Auftraggeber: Advanced Research Projects Agency (ARPA) Projektlaufzeit: 29. Juni 1964–31. März 1966 Titel: Computer Facilitation of a Computer Pro- grammer Anträge: EU 64-74 wirksam ab 29. Juni 1964 58 643 $ EU 65-7 wirksam ab 26. April 1965 39 900 $ EU 65-66 wirksam ab 27. Oktober 1965 40 649 $ Gesamt: 139 192 $ Vertragsnummer: SD-269 Projektleiter: Douglas C. Engelbart

415 Anhang

SRI-Projekt 5919 Auftraggeber: Rome Air Development Center (RADC) Projektlaufzeit: 23. Februar 1966–1969 (?) Titel: Computer Augmented Management System Anträge: EU 65-106 wirksam ab 23. Februar 1966 93 528 $ EU 67-10 wirksam ab Mai 1967 565 676 $ Gesamt: 659 204 $ Vertragsnummer: AF 30(602)-4103 Projektleiter: William K. English SRI-Projekt 5890 Auftraggeber: National Aeronautics and Space Agency (NASA), Rome Air Development Center (RADC) Projektlaufzeit: 8. Februar 1966–7. April 1967 Titel: Study for the Development of Human Intellect Augmentation Techniques Antrag: EU 65-115 wirksam ab 8. Februar 1966 492 476 $ Vertragsnummer: NAS1-5904 Projektleiter: Douglas C. Engelbart SRI-Projekt 8457 Auftraggeber: Rome Air Development Center (RADC) Projektlaufzeit: 1969–1972 Titel: Online Team Environment Vertragsnummer: SD-967 Projektleiter: Douglas C. Engelbart

416 Anhang

B. Übersicht der NLS Befehle, Stand 19681

Die Befehle des On-Line System (NLS) bestehen immer aus zwei Buchstaben, wobei der erste die durchzuführende Operation festlegen und der zweite Buchsta- be den Typ des Operanden angibt. Dabei gelten folgende Konventionen: C = Character, W = Wort, L = Line, S = Statement, CR = Carriage Return (Zeilenvorschub) und CA = Command Accept (Kommandofreigabe). L1 oder S1 steht für die (erste) Zeile bzw. das (erste) State- ment als Operant. LIT steht für eine beliebige Folge alphanumerischer Zeichen (»Literal«). Bei den Befehlen lassen sich drei Grundtypen unterscheiden. Normale Be- fehle, die nach dem Ausführungskommando gültig bleiben. Spezialbefehle, die nach dem Ausführungskommando gültig bleiben, aber eine bestimmte Tasten- kombination benötigt wird, um einen neuen Befehl zu spezifizieren und »One Shot«-Befehle, die automatisch ein Forward Statement nach ihrer Beendigung durchführen

Editierbefehle txt‡ chr wrd lin stt† Branch Group delete DT DC DW DL DS DB DG (normal) insert IT IC IW IL IS IB IG (normal) replace RT RC RW RL RS RB RG (normal) copy CT CC CW CL CS CB CG (special) move MT MC MW ML MS MB MG (special)

shift SC SW (special) £ Ý ÞEin Text wird durch zwei beliebige Zeichen begrenzt Statement *Wechselt zwischen Groß- und Kleinschreibung

Vorwärts- und Rückwärtsbefehle

Die Befehle stellen das markierte Objekt oben bzw. unten auf dem Bildschirm dar. B steht für Backward, F für Forward.

1 Quelle: Donald I. Anderson, »NLTS User Commands«, Februar 1967, SUL/EC, 16-4; Douglas C. Engelbart, »On-Line-Text-System Commands«, 5. Januar 1967, SUL/EC, 16-11; English et al. 1965, S. 85–88.

417 Anhang

BS or FS S1 (Bug Only) CA (normal) BS or FS Digit String CA CA (normal) BL or FL L1 (Bug Only) CA (normal) BL or FL Digit String CA CA (normal BB or FB S1 (Bug Only) CA (special) BA or FA CA (one shot)

Hüpfbefehle (»Hop Commands«)

Mit den »Hüpfbefehlen« können beliebige Stellen innerhalb eines Dokuments dargestellt werden. Die Adressierung erfolgt entweder über exiplizit über die Nummern von Statements und Zeilen oder symbolisch über Namen. Heute würde man die »Hüpfbefehle« als die Hypertextfunktionen von NLS bezeichnen.

Hop Line HL W1 CA (normal) Hop Name HN (W1/CR) CA (special) Hop Place HP (W1/CR) CA (special) Hop Statement HS (W1/CR) CA (special) Hop Word HW (W1/CR) CA (special) Hop Text HT (C1 C2/CR) CA (special) Hop Assignment HA (W1/CR) CA (special) Hop Compound HC (LIT1 W1 LIT2/CR) CA (special)

»Gehe-zum-Nächsten«-Befehle

Ähnliche Funktion wie die »Hüpfbefehle«. Die Suche nach der Adresse beginnt allerdings nicht am Beginn des Dokuments, sondern an der aktuellen Position.

GN (W1/CR) CA (special) GW (W1/CR) CA (special) GT (C1 C2/CR) CA (special) GA (W1/CR) CA (special) GC (LIT1 W1 LIT2/CR) CA (special)

Sprung-Befehle

Ähnlich wie die Gehe-zum-Nächsten-Befehle. Die adressierbaren Sprungadres- sen sind aber durch die Hierarchie des Dokuments vorgegeben.

418 Anhang

Successor und Predecessor bezeichnen Statements innerhalb der gleichen Hierarchiestufe, Source und Sub-Statements die nächsthöhere, bzw. nächstniedri- gere Hierarchiestufe. Head und Tail stehen für das erste bzw das letzte Statement einer Hierarchiestufe. Jump Successor JS S1 (Bug Only) CA (normal) Jump Predecessor JP S1 (Bug Only) CA (normal) Jump Source JU S1 (Bug Only) CA (normal) Jump Sub-Statement JD S1 (Bug Only) CA (normal) Jump Head JH S1 (Bug Only) CA (normal) Jump Tail JT S1 (Bug Only) CA (normal)

Gliederungsbefehle

Mit der Variable L wird festgelegt, welche Gliederungsstufe angezeigt werden soll. Mit der Variable T wird festgelegt, ab welcher Gliederungsstufe der Text ausgeblendet werden soll.

Levelset Truncset Specialset A L=L-1 Q T=T-1 I renumon B L=L+1 R T=T+1 J renumoff C L=all S T=all W L=T=all D L=reset T T=reset X L=T=1 E L=1 U T=1 F L=rel

Spezialbefehle

Q I Automatic renumbering turned on Q J Automatic renumbering turned off Q P Compile pattern (Q P S1 CA) Q N Pattern-match filter on Q O Pattern-match filter off Q T Set trunc-parameter values Q L Set level-parameter values Q H Set number of characters per display line Q V Set number of lines per display frame Q S Display number of characters remaining in text buffer. Exit with CA

419 Anhang

Einfrier-Befehle (»Freezing Commands«)

Mit den Einfrier-Befehlen wird die Position bestimmter Teile eines Dokuments auf dem Bildschirm festgehalten, sozusagen eingefroren; sie bewegen sich nicht, wenn der Rest des Textes vom Benutzer auf- oder abwärts gerollt wird. KF S1 CA KR S1 CA KC CA KT S1 CA KM S1 S2 CA KS CA KD CA

Einlesebefehle

Für das Einlesen von Dokumenten (nicht Programmen) standen eine Reihe von Möglichkeiten zur Verfügung: ASCII Paper Tape EA CA (One-shot) Flex 8 Paper Tape EF CA (One-shot) Dura Paper Tape EX CA (One-shot) Cards EC CA (One-shot) Disk ED N1 CA (special)

Ausgabebefehle

Ein Dokument konnte auf eine Reihe von Geräten ausgegeben werden. Der Zei- lendrucker wurde für den Konzeptausdruck (nur in Großbuchstaben), die Schreib- maschine für den endgültigen Ausdruck (mit Groß- und Kleinschreibung sowie Unterstreichung) verwendet. Später kam die direkte Ausgabe auf Mikrofilm hin- zu. So konnten Dokumente in Druckqualität hergestellt werden (z.B. der Beitrag Engelbarts zur AFIPS Jahrestagung 1973) Line Printer OL (S/T/A/Null) CA Typewriter OT (S/T/A/Null) CA ASCII Paper Tape OA (S/T/A/Null) CA Flex 8 Paper Tape OF (S/T/A/Null) CA Dura Paper Tape OX (S/T/A/Null) CA Disk OD (N1/Null) CA

420 Anhang

C. Nutzung von NLS und Augment1

Folgende Regierungsstellen und Unternehmen nutzten seit ca. 1972 das Online- System von SRI (bis 1977), bzw. Augment von Tymshare (1978–1983) und Mc- Donnell Douglas (seit 1984). Die kursiv gesetzten Organisationen waren als Geld- geber an der Entwicklung beteiligt.

Staatliche Stellen

Air Force AFCC – Air Force Communications Command ESD – Electronic Systems Division GUNTER – Gunter Air Development Center RADC – Rome Air Development Center WRAFB – Warner-Robbins Air Force Base Army HQ-DA – Headquarters, Department of the Army AAA – Army Audit Agency AMC – Army Materiel Command (auch DARCOM) ALMSA – Automated Logistics Management Support Agency ARRCOM – Armament Readiness Command AVSCOM – Aviation Systems Command CECOM – Communications-Electronics Command ERADCOM – Electronics Readiness Command MERADCOM – Mobile Electronics Readiness Command MICOM – Missile Command PTFD – Personnel and Training TACOM – Tank and Automotive Command TECOM – Test and Evaluation Command PM-MEP – Army, Program Manager PM-SMOKE – Army, Program Manager YPG – Yuma Proving Grounds WSMR – White Sands Missile Range TRADE – Training and Development Command TROSCOM – Troop Support Command ARO – Army Research Office

1 Quelle: Duane L. Stone, »Augment’s Support of Organizations: A Brief History«, Augment Do- cument #132 615, May 1991.

421 Anhang

DESCOM – Depot Systems Command ANAD – Anniston Army Depot CCAD – Corpus Christi Army Depot LEAD – Leterkenny Army Depot NCAD – New Cumberland Army Depot RRAD – Red River Army Depot SAAD – Sacramento Army Depot SEAD – Seneca Army Depot SHAD – Sharpe Army Depot SIAD – Sierra Army Depot TEAD – Tooele Army Depot TOAD – Tobyhanna Army Depot LCAQ – Logistics Communications Agency LSSA – Logistics Support Agency TSCHOOL – Army Training Navy CNA – Center for Naval Analysis NSRDC – Naval Ship Research and Development Center ONR – Office of Naval Research Andere ADSTO – Australian Defence Science and Technology Organisation DARPA – Defense Research Projects Agency DMA – Defense Mapping Agency NBS – National Bureau of Standards

Unternehmen

ARCO – Atlantic Richfield Company BNR – Bell Northern Research DAOP – Diebold Automated Office Program MDC – McDonnell-Douglas Projects AICOM – MDC Artificial Intelligence Community ATF – Advanced Tactical Fighter CALS – Computer-Aided Acquisition and Logistics Support MDC3S – Mcdonnell Douglas CAD/CAM/CALS System NASP – National AeroSpace Plane AFWAL SPO Atlantic Research General Dynamics

422 Anhang

McAir Pratt-Whitney Rocketdyne Rockwell Textron TAC – Teaming and Collaboration TOP – Technical Office Protocols PW – Pratt-Whitney PM – Philip Morris TRW – Thomson Ramo Woolridge

423 Anhang

D. Butler Lampson: »Why Alto«, Dezember 1972

XEROX Inter-Office Memorandum

To CSL Date December 19, 1972 From Butler Lampson Location Palo Alto Subject Why Alto Organization PARC

1. Introduction

This memo discusses the reasons for making a substantial number (10–30) of copies of the personal computer called Alto which has been designed by Chuck Thacker and others. The original motivation for this machine was provided by Alan Kay, who needs about 15–20 ›interim Dynabooks‹ Systems for his education research. Alto has a much broader range of applications than this origin might suggest, however. I will begin by outlining its characteristics, and then go on to consider some of the many exciting uses to which Alto can be put. It turns out that there is some interaction with almost every CSL research program.

2. Characteristics

An Alto system consists of

¯ 48–64K 16-bit words of memory (plus parity and perhaps error correction).

¯ A 10 megabyte Diablo disk which transfers one word every 7 us, rotates in 25 ms, and has a track-to-track seek of 8 ms, and worst-case seek of 70 ms.

¯ A 901 line TV monitor whose display surface is almost exactly the size of this page. It is oriented vertically, and is designed to be driven from a bit map in the memory. It takes 32K of memory to fill the display area with a square

(825¢620) raster. These dots are about 1.4 mils square. It is possible to re-

duce their width to about 1 mil, which gives an 825¢860 raster and 44.3K of

memory. The square raster can display 8 000 5¢7 characters with descenders or 2 500 beautiful proportionally-spaced characters.

¯ An undecoded keyboard which allows the processor to determine exactly when each key is depressed or released, and a mouse or other pointing device.

¯ A processor which executes Nova instructions at about 1.5 µs/instruction, and can be extended with extra instructions suitable for interpreting Lisp, Bcpl, MPS, or whatever.

¯ A high-bandwidth (10 MHz) communication interface whose details are not yet specified.

424 Anhang

¯ Optionally, a fixed-font character generator similar to the one designed and built by Doug Clark. This would save a lot of memory and would permit higher quality characters than can be done with a square raster, but adds no basically new capability. It should cost about $ 500.

¯ Optionally, a Diablo printer, XGP, or other hardcopy device.

¯ A table about 45” wide and 25” deep to house the machine and mount the display and keyboard.

¯ Most important, a cost of about $ 10.5K, which can be reduced to $ 9.7K by the use of a 2.5 megabyte disk. The cost is about equally split among disk, memory, and everything else. We have spent about twice as much on Maxc per 1974 CSL member. The system is capable of doing almost any computation which a PDP-10 can do. For most problems it can deliver better performance to the user than a time- shared 10, even if the latter is lightly loaded (obvious exception: lots of floating- point computation). Furthermore, we have under development Lisp, Bcpl, and MPS systems which can run on a Nova and therefore, with slight modification, on Alto. Since most of our own future software work is expected to be done in one of these languages, most of it should be able to run on Alto. The next paragraph shows that there should be plenty of computing power. Both Lisp and MPS will have some kind of hardware-assisted mapping, as that virtual memory size will not be a problem; a similar arrangement for Bcpl seems feasible, but has not been investigated. A 64K Alto has as many Lisp cells as 32K of PDP-10 memory. BBN claims to run Lisp users with an average 25K working set and a 30 ms page fault inter- val. Forty-two disk tracks hold 256K Lisp cells, and the average access time to a record on one of those tracks is about 32 ms, compared for 17 ms for the 10’s drum. Hence, if execution speed on Alto is half the 10 speed or less, paging will cost no more than on the 10 for Lisp programs. It is highly plausible that we can get a Lisp system on an Alto with a few specialized instructions which can deliver half the performance of a Tenex Lisp running in a 32K swap space. Comparable results can be expected for other languages.

3. Applications

All the applications considered here depend on two facts which summarize the contents of the last section: Alto is more powerful than a VTS terminal connected to Tenex; Alto is cheap enough that we can buy one for each member of CSL, if that should prove desirable.

425 Anhang a) Distributed computing. We can very easily put in an Aloha-like point-to-point packet network between Alto’s, using a coax as the ether (or microwave with a repeater on a hill for home terminals). We can then do a large variety of experiments with dozens of machines. It is easy to try experiments which depend on the independence of the participants as well as those which use specialized components which must cooperate to accomplish anything. In particular, we can set up systems in which each user has his own files and communications is done solely for the interchange of sharable information, and thus shed some light on the long-standing controversy about the merits of this scheme as against centralized files. b) Office systems. We can run Peter [Deutsch’s] Lisp-based NLS-competitor or the xNLS system. The computational overkill of Alto will allow us to con- centrate on the capabilities of the system rather than on optimizing its per- formance. Information gained from this approach should complement that obtained from the multi-user xNLS experiments. It may also be possible to run these on Alto and thus escape from Nova dependency; this possibility requires further investigation. c) Personal computing. If our theories about the utility of cheap, powerful per- sonal computers are correct, we should be able to demonstrate them convinc- ingly on Alto. If they are wrong, we can find out why. We should, for exam- ple, be able to satisfy heavy Lisp users such as Warren [Teitelman] and Peter [Deutsch] with an Alto. This would also take a big computing load away from Maxc. It should also be quite easy to simulate the hardware configuration of other proposed personal computers (e.g., different memory hierarchies) and thus to validate those designs. This is important because more compact ma- chines will require a much larger investment in engineering development and more precise optimization of the memory system. d) Graphics. Alto is an excellent vehicle for Bob Flegal’s graphics work, and will make the fruits of that work available to a wide community. It can’t do Dick Shoup’s stuff.

4. Competition

Alto competes with some other things we or SSL are doing. I think this is a good thing, since it encourages the proponents of both approaches to excel. Specifi- cally: a) VTS can do higher quality characters, has intensity control and blinking, costs half to two-thirds as much if you only want a terminal, and can take advantage of the video switch. It can’t do graphics and may suffer from the queueing

426 Anhang

problems of shared-resource systems (the controlling Nova and communica- tions are shared). And, of course, it is only as good as the computer which uses it. b) Maxc can compute, and for applications which use existing software, need large working sets, or do lots of multiplications, it will be better. Also, it is known to be good for Lisp, etc., while the suitability of Alto for such large systems remains unproven. c) Novas which don’t have complex interfaces to other hardware (e.g., Toy, XGP) can be replaced by Altos. Those which do, like the Maxc Nova or, probably, the VTS Nova, are secure. d) The implications of Alto for the local network are unclear. e) Imlacs are wiped out.

427 Anhang

E. Die Entwicklung des Macintosh, 1979–1984

Date 29.05.1979 27.09.1979 28.09.1979 12.10.1979 Price 500 $ 1 500 $ 500 $ 500 $ Internal Processor 8-bit-CPU 6809E 6809E 6809E Memory 64k 64k 64k 64k ROM n/a 32k 32k 32k Mass Storage 200K 5.25” 200K 5.25” optional optional Floppy Floppy Battery 2-hours 2-hours 2-hours optional Serial Ports 1 1 1 1 Modem internal internal internal internal Video Display built-in built-in use TV use TV Diagonal 4” or 5” 4” or 5” 4” or 5” 4” or 5” Characters n/a n/a 64 chars 64 chars per line per line Pixels n/a n/a n/a n/a Input Keyboard built-in built-in built-in built-in Input Device n/a n/a n/a Speech recogn. n/a n/a n/a optional Microphone n/a n/a n/a n/a Output Printer built-in built-in optional optional Speaker n/a n/a n/a built-in Speech synth. n/a n/a n/a optional Physical

Weight 20 lb. n/a 10 lb. n/a ¢ Size n/a n/a 13¢13 5” n/a Software BASIC built-in built-in built-in n/a Calculator n/a n/a n/a built-in Communication n/a n/a n/a n/a Word Processing n/a n/a n/a built-in

428 Anhang

Date 12.01.1980 07/1980 16.02.1981 24.01.1984 Price 1 000 $ 1 300 $ 1 500 $ 2 495 $ Internal Processor 6809E 6809E 68000 68000 Memory 64k 64k 64k 128k ROM 32k 32k 32k 64k Mass Storage 200K 5.25” 200k 200k 5.25” 400k 3.5” Floppy Cass Drive Floppy Floppy Battery optional optional n/a n/a Serial Ports 1 1 1 2 Modem internal internal internal n/a Video Display built-in built-in built-in built-in

Diagonal 7” 7” 9” 9”

¢ ¢ Characters 25 lines ¢ 25 lines 25 lines n/a

70 chars 72 chars 96 chars

¢ ¢ ¢ Pixels 256¢256 256 256 384 256 512 342 Input Keyboard built-in built-in built-in detached Input Device light pen Joystick Joystick Mouse Speech recogn. optional optional optional n/a Microphone built-in built-in n/a n/a Output Printer optional optional optional optional Speaker built-in built-in built-in built-in Speech synth. optional optional optional limited Physical

Weight 22 lb. n/a n/a 16.7 lb. ¢ Size n/a n/a n/a 13.5¢9.7 10.9” Software BASIC built-in n/a n/a third-party Calculator built-in built-in built-in Desk Accessory Communication n/a built-in built-in n/a Word Processing built-in built-in built-in MacWrite

429

Über den Autor und dieses Buch

MICHAEL FRIEDEWALD wurde am 20. Novem- ber 1965 in Wuppertal geboren. Er studierte Elektrotechnik und Wirtschaftswissenschaf- ten an der Rheinisch-Westfälischen Techni- schen Hochschule Aachen mit Abschlüssen als Diplom-Ingenieur (1992) bzw. Diplom- Wirtschaftsingenieur (1995). Von 1994 bis 1999 war er als wissenschaftlicher Angestellter am Lehrstuhl für Geschichte der Technik der RWTH Aachen beschäftigt, wo er sich mit der Frühgeschichte der Funktechnik und mit der Geschichte der elektronischen Datenverarbei- tung beschäftigte. Seine vorliegende Dissertation wurde 1999 vom Verein Deutscher Ingenieure mit dem Rudolf-Kellermann- Preis für Technikgeschichte ausgezeichnet. Michael Friedewald arbeitet heute am Fraunhofer-Institut für Systemtechnik und Innovationsforschung (ISI) in Karlsruhe.

Danksagung Dieses Buch wäre ohne die Kritik, die Hinweise, den Rat und die Ermunterung, mit einem Wort die unterstützende Begleitung, durch Freunde, Kollegen und Be- kannte nicht in dieser Form zustande gekommen. Mein besonderer Dank gilt L. Peter Deutsch, Bill Duvall, Douglas C. Engel- bart, William K. English, Daniel H. H. Ingalls, Chris Jeffers, Ted Kaehler, Alan C. Kay, Butler Lampson, William Newman, James C. Norton, Jef Raskin, Richard Shoup, Herbert Simon, Charles Simonyi, Alvy Ray Smith, David C. Smith, Ga- ry Starkweather, Dan Swinehart, Ed Taft, Larry Tesler, Chuck Thacker, Dirk van Nouhuys, John Warnock, Steve Weyer und Niklaus Wirth, die meine zahlreichen Fragen mit sehr viel Wohlwollen, Geduld und Akribie beantwortet haben.

431 Über den Autor und dieses Buch

Dem Betreuer dieser Dissertation, Herrn Prof. Dr. Walter Kaiser danke ich für die Möglichkeit zur Bearbeitung eines der interessantesten Kapitel der Com- putergeschichte. Dem Koreferenten, Herrn Prof. Dr. Friedel Hoßfeld, möchte ich meinen besonderen Dank für sein außergwöhnliches Interesse und seine fachliche Unterstützung aussprechen. Nicht vergessen möchte ich die Bibliothekare und Archivare, insbesondere Henry Lowood, Polly Armstrong, Peter Whidden und Betty Lum von der Stan- ford University Library sowie Giuliana Lavendel und Lisa Alfke von der Biblio- thek des Xerox Palo Alto Research Center, die mich während meines Forschungs- aufenthalts in Kalifornien im Frühjahr 1997 tatkräftig unterstützt haben. Ein ganz besonders herzliches Dankeschön geht an Brian Tramontana, den Fotografen des Xerox Palo Alto Research Center, der mich trotz einer schweren Krankheit mit Bildmaterial versorgt hat. Außerdem danke ich Thierry Bardini, Ursula Bing, Christoph Butterweck, Andreas Fickers, Jutta Friedewald, Ute Gleba, Kai Handel, Petra und Michael Kappelan, Stefan Kinkartz, Torsten Kuhlen, Jürgen Lang, Detlef Neumann und Michael Pauly für die fruchtbaren Diskussionen, konstruktiven Ratschläge und die Geduld bei der Durchsicht des Manuskripts. Michael Friedewald Karlsruhe, im Oktober 1999

432 Literatur

Abbate, Janet (1999). Inventing the Internet. MIT Press, Cambridge, Mass. Abelson, Philip H. (1966). Project Hindsight. Science, 154(3753):1123. Abramson, Norman (1970). The Aloha System – Another Alternative for Computer Communications. In Proceedings of the AFIPS 1970 Fall Joint Computer Conference, vol. 37, pp. 281–285, Hous- ton, Tex. AFIPS Press. Akera, Atsushi (1998). Calculating a Natural World: Scientists, Engineers, and Computers in the United States, 1937–1968. PhD thesis, Department for History and Sociology of Science, Uni- versity of Pennsylvania, Philadelphia. Alpar, Aaron (1993). Logo and Smalltalk: Languages that changed the Rules. The Analytical Engine, 1(2). Andrews, Donald I. (1974). Line Processor – A Device for Amplification of Display Terminal Capabil- ities for Text Manipulation.InProceedings of the AFIPS 1974 National Computer Conference, vol. 43, pp. 257–265, Chicago, Ill. AFIPS Press. Andrews, Donald I. and J. F. Rulifson (1967). Tree Meta (Working Draft): A Meta Compiler for the SDS 940. Technical report, Stanford Research Institute, Menlo Park, CA. Engelbart Collection, Stanford University Archive, M 638, Box 16, Folder 3. Angermann, Erich (1995). Die Vereinigten Staaten seit 1917. Deutscher Taschenbuch Verlag, Mün- chen, 9., durchgesehene und erweiterte Aufl. Anonymous (1946). A Machine That Thinks. TIME, 46(4):93–94. (1949a). Electronic Filing Machine Sorts Millions of Government Records: Agriculture De- partment Unveils Its »Rapid Selector«. The New York Times, 23 June 1949. (1949b). Letter-Printing C-R Tube. Electronics, 22(6):160–162. (1954). Silicon Surface-Barrier Transistors. Electronics, 27(5):194–196. (1957). The Artificial Earth Satellite. Nature, 180(4589):1567–1568. (1958). First SAGE Center Opens. Electronics, 31(28):24. (1959). Special Purpose PDP has GP Applications. The Magazine of Datamation, 5(6):26. (1965). SDS Announces 940 Time Sharing Computer. Communications of the ACM, 8(11):722. (1968). Augmenting Your Intellect (Interview with Douglas C. Engelbart). Research and De- velopment, 19(8):22–27. (1980). Alto Operating System Reference Manual. Technical Report, Xerox Palo Alto Research Center, Palo Alto, CA.

433 Literatur

Anonymous (1981). New Trends in Portability: The Osborne 1. Byte, 6(4):8–9. (1984). Apple Lisa 2. Electronic Design, 32(July 26):120–121. (1997). Mouse inventor wins $500K Lemelson prize. MIT Tech Talk, 41(26). Ashby, W. Ross (1974). Entwurf für einen Intelligenz-Verstärker [1956]. In: (Shannon und McCarthy 1974), S. 249–271. Aspray, William F. (1994). The History of Computing within the History of Information Technology. History and Technology, 11(1):7–19. (1997). The Intel 4004 Microprocessor: What Constituted Invention? IEEE Annals of the History of Computing, 19(3):4–15. (1998). Von Neumann and the IAS Computer. Paper presented at the International Conference on the History of Computing, Paderborn, Germany, August 14–16, 1998. Astrahan, Morton M. and J. F. Jacobs (1983). History of the Design of the SAGE Computer – The AN/FSQ-7. Annals of the History of Computing, 5(4):340–349. Atkinson, Wiliam D. (1986). Method and Apparatus for Image Compression and Manipulation. United States Patent, 4 622 545. (1988). Display System. United States Patent, Re. 32 632. Augarten, Stan (ca. 1995). The Invention of Personal Computing: The Origin of the Most Important Technology of Our Time. Chapter »The Mouse that Roared« available at http://www.readfilm.com/chapter7/x7-12.htm. Augmentation Research Center, Stanford Research Institute (1975). NLS-8 Glossary. Technical Re- port, Menlo Park, CA. Irby Papers, Stanford University Archives, M 671, Box 6, Folder 5. Backus, John (1980). Programming in America in the 1950s. Some Personal Impressions.In (Metropolis et al. 1980), pp. 125–135. Baecker, Ronald M. (1969). Picture-driven Animation.InProceedings of the AFIPS 1969 Spring Joint Computer Conference, vol. 34, pp. 273–288, Boston, Mass. AFIPS Press. Baecker, Ronald M. and W. A. S. Buxton, eds. (1987). Readings in Human-Computer Interaction: A Multidisciplinary Approach. Morgan Kaufman, San Mateo, CA. Bagg, Thomas C. and M. E. Stevens (1961). Information Selection Systems Retrieving Replica Copies: A State of the Art Report. Technical Note 157, National Bureau of Standards, Washington, D. C. Ball, Geoffrey H. and D. J. Hall (1970). Some Implications of Interactive Graphic Computer Systems for Data Analysis and Statistics. Technometrics, 12(1):17–31. Bamford, Jr., Harold E. (1979). Assessing the Effect of Computer Augmentation on Staff Productivity. Journal of the American Society of Information Science, 30(3):136–143. Barbrook, Richard und A. Cameron (1997). Die kalifornische Ideologie. In: Nettime, Hrsg.: Netzkritik. Materialien zur Internet-Debatte,S.15–37. Edition ID-Archiv, Berlin. Bardini, Thierry (2000). Bootstrapping: Douglas Engelbart, Coevolution, and the Origins of Personal Computing. Stanford University Press, Stanford, CA. Bardini, Thierry and A. T. Horvath (1995). The Social Construction of the Personal Computer User. Journal of Communication, 45(3):40–65. Barnes, Susan B. (1997). Douglas Carl Engelbart: Developing the Underlying Concepts for Contem- porary Computing. IEEE Annals of the History of Computing, 19(3):16–26.

434 Literatur

Bates, Roger D. and C. P. Thacker (1975). Transducer for a Display-Oriented Pointing Device. United States Patent, 3 892 963. Baudelaire, Patrick C. (1979). Draw Manual. In (Taft 1979), pp. 98–128. Baudelaire, Patrick C. and M. Stone (1980). Techniques for Interactive Raster Graphics. Computer Graphics, 14(3):314–320. Bauer, Friedrich L. (1993). Software Engineering – wie es begann. Informatik Spektrum, 16(5):259– 260. Baum, Claude (1981). The System Builders: The Story of SDC. System Development Corporation, Santa Monica, CA. Beauclair, W. de (1968). Rechnen mit Maschinen: Eine Bildgeschichte der Rechentechnik. Vieweg, Braunschweig. Bell, C. Gordon (1983). The Computer Museum Member’s First Field Trip: The Northbay AN/FSQ-7 SAGE Site. Communications of the ACM, 26(2):118–119. (1988). Toward a History of (Personal) Workstations. In (Goldberg 1988), pp. 4–47. Bell, C. Gordon and J. R. Bell (1983). Digital Equipment Corporation PDP Series. In (Ralston and Reilly 1983), pp. 554–561. Bell, C. Gordon and J. N. Gray (1997). The Revolution Yet to Happen. In Denning, Peter J. and R. M. Metcalfe, eds.: Beyond Calculation: The Next Fifty Years of Computing, pp. 5–32. Copernicus, New York. Bell, C. Gordon and A. Newell (1971). Computer Structures: Readings and Examples. McGraw-Hill, New York. Bell, Daniel (1985). Die nachindustrielle Gesellschaft. Campus, Frankfurt und New York (Original: The Coming of Post-Industrial Society, New York 1973). Belleville, Robert L. (1988). Pointing to solutions. Available at http://reality.sgi.com/drbob/ WR1V3.HTM [20 Nov 1997]. Benington, Herbert D. (1983). Production of Large Computer Programs [1956]. Annals of the History of Computing, 5(4):350–361. Bennett, Stuart (1979). A History of Control Engineering, 1800–1930, vol. 8 of IEE Control Engi- neering Series. Peter Peregrinus, London. Bernstein, Morton I. (1978). Hardware is Easy: It’s Software That’s Hard. Datamation, 24(12):32–36. Bertoni, Phil and P. A. Castleman (1976). Bolt Beranek and Newman Inc.. In Belzer, Jack, A. G. Holzman, and A. Kent, eds.: Encyclopedia of Computer Science and Technology, vol. 3, pp. 454–477. Marcel Dekker, New York and Basel. Best, Richard L. (1957). Memory Units in the Lincoln TX-2.InProceedings of the 1957 Western Joint Computer Conference, vol. 11, pp. 160–167, Los Angeles, Cal. Institute of Radio Engineers, American Institute of Electrical Engineers, Association for Computing Machinery. Best, Richard L., R. C. Doane, and J. E. McNamara (1978). Digital Modules, The Basis for Computers. In Bell, C. Gordon, J. C. Mudge, and J. E. McNamara, eds.: Computer Engineering: A DEC View of Hardware Systems Design, pp. 103–118. Digital Press, Bedford, Mass. Besterman, Theodore (1945). Notes on Periodicals: The Atlantic. July 1945 (clxxvi. 101–8). The Journal of Documentation, 1:233. Bewley, William L., T. L. Roberts, D. Schroit, and W. L. Verplank (1983). Human Factors Testing in the Design of Xerox’ 8010 »Star« Office Workstation.InProceedings of the CHI’83 Conference on Human Factors in Computing Systems, pp. 72–77. Association for Computing Machinery.

435 Literatur

Bhushan, Abhay and M. Plass (1986). The Interpress Page and Document Description Language. IEEE Computer, 19(6):72–77. Bhushan, Abhay, K. Pogran, R. Tomlinson, and J. White (1977). Standardizing Network Mail Head- ers. Request for Comments # 561, NIC 18516, Network Working Group. Biegelsen, David K., G. K. Starkweather, and J. C. Zesch (1976). Acousto-Optic Modulation Device. United States Patent, 3 938 881. Bigelow, Charles (1985). Font Design for Personal Workstations. Byte, 10(1):255–270. Bijker, Wiebe E., T. P. Hughes, and T. Pinch, eds. (1987). The Social Construction of Technological Systems. MIT Press, Cambridge, Mass. Birrell, Andrew D., R. Levin, R. M. Needham, and M. D. Schroeder (1982). Grapevine: An Exercise in Distributed Computing. Communications of the ACM, 25(4):260–274. Birss, Edward W. (1984). The integrated software and user interface of Apple’s Lisa.InProceedings of the AFIPS 1984 National Computer Conference, vol. 53, pp. 319–328, Las Vegas, Nev. AFIPS Press. Bischoff, Rainer (1983). Personal-Computing – Versuch einer Abgrenzung. HMD. Handbuch der Modernen Datenverarbeitung, 20(113):3–11. Bitzer, D. L. and H. G. Slottow (1966). The Plasma Display Panel – A Digitally Adressable Display with Inherent Memory.InProceedings of the AFIPS 1966 Fall Joint Computer Conference, vol. 29, pp. 541–547, San Francisco. Spartan Books. Blodgett, Timothy B. and C. W. Pope, Interviewers (1975). The Corporation and its Obligations (Interview with C.Peter McColough). Harvard Business Review, 53(3):127–138. Bobrow, Daniel G. (1968). Storage Management in LISP. In Bobrow, Daniel G., ed.: Symbol Manip- ulation Languages and Techniques, pp. 291–301. North-Holland, Amsterdam and London. Bobrow, Daniel G., J. D. Burchfiel, D. L. Murphy, and R. S. Tomlinson (1972). TENEX, a Paged Time Sharing System for the PDP-10. Communications of the ACM, 15(3):135–143. Bobrow, Daniel G., R. Y. Kain, B. Raphael, and J. C. R. Licklider (1966). A Computer-Program System to Facilitate the Study of Technical Documents. American Documentation, 17(4):186– 189. Boffey, Philip M. (1970). Mansfield Amendment Curb on Basic Research May Spread. Science, 167(3924):1473. Boggs, David R. and R. M. Metcalfe (1978). Communications Network Repeater. United States Patent, 4 099 024. Boggs, David R., J. F. Shoch, E. A. Taft, and R. M. Metcalfe (1980). Pup: An Internetwork Architec- ture. IEEE Transactions on Communications, COM-28(4):612–624. Boggs, David R. and E. A. Taft (1979). FTP Reference Manual. In (Taft 1979), pp. 130–143. Böhme, Gernot (1993). Am Ende des Baconschen Zeitalters: Studien zur Wissenschaftsentwicklung. Suhrkamp, Frankfurt am Main. Bohnsack, Ralf (1998). Rekonstruktive Sozialforschung und der Grundbegriff des Orientierungsmus- ters. In: Siefkes, Dirk, P. Eulenhöfer, H. Stach und K. Städtler, Hrsg.: Sozialgeschichte der In- formatik: Kulturelle Praktiken und Orientierungen, S. 105–121. Deutscher Universitäts-Verlag, Wiesbaden. Bolt, Richard A. (1979). Spatial Data-Management. Technical report, Massachusetts Institute of Technology, Architecture Machine Group, Cambridge, Mass.

436 Literatur

Bolter, J. David (1990). Der digitale Faust. Oktagon Verlag, Stuttgart und München (Original: Tu- ring’s Man, Chapel Hill 1990). Bolz, Norbert (1994). Computer als Medium – Einleitung. In: Bolz, Norbert, F. Kittler und C. Tholen, Hrsg.: Computer als Medium,S.9–16. Wilhelm Fink Verlag, München. Boone, Gary W. (1973). Computing Systems CPU. United States Patent, 3 757 306. Bourne, Charles P. and D. C. Engelbart (1958). Facets of the Technical Information Problem. The Magazine of Datamation, 4(5):6–12. Nachdruck aus: SRI Journal, 2(1):2–8, 1958. Bowker, Geof (1993). How to Be Universal: Some Cybernetic Strategies, 1943–1970. Social Studies of Science, 23:107–127. Boyle, Eric S. (1997). The Recasting of Electronic Data Processing Through Time-sharing and Real- Time Systems, 1960–1975. Conference paper presented at the Society for the History of Tech- nology Convention, Pasadena, California. Bradley, David J. (1990). Wie alles einmal anfing ...: DieGeburtdesIBMPC.c’t – Magazin für Computertechnik, 8(10):34–40. Bradshaw, P. D. (1962). The Walnut System: A Large Capacity Document Storage and Retrieval System. American Documentation, 13(3):270–275. Brand, Stewart (1974). II Cybernetic Frontiers. Random House, New York. (1990). Media Lab: Computer, Kommunikation und neue Medien. Die Erfindung der Zukunft am MIT. Rowohlt, Reinbek bei Hamburg (Original: The Media Lab: inventing the future at MIT, New York 1987). Braun, Christoph-Friedrich von (1994). Der Innovations-Krieg: Ziele und Grenzen der industriellen Forschung und Entwicklung. Hanser, München und Wien. Braun, Ernest and S. Macdonald (1982). Revolution in Miniature: The history and impact of semicon- ductor electronics. Cambridge University Press, Cambridge, Second ed. Brodey, Warren M. and N. Lindgren (1967). Human enhancement through evolutionary technology. IEEE Spectrum, 4(9):87–97. (1968). Human Enhancement: Beyond the machine age. IEEE Spectrum, 5(2):79–93. Brooks, Jr., Frederick P. (1975). The Mythical Man-Month: Essays on Software Engineering. Addison- Wesley, Reading, Mass. Brotz, D. and R. Levin (1979). Laurel Manual. In (Taft 1979), pp. 63–83. Brown, John Seely (1996). To Dream the Invisible Dream. Communications of the ACM, 39(8):30. Brown, John Seely and F. Squires (1990). Springboard to the Future. In Lavendel, Giuliana and M. Pindar, eds.: PARC: The Second Decade 1980–1990, pp. iii–xi. Xerox Palo Alto Research Center, Palo Alto, CA. Brown, Lin (1993). Human-Computer Interaction and Standardization. StandardView, 1(1):3–8. Brown, Mark R., K. N. Kolling, and E. A. Taft (1985). The Alpine file system. ACM Transactions on Computer Systems, 4(3):261–293. Bruce S. Old Associates, Inc. (1981). Return on Investment in Basic Research: Exploring a Method- ology . Report to Office of Naval Research, Department of the Navy on Contract No. N00014- 79-C-0192, Arlington, VA. Bruner, Jerome S. (1974). Entwurf einer Unterrichtstheorie. Berlin Verlag, Berlin (Original: Toward a theory of instruction, Cambridge, Mass. 1966).

437 Literatur

Brynjolfsson, Erik (1993). The Productivity Paradox of Information Technology. Communications of the ACM, 36(12):67–77. Buckland, Michael K. (1992). Emanuel Goldberg, Electronic Document Retrieval and Vannevar Bush’s Memex. Journal of the American Society for Information Science, 43(4):284–294. Budde, Reinhard und H. Züllinghoven (1990). Software-Werkzeuge in einer Programmierwerkstatt: Ansätze eines hermeneutisch fundierten Werkzeug- und Maschinenbegriffs. GMD-Bericht 182. Oldenbourg, München und Wien. Burke, Colin (1991). A Practical View of Memex: The Career of the Rapid Selector. In (Nyce and Kahn 1991a), pp. 145–164. (1993). An Introduction to an Historic Computer Document: The 1946 Pendergass Report Cryptanalysis and the Digital Computer. Cryptologia, 17(2):113–123. (1994). Information and Secrecy: Vannevar Bush, Ultra, and the Other Memex. Scarecrow, Metuchen, N.J. Burks, Arthur W., H. H. Goldstine, and J. v. Neumann (1961). Preliminary Discussion of the Logical Design of an Electronic Computing Instrument, Part I, Vol. 1 [1946]. In Taub, A. H., ed.: John von Neumann – Collected Works, Volume V, Design of Computers, Theory of Automata and Numerical Analysis, pp. 34–79. Pergamon Press, Oxford. Busch, Carsten (1995). Metaphern in der Informatik: Theorie, Besonderheiten und Beispiele. Discus- sion Paper FS II 95-105, Wissenschaftszentrum Berlin für Sozialforschung, Berlin. Bush, Vannevar (1912). Profile-Tracer. United States Patent, 1 048 649. (1931). The Differential Analyzer: A New Machine for Solving Differential Equations. Journal of the Franklin Institute, 212(4):447–488. (1936). Instrumental analysis. Bulletin of the American Mathematical Society, 42(10):649– 669. (1937). The Engineer and his Relation to Government. Electrical Engineering, 56(8):928–936. (1939). The Professional Spirit in Engineering. Mechanical Engineering, 61(3):195–198. (1943). Research and the War Effort. Electrical Engineering, 62(3):96–102. (1944). The American Tradition of Opportunity. Electrical Engineering, 63(3):82–84. (1945a). As we may think: A Top U.S. Scientist Foresees a Possible Future World in Which Man-Made Machines Will Start to Think. LIFE, 19(11):112–124. (1945b). As we may think. Atlantic Monthly, 176(1):101–108. (1946a). The Builders. In (Bush 1946b), pp. 179–181. (1946b). Endless Horizons. Public Affairs Press, Washington, D. C. (1946c). The Inscrutable Past [1933]. In (Bush 1946b), pp. 1–15. (1955). Communications – Where Do We Go from Here? Mechanical Engineering, 77(4):302– 304. (1965). Science Pauses. Fortune, 71(5):116–119, 167–172. (1967). Memex Revisited.InScience is Not Enough, pp. 197–216. William Morrow, New York. (1972). Pieces of the action [1970]. Cassell, London. (1990). Science – The Endless Frontier: A Report to the President on a Program for Postwar Scientific Research [1945]. National Science Foundation, Washington, D. C.

438 Literatur

Bush, Vannevar (1991a). Memex II [1959]. In (Nyce and Kahn 1991a), pp. 165–184. (1991b). Memorandum Regarding Memex [1941]. In (Nyce and Kahn 1991a), pp. 81–110. Bush, Vannevar and S. H. Caldwell (1945). A new type of differential analyzer. Journal of the Franklin Institute, 240(4):255–326. Bush, Vannevar, F. D. Gage, and H. R. Stewart (1927). A Continuous Integraph. Journal of the Franklin Institute, 203(1):63–84. Bush, Vannevar and H. L. Hazen (1927). Integraph Solutions of Differential Equations. Journal of the Franklin Institute, 204(5):575–615. Bylinsky, Gene (1971). Little Chips Invade the Memory Market. Fortune, 83(4):100–104, 145–146. (1980). Here Comes the Second Computer Revolution [1975]. In Forester, Tom, ed.: The Mi- croelectronics Revolution: A Complete Guide to the New Technology and its Impact on Society, pp. 3–15. Basil Blackwell, Oxford. Callon, Michel (1986a). The Sociology of an Actor Network: The Case of the Electric Vehicle.In Callon, Michel, J. Law, and A. Rip, eds.: Mapping the Dynamics of Science and Technology. Sociology of Science in the Real World, pp. 19–34. Macmillan, London. (1986b). Some elements of a sociology of translation: domestication of the scallops and the fishermen of St Brieuc Bay. In Law, John, ed.: Power, Action and Belief: A New Sociology of Knowledge?, vol. 32 of Sociological Review Monographs, pp. 196–233. Routledge & Kegan Paul, London, Boston and Henley. (1987). Society in the Making: The Study of Technology as a Tool for Sociological Analysis.In (Bijker et al. 1987), pp. 84–103. (1991). Techno-economic networks and irreversibility. In Law, John, ed.: A Sociology of Mon- sters: Essays on Power, Technology and Domination, vol. 38 of Sociological Review Mono- graphs, pp. 132–161. Routledge, London and New York. Camenker, Brian (1983). The Making of the IBM PC. Byte, 8(11):254–256. Campbell-Kelly, Martin (1989). ICL: A Business and Technical History. Clarendon Press, Oxford. (1998). The EDSAC Simulator. Paper presented at the International Conference on the History of Computing, Paderborn, Germany, August 14–16, 1998. Campbell-Kelly, Martin and W. F. Aspray (1996). Computer: A History of the Information Machine. Basic Books, New York. Campbell-Kelly, Martin and M. R. Williams (1985a). Introduction. In (Campbell-Kelly and Williams 1985b), pp. xiii–xxiv. , eds. (1985b). The Moore School Lectures: Theory and Technique for Design of Electronic Digital Computers [1946],vol.9ofCharles Babbage Institute Reprint Series for the History of Computing. Tomash Publishers, Los Angeles and San Francisco, MIT Press, Cambridge Mass. Canning, Richard G. and B. McNurlin (1978). Micros Invade the Business World. Datamation, 24(8):93–95. Card, Stuart K. (1996). Pioneers and Settlers: Methods Used in Successful User Interface Design.In Rudisill, Marianne, C. Lewis, P. G. Polson, and T. D. McKay, eds.: Human-Computer Interface Design: Success Stories, Emerging Methods and Real-World Context, pp. 122–169. Morgan Kaufmann Publishers, San Francisco. Card, Stuart K., W. K. English, and B. J. Burr (1978). Evaluation of Mouse, Rate-Controlled Isometric Joystick, Step Keys, and Text Keys for Text Selection on a CRT. Ergonomics, 21(8):601–613.

439 Literatur

Card, Stuart K. and T. P. Moran (1988). User Technology: From Pointing to Pondering. In (Goldberg 1988), pp. 493–521. Card, Stuart K., T. P. Moran, and A. Newell (1980a). Computer Text-Editing: An Information- Processing Analysis of a Routine Cognitive Skill. Cognitive Psychology, 12:32–74. (1980b). The keystroke-level for user performance time with interactive systems. Communica- tions of the ACM, 23(7):396–410. (1983). The psychology of human-computer interaction. Erlbaum, Hillsdale, N.J. Card, Stuart K., M. Pavel, and J. E. Farrell (1984). Window-Based Computer Dialogues. In Shackel, B., ed.: Human-Computer Interaction – Interact ’84 (London, August 1984), pp. 239–243, Am- sterdam. Elsevier Science Publishers. Carroll, John M. (1956). SAGE Air Defense Computer. Electronics, 29(10):234–238. (1956). Trends in Computer Input/Output Devices. Electronics, 29(9):142–149. Carroll, John M. and S. A. Mazur (1986). Lisa Learning. IEEE Computer, 19(11):35–49. Carroll, Paul (1994). Der Computerkrieg: IBM gegen Bill Gates Microsoft. Ein Kampf ums Überleben. Zsolnay, Wien (Original: Big Blues: The Unmaking of IBM, New York 1993). Cerf, Vinton G. (1990). Interview conducted by Judy O’Neill on 24 April 1990 at Reston, VA for the DARPA/IPTO History Project. Transcript of Tape Recording OH 191, Charles Babbage Institute, Center for the History of Information Processing, Minneapolis. Cerf, Vinton G. and R. E. Kahn (1974). A Protocol for Packet Network Intercommunication. IEEE Transactions on Communications, COM-22(5):637–648. Cerf, Vinton G. and P. T. Kirstein (1978). Issues in Packet-Network Interconnection. Proceedings of the IEEE, 66(11):1386–1408. Ceruzzi, Paul E. (1989). Electronics Technology and Computer Science, 1940–1975: A Coevolution. Annals of the History of Computing, 10(4):257–275. (1991). When Computers were Human. Annals of the History of Computing, 13(4):237–244. (1994). From Batch to Interactive: The Evolution of Computing Systems, 1957–1969.In Information Processing ’94: Proceedings of the IFIP 13th World Computer Congress, Hamburg, Germany, 28 August–2 September, 1994, vol. 2, pp. 279–284. North-Holland, Amsterdam. (1996). From Scientific Instrument to Everyday Appliance: The Emergence of Personal Com- puters, 1970–1977. History and Technology, 13(1):1–32. (1998). A History of Modern Computing. MIT Press, Cambridge, Mass. Chapanis, Alphonse, R. G. Wendell, and C. T. Morgan (1949). Applied Experimental Psychology: Human Factors in Engineering Design. John Wiley, New York. Chapin, Ned, ed. (1963). An Introduction to Automatic Computers. Van Nostrand, Princeton, N.J., Second ed. Chapman, Robert L., J. L. Kennedy, A. Newell, and W. C. Biel (1959). The Systems Research Labo- ratory’s Air Defense Experiments. Management Science, 5:250–269. Chin, C. (1984). Lisa Software. InfoWorld, 6(2):27. Chomsky, Noam (1956). Three Models for the Description of Languages. IRE Transactions on Infor- mation Theory, 3(2):113-124. Chor, J. Edward (1984). A Second Opinion. Byte, 9(8):248.

440 Literatur

Christensen, James M. (1976). Ergonomics: Where Have We Been and Where Are We Going II. Ergonomics, 19(3):287–300. Cizmic, Stipe, W. L. Edwards, Jr., D. L. Griffith, M. O. Halfhill, J. O. Jacques, L. R. Shenfield, and R. W. Votaw (1978). Control System for Disk Drive. United States Patent, 4 086 659. Clark, Douglas W., B. W. Lampson, K. A. Pier, G. A. McDaniel, and S. M. Ornstein (1981). The Dorado: A High-Performance Personal Computer. Three Papers. Report CSL-81-1, Xerox Palo Alto Research Center, Palo Alto, CA. Clark, Wesley A. (1957). The Lincoln TX-2 Computer Development.InProceedings of the 1957 Western Joint Computer Conference, vol. 11, pp. 143–145, Los Angeles, Cal. Institute of Radio Engineers, American Institute of Electrical Engineers, Association for Computing Machinery. (1988). The LINC was Early and Small. In (Goldberg 1988), pp. 347–394. (1990). Interview conducted by Judy O’Neill on 3 May 1990 at New York City for the DARPA/IPTO History Project. Transcript of Tape Recording OH 195, Charles Babbage In- stitute, Center for the History of Information Processing, Minneapolis. Clement, Carl J. and F. H. Stengel (1977). Key Set Device for Encoding Data. United States Patent, Des. 243 700. Cohen, I. Bernard (1998). Howard Aiken on the Number of Computers Needed for the Nation. IEEE Annals of the History of Computing, 20(3):27–32. Cole, Elliot (1983). Old and New Models for Office Automation. Journal of the American Society of Information Science, 34(3):234–239. Conklin, Jeff (1987). Hypertext: An Introduction and Survey. IEEE Computer, 20(9):17–41. Coons, Steven Anson (1966a). Computer Graphics and Innovative Engineering Design. Datamation, 11(5):32–34. (1966b). The Uses of Computers in Technology. Scientific American, 215(3):177–188. Corbató, Fernando J. (1983). Time Sharing. In (Ralston and Reilly 1983), pp. 1520–1526. (1989/90). Interview conducted by Arthur L. Norberg on 18 April 1989 and 14 November 1990 at Cambridge, Mass. for the DARPA/IPTO History Project. Transcript of Tape Recording OH 162, Charles Babbage Institute, Center for the History of Information Processing, Minneapolis. Corbató, Fernando J., M. Merwin-Daggett, and R. C. Daley (1962). An Experimental Time-Sharing System.InProceedings of the AFIPS 1962 Spring Joint Computer Conference, vol. 21, pp. 335–344, San Francisco, CA. Thomson Books. Corbató, Fernando, J. and V. A. Vyssotsky (1965). Introduction and Overview of the Multics Sys- tem.InProceedings of the AFIPS 1965 Fall Joint Computer Conference, vol. 27, pp. 185–196. Spartan Books. Cortada, James W. (1990). A Bibliographic Guide to the History of Computing, Computers, and the Information Processing Industry,vol.6ofBibliographies And Indexes in Science and Technol- ogy. Greenwood Press, New York. (1996a). A Bibliographic Guide to the History of Computer Applications, 1950 - 1990, vol. 10 of Bibliographies And Indexes in Science and Technology. Greenwood Press, New York. (1996b). Second Bibliographic Guide to the History of Computing, Computers, and the Infor- mation Processing Industry,vol.9ofBibliographies And Indexes in Science and Technology. Greenwood Press, New York.

441 Literatur

Coy, Wolfgang (1992). Soft Engines – Mass-Produced Software for Working People? In Floyd, Christiane, H. Züllinghoven, R. Budde, and R. Keil-Slawik, eds.: Software Development and Reality Construction, pp. 269–279. Springer, Berlin, Heidelberg und New York. (1994). Aus der Vorgeschichte des Mediums Computer. In: Bolz, Norbert, F. Kittler und C. Tholen, Hrsg.: Computer als Medium,S.19–37. Wilhelm Fink Verlag, München. (1995). Automat – Werkzeug – Medium. Informatik Spektrum, 18(1):31–38. Craig, David T. (1994). The Apple Lisa Computer: A Retrospective. The Analytical Engine, 2(1). Craik, Kenneth J. W. (1947/48). Theory of the Human Operator in Control Systems. Part I: The Operator as an Engineering System. Part II: Man as an Example in a Control System. British Journal of Psychology, 38:56–61, 142–148. Crane, Gregory (1991). Aristotle’s Library: Memex as Vision and Hypertext as Reality. In (Nyce and Kahn 1991a), pp. 339–352. Crawford, Jr., Perry (1985). Applications of Digital Computation Involving Continuous Input and Output Variables [1946]. In (Campbell-Kelly and Williams 1985b), pp. 375–391. Crevier, Daniel (1994). Eine schöne neue Welt? Die aufregende Geschichte der künstlichen Intelligenz. Econ, Düsseldorf (Original: AI: the tumultuous history of the search for artificial intelligence, New York 1993). Cringely, Robert X. (1993). Wie die Jungs vom Silicon Valley die Milliarden scheffeln, die Konkurrenz bekriegen und trotzdem keine Frau bekommen. ECON, Düsseldorf (Original: Accidental Empi- res: How the Boys of Silicon Valley Make their Millions, Battle Foreign Competition, and still can’t get a Date, Reading, Mass. 1992). Croarken, Mary (1990). Early Scientific Computing in Britain. Clarendon Press, Oxford. Crocker, David H., J. J. Vittal, K. T. Pogran, and D. A. Henderson, Jr. (1977). Standard for the Format of ARPA Network Text Messages. Request for Comments # 733, NIC 41952, Network Working Group. Crocker, Steve (1971). Distribution of NWG/RFCs through the NIC. Request for Comments # 95, Network Working Group. Crosby, Kip and M. Elbaum, Interviewers (1994). Flaming Dorados and other stories: Herb Yeary and Charlie Sosinski talk about Computer Support at Xerox PARC. The Analytical Engine, 2(1). Culler, Glen J. and R. W. Huff (1962). Solution to Nonlinear Equations Using On-Line Computer Control.InProceedings of the AFIPS 1962 Spring Joint Computer Conference, vol. 21, pp. 129–138, San Francisco. Cumpston, Charles B. (1974). The IBM-Xerox Battle will be fought on ground of service and backup. Administrative Management, 35(12):74. Curran, Lawrence J. and R. S. Shuford (1983). IBM’s Estridge. Byte, 8(11):88–97. Curry, James E. and PARC Staff (1979). BCPL Reference Manual. Xerox Palo Alto Research Center, Palo Alto, CA. Dahl, Ole-Johan and K. Nygaard (1966). SIMULA – an ALGOL-Based Simulation Language. Com- munications of the ACM, 9(9):671–678. (1967). Classes and Subclasses. In Buxton, J. N., ed.: Simulation Programming Languages. North-Holland, Amsterdam. Dalal, Yogen K. (1982). Use of Multiple Networks in the Xerox Network System. IEEE Computer, 15(10):82–92.

442 Literatur van Dam, Andries and D. E. Rice (1970). Computers and Publishing: Writing, Editing and Printing. In Alt, Franz L. and M. Rubinoff, eds.: Advances in Computers, vol. 10, pp. 145–174. Academic Press, New York and London. (1971). On-line Text Editing: A Survey. ACM Computing Surveys, 3(3):93–114. Daniels, Bruce (1983). Lisa’s Alternative Operating System. Computer Design, 22(9):159–166. (1984). The Architecture of the LisaTM Personal Computer. Proceedings of the IEEE, 72(3):331–341. Daniels, George H. (1970). The Big Questions in the History of American Technology. Technology and Culture, 11(1):1–21. David, Paul A. (1985). Clio and the Economics of QWERTY. The American Economic Review, 75(2):332–337. (1990). The Dynamo and the Computer: An Historical Perspective on the Modern Productivity Paradox. The American Economic Review (Papers and Proceedings), 80(2):355–361. Davis, Malvin R. and T. O. Ellis (1964). The RAND Tablet: A Man-Machine Graphical Communica- tion Device.InProceedings of the AFIPS 1964 Fall Joint Computer Conference, vol. 26, pp. 325–331, Baltimore, Md. Spartan Books. Davis, Ruth M. (1965). A History of Automated Displays. Datamation, 11(1):24–28. Del Russo, Tom (1994). IC Corner: Early IC ALU’s in the . The Analytical Engine, 2(2). Denning, Peter J. and R. L. Brown (1984). Operating Systems. Scientific American, 251(3):80–89. Dertouzos, Michael L. (1997). Creating the People’s Computer. Technology Review, 100(3). Dessauer, John H. (1971). My Years with Xerox: The Billions Nobody Wanted. Doubleday, Garden City, NY. Deutsch, L. Peter (1973). A Lisp Machine with Very Compact Programs.InProceedings of the 3rd International Joint Conference on Artificial Intelligence, Stanford, CA. Deutsch, L. Peter and D. G. Bobrow (1976). An Efficient, Incremental, Automatic Garbage Collector. Communications of the ACM, 19(9):522–526. Deutsch, L. Peter and B. W. Lampson (1967). An Online Editor. Communications of the ACM, 10(12):793–799, 803. Dierkes, Meinolf, U. Hoffmann und L. Marz (1992). Leitbild und Technik: Zur Entstehung und Steue- rung technischer Innovationen. Sigma, Berlin. Digital Equipment Corporation (1963). Programmed Data Processor-1 Handbook. Maynard, Mass.

Available at http://www.dbit.com/greeng3/pdp1/pdp1.html [09 Oct 1996]. Dodd, Stephen H., H. Klemperer, and P. Youtz (1950). Electrostatic Storage Tube. Electrical Engi- neering, 69(11):990–995. Donohue, Joseph C. and N. E. Karioth (1966). Coming of Age in Academe – Information Science at 21. American Documentation, 17(3):117–119. Douglas, Susan J. (1987). Inventing American Broadcasting, 1899–1922. John Hopkins University Press, Baltimore Md. (1993). Oppositional Use of Technology and Corporate Competition: The Case of Radio Broad- casting. In Aspray, William F., ed.: Technological Competitiveness: Contemporary and Histor- ical Perspectives on the Electrical, Electronics, and Computer Industry, pp. 208–219. IEEE Press, Piscataway, NJ.

443 Literatur

Dresselhaus, William F., K. S. Campbell, C. R. Twyman, and D. C. Dayton (1985). Computer. United States Patent, Des. 277 673. Drucker, Peter (1969). Die Zukunft bewältigen: Aufgaben und Chancen im Zeitalter der Ungewißheit. Econ, Düsseldorf und Wien (Original: The Age of discontinuity: guidelines to our changing society, New York 1969). DuShane, Graham (1957). The Long Pull. Science, 126(3281):357. Dudley, Homer (1940). The Carrier Nature of Speech. Bell System Technical Journal, 19(4):495–515. Dué, Richard T. (1993). The Productivity Paradox. Information Systems Management, 10(Winter):68–71. Dürbeck, Helmut (1975). Neuere Untersuchungen zur Sapir-Hypothese. Linguistics, 145:5–45. Duvall, William S. (1976). POGOS — An Operating System for a Network of Small Machines. Report SSL 76-7, Xerox Palo Alto Research Center, Palo Alto, CA. Eckert, Michael und H. Schubert (1986). Kristalle, Elektronen, Transistoren: Von der Gelehrtenstu- be zur Industrieforschung, Bd. 25 d. Reihe Kulturgeschichte der Naturwissenschaften und der Technik. Rowohlt, Reinbek bei Hamburg. Edwards, Paul N. (1996). The Closed World: Computers and the Politics of Discourse in Cold War America. MIT Press, Cambridge, Mass. (1998). Virtual Machines, Virtual Infrastructures: The New Historiography of Information Technology. Isis, 89:93–99. Ellis, Thomas O., J. F. Heafner, and W. L. Sibley (1969a). The GRAIL Language and Operations. Research Memorandum RM-6001-ARPA, Rand Corporation, Santa Monica, CA. (1969b). The GRAIL Project: An Experiment in Man-Machine Communications. Research Memorandum RM-5999-ARPA, Rand Corporation, Santa Monica, CA. (1969c). The GRAIL System Implementation. Research Memorandum RM-6002-ARPA, Rand Corporation, Santa Monica, CA. Emerson, Marvin (1965). The ‘Small’ Computer versus Time-Shared Systems. Computers and Au- tomation, 14(9):18–20. Engelbart, Douglas C. (1960). Augmented Human Intellect Study. Proposal for Research to Air Force Office of Scientific Research, SRI No. EU 60-251, Stanford Research Institute, Menlo Park, CA. Engelbart Collection, Stanford University Archive, M 638, Box 6, Folder 2. (1961a). Augmented Human Intellect Study. Proposal for Research to Air Force Office of Scientific Research, SRI No. ESU 61-92, Extension of Contract AF 49(638)-1024, Stanford Research Institute, Menlo Park, CA. Engelbart Collection, Stanford University Archive, M 638, Box 6, Folder 1. (1961b). Program on Human Effectiveness. Engelbart Collection, Stanford University Archive, M 638, Box 4, Folder 7. Veröffentlicht in Nyce and Kahn 1991a, S. 237–244. (1961c). Special Considerations of the Individual as a User, Generator, and Retriever of Infor- mation. American Documentation, 12(2):121–125. (1962a). Augmented Human Intellect Program. Proposal for Research to National Institute of Health, Stanford Research Institute, Menlo Park, CA. Engelbart Collection, Stanford University Archive, M 638, Box 4, Folder 7. (1962b). Augmented Human Intellect Study. Proposal for Research to Air Force Office of Scientific Research, SRI No. ESU 62-85, Extension of Contract AF 49(638)-1024, Stanford Research Institute, Menlo Park, CA. Engelbart Collection, Stanford University Archive, M 638, Box 5, Folder 7.

444 Literatur

Engelbart, Douglas C. (1962c). Augmenting Human Intellect: A Conceptual Framework. Summary Report AFOSR-3223 under Contract AF 49(638)-1024, SRI Project 3578 for Air Force Office of Scientific Research, Stanford Research Institute, Menlo Park, CA. (1963). A Conceptual Framework for the Augmentation of Man’s Intellect. In Howerton, Paul W. and D. C. Weeks, eds.: Vistas in Information Handling, vol. I, pp. 1–29. Spartan Books, Washington, D. C. (1965). Augmenting Human Intellect: Experiments, Concepts, and Possibilities. Summary Report under Contract AF 49(638)-1024, SRI Project 3578 for Air Force Office of Scientific Research, Stanford Research Institute, Menlo Park, CA. (1968). Study for the Development of Human Intellect Augmentation Techniques. Final Report prepared for NASA Langley Research Center under Contract NAS1-5904, Stanford Research Institute Augmentation Research Center, Menlo Park, CA. Engelbart Collection, Stanford Uni- versity Archive, M 638, Box 1, Folder 16. (1969). Human Intellect Augmentation Techniques. NASA Contractor Report 1270 prepared under Contract NAS 1-5904, SRI Project 5890, Stanford Research Institute, Menlo Park, CA. (1970a). Intellectual Implications of Multi-Access Computer Networks.InProceedings of the Interdisciplinary Conference on Multi-Access Computer Networks, Austin, Tex. (1970b). X-Y Position Indicator for a Display System. United States Patent, 3 541 541. (1971). Network Information Center and Computer Augmented Team Interaction. Interim Technical Report RADC-TR-71-175 as principal investigator for SRI Contract F30602-70-C- 0219 under ARPA Order No. 967, Stanford Research Institute, Menlo Park, CA. Engelbart Collection, Stanford University Archive, M 638, Box 18. (1972a). Coordinated Information Services For a Discipline- or Mission-Oriented Commu- nity.InProceedings of the Second Annual Computer Communications Conference in San José, California, Jan 24, 1972. (1972b). Experimental development of a small computer-augmented information system. An- nual Report covering the period 15 April 1971 through 15 April 1972, prepared for U.S. Office of Naval Research under Contract N00014-70-C-0302, SRI Project 8622, Stanford Research Institute, Menlo Park, CA. (1973). Design Considerations for Knowledge Workshop Terminals.InProceedings of the AFIPS 1973 National Computer Conference and Exposition, vol. 42, pp. 221–227, New York. AFIPS Press. (1975). NLS Teleconferencing Features: The Journal, and Shared-Screen Telephoning.In COMPCON ’75 Digest, Proceedings of the 1975 COMPCON Conference, September 9–11, 1975, pp. 173–176. (1979). Toward Integrated, Evolutionary Office Automation Systems.InProceedings of the International Engineering Management Conference, Denver, Co., Oct 16–18, 1978, pp. 63–68, New York. Institute of Electrical and Electronics Engineers. (1986/87). Interview conducted by Judith Adams and Henry Lowood on 19 December 1986, 14 January 1987, 4 March 1987 and 1 April 1987 for the Stanford Oral History Project. Tran- script of Tape Recording, Stanford University Archives, Stanford, CA. Available at http://www- sul.stanford.edu/depts/hasrg/histsci/ssvoral/engelbart/start.html [04 Mar 1999]. (1986). Workstation History and the Augmented Knowledge Workshop. Augment Document 101931, McDonnell Douglas Corporation, Cupertino, CA. Draft Version of (Engelbart 1988), Available at http://www2.bootstrap.org/augment-101931.htm [18 July 1997].

445 Literatur

Engelbart, Douglas C. (1988). The augmented knowledge workshop. In (Goldberg 1988), pp. 187– 236. (1991). Bootstrapping Organizations into the 21st Century: A Strategic Framework. Augment Document 132803, Bootstrap Institute, Fremont, CA. Available at http://www2.bootstrap.org/ framework.ps [07 May 1996]. (1995). Toward Augmenting the Human Intellect and Boosting our Collective IQ. Communi- cations of the ACM, 38(8):30–33. Engelbart, Douglas C. and W. K. English (1968). A research center for augmenting human intellect. In Proceedings of the AFIPS 1968 Fall Joint Computer Conference, vol. 33, pp. 395–410, San Francisco, CA., American Federation of Information Processing Societies, Thompson Books. Engelbart, Douglas C., W. K. English, and D. A. Evans (1969). Study for the Development of Computer Augmented Management Techniques. Interim Technical Report RADC-TR-69-98 for AF Rome Air Development Center under ARPA Order No. 967, SRI Project 5890, Stanford Research Institute, Menlo Park, CA. Engelbart, Douglas C., W. K. English, and J. F. Rulifson (1968). Development of a Multidisplay, Time- Shared Computer Facility and Computer-Augmented Management-System Research. Final Re- port RADC-TR-68-250 for AF Rome Air Development Center under Contract AF 30(602)- 4103, Stanford Research Institute, Menlo Park, CA. Engelbart, Douglas C. and B. Huddart (1965). Research on Computer Augmented Information Man- agement. Technical Report ESD-TDR-65-168, prepared for Electronic Systems Division, Air Force Systems Command under Contract No. AF 19(628)-4088, Stanford Research Institute, Menlo Park, CA. Engelbart, Douglas C. and H. Lehtman (1988). Working Together. Byte, 13(13):245–252. Engelbart, Douglas C. and SRI-ARC Staff (1968). A Technical Session Presentation at the Fall Joint Computer Conference in San Francisco, December 1, 1968. 99 Minute Film produced by Stan- ford Research Institute, Engelbart Collection, Stanford University Archive, M 638, 88-013, Box 2. (1969). Augmentation Systems and Information Science. Presentation made to the 32nd Annual Meeting of the American Society for Information Science, San Francisco, October 1, 1969. 104 Minute Film produced by Stanford Research Institute, Engelbart Collection, Stanford University Archive, M 638, 88-013, Box 2. (1970). Computer-Augmented Management-System Research and Development of Augmen- tation Facility. Final Report RADC-TR-70-82 for AF Rome Air Development Center under ARPA Order No. 967, Stanford Research Institute, Menlo Park, CA. (1972a). Advanced Intellect-Augmentation Techniques. NASA Contractor Report 1827, Stan- ford Research Institute, Menlo Park, CA. (1972b). Online Team Environment: Network Information Center and Computer Augmented Team Interaction. Final Report RADC-TR-72-232, SRI Project No. 8457 under ARPA Order No. 967, Stanford Research Institute, Menlo Park, CA. Engelbart, Douglas C. and P. H. Sorensen (1965). Explorations in the Automation of Sensorimotor Skill Training. Technical Report NAVTRADEVCEN-1517-1under Contract N61339-1517, SRI Project 4784 for U.S. Naval Training Device Center, Stanford Research Institute, Menlo Park, CA. Engelbart, Douglas C., R. W. Watson, and J. C. Norton (1973). The Augmented Knowledge Workshop. In Proceedings of the AFIPS 1973 National Computer Conference, vol. 42, pp. 9–21, New York. American Federation of Information Processing Societies, AFIPS Press.

446 Literatur

Engineering Research Associates, Inc. (1983). High-Speed Computing Devices [1950],vol.4of Charles Babbage Institute Reprint Series for the History of Computing. Tomash Publishers, Los Angeles and San Francisco. English, William K., D. C. Engelbart, and M. L. Berman (1967). Display-Selection Techniques for Text Manipulation. IEEE Transactions on Human Factors in Electronics, HFE-8(1):5–15. English, William K., D. C. Engelbart, and B. Huddart (1965). Computer-aided Display Control. Final Report for National Aeronautics and Space Administration, Langley Research Center prepared under Contract Contract NAS 1-3988, SRI Project 5061, Stanford Research Institute, Menlo Park, CA. Eurich, Claus (1991). Tödliche Signale: Die kriegerische Geschichte der Informationstechnik. Lucht- erhand, Frankfurt am Main. Evans, Christopher (1983a). Conversation: Jay W. Forrester. Annals of the History of Computing, 5(3):297–301. (1983b). Reliability of Components (Interview with Jay W. Forrester). Annals of the History of Computing, 5(4):399–401. Evans, David A. (1969). Man/Computer Augmentation Systems for Qualitative Planning. PhD thesis, Stanford University, Department of Civil Engineering. Everett, Robert R. (1951). The Whirlwind I Computer.InProceedings of the AIEE-IRE Joint Com- puter Conference, vol. 1, pp. 70–74, New York. Institute of Radio Engineers, American Institute of Electrical Engineers. (1980). Whirlwind. In (Metropolis et al. 1980), pp. 365–384. Everett, Robert R. and F. E. Swain (1947). Whirlwind I Computer Block Diagrams. Report R-127, Servomechanisms Laboratory, Massachusetts Institute of Technology, Cambridge, Mass. 2 Vol- umes. Everett, Robert R., C. A. Zraket, and H. D. Benington (1957). SAGE – A Data Processing System for Air Defense.InProceedings of the 1957 Eastern Joint Computer Conference, vol. 12, pp. 148– 155, Washington, D. C. Institute of Radio Engineers, American Institute of Electrical Engineers, Association for Computing Machinery. Fagen, M. D., ed. (1978). A History of Engineering and Science in the Bell System: National Service in War and Peace (1925–1975). Bell Telephone Laboratories, Inc., Murray Hill, N.J. Faggin, Federico (1992). The Birth of the Microprocessor. Byte, 17(3):145–150. Fairthorne, R. A. (1958). Automatic Retrieval of Recorded Information. The Computer Journal, 1(1):36–41. Fano, Robert M. (1979). Project Mac. In Belzer, Jack, A. G. Holzman, and A. Kent, eds.: Encyclopedia of Computer Science and Technology, vol. 12, pp. 339–360. Marcel Dekker, New York and Basel. (1989). Interview conducted by Arthur L. Norberg on 20–21 April 1989 at Cambridge, Mass. for the DARPA/IPTO History Project. Transcript of Tape Recording OH 165, Charles Babbage Institute, Center for the History of Information Processing, Minneapolis. Fano, Robert M. and F. J. Corbató (1966). The Time-Sharing of Computers. Scientific American, 215(3):128–140. Feigenbaum, Edward (1989). Interview conducted by William F. Aspray on 3 March 1989 at Palo Alto, CA. for the DARPA/IPTO History Project. Transcript of Tape Recording OH 157, Charles Babbage Institute, Center for the History of Information Processing, Minneapolis.

447 Literatur

Feinler, Elizabeth J. (1977). The Identification Data Base in a Networking Environment.InNTC ’77 Conference Record, New York. Institute of Electrical and Electronics Engineers. Fellows, James (1981). National Defense. Random House, New York. Felsenstein, Lee (1993). The Commons of Information. Dr. Dobbs’ journal, 18(5). Ferguson, Eugene S. (1993). Das innere Auge: Von der Kunst des Ingenieurs. Birkhäuser, Basel, Boston und Berlin (Original: Engineering and the Mind’s Eye, Cambridge, Mass. 1992). Fiala, Edward R. (1978). The Maxc Systems. IEEE Computer, 11(5):57–67. Fickers, Andreas (1998). »Der Transistor« als technisches und kulturelles Phänomen: Die Transis- torisierung der Radio- und Fernsehempfänger in der deutschen Rundfunkindustrie von 1955 bis 1965, Bd. 1 d. Reihe Aachener Beiträge zur Wissenschafts- und Technikgeschichte des 20. Jahrhunderts. Verlag für Geschichte der Naturwissenschaften und Technik, Bassum. Field, Roger Kenneth (1969). Here comes the tuned-in, wired-up, plugged-in, hyperarticulate, speed-of-light society: Tomorrow’s communications start with today’s design . . . . Electronics, 42(24):73–104. Fischer, Gerhard (1980). Cognitive dimensions of information manipulative systems. In: Wossidlo, Peter R., Hrsg.: Textverarbeitung und Informatik. Fachtagung der GI, Bayreuth, 28.–30. Mai 1980, Bd. 30 d. Reihe Informatik Fachberichte,S.17–31. Springer, Berlin und Heidelberg. Fisher, Amy Weaver and J. L. McKenney (1993). The Development of the ERMA Banking System: Lessons from History. IEEE Annals of the History of Computing, 15(1):44–57. Fishman, Joshua A. (1977). The Sociology of Language: Yesterday, Today, and Tomorrow. In Cole, Roger W., ed.: Current Issues in Linguistic Theory, pp. 51–75. Indiana University Press, Bloom- ington and London. (1980). The Whorfian Hypothesis: Varieties of Valuation, Confirmation and Disconfirmation. International Journal of the Sociology of Language, 26:25–40. Flamm, Kenneth (1988). Creating the Computer: Government, Industry, and High Technology. The Brookings Institution, Washington, D. C. Floyd, Christiane (1989). Softwareentwicklung als Realitätskonstruktion. In: Lippe, W.-M., Hrsg.: Software-Entwicklung. Konzepte, Erfahrungen, Perspektiven. Fachtagung, veranstaltet vom Fachausschuß 2.1 der GI Marburg, 21.–23. Juni 1989, Bd. 212 d. Reihe Informatik- Fachberichte,S.1–20. Springer, Berlin, Heidelberg und New York. Foley, James D. and A. van Dam (1982). Fundamentals of Interactive Computer Graphics. Addison- Wesley, Reading, Mass. Foley, James D. and V. L. Wallace (1974). The Art of Natural Graphic Man-Machine Conversation. Proceedings of the IEEE, 62(4):462–470. Forgie, James W. (1957). The Lincoln TX-2 Input-Output System.InProceedings of the 1957 Western Joint Computer Conference, vol. 11, pp. 156–160, Los Angeles, Cal. Institute of Radio Engi- neers, American Institute of Electrical Engineers, Association for Computing Machinery. Forman, Paul (1987). Behind quantum electronics: National security as basis for physical research in the United States, 1940–1960. Historical Studies in the Physical and Biological Sciences, 18(1):149–229. Forrester, Jay W. (1951). Digital Information Storage in Three Dimensions Using Magnetic Cores. Journal of Applied Physics, 22(1):44–48. (1956). Multicoordinate Digital Information Storage Device. United States Patent, 2 736 880.

448 Literatur

Forrester, Jay W. (1958). Industrial Dynamics: A Major Breakthrough for Decision Makers. Harvard Business Review, 36(4):37–66. (1980). Whirlwind and High Speed Computing [1948]. In (Redmond and Smith 1980), pp. 225–236. (1989). The Beginning of System Dynamics. Sloan School of Management, Massachusetts In- stitute of Technology, Cambridge, Mass. Available at http://sysdyn.mit.edu/sd-intro/documents/ D-4165-1.pdf [06 May 1996]. Forrester, Jay W., H. R. Boyd, R. R. Everett, H. Fahnestock, and R. A. Nelson (1948). Forecast for Military Systems using Electronic Digital Computers. Memorandum L-3, Servomechanisms Laboratory, Massachusetts Institute of Technology, Cambridge, Mass. Forrester, Jay W. and R. R. Everett (1949). Information System of Interconnected Digital Computers for Anti-Submarine Naval Group. Report R-158, Servomechanisms Laboratory, Massachusetts Institute of Technology, Cambridge, Mass. Revised text of Memorandum L-2 issued October 15, 1947. Forrester, Jay W., R. R. Everett, and R. A. Nelson (1949). Application of Digital Computers to Sim- ulation of the Anti-Submarine Problem. Report R-155, Servomechanisms Laboratory, Mas- sachusetts Institute of Technology, Cambridge, Mass. Revised text of Memorandum L-1 by Forrester and Everett issued October 1, 1947. Frank, Werner L. (1965). On-Line CRT Displays: User Technology and Software. In Burgess, Eric, ed.: On-Line Computing Systems, pp. 50–62. American Data Processing, Detroit, Mich. Frankovich, J. M. and H. Peterson (1957). A Functional Description of the Lincoln TX-2 Computer. In Proceedings of the 1957 Western Joint Computer Conference, vol. 11, pp. 146–155, Los An- geles, Cal. Institute of Radio Engineers, American Institute of Electrical Engineers, Association for Computing Machinery. Freiberger, Paul and M. Swaine (1984). Fire in the Valley: The making of the Personal Computer. Osborne/McGraw-Hill, Berkeley. Frenkel, Karen (1994). A Conversation with Alan Kay. Interactions, 1(2):13–22. Friedewald, Michael (1997). Wachstums- und Beschäftigungswirkungen der Informationstechnik: Ei- ne vergleichende Untersuchung europäischer und US-amerikanischer Technologieförderung. Logos, Berlin. (1998). Die veränderliche Ökonomie des Computers: Von Groschs Gesetz zum PC. Informatik Spektrum, 21(2):80–83. Friedman, Ted (1997). Apple’s 1984: The Introduction of the Macintosh in the Cultural History of Personal Computers. Conference paper presented at the Society for the History of Technology Convention, Pasadena, California. Fry, Thornton C. (1941). Industrial Mathematics. American Mathematical Monthly, 48:1–38. Furuta, Richard, J. Scofield, and A. Shaw (1982). Document Formatting Systems: Survey, Concepts, and Issues. ACM Computing Surveys, 14(3):417–472. Galison, Peter (1994). The Ontology of the Enemy: Norbert Wiener and the Cybernetic Vision. Critical Inquiry, 21:228–266. Gens, Frank and C. Christiansen (1983). Could 1,000,000 IBM PC Users Be Wrong? Byte, 8(11):135– 141. Gentner, Don and J. Nielsen (1996). The Anti-Mac Interface. Communications of the ACM, 39(8):70– 82.

449 Literatur

Gernsheim, Helmut (1978). Photography. In Williams, Trevor I., ed.: A History of Technology. Volume VII: The Twentieth Century c. 1900 to c. 1950. Clarendon Press, Oxford. Gilder, Jules H. (1974). The Great Memory Battle Goes on, but Semiconductors Appear the Ultimate Victors. Electronic Design, 22(22):40–48. Gilmore, jr., J[ohn] T. (1958). MIT Lincoln Laboratory Milestones. Communications of the ACM, 1(8):39–40. Glasersfeld, Ernst von (1992). Why I Consider Myself a Cybernetician. Cybernetics and Human Knowing, 1(1). Available at http://www.db.dk/dbaa/sbr/vol1/v1-1evg.htm [05 Aug 1997]. Gleiser, Molly (1980). Analog Inventor. Datamation, 26(10):141–143. Godfrey, Michael D. and D. F. Hendry (1993). The Computer as von Neumann Planned It. IEEE Annals of the History of Computing, 15(1):11–21. Goldberg, Adele J. (1977). Smalltalk in the Classroom. In (Goldberg and Kay 1977b). (1983). The Smalltalk-80 System Release Process. In (Krasner 1983), pp. 3–8. (1987). Programmer as Reader. IEEE Software, 4(5):62–70. , ed. (1988). A History of Personal Workstations. Addison-Wesley, Reading, Mass. (1998). The Community of Smalltalk. In Salus, Peter H., ed.: The Handbook of Program- ming Languages. Vol. 1, Object-Oriented Programming Languages, pp. 51–94. Macmillan, In- dianapolis. Goldberg, Adele J. and A. C. Kay (1976). Smalltalk-72 Instruction Manual. Report SSL-76-6, Xerox Palo Alto Research Center, Palo Alto, CA. (1977a). Methods for Teaching the Programming Language Smalltalk. In (Goldberg and Kay 1977b). (1977b). Teaching Smalltalk. Report SSL-77-2, Xerox Palo Alto Research Center, Palo Alto, CA. Goldberg, Adele J. and D. Robson (1979). A Metaphor for User Interface Design. In Fairley, Richard E., U. W. Pooch, and R. H. Sprague, jr., eds.: Proceedings of the Twelfth Hawaii In- ternational Conference on System Science. Volume I: Selected Papers in Software Engineering and Mini-Micro Systems, pp. 148–157. Goldberg, Adele J. and J. Ross (1981). Is the Smalltalk-80 System for Children? Byte, 6(8):348–368. Goldberg, Adele J. and B. Tenenbaum (1975). Classroom Education Media. ACM SIGCUE Topics in Instructional Computing, 1:61–68. Goldeen, Marian (1975). Learning About Smalltalk. Creative Computing, 1(5):42–44. Goldstine, Herman H. (1980). The Computer from Pascal to von Neumann. Princeton University Press, Princeton, N.J., Second ed. Goyal, Amita (1996). Women in Computing: Historical Roles, the Perpetual Glass Ceiling, and Cur- rent Opportunities. IEEE Annals of the History of Computing, 18(3):36–42. Graetz, J. Martin (1981). The Origin of Spacewar. Creative Computing, 7(8). Grassmuck, Volker R. (1995). Die Turing-Galaxis: Das Universal-Medium auf dem Weg zur Weltsi- mulation. Lettre, Frühjahr 1995:48–55. Greenberg, Daniel S. (1966). »Hindsight«: DOD Study Examines Return on Investment in Research. Science, 154(3751):872–873. Greenberger, Martin (1964). The Computers of Tomorrow. The Atlantic Monthly, 213(5).

450 Literatur

Grudin, Jonathan (1993). Interface. An Evolving Concept. Communications of the ACM, 36(4):110– 119. Gruenberger, Fred (1966). Are Small, Free-Standing Computers Here to Stay? Datamation, 11(4):67– 68. Guillemin, Amédé (1891). Telegraphic Apparatus for Rapid Transmission. In Thompson, Silvanus P., ed.: Electricity and Magnetism, pp. 625–656. Macmillan, London. Gurley, Benjamin M. and C. E. Woodward (1959). Light Pen Links Computer to Operator. Electronics, 32(November 20):85–87. Guterl, Fred (1984). Design case history: Apple’s Macintosh. IEEE Spectrum, 21(12):34–43. Haavind, Robert (1969). Man Computer ’Partnership’ Explored. Electronic Design, 17(3):25–32. Haddon, Leslie (1988). The Home Computer: The Making of a Consumer Electronic. Science as Culture, 2:7–51. Hafner, Katie and M. Lyon (1996). Where Wizards Stay Up Late: The Origins of the Internet. Simon and Schuster, New York. Hamilton, Andrew (1969). Basic Research: Congress on Prowl. Science, 166(3907):849. Hammer, Michael (1984). The OA Mirage. Datamation, 30(2):36–46. Hamming, Richard W. (1962). Numerical Methods for Scientists and Engineers. McGraw-Hill, New York. (1980). We Would Know What They Thought When They Did It. In (Metropolis et al. 1980), pp. 3–9. Händler, Wolfgang, Hrsg. (1968). Teilnehmer-Rechensysteme. Oldenbourg, München und Wien. Hansen, Wilfried J. (1971). User Engineering Principles for Interactive Systems.InProceedings of the AFIPS 1971 Fall Joint Computer Conference, vol. 39, pp. 523–532, Las Vegas, Nev. American Federation of Information Processing Societies, AFIPS Press. Hardy, Ian R. (1996). The Evolution of ARPANET email. History Thesis Papert, University of Califor- nia at Berkeley. Available at http://www.ifla.org/documents/internet/hari1.txt [04 Mar 1999]. Harris, William B. (1957). The Astonishing Computers. Fortune, 55(6):136–139, 292–294. Harslem, Eric and L. E. Nelson (1982). A Retrospective on the Development of Star.InProceedings of the Sixth International Conference on Software Engineering (September 13–16, 1982, Tokyo, Japan), pp. 377–383. Hartree, Douglas R. (1949). Calculating Instruments and Machines. The University of Illinois Press, Urbana. Hauben, Michael and R. Hauben (1997). Netizens: On the History and Impact of Usenet and the Internet. IEEE Computer Society Press, Los Alamitos, CA. Hawkings, Chris and A. d’Agapeyeff (1977). Developing Software for Micros. Datamation, 23(7):76- 80. Hawley, Jack S., R. D. Bates, and C. P. Thacker (1975). Controller for Cursor Positioning on a Display Medium. United States Patent, 3 911 419. Hay, Ray E. and J. F. Rulifson (1968). MOL 940. Preliminary specifications for an ALGOL-like machine-oriented language for the SDS 940. Interim Technical Report 2, prepared under Con- tract No. NAS 1-5940, SRI Project 5890, Stanford Research Institute, Menlo Park, CA. Irby Papers, Stanford University Archives, M 671, Box 3, Folder 4.

451 Literatur

Heims, Steve J. (1980). John von Neumann and Norbert Wiener: From Mathematics to the Technolo- gies of Life and Death. MIT Press, Cambridge, Mass. (1991). The Cybernetics Group. MIT Press, Cambridge, Mass. Heimer, Thomas (1993). Zur Ökonomik der Entstehung von Technologien: eine theoretische und empirische Erörterung am Beispiel des Intelligent Home. Metropolis, Marburg. Heintz, Bettina (1993). Die Herrschaft der Regel: Zur Grundlagengeschichte des Computers. Campus, Frankfurt und New York. Hellige, Hans Dieter (1992). Militärische Einflüsse auf Leitbilder, Lösungsmuster und Entwicklungs- richtungen der Computerkommunikation. Technikgeschichte, 59(4):371–401. (1993). Von der programmatischen zur empirischen Technikgeneseforschung: Ein technikhis- torisches Analyseinstrumentarium für die prospektive Technikbewertung. Technikgeschichte, 60:186–223. (1994). From SAGE via ARPANET to ETHERNET: Stages in Computer Communications Con- cepts Between 1950 and 1980. History and Technology, 11:49–75. (1996a). Leitbilder im Time-Sharing-Lebenszyklus: Vom »Multi-Access« zur »Interactive Online-Community«. In: (Hellige 1996c), S. 205–234. (1996b). Technikleitbilder als Analyse-, Bewertungs- und Steuerungsinstrumente: Eine Be- standsaufnahme aus informatik- und computerhistorischer Sicht. In: (Hellige 1996c), S. 15–35. , Hrsg. (1996c). Technikleitbilder auf dem Prüfstand: Leitbild-Assessment aus der Sicht der Informatik- und Computergeschichte. Edition Sigma, Berlin. Hellige, Hans Dieter und H. Petzold, Hrsg. (1994). Leitbilder der Informatik- und Computer- Entwicklung. Artec, Bremen. Helmers, Sabine (1996). Kampfmaschinen: Computer als Objekte von Virtuosenleidenschaft. Anthro- politan, 5:15–22. Available at http://duplox.wz-berlin.de/docs/thahn.html [10 June 1996]. Herot, Christopher F. (1980). Spatial Management of Data. ACM Transactions on Database Systems, 5(4):493–514. Hertzfeld, Andy (1984). Macintosh System Software Overview. Byte, 9(2):38–39. Hiltzik, Michael A. (1999). Dealers of Lightning: Xerox PARC and the Dawn of the Computer Age. HarperCollins, New York. Hippel, E. von (1986). Lead Users: A source of novel product concepts. Management Science, 32(7):791–805. Hodgson, Gordon M. and S. R. Ruth (1985). The Use of Menus in the Design of On-Line Systems: A Retrospective View. SIGCHI Bulletin, 17(1):16–22. Hoffmann, Ute (1987). Computerfrauen: Welchen Anteil haben Frauen an Computergeschichte und -arbeit? Rainer Hampp Verlag, München, 2. Aufl. Hofmann, Jeanette (1996). Vorstellungen und Bilder in der Technikerzeugung – Eine Episode aus der Biographie des schreibenden Computers. In: (Hellige 1996c), S. 161–184. Horn, Bruce (1996). On Xerox, Apple, and Progress. TidBITS, # 320. Available at http://www.carrier.co.at/res/mac/tidbits/TidBITS-de-320.html [12 Febr 1998]. Hörning, Karl H. (1989). Vom Umgang mit den Dingen: Eine techniksoziologische Zuspitzung. In: Weingart, Peter, Hrsg.: Technik als sozialer Prozeß,S.90–127. Suhrkamp, Frankfurt am Main.

452 Literatur

Horsburgh, E. M., ed. (1982). Handbook of the Napier Tercentenary Celebration, or Modern In- struments and Methods of Calculation [1914],vol.3ofThe Charles Babbage Institure reprint series for the history of computing. Tomash, Los Angeles and San Francisco. Hoßfeld, Friedel (1996). Partielle Differentialgleichungen: Die permanente Herausforderung. In: Nagel, Wolfgang E., Hrsg.: Sommerschule über partielle Differentialgleichungen, Numerik und Anwendungen, Forschungszentrum Jülich, 2.–6.9.1996,S.1–9, Jülich. Hounshell, David (1997). The Cold War, RAND, and the generation of knowledge, 1946–1962. His- torical Studies in the Physical and Biological Sciences, 27(2):237–267. House, Charles (1988). Hewlett-Packard and Personal Computing Systems. In (Goldberg 1988), pp. 403–432. Hughes, Thomas P. (1987). The Evolution of Large Technological Systems. In (Bijker et al. 1987), pp. 51–82. (1991). Die Erfindung Amerikas: Der technologische Aufstieg der USA seit 1870. C.H.Beck, München (Original: American Genesis: A Century of Invention and Technological Enthusiasm, 1870–1970, New York 1989). (1998). Rescuing Prometheus. Pantheon Books, New York. Hurst, Jan, M. S. Mahoney, J. T. Gilmore, L. G. Roberts, and R. Forrest (1989a). Retrospectives: The Early Years in Computer Graphics at MIT, Lincoln Lab and Harvard. Computer Graphics, 23(5):19–38. Hurst, Jan, M. S. Mahoney, N. H. Taylor, D. T. Ross, and R. M. Fano (1989b). Retrospectives: The Early Years in Computer Graphics at MIT, Lincoln Lab and Harvard. Computer Graphics, 23(5):39–73. Hyatt, Gilbert (1990). Single chip integrated circuit computer architecture. United States Patent, 4 942 516. Ichbiah, Daniel (1993). Die Microsoft Story: Bill Gates und das erfolgreichste Software-Unternehmen der Welt. Heyne, München (Original: The Making of Microsoft, Rocklin, CA. 1991). Ingalls, Daniel H. H. (1978). The Smalltalk-76 Programming Systems Design and Implementation.In Conference Record of the Fifth Annual ACM Symposium on Principles of Programming Lan- guages, pp. 9–16. Association of Computing Machinery. (1981a). Design Principles Behind Smalltalk. Byte, 6(8):286–298. (1981b). The Smalltalk Graphics Kernel. Byte, 6(8):168–194. (1983). The Evolution of the Smalltalk Virtual Machine. In (Krasner 1983), pp. 9–28. Irby, Charles H. (1974). Display Techniques for Interactive Text Manipulation.InProceedings of the AFIPS 1974 National Computer Conference, vol. 43, pp. 247–255, Chicago, Ill. AFIPS Press. Irby, Charles H., L. Bergsteinsson, T. P. Moran, W. M. Newman, and L. G. Tesler (1977). A Methodol- ogy for User Interface Design. Unpublished Technical Report, Xerox Office Products Division, Palo Alto, CA. Irwin, Manley R. (1966). The Computer Utility. Datamation, 11(11):22–27. Isaacson, Portia (1978a). Personal Computing. Datamation, 24(2):223–226. (1978b). The Software Vacuum. Datamation, 24(9):293–301. Israel, Jay E., J. G. Mitchell, and H. E. Sturgis (1978). Separating Data From Function in a Distributed File System. Report CSL-78-5, Xerox Palo Alto Research Center, Palo Alto, CA.

453 Literatur

Jacobs, John F. (1983). SAGE Overview. Annals of the History of Computing, 5(4):323–329. (1986). The SAGE Air Defense System: A Personal History. MITRE Corporation, Bedford, Mass. Jacobson, Gary and J. Hillkirk (1986). Xerox: American Samurai. Collier Books, Macmillan, New York. Janlert, Lars-Erik (1987). The Computer as a Person. Journal for the Theory of Social Behavior, 17:321–341. Jeffers, W. Chris (1975). OPUS: A Computer-Based Musical Capture System. Interim Report, Xerox Palo Alto Research Center, Palo Alto, CA. Kopie des nicht fertiggestellten Manuskripts im Besitz des Verfassers. Jefferson, Thomas (1993). Jefferson, the Man: in his own words, edited by Robert C. Baron. Ful- crum/Starwood Publishing, Golden, CO. Jennings, Mark S. (1984). Evaluation of the Macintosh Finder. Byte, 9(13):A94–A101. Joerges, Bernward (1988). Large technical systems: Concepts and issues. In Mayntz, Renate and T. P. Hughes, eds.: The Development of Large Technical Systems, pp. 9–36. Campus, Frankfurt am Main. (1995). Prosopopoietische Systeme: Probleme der konstruktivistischen Technikforschung. In: Halfmann, Jost, G. Bechmann und W. Rammert, Hrsg.: Technik und Gesellschaft. Jahrbuch 8: Theoriebausteine der Techniksoziologie,S.31–48. Campus, Frankfurt am Main und New York. Johannsen, Gunnar (1993). Mensch-Maschine-Systeme. Springer, Berlin und Heidelberg. Johnson, Clarence L. (1956). Analog Computer Techniques. McGraw-Hill, New York. Johnson, Jeff (1987). How faithfully should the Electronic Office simulate the real one? SIGCHI Bulletin, 19(2):21–25. Johnson, Jeff, T. L. Roberts, W. Verplank, D. C. Smith, C. H. Irby, M. Beard, and K. Mackey (1989). The Xerox Star: A Retrospective. IEEE Computer, 22(9):11–29. Johnson, Richard A., F. E. Kast, and J. E. Rosenzweig (1963). The theory and management of systems. MacGraw-Hill, New York. Johnstone, Adrian (1992). The pre-history of the Digital Equipment Corporation. Resurrection. The Bulletin of the Computer Conservation Society, 1(4):13–19. Jordan, Richard, W. Bull, R. L. Ciardella, R. Taggart, and F. R. Holt (1984). Disk Drive with Automatic Clamping and Ejecting. United States Patent, 4 466 033. Judge, Anthony J. N. (1977). Knowledge-Representation in a Computer-Supported Environment. International Classification, 4(2):76–81. Kaehler, Ted (1981). Virtual Memory for an Object-Oriented Language. Byte, 6(8):378–387. Kahn, Paul and J. M. Nyce (1991). The Idea of a Machine: The Later Memex Essays. In (Nyce and Kahn 1991a), pp. 113–144. Kahn, Robert E. (1972). Resource-sharing computer communications networks. Proceedings of the IEEE, 60(11):1397–1407. Kaiser, Walter (1992). Technisierung des Lebens seit 1945. In: König, Wolfgang, Hrsg.: Energiewirt- schaft, Automatisierung, Information, Bd. 5 d. Reihe Propyläen Technikgeschichte, S. 281–529. Propyläen Verlag, Berlin.

454 Literatur

Kaiser, Walter (1995). Grundlagenwissen und technische Anwendung – eine kritische historische Be- trachtung. In: Zahn, E., Hrsg.: Handbuch Technologiemanagement,S.33–56. Schäffer-Poeschel Verlag, Stuttgart. (1996). Mikroelektronik, die verspätete Basisinnovation. In: Schinzinger, Francesca, Hrsg.: Unternehmer und technischer Fortschritt, Bd. 20 d. Reihe Deutsche Führungsschichten in der Neuzeit, S. 127–153. Harald Boldt Verlag, München. Kaplan, Alan R. (1977). Home Computers Versus Hobby Computers. Datamation, 23(7):72–75. Kapor, Mitchell (1993). Where is the Digital Highway Really Heading? The Case for a Jeffersonian Information Policy. Wired, 1(3). Kastens, Merritt L. (1958). Is There a Technical Information Crisis? The Magazine of Datamation, 4(5):5. Kawasaki, Guy (1991). Management à la Macintosh. Campus, Frankfurt am Main und New York (Original: The Macintosh Way, Glenview, Ill. 1990). Kay, Alan C. (1968). FLEX – A Flexible Extendable Language. Technical Report 4-7, University of Utah, Computer Science, Information Processing Systems, Salt Lake City, UT. (1969). The Reactive Engine. PhD thesis, University of Utah, Salt Lake City. (1971). Computer Structures: past, present and future (abstract).InProceedings of the AFIPS 1971 Fall Joint Computer Conference, vol. 39, pp. 395–396, Las Vegas, Nev. American Feder- ation of Information Processing Societies, AFIPS Press. (1972a). A Dynamic Medium for Creative Thought.InProceedings of the 1972 Minnesota NCTE Seminars on Research in English Education, Minneapolis. (1972b). A Personal Computer for Children of All Ages.InProceedings of the ACM National Conference, Boston, August 1972. Association for Computing Machinery. (1977). Microelectronics and the Personal Computer. Scientific American, 237(3):231–244. (1978). Programming Your Own Computer.InScience Year, The World Book Encyclopedia Annual Science Supplement, pp. 183–195. Field Enterprises Educational Corp., Chicago, Ill. (1980). Smalltalk. In Guedj, Richard A., P. J. W. tenHagen, F. R. A. Hopgood, H. A. Tucker, and D. A. Duce, eds.: Methodology of Interaction, Proceedings of the IFIP Workshop on Methodol- ogy of Interaction, Seillac, France, May 1979, pp. 7–11, 15–17, Amsterdam. North-Holland. (1984). Computer Software. Scientific American, 251(3):41–47. (1990). User interface: a personal view. In Laurel, Brenda, ed.: The Art of Human-Computer Interface Design, pp. 191–207. Addison Wesley, Reading, Mass. (1996). The Early History of Smalltalk. In Bergin, Jr., Thomas J. and R. G. Gibson, Jr., eds.: History of Programming Languages–II, pp. 511–579. Addison-Wesley, Reading, Mass. Kay, Alan C. and A. J. Goldberg (1977). Personal Dynamic Media. IEEE Computer, 10(3):31–41. Kay, Alan C., D. Hillis, and S. Levy, Moderator (1994). Kay + Hillis. Wired, 2(1). Available at http://www.hotwired.com/wired/2.01/features/kay.hillis.html [04 Sep 1996]. Kearns, David T. und D. A. Nadler (1993). XEROX aus der Asche: Niedergang und Wiederaufstieg einer Weltfirma. Campus, Frankfurt am Main und New York. Kemeny, John G. and T. E. Kurtz (1968). Dartmouth Time-Sharing. Science, 162(3850):223–228. Kennedy, John L. and G. H. Putt (1956). Administration of Research in a Research Corporation. Paper P-847, Rand Corporation, Santa Monica, CA. (Erschienen in Administrative Science Quarterly, 1:326–339, 1956).

455 Literatur

Kevles, Daniel J. (1987). The Physicists: The History of a Scientific Community in Modern America. Harvard University Press, Cambridge, Mass. (1990). Principles and Politics in Federal R&D Policy, 1945–1990: An Application of the Bush Report. In (Bush 1990), pp. ix–xxxiii. Kidder, Tracy (1984). Die Seele einer neuen Maschine: Vom Entstehen eines Computers. Rowohlt, Reinbek bei Hamburg (Original: The soul of a new machine, New York 1982). Kildall, Gary (1975). Microcomputer Software Design – a Checkpoint.InProceedings of the AFIPS 1975 National Computer Conference, vol. 44, pp. 99–106, Anaheim, CA. AFIPS Press. (1981). CP/M: A Family of 8- and 16-Bit Operating Systems. Byte, 6(6):216–229. Kinkartz, Stefan (1998). Standardisierung in der Computerkommunikation: Vom ARPANET zum In- ternet.Unveröffentlichte Diplomarbeit, Lehrstuhl für Geschichte der Technik der Rheinisch- Westfälischen Technischen Hochschule Aachen, Aachen. Klar, Rainer (1983). Digitale Rechenautomaten: Eine Einführung. De Gruyter, Berlin und New York, Dritte, neubearbeitete Aufl. Kleinschrod, Walter A. (1974). New Computer Systems throw strategy questions into management’s lap. Administrative Management, 35(11):23. Klotz, Ulrich (1996). Von der Verrichtungsorientierung zur Objektorientierung: Facetten eines Leit- bildwechsels. In: (Hellige 1996c), S. 39–69. Knuth, Donald E. (1979). TEX and METAFONT: New Directions in Typesetting. American Mathe- matical Society, Providence, R. I. Kolo, Castulus and M. Friedewald (1999). What Users Expect from Future Terminal Devices: Empir- ical Results from an Expert Survey. In Stephanidis, Constantine, A. Kobsa, and M. Pieper, eds.: Proceedings of the Fifth ERCIM Workshop on User Interfaces for All, Nov. 28th–Dec. 1st 1999, Dagstuhl. König, Wolfgang (1993). Technik, Macht und Markt: Eine Kritik der sozialwissenschaftlichen Tech- nikgeneseforschung. Technikgeschichte, 60(3):243–266. (1999). Künstler und Strichezieher: Konstruktions- und Technikkulturen im deutschen, briti- schen, amerikanischen und französischen Maschinenbau zwischen 1850 und 1930. Suhrkamp, Frankfurt am Main. Kornwachs, Klaus (1995). Wissen für die Zukunft? Über die Frage, wie man Wissen für die Zukunft stabilisieren kann. Eine Problemskizze. Zentrum für Technik und Gesellschaft, Brandenburgi- sche Technische Universität Cottbus. Krasner, Glenn (1981). The Smalltalk-80 Virtual Machine. Byte, 6(8):300–320. , ed. (1983). Smalltalk-80: Bits of History, Words of Advice. Addison-Wesley, Reading, Mass. Kreibich, Rolf (1986). Die Wissenschaftsgesellschaft: Von Galilei zur High-Tech-Revolution. Suhr- kamp, Frankfurt am Main, 2. Aufl. Krim, Norman B. (1993). Vannevar Bush and the Early Days of Raytheon. IEEE Aerospace and Electronics Systems Magazine, 8(10):3–6. Kuhn, Thomas S. (1984). Die Struktur wissenschaftlicher Revolutionen. Suhrkamp, Frankfurt am Main, 9. Aufl. (Original: The Structure of Scientific Revolutions, Chicago 1962). (1992). Neue Überlegungen zum Begriff des Paradigma [1974]. In: Die Entstehung des Neuen: Studien zur Struktur des Wissenschaftsgeschichte, S. 389–420. Suhrkamp, Frankfurt am Main, 4 Aufl.

456 Literatur

Künzel, Werner und P. Bexte (1993). Allwissen und Absturz: Der Ursprung des Computers. Suhr- kamp, Frankfurt am Main. Kurzweil, Raymond (1993). KI: Das Zeitalter der Künstlichen Intelligenz. Hanser, München und Wien (Original: The Age of Intelligent Machines, Cambridge, Mass. 1992). Lammers, Susan (1986). Programmers at Work: Interviews with 19 Programmers Who Shaped the Computer Industry. Microsoft Press, Redmond, Wash. Lampson, Butler W. (1972). Guest Editorial. Software – Experience & Practice, 2(3):195–196. (1974). An Open Operating System for a Single-User Machine. In Gelenbe, E. and C. Kaiser, eds.: Operating Systems: Proceedings of an International Symposium held at Rocquencourt, April 23–25, 1974, vol. 16 of Lecture Notes in Computer Science, pp. 208–217. Springer, Berlin. (1975). Display System Including a High Resolution Character Generator. United States Patent, 3 911 420. (1979a). Alto Non-Programmer’s Guide. In (Taft 1979), pp. 1–30. (1979b). Bravo Manual. In (Taft 1979), pp. 31–62. (1988). Personal Distributed Computing: The Alto and Ethernet Software. In (Goldberg 1988), pp. 291–335. Lampson, Butler W., W. W. Lichtenberger, and M. W. Pirtle (1966). A User Machine in a Time- Sharing System. Proceedings of the IEEE, 12(12):1766–1774. Lampson, Butler W. and R. F. Sproull (1979). An open operating system for a single-user machine. ACM Operating Systems Review, 13(5):98–105. Lang, Jürgen K. (1996). Das Compact Disc Digital Audio System: Ein Beispiel für die Entwick- lung hochtechnologischer Konsumelektronik. Dissertation, Rheinisch-Westfälische Technische Hochschule Aachen. Langlois, Richard N. (1992). External Economies and Economic Progress: The Case of the Micro- computer Industry. Business History Review, 66(1):1–50. Laning Jr., J. H. and N. Zierler (1954). A Program for Translation of Mathematical Equations for Whirlwind I. Engineering Memorandum E-364, Instrumentation Laboratory, Massachusetts Institute of Technology, Cambridge, Mass. Lapson, William F. and W. D. Atkinson (1984). Cursor Control for Use With Display System. United States Patent, 4 464 652. Law, John (1983). Enrôlement et contre-enrôlement: les luttes pour la publication d’un article scien- tifique. Social Science Information, 22:237–251. (1992). Notes on the Theory of the Actor-Network: Ordering, Strategy, and Heterogenity. Systems Practice, 5(4):379–393. Layton, jr., Edwin T. (1971). Mirror-Image Twins: The Communities of Science and Technology in 19th-Century America. Technology and Culture, 12:562–580. (1976). American Ideologies of Science and Engineering. Technology and Culture, 17(4):688– 701. (1986). The Revolt of the Engineers: Social Responsibility and the American Engineering Profession [1971]. Johns Hopkins University Press, Baltimore and London. Learning Research Group (1976). Personal Dynamic Media. Report SSL-76-1, Xerox Palo Alto Research Center, Palo Alto, CA.

457 Literatur

Lee, John A. N. (1992a). Time-Sharing and Interactive Computing at MIT: Part II – Project MAC. IEEE Annals of the History of Computing, 14(2):9–50. (1992b). Time-Sharing at MIT. IEEE Annals of the History of Computing, 14(1):13–54. (1994). Gentlemen, we Cannot escape history or, Why we Study the History of Computing.In Information Processing ’94: Proceedings of the IFIP 13th World Computer Congress, Hamburg, Germany, 28 August–2 September, 1994, vol. 2, pp. 293–300. North-Holland, Amsterdam. (1995). Computer Pioneers. IEEE Computer Society Press, Los Alamitos, CA. Lee, Penny (1996). The Whorf Theory Complex: A Critical Reconstruction. John Benjamins, Amster- dam and Philadelphia. Lehmann, N. Joachim (1988). Erste Entwicklungen elektronischer Rechenautomaten in Dresden. In: Dresdner Gerätetechnik: Tradition und Gegenwart,S.6–12. Technisches Museum, Dresden. Lehtman, Harvey (1997). »What you see is ALL you get«. Interactions, 4(1):49. Leibniz, Gottfried Wilhelm (1996). Neue Abhandlungen über den menschlichen Verstand [1765]. Philosophische Werke in vier Bänden, Band 3. Felix Meiner, Hamburg. Lemmons, Phil (1981). The IBM Personal Computer: First Impressions. Byte, 6(10):26–35. Lemmons, Phil, B. Atkinson, S. Jobs, A. Hertzfeld, L. Kenyon, J. Hoffman, B. Smith, D. Egner, C. Espinosa, S. Capps, J. Manock, B. Horn, and G. Crowe (1984). An Interview: The Macintosh Design Team. Byte, 9(2):58–80. Lerner, Eric J. (1983). Technology and the Military: DOD’s Darpa at 25. IEEE Spectrum, 20(8):70– 73. Leslie, Stuart W. (1993). The Cold War and American Science: The Military-Industrial-Academic Complex at MIT and Stanford. Columbia University Press, New York. Levin, Roy and M. D. Schroeder (1979). Transport of Electronic Messages Through a Network. Report CSL-79-4, Xerox Palo Alto Research Center, Palo Alto, CA. Lévy, Pierre (1995). Die Erfindung des Computers. In: Serres, Michel, Hrsg.: Elemente einer Ge- schichte der Wissenschaften, S. 904–944. Suhrkamp, Frankfurt am Main. Levy, Steven (1984). Hackers: Heroes of the Computer Revolution. Dell, New York. (1995). Insanely Great: The Life and Times of Macintosh, the Computer That Changed Every- thing. Penguin, London. Lewin, Morton H. (1967). An Introduction to Computer Graphics. Proceedings of the IEEE, 55(9):1544–1552. Lichtenberger, W. Wayne and M. W. Pirtle (1965). A Facility for Experimentation in Man-Machine Interaction.InProceedings of the AFIPS 1965 Fall Joint Computer Conference, vol. 27, pp. 589–598. Spartan Books. Licklider, Joseph C. R. (1960). Man-Computer Symbiosis. IRE Transactions on Human Factors in Electronics, HFE-1(1):4–11. (1965). Libraries of the future. MIT Press, Cambridge, Mass. (1968). Man-Computer Communication.InAnnual Review of Information Science and Tech- nology, vol. 3, pp. 201–240. Encyclopedia Britannica, Chicago, Ill. (1988a). Interview conducted by William F. Aspray and Arthur L. Norberg on 28 October 1988 at Cambridge, Mass. for the DARPA/IPTO History Project. Transcript of Tape Recording OH 150, Charles Babbage Institute, Center for the History of Information Processing, Minneapolis.

458 Literatur

Licklider, Joseph C. R. (1988b). Some Reflections on Early History. In (Goldberg 1988), pp. 117–125. Licklider, Joseph C. R. and W. E. Clark (1962). On-Line Man-Computer Communication.InProceed- ings of the AFIPS 1962 Spring Joint Computer Conference, vol. 21, pp. 113–128, San Francisco. Thompson Books. Licklider, Joseph C. R., R. W. Taylor, and E. Herbert, editor (1968). The Computer as a Communica- tion Device. Science and Technology, 76:21–31. Licklider, Joseph C. R. and A. Vezza (1978). Applications of the Information Network. Proceedings of the IEEE, 66(11):1330–1346. Lilley, Dorothy B. and R. W. Trice (1989). A History of Information Science 1945–1985. Academic Press, San Diego. Lindgren, Nilo (1971). Toward the Decentralized Intellectual Workshop. Innovation, 24:50–60. Lindner, Rudolf, B. Wohak und H. Zeltwanger (1984). Planen, Entscheiden, Herrschen: Vom Rechnen zur elektronischen Datenverarbeitung, Bd. 15 d. Reihe Kulturgeschichte der Naturwissenschaf- ten und der Technik. Rowohlt, Reinbek bei Hamburg. Linzmayer, Owen (1994). The Mac Bathroom Reader. Sybex, Alamada, CA. Lo, Arthur W. (1968). High-speed logic and memory—Past, present and future.InProceedings of the AFIPS 1968 Fall Joint Computer Conference, vol. 33, pp. 1459–1465, San Francisco, CA. American Federation of Information Processing Societies, Thompson Books. Louis, Arthur M. (1997). Inventor of the Mouse Wins $500,000 Prize. Bay Area scientist wins Lemelson-MIT award for creations. San Francisco Chronicle, 10 April 1997, p. C3. Maaß, Susanne (1994). Maschine, Partner, Medium, Welt . . . Eine Leitbildgeschichte der Softwareer- gonomie. In: (Hellige und Petzold 1994), S. 326–341. MacCormac, Earl R. (1984). Men and Machines: The Computational Metaphor. Technology in Society, 6:207–216. MacKenzie, Donald (1990). Inventing Accuracy: A Historical Sociology of Nuclear Missile Guidance. MIT Press, Cambridge, Mass. Machover, Carl (1967). Graphic CRT terminals – characteristics of commercially available equip- ment.InProceedings of the AFIPS 1967 Fall Joint Computer Conference, vol. 31, pp. 149–159, Anaheim, Calif. AFIPS Press. (1972). Computer graphics terminals - A backward look.InProceedings of the AFIPS 1972 Spring Joint Computer Conference, vol. 40, pp. 439–446, Atlantic City, NJ. AFIPS Press. Mahoney, Michael S. (1988). The History of Computing in the History of Technology. Annals of the History of Computing, 10:113–125. (1990). The Roots of Software Engineering. CWI Quarterly, 3(4):325–334. Maisel, Andrew, Interviewer (1996). Doug Engelbart: Father of the Mouse. SuperKids Software Re- view. Available at http://www.superkids.com/aweb/pages/features/mouse/mouse.html [25 Sep 1997]. Malcolm, Donald G. (1960). Real-Time Management Control in a Large-Scale Man-Machine System. The Journal of Industrial Engineering, 11(2):103–110. Malone, Michael S. (1996). Der Mikroprozessor: Eine ungewöhnliche Biographie. Springer, Berlin und Heidelberg (Original: The Microprocessor: A Biography, Santa Clara, CA. 1995). Mambrey, Peter und A. Tepper (1992). Metaphern und Leitbilder als Instrument. Beispiele und Me- thoden. Arbeitspapiere der GMD 651, Gesellschaft für Mathematik und Datenverarbeitung, Sankt Augustin.

459 Literatur

Manock, Jerrold C., T. A. Oyama, and J. R. Yarchenco (1986). Housing for Movable Cursor Control for a Video Display. United States Patent, Des. 284 284. Markoff, John (1984). Five Window Managers for the IBM PC. Byte, 9(9):65–87. Markoff, John and P. Robinson (1985). The Macintosh Office. Byte, 10(2):120–134. Markoff, John and E. Shapiro (1984). Macintosh’s Other Designers. Byte, 9(8):347–356. Martin, C. Dianne (1993). The Myth of the Awesome Thinking Machine. Communications of the ACM, 36(4):120–133. Martin, James (1973). Design of Man-Computer Dialogues. Prentice-Hall, Englewood Cliffs, N.J. Marx, Karl (1967). Das Kapital: Kritik der politischen Ökonomie [1867, 1885, 1894]. Europäische Verlagsanstalt, Frankfurt am Main. 3 Bände. Marx, Leo (1964). The Machine in the Garden: Technology and the Pastoral Ideal in America. Oxford University Press, New York. Masani, Pesi Rustom (1987). Norbert Wiener and the Computer. Annals of the History of Computing, 9(2):183–186. Masani, Pesi Rustom and R. S. Phillips (1985). Antiaircraft Fire-Control and the Emergence of Cyber- netics. In Masani, Pesi Rustom, ed.: Cybernetics, Science and Society; Ethics, Aesthetics, and Literary Criticism; Book Reviews and Obituaries, vol. IV of Norbert Wiener: Collected Works with Commentaries, pp. 141–179. MIT Press, Cambridge, Mass. Maturana, Humberto und F. J. Varela (1997). Der Baum der Erkenntnis: Die biologischen Wurzeln des menschlichen Erkennens. Goldmann, München, 7. Aufl. (Original: El árbol des concocimiento, 1984). Mazor, Stanley (1995). The History of the Microcomputer – Invention and Evolution. Proceedings of the IEEE, 83(12):1601–1608. McCall, Kim and L. Tesler (1980). TinyTalk, a Subset of Smalltalk-76 for 64KB Microcomputers. ACM SIGSMALL Newsletter, 6(2):197–198. McCarthy, John (1958). Programs with Common Sense.InMechanisation of Thought Processes, Proceedings of the Symposium of the National Physics Laboratory, pp. 77–84, London. Her Majesty’s Stationery Office. (1959). Memorandum to P. M. Morse proposing Time Sharing. Available at http://www- formal.stanford.edu/jmc/history/timesharing-memo.dvi [01 Dec 1995]. (1983). Reminiscences on the History of Time Sharing. Available at http://www- formal.stanford.edu/jmc/history/timesharing.dvi [01 Dec 1995]. McCarthy, John, S. Boilen, E. Fredkin, and J. C. R. Licklider (1963). A Time Sharing Debugging System for a Small Computer.InProceedings of the AFIPS 1963 Spring Joint Computer Con- ference, vol. 23, pp. 51–57, Detroit, Mich. McCorduck, Pamela (1987). Denkmaschinen: Die Geschichte der künstlichen Intelligenz. Markt & Technik, Haar bei München (Original: Machines who think: a personal inquiry into the history and prospects of artificial intelligence, San Francisco 1979). McCreight, Edward M. (1977). Pagination of B*-Trees with Variable-Length Records. Communica- tions of the ACM, 20(9):670–674. McCreight, Edward M., D. Boggs, and E. A. Taft (1979). ALTO: A Personal Computer System. Hardware Manual. Xerox Palo Alto Research Center, Palo Alto, CA.

460 Literatur

McCulloch, Warren S. and W. Pitts (1943). A Logical Calculus of the Idea Immanent in Nervous Activity. Bulletin of Mathematical Biophysics, 5:115–133. McDonald, Neil (1965). A Time-Shared Computer System: The Disadvantages. Computers and Au- tomation, 14(9):21–22. McLuhan, Herbert Marshall (1992). Die magischen Kanäle (Understanding Media). Econ, Düsseldorf (Original: Understanding Media, New York 1964). McMullen, Barbara E. and J. F. McMullen (1993). Personal Computing. In (Ralston and Reilly 1993), pp. 1053–1058. McNaney, Joseph T. (1942). Signaling System. United States Patent, 2 283 383. Meadows, Dennis L. (1972). Die Grenzen des Wachstums. Bericht des Club of Rome zur Lage der Menschheit. Deutsche Verlags-Anstalt, Stuttgart. Melvin, John and R. W. Watson (1971a). First Cut at a proposed Telnet Protocol. Request for Comments # 97, Network Working Group. (1971b). Network Information Center Schedule for Network Users. Request for Comments # 223, NIC 7622, Network Working Group. Mennie, Don (1977). Everybody’s doing it (’computing’ at home). IEEE Spectrum, 14(5):29–34. Merkin, M. (1983). In Love with Lisa. Creative Computing, 9(Oct.):12–17. Metcalfe, Robert M. (1973). Steady-state Analysis of a Slotted and Controlled Aloha System with Blocking.InProceedings of the Sixth Hawaii International Conference on System Science, pp. 375–380. (1983). Local Networks of Personal Computers. In Mason, Richard E. A., ed.: Information processing 83. Proceedings of the IFIP 9th World Computer Congress, Paris, France, September 19–23 1983, pp. 525–532, Amsterdam. North Holland. (1994). How Ethernet was Invented. IEEE Annals of the History of Computing, 16(4):81–88. Metcalfe, Robert M. and D. R. Boggs (1976). Ethernet: Distributed for Local Com- puter Networks. Communications of the ACM, 19(7):395–404. Metcalfe, Robert M., D. R. Boggs, C. P. Thacker, and B. W. Lampson (1977). Multipoint Data Communication System With Collision Detection. United States Patent, 4 063 220. Metropolis, Nicholas C., J. Howlett, and G.-C. Rota, eds. (1980). A History of Computing in the Twentieth Century – a collection of essays. Academic Press, New York. Meyer, N. Dean (1983). The Office Automation Cookbook: Management Strategies for Getting Office Automation Moving. Sloan Management Review, 24(2):51–60. Meyrowitz, Norman and A. van Dam (1982). Interactive Editing Systems. ACM Computing Surveys, 14(3):321–415. Meyrowitz, Norman and D. Temkin (1993). Text Editing Systems. In (Ralston and Reilly 1993), pp. 1355–1372. Miller, Michael J. (1997). Looking Back: A History of the Technology That Changed Our World. Byte, 16(6):108–138. Miller, George A., E. Galanter und K. H. Pribram (1991). Strategien des Handelns: Pläne und Struktu- ren des Verhaltens. Klett-Cotta, Stuttgart, 2. Aufl. (Original: Plans and the structure of behavior, New York 1960)

461 Literatur

Miller, Lawrence and J. Johnson (1996). The Xerox Star: An Influential User Interface Design.In Rudisill, Marianne, C. Lewis, P. G. Polson, and T. D. McKay, eds.: Human-Computer Inter- face Design: Success Stories, Emerging Methods and Real-World Context, pp. 70–100. Morgan Kaufmann Publishers, San Francisco. Miller, Stephen W. (1971). Display Requirements for Future Man-Machine Systems. IEEE Transac- tions on Electron Devices, ED-18(9):616–621. Millman, S., ed. (1984). A History of Engineering and Science in the Bell System: Communication Sciences (1925–1980). AT&T Bell Laboratories, Indianapolis. Mindell, David A. (1996). »Datum for its own annihilation:« feedback, control, and computing, 1916– 1945. PhD thesis, Massachusetts Institute of Technology, Cambridge, Mass. Minicucci, Rick (1974). Text Editors: Speed, Specialization, Simplicity. Administrative Management, 35(11):56–58, 70. Mintzberg, Henry (1992). Die Mintzberg-Struktur: Organisationen effektiver gestalten. Verlag Moder- ne Industrie, Landsberg am Lech (Original: Structure in fives: designing effective organizations, Englewood Cliffs, NJ 1983). Mitchell, J. L. and K. H. Olsen (1956). TX-0, A Transistor Computer with a 256 by 256 Memory. In Proceedings of the 1956 Eastern Joint Computer Conference, vol. 10, pp. 93–101, New York. Institute of Radio Engineers, American Institute of Electrical Engineers, Association for Computing Machinery. Mitchell, James G. (1973). The Implementation of NLS on a Minicomputer. Report CSL-73-3, Xerox Palo Alto Research Center, Palo Alto, CA. Molina, Alfonso Hernán (1989). The Social Basis of the Microelectronics Revolution. Edinburgh University Press, Edinburgh. Mooers, Calvin N. (1950). Coding, Information Retrieval, and the Rapid Selector. American Docu- mentation, 1(2):225–229. (1963). The Reactive Typewriter Program. Communications of the ACM, 6(1):48–49. Moore, Gordon E. (1965). Cramming More Components Onto Integrated Circuits. Electronics, 38(8):114–117. (1979). VLSI: some fundamental challenges. IEEE Spectrum, 16(4):30–37. Morgan, Chris, G. Williams, and P. Lemmons (1983). An interview with Wayne Rosing, Bruce Daniels, and Larry Tesler: A Behind-the-Scenes Look at the Development of Apple’s Lisa. Byte, 8(2):90– 114. Morgan, Christopher, ed. (1997). Wizards and their Wonders: Portraits in Computing. ACM Press, New York. Moritz, Michael (1984). The Little Kingdom: The Private Story of Apple Computer. William Morrow, New York. Morris, David J. (1977). Introduction to Communication Command and Control Systems. Pergamon Press, Oxford. Morris, P. R. (1990). A History of the World Semiconductor Industry, vol. 12 of IEE History of Technology. Peter Peregrinus, London. Morrison, Ann M. (1984). Apple Bites Back. Fortune, 109(February 20):56–62. Morse, Richard S. (1942). Rapid Selector-Calculator. United States Patent, 2 295 000.

462 Literatur

Mowshowitz, Abbe, ed. (1977). Inside Information: Computers in Fiction. Addison-Wesley, Reading, Mass. Myers, Brad A. (1998). A Brief History of Human-Computer Interaction Technology. Interactions, 5(2):44–54. Nagy, George (1968). State of the art in pattern recognition. Proceedings of the IEEE, 56(5):836–862. Nake, Frieder (1984). Schnittstelle Mensch – Maschine. In: Kursbuch, Bd. 75, S. 109–118. Rotbuch, Berlin. (1993). Von der Interaktion. Über den instrumentralen und den medialen Charakter des Com- puters. In: Nake, Frieder, Hrsg.: Die erträgliche Leichtigkeit der Zeichen. Ästhetik, Semiotik, Informatik, S. 165–189. Agis, Baden-Baden. (1994). Vom direkten und indirekten Umgang mit dem Computer. In: (Hellige und Petzold 1994), S. 305–325. (1995). Von Batch Processing zu Direct Manipulation: ein Umbruch im Umgang mit Compu- tern. In: Hurrle, Gerd und F.-J. Jelich, Hrsg.: Vom Buchdruck in den Cyberspace? Mensch – Maschine – Kommunikation, Bd. 4 d. Reihe Geschichte und Zukunft der industriellen Arbeit,S. 28–44. Schüren, Marburg. Nash, Stephen G., ed. (1990). A History of Scientific Computing. Addison-Wesley, Reading, Mass. Naur, Peter and B. Randell, eds. (1969). Software Engineering: Report on a conference sponsered by the NATO SCIENCE COMMITTEE Garmisch, Germany, 7th–11th October 1968.NATO, Brussels. Negroponte, Nicholas (1973). Recent advances in sketch recognition.InProceedings of the AFIPS 1973 National Computer Conference, vol. 42, pp. 663–675, New York. American Federation of Information Processing Societies, AFIPS Press. Nelson, Theodor H. (1967). Getting it out of the system. In Schechter, George, ed.: Information Retrieval: A critical Review, pp. 191–210. Thompson Books, Washington, D. C. (1980). Replacing the printed word: A complete literary system. In Lavington, Simon H., ed.: Information Processing: Proceedings of the 1980 IFIP World Computer Congress, vol. 8, pp. 1013–1023. North-Holland, Amsterdam. (1987). Computer Lib/Dream Machines [1974]. Tempus Books, Redmond, Revised ed. Neumann, Detlef (1997). Entwicklung von Time–Sharing Betriebssystemen, insbesondere am Massa- chusetts Institute of Technology.Unveröffentlichte Staatsexamensarbeit, Lehrstuhl für Ge- schichte der Technik, Rheinisch-Westfälischen Technischen Hochschule Aachen. Neumann, John von (1945). First Draft of a Report on the EDVAC. Report, Moore School of Electrical Engineering, University of Pennsylvania, Philadelphia, PA. (1955). Entwicklung und Ausnutzung neuerer mathematischer Maschinen. Westdeutscher Verlag, Köln. (1991). Die Rechenmaschine und das Gehirn. Oldenbourg, München, 6., unveränderte Aufl. (Original: The Computer and the Brain, New Haven 1958). Newell, Allen (1983). Intellectual Issues in the History of Artificial Intelligence. In Machlup, Fritz and U. Mansfield, eds.: The Study of Information: Interdisciplinary Messages, pp. 187–227. John Wiley & Sons, New York. (1991a). Interview conducted by Arthur L. Norberg on 10–12 June 1991 at Pittsburgh, Pa. for the DARPA/IPTO History Project. Transcript of Tape Recording OH 227, Charles Babbage Institute, Center for the History of Information Processing, Minneapolis.

463 Literatur

Newell, Allen (1991b). Metaphors for Mind, Theories of Mind: Should the Humanities Mind? In Sheehan, James J. and M. Sosna, eds.: The Boundaries of Humanity: Humans, Animals, Ma- chines, pp. 158–197. University of California Press, Berkeley. Newell, Allen, J. C. Shaw, and H. A. Simon (1957). Empirical Explorations with the Logic Theory Machine.InProceedings of the 1957 Western Joint Computer Conference, vol. 11, pp. 218– 230, Los Angeles, Cal. Institute of Radio Engineers, American Institute of Electrical Engineers, Association for Computing Machinery. (1960). Report on a general problem-solving program.InProceedings of the International Con- ference on Information Processing, Unesco, Paris 15–20 June 1959, pp. 256–264, München, London. R. Oldenbourg, Butterworths. Newell, Allen and H. A. Simon (1958). Heuristic Problem Solving: The Next Advances in Operations Research. Journal of the Operations Research Society of America, 6(1):1–10. (1972). Human Problem Solving. Prentice-Hall, Englewood Cliffs, NJ. Newman, William M. (1976). Trends in Graphic Display Design. IEEE Transactions on Computers, C-25(12):1321–1325. (1979). Markup User’s Manual. In (Taft 1979), pp. 85–97. (1987). Designing Integrated Systems for the Office Environment. McGraw-Hill, New York. Newman, William M. and R. F. Sproull (1979). Principles of interactive computer graphics. MacGraw-Hill, New York, Second ed. Nielsen, Jakob (1993). Hypertext and Hypermedia. Academic Press, Boston. Noll, A. Michael (1967). The Digital Computer as a Creative Medium. IEEE Spectrum, 4(10):89–95. Norberg, Arthur L. (1984). Another Impact of the Computer – The History of Computing. IEEE Transactions on Education, E-27(4):197–203. (1996). Changing Computing: The Computing Community and DARPA. IEEE Annals of the History of Computing, 18(2):40–53. Norberg, Arthur L., J. E. O’Neill, and K. Freedman (1996). Transforming Computer Technology: In- formation Processing in the Pentagon, 1962–1986. Johns Hopkins University Press, Baltimore Md. North, Jeanne B. (1971). NIC Distribution of Manuals and Handbooks. Request for Comments # 185, NIC 7129, Network Working Group. Noyce, Robert N. and M. E. Hoff, jr. (1981). A History of Microprocessor Development at Intel. IEEE Micro, 1(1):8–21. Nulty, Peter (1983). Apple’s Bid to Stay in the Big Time. Fortune, 107(February 7):36–41. Nyce, James M. and P. Kahn (1989). Innovation, Pragmaticism, and Technological Continuity: Van- nevar Bush’s Memex. Journal of the American Society for Information Science, 40(3):214–220. , eds. (1991a). From Memex to Hypertext: Vannevar Bush and the Mind’s Machine. Academic Press, Boston. (1991b). A Machine for the Mind: Vannevar Bush’s Memex. In (Nyce and Kahn 1991a), pp. 39–66. O’Neill, Judy E. (1995). ’Prestige Luster’ and ’Snow-Balling Effects’: IBM’s Development of Com- puter Time-Sharing. IEEE Annals of the History of Computing, 17(2):50–54.

464 Literatur

Olsen, Kenneth H. (1957). Transistor Circuitry in the Lincoln TX-2.InProceedings of the 1957 Western Joint Computer Conference, vol. 11, pp. 167–171, Los Angeles, Cal. Institute of Radio Engineers, American Institute of Electrical Engineers, Association for Computing Machinery. (1988). Interview conducted by David K.Allison. Transcript of an Oral History Interview, Divi- sion of Information Technology and Society, National Museum of American History, Smithso- nian Institution, Washington, D. C. Transcript available at http://www.si.edu/perspect/comphist/ olsen.html [07 Mar 1996]. Ong, Walter (1982). Orality and Literacy: The Technologizing of the World. Methuen, London. Overhage, Carl F. J. and J. F. Reintjes (1974). Project Intrex: A General Review. Information Storage and Retrieval, 10(5/6):157–188. Owens, Larry W. (1986). Vannevar Bush and the Differential Analyzer: The Text and Context of an Early Computer. Technology and Culture, 27(1):63–95. (1996). Where Are We Going, Phil Morse? Changing Agendas and the Rhetoric of Obvious- ness in the Transformation of Computing at MIT, 1939–1957. IEEE Annals of the History of Computing, 18(4):34–41. Pake, George E. (1980). Historical Introduction. In Lavendel, Giuliana and C. Leitner, eds.: A Decade of Research: Xerox Palo Alto Research Center 1970–1980, pp. ix–xi. R. R. Bowker, New York and London. (1985). Research at Xerox PARC: a founder’s assessment. IEEE Spectrum, 22(10):54–61. (1992). Consultant to Industry, Adviser to Government. Physics Today, 45(4):56–62. Papert, Seymour (1993). Mindstorms: Children, Computers, and Powerful Ideas [1980]. Basic Books, New York, 2nd ed. Papian, William N. (1953). The MIT Magnetic-Core Memory.InProceedings of the 1953 Eastern Joint Computer Conference, vol. 4, pp. 37–42, Washington, D. C. Institute of Radio Engineers, American Institute of Electrical Engineers, Association for Computing Machinery. (1957). High-Speed Computer Stores 2.5 Megabits. Electronics, 30(22):162–167. Pearson, Jamie Parker, ed. (1992). Digital at Work: Snapshots from the first thirty-five years. Digital Press, Burlington, Mass. Peddle, Charles (1977). Here Comes the PET. IEEE Computer, 10:88–92. Perkins, Roderick, D. Smith Keller, and F. Ludolph (1997). Inventing the Lisa User Interface. Inter- actions, 4(1):40–53. Perry, Tekla S. and J. Voelcker (1989). Of Mice and Menus: Designing the User-Friendly Interface. IEEE Spectrum, 26(9):46–51. Perry, Tekla S. and P. Wallich (1985). Inside the PARC: the ’information architects’. IEEE Spectrum, 22(10):62–75. Petzold, Hartmut (1992). Moderne Rechenkünstler: Die Industrialisierung der Rechentechnik in Deutschland. Beck, München. Pfaffenberger, Bryan L. (1988). The Social Meaning of the Personal Computer, Or, Why the Personal Computer Revolution Was No Revolution. Anthropological Quarterly, 61(1):39–47. Phister, Jr., Montgomery, A. R. H. Lloyd, and E. K. Yasaki (1983). Computer Industry. In (Ralston and Reilly 1983), pp. 333–355. Pier, Kenneth A. (1983). A Retrospective on the Dorado: A High-Performance Personal Computer. In Proceedings of the Tenth Annual International Symposium on Computer Architecture, Stock- holm, Sweden, June 13–17, 1983, pp. 252–269. Association for Computing Machinery.

465 Literatur

Platon (1958). Politeia. In: Platon – Sämtliche Werke, Bd. 3, S. 67–300. Rowohlt, Reinbek bei Hamburg. Postel, Jonathan (1980). Internetwork Protocols. IEEE Transactions on Communications, COM- 28(4):604–611. Postman, Neil (1992). Wir informieren uns zu Tode. Die Zeit, 47(41):61f. Press, Larry (1993). Before the Altair: The History of Personal Computing. Communications of the ACM, 36(9):27–33. Pugh, Emerson W. (1984). Memories that shaped an Industry: Decisions leading to IBM System/360. MIT Press, Cambridge, Mass. and London. Pugh, Emerson W. and W. F. Aspray (1996). Creating the Computer Industry. IEEE Annals of the History of Computing, 18(2):7–17. Pugh, Emerson W., L. R. Johnson, and J. H. Palmer (1991). IBM’s 360 and Early 370 Systems. MIT Press, Cambridge, Mass. and London. Raeithel, Gert (1995). Geschichte der nordamerikanischen Kultur. Zweitausendeins, Frankfurt am Main, 2. Aufl. 3 Bände. Ralston, Anthony and E. D. Reilly, Jr., eds. (1983). Encyclopedia of Computer Science and Engineer- ing. Van Nostrand Reinhold, New York, Second ed. , eds. (1993). Encyclopedia of Computer Science. Van Nostrand Reinhold, New York, Third ed. Randell, Brian (1979). An Annotated Bibliography on the Origins of Digital Computers. Annals of the History of Computing, 1(2):101–207. (1982a). The Case of the Missing Memoranda. Annals of the History of Computing, 4(1):66– 67. (1982b). From Analytical Engine to Electronic Digital Computer: The Contributions of Ludgate, Torres, and Bush. Annals of the History of Computing, 4(4):327–341. Raskin, Jef (1976). Personal Computers: A Bit of Wheat Amongst the Chaff . Dr. Dobb’s journal of computer calisthenics & orthodontia, 1:15–17. (1982). Computers by the Millions. SIGPC Newsletter, 6(2). (1994a). Holes in History. Interactions, 1(3):11–16. (1994b). Intuitive equals Familiar. Communications of the ACM, 9(37):17. (1994c). The Mac and Me: An Autobiographical View by the Creator of the Macintosh Project. Erweitertes Manuskript von (Raskin 1994a) und (Raskin 1995), Kopie im Besitz des Verfassers. (1995). The Mac and Me: 15 Years of Life with the Macintosh. The Analytical Engine, 2(4):12– 25. (1996). The Creation of the Mac according to Jef Raskin. Available at http://www.starway.org/

arnaud/Raskin.html [12 Febr 1998]. (1997). Looking for a Humane Interface: Will Computers Ever Become Easy to Use? Commu- nications of the ACM, 40(2):98–101. Ratz, H. C. and D. K. Ritchie (1961). Operator Performance on a Chord Keyboard. Journal of Applied Psychology, 45(5):303–308. Redhed, David D. (1984). The Lisa 2: Apple’s Abelst Computer. Byte, 9(13):A106–A114. Redmond, Kent C. and T. M. Smith (1977). Lessons from ’Project Whirlwind’. IEEE Spectrum, 14(10):50–59.

466 Literatur

Redmond, Kent C. and T. M. Smith (1980). Project Whirlwind: The History of a Pioneer Computer. Digital Press, Bedford, Mass. Reed, Sidney G., R. H. Van Atta, and J. Deitchman (1990/91). DARPA Technical Accomplishments. Institute for Defense Analyses, Alexandria, VA. 3 Vols. Rees, Mina (1950). The Federal Computing Machine Program. Science, 112:731–736. (1982). The Computing Program of the Office of Naval Research, 1946–1953. Annals of the History of Computing, 4(2):102–120. Reingold, Nathan (1987). Vannevar Bush’s new deal for research: or The triumph of the old order. Historical Studies in the Physical and Biological Sciences, 17(2):299–344. (1988). Physics and Engineering in the United States, 1945–1965, A Study of Pride and Prej- udice. In Goldberg, Stanley and R. H. Stuewer, eds.: The Michaelson Era in American Science, pp. 288–298. American Institute of Physics, New York. Rheingold, Howard (1985). Tools for thought. Simon & Schuster, New York. Available at http://www.well.com/user/hlr/texts [11 Jun 1996]. (1994). Virtuelle Gemeinschaft: Soziale Beziehungen im Zeitalter des Computers. Addison- Wesley, Bonn (Original: Virtual Communities, Reading, Mass. 1993). (1995). Virtuelle Welten: Reisen im Cyberspace. Rowohlt, Reinbek bei Hamburg (Original: Virtual Reality, New York 1991). Rice, David E. and A. van Dam (1972). An Introduction to Information Structures and Paging Con- siderations for On-Line Text Editing Systems. In Tou, Julius T., ed.: Advances in Information Systems Science, vol. 4, pp. 93–159. Plenum Press, New York and London. Rice, Ronald E. (1987). Computer-Mediated Communication and Organizational Innovation. Journal of Communication, 37(4):65–94. Richard J. Barber Associates (1975). The Advanced Research Projects Agency, 1958–1974. Barber Associates, Washington, D. C. Richards, Martin (1969). BCPL: A tool for compiler writing and system programming.InProceedings of the AFIPS 1969 Fall Joint Computer Conference, vol. 35, pp. 557–566, Las Vegas, Nev. American Federation of Information Processing Societies, Thompson Books. Richards, Pamela Spence (1988). Information Science in Wartime: Pioneer Documentation Activities in World War II. Journal of the American Society for Information Science, 39(5):301–306. Ridenour, Louis N., ed. (1947). Radar System Engineering,vol.1ofRadiation Laboratory Series. McGraw-Hill, New York. Rider, Ronald E. (1974). Position Indicator for a Display System. United States Patent, 3 835 464. Rider, Ronald E. and B. W. Lampson (1978). High Resolution Character Generator. United States Patent, 4 079 458. Ritchie, Ian (1992). The Future of Electronic Literacy: Will Hypertext Ever Find Acceptance? In Lucarella, Dario, J. Nanard, M. Nanard, and P. Paolini, eds.: Proceedings of the Fourth ACM Conference on Hypertext, p. 1. Association of Computing Machinery. Roberts, H. Edward and W. Yates (1975). Exclusive! Altair 8800: The most powerful Minicomputer Project Ever Presented – Can be build for under $ 400. Popular Electronics, 7(1):33–38. Roberts, Lawrence G. (1988). The ARPANET and Computer Networks. In (Goldberg 1988), pp. 143–167.

467 Literatur

Roberts, Lawrence G. and B. D. Wessler (1970). development to achieve resource sharing.InProceedings of the AFIPS 1970 Spring Joint Computer Conference, pp. 543–549, Atlantic City. AFIPS Press. Roberts, Teresa L. (1980). Evaluation of Computer Text Editors. PhD thesis, Stanford University, Department of Computer Science. Roberts, Teresa L. and T. P. Moran (1983). The Evaluation of Text Editors: Methodology and Empiri- cal Results. Communications of the ACM, 26(4):265–283. Robinson, David (1989). Chaplin. Sein Leben. Seine Kunst. Diogenes, Zürich. Rochester, Nathaniel, F. C. Bequaert, and E. M. Sharp (1978). The Chord Keyboard. IEEE Computer, 11(12):57–63. Ropohl, Günter (1979). Eine Systemtheorie der Technik: Zur Grundlegung der Allgemeinen Techno- logie. Hanser, München und Wien. Rosen, Saul (1967). Programming Systems and Languages: A Historical Survey. In Rosen, Saul, ed.: Programming Systems and Languages, pp. 3–22. McGraw-Hill, New York. (1969). Electronic Computers: A Historical Survey. ACM Computing Surveys, 1(1):8–36. Rosenberg, Arthur M. (1966). Time-Sharing: A Status Report. Datamation, 11(2):66–77. Rosenberg, Nathan and W. E. Steinmueller (1982). The economic implications of the VLSI revolu- tion. In Rosenberg, Nathan, ed.: Inside the black box: Technology and economics, pp. 178–192. Cambridge University Press, Cambridge. Rosenblueth, Arturo, N. Wiener, and J. Bigelow (1943). Behavior, Purpose and Teleology. Philosophy of Science, 10:18–24. Ross, Andrew (1990). Hacking Away at the Counterculture. Postmodern Culture, 1(1). Ross, Douglas T. (1988). A Personal View of the Personal Work Station – Some Firsts in the Fifties. In (Goldberg 1988), pp. 54–111. Roszak, Theodore (1971). Gegenkultur: Gedanken über die technokratische Gesellschaft und die Opposition der Jugend. Econ, Düsseldorf und Wien (Original: The making of a counter culture, Garden City 1969). (1986). Der Verlust des Denkens: Über die Mythen des Computer-Zeitalters. Droemer Knaur, München (Original: The cult of information: the folklore of computers and the true art of thin- king, Cambridge 1986). Rubinstein, Richard (1988). Digital Typography: An Introduction to Type and Composition for Com- puter System Design. Addison-Wesley, Reading, Mass. Ruina, Jack P. (1989). Interview conducted by William Aspray on 20 April 1989 at Cambridge, Mass. for the DARPA/IPTO History Project. Transcript of Tape Recording OH 163, Charles Babbage Institute, Center for the History of Information Processing, Minneapolis. Russell, Bertrand (1993). History of Western Philosophy and its Connection with Political and Social Circumstances from the Earliest Times to the Present Day. Routledge, London. Salus, Peter H. (1994). A Quarter Century of UNIX. Addison-Wesley, Reading, Mass. (1995). Casting the Net: From ARPANET to INTERNET and beyond . . . . Addison-Wesley, Reading, Mass. Saxenian, Annalee (1994). Regional Advantage: Culture and Competition in Silicon Valley and Route 128. Harvard University Press, Cambridge, Mass.

468 Literatur

Schmidt, Susanne K. and R. Werlé (1998). Coordinating Technology: Studies in the International Standardization of Telecommunications. MIT Press, Cambridge, Mass. Schmidtchen, Volker (1992). Technik im Übergang vom Mittelalter zur Neuzeit zwischen 1300 und 1600. In: König, Wolfgang, Hrsg.: Metalle und Macht, Bd. 2 d. Reihe Propyläen Technikge- schichte, S. 207–598. Propyläen Verlag, Berlin. Schorre, D. V. (1964). META II: A Syntax-Directed Compiler Writing Language.InProceedings of the 19th National Conference of the Association of Computing Machinery, pp. D1.3.1–D1.3.11. Schuler, Douglas (1994). Community Networks: Building a New Participatory Medium. Communica- tions of the ACM, 37(1):38–51. Schultz, Claire K. and P. L. Garwig (1969). History of the American Documentation Institute – A Sketch. American Documentation, 20(2):152–160. Schwartz, Jules I., E. G. Coffman, and C. Weissman (1964). A General-Purpose Time-Sharing System. In Proceedings of the AFIPS 1964 Spring Joint Computer Conference, vol. 25, pp. 397–411, Washington, D. C. Spartan Books. Schwartz, Jules I. and C. Weissman (1967). The SDC Time-Sharing System Revisited.InProceedings of the 1967 ACM National Meeting, pp. 263–271. Association for Computing Machinery. Scott, Linda M. (1991). For the Rest of Us: a Reader-Oriented Interpretation of Apple’s 1984 Com- mercial. Journal of Popular Culture, 15(2):71-78. Sculley, John und J. A. Byrne (1991). Meine Karriere bei PepsiCo und Apple. ECON, Düsseldorf, 2. Aufl. (Original: Odyssey: Pepsi to Apple, New York 1987). Segal, Howard P. (1996). The Third Culture: C. P. Snow Revisited. IEEE Technology and Society Magazine, 15(2):29–32. Seidman, Sephan H. (1979). Hobby and Game Markets fade . . . Is There Life After Kits for Retailers? Datamation, 25(4):80–82. Serrell, R., M. M. Astrahan, G. W. Patterson, and I. B. Pyne (1962). The Evolution of Computing Machines and Systems. Proceedings of the IRE, 50(5):1039–1058. Seybold, Jonathan (1981). The Xerox ‘Professional Workstation’. The Seybold Report, 10(16):3–18. (1987). The Desktop-Publishing Phenomenon. Byte, 12(5):149–154. Seybold, Jonathan and A. Seybold (1983). The Apple Lisa. The Seybold Report on Professional Computing, 2(6):1–27. Shannon, Claude E. (1938). A Symbolic Analysis of Relay and Switching Circuits. Transactions of the American Institute of Electrical Engineers, 57:713–723. (1948). A Mathematical Theory of Communication. Bell System Technical Journal, 27(3/4):379–423, 623–656. Shannon, Claude E. und J. McCarthy, Hrsg. (1974) Studien zur Theorie der Automaten (Automata Studies) [1956]. Rogner und Bernhard, München, Erweiterte Aufl. Shapiro, Elmer B. (1969). Network Timetable. Request for Comments # 4, Network Working Group. Shasha, Dennis and C. Lazere (1995). Out of their Minds: The Lives and Discoveries of 15 Great Computer Scientists, chap. Alan C. Kay: A Clear Romantic Vision. Copernicus, New York. Shaw, George Bernard (1990). Back to Methuselah. Penguin, London. Shaw, J. Clifford (1963). Jovial – A Programming Language for Real-Time Command Systems.In Goodman, Richard, ed.: Annual Review in Automatic Programming, vol. 3, pp. 53–119. Perga- mon Press, Oxford.

469 Literatur

Shaw, Ralph R. (1949). The Rapid Selector. The Journal of Documentation, 5(3):164–171. Sheridan, Thomas B. (1986). Forty-Five Years of Man-Machine Systems: History and Trends.In Mancini, G., G. Johannsen, and L. Mårtenson, eds.: Analysis, Design, and Evaluation of Man- Machine Systems, pp. 1–9. Pergamon Press, Oxford. Sherman, Stratford P. (1984). Microsoft’s Drive to Dominate Software. Fortune, 109(2):82–90. Shneiderman, Ben (1983). Direct Manipulation: A Step Beyond Programming Languages. IEEE Computer, 16(8):57–69. (1992). Designing the User Interface: Strategies for Effective Human-Computer Interaction. Addison-Wesley, Reading, Ma., Second ed. Shoch, John F. (1979). An Overview of the Programming Language Smalltalk-72. ACM SIGPLAN Notices, 14(9):64–73. Shoch, John F., Y. K. Dalal, D. D. Redell, and R. C. Crane (1982). Evolution of the Ethernet Local Computer Network. IEEE Computer, 15(8):10–27. Shoch, John F. and J. A. Hupp (1980). Measured performance of an Ethernet local network. Com- munications of the ACM, 23(12):711–721. Shoup, Richard G. (1979). »SuperPaint« . . . The Digital Animator. Datamation, 25(5):150–156. Siefkes, Dirk, A. Braun, P. Eulenhöfer, H. Stach und K. Städtler, Hrsg. (1999). Pioniere der Informa- tik: Ihre Lebensgeschichte im Interview. Springer, Berlin und Heidelberg. Siegele, Ludwig (1998). Abschied vom PC. Die Zeit, 53(47):45–46. Simon, Herbert A. (1981). Entscheidungsverhalten in Organisationen: Eine Untersuchung von Ent- scheidungsprozessen in Management und Verwaltung. Verlag Moderne Industrie, Landsberg am Lech, 3., stark erweiterte Aufl. (Original: Administrative behavior: a study of decision-making processes in administrative organization, New York 1947). (1994). Die Wissenschaft vom Künstlichen, Bd. 3 d. Reihe Computerkultur. Springer, Wien und New York, 2. Aufl. (Original: The Sciences of the Artificial, Cambridge, Mass. 1969). Simonyi, Charles (1976). Meta-Programming: A Software Production Method. Report CSL-76-7, Xerox Palo Alto Research Center, Palo Alto, CA. Simpson, Rosemary, A. Renear, E. Mylonas, and A. van Dam (1996). 50 Years After »As We May Think«: The Brown/MIT Vannevar Bush Symposium. Interactions, 3:47–67. Slottow, Hiram Gene (1976). Plasma Displays. IEEE Transactions on Electron Devices, ED- 23(7):760–772. Smith, Bruce L. R. (1966). The RAND Corporation: Case Study of a Nonprofit Advisory Corporation. Harvard University Press, Cambridge, Mass. Smith, Burrell C. (1984). Macintosh System Architecture. Byte, 9(2):32. Smith, David Canfield (1977). Pygmalion: A Computer Program to Model and Stimulate Creative Thought, vol. 40 of Interdisciplinary System Research. Birkhäuser, Basel und Stuttgart. Smith, David Canfield, C. H. Irby, R. Kimbal, and E. Harslem (1982). The star user interface: an overview.InProceedings of the AFIPS 1982 National Computer Conference, vol. 51, pp. 515– 528, Houston, Tex. AFIPS Press. Smith, David Canfield, C. H. Irby, R. Kimbal, B. Verplank, and E. Harslem (1983). Designing the Star User Interface. In Degano, Pierpaolo and E. Sandewall, eds.: Integrated Interactive Com- puting Systems. Proceedings of the European Conference on Integrated Interactive Computing Systems, ECICS 82. Stresa, Italy, 1–3 September, 1982, pp. 297–313. North-Holland, Amster- dam.

470 Literatur

Smith, Douglas K. and R. C. Alexander (1988). Fumbling the Future: How Xerox Invented, Then Ignored the First Personal Computer. William Morrow, New York. Smith, Linda C. (1991). Memex as an Image of Potentiality Revisited. In (Nyce and Kahn 1991a), pp. 261–286. Smith, Richard E. (1989). A Historical Overview of Computer Architecture. Annals of the History of Computing, 11(4):277–303. Smith, Thomas M. (1976). Project Whirlwind: An Unorthodox Development Project. Technology and Culture, 17(3):447–464. Sneeringer, James (1978). User-interface Design for Text-Editing: A Case Study. Software – Experi- ence & Practice, 8:543. Snelting, Gregor (1998). Paul Feyerabend und die Softwaretechnologie. Informatik Spektrum, 21(5):273–276. Solla Price, Derek J. de (1974). Little Science, Big Science: Von der Studierstube zur Großforschung. Suhrkamp, Frankfurt am Main (Original: Little Science, Big Science, New York 1962). Soller, Theodore, M. A. Starr, and G. E. Valley, jr., eds. (1948). Cathode Ray Tube Displays, vol. 22 of Radiation Laboratory Series. McGraw-Hill, New York. Solomon, jr., Martin B. (1966). Are Small, Free-Standing Computers Really Here to Stay? Datamation, 11(7):66–671. Solow, Herbert (1956). »Automation«: News Behind the Noise. Fortune, 53(4):150–155. Spencer, William J. (1990). The paperless office. IEEE Spectrum, 27(11):125. Stach, Heike (1996). Orientierungsmuster: Ein methodischer Ansatz für eine Sozialgeschichte für Wissenschaft und Technik. Wechselwirkung, 18(81):48–53. Stallman, Richard M. (1981). EMACS: The Extensible, Customizable Self-Documenting Display Ed- itor. AI Memo 519a, Massachusetts Institute of Technology, Artificial Intelligence Laboratory, Cambdrige, Mass. Starkweather, Gary K. (1977). Flying Spot Scanner with Runout Correction. United States Patent, 4 040 096. (1980). High-Speed Laser Printing Systems. In Goodman, Joseph W. and M. Ross, eds.: Laser Applications, vol. 4, pp. 125–189. Academic Press, New York. Starkweather, Gary K. and D. E. Damouth (1975). Flying Spot Scanner. United States Patent, 3 867 571. Stern, Nancy (1980). John von Neumann’s Influence on Electronic Computing, 1944–1946. Annals of the History of Computing, 2(4):349–362. (1981). From ENIAC to UNIVAC: An Appraisal of the Eckert-Mauchly Computers. Digital Press, Bedford, Mass. Strachey, Christopher (1960). Time sharing in large fast computers.InProceedings of the Interna- tional Conference on Information Processing, Unesco, Paris 15–20 June 1959, pp. 336–341. R. Oldenbourg, Butterworths, München, London. Stross, Randall E. (1997). Mr. Gates Builds His Brain Trust. Fortune, December 1997. Sutherland, Ivan E. (1963). Sketchpad – A Man-Machine Graphical Communications System. PhD thesis, Massachusetts Institute of Technology, Cambridge, Mass. (1965). The Future of On-Line Systems. In Burgess, Eric, ed.: On-Line Computing Systems, pp. 9–13. American Data Processing, Detroit, Mich.

471 Literatur

Sutherland, Ivan E. (1966). Computer Inputs and Outputs. American Scientific, 215(3):86–96. (1970). Computer Displays. American Scientific, 222(6):57–81. Sutherland, William R., J. W. Forgie, and M. V. Morello (1969). Graphics in Time-Sharing: A Sum- mary of the TX-2 Experience.InProceedings of the AFIPS 1969 Spring Joint Computer Con- ference, vol. 34, pp. 629–636, Boston, Mass. AFIPS Press. Sweet, Richard E. (1985). The Mesa Programming Environment. ACM SIGPLAN Notices, 20(7):216–229. Sweet, William (1996). Robert M. Metcalfe. IEEE Spectrum, 33(6):48–55. Swinehart, Daniel C., G. McDaniel, and D. Boggs (1979). WFS: A simple shared file system for a distributed environment.InProceedings of the Seventh Symposium on Operating System Principles, pp. 9–17, Pacific Grove, CA. Association of Computing Machinery. Taft, Edward A., ed. (1979). Alto User’s Handbook. Xerox Palo Alto Research Center, Palo Alto, CA., Second ed. Taylor, Norman H. (1950). Marginal Checking as an Aid to Computer Reliability. Proceedings of the IRE, 38(12):1418–1421. Taylor, Robert W. (1967). Man-Computer Input-Output Techniques. IEEE Transactions on Human Factors in Electronics, HFE-8(1):1–4. (1989). Interview conducted by William F. Aspray on 28 February 1989 at Palo Alto, CA. for the DARPA/IPTO History Project. Transcript of Tape Recording OH 154, Charles Babbage Institute, Center for the History of Information Processing, Minneapolis. Teitelman, Warren (1977). A Display Oriented Programmer’s Assistent.InProceedings of the 5th International Joint Conference on Artificial Intelligence, pp. 905–915. (1984). A Tour through Cedar. IEEE Software, 1(2):44–73. Tenner, Edward (1990). Die wundersame Vermehrung des Papiers. Kultur und Technik, 14(2):54–59. (1997). Die Tücken der Technik: Wenn Fortschritt sich rächt. S. Fischer, Frankfurt am Main. Tepper, August (1996). Leitende Bilder, gesteuerte Erfinder? In: (Hellige 1996c), S. 143–159. Tesler, Lawrence G. (1981). The Smalltalk Environment. Byte, 6(8):90–147. (1984). Programming Languages. Scientific American, 251(3):58–66. (1985). The Legacy of the Lisa. Macworld, September 1985, pp. 17–22. Tesler, Lawrence G. and T. Mott (1975). Gypsy: The Ginn Typescript System. Xerox Palo Alto Research Center, Palo Alto, CA. Texas Instruments Deutschland, Hrsg. (1978). Das TTL-Kochbuch.München, 5. Aufl. Thacker, Charles P. (1978a). Data Processing Display System . United States Patent, 4 103 331. (1978b). Task Handling in a Data Processing Apparatus. United States Patent, 4 103 330. (1983). SIL – A simple Illustrator for CAD. In Chang, Sheldon Shou Lien, ed.: Fundamentals Handbook of Electrical and Computer Engineering, vol. 3, pp. 477–489. Wiley & Sons, New York. (1988). Personal Distributed Computing: The Alto and Ethernet Hardware. In (Goldberg 1988), pp. 267–289. Thacker, Charles P., E. M. McCreight, B. W. Lampson, R. F. Sproull, and D. R. Boggs (1982). Alto: A Personal Computer [1979]. In Siewiorek, Daniel P., C. G. Bell, and A. Newell, eds.: Computer Structures: Principles and Examples, chap. 33, pp. 549–572. McGraw-Hill, New York.

472 Literatur

Toffler, Alvin (1983). Der Zukunftsschock: Strategien für die Welt von Morgen. Goldmann, München (Original: Future shock, New York 1970). Tomayako, James E. (1983). The Stored-Program Concept: National Computer Conference, Houston, Texas, June 9, 1982. Technology and Culture, 24(4):660–663. Tredennick, Nick (1996). Microprocessor-Based Computers. IEEE Computer, 29(10):27–37. Tropp, Henry S., Moderator, H. D. Benington, R. Bright, R. P. Crago, R. R. Everett, J. W. Forrester, J. V. Harrington, J. F. Jacobs, A. R. Shiely, N. H. Taylor, and C. R. Wieser (1983). A Perspective on SAGE: Discussion. Annals of the History of Computing, 5(4):375–398. Turkle, Sherry (1984). Die Wunschmaschine: Vom Entstehen der Computerkultur. Rowohlt, Reinbek bei Hamburg (Original: The second self: computers and the human spirit, New York 1984). Turkle, Sherry and H. Brody (1996). Session with the Cybershrink: An Interview with Sherry Turkle. Technology Review, 99(2):41–47. U. S. Congress, Office of Technology Assessment (1985). Automation of America’s Offices. Report OTA-CIT-287, Government Printing Office, Washington, D. C. (1995). A History of the Department of Defense Federally Funded Research and Development Centers. Background Paper OTA-BP-ISS-157, Government Printing Office, Washington, D. C. U. S. Congress, Temporary National Economic Committee (1939). Investigations of Concentration of Economic Power. Hearings before the Temporary National Economic Committee, Congress of the United States, 76th Congress, 1st session. Government Printing Office, Washington, D. C. Uncapher, Keith W. (1971). The Rand Video Graphic System – An Approach to a General User- Computer Graphic Communication System. Technical Report R-753-ARPA, Rand Corporation, Santa Monica, CA. Ushijima, David (1985). Inside AppleTalk. Byte, 10(6):185–200. Uttal, Bro (1978). Xerox is Trying Too Hard. Fortune, 97(March 13):84–94. (1981). Xerox Xooms Toward the Office of the Future. Fortune, 103(May 18):44–52. (1983a). The Best Software for Executives. Fortune, 108(December 26):136–142. (1983b). The Lab That Ran Away From Xerox. Fortune, 108(September 5):97–102. Vallée, Jacques (1982). The Network Revolution: Confessions of a Computer Scientist. And/Or Press, Berkeley, CA. Valley, jr., George E. (1985). How the SAGE Development Began. Annals of the History of Computing, 7(3):196–226. Varela, Francisco J. (1992). The Reenchantement of the Concrete. In Crary, Jonathan and S. Kwinter, eds.: Incorporations, vol. 6 of Zone, pp. 320–338. Zone, New York. Vester, Frederic (1991). Neuland des Denkens: Vom technokratischen zum kybernetischen Zeitalter. Deutscher Taschenbuch Verlag, München, 7. Aufl. Wadlow, Thomas A. (1981). The Xerox Alto Computer. Byte, 6(9):58–68. Walker, John (1994). The Autodesk File: Bits of History, Words of Experience. New Riders Publica- tions, Thousand Oaks, CA., 4th ed. Warren, Jr., Jim C. (1976). First World on a Floppy-Disc Operating System. Dr. Dobb’s journal of computer calisthenics & orthodontia, 1:5. (1977a). Personal and Hobby Computing: An Overview. IEEE Computer, 10(3):10–22.

473 Literatur

Warren, Jr., Jim C. (1977b). Personal computing – An overview for computer professionals.InAFIPS Conference Proceedings, 1977 National Computer Conference, vol. 46, pp. 493–498, Dallas, Tex. AFIPS Press. (1983). Personal Computing. In (Ralston and Reilly 1983), pp. 1131–1136. Watson, Richard W. (1971a). An Interactive Network Experiment to Study Modes of Access the Net- work Information Center. Request for Comments # 96, Network Working Group. (1971b). NIC Course. Request for Comments # 276, Network Working Group. (1974). National Software Works Development. Part One – Technical Proposal. Proposal for Research to ARPA Information Processing Techniques Office, SRI No. ISU 74-132, Stanford Research Institute, Menlo Park, CA. Irby Papers, Stanford University Archives, M 671, Box 3, Folder 1. (1976). User Interface Design Issues for a Large Interactive System.InProceedings of the AFIPS 1976 National Computer Conference, vol. 45, pp. 357–364, New York. AFIPS Press. Weaver, John Anthony (1969). Maschinen, die lesen. In: Jungk, Robert und J. Mundt, Hrsg.: Maschi- nen wie Menschen: Maschinen, die lesen, lernen und sprechen, die spielen, planen und steuern. Maschinen mit Kraft, mit Armen, mit Persönlichkeit und Intelligenz. Die perfekte Maschine,S. 67–85. Desch, München, Wien und Basel. Webster, Bruce F. (1984). The Macintosh: System Review. Byte, 9(8):238–246. Weilenmann, Alexander (1977). Cybernetics. In Belzer, Jack, A. G. Holzman, and A. Kent, eds.: Encyclopedia of Computer Science and Technology, vol. 7, pp. 53–70. Marcel Dekker, New York and Basel. Weinberg, Gerald M. (1971). The Psychology of Computer Programming. Van Nostrand Reinhold, New York. Weinberger, David (1995). In your Interface (Interview with Bruce Tognazzini). Wired, 9(3). Weisberg, David E. (1966). Computer Characteristics Quarterly – Recent Trends. Datamation, 12(1):55–56. Weiss, Herbert G. (1991). Interview conducted by John Bryant for the RadLab Oral History Project. Tape Recording #099, IEEE Center for the History of Electrical Engineering, Piscat- away, NJ. Transcript available at http://www.ieee.org/history_center/oral_history/transcripts/ weiss.html [18 Sep 1996]. Weizenbaum, Joseph (1976). Computer Power and Human Reason: From Judgement to Calculation. W. H. Freeman, San Francisco. Wells, Herbert George (1938). World Brain. Methuen, London. Wessells, Michael G. (1990). Kognitive Psychologie. Ernst Reinhardt, München und Basel, 2. Aufl. Weyer, Stephen A. (1982). Searching for Information in a Dynamic Book. Report SCG-82-1, Xerox Palo Alto Research Center, Palo Alto, CA. White, James E. (1971). User Telnet – description of an initial implementation. Request for Comments # 206, Network Working Group. Whorf, Benjamin Lee (1997). Sprache, Denken, Wirklichkeit: Beiträge zur Metalinguistik und Sprach- philosophie. Rowohlt, Reinbek bei Hamburg, 21. Aufl. (Original: Language, Thought, and Reality, Cambridge, Mass. 1956). Wiener, Norbert (1948). Cybernetics or, Control and Communication in the Animal and the Machine. Hermann & Cie, Paris.

474 Literatur

Wiener, Norbert (1957). A Scientist’s Dilemma in A Materialistic World.InColumbia Engineering Quarterly, Proceedings of the Second Combined Plan Conference, Arden House, October 6–9, 1957, pp. 22–24. (1958). My connection with cybernetics. Its origin and its future. Cybernetica, 1(1):1–14. (1960). Die Versuchung: Geschichte einer großen Erfindung. Econ, Düsseldorf (Original: The Tempter, New York 1959). (1964). I am a Mathematician: The Later Life of a Prodigy [1956]. MIT Press, Cambridge, Mass. (1987). Memorandum on the Mechanical Solution of Partial Differential Equations [1940]. Annals of the History of Computing, 9(2):188–193. Wiener, Norbert and D. Campbell (1954). Automatization: Norbert Wiener’s Concept of Fully Mech- anized Industry. St. Louis Post-Dispatch. Wieser, C. Robert (1983). The Cape Cod System. Annals of the History of Computing, 5(4):362–369. Wiesner, Jerome B. (1979). Vannevar Bush: March 11, 1890–June 28, 1974. Bibliographic Memoirs of the National Academy of Sciences, 50(8):89–117. Wildes, Karl L. and N. A. Lindgren (1985). A Century of Electrical Engineering and Computer Science at MIT, 1882–1982. MIT Press, Cambridge, Mass. Wilkes, Maurice V. (1958). The Second Decade of Computer Development. The Computer Journal, 1(3):98–105. (1969). The Growth of Interest in Microprogramming: A Literature Survey. ACM Computing Surveys, 1(3):140–145. (1985). Memoirs of a Computer Pioneer. MIT Press, Cambridge, Mass. (1998). A Revisionist Account of Early Language Development. IEEE Computer, 31(4):22–25. Wilkes, Maurice V. and J. B. Stringer (1953). Micro-Programming and the Design of the Control Cir- cuits in an Electronic Digital Computer. Proceedings of the Cambridge Philosophical Society, 49:230–238. Wilkes, Maurice V., D. J. Wheeler, and S. Gill (1951). The Preparation of Programs for an Electronic Digital Computer. Addison-Wesley, Reading, Mass. Willeke, Stefan (1995). Die Technokratiebewegung in Nordamerika und Deutschland zwischen den Weltkriegen, Bd. 7 d. Reihe Studien zur Technik-, Wirtschafts- und Sozialgeschichte. Peter Lang, Frankfurt am Main. Williams, Gregg (1983). The Lisa Computer System. Byte, 8(2):33–50. (1984a). Apple Announces the Lisa 2. Byte, 9(2):84–85. (1984b). The Apple Macintosh Computer. Byte, 9(2):30–54. (1984c). Update on Apple Macintosh and Lisa 2. Byte, 9(5):339. Williams, Gregg and R. Moore (1984). The Apple Story. Part I: Early History (An Interview with Steve Wozniak). Byte, 9(13):A67–A71. Williams, Gregg and M. Welch (1985). A Microcomputer Timeline. Byte, 10(9):198–208. Williams, Michael R. (1985). A History of Computing Technology. Prentice-Hall, Englewood Cliffs, N.J. Williamson, S. and L. Nobile (1991). Transition of NIC Services. Request for Comments # 1261, Network Working Group.

475 Literatur

Winograd, Terry (1991). Thinking Machines: Can There Be? Are We? In Sheehan, James J. and M. Sosna, eds.: The Boundaries of Humanity: Humans, Animals, Machines, pp. 198–223. Uni- versity of California Press, Berkeley. Winograd, Terry und F. Flores (1992). Erkenntnis, Maschinen, Verstehen: Zur Neugestaltung von Computersystemen. Rotbuch, Berlin, 2. Aufl. (Original: Understanding computers and cogniti- on: a new foundation for design, Norwood, NJ. 1987). Wirth, Niklaus (1986a). Compilerbau. Teubner, Stuttgart, 4 Aufl. (1986b). Lilith: A Personal Computer for the Software Engineer.InProceedings of the 5th International Conference on Software Engineering, pp. 2–15, San Diego, CA. IEEE Computer Society Press. Wise, George (1985). Science and Technology. Osiris, 2nd series, 1:229–246. Wiseman, Neil E., H. U. Lemke, and J. O. Hiles (1969). Pixie: A New Approach to Graphical Man- Machine Communication.InProceedings of the 1969 CAD Conference, vol. 51 of IEE Confer- ence Publications, p. 461, Southampton. Wittgenstein, Ludwig (1989). Tractatus logico-philosophicus: Logisch-philosophische Abhandlung [1921]. Suhrkamp, Frankfurt am Main. Wohl, Amy D. (1977). What’s Happening in Word Processing. Datamation, 23(4):65–71. Wolfe, jr., Thomas Kennerly (1992). Die neue Welt des Robert Noyce: Eine Pioniergeschichte aus dem Silicon Valley. Knaur, München (Original: The tinkerings of Robert Noyce, 1983). Wood, Lamont (1994). The Man Who Invented the PC. American Heritage of Invention & Technology, 10(2):64. Wozniak, Stephen (1977). The Apple-II. Byte, 2(5):34–45. Wright, Peter (1981). The Datamation 100: The Top 100 U.S. Companies in the DP Industry. Data- mation, 27(6):91–192. Yasaki, Sr., Edward K. (1976). Computer Hobbyists Search for Software: Need is ’Terrific’. Datama- tion, 22(6):164–165. (1977). Microcomputers: For Fun and Profit? Datamation, 23(7):66–71. (1984). Big Mac Attack. Datamation, 30(2):61–64. Young, Jeffrey S. (1989). Steve Jobs: Der Henry Ford der Computerindustrie. GFA Systemtechnik, Düsseldorf (Original: Steve Jobs: The Journey is the Reward, Glenview, Ill. 1988). Zachary, G. Pascal (1992). Vannevar Bush Backs the Bomb. The Bulletin of the Atomic Scientists, 48(6):24–31. (1997). Endless Frontier: Vannevar Bush, Engineer of the American Century. Free Press, New York. Zakon, Robert H. (1997). Hobbes’ Internet Timeline. Request for Comments # 2235, Network Work- ing Group. Zopfi, Emil (1995). Verderber der Künste. Die Zeit, 50(48):88.

476 Quellenverzeichnis

Vannevar Bush Papers, Library of Congress, Washington, D.C.

Box Folder Title 128 Speech Articles Mechanization and the Record [1939]

Douglas C. Engelbart Collection, Stanford University Library, Special Collections, Call No. M 638 (SUL/EC)

Main Collection

Box Folder Title 1 1 2 cassette tapes: Douglas Engelbart talking about his papers and related anec- dotes with Henry Lowood 3 Roman Monthly Letter Report No. 8. [Oct. 1966] 4 Roman Monthly Letter Report No. 9. [Nov. 1966] 5 Roman Monthly Letter Report No. 10. [Dec. 1966] 6 Roman Monthly Letter Report No. 11. [Jan. 1967] 7 Roman Monthly Letter Report No. 12. [Feb. 1967] 8 Roman Monthly Letter Report No. 13. [Mar. 1967] 9 Roman Monthly Letter Report No. 14. [Apr. 1961] 10 Roman Monthly Letter Report No. 15. [May 1967] 11 Roman Monthly Letter Report No. 16. [June 1967] 12 Roman Monthly Letter Report No. 17. [July 1967] 13 Roman Monthly Letter Report No. 18. [Aug. 1967] 16 Study for the Development of Human Intellect Augmentation Techniques – Draft. Final Report SRI Project 5890. [July 1968] 18 Pre-Proposals (ARPA; SRI Project 5890). [1966] 29 SRI Project 5890 ARNAS Correspondence. [1965–68] 2 3 SRI Project 5890 ARNAS Requisitions. [1966–67] 6 ARNAS Quarterly Report No. 2. [Aug. 1966] 10 ARNAS Quarterly Report No. 6. [Aug.–Nov. 1967] 17 Group-Work SRI Seminars; »On Augmenting the Human Intellect.« [1960– 61]

477 Quellen

Box Folder Title 3 3 All-Magnetic Logic Systems (Notes & Memos). [1958–59] 4 Misc. notes on All-Magnetic Logic Systems 10 Lab Planning: Computer Techniques Laboratory (CTL) 11 Computer Lab Memorandum. [July 13, 1961] 4 7 Program on Human Effectiveness. [Dec. 1961] 9 Automated Psycho-Motor Skill Training. [Dec. 1961] 5 2 Augmented Human Intellect Program. [1961–62] 7 Proposal for Research: Augmented Human Intellect Study. [Oct. 8, 1962] 17 Memo on Program at SRI on Individual Information-Handling Problems. [Jan. 21, 1961] 6 1 Augmented Human Intellect Program. [March 1, 1962] Augmented Human Intellect Study. [June 12, 1961] 2 EU 60-251 Air Force Office of Scientific Research: »Augmented Human Intellect«. [1960] 3 Scientific Data Systems: SDS 940 Correspondence. [1967] 4 SDS 940 – Internal Memos. [1967] 11 Memo and Correspondence with the Rome Air Development Center (RADC). [1961–64] 12 Correspondence with the Air Force Office of Scientific Research (AFOSR). [1960–1963] 15 Correspondence of Douglas C. Engelbart. [Jan. 1962–Dec. 1963] 7/8 Stanford Research Institute Weekly Time Reports [1966–69] 15 1 Memoranda on facility development; Man-Computer research at SRI. [1965] 2 Douglas C. Engelbart: SRI Correspondence. [January 1964–February 1966] 10 Memorandum on SRI–SDC Transmission Lines. [May 12, 1964] 16 2 Margaret Ann Watson: »User’s Guide for Off-line Text Manipulation Sys- tem.« [March 27, 1967] 3 Andrews and Rulifson: »Tree Meta: A Meta Compiler System for the SDS 940 (Rough Draft).« [Dec. 29, 1967] 4 Copies of »Working document for exploring the machinery necessary to de- scribe the NLS.« [Feb. 1967] 6 Correspondence and Memoranda concerning a Display System for the 940. [1966–68] 11 Memoranda concerning »On-Line-Text-System Commands« [1966–67] 17 2 User Guide Notes for a Work Station. [1967–68] 6 Memoranda. AHI. [1963–64] 7 Papers on Man-Machine Communication. [1959–61] 18 DCE Journals 7 360–7 776 [June 1971–April 1972] 27 DCE ARC Journals 19 601–19 871 [October 1973] 61 ARC Journals 40 006–40 565 [April–May 1977] 62 Podac Papers [1972]

478 Quellen

Additional Collection

Acc. No. Box Title 88-013 2 11 film reels and 6 video tapes

¯ SRI-ARC. A Technical Session Presentation at the Fall Joint Computer Conference in San Francisco, December 1, 1968. 99 minutes.

¯ SRI-ARC. Augmentation Systems and Information Science. Presentation made to the 32nd Annual Meeting of the American Society for Informa- tion Science, San Francisco, October 1, 1969. 104 minutes.

Charles H. Irby Papers, Stanford University Library, Special Collections, Call No. M 671 (SUL/CHIP)

Box Folder Title 2 5 L. Peter Deutsch. Paper about conversion of NLS to run in MPS environ- ment. [Feb. 26, 1973] 3 1 Richard W. Watson. »National software works development.« Proposal for research SRI No. ISU 74-132. SRI-ARC 23 352. Prepared for Information Processing Techniques Office, ARPA. [July 1, 1974] 4 Hay & Rulifson. »MOL940: Preliminary specifications for an ALGOL- like machine-oriented language for the SDS 940.« Interim Technical Re- port 2. Prepared for NASA, Langley Research Center. Contract NAS1-5904. [March 1968] 6 2 Suggestions for organization of NLS software people. [Dec. 29, 1971] 5 SRI-ARC. »NLS-8 Glossary.« [July 16, 1975] 6 SRI-ARC. »Output processor user’s guide.« Journal 32 812. [July 28, 1975] 7 Window user interface documentation. [Jan. 28, 1976] 7 11 Report re. ARC’s envisioned changes and extensions to NLS. [July 25, 1973]

Silicon Valley Ephemera Collection, Stanford University Library, Special Collections, Call No. M 443

Box Title Apple Computer, Inc. Papers, 1977-1992. McDonnell Douglas Information Systems Group Promotional Flyer, 1986. Tymshare, Inc. Papers, 1968-1979.

Interviews

Für dieses Buch wurde eine Reihe von Interviews verwendet, die von Mitarbeitern unterschiedlicher Institutionen geführt wurden.

479 Quellen

Charles Babbage Institute, ARPA-IPTO History Project

¯ Vinton G. Cerf, 24. April 1990 (Judy O’Neill)

¯ Wesley A. Clark, 3. Mai 1990 (Judy O’Neill)

¯ Fernando J. Corbató, 18. April 1989 und 14. November 1990 (Arthur L. Norberg)

¯ Robert M. Fano, 20/21. April 1989 (Arthur L. Norberg)

¯ Edward Feigenbaum, 3. März 1989 (William F. Aspray)

¯ J. C. R. Licklider, 28. Oktober 1988 (William F. Aspray und Arthur L. Norberg)

¯ Allen Newell, 10.–12. Juni 1991 (Arthur L. Norberg)

¯ Jack P. Ruina, 20. April 1989 (William Aspray)

¯ Robert W. Taylor, 28. Februar 1989 (William F. Aspray)

IEEE History Center, RadLab Oral History Project

¯ Herbert G. Weiss, 1991 (John Bryant)

Smithonian Institution

¯ Kenneth H. Olsen, 1988 (David K.Allison)

Stanford University, Silicon Valley Oral History Project

¯ Douglas C. Engelbart, 19. Dezember 1986, 14. Januar 1987, 4. März 1987 und 1. April 1987 (Judith Adams und Henry Lowood)

Quellen im Internet

Kein anderer Bereich der Technikgeschichte ist so gut durch Quellen im Internet dokumentiert wie die Geschichte des Personal Computers und des Internet. Im folgenden sind allerdings vorwiegend solche Bezugsquellen aufgelistet, die unveröffentlichte oder schwer zugängliche Dokumente online verfügbar machen. Angesichts der Schnellebigkeit dieses Mediums kann jedoch für keine der angegebenen Adressen eine Gewähr übernommen werden.

480 Quellen

Bootstrap Institute (Douglas C. Engelbart)

¯ Engelbart, Bootstrapping Organizations into the 21st Century – A Strategic Framework, 1991. (http://www.bootstrap.org/augment-132803.htm)

¯ Duane Stone, AUGMENT’s Support of Organizations – A Brief History, 1991. (http://www.bootstrap.org/augment-132615.htm)

¯ Engelbart, Workstation History and the Augmented Workshop, 1986. (http://www.bootstrap.org/augment-101931.htm)

¯ Engelbart, Toward Integrated, Evolutionary Office Automation Systems, 1978. (http://www.bootstrap.org/augment-71279.htm)

¯ Engelbart, User Interface Design Issues for a Large Interactive System, 1976. (http://www.bootstrap.org/augment-27171.htm)

¯ Engelbart, NLS Teleconferencing Features: The Journal and Shared-Screen Telephoning, 1975. (http://www.bootstrap.org/augment-33076.htm)

¯ Engelbart et al., The Augmented Knowledge Workshop, 1973. (http://www.bootstrap.org/augment-14724.htm)

¯ Engelbart, Design Considerations for Knowledge Workshop Terminals, 1973. (http://www.bootstrap.org/augment-14851.htm)

¯ Engelbart, Coordinated Information Services for a Discipline- or Mission-Oriented Community, 1972. (http://www.bootstrap.org/augment-12445.htm)

¯ Engelbart, Intellectual Implications of Multi-Access Computer Networks, 1970. (http://www.bootstrap.org/augment-5255.htm)

Gordon Greens Homepage (DBIT)

¯ Digital Equipment Corporation, Programmed Data Processor-1 Handbook, 1963.

(http://www.dbit.com/greeng3/pdp1/pdp1.html)

¯ The MIT PDP-1 Timesharing System, o.J.

(http://www.dbit.com/greeng3/pdp1/pdp1.timeshare)

IBM Patent Server

Alle US-Patente seit 1971 (http://www.patents.ibm.com)

IEEE History Center

¯ Oral History Interview with Herbert G. Weiss, 1991. (http://www.ieee.org/organizations /history_center/oral_histories/transcripts/weiss.html)

Information Science Institute (University of California, Los Angeles)

Archiv aller Internet Notes, darunter die »Requests for Comments« der Network Working Group (http://www.isi.edu/publications.html)

481 Quellen

Butler W. Lampsons Homepage (Microsoft)

Ein Großteil von Lampsons Veröffentlichungen seit 1966 ist über seine Homepage verfügbar, aber auch

¯ Lampson, Why Alto? Xerox Internal Memo, 1972. (http://www.research.microsoft.com/users/blampson/38a-WhyAlto/Abstract.html)

John McCarthys Homepage (Stanford University)

¯ McCarthy, Memorandum to P. M. Morse proposing Time Sharing, 1959. (http://www-formal.stanford.edu/jmc/history/timesharing-memo.dvi)

¯ McCarthy, Reminiscences on the History of Time Sharing, 1983. (http://www-formal.stanford.edu/jmc/history/timesharing.dvi)

MouseSite (Stanford University)

Die MouseSite enthält ausgewählte Dokumente aus der Engelbart Collection der Stanford University. (http://sloan.stanford.edu/mousesite/)

Multics Home

Diese Site enthält umfangreiche Informationen zur Entwicklung und Verwendung des Time-Sharing- Systems Multics. (http://www.multicians.org)

National Museum of American History (Smithsonian Institution)

¯ Oral History Interview with Kenneth Olsen, 1988. (http://www.si.edu/resource/tours/comphist/olsen.html)

Sloan School of Management (Massachusetts Institute of Technology)

¯ Forrester, The Beginning of System Dynamics, 1989. (http://sysdyn.mit.edu/ftp/sdep/papers/D-4165-1.pdf)

Xerox Star Dokumentation (Dave Curbow)

¯ Xerox 8010 Information System, ca. 1981.

(http://www.best.com/curbow/xerox/1/index.html)

¯ The Xerox 8010 Speaks Your Language, ca. 1981.

(http://www.best.com/curbow/xerox/2/index.html)

482 Quellen

Xerox Alto Archive (Al Kossow)

¯ Alto OS Reference Manual, 1980. (http://www.spies.com/aek/alto/AltoSWRef.part1.pdf und http://www.spies.com/aek/alto/AltoSWRef.part2.pdf)

¯ Curry et al., Alto BCPL Manual, 1979. (http://www.spies.com/aek/alto/BCPLDoc.pdf)

¯ McCreight, Boggs, and Taft, Alto Hardware Reference Manual, 1979. (http://www.spies.com/aek/alto/AltoHWRef.part1.pdf und http://www.spies.com/aek/alto/AltoHWRef.part2.pdf)

¯ Taft, ed., Alto User’s Handbook, Sept. 1979. (http://www.spies.com/aek/alto/AltoUsersHandbook.pdf)

¯ Taft and Boggs, Alto Boot Protocol, Xerox Internal Memo, Feb. 1979. (http://www.spies.com/aek/alto/AltoBootProto.pdf)

¯ Taft and Metcalfe, Pup Specifications, Xerox Internal Memo, June 1978. (http://www.spies.com/aek/alto/PupSpec.pdf)

Xerox PARC

Die am Xerox PARC entstandenen technischen Berichte, die sogenannten »Blue and White Reports«, sollen mittelfristig vollständig auf der Website des Xerox Palo Alto Research Centers verfügbar ge- macht werden (http://www.parc.xerox.com/publications/)

483

Abkürzungsverzeichnis

AFIPS American Federation of Information Processing Societies AFOSR Air Force Office for Scientific Research AI Artificial Intelligence AN/FSQ Army-Navy/Fixed Special Equipment (computer) ARC Augmentation Research Center ARPA Advanced Research Projects Agency BBN Bolt Beranek and Newman, Inc. BCPL Basic Combined Programming Language bit Binary Digit CDC Control Data Corporation CML(T) Control Meta Language (Translator) CRT Cathode Ray Tube CTSS Compatible Time-Sharing System DEC Digital Equipment Corporation EARS Ethernet – Alto – Research Character Generator – Scanning Laser Output Terminal EDVAC Electronic Discrete Variable Computer ENIAC Electronic Numerical Integrator and Computer FLTS Off-Line Text System FTP File Transfer Protocol H-LAM/T Human using Language, Artifacts, and Methodology, in which he is Trained IAS Institute for Advanced Study IBM International Business Machines Inc. IC Integrated Circuit IEEE Institute of Electrical and Electronics Engineers IFS Interim File Server IPTO Information Processing Techniques Office JOVIAL Jules’ Own Version of the International Arithmetic Language

485 Abkürzungsverzeichnis

KI Künstliche Intelligenz Lisp List Processing Language Maxc Multiple Access Xerox Computer MIT Massachusetts Institute of Technology MAC Machine-Aided Cognition Multiple Access Computer MOL Machine-Oriented Language NASA National Aeronautics and Space Agency NDRC National Defense Research Committee NIC Network Information Center NL(T)S On-Line (Text) System ONR Office of Naval Research PARC Palo Alto Research Center PC Personal Computer PDP Programmed Data Processor RADC Rome Air Development Center RFC Request for Comments RAND Research Associates for National Defense RCG Research Character Generator SDC Special Devices Center (U. S. Navy) System Development Corporation SDD Special Devices Division (U. S. Navy) System Development Department (Xerox) SDS Scientific Data Systems SLOT Scanning Laser Output Terminal SRI Stanford Research Institute SUL/CHIP Stanford University Library, Charles H. Irby Papers SUL/EC Stanford University Library, Engelbart Collection TSS Time-Sharing System WYSIWYG What you see is what you get XGP Xerox Graphics Printer

486 Tabellenverzeichnis

1 Daten für ausgewählte kommerzielle Computer, 1961, aus Smith 1989, S. 295. 116

2 Direktoren des Information Processing Techniques Office, 1962–1979, aus Norberg et al. 1996, S. 16...... 126

3Größe und Technologie der beim Alto verwendeten Speicherbausteine, aus Thacker et al. 1982, S. 550...... 267 4 Entwurfsschablone für die Klasse Box, aus Goldberg and Kay 1977a, S. 22. . . 321

5 Vier Generationen von Personal Computern ...... 406

487 Tabellenverzeichnis

488 Abbildungsverzeichnis

1 Vannevar Bush um 1945, aus Bush 1990, S. ii ...... 36 2 Rockefeller Differential Analyzer um 1942. Quelle: MIT Archiv ...... 38 3 Schema des Rapid Selectors, aus Bagg and Stevens 1961, S. 20...... 49 4 Memex in der Form eines Arbeitstischs, aus Bush 1945a, S. 123...... 54 5 Wissenschaftler mit der Zyklopenkamera, aus Bush 1945a, S. 112...... 58 6 Supersekretär der Zukunft, aus Bush 1945a, S. 114 ...... 60 7 Assoziative und hierarchische Datenorganisation. Zeichnung des Autors . . . . . 62 8 Memex während der Benutzung, aus Bush 1945a, S. 124...... 64

9 Norbert Wiener um 1950. Quelle: MIT Archiv...... 76 10 Jay W. Forrester und Robert R. Everett um 1950. Quelle: MITRE Corporation. 80 11 Blockdiagramm des Whirlwind-I-Computers, aus Everett and Swain 1947, Fi- gure 1...... 82 12 Kontrollraum um 1950, aus Beauclair 1968, S. 118...... 83 13 Whirlwind-I-Computer im Aufbau (um 1949), aus Beauclair 1968, S. 118. . . . 84 14 Schema einer Steuerung und eines Simulators unter Verwendung eines Digi- talcomputers, aus Crawford 1985, S. 391...... 87 15 Blockdiagramm des Whirlwind-I-Computers, aus Everett and Swain 1947, Fi- gure 46...... 94 16 Datenfluß im SAGE-System, aus Everett et al. 1957, S. 149...... 97 17 Funktionen des Menschen im SAGE-System, aus Everett et al. 1957, S. 152. . 98 18 Ausgabe auf dem Bildschirm des Oszilloskops, aus Everett 1951, S. 71...... 99 19 Aufbau einer Charactron-Röhre, aus Sutherland 1966, S. 93 und Darstellung des Situation Display, aus Everett et al. 1957, S. 151...... 101 20 Anzeige des Digital Information Display, aus Everett et al. 1957, S. 151...... 102 21 Aufbau eines Lightpen, aus Sutherland 1966, S. 91...... 103 22 Lightgun und Lightpen, aus Ross 1988, S. 65 und Foley and van Dam 1982, S. 193...... 104 23 Operator mit Lightgun an einem SAGE-Bildschirmterminal. Quelle: The Com- puter Museum History Center ...... 105 24 Programmentwicklungszyklus, aus Benington 1983, S. 356...... 108 25 TX-0 und TX-2 Computer, aus Wildes and Lindgren 1985, S. 327...... 112

489 Abbildungsverzeichnis

26 DEC PDP-1/A-Prototyp. Quelle: http://metalab.unc.edu/pub/academic/computer- science/history/pictures/pdp1_1.jpg [14. April 1999] ...... 115

27 Joseph C. R. Licklider um 1960, aus Norberg 1996, S. 44...... 120 28 Konferenz der ARPA Principal Investigators im Dezember 1962 in Santa Mo- nica, aus Baum 1981, zwischen S. 150 und 151...... 127 29 Computerterminal eines Time-Sharing-Computers mit Bildschirm, Lichtgrif- fel und Tastatur, um 1965, aus Frank 1965, S. 51...... 132 30 Beispiel einer Computersitzung am SDC-Time-Sharing-System, aus Schwartz et al. 1964, S. 406...... 133 31 Online-Hilfe des Berkeley Time-Sharing Systems, aus Rosenberg 1966, S. 74. 134 32 Herbert Teagers ambitionierter Entwurf eines Computerterminals von 1961, aus Lee 1992b, S. 27...... 137

33 Douglas C. Engelbart um 1968. Quelle: Bootstrap Institute ...... 140 34 Struktur des H-LAM/T-Systems, aus Engelbart 1963, S. 11...... 155 35 Regelkreis beim Bootstrapping. Zeichnung des Autors ...... 161 36 Engelbarts einfaches Modell der menschlichen Informationsverarbeitung, aus Engelbart 1988, S. 215...... 169 37 Engelbarts Modell der Mensch-Computer-Kommunikation, aus Engelbart 1965, S.7...... 170 38 Emile Baudots Manipulator von 1874, aus Guillemin 1891, S. 641...... 172 39 Einhandtastatur (Five-finger keyset). Quelle: Bootstrap Institute ...... 174 40 Bildschirmarbeitsplatz, an dem 1963/64 die Experimente mit unterschiedli- chen Eingabegeräten durchgeführt wurden. Quelle: Bootstrap Institute ...... 177 41 Experimentelles Eingabegerät. Quelle: Bootstrap Institute ...... 179 42 Planimeter der Firma G. Coradi, Zürich (1894), aus Horsburgh 1982, S. 201. . 180 43 Erste von William K. English konstruierte Maus aus dem Jahre 1964. Quelle: SRI International ...... 181 44 Unterschiedliche Ziele bei den Textauswahl-Versuchen, aus English et al. 1967, S.8...... 182 45 Beispiel für eine Ein- und Ausgabe beim Offline-Text-System, aus Engelbart 1965, S. 29, bearbeitet durch den Autor ...... 188 46 Einfaches Terminal für das Online-System. Quelle: Bootstrap Institute ...... 193 47 Raster- und Vektorgrafik, aus Sutherland 1970, S. 65...... 194 48 Kanal für spezielle Systemkomponenten, aus Engelbart 1969, S. 10...... 196 49 Teil des Bildschirmsystems. Quelle: Bootstrap Institute ...... 197 50 Kooperatives Arbeiten am Bildschirm, 1967. Quelle: Bootstrap Institute . . . . . 198 51 Yoga Workstation. Quelle: Bootstrap Institute...... 199 52 Herman Miller Workstation. Quelle: Bootstrap Institute ...... 200 53 Beziehungen zwischen den Systemkomponenten des Online-Systems, aus En- gelbart 1969, S. 41...... 202 54 Beschreibung eines Teils der Textbearbeitungsbefehle in Form eines Zustands- diagramms, aus Engelbart 1969, S. 36...... 204

490 Abbildungsverzeichnis

55 Struktur des On-Line Systems, aus Engelbart 1988, S. 219...... 206 56 Hierarchische Struktur der Statements in einem NLS-Dokument, aus van Dam and Rice 1971 ...... 207 57 Teil eines CML Programms, aus Engelbart 1968, S. 20...... 208 58 Teil eines Textdokuments, aus Engelbart 1968, S. ii ...... 209 59 Bildschirmfoto von Engelbarts Präsentation auf der Fall Joint Computer Con- ference 1968. Quelle: Bootstrap Institute ...... 216 60 Ausschnitt aus der Datei HISCO, aus Engelbart and SRI-ARC Staff 1972a, Fig. III-29...... 219 61 Baseline Record System, aus Engelbart and SRI-ARC Staff 1972b, S. 45. . . . . 221 62 ARC Journalverzeichnis, aus Engelbart and SRI-ARC Staff 1972b, S. 34. . . . . 222 63 Lawrence G. Roberts, um 1970. Quelle: http://www.packet.cc ...... 224 64 Struktur des ARPANET im Mai 1973, aus Baudelaire 1979, S. 125...... 225

65 Gebäude des Xerox Palo Alto Research Centers, Quelle: Xerox PARC ...... 240 66 George E. Pake, aus Morgan 1997, S. 291 und Robert W. Taylor, aus Brand 1974, S. 67 ...... 241 67 Charles P. Thacker und Butler W. Lampson im Januar 1986, aus Goldberg 1988, S. 266, 292...... 243 68 Typische Beanbag Conference, Quelle: Xerox PARC ...... 244 69 Gliederung des Xerox Palo Alto Research Center in den siebziger Jahren, Zeichnung des Autors...... 245 70 Gordon Moores »Gesetz«, aus Moore 1979...... 250 71 Alan C. Kay. Quelle: Apple Computer ...... 252 72 Selbstporträt des Flex, ca. 1968, aus Kay 1996, S. 521...... 253 73 Dynabooks in Gebrauch, aus Kay 1972b ...... 255 74 Bearbeiten eines Textes mit handschriftlichen Eingaben, aus Kay 1972a . . . . . 256 75 Entwurf für den miniCOM, aus Kay 1996, S. 527...... 259 76 Chronologische Übersicht über die am PARC entwickelten Computer und Programme, aus Lampson 1988, S. 298...... 262 77 Alto II Workstation, Quelle: Xerox PARC ...... 264 78 Blockschaltbild des Alto-Prozessors, aus Thacker et al. 1982, S. 554...... 265 79 Übersicht der Möglichkeiten zum Anschluß von Ein- und Ausgabegeräten an den Alto, aus Thacker et al. 1982, S. 552...... 268 80 Darstellung des Buchstaben a auf einem Rasterbildschirm und im Speicher, Zeichnung des Autors...... 270 81 Struktur der Videodaten und ihre Darstellung auf dem Bildschirm, aus Tha- cker et al. 1982, S. 557...... 272 82 Aufbau der 1972 von Ronald Rider am PARC konstruierten Maus, aus Rider 1974, Fig. 2, 3 und Hawley et al. 1975, Fig. 1...... 274 83 Situationsabhängige Cursorformen, aus Smith et al. 1983, S. 311...... 275 84 Struktur des Alto Dateisystems, aus Thacker et al. 1982, S. 559 ...... 278 85 Robert M. Metcalfe und Ronald E. Rider, Quelle: Xerox PARC ...... 281 86 Struktur eines Ethernet, aus Metcalfe and Boggs 1976, S. 397...... 283

491 Abbildungsverzeichnis

87 Die Pup-Protokoll-Hierarchie, aus Boggs et al. 1980, S. 614...... 287 88 Struktur des Xerox-Netzwerks, aus Dalal 1982, S. 83...... 289 89 Bildaufbau beim Scanned Laser Output Terminal und bei Dover. Zeichnung des Autors...... 294 90 Xerox 9700 Laserdrucker, aus Starkweather 1980, S. 181...... 296 91 Bildschirmdarstellung des Bravo-Editors, aus Meyrowitz and van Dam 1982, S. 372...... 300 92 Ersetzen von Text im modusfreien Smalltalk-Editor ...... 304 93 Ausschnitt aus einer typischen Markup-Illustration und Programmenü, aus Newman 1979, S. 88, 96...... 306 94 Mit Draw erstellte Zeichnungen, aus Baudelaire 1979, S. 115, 118, 120, 126. . 308 95 Mit Sil erstelltes Schaltbild und Signaldiagramm, aus Lampson 1988, S. 328. . 309 96 Kathy Mansfields aus regelmäßigen Vielecken zusammengesetzter Clown und Marian Goldeens Zeichenprogramm mit einer Stempelpalette, aus Goldberg and Kay 1977a, S. 11, 12...... 318 97 Susan Hammetts Zeichenprogramm mit Textmenü, aus Goldberg and Kay 1977a, S. 13...... 319 98 Benutzungsoberfläche von Cedar, aus Lampson 1988, S. 319...... 329 99 Benutzungsoberfläche von Smalltalk-76, aus Thacker 1988, S. 317...... 331 100 Programmieren mit Vererbung, aus Kay 1984, S. 43...... 333 101 NoteTaker, aus Perry and Wallich 1985, S. 74...... 339 102 Xerox 8010 »Star« Workstation. Quelle: Xerox Corporation...... 345 103 Icons, wie sie für die Benutzungsschnittstelle des Star verwendet wurden, aus Smith et al. 1982, S. 520f...... 346 104 Fortschreitende Enthüllung der Information, aus Johnson et al. 1989, S. 17. . . . 347

105 Werbung für die People’s Computer Company, aus Freiberger and Swaine 1984 357 106 Digitales Utopia. Quelle: Robert Tinney; Photo: Smithsonian Institution . . . . . 359 107 MITS Altair 8800 (1975). Quelle: Obsolete Computer Museum ...... 366 108 Steven Jobs und Steve Wozniak, aus Morgan 1997, S. 109, 191...... 371 109 Apple II (1977). Quelle: The Computer Museum ...... 372 110 IBM Personal Computer (1981). Quelle: IBM Deutschland ...... 375 111 Werbung für den IBM Personal Computer XT (1983). Quelle: Byte 8/1983, S. 80f...... 377 112 Apple Lisa 2, aus Birss 1984, S. 322 ...... 382 113 Von Apple konstruierte Maus mit optischer Abtastung und nur einem Taster, aus Lapson and Atkinson 1984, Fig. 2 ...... 383 114 Desktop der Apple Lisa, aus Craig 1994 ...... 386 115 Jeff Raskin, aus Markoff and Shapiro 1984, S. 352 ...... 394 116 Apple Macintosh, aus Williams 1984b, S. 30 ...... 399 117 Verkaufsprognose für 1984 aus dem Macintosh-Produkteinführungsplan vom 7. November 1983, aus Kawasaki 1991, S. 37 ...... 401

492 Sach- und Namensregister

Abramson, Norman ...... 276 Dialogentwurf ...... 197 Advanced Research Projects Agency (ARPA) Ein- und Ausgabegeräte.....164–180 65, 105, 120–133, 142, 145, 159– Einhandtastatur . . . 167, 169, 170, 188, 162, 164 211, 223 Air Defense System Engineering Committee Finanzierung ...... 159–164, 410–412 85 Journal ...... 216–218 Air Force Office of Scientific Research . 139, Kooperatives Arbeiten ...... 193 144, 145, 159, 160 Krise und Schließung...... 230 Aircraft Stability and Control Analyzer . . 75, Line Processor ...... 223 78, 81 Maus ...... 174, 177, 179, 206, 213 Akteur-Netzwerke ...... 16–18 Network Information Center . 220–225 Aldus PageMaker ...... 402 NLS-Vorführung (Dez. 1968) 210–213 Allen, Paul...... 366 Offline-Text-System (FLTS).182–186, ALOHAnet ...... 276 198 Altair 8800...... 364, 363–365 Online Community ...... 215 Amara, Roy...... 159, 161 Online-System (NLS) . . 186–210, 225, American Documentation Institute . . 53, 140 243, 254, 293, 295, 298, 299, 324, American Engineering Council ...... 39 330 Analogrechner...... 32,34,51–52 Personal...... 163 Anderson, Harlan ...... 105, 110 Rezeption der Forschungen . . 141, 213 Andrews, Don ...... 194, 201 Tastaturen ...... 167 Antiaircraft Director ...... 71,73 Time-Sharing 159, 161, 162, 164, 181, Apple Computers ...... 368–372, 375–404 186–188, 225–226 Verwendung des NLS...... 214–216 Apple II ...... 345 Apple ][ ...... 369, 370 Batchbetrieb ...... siehe Stapelbetrieb Börsengang...... 372 Bates, Roger ...... 230 LaserWriter ...... 402 Baudelaire, Patrick ...... 303 Lisa...... 375–390 Beanbag Conference...... 240, 241 Lisa 2 ...... 380, 390 Bell Telephone Laboratories . . . 87, 103, 127 Lisa OS...... 382–383 Belleville, Robert L...... 230, 338, 396 Macintosh. . . . 397, 391–404, 424–425 Bennington, Herbert ...... 105, 123, 124 Macintosh Office...... 402 Bergmann, L...... 54 Macintosh OS ...... 394 Berkeley Computer Corp...... 238 Macintosh XL ...... 399 Bigelow, Julian ...... 71,73 Marketing ...... 398 BitBlt (Bit field block transfer) 319, 336, 383 Preisgestaltung...... 396 Bobrow, Daniel ...... 142, 285, 313 Produktion ...... 396 Boggs, David ...... 272, 279, 281, 286 ARPANET ...... 216, 221, 219–225 Bolt, Beranek and Newman, Inc. . . 111, 119, Network Information Center . 220–225 125, 127, 219 Atkinson, William D. (Bill) . . . 378, 382, 383 Bootstrapping . 133, 157, 155–158, 195–202, Augmentation Research Center (ARC) . 133, 228–229, 254, 301, 306, 338–339 145–231 Brainard, Paul ...... 402 Benutzerexperimente...... 176–179 Brand, Stewart ...... 353, 359 Computerbildschirm. . . .171, 188–195 Brooks, Frederick...... 339, 345, 404 Datenhandschuh ...... 170 Brown, Gordon S...... 75

493 Sach- und Namensregister

Bruner, Jerome...... 251, 322 VAX-11 ...... 337, 346 Bush, Vannevar32,31–67, 70, 71, 74–76, 83, Digital Research ...... 372, 403 118, 119, 405 Dion, Frederick A...... 145 »As we may think« (1945)...... 34, Drucker, Peter F...... 147 47–48, 51, 63, 65, 135, 137, 203, Dudley, Homer ...... 55 206, 356 Duvall, William S...... 230, 244 als Standespolitiker ...... 35–39 Dynabook 251, 251–253, 256, 307, 312, 317, Digitaltechnik ...... 42–44, 64 335, 347, 391, 405 und Wissenschaftsorganisation . 34, 66 Echtzeitcomputer ...... 70,78,84,86 Caldwell, Samuel H...... 33,76 Eckert, J. Presper ...... 69 Capps, Steve ...... 395 Edwards Paul N...... 16 Card, Stuart K...... 339 Electronic Systems Division (ESD) .....162 Carlson, Chester F...... 233 Elkind, Jerry ...... 240, 255, 276, 350 Carnegie Institution ...... 34,44,63 Ellenby, John ...... 271, 333, 348 Cheadle, Edward...... 249 Engelbart, Douglas C...... 66,133, 136, Clark, Wesley A...... 106, 240 135–231, 253, 256, 293, 348 Command and Control Systems 84, 121–126 »Augmenting Human Intellect: A Con- Community Memory ...... 355 ceptual Framework« (1962)145– Compton, Karl T...... 85 158 Computerlinguistik ...... 153 Rolle der Sprache ...... 148–154 Computersimulation . 83, 118, 308, 315, 318 Sensomotorische Fähigkeiten . . 165 Control Data Corp. Bootstrapping ...... 155–158 CDC 160-A ...... 162, 164, 186 Intelligenzverstärker...... 137 CDC 3100...... 173 Koevolutionäre Entwicklung 168, 194, CDC 3100 . . . 164, 185–187, 195, 196 200, 210 Coombs, John ...... 44 Kontakte mit der KI-Forschung . . . 142 Corbató, Fernando J...... 123, 125 Konzeptioneller Rahmen . . . . 142–154 Couch, John D...... 376, 377, 379, 393 Managementstil ...... 141, 161 CP/M ...... 367 Mikrodokumentation...... 140–142 Crawford, Jr., Perry O. . . . . 76, 77, 82, 83, 87 Neo-whorfsche Hypothese . . 154, 158, Culler, Glen ...... 182 186 Cyborg ...... 148 Studium ...... 135, 137 Engineering Research Associates ...... 65 Data General Nova . 244, 256, 262, 302, 358, English, William K. 163, 174, 175, 177, 179, 363, 420, 422, 423 180, 187, 188, 191, 194, 210, 230, Davis, Watson ...... 53 238, 243, 244, 255 Dennis, Jack...... 125 ENIAC ...... 69,76 Desktop Publishing ...... 402 Estridge, Philip D...... 372 Desssauer, John...... 234 Evans, David A...... 146, 209, 217, 218 Deutsch, L. Peter . . . 188, 285, 313, 320, 355 Evans, David C...... 130, 247, 249 Differential Analyzer . 32–34, 40, 42, 51, 69, Everett, Robert R...... 70,76,75–105 71, 75 Digital Equipment Corp. 110–112, 234, 348, Faggin, Federico ...... 360 350, 362 Fairbairn, Douglas...... 335, 348 DECSYSTEM-10 ...... 367 Fano, Robert M...... 127 Module ...... 110 Feigenbaum, Edward ...... 130, 142 PDP-1 ...... 111, 111–112, 119, 125 Feinler, Elizabeth ...... 223 PDP-10 ...... 112, 127, 221, 242, 256 Fiala, Ed ...... 240 PDP-6 ...... 112, 221 Finletter, Thomas K...... 91 PDP-8 ...... 358, 360, 363 FLEX...... 249, 254

494 Sach- und Namensregister

Flexowriter ...... 108, 111, 128, 171 Howard, John ...... 44,46 Florez, Luis de...... 75 Human Factors Engineering . . . . . 60, 73, 116 Flugsimulator ...... 76,77,87 Humboldt, Wilhelm von ...... 154 Forrester, Jay W...... 33,70,76,75–105 Humphrey, Tom L...... 182, 183 Fredkin, Edward ...... 125, 126, 159 Hyatt, Gilbert...... 361 Hypertext ...... 47,206, 231 Gates, William H. (Bill) ...... 366, 372, 401 Gegenkultur ...... 194, 354 IAS Computer...... 70,82 General Electric ...... 127 Informationsproblem. . . .39, 48, 52, 63, 117, General Problem Solver ...... 142 140, 141, 235, 407 Geschke, Charles ...... 292, 348, 402 Ingalls, Daniel H. . . 275, 312, 319–321, 331, Ginn & Company . . . 244, 293, 299–301, 332 378, 383 Goldberg, Adele J. . 307, 313, 314, 316, 329, Intel Corporation ...... 360–362 336, 378 International Business Machines (IBM). . 77, Goldman, Jacob E...... 234, 235, 333 91, 100, 103 Grafacon ...... 174, 176 AN/FSQ-32 ...... 126, 161 Grafikprogramme ...... 301–306 AN/FSQ-7 ....77,100, 103, 107, 126 Grafiktablett...... 174 IBM704...... 109 Grafische Benutzungsoberfläche. . .206, 403, IBM 7090 ...... 111, 125 405 Personal Computer . 11, 373, 372–374 Apple Lisa ...... 384, 383–386 System/360 ...... 131, 243 Apple Macintosh ...... 395 Irby, Charles H...... 212, 230 Bedienelemente ...... 326 Benutzermodell ...... 339 Jeffers, Chris ...... 318 Fenster...... 297, 324–327 Jobs, Steven. . .369, 368–372, 375–377, 379, Icons253, 325, 340, 342, 383, 386, 389 382, 391, 393, 395, 396, 400, 401 Interaktionsmodell ...... 330, 331 Menüs...... 253, 330 Kaehler, Ted ...... 318–320 Microsoft Windows ...... 386, 403 Kathodenstrahlröhre...... 94–98 NLS...... 203–205 Charactron ...... 96,97, 98, 124 Pop-up-Menü ...... 303 Typotron ...... 98,98 Schreibtisch-Metapher ...... 326, 340 Kay, Alan C.26, 212, 238, 245–257, 265, 275, Smalltalk ...... 322–331 299, 301, 307–331, 334, 335, 339, Xerox Star ...... 339–343 340, 347, 348, 350, 378, 400, 405, GRAIL (RAND Corporation) 252, 323, 324, 406 326 Kemeny, John G...... 366 Graphische Benutzungsoberfläche Kilby, Jack ...... 245 Benutzerillusion ...... 323 Kildall, Gary ...... 367 Kirkley, Charles R...... 198 Hacker . . . 109, 112, 125, 131, 354, 358, 366, Kodak Ltd...... 44 374, 375, 394 Kuhn, Thomas S...... 19,143 Handlungspläne...... 153 Kurtz, Thomas...... 366 Hay,Ray...... 200, 201 Kybernetik ...... 70–74 Hazen, Harold L...... 32,75 Organisationslehre ...... 115 Hertzfeld, Andy ...... 394 Systemisches Denken ...... 73 Hewlett-Packard ...... 358, 376 Vernetztes Denken...... 73 Hoff, Marcian E. (Ted) ...... 360 Künstliche Intelligenz ...... 70,113, 142 ...... 369, 375 Homecomputer ...... 131, 362–372 Lampson, Butler W. 188, 212, 238, 239, 242, Horn, Bruce ...... 395 256, 257, 271, 272, 278, 289, 293, Howard, Brian ...... 391 294, 306, 312, 337, 338, 348, 350

495 Sach- und Namensregister

Lange, Bruno ...... 54 Datenorganisation ...... 58,57–60 Levy,Steven...... 14 Einlesen gedruckter Vorlagen...... 57 Licklider, Joseph C. R.. . .65, 116, 123, 115– Idee ...... 39–42 133, 159–162, 169, 219, 224 Mikrofilmspeicher ...... 52–53 »Man-Computer Symbiosis« (1960)65, Neue Typen von Enzyklopädien . . . 61 119–120, 159 Spracheingabe ...... 55–57 als IPTO-Direktor ...... 120–133 Verwendung...... 60–63 Psychoakustik ...... 116 Zyklopenkamera ...... 54,54–55 Selbstbeobachtung (1957)...... 117 Mensch-Computer-Kommunikation . 92–101 Liddle, David ...... 333, 345, 348 Merry, Diane ...... 319, 320, 326 Lightgun ...... 100, 100 Metcalfe, Robert M. 277, 276–282, 333, 350 Lightpen . . . . 99, 100,99–100, 111, 124, 173 Microsoft Corp. . . . . 349, 366–367, 371, 372, Lincoln Laboratory ...... 91–110, 138 374, 401 Memory Test Computer...... 105 Basic ...... 368, 399 TX-0 ...... 108, 106–111 MS-DOS ...... 367 TX-2 ...... 108, 106–110 Multiplan ...... 401 Lindgren, Nilo...... 209 Windows ...... 386, 403 Linguistisches Relativitätsprinzip ...... 153 Word...... 298 Luftraumüberwachung ...... 78,84,85,87 Mikrofilm...... 44,52–53 Mikroprozessor ...... 15,359–362, 373 Magnetkernspeicher ...... siehe Miller, George A...... 116 Whirlwind-I-Computer Minox ...... 55 Manhattan Project...... 34 Minsky, Marvin L...... 123, 127 Manock, Jerry ...... 396 Mitchell, Jim ...... 240 Markkula, Amas Clifford (Mike) . . 370–372, Mooers, Calvin ...... 141, 183 391, 398 Moore School Lectures ...... 82 Marx, Karl ...... 155 Moore School of Electrical Engineering . 69, Marx, Leo...... 356 78, 82 Massachusetts Institute of Technology Moore, Gordon ...... 246 Center of Analysis . . 32, 33, 42, 43, 74 Moores »Gesetz« . . 245–246, 250, 254, 334, Project Intrex ...... 65 400 Project MAC ...... 127, 132, 161 Moran, Thomas P...... 339 Project Whirlwind ...... 33,74–91 Morton, Paul ...... 138 Blockdiagramme ...... 88–89 Mott, Tim ...... 299 Charakter ...... 86–88 KonfliktmitdemONR...... 81 National Aeronautics and Space Agency120, L-Reports ...... 83–85 144, 145, 159–164 Servomechanisms Laboratory . . 75, 88 National Cash Register Company ...... 44 Massaro, Don ...... 345 National Defense Research Committee . . 34, Mauchly, John ...... 69 71, 74, 87 Maus .....174, 177, 269, 270, 379, 380, 381 National Science Foundation ...... 39 McCarthy, John ...... 125, 129, 200, 354 Navy Comparator ...... 40,42–46 McColough, Peter . . 234, 235, 242, 306, 332 Negroponte, Nicholas ...... 323 McCreight, Edward...... 257, 286 Nelson, Theodor ...... 206, 359 McDaniel, Gene ...... 272 Neumann, John von ...... 70,82,87,88 McDonald, Waldron S...... 42,43 Newell, Allen ...... 142, 339 McLuhan, Marshall ...... 25,152, 308 Newman, William M...... 292, 302 Medium...... 26–27, 148–154, 308 Norberg, Arthur L...... 16 Memex ...... 34,39,50, 56, 60,47–67 Noyce, Robert ...... 245, 360 Benutzer ...... 50–51 Bildschirm...... 50,57,59 Oberflächengrenzschicht-Transistor. . . . . 107

496 Sach- und Namensregister

Objektorientiertes Programmieren . 247–249, Rider, Ronald ...... 277 309–312, 327–331 Rider, Ronald E...... 269, 289, 333 Office of Naval Research . 77, 81–83, 85, 87, Roberts, H. Edward ...... 363 88 Roberts, Lawrence G.. . . .122, 219, 220, 224 Office of Scientific Research and Develop- Rockefeller Differential Analyzer . 33, 33,76 ment ...... 34,39, Rockefeller-Stiftung ...... 33,42,43 123 Rome Air Development Center (RADC)145, Olsen, Kenneth H...... 105, 106, 109, 110 163 Olsen, Stanley ...... 110 Roosevelt, Franklin D...... 34 Rosenblatt, Frank ...... 142 Pake, George E.237, 237–240, 333, 348, 378 Rulifson, Johns F. . . 198, 200, 201, 211, 230, Paketvermittlung ...... 219, 276, 282 238 Papert, Seymour ...... 127, 250, 307, 313 Russell, Steve ...... 131, 315 Paxton, William H...... 195, 201, 230, 238 Rückkopplung ...... 70,72,92,155, 228 People’s Computer Company ...... 355 Pfaffenberger, Bryan ...... 356 Schwartz, Jules I...... 123, 126 Photozelle ...... 42,54,57 Scientific Data Systems...... 127 Piaget, Jean ...... 251, 313, 322 Übernahme durch Xerox ...... 234 PostScript ...... 292 SDS930...... 127, 187 Product Integraph ...... 32 SDS 940 164, 187, 195, 200, 201, 216, Profile Tracer ...... 32 221 Programmiersprachen Scott, Mike ...... 371, 392 ALGOL...... 150, 185, 196, 200, 262 Sculley, John...... 398, 399 BASIC ...... 365–367, 399 Semi-Automatic Ground Environment . . . 77, BCPL...... 262, 271, 325, 420, 421 78, 85, 93,91–105 COBOL ...... 150 Bedienerkonsole ...... 94,94–100 EULER ...... 249 Cape Cod System . ....91,94,96,103 FORTRAN ...... 150 Datenübertragung ...... 93 IPL...... 126, 150 Ein- und Ausgabegeräte...... 92–101 JOVIAL...... 126 Mensch-Computer-Kommunikation92– LISP . . . 150, 242, 243, 262, 285, 313, 101, 116 420–422 Programmierung...... 101–105 LOGO...... 250, 309, 310, 313 Project Charles ...... 91,116 Mesa ...... 262, 325, 331, 338, 347 Project Lincoln...... 91 MOL...... 197, 200–202 Shannon, Claude E...... 71 SIMULA...... 248, 249, 309 Shaw, Clifford ...... 142 Smalltalk...... 262, 307–378 Shaw, Ralph R...... 65 Prozeßrechner ...... 70,81 Shima, Masatoshi ...... 360 Shoch, John ...... 313, 318 Quick Draw ...... 383, 393–395 Simon, Herbert A...... 142, 143, 229 Simonyi, Charles. . .278, 293, 294, 298, 333, RAND Corporation ...... 92,103, 138 348, 349, 401 Raphael, Bertram...... 142, 230 Sketchpad...... 107, 182, 247 Rapid Arithmetical Machine ...... 76 Slosson, Edwin ...... 53 Rapid Selector 40, 45,42–47, 52, 57, 60, 64, Smith, Burrell...... 391, 392 65 Smith, David C...... 230 Raskin, Jef ...... 377, 392, 391–393 Software Engineering ...... 105, 227 Rees, Mina ...... 87 Spacewar ...... 131, 312, 315 Relativitätsprinzip, Linguistisches. .152–154 Special Devices Division . . 75, 77, 82, 83, 87 Resource One ...... 354 Speicherröhren siehe Whirlwind-I-Computer Rheingold, Howard ...... 14 Sproull, Robert F...... 272, 292

497 Sach- und Namensregister

Sputnik-Schock...... 120 Valley, George E...... 85 Stanford Research Institute (SRI) . . . 66, 127, VisiCalc ...... 371, 372, 374, 403 138 Vocoder...... 55 ARC . . . siehe Augmentation Research Voder...... 55 Center (ARC) Von-Neumann-Architektur ...... 69,78 Computer Techniques Laboratory . 139 ERMA-System ...... 138 Wallace, Donald ...... 230 Gründung ...... 138 Wang Laboratories ...... 334 Interdisziplinäre Seminare ...... 144 Warnock, John ...... 250, 292, 348, 402 Umbenennung ...... 138 Watson, Margaret Ann ...... 201 Stapelbetrieb ...... 93,109, 118 Watson, Richard W...... 223, 227, 230 Starkweather, Gary K...... 254, 288, 289 Weizenbaum, Joseph ...... 127 Steinhardt, Lawrence ...... 44 Wells, H. G...... 53,61 Stewart, Herbert R...... 32 Wensley, John H...... 161 Strachey, Christopher ...... 124 Werkzeug...... 25–26 Sutherland, Ivan E. . 107, 122, 182, 219, 247 Weyer, Stephen A...... 313, 318 Sutherland, William ...... 348 Whirlwind-I-Computer70, 79, 80,77–91, 98, Swanson, Rowena ...... 139, 159 100, 102, 105, 112 System Development Corporation . 103, 138, Magnetkernspeicher ...... 106 161 Peripheriegeräte...... 78 Speicherröhren ...... 77,98 Systemarchitektur ...... 78,78–80, 90 Taft, Ed ...... 240 Whorf, Benjamin Lee ...... 152–154 Taschenrechner ...... 358–359 Wiener, Norbert ...... 72,71–74 Taylor, Norman ...... 96 Wieser, C. Robert ...... 94,103 Taylor, Robert W.. .122, 163, 219, 237, 238– Wiesner, Jerome B...... 85 241, 246, 254, 276, 293, 348 Wilson, Joseph C...... 234, 235 Teager, Herbert ...... 132 Wooster, Harold ...... 139, 169 Teilnehmersysteme . ....siehe Time-Sharing Wozniak, Stephen...... 369, 369, 376 Tesler, Larry . . 298–301, 317, 329, 336, 348, WYSIWYG ...... 293, 298 375, 378–379 Textverarbeitung . . 157, 162, 164, 182, 202– Xerographie ...... 288 207, 245, 256, 292–301, 313, 333– Xerox Corp. 334, 347 Dandelion ...... 338 Thacker, Charles P.. 238, 239, 242, 256, 257, Diversifizierung ...... 233–236 259, 278, 304, 306, 333, 337, 338, Dolphin ...... 338 348, 350 Forschungszentrum Webster . 235, 288 Time-Sharing ...... 85,107, 119–133 Kopierer Modell 914 ...... 234 Berkeley Time-Sharing System . . . 130 Monopolmißbrauch ...... 332 Compatible Time-Sharing System 125 Office Products Division ...... 345 Multics...... 127 System Development Department 332, Multiprogramming ...... 125 333, 338–340, 344, 346 PDP-1 TSS ...... 125 Textsystem Modell 850 ...... 333 Project Genie 127, 130, 181, 187, 195, Workstation 8010 »Star« . . . . 338, 347 202, 238 Xerox Data Systems ...... 234, 332 Project MAC ...... 127 Xerox PARC...... 163, 226 Q-32 TSS ...... 126, 161 Alto TENEX ...... 127, 242 Ablehnung...... 333 UNIX ...... 127 Alto II ...... 260, 272 Betriebssystem ...... 271–276 Universalcomputer...... 81,84 Dateisystem ...... 273, 274

498 Sach- und Namensregister

Grafikbildschirm...... 265–269 Virtueller Speicher ...... 319 Hardware ...... 257–272 Xerox Graphics Printer (XGP). . . .290 Maus ...... 269, 270 Prozessor ...... 259–265 Yarborough, John ...... 191 Scavenger ...... 273 Taskverwaltung ...... 259 Zapp, Walter ...... 55 Bravo . . . 296, 293–299, 301, 324, 326, 340, 343 Dateiserver ...... 286 Dorado...... 337 Draw...... 303 Ethernet ...... 278–282 Internetworking ...... 282–284 PARC Universal Packet (Pup) . 282 Repeater...... 281 Transceiver ...... 280 Gründung ...... 237 Gypsy ...... 298–301, 317 Interim File Server ...... 286 Interpress ...... 292 Labors ...... 237 Laserdrucker ...... 288–292 Dover...... 292 EARS ...... 291 Modell 9700 ...... 291 SLOT...... 289 Learning Research Group . . . 255, 307 Mail Server ...... 287 Managementstil ...... 240, 349–350 Markup ...... 302 Maxc . . . 242–243, 246, 276, 284, 286, 287 miniCOM...... 255, 255 Modusfreie Programme 300, 298–301, 317, 323, 340 NoteTaker ...... 335, 335 PARC Online Office System (POLOS) 243–246, 278, 284, 286, 299 Personal Distributed Computing . . 256 Press...... 292, 302, 303 Sil...... 304 Smalltalk ...... 307–321 Bytecodierung ...... 320 Garbage Collection ...... 313 Kurse für Kinder...... 313–317 Smalltalk-72 ...... 312, 313 Smalltalk-74 ...... 319 Smalltalk-76 ...... 320, 321, 327 Smalltalk-78 ...... 321 Smalltalk-80 ...... 321 Virtuelle Maschine ...... 320

499