Lieferung innerhalb 2-3 Tage
Bezahlmöglichkeiten
Vorbestellung möglich
Worm

Worm

Der erste digitale Weltkrieg

E-Book
€ 10,99
€ 10,99 inkl. MwSt.
sofort lieferbar
Jetzt kaufen
Gratis-Lieferung ab 5,00 €
Geschenk-Service
Versand und Lieferbedingungen

Worm — Inhalt

Dass Cyberverbrechen und Cyberwar keine bloß virtuellen Gefahren mehr sind,

sickert erst allmählich ins öffentliche und politische Bewusstsein. Als der Computerwurm

»Conficker« im November 2008 auf die Welt losgelassen wurde, infizierte

er binnen weniger Wochen Millionen von Computern weltweit. War er in ein System

eingedrungen, konnte er dieses mit anderen verbinden und so ein Netzwerk bilden,

das sich von außen kontrollieren ließ. Ein solch großes Botnetz ist theoretisch in

der Lage, sämtliche Computernetzwerke zu überwältigen, ohne die heute unsere

Banken, Telefone, Kraftwerke oder Flughäfen, ja sogar das Internet selbst kollabieren

würden - mit unabsehbaren Folgen. War »Conficker« nur das Werkzeug von

Cyberkriminellen oder gar eine reale militärische Waffe mit so nie dagewesenem

Zerstörungspotenzial?

Mark Bowden erzählt, wie in einem dramatischen Wettlauf Computerexperten alles

daransetzen, den brandgefährlichen Wurm auszuschalten. Packend beschreibt er

einen nach wie vor völlig unterschätzten Krieg, der buchstäblich unter unseren

Fingerspitzen auf der Tastatur ausgefochten wird.

€ 10,99 [D], € 10,99 [A]
Erschienen am 18.02.2012
Übersetzer: Thomas Pfeiffer
288 Seiten, WMEPUB
ISBN 978-3-8270-7520-8

Leseprobe zu »Worm«

MARK BOWDEN

WORM

Der erste digitale Weltkrieg

Aus dem Englischen von

Thomas Pfeiffer

 

BERLIN VERLAG

 

 

Für den unnachahmlichen James M. Naughton alias Swami, der mich vor dreißig Jahren in einem typischen Anfall erleuchteter Launenhaftigkeit zum »Wissenschaftsautor« kürte.

 

Die Hauptpersonen

T. J. Campana, Leitender Manager für Ermittlungen Digital Crimes Unit von Microsoft. Campana, der inzwischen vom Microsoft-Campus in Redmond, Washington, aus arbeitet, war der wichtigste Vertreter des Softwareriesen in der »Kabale«, der Conficker-Arbeitsgruppe.

J [...]

weiterlesen

MARK BOWDEN

WORM

Der erste digitale Weltkrieg

Aus dem Englischen von

Thomas Pfeiffer

 

BERLIN VERLAG

 

 

Für den unnachahmlichen James M. Naughton alias Swami, der mich vor dreißig Jahren in einem typischen Anfall erleuchteter Launenhaftigkeit zum »Wissenschaftsautor« kürte.

 

Die Hauptpersonen

T. J. Campana, Leitender Manager für Ermittlungen Digital Crimes Unit von Microsoft. Campana, der inzwischen vom Microsoft-Campus in Redmond, Washington, aus arbeitet, war der wichtigste Vertreter des Softwareriesen in der »Kabale«, der Conficker-Arbeitsgruppe.

John Crain. Der in Großbritannien geborene Senior Director for Security, Stability, and Resiliency bei der ICANN kümmerte sich als Verbindungsmann der Organisation zur »Kabale« um die weltweite Kooperation der Top-Level-Domains. Crain lebt in Long Beach, Kalifornien.

Andre DiMino, ein Mitbegründer der auf die Jagd nach Botnetzen spezialisierten Non-Profit-Organisation Shadowserver war einer der Ersten, der von seinem Zuhause in New Jersey aus Conficker in ein Sinkhole umleitete und den Wurm analysierte.

Rodney Joffe, in Südafrika geborener Leiter der Computersicherheitsabteilung bei Neustar, Inc. Der in Phoenix, Arizona, lebende erfolgreiche Unternehmer hält mehrere Patente und ist ein international bekannter Experte für Internetsicherheit. Seit 2010 ist er als Berater in Cybersicherheitsfragen für das Weiße Haus tätig und seit 2009 offizieller Vorsitzender der Conficker-Arbeitsgruppe.

Chris Lee übernahm als Doktorand an der Georgia Tech die Sinkholing-Operation der »Kabale«. Er arbeitet heute für das Department of Homeland Security, das amerikanische Heimatschutzministerium.

Andre »Dre« Ludwig, ein im nördlichen Virginia ansässiger unabhängiger Consultant, der heute als leitender Manager bei Neustar Inc. für die Top-Level-Domain-Sicherheit zuständig ist. Ludwig war innerhalb der »Kabale« für die technische Strategie und die technische Verifikation verantwortlich und diente als Verbindungsperson zur Computersicherheitsindustrie.

Ramses Martinez, Direktor für Informationssicherheit bei VeriSign, Inc., das von Dulles, Virginia, aus zwei der insgesamt dreizehn Rootserver des Internets betreibt.

Phil Porras ist Programmdirektor bei SRI International in Menlo Park, Kalifornien. Er gehörte mit zu den Ersten, die Conficker untersuchten, und stand an der Spitze der Bemühungen, das Verhalten des Wurms vorherzusagen und ihn zu besiegen.

Hassen Saidi, ein gebürtiger Algerier mit einem Doktor in Computerwissenschaften, der in Phil Porras’ Team bei SRI International hauptsächlich für das Reverse Engineering des Wurms zuständig war und die verschiedenen Conficker-Versionen sezierte und analysierte.

Paul Twomey war während des Kampfs um die Eindämmung von Conficker CEO und Präsident der ICANN in Marina Del Ray, Kalifornien.

Paul Vixie, ein in San Francisco lebender amerikanischer Interpionier, der lautstark Kritik an der Struktur des Internets und an den Defiziten des Windows-Betriebssystems übt. Er ist Gründer, Chairman und wissenschaftlicher Leiter des Internet Systems Consortium in Redwood City, Kalifornien.

Rick Wesson ist CEO von Support Intelligence und Eigentümer von Alice’s Registry in San Francisco sowie ein (höchst umstrittenes) Gründungsmitglied der Conficker-»Kabale«. Auf ihn geht die Strategie zurück, die von dem Algorithmus des Wurms erzeugten Domainnamen im Voraus zu ermitteln und zu erwerben und ihn so einzudämmen.

 

 

1

Null

Neue Mutantenaktivität registriert.

– X-Men; The Age of Apocalypse

Der neue Wurm in Phil Porras’ digitaler Petrischale kündigte sich auf die übliche Weise an: eine Abfolge schwarzer Buchstaben, die über den weißen Hintergrund eines seiner drei Bildschirme huschte und die lediglich rudimentärsten Deskriptoren enthielt: Zeitpunkt des Eintreffens … Serverart … Ort der Herkunft … insgesamt 19 Spalten.

Die ersten Einträge lauteten:

17:52:00 … Win2K-f … 201212167.29

(NET.AR): PRIMA S.A, BUENOS AIRES,

BUENOS AIRES, AR. (DSL) …

Es war der 20. November 2008, kurz vor Feierabend für die meisten Kalifornier. Der Abend war kühl in Menlo Park, wo Phil in seinem Büro zunächst keine Notiz von dem Neuankömmling nahm. Auf seinen Monitoren tauchten tagtäglich unzählige digitale Infektionen auf, jede ein kurzer Eintrag in seinem Infektionsprotokoll – genauer gesagt in seiner »Multiperspective Malware Infection Analysis Page«. Dieser Schädling war der 137. an diesem Tag und hatte eine IP-Adresse (Internet-Protokoll-Adresse) aus Argentinien. Auf dem Bildschirm checkte Porras die wichtigsten Daten zu dem Schadprogramm, darunter auch die Spalte, die angab, wie vielen der diversen Antivirus-Unternehmen, die Programme zum Schutz vor böswilliger Software (Malware) anbieten, der Angreifer bekannt war. In der Regel hatte man es mit alten Bekannten zu tun. Die Schadsoftware in der Zeile über dem Neuankömmling zum Beispiel war allen 33 relevanten AV-Anbietern bekannt, die darüber 35 von 36.

In der Erkennungsspalte dieses Eintrags aber stand: 0 von 37. Und genau daran blieb Porras’ Blick hängen, als er den Neuankömmling in seinem Protokoll bemerkte.

Null.

Draußen war es schon dunkel, aber wie üblich saß Phil noch an seinem Schreibtisch in dem kleinen Büro in der zweiten Etage auf dem Gelände von SRI International, ein emsiger Bienenstock mehrerer Hundert Laboratorien nicht weit von der Stanford University. Sie sind in eng beieinander stehenden, sehr schlichten dreistöckigen gelb- und kastanienbraunen Gebäuden untergebracht, die sich wie Legosteine um Parkplätze herum gruppieren. Es gibt kaum Grünflächen. SRI International ist ein Knotenpunkt geballter Geisteskraft, eines der weltweit am besten finanzierten Zentren für angewandte Wissenschaft und mit rund 1700 Mitarbeitern der zweitgrößte Arbeitgeber in Menlo Park. Das Zentrum wurde als Stanford Research Institute – daher auch die Initialen – gegründet, aber bereits vor über vierzig Jahren von der Universität ausgegründet. Es ist ein Ort, an dem Ideen Realität werden, die Geburtsstätte einer Vielzahl technologischer Innovationen, von der Computermaus über Ultraschall-Bildgebungsgeräte bis hin zu winzigen Roboterdrohnen. Phils Büro ist schlicht eingerichtet: eine weiße Ledercouch, eine Lampe und ein Tisch, der von den drei Computermonitoren beherrscht wird. An den Wänden hängen mit Berechnungen und Grafiken vollgeschriebene Weißwandtafeln und als Reminiszenz einer jugendlichen Leidenschaft für den Modellbau mehrere alte, gerahmte Fotografien von Kampfflugzeugen aus dem Zweiten Weltkrieg. Der Blick aus dem Fenster geht durch ein paar belaubte Äste auf ein identisches Gebäude jenseits eines umschlossenen Hofs. Ein Büro, wie man es in einem beliebigen Industriegebiet irgendwo in den Vereinigten Staaten finden könnte. Das Besondere an dem Blick, den man hat, wenn man an Phils Schreibtisch sitzt, hat nichts mit dem zu tun, was man sieht, wenn man durch das Fenster hinausschaut. Sondern mit dem, was über die Bildschirme flackert. Auf den auf seinem Schreibtisch thronenden Farbmonitoren sieht man das Cyberspace-Gegenstück zu, sagen wir, dem US-Bundesstaat Texas.

Zu den am SRI mit entwickelten Innovationen gehört das Internet. Das Forschungszentrum ist ein Monument des globalen Phänomens. Hier stand einer der beiden Computer, die 1969 – über zwei Jahrzehnte, bevor Al Gore den Begriff des »Informations-Superhighways« populär machte – per Datenfernübertragung miteinander verbunden wurden, der erste Faden eines Netzes, das heute weltweit Abermillionen Rechner miteinander verbindet. Damals, in der Schöpfungszeit des Internets, erhielt jeder Computer, der an das im Entstehen begriffene Netzwerk angeschlossen wurde, eine eigene 32-Bit-Identitätsnummer beziehungsweise IP-Adresse, dargestellt in vier aus Nullen und Einsen bestehenden Oktetten. Inzwischen hat die schiere Größe des Internets die Einführung eines neuen Systems mit 128-Bit-Adressen notwendig gemacht. Auch wenn das SRI die Zuständigkeit für die Zuweisung und Überwachung derartiger Dinge schon vor Jahren abgegeben hat, ist es immer noch Eigentümer eines sehr großen Stücks des Cyberspace. Phils Anteil daran ist ein vergleichsweise bescheidener, kaum zum Angeben taugender, aber trotzdem verdammt schwer zu bekommender »Slash 16«, ein Block des ursprünglichen digitalen Universums, der 65 536 IP-Adressen beinhaltet – mit anderen Worten, die letzten beiden Oktette seiner Identitätsnummer sind variabel, was 216 mögliche individuelle Adressen für die mit dem Netzwerk verbundenen Geräte ergibt. Damit verfügt Phil über eine, wie er es nennt, »große Kontaktoberfläche« im Internet. Er ist wie ein Rancher, der auf seiner Veranda sitzt, die Stiefel auf dem Geländer, und den Blick über die weite, offene Prärie zu seinen Füßen schweifen lässt, über, wie es in einem Country-Song heißt, miles of lonesome, meilenweite Einsamkeit in jeder Himmelsrichtung. Ein guter Platz, um Eindringlinge auszumachen.

Phils Spezialgebiet ist Computersicherheit, besser gesagt Internetsicherheit, weil es heutzutage kaum noch Rechner gibt, die nicht mit anderen verknüpft sind. Jeder ist Teil eines Netzwerks, das an ein weiteres, größeres Netzwerk angeschlossen ist, welches wiederum mit einem noch größeren Netzwerk verbunden ist. Und so weiter. Zusammen bilden diese Verbindungen ein unsichtbares Geflecht aus Elektronen, die die Erde umkreisen und sogar bis in die entlegensten Weiten unseres Sonnensystems reichen (wenn man die NASA-Satelliten berücksichtigt, die Aufnahmen aus den entferntesten vom Menschen je erkundeten Regionen des Weltraums zurück zur Erde funken). Dieses Netz ist das Weltwunder des modernen Zeitalters, eine Art globales Gehirn, die für jeden per Fingerklick erreichbare Welt. Ein Werkzeug, das so revolutionär ist, dass wir gerade erst dabei sind, sein eigentliches Potenzial zu erahnen – im Guten wie im Bösen.

Von seiner virtuellen Veranda aus hält Phil Ausschau nach Störenfrieden. Das meiste, was er sieht, ist Routine – die Schadviren, die seit Jahrzehnten Computernutzern überall auf der Welt das Leben schwer machen und damit belegen, dass jedes neue Instrument, wie hilfreich auch immer es sein mag, auch für kriminelle Zwecke missbraucht werden kann und wird. Viren sind dafür verantwortlich, dass unsere Posteingänge mit E-Mail-Angeboten zur Penisvergrößerung oder zu millionenschweren Investitionsgelegenheiten in Nigeria zugemüllt werden. Es gibt Schadprogramme, die darauf ausgelegt sind, unsere Computer zu beschädigen oder zu zerstören beziehungsweise genau damit zu drohen, falls wir nicht ein (in der Regel unwirksames) Gegenmittel käuflich erwerben. Wenn es Sie erwischt, merken Sie es. Wie die erfolgreichsten biologischen Viren aber verfolgen die neuesten und fortschrittlichsten Computerviren weitaus ehrgeizigere Ziele und sind darauf konzipiert, im Verborgenen zu operieren. Genau diese Viren, die nur von den technisch versiertesten und wachsamsten Computerexperten aufgespürt werden, sind es, auf die wir wirklich Acht geben müssen.

Phil war schon immer von allem Neuen fasziniert. Seit seiner Zeit in der Highschool im kalifornischen Whittier beschäftigte er sich mit Computern, und 1984 hatte er sich einen Bausatz für einen Personal Computer bestellt. Damals begannen PCs zwar schon allmählich, am Markt Fuß zu fassen, aber es gab nach wie vor auch kleine Unternehmen, die die überschaubare Gemeinde der Computerfreaks versorgten, zumeist Teenager, die begeistert und intelligent genug waren, sich Bausätze zu bestellen und ihre Rechner selbst zusammenzuschrauben und darauf dann vor allem Spiele zu spielen oder einfache Haushalts- oder Büroaufgaben zu erledigen. Phils Vater war Buchhalter, seine Mutter leitete ein Tagesheim für Senioren, und zum Entzücken der beiden programmierte er sein Spielzeug so, dass es monotone, zeitraubende Abläufe für sie erledigte. Vor allem aber spielte er Spiele. In der Schule belegte er Computerkurse, zu denen er mindestens so viel beitrug, wie er davon mitnahm, und auf dem College an der University of California in Irvine schloss er sich einer Gruppe gleichgesinnter Geeks an, die sich einen Spaß daraus machten, voreinander mit ihren Programmierkünsten anzugeben. Zu dieser Zeit, Ende der 1980er Jahre, dominierte Sun Microsystems die Softwarewelt mit »Solaris«, einem Betriebssystem, das im Ruf stand, fortschrittlichste Sicherheitsvorkehrungen zu bieten. Phil und seine Freunde lieferten sich einen regelrechten Wettkampf, hackten sich in die Terminals in ihren College-Labs und spielten sich gegenseitig Streiche, Streiche, die mitunter recht schmerzhaft ausfielen. Betroffene mussten unter Umständen die Arbeit einer ganzen Nacht in den Wind schreiben, weil ein Gegenspieler ihre Tastatur per DFÜ (Datenfernübertragung) so umprogrammiert hatte, dass sie nur noch Unsinn produzierte. Selbst auf dieser scherzhaft-spielerischen Ebene hatten Phils erste Gehversuche auf dem Feld der Computerkriegführung also bereits ganz reale Konsequenzen. Entweder kannte man sich in dem Betriebssystem gut genug aus, um einen Angriff abzuwehren, oder man musste bluten.

Diese Art Wettstreit zwischen ein paar wenigen Computerfreaks mit sehr bescheidenen Einsätzen sorgte immerhin dafür, dass Phil ein gewiefter Experte in Sachen Computersicherheit wurde. So gewieft sogar, dass er, als er sein Masterstudium aufnahm, nach einem Universitätsprofessor suchen musste, der ihm noch etwas beibringen konnte. Schließlich fand er ihn in Richard Kemmerer an der University of California in Santa Barbara (UCSB). Kemmerer, zu der Zeit einer der wenigen akademischen Computersicherheitsexperten in den USA, erkannte schnell, dass Phil eher ein Ebenbürtiger als ein Student war. Wer in akademischen Kreisen über überlegene Hackerfertigkeiten verfügte, benutzte diese dazu, mögliche Invasionsstrategien zu antizipieren und nach Wegen zu suchen, wie man sie aufspüren und abwehren konnte. Phil machte sich rasch einen Namen als Experte in diesem neu entstehenden Feld. Heute hat die UCSB eine der weltweit besten Abteilungen für Computersicherheit, aber damals, Anfang der 1990er Jahre, bestand diese Abteilung im Grunde nur aus Phil. UNIX-5 wurde noch als das sicherste Betriebssystem für Computer propagiert, da hatte Phil bereits fünfzig Methoden ausgetüftelt, in das System einzubrechen. Mit gerade einmal zwanzig Jahren wurde er zu einer Konferenz über Computersicherheit am SRI eingeladen, wo er seine ersten Versuche zur Programmierung einer Software vorstellte, die sein beeindruckendes Arsenal an Exploits automatisch aufspüren konnte. Kaum hatte er seinen Abschluss in der Tasche, da heuerte ihn das Forschungszentrum an, und in den folgenden zwei Jahrzehnten wuchs sein Wissen im Gleichschritt mit der technologischen Weiterentwicklung der Industrie.

In dieser Zeit hat Phil miterlebt, wie Schadprogramme vom Kleinvandalismus zu einer regelrechten kriminellen Industrie herangewachsen sind. Heute wird Schadsoftware häufig von organisierten Verbrechersyndikaten entwickelt, wenn nicht, wie in jüngster Zeit geschehen, sogar von Regierungen. Phil, ein lebhafter Mann mit hellbrauner Haut und einem mit fortschreitendem Alter rundlicher werdenden Gesicht, hat dichtes braunes Haar und trägt eine mit einem dünnen Gestell eingefasste Brille, die zu groß für sein Gesicht wirkt. Phil ist ein netter Mensch, einer von den guten Jungs. Man könnte ihn sogar als eine Art Superhelden bezeichnen. Im Cyberspace tobt ein körperloser Kampf zwischen den bösen und den guten Jungs, bei dem die eine Seite raubend und plündernd durch das Internet zieht, während die andere versucht, sie daran zu hindern. In diesem Kampf ist Phil nicht weniger als ein Riese in der Armee, die für das Gute und Gerechte streitet. Seine Arbeit ist geprägt von einem Gefühl der Dringlichkeit und immensen Herausforderungen, ein Wettstreit mit höchstem Einsatz in einer Welt, die nur wenige Menschen verstehen. Wie die meisten Leute, die ihre Arbeit lieben, spricht Phil gern über das, was er macht, will er Verbindungen aufzeigen und erklären – ein Unterfangen, das freilich häufig zum Scheitern verurteilt ist:

… Also, was wir am Ende gemacht haben, ist, nun, wir sind inzwischen wirklich gut darin, uns infizieren zu lassen. Zum Beispiel durch ein Sandnet. Die Schadsoftware ausführen. Die IRC-Site finden und den Kanal, den der Botmaster benutzt hat, und dem einfach folgen. Mit dem ISP sprechen, direkte Gegenmaßnahmen ergreifen und sie lahmlegen. Den IRC-Server lahmlegen oder die gesamte verwendete IRC-Kommunikation umleiten, um …

Er bemüht sich sehr. Er spricht in kurzen Sätzen, zügelt seine natürliche mentale Geschwindigkeit. Und trotzdem kommen die Sätze schnell. Knapp. Auf den Punkt. Man kann hören, wie er versucht, das komplizierte Feld des erweiterten Kontexts zu umgehen, aber damit unweigerlich scheitert, weil ihn sein unbändiger Enthusiasmus für das Thema mitreißt und er mit Turbogeschwindigkeit in die Netzwelt eintaucht … den IRC-Server lahmlegen … das aktuelle UTC-Datum … die Pufferkapazität ausnutzen … den Peer-to-Peer-Mechanismus verwenden … Kurzum, Phil gehört zu den Leuten, die unzählige Male mit dem »Blick« konfrontiert worden sind, dem unmissverständlichen Gesichtsausdruck völliger Verwirrung und absoluten Desinteresses, der Laien befällt, wenn sich eine Unterhaltung dem Innenleben von Computern zuwendet.

Der »Blick« ist jedem Computerexperten vertraut, der jemals gerufen wurde, um einen nicht funktionierenden Rechner zu reparieren – Um Himmels willen, ersparen Sie mir die Details, bringen Sie ihn einfach wieder zum Laufen! Die meisten Menschen, selbst solche mit einer guten Bildung und herausragenden Sprachfertigkeiten, Leute mit einem mehr als kursorischen Wissen über Wortverarbeitungssoftware, Tabellenkalkulationsprogramme und dynamische Grafikdarstellungen, Leute, die mehrere Stunden täglich mit den Fingern auf der Tastatur verbringen, die in ihrem Beruf und selbst in ihren bevorzugten Freizeitaktivitäten immer mehr darauf angewiesen sind, dass sie mit einer Vielzahl von Programmen umgehen können, haben praktisch keine Ahnung davon, wie diese Dinge eigentlich funktionieren. Das Innenleben von Mainframes, Betriebssystemen und Netzwerken gilt nicht nur als schlicht unbegreiflich, sondern als prinzipiell nicht ergründbar oder, schlimmer noch, als des Verstehens gar nicht wert, ungefähr so, wie viele Leute sich damit zufriedengeben, Elektrizität als eine Art Voodoozauber zu betrachten. Mit der Entdeckung der Elektrizität machte die technische Seite der modernen Welt einen gewaltigen Sprung nach vorn, um dann mit dem Elektromagnetismus in das Reich des hoffnungslos Unerklärlichen einzutauchen – weshalb unser Alltagsleben heute in strikter Parallelität zu einer rätselhaften Technodimension koexistiert. Wir haben tagtäglich mit der Computertechnologie zu tun, so real, wie das nur möglich ist, ja sogar lebensnotwendig, nur … nun … eben nicht real. Virtuell. Sie verschickt Signale durch die Luft um uns herum. Sie sitzt in Maschinen ohne sichtbare bewegliche Teile. Diese Technodimension ist erfüllt von … von was genau eigentlich? Wohlgeordneten Elektronenzügen? Binären Ladungen?

Die digitale Ranch, die Phil überwacht – es gibt sie so natürlich nicht, zumindest nicht im Sinne von Staub und Sand und Mesquitbäumen, am Himmel kreisenden Bussarden und in der Ferne bläulich leuchtenden Felskuppen. Sie existiert nur im Sinne von Kapazitäten und Potenzialen. Begriffe oder Konzepte wie Bits und Bytes, Domainnamen, ISPs, IPAs, RPCs, P2P-Protokolle, Endlosschleifen und Cloud Computing fallen strikt in den Zuständigkeitsbereich der Geeks und Nerds, die überhaupt derlei Dingen Aufmerksamkeit schenken und sich auf eine undurchschaubare und irgendwie beunruhigende Weise als immer unerlässlicher für das reibungslose Funktionieren unserer Zivilisation erweisen. Sie bleiben per Definition und getreu ihrem Stereotyp Sonderlinge, weltabgewandte, angeblich unter Borderline-Autismus leidende und im Allgemeinen für alle außerhalb ihres Stammes undurchsichtige Gestalten – »Sie sind Mutanten, geboren mit Fähigkeiten, die weit über die gewöhnlicher Menschen hinausreichen.« Der verstorbene MIT-Professor Joseph Weizenbaum identifizierte und beschrieb die Spezies in seinem 1976 in der Morgendämmerung des digitalen Zeitalters erschienenen Buch Die Macht der Computer und die Ohnmacht des Menschen:

Überall, wo man Rechenzentren eingerichtet hat, d. h. an zahllosen Orten in den USA wie in fast allen Industrieländern der Welt, kann man aufgeweckte junge Männer mit zerzaustem Haar beobachten, die oft mit tief eingesunkenen, brennenden Augen vor dem Bedienungspult sitzen; ihre Arme sind angewinkelt, und sie warten nur darauf, daß ihre Finger – zum Losschlagen bereit – auf die Knöpfe und Tasten zuschießen können, auf die sie ebenso gebannt starren wie ein Spieler auf die rollenden Würfel. Nicht ganz so erstarrt sitzen sie oft an Tischen, die mit Computerausdrucken übersät sind, und brüten darüber wie Gelehrte, die von kabbalistischen Schriften besessen sind. Sie arbeiten bis zum Umfallen, zwanzig, dreißig Stunden an einem Stück. Wenn möglich, lassen sie sich ihr Essen bringen: Kaffee, Cola und belegte Brötchen. Wenn es sich einrichten lässt, schlafen sie sogar auf einer Liege neben dem Computer. Aber höchstens ein paar Stunden – dann geht es zurück zum Pult oder zum Drucker. Ihre verknautschten Anzüge, ihre ungewaschenen und unrasierten Gesichter und ihr ungekämmtes Haar bezeugen, wie sehr sie ihren Körper vernachlässigen und die Welt um sich herum vergessen. Zumindest solange sie derart gefangen sind, existieren sie nur durch und für den Computer. Das sind Computerfetischisten, zwanghafte Programmierer. Sie sind ein internationales Phänomen.

Seitdem hat sich der Stamm der Geeks geöffnet und zählt nun auch noch ganz andere, weniger eigenbrötlerische Charaktere zu seinen Mitgliedern – Phil spielte in der Highschool viel Basketball und ging sogar mit Mädchen aus. Außerdem muss sich niemand mehr über Ausdrucke beugen – heute findet alles auf dem Bildschirm statt. Aber der Stamm, der Tribe, ist nach wie vor sehr international, und seine Angehörigen sind immer noch besessen von ihrer Arbeit, rund um die Uhr via E-Mail und eine Vielzahl dezidierter Chatkanäle miteinander vernetzt. Auf gewisse Weise ist der Stamm streng egalitär. Ein einsamer, pickelgesichtiger Teenager, der irgendwo im Keller eines Hauses in einer Vorstadt hockt und zu schlau für die Schule ist, kann ebenso Stammesmitglied sein wie der CEO eines brandheißen Start-ups im Silicon Valley, solange er sich nur in der Materie auskennt. Allerdings sind die höheren Ränge strikt elitär besetzt und können es an Versnobtheit durchaus mit dem angesagtesten Nightclub in Soho aufnehmen. Wer dazugehören möchte, muss eine Art Probezeit bestehen. Selbst Phil wurde über einen Monat lang der Zugang zur »Kabale« verwehrt, zum innersten Kreis der Geeks, die dem neuen Wurm namens Conficker den Kampf angesagt hatten – obwohl er und sein Team am SRI schon deutlich vor Gründung der »Kabale« an dem Wurm dran gewesen waren und ein Großteil der Abwehrbemühungen auf ihrer Arbeit basierte. Zugang zu einem leistungsstarken Mainframe-Rechner oder einer üppigen Finanzierungsquelle kann einem ein gewisses Prestige verschaffen, aber worauf es wirklich ankommt, sind Grips und Intelligenz. In gewisser Hinsicht ist der Tribe ebenso virtuell wie die Cyberwelt selbst. Viele seiner Mitglieder kennen einander seit Jahren, ohne sich je wirklich, im realen Leben, getroffen zu haben. Phil wirkt hier am glücklichsten, im Schimmer seiner drei Monitore und angeschlossen an seine elitäre globale Konföderation Gleichgesinnter.

1966, als Phil geboren wurde, existierte die Welt, die sie bewohnen, noch gar nicht. Zu der Zeit war der Gedanke, Computer miteinander zu verknüpfen, noch genau das: ein Gedanke, und ein unausgegorener dazu, das geistige Produkt einer Gruppe visionärer Wissenschaftler in der Advanced Research Projects Agency (ARPA) des Pentagons. Die Forschungsbehörde war im Verteidigungsministerium untergebracht und wurde von diesem auch finanziert. Dieser Umstand nährte wilde Geschichten über die Entstehung des Internets, etwa die, es handle sich um ein offizielles und vor allem militärisches Projekt und sei daher von Natur aus böse. Dabei war die ARPA die wohl am wenigsten militärisch geprägte Behörde im Pentagon. Vielmehr war sie eigens mit der Absicht gegründet worden, in einem ansonsten fast ausschließlich auf das Militärische ausgerichteten Ministerium zumindest ein Mindestmaß an ziviler Forschung zu erhalten. Zu den Aktivitäten der ARPA gehörte die Finanzierung von Grundlagenforschung an Universitäten, wobei sie zivile Wissenschaftler in Projekten förderte, die oftmals weit von jeder militärischen Anwendbarkeit entfernt waren. Da die großen Forschungslabors damals mehr und mehr mit Computer arbeiteten und die ARPA die von ihr geförderten Projekte koordinierte, standen in den ARPA-Büros im Pentagon bald schon jede Menge Computerterminals, die mit den Mainframe-Computern in den verschiedenen Forschungseinrichtungen verbunden waren. Jedes dieser Terminals war anders. Als verlängerter Arm der Hard- und Software der jeweiligen Mainframe-Rechner unterschieden sie sich nicht nur in Aussehen und Funktionalität, sondern auch darin, wie sie Daten übertrugen und darstellten. Auf gewisse Weise waren die ARPA-Forscher im Pentagon dabei, den Turmbau zu Babel nachzuspielen.

Computer waren damals regelrechte Monstren. Wer sich einen zulegen wollte, brauchte eine Laderampe, um ihn in Empfang zu nehmen, oder musste das Dach abnehmen und ihn mittels eines Krans an seinen Bestimmungsort hieven. Jeder Rechner hatte sein eigenes Design und seine eigene Sprache und erschuf, sobald er in einem bestimmten Forschungslabor die Arbeit aufnahm, eine eigene Kultur, da er zur Ausführung der für das Labor spezifischen Funktionen programmiert und verwaltet wurde. Die meisten von ihnen wurden für Rechenoperationen für militärische oder wissenschaftliche Zwecke eingesetzt. Wie bei vielen neuen Erfindungen mit grenzenlosem Potenzial blickten auch die Wissenschaftler, die anfangs mit den Computern arbeiteten, nicht allzu weit über den Tellerrand ihrer unmittelbaren Anforderungen hinaus, zumal diese durchaus herausfordernd und bemerkenswert genug waren, beispielsweise die Berechnung des Flugbogens einer neu entwickelten Rakete durch die obere Atmosphäre oder die der unterschiedlichen Pfade subatomarer Partikel in einem physikalischen Experiment. Computer waren sehr gut darin, umfangreiche und ansonsten unglaublich zeitaufwändige Berechnungen sehr schnell durchzuführen. Diese Fähigkeit machte eine Vielzahl ganz erstaunlicher technologischer Großtaten möglich, darunter zum Beispiel das Kunststück, sechs Astronautenteams von der Erde auf den Mond und wieder zurück zu bringen.

Die meisten Beobachter waren vollauf mit den unmittelbaren Wunderdingen beschäftigt, die dank der Computer nun plötzlich möglich waren; nur ein paar neugierige Köpfe dachten über das weitere Potenzial der Rechenmaschinen nach. Die Wissenschaftler an der ARPA, J. C. R. Licklider, Bob Taylor und Larry Roberts, die später von Katie Hafner und Matthew Lyon in ihrem Buch Where Wizards Stay Up Late porträtiert wurden, waren überzeugt, dass der Computer eines Tages die perfekte Ergänzung zur menschlichen Intelligenz sein könnte, dass er dem Menschen gewissermaßen auf der Schulter sitzen und in Sekundenbruchteilen Verbindungen ziehen könnte, die von selbst zu ziehen das Wissen, die Erfahrungen oder das Erinnerungsvermögen der allermeisten Menschen nicht ausreichten, dass er Menschen und ihr Wissen überall auf der Welt in Echtzeit verbinden und per Knopfdruck Analysen von Konzepten bereitstellen könnte, die früher Jahrzehnte mühseliger Forschungsarbeiten erfordert hätten. Zuerst ging es nur darum, Daten zwischen den verschiedenen Forschungslabors auszutauschen, aber von der Idee des Datenaustauschs war es nur ein kleiner Schritt hin zu der Idee, auch Ressourcen zu teilen, sprich Forschern in einem Labor Zugriff auf die speziellen Fähigkeiten und Bibliotheken der Computer in anderen Forschungszentren zu ermöglichen. Warum auf dem eigenen Mainframe ein Programm neu erfinden, wenn es anderswo bereits lief? Der notwendige erste Schritt in dieser Richtung bestand in der Verknüpfung der Mainframes. Es galt, einen Weg zu finden, die auf Universitäten und Forschungszentren verteilten, isolierten Computerinseln zu einem funktionellen Ganzen zu verweben.

Es gab Widerstände. Einige Mainframe-Betreiber fühlten sich in ihrer Abgeschlossenheit privilegiert und selbstzufrieden und versprachen sich wenige oder keine Vorteile davon, ihre Ressourcen mit anderen zu teilen, zumal in den großen Labors schon damals ein heftiger Konkurrenzkampf um Rechenzeit auf den Computern herrschte. Warum sich noch mehr Konkurrenz aus anderen Labors ins Haus holen? Außerdem sprach jeder Mainframe seine eigene Sprache und stammten viele von konkurrierenden Herstellern. Wie viel Zeit, Aufwand und kostbare Rechenkraft würde es also kosten, eine reibungslose Kommunikation zu gewährleisten? Der erste große konzeptionelle Durchbruch kam mit der Idee, eigens für den Datenverkehr zuständige Computer zu bauen. Diese IMPs, kurz für Interface Message Processor, genannten Rechner basierten auf einer Idee, die Professor Wesley Clark von der Washington University 1967 vorbrachte: Warum nicht, statt jeden Computeroperator ein eigenes Protokoll für den Austausch von Daten mit den anderen Computern im Netz schreiben zu lassen, ein Subnetz eigens zur Verwaltung dieses Datenverkehrs aufbauen? Auf diese Weise würde jeder Host-Computer nur eine zusätzliche Sprache lernen müssen, nämlich die der IMPs. Und die IMPs würden sich um sämtliche Weiterleitungs- und Übersetzungsprobleme kümmern. Da die Regierung das alles finanzierte, lockte die Idee die Labors sogar noch zusätzlich mit der Aussicht auf einen kostenlosen neuen Mainframe, mit dem sie herumspielen konnten. Was nach einer zusätzlichen Belastung ausgesehen hatte, war zu einem Geschenk geworden. Anfang der 1970er Jahre gab es mehrere Dutzend über die gesamte USA verteilte IMPs, die eine Art Subnetz bildeten, das den Datenverkehr auf dem ARPANET verwaltete. Wie es der Zufall wollte, waren die ersten beiden Computer, die auf diese Weise miteinander verbunden wurden, ein SDS 940 von Scientific Data Systems (SDS) am SRI in Menlo Park und ein älterer, ebenfalls von SDS hergestellter Sigma 7 an der University of California in Los Angeles. Der erste Datenaustausch zwischen diesen beiden Rechnern erfolgte im Oktober 1969. Phil Porras war gerade aus den Windeln raus.

Die ARPANET-Designer hatten den primären Zweck des Netzes in der gemeinsamen Nutzung von Ressourcen und Daten gesehen und vor allem gehofft, dass es die Koordination der zahlreichen von der Behörde betreuten Projekte stark vereinfachen würde. Wie aber die Schöpfer neuer Lebensformen, von Gott dem Allmächtigen bis Dr. Frankenstein, seit jeher feststellen mussten, neigen die neu geschaffenen Kreaturen dazu, sogleich eigene Ideen zu entwickeln. Schon von den ersten Tagen an war das Internet mehr als die Summe seiner Einzelteile. Die erste ebenso unerwartete wie immens erfolgreiche Anwendung war E-Mail, die Möglichkeit, Nachrichten in Sekundenschnelle rund um die Welt zu verschicken; kurz darauf folgten Nachrichten-Listen oder Foren, über die Nutzer mit gleichen Interessen in Echtzeit miteinander kommunizieren konnten, gleichgültig, wo sie saßen. Man schuf Nachrichten-Listen oder Chat-Foren für ernsthafte und weniger ernsthafte Disziplinen – das Mittelalterspiel »Dungeons and Dragons« war ein sehr beliebtes frühes Thema. Mitte der 1970er Jahre, zu der Zeit, als die ersten als Selbstbausätze vertriebenen Mikrocomputer auf den Markt kamen (und die Aufmerksamkeit der an der Harvard University studierenden Nerds Bill Gates und Paul Allen erregten), hatte das ARPANET etwas Neues und Unerwartetes hervorgebracht, oder, um mit Hafner und Lyon zu sprechen, »eine Gemeinschaft aus Gleichen, von denen sich viele nie persönlich begegneten, die jedoch so taten, als kennten sie sich schon ihr ganzes Leben lang … vielleicht die erste virtuelle Gemeinschaft«.

Der Vorläufer des Internets nutzte Telefonleitungen zur Datenübertragung, aber bald schon wurden die ersten Computer über Funkverbindungen (das ALOHANET auf Hawaii verband auf diese Weise Computer auf vier Inseln miteinander) und schließlich über Satelliten vernetzt (die schnellste Möglichkeit, Computer auf verschiedenen Kontinenten miteinander zu verbinden). Die Verknüpfung der rapide wachsenden Zahl an Netzwerken erforderte den Rückgriff auf das Prinzip der IMPs, sprich den Aufbau eines neuen Subnetzes zur einfacheren Verbindung, oder, wie man auch sagen könnte, eines Subsubnetzes beziehungsweise eines Netzwerks von Netzwerken. Die Computerwissenschaftler Vint Cerf von der Stanford University und Bob Kahn vom Massachusetts Institute of Technology (MIT) umrissen in einem 1974 vorgelegten Aufsatz eine neuartige Methode zur Übertragung von Daten zwischen diesen disparaten Systemen, die sie Transmission Control Protocol nannten, kurz TCP. Das war ein weiterer Heureka-Moment in der Evolution des Internets. Mit Hilfe dieses Übertragungssteuerungsprotokolls ließ sich rund um die Welt jedes Computernetzwerk unabhängig davon, wie es Daten übertrug, an das wachsende internationale System anschließen.

All das geschah Jahre, bevor die meisten Menschen einen Computer auch nur zu Gesicht bekamen. In den ersten zwanzig Jahren seiner Existenz war das Internet ein nahezu ausschließlich Computerwissenschaftlern und Experten in Militär- und Geheimdienstzentren vorbehaltenes Refugium; zugleich erkannten diese aber auch immer klarer sein größeres Potenzial. Heute sind weltweit über zwei Milliarden Menschen an das Internet angeschlossen, und es entwickelt sich immer mehr zum technologischen Rückgrat des modernen Lebens.

Das Internet ist insofern von unten nach oben gewachsen, als dass abgesehen von Ad-hoc-Bemühungen zur Gestaltung seiner technologischen Fundamente keine zentrale Autorität seine Struktur festgelegt oder Regeln und Richtlinien für seine Nutzung erlassen hätte, ein Umstand, der unter Sozialtheoretikern auf großes Interesse stößt. Im Jahr 1988 gab das SRI die Zuständigkeit für die Zuweisung von Domainnamen und IP-Adressen an die Organisation ab, die am ehesten einer Aufsichtsbehörde für das Internet entspricht, nämlich an die International Corporation for Assigned Names and Numbers, kurz ICANN. Die im kalifornischen Marina Del Rey ansässige private Organisation ist strikt gemeinnützig und übt nur wenig mehr als eine Verwalterrolle aus, kann in Krisenzeiten aber, wie wir sehen werden, eine erhebliche moralische Autorität in die Waagschale werfen. Domainnamen sind die Namen (manchmal auch nur Zahlen), die Nutzer – ob nun Einzelpersonen, Unternehmen, Behörden, Institutionen oder wer auch immer – zur Darstellung ihrer Präsenz im Internet auswählen, zum Beispiel yahoo.com, nytimes.com oder facebook.com. Viele, wenngleich nicht alle Domains richten auch eine Website, eine »Internetseite«, als sichtbare Präsentation des Domaininhabers ein. Die physikalische Architektur des Internets basiert auf dreizehn Rootservern, die mit den Buchstaben A bis M benannt sind. Zehn davon stehen in den Vereinigten Staaten, je einer in Großbritannien, Japan und Schweden.* Diese Rootserver laufen auf sehr großen Computern, die den konstanten weltweiten Datenfluss steuern. Darüber hinaus verwalten sie umfassende und dynamische Listen der Domain-Name-Server, die von Nanosekunde zu Nanosekunde dafür sorgen, dass der Datenfluss in die richtige Richtung verläuft.

Das System ähnelt mehr einem Organismus als irgendeinem traditionellen Konzept einer Maschine. Der bislang gelungenste Versuch einer visuellen Darstellung des Internets stammt von Wissenschaftlern der Bar-Ilan-Universität in Israel, die ein atemberaubendes Abbild erzeugt haben, das sich am ehesten als eine einzelne Zelle beschreiben lässt. Darauf zu sehen ist ein dichter, orangefarben leuchtender Kern aus rund achtzig zentralen Knoten, umgeben von einer diffusen protoplasmatischen Peripherie aus breit gestreuten gelben und grünen Flecken, die isolierte kleinere Knoten darstellen. Das Ganze ist umhüllt von einer dichten blauen und violetten Außenhülle oder Membran, den direkt verknüpften Peer-to-Peer-Netzwerken. Die hell leuchtenden Farben im Kern und der Peripherie zeigen Verbindungen mit hohem Datenverkehrsaufkommen an, beispielsweise Rootserver oder große, von staatlichen Einrichtungen, Universitäten und Konzernen betriebene Netzwerke, während das kühlere Blau und Violett der Außenhülle den geringeren Datenverkehr lokaler Internetprovider und Unternehmen widerspiegelt. Die Karte hat etwas sehr Suggestives an sich und erinnert an das, was Douglas Hofstadter in seinem Klassiker Gödel, Escher, Bach als »strange loop«, als »seltsame Schleife«, bezeichnete, die Vorstellung, dass komplexe Systeme zur Selbstreferenz neigen und unweigerlich in Richtung Bewusstsein streben. Wenn man auf dieses bemerkenswerte Bild des arbeitenden Internets schaut, kann man sich vorstellen, wie es wächst, sich vervielfacht, diversifiziert und, eines Tages, in einem epochalen Moment, blinzelt, zu uns aufschaut und lebendig wird. Planetares Bewusstsein. Das globale Ich.

Das Internet ist natürlich (noch) weit davon entfernt, uns zuzuzwinkern, aber die Vorstellung hilft, die Verehrung zu verstehen, die ihm jene entgegenbringen, die an seiner Konzeptualisierung, seinem Aufbau und seiner »Wartung« beteiligt waren und sind. Das Internet stellt etwas völlig Neues in der Geschichte der Menschheit dar und ist die bemerkenswerteste technologische Errungenschaft unserer Zeit. Wissenschaftler entdeckten die immensen Vorteile des unmittelbaren und weltumspannenden Austauschs von Forschungsergebnissen und Gedanken mit anderen auf ihrem Gebiet und begeisterten sich für die Möglichkeit, große Netzwerke miteinander zu verknüpfen und so Forschungen auf einem zuvor unerreichbaren Niveau durchzuführen. Sozialtheoretiker erkannten das dem Internet innewohnende Potenzial und entwarfen eine neue Vision von einem Techno-Utopia. Das gesamte menschliche Wissen für jeden auf Knopfdruck verfügbar! Ideen, die weltweit ausgetauscht, kommentiert und verbessert werden! Ereignisse in den entlegensten Winkeln der Erde, die überall simultan miterlebt werden! Das Web würde ein Aufbewahrungsort für das gesamte Wissen der Menschheit sein, ein globaler Marktplatz für Produkte und Ideen, ein Forum für alles, was auf Interaktion angewiesen ist, von heiklen internationalen diplomatischen Angelegenheiten über die Kalkulation hochkomplexer Differentialgleichungen bis hin zum Einkauf von Büromaterial … und das alles absolut frei von jedweder Regulierung und Kontrolle! Regierungen wären nie mehr in der Lage, Informationen zu zensieren! Die Medien und die Wissenschaften würden nicht mehr länger von ein paar Reichen beherrscht werden! Geheimnisse ließen sich nicht mehr geheim halten! Das Internet versprach den Anbruch eines wahrhaft globalen, egalitären Zeitalters. Das war zumindest der Gedanke. Für die frühen Internet-Idealisten war gerade die internationale und unstrukturierte Natur des Ganzen entscheidend. Wenn Wissen Macht ist, dann würde die Macht über kurz oder lang endlich dorthin gelangen, wohin sie gehört, in die Hände der Menschen, aller Menschen! Tyrannen und Oligarchen würden erzittern! Bürokratien abgebaut! Die Barrieren zwischen Nationalstaaten und Kulturen in sich zusammenbrechen. Die Menschheit würde endlich …!!

Sie verstehen, worauf ich hinauswill.

Manches davon ist auch so gekommen. Nur wenige andere Innovationen haben sich so schnell weltweit durchgesetzt und sich auf derart freie und demokratische Weise weiterentwickelt. Das Internet hat uns alle, in einem virtuellen Sinne, zu Bürgern einer einzigen Welt gemacht, eine Entwicklung, die bereits tiefgreifende Konsequenzen für viele Millionen Menschen gehabt hat und zweifelsohne noch viele mehr haben wird. In ihrer anfänglichen Begeisterung könnten jedoch die Architekten des Internets sein anarchistisches Wesen überschätzt haben. Als das zivile Internet allmählich Gestalt annahm und zunächst vor allem universitäre Forschungszentren miteinander verband, beschränkte sich sein Nutzerkreis auf Leute, die Computer und Computersprachen beherrschten. Techno-Utopia! Jeder kann mitspielen! Informationen umsonst! Vollständige Transparenz! Niemand verfasste Regeln für das Internet; stattdessen stellten seine Nutzer und Gestalter sogenannte »Requests for Comment«, »Bitten um Kommentare«, ins Netz. Vorschläge, wie sich das reibungslose Funktionieren des Internets sicherstellen lässt, wurden so lange hin und her geschickt, bis sich ein Konsens herausbildete. Und dank der extremen Flexibilität der Software konnte alles, was angenommen wurde, auch sehr schnell umgesetzt werden. Niemand hatte (und hat) wirklich das Sagen. Diese anarchistische Natur, diese Offenheit und dieses Fehlen jeglicher zentralisierten Kontrolle waren und sind eine Stärke und zugleich eine Schwäche. Wenn am Ende niemand für das Internet verantwortlich ist, wie kann man es dann in Ordnung halten und verteidigen? Solange nicht jeder, der sich seiner bedient, gute Absichten hegt, ist es anfällig für Attacken und kann gleichermaßen dazu benutzt werden, Schaden anzurichten wie Gutes zu tun. Das Internet ist zwar längst zu einem Teil unseres täglichen Lebens geworden, aber dennoch haben die meisten Menschen nur eine verschwommene Vorstellung davon, was es eigentlich ist. Das Internet ist dem normalen Menschenverstand viel weniger zugänglich, als das bisherige innovative Alltagstechnologien waren. Nehmen wir den Rundfunk. Auch beim Radio wusste niemand so genau, wie es funktionierte. Aber immerhin konnte man sich unsichtbare Wellen elektromagnetischer Partikel vorstellen, die von weither über uns hinwegschwappten, entfernte Stimmen, die auf Wellen vom Rande der Erde herbeigetragen und für unsere Ohren verstärkt wurden. Wenn man in einem Tal lebte oder im Schatten eines großen Gebäudes, blockierten die Berge und Mauern die Ausbreitung der Wellen, und war man zu weit vom Ausgangspunkt des Signals entfernt, verebbten die Wellen, bevor sie einen erreichten. Man empfing nur statisches Rauschen, keinen Ton. So viel konnte jeder noch verstehen. Oder das Fernsehen. Nun, auch das kapierte keiner so richtig, außer dass es wie das Radio war, nur mit dem Unterschied, dass die Wellen, die unsichtbaren Wellen natürlich, komplexer waren und deshalb auch Bilder übertrugen. Und der Sortiermechanismus in dem Kasten, die Transistoren oder Vakuumröhren oder was auch immer, projizierte die Bilder auf die Innenseite der Röhre. Beim einen wie beim anderen brauchte man eine Antenne, die die Wellen auffing und ein bisschen mitschwang. Etwas ging da vor sich, von dem man sich eine – wenn auch unzutreffende – Vorstellung machen konnte. Das Internet dagegen ist einfach da. Es ist überall um uns, wie der geheimnisvolle Äther früherer Zeiten. Keine Antennen. Keine Wellen, zumindest nicht in einer Form, die leicht vorstellbar wäre. Und dann enthält es nicht nur Stimmen und Bilder, sondern … die ganze Welt und alles, was darin ist: Bilder, Töne, Texte, Filme, Landkarten, Kunst, Propaganda, Musik, Nachrichten, Spiele, Post, ganze Nationalbibliotheken, Bücher, Zeitschriften, Zeitungen, Sex (in allen Spielarten, von verführerisch bis grässlich), dazu Nahaufnahmen von Mars und Jupiter, Fotos Ihrer lange schon vergessenen Großtante Margaret, die Speisekarte des Thai-Restaurants um die Ecke – kurz, alles, wovon Sie schon gehört haben, und vieles, von dem Sie noch nicht einmal geträumt hatten. Und das alles wartet nur darauf, dass wir es aus dem scheinbaren Nichts um uns herum herausfischen.

Hinter seiner Phalanx aus drei Monitoren in Menlo Park residiert Phil Porras an einem Schreibtisch an der eigentlichen Geburtsstätte dieses Wunderwerks, und er sieht das Internet nicht in irgendeinem vagen Sinne, sondern als ein sehr reales, verständliches und beunruhigend zerbrechliches Gebilde. Er hat einen Teil der digitalen Ranch unter seiner Aufsicht bewusst ohne jede Zäune und Sicherheitsvorkehrungen gelassen, ein verlockendes Ziel für jede Schadsoftware, die auf der Suche nach Opfern den Cyberspace durchstreift. Das ist seine Petrischale, sein sogenanntes Honeynet. In dem sehr großen Computer, mit dem Porras herumspielen darf, hat er ein Netzwerk aus »virtuellen Rechnern« erschaffen. Dabei handelt es sich nicht um reale Rechner, sondern um separate Betriebssysteme innerhalb des Großrechners, die die Funktionen kleinerer Computer nachahmen und über eine jeweils eigene IP-Adresse verfügen. Damit kann Phil das Pendant zu einem realen Computernetzwerk nachbauen, das vollständig in den Umgrenzungen seiner digitalen Ranch existiert. Wenn man heutzutage einen Computer ungeschützt an das Internet anschließt, kann man sich zurücklehnen und praktisch dabei zuschauen, wie er geknackt oder, in der Insidersprache, »gepwned« wird. (Die unaussprechbare Neuprägung »pwned« ist ein Beispiel für den schrägen Humor in der Hackerszene: Computerfreaks sind berüchtigte Tippfehlerproduzenten, und in den Anfangszeiten der Malware-Kriege schrieb einmal jemand »pwned« statt »owned«. Im Laufe der Zeit hat sich der Begriff durchgesetzt.) So groß, wie der Bereich ist, den das SRI im Internet besitzt, werden Phils virtuelle Computer alle paar Minuten gepwned.

Wie nahezu alles in diesem Feld ist auch die Nomenklatur für Computerinfektionen etwas verwirrend. Während Durchschnittsnutzer die Begriffe »Virus« und »Wurm« häufig vermischen, definieren die Mitglieder des Tribes sie unterschiedlich. Um die Sache noch schwieriger zu machen, kommt es zwischen den verschiedenen Spezies innerhalb der beständig wachsenden Taxonomie hin und wieder auch zu Fremdbestäubungen. Der Oberbegriff Malware beziehungsweise Schadsoftware bezeichnet jedes Programm, das sich heimlich in einen Computer einschleicht und dort ohne Zustimmung des Benutzers aktiv wird. Für die Zwecke dieses Buchs besteht der Unterschied zwischen einem »Virus« und einem »Wurm« in der Art und Weise ihrer Verbreitung. Ein Virus ist auf menschliche Hilfe zur Infektion eines Computers angewiesen, etwa indem ein unaufgefordert zugeschickter E-Mail-Anhang geöffnet, ein infizierter Datenträger eingelegt oder ein befallener USB-Stick angeschlossen wird. Würmer dagegen entsprechen dem neuesten Stand der Technik und können sich von selbst verbreiten.

Bei dem Neuankömmling in Phils Honeypot handelte es sich eindeutig um einen Wurm, und er zog sofort die Aufmerksamkeit des Tribe auf sich. Auf die erste Infektion um 17.20 Uhr an diesem Donnerstagabend im November folgten ein paar Malware-Klassiker, anschließend wieder der neue Wurm. Und dann wieder. Und wieder. Die Infektionsrate beschleunigte sich immer mehr. Am Freitagmorgen unterrichtete Phils Kollege Vinod Yegneswaran ihn, dass ihr Honeynet unter schwerem Beschuss stand. Zu dem Zeitpunkt tauchte außer dem Neuling kaum mehr etwas anderes in dem Infektionslogbuch auf. Der Wurm breitete sich exponentiell aus und drängte so schnell herein, dass er alles, was sonst noch an Schadprogrammen unterwegs war, beiseitedrängte. Wenn die typische Infektionsrate einem ständig tropfenden Wasserhahn entsprach, dann schien dieser Wurm aus einem Feuerwehrschlauch zu schießen. Seine offenkundigsten Eigenschaften wirkten auf den ersten Blick vertraut. Der Wurm – das konnte Phil in seinem Log sehen – attackierte Port 445 des Windows-Betriebssystems, der weltweit am häufigsten eingesetzten Betriebssoftware. Er verursachte an diesem Port einen Pufferüberlauf und manipulierte seine Ausführung, um sich so in den Speicherblöcken des Host-Computers einnisten zu können. Worum auch immer es sich bei dieser Spezies handelte, sie war die infektiöseste, die Phil je untergekommen war. Der Wurm verwandelte jeden neuen Rechner, den er befiel, in einen neuen Infektionsherd, von dem aus er sofort nach neuen Zielen Ausschau hielt und sich unerbittlich immer weiterfraß. Es dauerte nicht lange, bis Phil von anderen aus dem Tribe hörte, die dasselbe Phänomen erlebten. Sie sahen, wie der Wurm aus Deutschland, Japan, Kolumbien, Argentinien und mehreren Orten in den Vereinigten Staaten hereinflutete. Das war keine Epidemie, sondern eine Pandemie.

Monate später, als der Kampf gegen den Wurm in vollem Gange war, unterhielt sich Phil mit Freunden an der University of California in San Diego, die einen Supercomputer betreiben, zu dem ein »Darknet« beziehungsweise »Schwarzes Loch« gehört. Phils Freunde in San Diego sind die Besitzer eines kontinentgroßen Kuchenstücks des Internets, eines »Slash 8« oder »/8«, was einem 256stel des gesamten Internets entspricht. Jeder das Internet nach dem Zufallsprinzip scannende Wurm wie diese neue Variante würde im Durchschnitt bei jedem 256. Start von einer neuen Quelle in dem Schwarzen Loch der UC San Diego landen. Als sie nachschauen gingen, stellten sie fest, dass der erste Scanversuch von Conficker sie drei Minuten vor dem Zeitpunkt getroffen hatte, als der Wurm zum ersten Mal in Phils Honeynet ging. Die Infektionsquelle erwies sich als dieselbe – die IP-Adresse aus Buenos Aires. Die Adresse selbst hatte nicht viel zu besagen. Die meisten Internetprovider vergeben IP-Adressen jedes Mal neu, wenn sich ein Rechner in das Netzwerk einklinkt. Gleichwohl verbarg sich hinter dieser Zahl die ursprüngliche Herkunft des Wurms, eventuell sogar sein Urheber, viel wahrscheinlicher aber gehörte sie zu einem vom ihm gekaperten Rechner.

Die Honeynets beim SRI und an der UC San Diego sind darauf ausgelegt, Schadprogramme einzufangen, um sie anschließend analysieren zu können. Dieser Wurm jedoch überflutete nicht einfach ihre Netzwerke. Was hier passierte, war vielmehr ein weltweiter digitaler Blitzkrieg. Die bestehenden Firewalls und Antivirenprogramme erkannten den Wurm nicht und konnten deshalb seine Ausbreitung auch nicht abbremsen. Die nächsten Fragen lauteten: Warum machte der Wurm das? Was sollte er erreichen? Was hatte er vor?

Die naheliegendste Vermutung war, dass er ein Botnetz aufbaute. Nicht jeder Wurm ist darauf programmiert, ein Botnetz einzurichten, aber sie sind sehr gut darin. Das würde auch seine ungewöhnlich hohe Ausbreitungsrate erklären. »Bot« ist eine Abkürzung für »Robot«. Eine ganze Reihe von Schadprogrammen zielt darauf ab, Computer in Sklaven zu verwandeln, die von unbefugten externen Betreibern kontrolliert werden. Unter Programmierern, die gemeinhin eine Vorliebe für SciFi- und Horrorfilme teilen, heißen solche Rechner auch »Zombies«. Was diesen neuen Wurm angeht, ist aber die Roboter-Analogie zutreffender.

Stellen Sie sich Ihren Computer als ein großes Raumschiff vor, zum Beispiel wie die Enterprise aus der Fernsehserie Raumschiff Enterprise. Das Schiff ist so komplex und hoch entwickelt, dass selbst ein erfahrener Kommandeur wie Captain James T. Kirk nur eine allgemeine Ahnung davon hat, wie es im Einzelnen funktioniert. Von seinem Schwenksessel auf der Brücke aus kann er die Enterprise fliegen, manövrieren und kämpfen lassen, aber die inneren Abläufe auf dem Schiff kann er weder vollständig steuern noch verstehen. Das Schiff besteht aus zahlreichen miteinander verknüpften komplexen Systemen, jedes einzelne mit seiner eigenen Funktion und Geschichte – Systeme für, sagen wir, Navigation, Flugmanöver, Strom-, Luft- und Wasserversorgung, Kommunikation, Temperaturkontrolle, Waffensysteme, Schutzschilde und so weiter. Jedes System hat einen eigenen Operator, der die Wartungsroutinen durchführt, Informationen mit anderen Systemen austauscht, Feinanpassungen vornimmt, der es, kurz gesagt, am Laufen oder einsatzbereit hält. Wenn das Schiff gemächlich durch die kosmischen Weiten fliegt, steuert es sich im Prinzip selbst, ohne dass ein Wort von Captain Kirk nötig wäre. Es gehorcht, wenn er einen Befehl erteilt, und kehrt dann wieder in den Bereitschaftsmodus zurück, in dem es mit seinen eigenen Dingen beschäftigt ist, bis es zum nächsten Mal gebraucht wird.

Stellen Sie sich nun einen cleveren Eindringling vor, einen feindlichen Agenten, der das Innenleben des Schiffs tatsächlich versteht. Und zwar gut genug, um ein Portal mit einem kaputten Schloss zu finden, das die ansonsten wachsamen Sicherheitssysteme des Schiffs übersehen haben – etwa so wie eine Sicherheitslücke in der Microsoft-Betriebsplattform. Niemand bemerkt also, wie er sich einschleicht. Er löst keinen Alarm aus, und damit niemand anderes dieselbe Schwachstelle ausnutzen kann, repariert er sogar das defekte Schloss und verschließt das Portal hinter sich. Mit anderen Worten, er verbessert die Schutzvorkehrungen des Schiffs. Nachdem er sich sicher eingenistet hat, richtet er sich heimlich, still und leise als alternativer Kommandeur des Schiffs ein. Damit ist die USS Enterprise nun ein »Bot«. Der Invasor bringt die unterschiedlichen Betriebssysteme des Schiffs dazu, seinen Befehlen zu gehorchen, wobei er sorgsam darauf achtet, keinen Alarm auszulösen. Captain Kirk sitzt immer noch in seinem Schwenksessel auf der Brücke, vor sich das eindrucksvolle Instrumentenbord, und ahnt nicht, dass derweil in den Tiefen des Schiffs ein Rivale sitzt. Wie auch, die Enterprise funktioniert ja weiter, wie sie das immer schon getan hat. Unterdessen nimmt der Eindringling heimlich Kontakt zu seinem eigenen, weit entfernt operierenden Kommandeur auf und lässt ihn wissen, dass er in Position ist und auf Anweisungen wartet.

Stellen Sie sich nun eine gewaltige Flotte vor, in der die Enterprise nur eines von mehreren Millionen Schiffen ist, die alle auf exakt dieselbe Weise gekapert worden sind, in denen ebenfalls ein versteckter Pilot sitzt, stets bereit, einen von außen kommenden Befehl auszuführen. In der realen Welt wird eine solchermaßen gekaperte Flotte als »Botnetz« bezeichnet, ein Netzwerk infizierter »Roboter«-Computer. Die erste Aufgabe eines Wurms, der ein Botnetz aufbauen soll, lautet, möglichst viele andere Computer zu infizieren und zu vernetzen. Es gibt viele Tausend Botnetze, die meisten davon sind relativ klein – mehrere Zehntausend oder ein paar Hunderttausend infizierte Rechner. Weltweit sind über eine Milliarde Computer in Betrieb, und manchen Schätzungen zufolge ist jeder vierte davon Teil eines Botnetzes.

Wenn es um die Bedrohung durch Schadprogramme geht, denken die meisten von uns immer noch daran, was diese unserem eigenen Computer antun können. Wenn das Thema zur Sprache kommt, lauten die Fragen: Wie kann ich feststellen, ob mein Rechner befallen ist? Und wie werde ich die Schadsoftware wieder los? Moderne Malware aber zielt weniger darauf ab, einzelne Computer auszubeuten – sie will das Internet ausbeuten. Ein Botnetz-Wurm will Ihrem Computer keinen Schaden zufügen, er will ihn benutzen.

Botnetze sind überaus wertvolle Instrumente für kriminelle Unternehmungen. Unter anderem können mit ihrer Hilfe Schadprogramme effizient weiterverbreitet, private Informationen von ansonsten sicheren Websites oder Computern entwendet, Betrugsmaschen unterstützt oder sogenannte DDoS-Attacken (Distributed Denial-of-Service) ausgeführt werden, die bestimmte Server gezielt mit Anfragen überfluten und so zum Absturz bringen. Selbst mit einem vergleichsweise kleinen Botnetz von, sagen wir, 20 000 Computern verfügen Sie bereits über ausreichend Rechenleistung, um die meisten Unternehmensnetzwerke lahmzulegen. Wer ein effektives Botnetz erzeugt, eines mit einer großen Reichweite und der anhaltenden Fähigkeit, Sicherheitsmaßnahmen abzuwehren, kann es entweder selbst für eine der oben aufgeführten Betrügereien verwenden oder es an Leute verkaufen oder vermieten, die das tun. Botnetze werden auf Online-Schwarzmärkten gehandelt, deren Kunden häufig nach sehr spezifischen Dingen suchen, etwa nach fünfzig vom FBI betriebenen Computern oder nach 1000 Computern, die Google, der Bank of America oder dem britischen Militär gehören. Die geballte Macht von Botnetzen wird zum Beispiel dazu verwendet, Schutzgeldzahlungen von großen Unternehmensnetzwerken zu erpressen, deren Betreiber oftmals lieber zahlen, als eine das Netzwerk lahmlegende DDoS-Attacke zu riskieren. Ebenso gut eignen sich Botnetze zur Geldwäsche. Die Möglichkeiten zu Diebstahl und Sabotage werden allein begrenzt durch die Phantasie und das Geschick des Botmasters.

Würden die entsprechenden Befehle erteilt und alle Bots in einem großen Netz im Rahmen einer konzentrierten Aktion zusammenarbeiten, könnten sie die meisten Codes knacken und in praktisch jede beliebige geschützte Datenbank der Welt einbrechen und sie plündern. Ein solches Botnetz wäre zudem in der Lage, so gut wie jedes Computernetzwerk zum Absturz zu bringen oder gar zu zerstören, darunter auch solche, die für das Funktionieren der modernen Zivilisation unerlässlich sind: Systeme, die den Geldverkehr, die Telekommunikation, die Energieversorgung, den Luftverkehr und das Gesundheitswesen kontrollieren, und letztlich sogar das Internet selbst. Eben weil unser Bild vom Internet so diffus ist, tun sich die meisten Leute, darunter auch solche, die öffentliche Verantwortung tragen, schwer mit der Vorstellung, es könnte angegriffen oder gar zerstört werden. Die Experten für Cybersicherheit stoßen regelmäßig auf eine Mauer des Unverständnisses und Unglaubens, wenn sie Alarm schlagen – fast so, als sei diese gefährliche Waffe, die auf das Grundgerüst der digitalen Welt zielt, etwas, das nur sie wahrnehmen könnten. Außerdem haben sie seit einigen Jahren mit einem neuen Problem zu kämpfen … mit Belustigung. Allzu oft wurde falscher Alarm ausgelöst – denken wir nur an das Y2K-Phänomen, die weit verbreitete Angst vor einem globalen Computercrash zum Jahrtausendwechsel, der dann doch ausblieb. Seither behandeln die Medien die Warnungen des Tribes genauso wie die regelmäßigen Ankündigungen des herannahenden Weltuntergangs von irgendwelchen religiösen Spinnern. Die Nachrichten werden meist mit einem vielsagenden Augenzwinkern vermeldet: Und hier die neuesten Prophezeiungen des unmittelbar bevorstehenden göttlichen Strafgerichts und der globalen Vernichtung von den Leuten mit den lustigen Kugelschreiber-Plastiketuis in den Hemdtaschen. Halten Sie davon, was Sie wollen. Je mehr also de facto die von böswilliger Software ausgehende Gefahr zunahm, desto schwieriger wurde es, die Menschen, selbst solche in verantwortlichen Positionen, davon zu überzeugen, sie ernst zu nehmen.

Falls Ihr Computer zu den infizierten Rechnern gehört, sind Sie in derselben Position wie Captain Kirk – scheinbar im Besitz der vollen und alleinigen Kontrolle über die Enterprise, ohne jede Ahnung von dem verborgenen Gegenspieler im Schiffsinnern beziehungsweise davon, dass Ihr Computer in eine riesige Roboterflotte zwangsrekrutiert wurde. Der Wurm in Ihrem Rechner ist nicht untätig. Heimlich sucht er nach anderen Computern, die er infizieren könnte, er erteilt Wartungsbefehle, trifft Vorkehrungen, damit man ihn nicht aufspüren und entfernen kann, meldet sich regelmäßig bei seiner Kommandozentrale zum Rapport und wartet ansonsten ab. Die Gefahr, die von Botnetzen ausgeht, betrifft weniger die Besitzer der infizierten Rechner als vielmehr die Gesellschaft insgesamt. Das Internet befindet sich heute in seiner Wild-West-Phase. Sie surfen dort auf eigene Gefahr.

Phil hatte keine Möglichkeit, die Ausbreitung des neuen Wurms zu verhindern. Er konnte ihn nur untersuchen. Und zunächst gab es wenig, was er über ihn hätte sagen können. Er wusste ungefähr, woher der erste Wurm, der sich in seinem Honeynet verfangen hatte, gekommen war und dass er einer bislang unbekannten Spezies angehörte. Er wusste, dass der Wurm sich unglaublich effektiv weiterverbreitete. Und er besaß eine weitere Eigenschaft, die Phil zuvor noch nie untergekommen war: Er verfügte über die Fähigkeit zur geographischen Ortsbestimmung – dieser Wurm wollte wissen, wo in der realen Welt der Rechner stand, den er gerade infiziert hatte.

Der erste Schritt im Umgang mit einem neuen Schadprogramm besteht darin, es zu »entpacken«, sprich, es zu hacken und dann zu analysieren. Die meisten Schadprogramme sind von einer Schutzhülle aus Code umgeben, die komplex genug ist, um den meisten Amateuren einen Blick ins Programminnere zu verwehren. Aber Phils IT-Sicherheitskollegen beim SRI waren Profis. Sie hatten ein Entpackungsprogramm namens Eureka entwickelt, das im Handumdrehen 95 Prozent der Malware knackte, die ihnen ins Netz ging.

Sie setzten Eureka auf den neuen Wurm an – und scheiterten.

Manchmal, wenn Phil wie in diesem Falle nicht mehr weiterkam, wartete er einfach, bis einer der Anbieter von Virenschutzsoftware eine Lösung entwickelte. Dieser neue Wurm aber breitete sich dermaßen schnell aus, dass keine Zeit zu verlieren war. Der Wurm flutete aus allen Richtungen heran, und Phils Logbuch registrierte dieselbe Infektion immer und immer wieder.

»Uns blieb buchstäblich gar keine andere Möglichkeit«, erklärte er später.

* Das ist eine Vereinfachung und nicht ganz korrekt in dem Sinne, dass es an diesen Standorten dreizehn reale Server gäbe, die als zentrale Vermittlungsstellen für das Internet fungierten. Wie alle Dinge im Cyberspace ist es … kompliziert. Paul Vixie hat es mir so zu erklären versucht: »Es gibt dreizehn Root-Nameserver, auf die der gesamte Datenverkehr im Internet angewiesen ist. Aber wir reden hier von Root-Nameserver-Identitäten, nicht von tatsächlichen Maschinen. Jeder von ihnen hat einen Namen, meiner zum Beispiel heißt f.root-servers.net. Ein paar davon sind physikalische Server. Bei den meisten aber handelt es sich um virtuelle Server, die an Dutzenden von Orten gespiegelt oder repliziert sind. Irgendwie ist jeder Rootserver irgendwie unerlässlich für irgendwie jede Nachricht. Sie sind für jede TCP/IP-Verbindung unerlässlich (aber nicht unbedingt auch daran beteiligt), weil jede TCP/IP-Verbindung vom DNS, dem Domain-Name-System, abhängig ist, und das DNS wiederum von den Root-Nameservern. Aber die Root-Nameserver selbst sind nicht im Datenpfad. Sie übertragen keinen Datenverkehr, sie beantworten nur Fragen. Die häufigste Frage, die wir hören, ist: ›Wie lautet die TCP/IP-Adresse für www.google.com?‹, und die häufigste Antwort, die wir geben, lautet: ›Keine Ahnung, aber ich werde Ihnen sagen, wo die COM-Server [die Kommando-Server] sind, und dann können Sie die fragen.‹ Sobald eine TCP/IP-Verbindung aufgebaut ist, ist das DNS nicht mehr beteiligt. Will ein Browser oder E-Mail-System innerhalb kurzer Zeit eine zweite oder nachfolgende Verbindung zu demselben Ort herstellen, ist die TCP/IP-Adresse noch in einem Cache gespeichert, und das DNS ist nicht vonnöten. Ein Root-Nameserver ist eine Internet-Ressource mit einem spezifischen Namen und einer spezifischen Adresse. Aber es ist möglich, dieselbe Ressource unter demselben Namen und derselben Adresse von multiplen Standorten aus anzubieten. f.root-servers.net, also mein Root-Nameserver, ist an Standorten in rund fünfzig Städten rund um den Globus untergebracht, die alle voneinander unabhängig sind, aber alle ein und dieselbe Identität teilen.« Alles klar?

 

2

MS08-067

Die Welt gehört nicht länger euch … Die Zukunft ist angebrochen … und eine ganze Nation erzittert.

– The X-Men Chronicles

Von überall her erreichten T. J. Campana Meldungen über den neuen Wurm – in Form von Instant Messages und E-Mails, von Phil Porras am SRI, von Symantec, dem Anbieter der Antivirensoftware Norton, von den Netzwerk-Sicherheitsexperten bei iDefense, von der finnischen IT-Sicherheitsfirma F-Secure und von vielen anderen. Und das bereits am ersten Abend.

»Hey, wir sehen hier etwas wirklich Seltsames.«

»Irgendetwas geht hier vor sich.«

T. J. war nicht sonderlich überrascht. Er wusste, was es war. Genau genommen hatte er auf einen Wurm wie diesen schon seit Monaten gewartet.

Campana ist Programm-Manager für Sicherheit bei Microsoft, was heißt, dass er sich in einem unablässigen Krieg befindet. Da Windows das weltweit am häufigsten genutzte Betriebssystem für Computer ist, ist es das primäre Ziel für alle, die Computer für kriminelle Zwecke infiltrieren, zerstören, kapern oder unter ihre Kontrolle bringen wollen. Neben der Entwicklung und Vermarktung seines Betriebssystems und seiner Software muss sich der Konzern immer intensiver in diesem kontinuierlichen Kampf engagieren. Es ist ein auf hohem Niveau geführter Wettstreit. Schadsoftware ist eine boomende globale Industrie, und die, die dahinterstecken, versuchen die Anwender von Microsoft-Programmen auf unterschiedlichste Weise abzuzocken, angefangen von grob gestrickten und vergleichsweise offenkundigen Betrugsmaschen wie sexuellen Lockangeboten und E-Mails, die Penisvergrößerungen und dergleichen anpreisen, bis hin zu subtileren Methoden wie diesem neuen Wurm, der ebenso schnell wie lautlos im Begriff war, etwas aufzubauen, das ein riesiges Botnetz zu werden drohte. T. J.s Job ist es, die Windows-Festung gegen diese ständig gegen ihre Mauern anrennenden Angreifer zu verteidigen, und er und seine Kollegen bemühen sich, neue Gefahren möglichst schon im Vorfeld auszuräumen. Sie versuchen, Schwachstellen zu erkennen und zu flicken, bevor die bösen Jungs eine Chance haben, sie voll auszunutzen – also genau das zu tun, was ihnen mit diesem neuen Wurm gelungen war.

Der Microsoft-Campus in Redmond ist ein neues und beeindruckendes Konzernzentrum außerhalb von Seattle, das, zumindest aus der Luft betrachtet, aussieht wie … nun, nicht wirklich wie ein Mikrochip, obwohl das perfekt gepasst hätte, sondern mehr wie die Mechanik einer alten Uhr. Eine Uhr mit Federantrieb mit all ihren fein gearbeiteten Gängen, Zahnrädern und Hemmungen – wenn auch eine, die aus Bäumen, angelegten Rasenflächen und Gärten besteht. Von oben betrachtet, umfasst der Campus mehrere identische Bürogebäude mit je vier Armen, die am Ende wie Zähne eines Zahnrads spitz zulaufen. Steht man davor, sind diese überdimensionalen Zähne von einer einheitlichen gelbbraunen Farbe mit grün getönten Fenstern und ragen drei Stockwerke in die Höhe. Das Gelände hat etwas Baumeisterliches an sich, eine sehr geordnete kleine Welt, in der die Form strikt der Funktion folgt, eine Welt, in der sich mehrere Tausend junge Menschen in Turnschuhen und Jeans und mit verknautschten Rucksäcken auf überdachten Gehwegen wie Elektronen auf ihren vorprogrammierten Pfaden entlangbewegen, wobei sie auf die für den pazifischen Nordwesten der USA typische entspannte Art angestrengt bemüht sind, so auszusehen, als wären sie nicht bei der Arbeit. Hier ist das Windows-Betriebssystem zu Hause, die Software, die den allermeisten der über eine Milliarde von IT-Kenntnissen unbeleckten Menschen, die jeden Tag eine Computertastatur oder -maus bedienen, die Arbeit mit ihrem Computer ermöglicht. Das hoch entwickelte, grafikbasierte Wunderwerk, das Windows heute ist, basiert im Kern auf dem alten, in den 1970er Jahren geschriebenen MS-DOS-Betriebssystem, als Bill Gates und ein paar anderen der immens lukrative Gedanke kam, dass Computer auch von Leuten, die nichts über deren Funktionsweise wussten, einfach zu bedienen sein sollten, eine Idee, die in finanzieller Hinsicht der Jackpot des 20. Jahrhunderts gewesen sein dürfte.

Gates und Paul Allen, sein Kumpel von der exklusiven Lakeside Prep School in Seattle, waren 1974 auf den Gedanken verfallen, ein leicht zu benutzendes Computer-Betriebssystem zu schreiben, nachdem Allen in der Zeitschrift Popular Electronics eine Titelgeschichte über eine völlig neue Sache namens Personal Computer gelesen hatte. In dieser Zeit der riesigen Mainframe-Computer bot das Unternehmen MITS (Micro Instrumentation and Telemetry Systems) aus Albuquerque, New Mexico, einen Bausatz für einen Mikrocomputer namens Altair 8080 an, aus dem man zu Hause einen funktionierenden Kleincomputer zusammenschrauben konnte. Kaum jemand ging damals davon aus, dass der Altair jenseits der leidenschaftlichen Computeramateure einen nennenswerten Markt finden würde. Wer es schaffte, das Ding richtig zusammenzusetzen (vielen gelang das nicht), musste den Objektcode, die Nullen und Einsen der binären Sprache, für den Computer mit Hilfe von Kippschaltern programmieren. Gates und Allen gehörten definitiv zur demographischen Zielgruppe des Altair 8080. Als Teenager auf der Lakeside School hatten sie sich in Computer verliebt und begriffen, dass die Nachfrage nach dem Altair stark steigen würde, wenn sich das Ding nur einfacher bedienen ließe. Sie schreiben in BASIC, einer der ersten Computersprachen, ein Programm für den Altair 8080 und verkauften es 1975 an MITS. Zur selben Zeit gründeten sie unter den Namen »Micro-Soft« ein Unternehmen, das die beiden jungen Männer sowie eine beträchtliche Anzahl von Technikfreaks, die sie zur Unterstützung einstellten, sehr, sehr reich machen sollte.

Von Anfang an basierte das Genie von Microsoft nicht bloß auf der Technologie, sondern genauso stark – wenn nicht sogar in höherem Maße – auf einem ausgeprägten Geschäftssinn sowie auf sorgfältiger Marktpositionierung, Dingen, die insbesondere Gates angeboren zu sein schienen. Der Durchbruch gelang Gates und Allen fünf Jahre nach dem Altair mit der Entscheidung von IBM, Microsoft (das inzwischen seinen Bindestrich abgestreift hatte) als Lieferanten der Software bei seinem Einstieg in den mittlerweile boomenden Markt für Personal Computer zu verpflichten. Bei dieser Software handelte es sich um das Microsoft Disc Operating System, kurz MS-DOS. IBM war damals der führende Konzern auf dem Computermarkt, aber entweder hatte der Computerriese den Boom schlicht verschlafen oder bewusst abgewartet (es kursieren unterschiedliche Versionen), ehe er ein eigenes Modell für Privatanwender herausbrachte, einen Rechner, der weniger auf Innovation als vielmehr auf Standardisierung setzte. Ausgehend von der Erwartung, dass Computer binnen eines Jahrzehnts im Privatbereich ebenso weit verbreitet sein würden wie Fernseher, wollte IBM einen Mikrocomputer entwickeln, der die erfolgreichsten Eigenschaften der von Apple, Tandy, MITS und anderen Pionieren verkauften Maschinen kopierte, um sich dann mit der geballten Fertigungs- und Vertriebsmacht eines Großkonzerns den Löwenanteil an dem neuen Markt zu sichern. Das Ergebnis war ein Rechner, der zuverlässig und auf einfache Weise die vom Großteil der Nutzer nachgefragten Anwendungen ausführen konnte – zumeist Textverarbeitung und einfache statistische Analysen. Darüber hinaus aber musste er auch kompatibel zu der großen Vielfalt an Software sein, die für den wachsenden Heim-PC-Markt geschrieben wurde. Gates und Allen hatten sich bereits als Meister in dieser neuen Kunst bewiesen und gewannen den Konkurrenzkampf darum, wer die Softwareseite des IBM-Rechners übernehmen würde. Das neue Betriebssystem geriet zu einem phänomenalen Erfolg, und die Umsätze schossen durch die Decke.

Ein paar sehr junge Männer wurden zu Milliardären. Eine ganze Generation hoffnungsvoller Geeks machte sich auf den Weg ins Silicon Valley, fest entschlossen, das nächste digitale Wunder zu vollbringen. Das vielleicht Bemerkenswerteste an Microsoft war, dass sein größter Coup erst noch kommen sollte. In einer Serie zusehends kühnerer Schritte erklomm das Unternehmen einen historischen Gipfel des kommerziellen Erfolgs nach dem anderen. Nachdem das Unternehmen sich mit dem Betriebssystem für den Altair 8080 einen Namen gemacht und dann mit MS-DOS einen Riesenerfolg gelandet hatte, trieb Gates (Allen hatte sich zu dem Zeitpunkt mit ein paar Milliarden Dollar in der Tasche aus dem aktiven Geschäft zurückgezogen) sein stark gewachsenes und extrem erfolgreiches Unternehmen zur Entwicklung von Windows an, dem erfolgreichsten Softwareprodukt aller Zeiten. Blickt man heute auf MS-DOS zurück, mutet es fast schon grotesk primitiv und umständlich an. Nutzer saßen damals vor einem dunklen Bildschirm mit grün leuchtenden Buchstabenzeilen, kaum mehr als das Bildschirmpendant zur Anzeige einer elektrischen Schreibmaschine. Gleichzeitig wurde eine Vielzahl aufregender neuer Anwendungen entwickelt, die sich die wachsenden Fertigkeiten der Rechner zunutze machten, insbesondere ihre Fähigkeit, interaktive visuelle Darstellungen zu erzeugen. Die beiden Grundideen hinter Windows waren keineswegs neu und gaben in den 1980er Jahren der gesamten Softwareindustrie die Richtung vor: Erstens wurde ein graphisches Nutzerinterface (Graphic User Interface, kurz GUI) entworfen, das die Handhabung von Computern immens vereinfachte, indem es den Nutzern erlaubte, auf visuelle Zeichen, sogenannte Icons, zu zeigen und zu klicken, statt mühselig Anweisungen eintippen zu müssen. Zweitens installierten die Microsoft-Programmierer eine zusätzliche Softwareebene zwischen Betriebssystem und Anwendungen – Textverarbeitung, Tabellenkalkulation, Spiele usw. –, den sogenannten Interface-Manager, mit dessen Hilfe die Nutzer problemlos zwischen Anwendungen umschalten und sogar mehrere Anwendungen gleichzeitig ausführen und darstellen konnten. Microsoft brauchte bis Ende des Jahrzehnts, um Windows zu perfektionieren, während unterdessen Steve Jobs bei Apple zuerst Lisa einführte und dann den MacIntosh 128K auf den Markt brachte, womit er Microsoft um Längen voraus war. Die beiden ersten von Microsoft in den 1980er Jahren vermarkteten Versionen von Windows galten gemeinhin als der Konkurrenz unterlegen, aber mit dem im Mai 1990 eingeführten Windows 3.0 setzte sich Microsoft mit einem Schlag vor alle anderen. Dazu hatte Gates erfahrene Softwareentwickler von der Konkurrenz abgeworben, Vereinbarungen mit über zwanzig Computerherstellern zur Übernahme des neuen Betriebssystems getroffen, noch während es sich in der Entwicklung befand, und war dann in New York City auf eine Bühne getreten, um seine bahnbrechende Neuentwicklung und die, wie er es formulierte, »extravaganteste, umfassendste und [mit drei Millionen US-Dollar] teuerste Softwareeinführung aller Zeiten« zu verkünden. Aus dem linkischen Teenager, dem seine Eltern einmal monatelang die Benutzung seines Computers verboten hatten, weil sie fürchteten, der Kasten könnte seine Entwicklung behindern, war nicht nur ein Software-Erfinder und höchst geschickter und erfolgreicher Unternehmer geworden, sondern auch ein Showman. Windows schlug sofort am Markt ein und verkaufte sich einfach immer weiter. Gates stieg zum reichsten Menschen der Welt auf, ein Titel, den er fast die gesamten nächsten zwanzig Jahre über behaupten sollte.

Mark Bowden

Über Mark Bowden

Biografie

Mark Bowden ist einer der berühmtesten amerikanischen Journalisten. Er arbeitete zwanzig Jahre lang für den Philadelphia Inquirer und schreibt heute für Vanity Fair, the Atlantic und andere US-Zeitschriften. Sein vielfach ausgezeichneter Bestseller Black Hawk Down, die Geschichte der gescheiterten...

Kommentare zum Buch

Kommentieren Sie diesen Beitrag:
(* Pflichtfeld)
Kommentar senden