Lieferung innerhalb 1-3 Werktage
Bezahlmöglichkeiten
Vorbestellung möglich
Kostenloser Versand*
Denkanstöße 2020 (Denkanstöße)

Denkanstöße 2020 (Denkanstöße)

E-Book (8,99 €)
€ 8,99 inkl. MwSt.
sofort per Download lieferbar
In den Warenkorb
Geschenk-Service
Für den Versand als Geschenk können eine gesonderte Lieferadresse eingeben sowie eine Geschenkverpackung und einen Grußtext wählen. Einem Geschenkpaket wird keine Rechnung beigelegt, diese wird gesondert per Post versendet.

Denkanstöße 2020 (Denkanstöße) — Inhalt

„Die wichtigsten Erkenntnisse zusammengefasst.“ Spiegel Online

Denkanstöße 2020 vereint kompaktes Wissen, ausgereifte Argumente und spannende Positionen eines Jahres. Alexander von Schönburg verrät das Geheimnis lässigen Anstands, Kai Strittmatter berichtet vom Alltag in Chinas Überwachungsstaat, Julian Nida-Rümelin und Nathalie Weidenfeld widmen sich einer neuen Ethik im Zeitalter des technologischen Wandels und Roland Schulz‘ bewegender Text über das Sterben erkundet eines der größten Tabus unserer Zeit.

€ 8,99 [D], € 8,99 [A]
Erschienen am 02.09.2019
Herausgegeben von: Isabella Nelte
224 Seiten, WMePub
EAN 978-3-492-97898-9
Download Cover

Leseprobe zu „Denkanstöße 2020 (Denkanstöße)“

Vorwort

Es darf wieder gestritten werden – so vielfältig und divers wie lange nicht. Jugendliche fordern bei den „Fridays for Future“ mehr Umwelt- und Klimaschutz; unter dem Motto „Wir sind viele“ stehen Menschen ein für mehr Solidarität und gegen Ausgrenzung; der richtige Umgang mit dem dritten Geschlecht wird ebenso intensiv eingefordert wie die Notwendigkeit des Feminismus; und selbst Industrie und Banken werden für Dieselaffäre und Cum-Ex-Betrug zur Rechenschaft gezogen.
Auch wenn die wieder erwachte Lust an politischen und gesellschaftlichen Debatten [...]

weiterlesen

Vorwort

Es darf wieder gestritten werden – so vielfältig und divers wie lange nicht. Jugendliche fordern bei den „Fridays for Future“ mehr Umwelt- und Klimaschutz; unter dem Motto „Wir sind viele“ stehen Menschen ein für mehr Solidarität und gegen Ausgrenzung; der richtige Umgang mit dem dritten Geschlecht wird ebenso intensiv eingefordert wie die Notwendigkeit des Feminismus; und selbst Industrie und Banken werden für Dieselaffäre und Cum-Ex-Betrug zur Rechenschaft gezogen.
Auch wenn die wieder erwachte Lust an politischen und gesellschaftlichen Debatten uns nicht unverwundbar macht gegen Betrug, Diskriminierung oder Egosimus, so schaffen diese Debatten doch Resonanzräume in unseren Herzen und schärfen unsere Sinne.
Mit den hier versammelten Texten leistet diese Ausgabe der Denkanstöße 2020 einen weiteren Beitrag für den richtigen Umgang mit Ambivalenzen und Zwischentönen. Julian Nida-Rümelin und Nathalie Weidenfeld machen mit ihrer Untersuchung des „Digitalen Humanismus“ den Anfang, Michael Schmidt-Salomon schärft den Blick auf die Realität jenseits von Gut und Böse, Roland Schulz schreibt so poetisch wie realistisch über das Sterben, Andreas Altmann zeigt uns Magie und Brutalität Mexikos, Kai Strittmatter dokumentiert den Verlust der Freiheit für die Bevölkerung Chinas, Isabell Werth setzt der Kraft der Pferde ein Denkmal, Heike Specht widmet sich beeindruckenden „First Ladies“ und Alexander von Schönburg der „Kunst des lässigen Anstands“.
Lassen Sie sich irritieren, aufregen und anregen – für eigene inspirierende Denkanstöße.
Isabella Nelte



Erkenntnisse
Aus Wissenschaft und Philosophie


Julian Nida-Rümelin, Nathalie Weidenfeld
Digitaler Humanismus

Möglicherweise wird man in einer fernen Zukunft auf die Menschheitsgeschichte zurückblicken und von drei großen disruptiven technologischen Innovationen sprechen. Der Übergang von der Jäger-und-Sammler-Kultur zur sesshaften Agrarkultur mit Ackerbau und Viehzucht in der Jungsteinzeit, der Übergang zum Maschinenzeitalter auf der Grundlage fossiler Energieträger im 19. Jahrhundert und schließlich die digitale Revolution des 21. Jahnhunderts: die Nutzung künstlicher Intelligenz. Sollte dies einmal so sein, dann stehen wir heute erst am Anfang einer technologischen Revolution, ähnlich wie Europa in den ersten Jahrzehnten des 19. Jahrhunderts. Und so wie damals sind die technologischen Neuerungen auch heute von apokalyptischen Ängsten, aber auch euphorischen Erwartungen begleitet.
Unser Buch Digitaler Humanismus befasst sich mit kulturellen und philosophischen Aspekten der Künstlichen Intelligenz und plädiert für einen digitalen Humanismus. Dieser ist technik-, aber auch menschenfreundlich. Er setzt sich von den Apokalyptikern ab, weil er der menschlichen Vernunft vertraut, und er setzt sich von den Euphorikern ab, weil er die Grenzen digitaler Technik achtet.
Der Traum von der menschlichen Erschaffung künstlicher Wesen ist seit Jahrtausenden Teil mythologischer Erzählungen. In der Antike ist es der Mythos des Prometheus, eines Gottes aus dem Titanengeschlecht, der ohne göttliche Erlaubnis denkende und fühlende Lehmwesen schafft und dafür von Zeus bitter bestraft wird. Im Mittelalter findet sich dann die Geschichte des Golem, eines aus Lehm geschaffenen künstlichen Wesens, das zwar stumm und nicht vernunftbegabt ist, aber viel Kraft besitzt und Aufträge ausführen kann. Auch die Literatur verarbeitet den Mythos des künstlich geschaffenen Wesens. So etwa die romantische Erzählung Der Sandmann von E. T. A. Hoffmann (1816), in dem es um eine geheimnisvolle Frau namens Olimpia geht, in die sich der Protagonist Nathanael verliebt, die aber in Wahrheit eine belebte Puppe ist. Das berühmteste Beispiel aus dieser Zeit ist vermutlich Mary Shelleys Roman Frankenstein oder Der moderne Prometheus (1818). In dieser tragischen Geschichte erschafft ein Schweizer Naturwissenschaftler einen künstlichen Menschen. Diese Kreatur erregt durch ihre Größe und Hässlichkeit so viel Abscheu und Angst, dass sie keinen Anschluss an die menschliche Gesellschaft finden kann und, im Gegenteil, immer mehr Wut und Hass in sich ansammelt. Am Ende tötet sie die Braut seines Schöpfers und sich selbst.
Dass wir humanoide Maschinen als „Roboter“ bezeichnen, verdanken wir einem Theaterstück des tschechischen Schriftstellers Karel Cˇapek, der 1920 das Drama R. U. R. veröffentlichte, in dem er, wie er selbst sagte, den Mythos des Golem verarbeitete. Es geht in diesem Drama um eine Firma namens R. U. R. (Rossums Universal Roboter), die künstliche Menschen – also Roboter – herstellt, um sie als billige Arbeitskräfte zu missbrauchen, die sich allerdings im Laufe der Geschichte gegen ihre Sklaverei auflehnen und die Menschheit auslöschen.
Heute sind es vor allem Science-Fiction-Geschichten, in denen der „Frankenstein-Komplex“ weiterlebt, zum Beispiel in den Romanen und Erzählungen Stanisław Lems oder des US-amerikanischen Autors Philip K. Dick , in denen Roboter und künstliche Wesen eine wichtige Rolle spielen. In den letzten Jahren haben vor allem US-amerikanische Scifi-Blockbuster auf die mythologische Figur des künstlichen Menschen zurückgegriffen. Dieser taucht nun als von Menschen hergestellter Roboter auf, der in der Zukunft auf der Erde oder auch auf Raumschiffen mit Menschen kooperiert.
Aber auch die Vorstellung einer volldigitalisierten Welt wird in Science-Fiction-Filmen aufgegriffen und reflektiert – fast immer als dystopische Vision: sei es die von Maschinen vollständig beherrschte Welt der Matrix-Trilogie, in der die Maschinen den Menschen in einer digital erzeugten Welt gefangen halten, oder die Bilderwelt von Tron (Regie: Steven Lisberger. USA, 1982) beziehungsweise seinem Sequel Tron: Legacy (Regie: Joseph Kosinski. USA, 2010), in denen eine zukünftige Welt imaginiert wird, in der die Digitalisierung so weit fortgeschritten ist, dass sie selbst eine Art dämonisches Eigenleben entwickelt, das danach trachtet, die Welt vollständig zu kontrollieren, oder das futurische „Paradies“ in Demolition Man (Regie: Marco Brambilla. USA, 1993), in dem die Menschen aufgrund digitaler Anweisungen handeln und interagieren und selbst sexuelle Kontakte nur über die Vermittlung digitaler Medien erfolgen darf. Unnötig zu erwähnen, dass dieses „Paradies“, das in Wahrheit ein diktatorisches Regime ist, am Ende des Films zerstört wird.
Unterdessen ist manches, was in der Menschheitsgeschichte fantasiert wurde, Realität geworden. Das berühmteste Beispiel hierfür ist wohl das aufklappbare „Bord-Handy“ Captain Kirks aus der US-TV-Serie Raumschiff Enterprise (1966 – 1969), das etwa fünfzig Jahre später in Form des Klapphandys STARTAC von Motorola eine technologische Realisierung erfuhr. Es scheint sogar so, dass die Mythen lediglich eine durch neue Technologien imprägnierte Form annehmen, aber im Kern unverändert bleiben: der Mythos der Maschine in Menschengestalt, die am Ende die Macht übernimmt, der Mythos der belebten Puppe, der Mythos einer Freundschaft zwischen Mensch und Maschine. Aber im Unterschied zu früheren Jahrhunderten scheinen diese Mythen nun durch konkrete technologische Optionen wiederbelebt zu sein.
Es kann kein Zweifel bestehen, wir leben in einer Zeit des technologischen Umbruchs. Dieses und das nächste Jahrhundert – davon sind viele überzeugt – werden das Zeitalter sein, in dem Roboter viele Arten menschlicher Arbeit übernehmen. Es wird Roboter geben, die Pakete austragen, Taxi fahren, sich als Bankberater betätigen, den Weltraum erkunden, in Callcentern arbeiten, neben Ärzten in Krankenhäusern operieren und möglicherweise auch Romane schreiben oder sich anderweitig als Künstler betätigen. Die Digitalisierung hat schon heute unsere Arbeitswelt, aber auch unsere privaten Lebenswelten durchdrungen und übt einen gewaltigen Veränderungsdruck auf die ökonomischen und sozialen Verhältnisse aus. Dies wirft viele Fragen auf.
Zum Beispiel die, welche Folgen die Schaffung humanoider Roboter für uns und den Fortbestand der Menschheit haben wird. Nicht nur Bestsellerautoren wie Daniel H. Wilson (Robocalypse, 2011), sondern auch ein ehemaliger wissenschaftlicher Mitarbeiter der Carnegie Mellon University, der in Robotik promovierte, entwirft das Szenario einer Bedrohung der Menschheit durch Roboter, auch Wissenschaftler wie Stephen Hawking oder der Philosoph Nick Bostrom warnen davor, Roboter könnten eines Tages die menschliche Spezies an Denk- und Handlungskompetenz übertreffen und ihre Fähigkeiten gegen die Menschheit wenden.
Parallel zu diesen zuweilen apokalyptischen Befürchtungen gibt es aber auch utopische Hoffnungen auf eine neue digitale Welt. Eine Welt, in der uns digitale Roboter als moderne Sklaven ein Reich der Freiheit und der unbegrenzten Entfaltung menschlicher Fähigkeiten begründen oder – glaubt man KI-Theoretikern wie etwa Hans Moravec – dem Menschen durch die Bereitstellung eines künstlichen Körpers, mit dem das menschliche Hirn vernetzt werden könnte, eine unsterbliche Existenz ermöglicht wird.
Es spricht viel dafür, dass das, was im Digitalisierungsdiskurs als „starke KI“ bezeichnet wird – also die These, dass Softwaresysteme über Bewusstsein verfügen, Entscheidungen treffen, Ziele verfolgen, dass ihre Leistungen nicht lediglich Simulationen personaler Kompetenzen sind, sondern diese realisieren (worauf wir zum Beispiel im 2. und 5. Kapitel noch näher eingehen werden) –, eines Tages als eine Form des modernen Animismus, also der Beseelung von Nicht-Beseeltem, gelten wird.
Aber natürlich präsentiert sich eine solche Digitalisierungsideologie nicht als regressiv und kindlich, sondern ganz im Gegenteil als rational und wissenschaftlich. Sie hat eine lange kulturelle Vorgeschichte und beginnt in unserem Kulturkreis bei den Pythagoräern im 5. Jahrhundert vor Christus. Es ist die Vorstellung einer streng in numerischen Relationen geordneten Welt, deren Harmonie und Rationalität sich erst in der mathematischen Analyse erschließt. Zweihundert Jahre später fügen die stoischen Philosophen dieser Theorie die These der Übereinstimmung von Weltvernunft und Menschenvernunft (logos) hinzu. Demnach sind Menschen nur deshalb in der Lage, vernünftig zu denken und zu handeln, weil sie fähig sind, an der Weltvernunft teilzuhaben. Der Logos ordnet die Welt nach streng deterministischen Gesetzen, und der Mensch hat sich in diese Weltvernunft einzufügen. Schon den Stoikern und ihren Gegnern fiel allerdings auf, dass sich hier ein Spannungsfeld auftut zwischen einer Weltsicht umfassender Determiniertheit und einer Selbstsicht als freier und verantwortlicher menschlicher Akteur. Führt die KI-Ideologie zu einer Neuauflage dieses Konfliktes, überwindet der digitale Humanismus denselben.
Wir entwickeln hier die Grundzüge eines digitalen Humanismus als Alternative zu dem, was man etwas vereinfachend als „Silicon-Valley-Ideologie“ bezeichnen kann.
Diese hängt mit der uramerikanischen, puritanisch geprägten Erlösungshoffnung zusammen, eine Welt der Reinen und Gerechten zu schaffen, die Schmutz und Sünde hinter sich gelassen haben. Ähnlich dem Prediger John Winthrop, der in seiner berühmten Rede „City upon a hill“ (Stadt auf einem Hügel) im Jahre 1630 den puritanischen Siedlern Mut und Hoffnung machen wollte, indem er sie auf ihre Sonderstellung und die herausragende Bedeutung der Besiedlung für den Rest der Welt hinwies, verkünden viele Softwareingenieure aus Silicon Valley ihre „Auserwähltheit“ und die Einzigartigkeit ihres Arbeitsplatzes, an dem Dinge entstehen, die für den Rest der Menschheit wichtig sind: „The people who built Silicon Valley were engineers. They learned business, they learned a lot of things, but they had a real belief that humans, if they worked hard with other creative, smart people, could solve most of humankind’s problems. I believe that very much.“ („Die Menschen, die das Silicon Valley aufgebaut haben, waren Ingenieure, sie kannten sich mit Business aus, sie lernten viel, vor allem aber glaubten sie fest daran, dass sie, wenn sie nur hart mit anderen kreativen Menschen arbeiteten, die meisten Probleme der Menschheit lösen würden. Ich glaube fest daran.“) Silicon Valley und die Arbeit an KI wird damit metaphysisch aufgeladen. Sie bedeutet nicht nur Big Business, sie ist auch eine Glaubensfrage.
Die zentralen Werte dieses Glaubens sind Transparenz und Berechenbarkeit, ökonomischer Erfolg und mäzenatisches Engagement. In Zeiten der Digitalisierung bringen sie perfekt konstruierte Gegenüber hervor, Softwareidentitäten, deren Konstruktion jeden Fehler ausschließt und die uns als Partner in ein technologisches Utopia führen. Der Schlüsselbegriff ist dabei der der Künstlichen Intelligenz, aufgeladen mit unausgesprochener Metaphysik und Theologie, eine sich selbst verbessernde, hyperrationale, zunehmend beseelte Entität, deren Schöpfer allerdings nicht Gott oder Götter sind, sondern Softwareingenieure aus Silicon Valley, die sich selbst nicht lediglich als Teil einer Industrie verstehen, sondern einer übergreifenden geistigen Bewegung, wie es Reid Hoffmann formuliert: „Silicon Valley is a mindset, not a location.“
Die Silicon-Valley-Ideologie nimmt humanistische Impulse als Ausgangspunkt, um sie dann – nicht zum ersten Mal in der Kulturgeschichte der Menschheit – zu anti-humanistischen Utopien zu transformieren. Sie beginnt bei der Verbesserung des Humanen und endet in seiner finalen Überwindung. Sie will das menschliche Leben auf dem Planeten verbessern und stellt die Bedingungen von Humanität infrage. Sie überführt den Humanismus zum Transhumanismus und zur technizistischen Utopie, in der das Menschliche auf der Strecke bleibt. Dem stellt sich der digitale Humanismus als eine Ethik für das Zeitalter der Künstlichen Intelligenz entgegen.


„Willst du mit mir zusammen sein?“
Digitale Simulationen von Gefühlen

Ein junger sommersprossiger Mann entsteigt einem Hubschrauber. Er befindet sich auf einer idyllischen Insel. Üppige Vegetation, sanfte Bäche, Wasserkaskaden. Auf der Insel befindet sich ein Haus, das zu einem Hochsicherheitstrakt umgebaut worden ist. Das Gebäude sowie das gesamte Umland gehören einem Mann namens Nathan. Er ist Erfinder und Gründer der größten Internetsuchmaschine der Welt, die sich „Bluebook“ nennt (so wie das berühmte Werk des Philosophen Ludwig Wittgenstein: Das Blaue Buch). Der geniale und exzentrische Programmierer hat es sich zum Ziel gesetzt, der Menschheit eine neue Spezies zu bescheren. Dafür will er einen Roboter entwickeln, der ein Bewusstsein besitzt. Caleb, der junge Mann aus dem Hubschrauber, der in Nathans Firma als Programmierer arbeitet, ist von Nathan auserwählt worden, zu testen, ob eines seiner ersten Roboterexemplare das Ziel erreicht hat.
„Weißt du, was der Turing-Test ist?“, fragt ihn Nathan kurz nach seiner Ankunft.
„Ja“, antwortet Caleb. „Ich weiß, was der Turing-Test ist. Es geht dabei um die Interaktion von Mensch und Computer. Wenn dem Menschen dabei nicht auffällt, dass er einer Maschine gegenübersitzt, dann gilt der Test als bestanden.“
„Und wenn der Test bestanden ist. Was heißt das?“
„Dass der Computer künstliche Intelligenz aufweist.“
Der Roboter, den Caleb testen soll, ist Ava, eine attraktive Roboterfrau. Ihr Gesicht gleicht dem einer jungen Frau, nur ihre Arme und Beine bestehen aus glänzendem Metall, und in ihrem Bauch leuchten blaue Kabel. Wenn sie sich bewegt, rauscht es leise, als ob eine Neonröhre summt. In verschiedenen Sitzungen beobachtet Caleb Ava durch eine Panzerglasscheibe. Per Lautsprecheranlage unterhält sich Caleb mit ihr, stellt Fragen, testet sie. Wie eine enigmatische Sphinx sitzt sie ihm gegenüber und beantwortet jede seiner Fragen – wie ein richtiger, sich seiner selbst bewusster Mensch. Doch nach einiger Zeit dreht sich der Spieß um. Dann ist es Ava, die beginnt, Caleb Fragen zu stellen. In ihrem Gesicht spiegeln sich viele Emotionen. Sie ist überrascht, mal geschmeichelt, mal verwundert, mal verletzt und schließlich verliebt. Und doch ist Ava eindeutig eine Maschine. Eine Maschine, die ihr „Wissen“, ja selbst ihre Mimik allein über das Internet bezieht. Wie Nathan sagt:
„Wenn du wüsstest, wie schwer es ist, einer KI Deutung und Reproduktion von Mimik beizubringen. Weißt du, wie ich es gelöst habe?“
„Ich habe keine Ahnung“, antwortet der perplexe Caleb.
„Jedes Mobiltelefon – mehr oder weniger – hat ein Mikrofon, eine Kamera und die Möglichkeit, Daten zu senden. Ich habe also sämtliche Mikrofone und Kameras eingeschaltet, die es auf dem Scheißplaneten gibt, und ich habe die Daten über Bluebook umgeleitet. Boom! Unendliche Ressourcen an stimmlicher und mimischer Interaktion.“
Ava ist eine Expertin für Mimik und stimmliche Expression. Dadurch, dass sie alle Menschen auf der Welt bei ihren Reaktionen beobachten konnte, hat sie sich im Laufe der Zeit ein perfektes Reservoir an Wissen über die Mimik angeeignet. Sie weiß, wie Mimik zu deuten ist, und sie weiß, welche Mimik zu welcher Zeit als angemessen gilt. Big Data macht sie zu einer perfekten Imitatorin von Gefühlsausdrücken. Doch bedeutet das, dass sie die Gefühle wirklich hat?
„Ich will mit dir zusammen sein. […] Willst du mit mir zusammen sein?“, fragt Ava Caleb in der fünften Sitzung.
Doch kann Ava überhaupt echte Gefühle haben, oder ist sie nur programmiert worden, so zu tun, als habe sie welche? Caleb entscheidet sich dazu, ihr zu glauben. Er nimmt sie als eigenständiges und einzigartiges Wesen wahr. Ein Wesen, in das er sich verliebt und von dem er annimmt, dass es sich auch in ihn verliebt hat.
In seiner vierten Sitzung erzählt Caleb Ava von dem Gedankenexperiment „Marys Zimmer“. „Mary ist Wissenschaftlerin, und sie hat sich auf Farbe spezialisiert. Es gibt nichts, was sie nicht darüber weiß. Sie kennt die Wellenlängen, die neurologischen Auswirkungen, jedes Merkmal, das eine Farbe nur aufweisen kann. Aber sie lebt in einem schwarz-weißen Raum. Sie wurde darin geboren, ist darin aufgewachsen, und die Außenwelt kann sie nur über einen Schwarz-Weiß-Monitor beobachten. Und eines Tages öffnet jemand die Tür, und Mary geht hinaus. Und sie sieht einen blauen Himmel. Und in dem Moment lernt sie etwas, was all ihre Studien ihr nicht vermitteln konnten. Sie lernt, wie es sich anfühlt, Farben zu sehen.“
Ava hat Caleb während seiner Schilderung regungslos angesehen. Doch ihrem Gesichtsausdruck nach zu urteilen, hat diese Geschichte sie sehr mitgenommen. Ist sie nicht selbst eine solche Mary? Eine Person, die alles kennt und alles weiß, aber eben nur auf Basis von Secondhand-Informationen aus dem Internet? In Avas Gesicht liest Caleb Enttäuschung, aber auch eine wilde Entschlossenheit. Sie macht Caleb klar: Auch sie will eines Tages ihr Zimmer verlassen. Am liebsten, wie sie sagt, mit ihm. An ihrem ersten Date, so wünscht sie sich, möchte sie mit ihm auf eine belebte Kreuzung gehen und dort die Menschen beobachten.
Als sie erfährt, dass Nathan vorhat, sie demnächst auszuschalten, um Teile von ihr für einen neuen Roboter zu verwenden, versucht sie alles, um aus ihrem Gefängnis zu fliehen. Caleb will ihr dabei helfen und schmiedet einen Plan. Am Ende des Films hat Caleb es geschafft, den Code des Hochsicherheitstraktes zu knacken. Avas Zimmer ist offen, und sie kann entkommen. Kurz darauf bringt Ava Nathan, ihren Erschaffer, um. Avas Freiheit steht nun nichts mehr im Wege. Doch dann passiert etwas, womit zu diesem Zeitpunkt weder Caleb noch der Zuschauer gerechnet hat: Ava lässt Caleb kaltherzig zurück. Alles, was sie will, ist ihre Freiheit. An Caleb war ihr nie gelegen. Auch der Zuschauer ist in diesem Moment schockiert, denn wie Caleb hat auch er im Laufe des Films das Gefühl gewonnen, dass Ava ein fühlendes Wesen ist, das unter seiner Situation leidet und sich einsam und eingesperrt fühlt.
Während Caleb verzweifelt an die Tür schlägt, hinter der sie ihn eingesperrt hat, wandelt sie in einem weißen Kleid und in hohen weißen Schuhen elfengleich durch das Haus. Mit organischem Material, das sie anderen deaktivierten Robotern entnommen hat, geht sie nunmehr vollständig mit Haut bedeckt hinaus in die Welt. Braune schulterlange Haare umwehen ihr zartes Gesicht. Als sie zum ersten Mal die Luft des Waldes schnuppert, lächelt sie. Sie berührt die Zweige der Bäume und blickt neugierig auf ihr neues Leben. Gewissensbisse plagen sie nicht. Sie dreht sich kein einziges Mal nach Caleb um.
Wie Mary tritt sie nun aus ihrem Zimmer in die große weite Welt, um eigene Erfahrungen zu machen und um die Welt zu erleben. Wird sie neben den Farbenempfindungen auch lernen, Gefühle nicht nur imitieren zu können, sondern auch selbst zu empfinden? Oder wird sie für immer eine Maschine bleiben? Dies ist das Kernstück aller philosophischen Fragen, um das die KI-Anhänger immer wieder kreisen.
Auch Caleb in Ex Machina (Regie: Alex Garland. UK, 2015) stellt sich immer wieder die Frage: Hat Ava nur gelernt, bestimmte Verhaltensweisen zu imitieren, um damit den falschen Eindruck zu erwecken, sie hätte Gefühle? Etwa wie der von Diderot beschriebene „kalte“ Schauspieler, dessen Kunst sich vor allem auf die perfekte Beherrschung von physischem Verhalten konzentriert? Die wirklich beunruhigende Frage aber ist eine andere: Was, wenn nicht nur Avas, sondern auch unsere Gefühle in Wahrheit nichts anderes wären als Verhaltensweisen? Das zumindest behaupten radikale Positivisten, die die metaphysische These vertreten, dass mentale Zustände nichts anderes sind als Verhaltensmuster. Ein positivistisches Verständnis des Bewusstseins identifiziert mentale Eigenschaften und Zustände, wie zum Beispiel, Angst oder Wünsche oder Überzeugungen zu haben, mit bestimmten Verhaltensweisen. „Jakob hat Schmerzen“ bedeutet – im positivistischen Verständnis – nichts anderes als, „Jakob verhält sich in einer bestimmten Weise, zum Beispiel schreit er ›Aua‹ oder zieht ruckartig seine Hand von der heißen Herdplatte zurück“.

Dass übrigens in dem Film mehrfach auf den Philosophen Ludwig Wittgenstein Bezug genommen wird, ist kein Zufall, wird Ludwig Wittgenstein von den meisten Interpreten doch als Behaviorist angesehen. Wenn der Behaviorismus recht hätte, müssten wir allerdings davon ausgehen, dass die auf vielen iPhones etablierte Kommunikationssoftware Siri ganz ähnliche Gefühle hat wie wir auch. Immerhin reagiert sie stets so, als ob sie wirklich enttäuscht wäre oder sich Sorgen machte. Doch die Software simuliert nur Gefühle, sie hat sie nicht.
Weit plausibler als die behavioristische ist eine realistische Auffassung bezüglich mentaler Zustände: Schmerzen charakterisieren einen bestimmten Typus von Gefühlen, die unangenehm sind und die wir meist zu vermeiden suchen. Beim Zahnarzt bemühen wir uns, jede Regung zu unterdrücken, um die Behandlung nicht zu stören, das bedeutet aber keineswegs, dass wir keine Schmerzen haben. Auch der imaginierte Super-Spartaner, der selbst bei extremen Schmerzen keinerlei Regungen zeigt, kann dennoch Schmerzen haben. Es ist schlicht abwegig, „Schmerzen haben“ mit bestimmten Verhaltensmustern zu identifizieren.
Das vielleicht grundlegendste Argument gegen die Identität von mentalen Zuständen oder Eigenschaften und neurophysiologischen beziehungsweise digitalen Zuständen oder Eigenschaften bezeichnet man als Qualia-Argument. Unter Qualia versteht man Gefühlszustände, also etwa wie es ist, etwas wahrzunehmen, zum Beispiel eine Farbe. Thomas Nagel argumentiert in einem berühmt gewordenen Aufsatz „What is it like to be a bat?“ (1974), dass es nicht möglich ist zu wissen, wie es sich anfühlt, eine Fledermaus zu sein (also was die Fledermaus fühlt), auch wenn man ihr Gehirn auf das Genaueste untersucht. Diese sogenannten qualitativen mentalen Zustände der Fledermaus sind allein aufgrund der Kenntnis neurophysiologischer Zustände nicht erfassbar. Das Qualia-Argument spricht also gegen die Identität von neurophysiologischen und mentalen Zuständen.
Im Film erzählt Caleb in der vierten Sitzung Ava von einem Gedankenexperiment namens „Marys Zimmer“. Dieses Gedankenexperiment gibt es wirklich. Es stammt vom australischen Philosophen Frank Cameron Jackson. In seinem Aufsatz „What Mary couldn’t know“ (1986) präsentiert Jackson das Qualia-Argument folgendermaßen: Angenommen, eine perfekte Neurowissenschaftlerin namens Mary wächst in einem schwarz-weißen Labor auf – sie lebt in einem Haus, in dem es keine Farben gibt, sie absolviert ein Fernstudium in Neurowissenschaft, und da sie extrem begabt ist, wird sie zur perfekten Neurowissenschaftlerin. Am Ende weiß sie alles über das menschliche Gehirn. Die zentrale These des Artikels lautet nun: Bevor Mary ihr Haus verlässt und zum ersten Mal farbige Dinge sieht, Blüten zum Beispiel oder grüne Wiesen, rote Markisen oder blaues Wasser, wird sie nicht wissen, wie es ist, farbige Dinge zu sehen. Mary „weiß“ zwar alles über farbige Dinge, weiß aber nicht, wie es ist, eine Farbwahrnehmung zu haben. Das bedeutet: Qualitative Zustände und Prozesse, Qualia, können nicht mit neurophysiologischen Vorgängen identifiziert werden.
Caleb nimmt an, dass Ava in der gleichen Situation wie Mary ist. Sie weiß – wie Nathan ihm erzählt hat – alles über die Welt, auch über die Menschen und ihre Gefühle, das bedeutet aber nicht, dass sie auch wirklich versteht, was es bedeutet, die Welt zu erleben und Gefühle zu haben.
Man kann auch die Identität von Mentalem und Neurophysiologischem ablehnen, aber trotzdem der Auffassung sein, dass Mentales nur im Zusammenhang mit Materiellem auftreten kann. In der Tat spricht vieles dafür, dass menschliches Bewusstsein nur möglich ist, wenn die entsprechenden Hirnfunktionen intakt sind. Aber selbst wer der Meinung ist, dass menschliches Bewusstsein ausschließlich auf neurophysiologischen Prozessen beruht, muss sich nicht der Identitätstheorie des Geistigen und des Körperlichen (des Mentalen und des Physischen) anschließen. Dass mentale Zustände von Menschen durch Hirnzustände, also neurophysiologische Prozesse und Zustände, realisiert werden, bedeutet nicht, dass sie von ihnen verursacht werden.
Es ist für uns Menschen unbezweifelbar, dass wir mentale Eigenschaften haben, dass wir in bestimmten psychischen Zuständen sind und Überzeugungen, Wünsche, Absichten, Ängste, Erwartungen etc. haben. Wir sind davon überzeugt (jedenfalls die meisten von uns), dass diese mentalen Phänomene durch Vorgänge in unserem Gehirn realisiert werden oder jedenfalls mit diesen korrelieren. Die Erste-Person-Perspektive spielt dabei eine entscheidende Rolle. Diese darf man allerdings nicht zu einer solipsistischen Auffassung radikalisieren, wonach ich selbst und allein (solus ipse) in der Welt bin, die nur für mich existiert. Die Erfassung der Lebenswelt erfolgt ganz wesentlich über das Du, über die Interaktion, speziell Kooperation mit anderen, denen wir vergleichbare mentale Eigenschaften zuschreiben.
Für kleine, vorsprachliche Kinder sind nicht nur die haptischen Erfahrungen der Welt, die Sinneswahrnehmungen, wichtig, sondern auch der Austausch, die Interaktion und Kommunikation mit anderen, älteren, sprachfähigen Mitgliedern der menschlichen Spezies. Diese Rolle des anderen ist ohne eine (vermutlich genetisch verankerte) Wahrnehmung des Fremdpsychischen schon bei vorsprachlichen Kindern nicht möglich. Wir sind am „Grunde allen Begründens“, um es in der Formulierung Ludwig Wittgensteins zu sagen, angelangt. So beginnt die menschliche Welterfassung, sie zu bezweifeln würde unsere Welt zum Einsturz bringen. So wie es für uns keinen vernünftigen Zweifel am Fremdpsychischen geben kann, kann es nach Lage der Dinge keinen Zweifel am nicht-psychischen Charakter des Digitalen geben. Die Korrelation von Psychischem und Physischem bei Menschen und hoch entwickelten Säugetieren zu bestreiten, die eine hinreichende Ähnlichkeit mit uns aufweisen und wenigstens eine rudimentäre Erfassung ihrer mentalen Zustände durch uns zulassen, wäre ebenso unbegründet wie die Mentalisierung digitaler Zustände und Prozesse. Digitale Zustände und Prozesse simulieren mentale Zustände, sind aber auch dann nicht mit ihnen identisch, wenn sie in dieser Simulation perfekt wären. Ja, nichts spricht dafür, dass sich mentale Zustände und Prozesse durch digitale realisieren lassen. Simulation darf nicht mit Realisierung verwechselt werden.
Im letzten Bild des Films Ex Machina sehen wir Ava ungerührt durch den Wald laufen. Sie hat ihr Ziel, Freiheit zu erlangen, erreicht. Der Turing-Test mag bestanden sein, aber er beweist nicht, dass Ava Bewusstsein besitzt. Wie Nathan selbst im Laufe des Films sagt, wurde sie ja dazu programmiert, sich „Freiheit“ zu sichern. Insofern hat sie lediglich nach dem ihr einprogrammierten Ziel agiert. Die Tatsache, dass es sie völlig kaltlässt, für ihre Befreiungsaktion zwei Menschen getötet zu haben (Nathan und Caleb), ist nicht erstaunlich, da Ava kein Bewusstsein und auch keine Gefühle hat. Dass Caleb ihre Mimik und Gestik als Ausdruck echter Gefühle gelesen hat, war ein Fehler. Ein fataler Fehler. In diesem Sinne könnte der Film uns auch dazu aufrufen, nicht in die gleiche Falle zu tappen, vor der Nathan Caleb gewarnt hatte: „Irgendwann“, so sagt dieser, „sehen uns die KI rückblickend genau so an, wie wir auf fossile Skelette in der Wüste von Afrika sehen. Als aufrecht gehende Affen, die durch den Staub rennen, mit rudimentärer Sprache und Werkzeugen, die dazu verdammt sind, auszusterben.“

Kommentare zum Buch
Kommentieren Sie diesen Beitrag:
(* Pflichtfeld)