Lieferung innerhalb 1-3 Werktage
Bezahlmöglichkeiten
Vorbestellung möglich
Kostenloser Versand*
Blick ins Buch
Blick ins Buch
Digitaler HumanismusDigitaler Humanismus

Digitaler Humanismus

Julian Nida-Rümelin
Folgen
Nicht mehr folgen
,
Nathalie Weidenfeld
Folgen
Nicht mehr folgen

Eine Ethik für das Zeitalter der Künstlichen Intelligenz

Taschenbuch
€ 12,00
E-Book
€ 11,99
€ 12,00 inkl. MwSt.
sofort lieferbar
In den Warenkorb Im Buchshop Ihrer Wahl bestellen
Geschenk-Service
Kostenlose Lieferung
€ 11,99 inkl. MwSt.
sofort per Download lieferbar
In den Warenkorb
Geschenk-Service
Kostenlose Lieferung

Digitaler Humanismus — Inhalt

Dürfen Computer alles, was sie können?

Autonomer Individualverkehr und Pflege-Roboter, softwaregesteuerte Kundenkorrespondenz und Social Media, Big-Data-Ökonomie und Clever-Bots, Industrie 4.0: Die Digitalisierung hat gewaltige ökonomische, aber auch kulturelle und ethische Wirkungen. In Form eines Brückenschlags zwischen Philosophie und Science-Fiction entwickelt dieses Buch die philosophischen Grundlagen eines Digitalen Humanismus, für den die Unterscheidung zwischen menschlichem Denken, Empfinden und Handeln einerseits und softwaregesteuerten, algorithmischen Prozessen andererseits zentral ist. Eine Alternative zur Silicon-Valley-Ideologie, für die künstliche Intelligenz zum Religionsersatz zu werden droht.

€ 12,00 [D], € 12,40 [A]
Erschienen am 06.07.2020
224 Seiten, Broschur
EAN 978-3-492-31616-3
Download Cover
€ 11,99 [D], € 11,99 [A]
Erschienen am 04.09.2018
224 Seiten, WMePub
EAN 978-3-492-99214-5
Download Cover

Leseprobe zu „Digitaler Humanismus“

1

Einführung

Möglicherweise wird man in einer fernen Zukunft auf die Menschheitsgeschichte zurückblicken und von drei großen disruptiven technologischen Innovationen sprechen. Der Übergang von der Jäger-und-Sammler-Kultur zur sesshaften Agrarkultur mit Ackerbau und Viehzucht in der Jungsteinzeit, der Übergang zum Maschinenzeitalter auf der Grundlage fossiler Energieträger im 19. Jahrhundert und schließlich die digitale Revolution des 21. Jahnhunderts: die Nutzung künstlicher Intelligenz. Sollte dies einmal so sein, dann stehen wir heute erst am Anfang [...]

weiterlesen

1

Einführung

Möglicherweise wird man in einer fernen Zukunft auf die Menschheitsgeschichte zurückblicken und von drei großen disruptiven technologischen Innovationen sprechen. Der Übergang von der Jäger-und-Sammler-Kultur zur sesshaften Agrarkultur mit Ackerbau und Viehzucht in der Jungsteinzeit, der Übergang zum Maschinenzeitalter auf der Grundlage fossiler Energieträger im 19. Jahrhundert und schließlich die digitale Revolution des 21. Jahnhunderts: die Nutzung künstlicher Intelligenz. Sollte dies einmal so sein, dann stehen wir heute erst am Anfang einer technologischen Revolution, ähnlich wie Europa in den ersten Jahrzehnten des 19. Jahrhunderts. Und so wie damals sind die technologischen Neuerungen auch heute von apokalyptischen Ängsten, aber auch euphorischen Erwartungen begleitet.

Dieses Buch befasst sich mit kulturellen und philosophischen Aspekten der Künstlichen Intelligenz und plädiert für einen digitalen Humanismus. Dieser ist technik-, aber auch menschenfreundlich. Er setzt sich von den Apokalyptikern ab, weil er der menschlichen Vernunft vertraut, und er setzt sich von den Euphorikern ab, weil er die Grenzen digitaler Technik achtet.

Der Traum von der menschlichen Erschaffung künstlicher Wesen ist seit Jahrtausenden Teil mythologischer Erzählungen. In der Antike ist es der Mythos des Prometheus, eines Gottes aus dem Titanengeschlecht, der ohne göttliche Erlaubnis denkende und fühlende Lehmwesen schafft und dafür von Zeus bitter bestraft wird. Im Mittelalter findet sich dann die Geschichte des Golem, eines aus Lehm geschaffenen künstlichen Wesens, das zwar stumm und nicht vernunftbegabt ist, aber viel Kraft besitzt und Aufträge ausführen kann. Auch die Literatur verarbeitet den Mythos des künstlich geschaffenen Wesens. So etwa die romantische Erzählung Der Sandmann von E. T. A. Hoffmann (1816), in dem es um eine geheimnisvolle Frau namens Olimpia geht, in die sich der Protagonist Nathanael verliebt, die aber in Wahrheit eine belebte Puppe ist. Das berühmteste Beispiel aus dieser Zeit ist vermutlich Mary Shelleys Roman Frankenstein oder Der moderne Prometheus (1818). In dieser tragischen Geschichte erschafft ein Schweizer Naturwissenschaftler einen künstlichen Menschen. Diese Kreatur erregt durch ihre Größe und Hässlichkeit so viel Abscheu und Angst, dass sie keinen Anschluss an die menschliche Gesellschaft finden kann und, im Gegenteil, immer mehr Wut und Hass in sich ansammelt. Am Ende tötet sie die Braut seines Schöpfers und sich selbst.

Dass wir humanoide Maschinen als „Roboter“ bezeichnen, verdanken wir einem Theaterstück des tschechischen Schriftstellers Karel apek, der 1920 das Drama R. U. R. veröffentlichte, in dem er, wie er selbst sagte, den Mythos des Golem verarbeitete. Es geht in diesem Drama um eine Firma namens R. U. R. (Rossums Universal Roboter), die künstliche Menschen – also Roboter – herstellt, um sie als billige Arbeitskräfte zu missbrauchen, die sich allerdings im Laufe der Geschichte gegen ihre Sklaverei auflehnen und die Menschheit auslöschen.

Heute sind es vor allem Science-Fiction-Geschichten, in denen der „Frankenstein-Komplex“5 weiterlebt, zum Beispiel in den Romanen und Erzählungen Stanisław Lems6 oder des US-amerikanischen Autors Philip K. Dick7, in denen Roboter und künstliche Wesen eine wichtige Rolle spielen. In den letzten Jahren haben vor allem US-amerikanische Sci-Fi-Blockbuster auf die mythologische Figur des künstlichen Menschen zurückgegriffen. Dieser taucht nun als von Menschen hergestellter Roboter auf, der in der Zukunft auf der Erde oder auch auf Raumschiffen mit Menschen kooperiert.

Aber auch die Vorstellung einer volldigitalisierten Welt wird in Science-Fiction-Filmen aufgegriffen und reflektiert – fast immer als dystopische Vision: sei es die von Maschinen vollständig beherrschte Welt der Matrix-Trilogie, in der die Maschinen den Menschen in einer digital erzeugten Welt gefangen halten, oder die Bilderwelt von Tron (Regie: Steven Lisberger. USA, 1982) beziehungsweise seinem Sequel Tron: Legacy (Regie: Joseph Kosinski. USA, 2010), in denen eine zukünftige Welt imaginiert wird, in der die Digitalisierung so weit fortgeschritten ist, dass sie selbst eine Art dämonisches Eigenleben entwickelt, das danach trachtet, die Welt vollständig zu kontrollieren, oder das futurische „Paradies“ in Demolition Man (Regie: Marco Brambilla. USA, 1993), in dem die Menschen aufgrund digitaler Anweisungen handeln und interagieren und selbst sexuelle Kontakte nur über die Vermittlung digitaler Medien erfolgen darf. Unnötig zu erwähnen, dass dieses „Paradies“, das in Wahrheit ein diktatorisches Regime ist, am Ende des Films zerstört wird.

Unterdessen ist manches, was in der Menschheitsgeschichte fantasiert wurde, Realität geworden. Das berühmteste Beispiel hierfür ist wohl das aufklappbare „Bord-Handy“ Captain Kirks aus der US-TV-Serie Raumschiff Enterprise (1966 – 1969), das etwa fünfzig Jahre später in Form des Klapphandys StarTAC von Motorola eine technologische Realisierung erfuhr. Es scheint sogar so, dass die Mythen lediglich eine durch neue Technologien imprägnierte Form annehmen, aber im Kern unverändert bleiben: der Mythos der Maschine in Menschengestalt, die am Ende die Macht übernimmt, der Mythos der belebten Puppe, der Mythos einer Freundschaft zwischen Mensch und Maschine. Aber im Unterschied zu früheren Jahrhunderten scheinen diese Mythen nun durch konkrete technologische Optionen wiederbelebt zu sein.

Es kann kein Zweifel bestehen, wir leben in einer Zeit des technologischen Umbruchs. Dieses und das nächste Jahrhundert – davon sind viele überzeugt – werden das Zeitalter sein, in dem Roboter viele Arten menschlicher Arbeit übernehmen. Es wird Roboter geben, die Pakete austragen, Taxi fahren, sich als Bankberater betätigen, den Weltraum erkunden, in Callcentern arbeiten, neben Ärzten in Krankenhäusern operieren und möglicherweise auch Romane schreiben oder sich anderweitig als Künstler betätigen. Die Digitalisierung hat schon heute unsere Arbeitswelt, aber auch unsere privaten Lebenswelten durchdrungen und übt einen gewaltigen Veränderungsdruck auf die ökonomischen und sozialen Verhältnisse aus. Dies wirft viele Fragen auf.

Zum Beispiel die, welche Folgen die Schaffung humanoider Roboter für uns und den Fortbestand der Menschheit haben wird. Nicht nur Bestsellerautoren wie Daniel H. Wilson (Robocalypse, 2011), sondern auch ein ehemaliger wissenschaftlicher Mitarbeiter der Carnegie Mellon University, der in Robotik promovierte, entwirft das Szenario einer Bedrohung der Menschheit durch Roboter, auch Wissenschaftler wie Stephen Hawking8 oder der Philosoph Nick Bostrom9 warnen davor, Roboter könnten eines Tages die menschliche Spezies an Denk- und Handlungskompetenz übertreffen und ihre Fähigkeiten gegen die Menschheit wenden.10

Parallel zu diesen zuweilen apokalyptischen Befürchtungen gibt es aber auch utopische Hoffnungen auf eine neue digitale Welt. Eine Welt, in der uns digitale Roboter als moderne Sklaven ein Reich der Freiheit und der unbegrenzten Entfaltung menschlicher Fähigkeiten begründen oder – glaubt man KI-Theoretikern wie etwa Hans Moravec11 – dem Menschen durch die Bereitstellung eines künstlichen Körpers, mit dem das menschliche Hirn vernetzt werden könnte, eine unsterbliche Existenz ermöglicht wird.

Es spricht viel dafür, dass das, was im Digitalisierungsdiskurs als „starke KI“ bezeichnet wird – also die These, dass Softwaresysteme über Bewusstsein verfügen, Entscheidungen treffen, Ziele verfolgen, dass ihre Leistungen nicht lediglich Simulationen personaler Kompetenzen sind, sondern diese realisieren (worauf wir zum Beispiel im 2. und 5. Kapitel noch näher eingehen werden) –, eines Tages als eine Form des modernen Animismus, also der Beseelung von Nicht-Beseeltem, gelten wird.

Aber natürlich präsentiert sich eine solche Digitalisierungsideologie nicht als regressiv und kindlich, sondern ganz im Gegenteil als rational und wissenschaftlich. Sie hat eine lange kulturelle Vorgeschichte und beginnt in unserem Kulturkreis bei den Pythagoräern im 5. Jahrhundert vor Christus. Es ist die Vorstellung einer streng in numerischen Relationen geordneten Welt, deren Harmonie und Rationalität sich erst in der mathematischen Analyse erschließt. Zweihundert Jahre später fügen die stoischen Philosophen dieser Theorie die These der Übereinstimmung von Weltvernunft und Menschenvernunft (logos) hinzu. Demnach sind Menschen nur deshalb in der Lage, vernünftig zu denken und zu handeln, weil sie fähig sind, an der Weltvernunft teilzuhaben. Der Logos ordnet die Welt nach streng deterministischen Gesetzen, und der Mensch hat sich in diese Weltvernunft einzufügen. Schon den Stoikern und ihren Gegnern fiel allerdings auf, dass sich hier ein Spannungsfeld auftut zwischen einer Weltsicht umfassender Determiniertheit und einer Selbstsicht als freier und verantwortlicher menschlicher Akteur. Führt die KI-Ideologie zu einer Neuauflage dieses Konfliktes, überwindet der digitale Humanismus denselben.

Wir entwickeln in diesem Buch die Grundzüge eines digitalen Humanismus als Alternative zu dem, was man etwas vereinfachend als „Silicon-Valley-Ideologie“ bezeichnen kann.

Diese hängt mit der uramerikanischen, puritanisch geprägten Erlösungshoffnung zusammen, eine Welt der Reinen und Gerechten zu schaffen, die Schmutz und Sünde hinter sich gelassen haben. Ähnlich dem Prediger John Winthrop, der in seiner berühmten Rede „City upon a hill“ (Stadt auf einem Hügel) im Jahre 1630 den puritanischen Siedlern Mut und Hoffung machen wollte, indem er sie auf ihre Sonderstellung und die herausragende Bedeutung der Besiedlung für den Rest der Welt hinwies, verkünden viele Softwareingenieure aus Silicon Valley ihre „Auserwähltheit“ und die Einzigartigkeit ihres Arbeitsplatzes, an dem Dinge entstehen, die für den Rest der Menschheit wichtig sind: „The people who built Silicon Valley were engineers. They learned business, they learned a lot of things, but they had a real belief that humans, if they worked hard with other creative, smart people, could solve most of humankind’s problems. I believe that very much.“ („Die Menschen, die das Silicon Valley aufgebaut haben, waren Ingenieure, sie kannten sich mit Business aus, sie lernten viel, vor allem aber glaubten sie fest daran, dass sie, wenn sie nur hart mit anderen kreativen Menschen arbeiteten, die meisten Probleme der Menschheit lösen würden. Ich glaube fest daran.“) Silicon Valley und die Arbeit an KI wird damit metaphysisch aufgeladen. Sie bedeutet nicht nur Big Business, sie ist auch eine Glaubensfrage.

Die zentralen Werte dieses Glaubens sind Transparenz und Berechenbarkeit, ökonomischer Erfolg und mäzenatisches Engagement. In Zeiten der Digitalisierung bringen sie perfekt konstruierte Gegenüber hervor, Softwareidentitäten, deren Konstruktion jeden Fehler ausschließt und die uns als Partner in ein technologisches Utopia führen. Der Schlüsselbegriff ist dabei der der Künstlichen Intelligenz, aufgeladen mit unausgesprochener Metaphysik und Theologie, eine sich selbst verbessernde, hyperrationale, zunehmend beseelte Entität, deren Schöpfer allerdings nicht Gott oder Götter sind, sondern Softwareingenieure aus Silicon Valley, die sich selbst nicht lediglich als Teil einer Industrie verstehen, sondern einer übergreifenden geistigen Bewegung, wie es Reid Hoffmann formuliert: „Silicon Valley is a mindset, not a location.“

Die Silicon-Valley-Ideologie nimmt humanistische Impulse als Ausgangspunkt, um sie dann – nicht zum ersten Mal in der Kulturgeschichte der Menschheit – zu anti-humanistischen Utopien zu transformieren. Sie beginnt bei der Verbesserung des Humanen und endet in seiner finalen Überwindung. Sie will das menschliche Leben auf dem Planeten verbessern und stellt die Bedingungen von Humanität infrage. Sie überführt den Humanismus zum Transhumanismus und zur technizistischen Utopie, in der das Menschliche auf der Strecke bleibt. Dem stellt sich der digitale Humanismus als eine Ethik für das Zeitalter der Künstlichen Intelligenz entgegen.



2


„Guten Morgen, wie kann ich Ihnen behilflich sein?“

Roboter als neue (digitale) Sklaven

Früh am Morgen. Detective Spooner, ein cooler Typ in Ledermantel, Chucks und mit Mütze, macht sich bereit, zur Arbeit zu gehen. Als er die Tür aufreißt, schreckt er zusammen. Vor ihm steht ein humanoider FedEx-Roboter, der ein Päckchen für ihn unter dem Arm hält.

„Guten Morgen, Sir“, begrüßt dieser ihn höflich und fährt fort: „Und wieder eine pünktliche Lieferung von …“

Doch weiter kommt er nicht. Spooner greift dem Roboter unsanft ins Gesicht: „Aus dem Weg, Blechbüchse!“

Der Roboter blickt ihn scheinbar verwirrt an, wünscht ihm aber dennoch einen schönen Tag (siehe Abb. 1).

Wir schreiben das Jahr 2035. Roboter kommen nicht nur in Fabriken zum Einsatz, sondern auch in Privathaushalten. Sie laufen selbstverständlich neben Menschen auf der Straße, bringen den Müll weg, erledigen Einkäufe und gehen mit den Hunden ihrer Besitzer Gassi. So sieht es zumindest in der Welt von I, Robot (Regie: Alex Proyas. USA, 2004) aus. Dienstbar sehen die Roboter aus. Und ein bisschen unterwürfig. Besonders gut behandelt werden sie nicht. Wenn sie angerempelt werden, sind sie es, die sich entschuldigen. Ihr Status entspricht dem von Sklaven, deren Existenzberechtigung nur darin besteht, von Menschen benutzt und eingesetzt zu werden. Zu Beginn des Films wird durch eine Einblendung klargemacht, dass Roboter ausschließlich Pflichten zu erfüllen haben.

1. Ein Roboter darf einem Menschen weder Schaden zufügen noch durch Untätigkeit zulassen, dass ein Mensch zu Schaden kommt.

2. Ein Roboter muss den Befehlen der Menschen gehorchen, außer solchen Befehlen, die ihn in Konflikt mit dem ersten Gesetz bringen.

3. Ein Roboter muss seine eigene Existenz verteidigen, solange er dabei nicht in Konflikt mit dem ersten und zweiten Gesetz gerät.

 

Diese Gesetze stammen im Übrigen nicht aus der Feder des Drehbuchschreibers, sondern wurden erstmals in der Erzählung Runaround des Wissenschaftlers und Romanautors Isaac Asimov im Jahr 1942 veröffentlicht.12

Spooner, der Held des Films, hat für die Roboter nur Verachtung übrig. Zudem stehen sie für ihn unter Generalverdacht. Wenn in der Stadt ein Diebstahl geschieht, verdächtigt er zuallererst Roboter, nicht Menschen. Doch nicht nur Spooner, die Gesellschaft insgesamt hat wenig Mitgefühl für ihre Robotersklaven. Wenn diese einmal nicht mehr gebraucht werden und ausgedient haben, werden sie am Rande der Stadt entsorgt und in Container gesteckt, wo sie den Rest ihrer digitalen Existenz verbringen müssen. Dort stehen sie dann, eng aneinandergeschmiegt, so als wollten sie sich trösten. Auf den Gesichtern der Roboter spiegelt sich auch eine Art noble Leidensfähigkeit. Es sind traurige Roboter. Roboter, die nicht verstehen, warum man sie so schlecht behandelt. Proyas will uns vor Augen führen, dass eine diskriminierende Behandlung von Robotern ungerecht und unmenschlich ist.

In der Realität ist bisher noch niemand auf die Idee gekommen, die Normen des deutschen Tierschutzgesetzes auf Roboter anzuwenden oder ihnen gar Menschenrechte zuzuerkennen. Es besteht ein praktischer Konsens darüber13, dass Computer und Roboter keine mentalen Eigenschaften haben. Wir sind uns weitgehend einig darüber, dass im Gegensatz zu Tieren – denen Leidensfähigkeit zugesprochen wird – Roboter keine Empfindungsfähigkeit aufweisen. Bislang gibt es keine ernst zu nehmenden Initiativen, Computern oder Softwaresystemen Rechte aufgrund ihrer Empfindungsfähigkeit zuzuschreiben.

Nichts spricht dafür, dass auch die komplexesten Softwaresysteme über Bewusstsein verfügen. Wäre es so, müssten wir den weiteren Umgang mit ihnen ab sofort streng reglementieren und die Grund- und Menschenrechte auch auf diese anwenden. Auch die schmerzlose Tötung, die bei Tieren zulässig, bei Menschen ethisch und gesetzmäßig unzulässig ist, wäre dann untersagt. In Analogie zum Projekt „Menschenrechte für die Großen Menschenaffen“, das den Speziesismus überwinden und Tieren in dem Umfang Menschenrechte zugestehen wollte, in dem diese vergleichbare Eigenschaften haben, müssten Robotern und autonomen Softwaresystemen ebenfalls Menschenrechte zuerkannt werden. Wenn wir davon ausgehen, dass von uns geschaffene Roboter personale Wesen sind, die mit einer Identität, mit Handlungsverantwortung, Autonomie und der damit einhergehenden individuellen Würde ausgestattet sind – eine sogenannte e-Person (elektronische Person)14 also –, dürften die betreffenden Softwaresysteme dann in Analogie zum informationellen Selbstbestimmungsrecht menschlicher Individuen nicht mehr manipuliert werden, denn dies widerspräche dem kantischen Instrumentalisierungsverbot von Vernunftwesen.

Und doch vertreten manche Befürworter der Künstlichen Intelligenz die These, dass man grundsätzlich zwischen einem menschlichen Gehirn und einem Computer nicht unterscheiden könne. So befassen sich zunehmend Juristen und Soziologen mit der Frage, inwieweit (zukünftige) Roboter bei Fehlern haftbar gemacht werden können, also eine juridische Verantwortlichkeit besitzen. In internationalen Forschungsinstitutionen fragen Juristen danach, ob Roboter als bloßes Werkzeug zu betrachten sind, für das ihre Besitzer oder Hersteller haften müssen, oder ob sie je nach Autonomiegrad irgendwann einen speziellen Status genießen werden, der ihnen Verantwortung, aber auch Rechte zugesteht. Schließlich, so lautet hier das juristische Argument, hätten Roboter auch Pflichten zu erfüllen.

In Saudi-Arabien hat ein Roboter im Oktober 2016 zum ersten Mal in der Geschichte offiziell eine Staatsbürgerschaft erhalten. Es handelt sich um „Sophie“, einen androiden Roboter mit weiblichem Gesicht und Körper, der auf mechanische Weise Gesichtsmimik simuliert. Diese Staatsbürgerschaft gibt Sophie theoretisch Rechte, aber auch Pflichten. Allein schon, dass sie sich – im Gegensatz zu allen anderen saudi-arabischen Frauen – unverschleiert bewegen darf, sorgte für viele Diskussionen in Saudi-Arabien und darüber hinaus.

 

Julian Nida-Rümelin

Über Julian Nida-Rümelin

Biografie

Julian Nida-Rümelin studierte Philosophie und Physik, er war deutscher Kulturstaatsminister und lehrt heute Philosophie und politische Theorie an der Universität München. Er leitet den Bereich Kultur am Zentrum Digitalisierung Bayern.

Nathalie Weidenfeld

Über Nathalie Weidenfeld

Biografie

Nathalie Weidenfeld studierte amerikanische Kulturwissenschaft und promovierte an der FU Berlin. Sie verfasste Romane und Sachbücher und arbeitete als Lektorin und Filmwissenschaftlerin.

Inhaltsangabe
Vorwort von Julian Nida-Rümelin
Vorwort von Nathalie Weidenfeld
1 Einführung
2 „Guten Morgen, wie kann ich Ihnen behilflich sein?“
3 „Willst du mit mir zusammen sein?“
4 „Alles beginnt mit einer Entscheidung“
5 „Wir brauchen dich nicht“
6 „Einige Menschen müssen geopfert werden“
7 „Crew entbehrlich“
8 „Willst du mein Freund sein?“
9 „Ich war die logische Wahl“
10 „Rette Calvin!“
11 „Das Gespräch hat keinen Zweck mehr“
12 „Willkommen in der Wüste des Realen“
13 „Please, I need your assistance“
14 „I own a Tiguan. Her name is Akira“
15 „Sie können nun Ihren Status auf Facebook updaten!“
16 „Ich will mehr Informationen!“
Lebensweltliches und nicht-lebensweltliches Orientierungswissen
Fachwissen
Kanon als gemeinsames Hintergrundwissen
Urteilskraft
Persönlichkeitsbildung
17 „Was ist, wenn die Demokratie gar nicht mehr existiert?“
18 „Alles, was Sie für Ihr Glück brauchen“
19 „Upgraden Sie Ihren Körper!“
20 „C-Beams, glitzernd im Dunkeln, nahe dem Tannhäuser Tor“
Kommentare zum Buch
Kommentieren Sie diesen Beitrag:
(* Pflichtfeld)
Kommentar senden

Julian Nida-Rümelin - NEWS

Erhalten Sie Updates zu Neuerscheinungen und individuelle Empfehlungen.

Beim Absenden ist ein Fehler aufgetreten!

Julian Nida-Rümelin - NEWS

Sind Sie sicher, dass Sie Julian Nida-Rümelin nicht mehr folgen möchten?

Beim Absenden ist ein Fehler aufgetreten!

Abbrechen

Nathalie Weidenfeld - NEWS

Erhalten Sie Updates zu Neuerscheinungen und individuelle Empfehlungen.

Beim Absenden ist ein Fehler aufgetreten!

Nathalie Weidenfeld - NEWS

Sind Sie sicher, dass Sie Nathalie Weidenfeld nicht mehr folgen möchten?

Beim Absenden ist ein Fehler aufgetreten!

Abbrechen