Lieferung innerhalb 1-3 Werktage
Bezahlmöglichkeiten
PayPal
Visa
Mastercard
Vorbestellung möglich
Kostenloser Versand*

Denkanstöße 2026 (Denkanstöße) Denkanstöße 2026 (Denkanstöße) - eBook-Ausgabe

... aus Gesellschaft, Philosophie und Wissenschaft

Taschenbuch (10,00 €) E-Book (9,99 €)
€ 10,00 inkl. MwSt. Erscheint am: 29.08.2025 Bald verfügbar Das Buch kann 30 Tage vor dem Erscheinungstermin vorbestellt werden.
Geschenk-Service
Für den Versand als Geschenk können eine gesonderte Lieferadresse eingeben sowie eine Geschenkverpackung und einen Grußtext wählen. Einem Geschenkpaket wird keine Rechnung beigelegt, diese wird gesondert per Post versendet.
Kostenlose Lieferung
Bestellungen ab 9,00 € liefern wir innerhalb von Deutschland versandkostenfrei
€ 9,99 inkl. MwSt. Erscheint am: 29.08.2025 Bald verfügbar Das Buch kann 30 Tage vor dem Erscheinungstermin vorbestellt werden.
Geschenk-Service
Für den Versand als Geschenk können eine gesonderte Lieferadresse eingeben sowie eine Geschenkverpackung und einen Grußtext wählen. Einem Geschenkpaket wird keine Rechnung beigelegt, diese wird gesondert per Post versendet.
Kostenlose Lieferung
Bestellungen ab 9,00 € liefern wir innerhalb von Deutschland versandkostenfrei

Denkanstöße 2026 (Denkanstöße) — Inhalt

„Eine wertvolle Orientierungshilfe.“ FAZ Online 

„Sie haben wenig Zeit, wollen aber trotzdem viel wissen? Die ›Denkanstöße‹ fassen die wichtigsten Erkenntnisse zusammen.“ SPIEGEL ONLINE 

Die „Denkanstöße 2026“ – das sind ausgereifte Argumente, kompaktes Wissen und spannende Positionen eines ganzen Jahres. So schreibt der Publizist Michel Friedmann über Antisemitismus und Demokratiefeindlichkeit und darüber, wie verhindert werden kann, dass Hass und Gewalt gegen Juden weiter zunehmen. Die Reporterin Julia Friedrichs fragt, wie viel Ungleichheit eine Gemeinschaft verträgt und ob Reichtum Grenzen braucht, und der Journalist Ulrich Wickert beleuchtet die Geschichte der Europäischen Union und wirbt für ein friedliches, starkes Europa. 

Ein Lesebuch zum Mit- und Weiterdenken!

€ 10,00 [D], € 10,30 [A]
Erscheint am 29.08.2025
Herausgegeben von: Isabella Nelte
208 Seiten, Broschur
EAN 978-3-492-32126-6
Download Cover
€ 9,99 [D], € 9,99 [A]
Erscheint am 29.08.2025
Herausgegeben von: Isabella Nelte
208 Seiten
EAN 978-3-492-62026-0
Download Cover

Leseprobe zu „Denkanstöße 2026 (Denkanstöße)“

Vorwort

Wir leben in einem Zeitalter der Krisen und Chancen, der Neuerungen und des Umbruchs. Gewiss, auch in früheren Zeiten haben vermutlich schon viele so gedacht. Und dennoch bleibt der Eindruck, dass die Geschwindigkeit, in der sich die aktuellen Veränderungen vollziehen, höher ist als je zuvor. Mehrere wichtige Bereiche unseres Lebens verändern sich gleichzeitig immer schneller. Die Künstliche Intelligenz – die gerade erst in unser Arbeits- und Alltagsleben getreten ist – wird immer leistungsfähiger, und es wird immer einfacher, auf Informationen [...]

weiterlesen

Vorwort

Wir leben in einem Zeitalter der Krisen und Chancen, der Neuerungen und des Umbruchs. Gewiss, auch in früheren Zeiten haben vermutlich schon viele so gedacht. Und dennoch bleibt der Eindruck, dass die Geschwindigkeit, in der sich die aktuellen Veränderungen vollziehen, höher ist als je zuvor. Mehrere wichtige Bereiche unseres Lebens verändern sich gleichzeitig immer schneller. Die Künstliche Intelligenz – die gerade erst in unser Arbeits- und Alltagsleben getreten ist – wird immer leistungsfähiger, und es wird immer einfacher, auf Informationen zuzugreifen.

Der Fortschritt beschleunigt sich massiv, und wir müssen uns fragen: Kommen wir noch mit? Können wir mit den technischen Entwicklungen Schritt halten? Oder sind wir von dem, was wir selbst angezettelt haben, inzwischen heillos überfordert? Dabei geht es allerdings nicht nur um unser technisches Verständnis, wie der Philosoph Michael Schmidt-Salomon, der erste Beiträger dieses Bands, zu bedenken gibt, sondern auch und vor allem um unser übergeordnetes Verständnis der Welt – unser Weltbild –, das wir von Grund auf neu zu justieren haben:

„Damit kommen wir zu einem Kernproblem der Gegenwart: Offenkundig befinden wir uns in einem ›Zeitalter der halbierten Aufklärung‹, das mit einer ›Gleichzeitigkeit des Ungleichzeitigen‹ einhergeht. Während heute viele Menschen technologisch im 21. Jahrhundert leben, sind ihre Weltbilder mehrheitlich noch von jahrtausendealten Mythen geprägt, die keiner kritischen Prüfung standhalten. Würden sie bei der Wahl ihrer Weltanschauung die gleichen rationalen Prinzipien anwenden, die sie bei der Entscheidung für ein neues Smartphone beachten, sähe unsere Welt deutlich anders aus.“

Sind wir also als Menschen überhaupt noch zeitgemäße Wesen? Sind unser Wertesystem und unsere Moralvorstellungen noch vereinbar mit den Anforderungen dieses digitalen Jahrtausends? Bevor in den kommenden Jahren die Grenze zwischen Mensch und Maschine womöglich immer durchlässiger wird, sollten wir innehalten und ergründen, was uns als Menschen ausmacht. Wir sollten uns fragen, welche Verantwortung wir haben – gegenüber dem eigenen Leben, unseren Mitmenschen, unseren Mitwesen und unserem Planeten.

Denn die Verantwortung wird auch weiterhin bei uns liegen, und sie wird zuallererst darin bestehen, das Denken nicht zu unterlassen, selbst wenn Computer und Maschinen dazu längst in der Lage sind. Mehr denn je werden wir gefordert sein, uns neues Wissen anzueignen, die eigene Meinung immer wieder auf den Prüfstand zu stellen und uns den vielfältigsten thematischen Bereichen zu öffnen.

Anregungen dazu möchte das vorliegende Buch bieten. Seine Autorinnen und Autoren – Michael Schmidt-Salomon, Karsten Brensing, Christina Pingel, Julia Friedrichs, Mohammed Amjahid, Jeannette zu Fürstenberg, Michel Friedman, Daniel Goffart, Angelika Melcher und Ulrich Wickert – liefern Erkenntnisse und Analysen, greifen Debatten und Kontroversen auf und schenken uns so einen wertvollen Blick über den berühmten Tellerrand hinaus.

In diesem Sinne wünsche ich Ihnen eine abwechslungs- und aufschlussreiche Lektüre!

Isabella Nelte


Michael Schmidt-Salomon
Die Evolution des Denkens – Das moderne Weltbild – und wem wir es verdanken

Ein Kopf denkt nie allein

Wir sehen den Wald vor lauter Bäumen nicht mehr. Je größer die Menge an Informationen ist, die wir produzieren, desto schwieriger wird es, den Überblick zu behalten. Schon 2012 lag das Volumen des täglichen Datentransfers bei einer Milliarde Gigabyte, was etwa dem 2500-Fachen der Datenmenge aller Bücher entspricht, die jemals geschrieben wurden. Wie wollen wir angesichts dieser Flut an Informationen noch Bedeutsames von weniger Bedeutsamem unterscheiden, Sinn von Unsinn, Fakten von Fakes?

Früher bestand das Problem darin, an Informationen zu gelangen, heute müssen wir damit kämpfen, von ihnen nicht mitgerissen zu werden. Dies erklärt auch, warum einfach gestrickte Weltverschwörungsideologien so attraktiv geworden sind. Denn sie bieten einen großen Vorteil, nämlich Inseln der Sicherheit in einem Meer der Unübersichtlichkeit. Verschwörungsgläubige profitieren von dem schönen „faustischen“ Gefühl, „den vollen Durchblick“ zu haben und zu den wenigen „Auserwählten“ zu gehören, die begreifen, „was die Welt im Innersten zusammenhält“. Kein Wunder, dass sie alle Fakten und Argumente ausblenden, die das Kartenhaus ihres Weltbildes zum Einsturz bringen könnten.

Verschwörungsideologien beruhen auf einer unzulässigen Reduktion der Komplexität der Welt – das heißt allerdings nicht, dass die Reduktion von Komplexität an sich schon problematisch wäre, sie ist vielmehr lebensnotwendig: In jeder Sekunde filtert unser Gehirn aus den vielen Millionen Bits an Information, die auf uns einströmen, die Daten heraus, die für unsere Existenz von Bedeutung sind oder es sein könnten. Ohne diesen neuronalen Selektionsmechanismus würden wir völlig orientierungslos durch das Leben irren. Anders formuliert: Die Komplexität des menschlichen Gehirns ist erforderlich, um die Komplexität der Wirklichkeit auf eine handhabbare Größe herunterzurechnen. Erst auf dieser Basis kann unser Denkapparat als effektive „Vorhersagemaschine“ dienen und dafür sorgen, dass wir uns in unserem Leben zurechtfinden.

Wir erkennen daran, dass die Selektion von Information ebenso wichtig ist wie die Konstruktion von Information. Doch anhand welcher Maßstäbe entscheiden wir sinnvollerweise, was relevant ist und was nicht? In der Regel stellen wir uns diese Frage nicht. Denn unser Gehirn beurteilt sämtliche Informationen, die es erhält, routinemäßig auf der Grundlage von angeborenen Programmen, die sich in der Evolution als erfolgreich erwiesen haben, sowie anhand der Erfahrungen, die wir in unserem eigenen Leben gemacht haben.

Diese einfache Routine ist hilfreich im Alltag, doch objektive Kriterien für die Relevanz von Informationen können wir von ihr nicht erwarten. Schließlich arbeitet unser Gehirn auf der Basis von subjektiven Erlebnissen, die in höchstem Maße davon abhängig sind, in welche Zeit, in welche Kultur, in welche Familie wir zufällig hineingeboren wurden. Aus diesem Grund halten wir genau das für bedeutsam, von dem wir im Rahmen unserer Sozialisation gelernt haben, dass es bedeutsam sei – was aber nicht heißt, dass es losgelöst von diesen Einflüssen tatsächlich bedeutsam ist.

Damit stellt sich die Frage, wie wir dieser „Subjektivitätsfalle“ entgehen können. Wie also unterscheiden wir das, was wirklich relevant ist, von dem, was uns aufgrund unserer Prägungen bloß relevant erscheint? Oft greifen wir in solchen Fällen auf das Mittel der Quantifizierung zurück: Wir versuchen eine objektivere Perspektive zu entwickeln, indem wir unsere subjektiven Erfahrungen mit den Erfahrungen vieler anderer Menschen abgleichen. Doch hilft uns das hier weiter? Ist die Relevanz einer Information tatsächlich abhängig davon, wie viele Menschen sie als relevant erachten? Steht und fällt die Qualität von Texten, Bildern oder Klängen mit der Quantität des Interesses, das sie hervorrufen?

Ganz so einfach ist es wohl nicht, denn ansonsten müssten wir den „Baby Shark Dance“ – die südkoreanische Version des Kinderliedes „Kleiner Hai“ mit unglaublichen zwölf Milliarden Aufrufen bei YouTube (Stand Anfang 2022) – zum wichtigsten kulturellen Erzeugnis der Menschheit erklären und Cristiano Ronaldo („den Influencer mit der größten Reichweite der Welt“) zur einflussreichsten Person des Planeten. Selbst seriösere Plattformen als YouTube, Facebook, Instagram & Co. helfen uns auf diesem Gebiet kaum weiter: So gibt es zu Donald Trump 230 Einträge in der internationalen Wikipedia, zur zweifachen Nobelpreisträgerin Marie Curie hingegen nur 174 und zu Alfred Wegener, dem Entdecker der Kontinentalverschiebung, nur 73 – doch das macht Trump nicht notwendigerweise zu einer „bedeutenderen Persönlichkeit“.

Die größten Genies aller Zeiten?

Die Methode der Quantifizierung ist äußerst nützlich, um ein klareres Bild der Welt zu erhalten – allerdings gilt dies nur unter der Voraussetzung, dass die Forschungsfragen klug gestellt sind und die Datenlage einigermaßen klar ist. Ist dies nicht der Fall, hilft uns Statistik wenig weiter. Zu welch skurrilen Ergebnissen man kommt, wenn man versucht, die Bedeutung historischer Persönlichkeiten über Umfragen zu ermitteln, zeigten vor 20 Jahren zwei Fernsehsendungen, bei denen ich nicht wusste, ob ich lachen oder weinen sollte:

In der BBC-Sendung 100 Greatest Britons (2002) wählten die Zuschauerinnen und Zuschauer Winston Churchill und Lady Di auf Platz 1 und Platz 3 der „größten Briten aller Zeiten“ – noch vor Charles Darwin, William Shakespeare und Isaac Newton (Plätze 4 bis 6). In der nach gleichem Strickmuster produzierten ZDF-Sendung Die größten Deutschen (2003) waren die Ergebnisse nicht weniger erstaunlich: Hier landeten Konrad Adenauer und Martin Luther auf den Plätzen 1 und 2. Karl Marx konnte (dank ostdeutscher Unterstützung) zwar einen respektablen 3. Platz erringen, Albert Einstein jedoch musste sich mit dem 10. Platz begnügen und konnte posthum noch „froh“ sein, nicht von dem ehemaligen „Deutschland sucht den Superstar“-Kandidaten Daniel Küblböck (Platz 16 auf der Liste der „größten Deutschen“) übertrumpft zu werden.

Gibt es andere Möglichkeiten, die Personen zu bestimmen, die für die Menschheitsgeschichte besonders relevant waren beziehungsweise die es für uns Heutige noch immer sind? 2016 sorgte eine Liste der vermeintlich „größten Genies aller Zeiten“ für internationale Schlagzeilen. Aufgestellt hatte sie der US-amerikanische Ingenieur Libb Thims, der sich dabei auf zwei zentrale Eigenschaften stützte, nämlich den Einfluss der jeweiligen Personen und ihres Werks auf die Welt sowie ihren gemessenen beziehungsweise unterstellten Intelligenzquotienten (IQ). In dieser „Top 40 der klügsten Köpfe der Geschichte“ schaffte es Johann Wolfgang von Goethe auf Platz 1, Albert Einstein auf Platz 2 und Leonardo da Vinci auf Platz 3. Eigentümlicherweise jedoch tauchten in dem Ranking der „40 größten Genies“ weder Charles Darwin noch Friedrich Nietzsche, noch Karl Marx auf, wohl aber ein amerikanischer Gewichtheber, der als der „klügste Mann der USA“ gilt, sowie ein Quizshow-Erfinder, der bei IQ-Tests herausragend abgeschnitten hatte.

Wie nicht anders zu erwarten, führte Thims’ Top 40 zu heftigen Kontroversen. Bemängelt wurde unter anderem, dass die Liste insgesamt zu US-lastig sei und erst auf Platz 25, mit Marie Curie, eine Frau erschien. Fraglich war und ist auch der von Thims unterstellte Zusammenhang zwischen Genialität und Intelligenz. Zwar ist ein gewisses Maß an allgemeiner Intelligenz erforderlich, um auf irgendeinem Gebiet herausragende Leistungen zu erbringen, das heißt aber keineswegs, dass ein eindeutig proportionaler Zusammenhang zwischen IQ und Genialität bestehen würde, wie es der amerikanische Psychologe Lewis M. Terman (1877 – 1956), der Entwickler des berühmten „Stanford-Binet-Tests“, unterstellt hatte.

Von den über 1500 hochbegabten Kindern, die Terman in seiner Langzeitstudie ab 1928 untersuchte (alle hatten einen IQ über 135), waren viele zwar überdurchschnittlich erfolgreich, jedoch ging keines von ihnen durch herausragende („geniale“) Leistungen in die Geschichte ein – im Unterschied zu zwei Kindern, die Terman wegen ihres (vermeintlich) zu geringen IQs (also unter 135 Punkten) aus der Studie ausgeschlossen hatte, nämlich die beiden Physik-Nobelpreisträger William Shockley und Luis Alvarez! Vor allem Alvarez erwies sich dabei als eine Art „Universalgenie“: Neben seinen entscheidenden Beiträgen zur Elementarteilchenphysik war er ein äußerst produktiver Erfinder, der 1978 in die National Inventors Hall of Fame aufgenommen wurde. Zudem lieferte er zusammen mit seinem Sohn, dem Geologen Walter Alvarez, die Erklärung für das rätselhafte Aussterben der Dinosaurier vor 66 Millionen Jahren.

Halten wir fest: Hohe Intelligenz ist wohl eine notwendige, aber keine hinreichende Eigenschaft, um herausragende Leistungen auf den Gebieten der Wissenschaft und der Philosophie erklären zu können. Wie aber steht es um das zweite Merkmal, das Thims seiner „Top 40“ zugrunde gelegt hatte? Lässt sich der Grad der Genialität einer Person tatsächlich über ihren quantitativen Einfluss auf die Welt bestimmen? Nun, wenn dem so wäre, müssten wir Hitler, Stalin und Mao ebenfalls in die „Liste der größten Genies“ aufnehmen und sicherlich auch die von Abermillionen Menschen weltweit verehrten (über weite Teile jedoch bloß fiktionalen) Religionsstifter Jesus, Mohammed oder Buddha, die es tatsächlich – wen wundert’s? – in einige „Bestenlisten“ geschafft haben.

Dass derartige Rankings so unterschiedlich ausfallen, hat einen guten Grund: Denn „Genialität“ bezeichnet keine reale Eigenschaft einer Person, sondern ist das Ergebnis einer sozialen Zuschreibung. Der deutsche Psychiater Wilhelm Lange-Eichbaum, der sich in seinem elfbändigen Werk Genie – Irrsinn und Ruhm wie kaum ein anderer mit dem „Genie-Problem“ beschäftigt hat, brachte dies folgendermaßen auf den Punkt: „Genie ist nichts anderes als Anerkennung.“

Was das bedeutet, kann man sich am Beispiel von Vincent van Gogh leicht verdeutlichen: Sicherlich waren dessen Gemälde, die unsere Sehgewohnheiten radikal veränderten, bereits „genial“ (im Sinne von „überwältigend kreativ und originell“) zu einem Zeitpunkt, als sie noch niemand kannte. Doch zu einem veritablen „Genie“ avancierte der niederländische Maler erst in dem Moment, als seine Werke internationale Beachtung fanden und zu Rekordpreisen verkauft wurden. Es bedarf also einer „Gemeinde von Verehrerinnen und Verehrern“, um aus einer Persönlichkeit der Kunst, der Wissenschaft, der Philosophie oder der Politik ein „Genie“ zu machen. Erst Apostel erschaffen Propheten.

Tatsächlich hat „das Genie“ mit der realen Person, die im Zentrum des Verehrungskultes steht, oft wenig gemein. Der historische Mensch muss sich hinter dem Zerrbild des vergöttlichten Ideals geradezu verflüchtigen, damit „das Genie“ als solches gefeiert werden kann. Lange-Eichbaum behauptete sogar, dass der „wahre Mensch“ die „Geniegemeinde“ überhaupt nicht interessiere: „Denn sie verehrt ja nur die Struktur, die sie selbst gezimmert. Damit sie überhaupt ein Idealbild zu schauen vermag, muss der primäre Träger, der historische Mensch, in seiner wahren Gestalt verschwinden. […] Jeder würde von seinem Genie-Fetisch aufs Bitterste enttäuscht sein, wenn er ihn wirklich durch und durch kennte.“

Aus diesem Grund werden „Genies“ oft erst nach ihrem Tod geboren. Sie sind, wie der bedauernswerte Herr Tur Tur in Michael Endes Kinderbuch Jim Knopf und Lukas der Lokomotivführer, „Scheinriesen“, die erst aus der Ferne übermenschlich groß wirken. Arthur Schopenhauer hat diesen zentralen Aspekt des Geniekults wunderbar auf den Punkt gebracht: „Die Verehrung verträgt nämlich nicht die Nähe, sondern hält sich fast immer in der Ferne auf; weil sie, bei persönlicher Gegenwart des Verehrten, wie Butter an der Sonne schmilzt.“

Was aber treibt uns dazu, einen Menschen, den wir nur über räumliche oder zeitliche Distanz wahrnehmen, derart zu idealisieren, dass die reale Person hinter diesem Zerrbild nahezu verschwindet? Solche Verhaltensweisen sind uns aus religiösen Kontexten wohlbekannt. Offenkundig hat die Säkularisierung (die Verweltlichung der Gesellschaft seit dem 18. Jahrhundert) diese Verhaltensweisen nicht aufgehoben, sondern bloß modifiziert. Dabei wurden die religiösen Idole („die himmlische Schar der Engel und Heiligen“) durch weltliche Idole ersetzt, etwa durch Künstler wie Leonardo da Vinci, Komponisten wie Ludwig van Beethoven, Wissenschaftler wie Albert Einstein, Schauspielerinnen wie Greta Garbo („die Göttliche“), Popikonen wie Janis Joplin oder Sportler wie Muhammad Ali. Genie-Kult ist nicht zuletzt auch Religionsersatz.

Hinter diesem Kult verbirgt sich jedoch ein tiefes menschliches Bedürfnis: Wir brauchen Vorbilder, um uns in unserem Leben zu orientieren. Sie sind Teil unserer Identität, sagen uns, wer wir sind oder sein könnten. Daher ist es verständlich, dass wir jenen Personen Respekt, Dankbarkeit, ja Bewunderung zollen, die Außergewöhnliches geleistet haben, deren Werke uns ergreifen, deren Gedanken uns inspirieren, deren Kämpfe für eine bessere Welt uns zu eigenem Handeln anregen. Jedoch sollte die Bewunderung nicht in Wunderglauben umschlagen. Daher sollten wir uns davor hüten, unsere Vorbilder zu Halbgöttern zu verklären, die in ganz eigenen, „heiligen“ Sphären jenseits des „Menschlich-Allzumenschlichen“ schweben. Denn natürlich waren auch sie bloß Menschen aus Fleisch und Blut. Was Personen wie da Vinci, Einstein oder Beethoven für die Nachwelt zu etwas so „Besonderem“ macht, verdankt sich, wie wir noch sehen werden, keiner „überhistorischen individuellen Größe“, sondern einem profanen historischen Zufall: Sie waren mit ihren jeweiligen Eigenschaften genau zur richtigen Zeit am richtigen Ort.

Der Zukunft entgegen
Die Menschheit im Anthropozän

Ende Februar 2000 trifft sich in Cuernavaca (Mexiko) eine kleine Gruppe von Forschern, um über Umweltveränderungen im Holozän zu diskutieren, der seit 11 700 Jahren andauernden Zwischenwarmzeit (Interglazial) im gegenwärtigen Eiszeitalter. Einer von ihnen, der berühmte niederländische Meteorologe und Atmosphärenchemiker Paul J. Crutzen (1933 – 2021), hält sich in der Diskussion zunächst zurück, ergreift dann aber unvermittelt das Wort, um die Debatte in eine unerwartete Richtung zu lenken: „Hört auf!“, ruft er in den Raum. „Wir befinden uns doch längst nicht mehr im Holozän, sondern im […] Anthropozän!“ Crutzens Kolleginnen und Kollegen sind verdutzt. Mit einem solchen Einwurf hat niemand gerechnet.

Kurz nach dem Treffen stellt Crutzen fest, dass der amerikanische Biologe Eugene F. Stoermer (1934 – 2012) den Begriff Anthropozän schon seit Längerem verwendet, um die Auswirkungen der menschlichen Zivilisation auf die Umwelt zu kennzeichnen. Bereits im Mai 2000 publizieren Crutzen und Stoermer einen gemeinsamen Aufsatz mit dem Titel „The ›Anthropocene‹“ („Das ›Anthropozän‹“) im Newsletter des Internationalen Geosphären-Biosphären-Programms (IGBP). Die Anführungszeichen im Titel verraten, dass sich die Autoren zu diesem Zeitpunkt noch nicht sicher sind, ob es gerechtfertigt ist, von einem „neuen geologischen Zeitalter“ zu sprechen. Zwei Jahre später lässt Crutzen diese Vorsicht aber bereits fallen, als er im Fachmagazin Nature den Aufsatz „Geology of mankind – The Anthropocene“ („Geologie der Menschheit – Das Anthropozän“) veröffentlicht.

Crutzens Text von 2002 markiert den Beginn der rasanten Karriere des Begriffs Anthropozän, der inzwischen in allen erdenklichen Zusammenhängen verwendet wird. Dass der kurze Aufsatz, der auf eine einzige Magazinseite passt, eine solche Verbreitung findet, liegt sicherlich nicht nur an den Argumenten, die er enthält, sondern auch an der Prominenz seines Verfassers. Denn Paul Crutzen ist nicht irgendwer. Er gilt als „Retter der Ozonschicht“, der wissenschaftlich mitaufgedeckt hat, dass Fluorchlorkohlenwasserstoffe (FCKWs) die Ozonschicht in der Stratosphäre zerstören (wofür er 1995 den Chemie-Nobelpreis erhält). Er ist auch maßgeblich daran beteiligt, dass wirksame Gegenmaßnahmen ergriffen werden, um das „Ozonloch“ wieder zu schließen, was schwerwiegende Schädigungen der menschlichen Gesundheit (Hautkrebsrate) und möglicherweise gravierende Mutationen in der Biosphäre verhindert. Zudem gehört Crutzen mit Carl Sagan zu den ersten Forschern, die vor der Gefahr eines „Nuklearen Winters“ warnen und auf die Erwärmung des Weltklimas aufgrund der gestiegenen Emission von Treibhausgasen hinweisen.

An Renommee ist Crutzen 2002, als er seinen Nature-Beitrag schreibt, kaum zu übertreffen, dennoch ist sein Vorschlag heikel. Schließlich ist die Kennzeichnung erdgeschichtlicher Epochen Sache der Geologie – und Crutzen ist, wie auch Alfred Wegener es war, Meteorologe. Und wie bei Wegener zeigen sich die Geolog*innen zunächst zugeknöpft. In diesem Fall hat die Zurückhaltung der Fachwissenschaftler allerdings gute Gründe: Immerhin geht es in der Geologie um sehr große Zeiträume (oftmals um Jahrmillionen), gegenüber denen die 200 Jahre seit Beginn der industriellen Revolution oder gar die 70 Jahre seit der „Großen Beschleunigung“ (ab 1950 tritt die Menschheit in eine neue Phase des Industriezeitalters mit massiven Auswirkungen auf das Erdsystem ein) geradezu verschwinden. Kann ein so kurzer Zeitraum den Beginn eines neuen Erdzeitalters markieren? Würde man in Jahrmillionen anhand von Gesteinsablagerungen oder Eisbohrkernen überhaupt noch feststellen können, dass die menschliche Zivilisation je existiert hat? Überschätzt der Mensch seine Bedeutung auf diesem Planeten nicht gewaltig, wenn er sich selbst als entscheidenden Faktor einer neuen geologischen Epoche begreift?

Diese Fragen sind berechtigt. Seit Crutzens Vorstoß ist allerdings eine gewaltige Menge an Daten zusammengetragen worden, die seine Argumente für die Benennung eines neuen Erdzeitalters untermauern. Nur ein kurzer Überblick: Die Masse der von Menschen produzierten Dinge übertrifft inzwischen die Masse aller Lebewesen auf der Erde. Allein die Technosphäre der Menschheit (Gebäude, Infrastrukturen, Maschinen, elektronische Geräte etc.) wiegt 30 Billionen Tonnen, was bedeutet, dass auf jeden lebenden Menschen etwa 4000 Tonnen entfallen. Gleichmäßig verteilt über die gesamte Erde (alle Land- und Meeresflächen inbegriffen), heißt dies, dass schon jetzt jeder Quadratmeter der Oberfläche unseres Heimatplaneten mit 50 Kilogramm Technosphäre belastet ist.

Dabei nimmt der anthropogene Umwandlungsprozess immer größere Dimensionen an: Bis 1950 hatte die Menschheit etwa 1,5 Millionen Tonnen Kunststoff produziert, inzwischen liegt das Niveau bei über 9 Milliarden Tonnen. Jährlich produzieren wir Plastik in einer Menge, die das Gesamtgewicht aller heute lebenden Menschen übertrifft und von der noch immer ein erschreckend hoher Anteil in die Umwelt gelangt. Darüber hinaus hat unsere Spezies etwa 130 000 neue kristalline Komponenten erschaffen (gegenüber 5000 natürlich vorkommenden). Sie hat die Geschwindigkeit des natürlichen Artensterbens vertausendfacht und den Anteil von Kohlendioxid in der Erdatmosphäre in den letzten 200 Jahren von rund 280 parts per million (ppm, Teile pro Million) auf über 400 ppm gesteigert – ein Wert, der wohl das letzte Mal vor 15 Millionen Jahren erreicht wurde.

Die hier nur kurz angerissenen Fakten werden mittlerweile auch von Geologinnen und Geologen ernst genommen und diskutiert. 2019 ist die international und interdisziplinär besetzte Anthropocene Working Group (Anthropozän-Arbeitsgruppe) mit großer Mehrheit zu dem Ergebnis gekommen, dass das Anthropozän eine neue erdgeschichtliche Epoche markiert, die Mitte des 20. Jahrhunderts begonnen hat – nicht nur aufgrund der 1950 einsetzenden „Großen Beschleunigung“, sondern auch weil ab diesem Zeitpunkt weltweit radioaktive Niederschläge infolge von Atomwaffentests belegbar sind. Inzwischen (Juli 2023) hat die Arbeitsgruppe einen geeigneten „Referenzort“ mit einer „Referenzsedimentabfolge“ gefunden (nämlich in Gestalt eines Bohrkerns aus dem Lake Crawford in Kanada), mit dessen Hilfe der neue erdgeschichtliche Abschnitt definiert werden kann. Es liegt nun in den Händen der Internationalen Kommission für Stratigrafie, ob das Anthropozän offiziell als neues geologisches Zeitalter anerkannt wird oder nicht.

Ein solcher Schritt hätte Bedeutung weit über die Geologie hinaus, denn er würde verdeutlichen, dass im 20. Jahrhundert nicht nur für die Menschheit, sondern für die gesamte Erde ein neues Zeitalter begonnen hat. Die offizielle Anerkennung des Anthropozäns als erdgeschichtliche Epoche würde auch unterstreichen, was Julian Huxley vor einem halben Jahrhundert in seiner Autobiografie betont hat, nämlich dass der Mensch ein „Sonderprodukt der Evolution“ ist, welches „das Geschick der Welt in seinen ungeschickten Händen hält“.

Mit etwas anderen Worten hat auch Paul Crutzen diesen Sachverhalt immer wieder herausgestellt. Dabei speiste sich sein Engagement nicht nur aus rein wissenschaftlichen, sondern auch aus humanistischen Motiven. Liest man Crutzens Veröffentlichungen, wird klar, dass er, ähnlich wie Julian Huxley, säkular-humanistische Werte mit einem evolutionär ausgerichteten Naturalismus kombinierte. Zwar sind sich die beiden Forscher nie begegnet (als Crutzen 1980 zum Direktor des Max-Planck-Instituts für Chemie in Mainz ernannt wird, ist Huxley bereits fünf Jahre tot), doch es gibt eine interessante Verbindungslinie: 1973 unterzeichnet Julian Huxley das sogenannte Humanist Manifesto II der American Humanist Association (Amerikanische Vereinigung religionskritischer Humanistinnen und Humanisten), das die Grundgedanken des „evolutionären Humanismus“ unverkennbar widerspiegelt – drei Jahrzehnte später (2003) gehört Paul Crutzen zu den Unterzeichnern des Humanist Manifesto III, welches die evolutionär-humanistischen Argumente noch prägnanter zum Ausdruck bringt.

Diesen (evolutionär-)humanistischen Idealen ist es auch geschuldet, dass sich Crutzen – anders als viele, die heute vom „Anthropozän“ reden – keineswegs ein „Ende des Anthropozäns“ herbeiträumt, sondern vielmehr eine intelligentere, lebensfreundlichere Variante dieses „Erdzeitalters des Menschen“. Dazu heißt es in dem Grundlagenaufsatz aus dem Jahr 2000: „Ohne große Katastrophen wie einen gewaltigen Vulkanausbruch, eine unerwartete Epidemie, einen groß angelegten Atomkrieg, einen Asteroideneinschlag, eine neue Eiszeit oder die fortgesetzte Plünderung der Ressourcen der Erde durch eine teilweise noch primitive Technologie […] wird die Menschheit noch viele Jahrtausende, vielleicht Millionen von Jahren, eine bedeutende geologische Kraft bleiben.“

Allerdings sind die Herausforderungen des Anthropozäns gigantisch. Crutzen fasst sie in seinem Nature-Artikel von 2002 folgendermaßen zusammen: „Wissenschaftler und Ingenieure stehen vor der gewaltigen Aufgabe, die Gesellschaft im Zeitalter des Anthropozäns zu einem ökologisch nachhaltigen Management zu führen. Dies wird ein angemessenes menschliches Verhalten auf allen Ebenen erfordern und könnte durchaus auch international akzeptierte, groß angelegte Geo-Engineering-Projekte umfassen, um beispielsweise das Klima zu ›optimieren‹. Zum jetzigen Zeitpunkt allerdings bewegen wir uns noch auf weitgehend unbekanntem Terrain.“

Kommentare zum Buch
Kommentieren Sie diesen Beitrag:
(* Pflichtfeld)