Erderwärmung - Wie viel Klima macht der Mensch?

Selbst, wenn wir Europäer unsere Lebensgewohnheiten völlig umstellen würden, hätte das keinen wesentlichen Einfluss auf den Klimawandel. Trotzdem könnte es sich lohnen, Verzicht zu üben. Denn es gibt noch andere Effekte

Erschienen in Ausgabe
Nicht jeder Sturm steht unbedingt im Zusammenhang mit dem Klimawandel / picture alliance
Anzeige

Autoreninfo

Hans von Storch ist einer der bedeutendsten deutschen Klimaforscher. Der 69 Jahre alte ehemalige Leiter des Instituts für Küstenforschung am Helmholtz-Zentrum Geesthacht war Professor
an der Uni Hamburg, am Max-Planck-Institut für Meteorologie sowie an der Ocean University of China. Zu seinen Forschungsschwerpunkten zählt Klimapolitik.

So erreichen Sie Hans von Storch:

Anzeige

In meiner Jugend gab es diesen Witz von Klein-Fritzchen, der an eine katholische Klosterschule wechselt und dort mit der Frage konfrontiert wird: „Es ist braun, pelzig, springt von Baum zu Baum – was ist das?“ Klein-Fritzchen, der die erwünschte Denkweise schon völlig in sich aufgesogen hat, antwortet wie aus der Pistole geschossen: „Jesus!“ So ähnlich kommt es mir inzwischen vor, wenn vom Klimawandel die Rede ist. Was auch immer an neuen schlechten Nachrichten zu vermelden ist, stets hat es irgendwie mit dem Klimawandel zu tun. Immerhin ist damit meist auch klar, was man dagegen konkret unternehmen kann: weniger Emissionen erzeugen. Mit anderen Worten: fleischlose Ernährung, Verzicht auf Flugreisen und auf Einmal-Kaffeebecher.

Leider herrscht in der Öffentlichkeit eine erhebliche Verwirrung zum Themenkomplex Klima, Klimawandel und Klimapolitik. So wird manchmal sogar die Vermüllung der Meere mit Plastik unter der Rubrik „Klima“ diskutiert, die Frage der Luftqualität sowieso. Der Kurznachrichtendienst Twitter dient vielen als Verbreitungskanal für entsprechende Verwirrung, wenn etwa die ehemalige nordrhein-westfälische Umweltministerin Bärbel Höhn von einem kalten Spätwinter auf den Zusammenbruch des Golfstroms schließt, oder der Bundestagsabgeordnete Karl Lauterbach einen Zusammenhang zwischen Klimawandel und Tsunamis herstellt. Nicht zu vergessen die frühere Grünen-Vorsitzende Simone Peter, die Nachtfrost im Mai als Zeichen für menschengemachten Klimawandel interpretierte.

In der Klimapolitik selbst wird immer wieder gefordert, diese oder jene Maßnahme zu ergreifen – etwa eine Geschwindigkeitsbegrenzung auf Autobahnen –, die zwar nichts Wesentliches zu einer Lösung des Klimaproblems beitragen würde, dafür aber Interessen bedient, die früher mit ganz anderen Begründungen verfolgt wurden.

Allzweckwaffe „Klimakrise“

Als Standardlösung bietet sich an: die Emissionen zu vermindern und daraus abgeleitet alltägliche Gewohnheiten zu ändern. Stets heißt es in diesem Zusammenhang, dass dadurch weniger Treibhausgase freigesetzt würden, also weniger „Klimagift“. Aber fast nie ist davon die Rede, um welchen mengenmäßigen Beitrag es sich dabei handelt. Tatsächlich wird in der Öffentlichkeit und in der Politik das Problem nicht in seiner quantitativen Dimension verstanden – mit der Folge, dass die bisherigen Ansätze zwar unwirksam in der Sache sind, aber als symbolische Akte für das öffentliche Rechthaben und Populisieren taugen.

Die öffentliche Diskussion ist dadurch geprägt, dass die Begriffe „Klimawandel“ beziehungsweise neuerdings „Klimakrise“ zur Allzweckwaffe geworden sind, die fast beliebig eingesetzt werden kann. Wegen dieser Beliebigkeit wird es unmöglich, zwischen verschiedenen Ursachen für verschiedene Entwicklungen zu unterscheiden – und damit spezifische Lösungen zu entwickeln, die tatsächlich etwas bewirken würden. Wenn zum Beispiel in Myanmar wie im Jahr 2008 Zehntausende Menschen durch einen Taifun zu Tode kamen, dann liegt das eben angeblich am Klimawandel (und nicht daran, dass die dortigen Behörden dabei versagten, aus entsprechenden Wetterwarnungen die richtigen Schlüsse zu ziehen). So einfach ist das.

Mag das Klima derzeit eine Art Allzweckwaffe sein, um damit den Kulturkampf für eine „bessere“ Lebensweise zu führen, steht gleichwohl fest: Den menschengemachten Klimawandel gibt es – und aus ihm erwachsen erhebliche Herausforderungen sowohl für die Ökosysteme als auch für die Gesellschaft. Anders gesagt: Der menschengemachte Klimawandel ist ernst zu nehmen als qualitatives Phänomen mit einer quantitativen Dimension.

Das „stochastische Klimamodell“

Aber woher wissen wir überhaupt, dass menschliche Einflüsse das Klima verändern und für eine Erwärmung sorgen? Diese Frage stelle ich manchmal meinen Zuhörern bei Vortragsveranstaltungen – und bekomme als Antwort fast immer Hinweise auf den Anstieg der Temperaturen und des Meeresspiegels, aber auch auf eine Zunahme der extremen Wetterereignisse (wobei auch Tsunamis genannt werden) oder auf das Abschmelzen von Gletschern. Es gibt allerdings auch Leute, die in diesem Zusammenhang die Abholzung des Regenwalds nennen, die Versiegelung der Böden, eine Veränderung von Flora und Fauna etwa in Form von Artenschwund oder Insektensterben. Sogar der Betrieb extensiver Landwirtschaft mit Mastbetrieben und exzessivem Einsatz von Giften und Düngemitteln gilt als Erklärung für den menschengemachten Klimawandel. Man wird aber auch mit Aussagen wie dieser konfrontiert: „Ich vertraue in Klimafragen den Argumenten und Warnungen der Forscher und der Umweltschützer.“ Dabei fällt mir immer wieder auf, dass zwar von Veränderungen die Rede ist – aber nicht davon, inwiefern diese Veränderungen „unnormal“ sind, also jenseits der Schwankungsbreite natürlicher Änderungen liegen. Auch die Frage, ob einige Effekte andere Ursachen haben könnten als den Klimawandel, wird kaum gestellt, insbesondere im Zusammenhang mit den schwindenden Vogel- und Insektenbeständen.

Tatsächlich ist schwer zu sagen, ob es sich bei beobachteten Veränderungen um die Folgen eines „Eingriffs“ von außen handelt oder „nur“ um intern erzeugte Schwankungen, wie sie für das Klimasystem völlig normal sind. Es ist der 1931 geborene Hamburger Klimaforscher Klaus Hasselmann, der auf diesem Gebiet Pionierarbeit geleistet hat. Während in den sechziger Jahren Meteorologen bei jedem Klimatrend nach externen Gründen suchten, war dem Physiker Hasselmann klar, dass es auch „unprovozierte“, also intern erzeugte Variabilität gibt.

Damals stand die brownsche Bewegung Pate: Als Hasselmann 1975 sein Amt als Gründungsdirektor des Max-Planck-Instituts für Meteorologie in Hamburg antrat, präsentierte er das „stochastische Klimamodell“ – und damit einen konzeptionellen Rahmen, in dem die Frage nach dem Wirken externer Ursachen beantwortet werden kann. In einem komplexen System gibt es immer Abweichungen, die nicht nur räumlich klein und zeitlich kurz sind, sondern auch über längere Zeit nennenswerte Trends bewirken können. Diese intern erzeugten Variationen stellen das „Normale“ dar, innerhalb dessen beurteilt werden muss, ob eine Veränderung durch einen externen Einfluss hervorgerufen worden sein könnte. Klaus Hasselmann nutzte für diesen Vorgang den Ausdruck „Detektion“: Wenn die Veränderung im Vergleich zu den intern erzeugten Schwankungen groß ist, dann braucht man eine externe Erklärung. Welche Erklärung passt, das ist allerdings eine andere Frage, nämlich die der „Attribution“. Von ihr wird noch die Rede sein.

Wissenschaftliche Erkenntnis gegen soziale Konstruktion

Die Detektion, also das Ermitteln von extern verursachten Änderungen der Temperaturen und anderer Klimastatistiken, ist seit den neunziger Jahren gängige Praxis und hat einen wichtigen Platz in der Argumentation des UN-Klimarats eingenommen. Anfangs waren noch einige Mühen nötig, um jene Veränderungen zu finden, die mit verhältnismäßig geringen internen Schwankungen einhergehen; inzwischen sind die Änderungen so deutlich, dass auch Hauruckmethoden zum Ziel führen, etwa das Zählen von neuen Temperaturrekorden über die Zeit – diese häufen sich nämlich in den vergangenen Jahren in einer Weise, wie es in einem ungestörten System nicht möglich wäre. Wenn diese „Detektion“ für den Temperaturanstieg gelungen ist, heißt das allerdings nicht, dass wir auch in allen anderen Wetterstatistiken derartige nichtnatürliche Veränderungen vorfinden. Dies gilt insbesondere für lokale Veränderungen bei Wind (und Sturmtätigkeit) oder für extremen Niederschlag.

Insbesondere, was unsere „heimische“ Sturmtätigkeit angeht, gibt es keine belastbaren Hinweise, dass diese sich systematisch jenseits der natürlichen Schwankungsbreite verändert hat. Diese Einsicht besteht schon länger und bestätigt sich im Laufe der Jahre immer wieder – was aber nichts daran ändert, dass in fast allen Medien ständig die Rede davon ist, unsere Stürme würden heftiger werden. Diese Behauptung gehört zum Standardrepertoire jedes ordentlichen Klimaaktivisten – was daran liegen dürfte, dass gewaltige Stürme schon immer eine Rolle bei apokalyptischen Erzählungen gespielt haben.

Es existiert aber noch ein ganz anderer, wesentlich profanerer Grund: Börsennotierte Rückversicherer haben ein erkennbar wirtschaftliches Interesse daran, dass bestimmte Risiken (in dem Fall Sturmschäden) als erhöht angesehen werden. Und natürlich gibt es immer wieder auch leichtgläubige Klimawissenschaftler, die unkritisch mit Daten umgehen: So waren etwa im Lauf der Zeit auf den Wetterkarten zunehmend schwere Stürme über dem nördlichen Atlantik zu erkennen – was in Wahrheit jedoch einer besseren Beobachtung (auch durch Satelliten) geschuldet war. Der empirische Befund ist jedenfalls stabil: Die Sturmstatistik ist nicht konstant, sondern geht mal hin zu mehr und stärkeren Stürmen, dann aber wieder zu weniger und schwächeren Stürmen. Wenn die breite Öffentlichkeit dennoch vom Gegenteil überzeugt ist, kann das nur bedeuten: Beim Klimawandel gibt es einen Unterschied zwischen wissenschaftlicher Erkenntnis und sozialer Konstruktion.

Mehr als nur Treibhausgase

Bisher ging es nur um die Frage, ob eine Entwicklung als ungewöhnlich, als „außerhalb der natürlichen Schwankungsbreite“ zu deuten sei – ob also externe, auf menschliche Aktivität zurückzuführende Faktoren am Werk sind. Jetzt geht es um „Attribution“, also um den zweiten Teil der von Klaus Hasselmann begründeten Methodik zur Analyse klimatischer Veränderungen. Während die Detektion ein strikt statistisches Verfahren ist, gehört die Attribution zum Schema der Plausibilitätsargumente: Hierfür vergleicht man die aktuellen Veränderungen mit den erwarteten Veränderungen (etwa aufgrund erhöhter atmosphärischer Konzentrationen von Treibhausgasen und von Schwebeteilchen oder aufgrund von Veränderungen am Boden, beispielsweise Entwaldung). Diese Wirkungsannahmen werden in der Regel durch Klimamodelle generiert, weil ein sauberes experimentelles Vorgehen nicht möglich ist. Allerdings sind diese modellbasierten erwarteten Änderungen nicht eindeutig (was bei Modellen in der Natur der Sache liegt).

In den Berichten des UN-Klimarats sind solche modellbasierten Abschätzungen aufgeführt, und tatsächlich entsprechen sie weitgehend den realen Klimaentwicklungen der vergangenen Jahre. Anders gesagt: Die Erwartungen der Wissenschaft hinsichtlich der Reaktion des Klimasystems auf erhöhte Treibhausgaskonzentrationen sind eingetroffen. Vergleichen wir die vergangenen (realen) Klimaentwicklungen mit den Erwartungen, welche sich aus Modellrechnungen ohne erhöhte Triebhausgaskonzentrationen ergeben, tut sich eine Lücke auf, die irgendwann in den siebziger Jahren beginnt. Insofern „attribuiert“ man die zunächst als statistisch auffällig festgestellten („detektierten“) Veränderungen den menschlichen Emissionen der Treibhausgase. Abgesehen davon, dass die Wissenschaft eine Erklärung für die beobachteten Klimaveränderungen anbietet, können mittels Attribution auch künftige Entwicklungen beim Klima zumindest im Groben korrekt beschrieben werden.

Das alles bedeutet jedoch nicht, dass andere externe Faktoren keine Rolle spielen, sondern lediglich, dass es ohne den Faktor „Treibhausgase“ nicht gelingt, die Änderungen der Vergangenheit zu erklären. Und bei vielen anderen meteorologischen Kennzahlen gelingt diese Attribution bis dato nicht. Aus regionalen Betrachtungen innerhalb Europas ergeben sich sogar Widersprüche, was damit zusammenhängen könnte, dass nicht nur die Erhöhung der Treibhausgaskonzentration, sondern auch die Minderung der (industriellen) Aerosollast in den achtziger und neunziger Jahren eine Rolle spielt. Bei der Attribution regionaler Veränderungen hat die Wissenschaft jedenfalls noch Schularbeiten zu machen.

Menschengemachte Erderwärmung

Noch komplizierter wird die Lage, wenn man kleinere Gebiete unter die Lupe nimmt – insbesondere in Städten, wo sich die entsprechende Bebauung auswirkt. So liegt etwa im Sommer das mittlere Tagesmaximum der Temperaturen in St. Pauli um 2,5 Grad höher als im weiteren Umland von Hamburg.

Mein Kollege Dennis Bray und ich haben seit 1995 regelmäßig Wissenschaftler auf der ganzen Welt befragt, inwieweit sie eine globale Erwärmung erkennen können – und falls ja, ob sie diese auf menschengemachte Ursachen zurückführen. Die Zahlen sind seither stetig angestiegen: Waren es 1995 noch circa 60 Prozent, die eine Erwärmung konstatierten, und 40 Prozent, die hierfür einen menschlichen Einfluss sahen, so lagen die entsprechenden Werte 2015 jeweils klar über 90 Prozent. Offensichtlich gibt es unter den mit Klimafragen befassten Wissenschaftlern eine breite Unterstützung für die These, dass wir es mit menschlichen Ursachen zu tun haben.

Wenn aber feststeht, dass eine globale Klimaveränderung existiert, die nach heutigem Wissen nur durch erhöhte atmosphärische Konzentration von Treibhausgasen widerspruchsfrei erklärt werden kann, dann stellt sich natürlich die Frage: Was sollen wir tun? Dies allerdings ist keine wissenschaftliche, sondern eine politische Frage. Grundsätzlich gibt es zwei Strategien, wobei es am Ende wohl immer auf eine Kombination der beiden Ansätze hinauslaufen wird – nämlich zum einen „Vermeidung“ (im Jargon der Zeit auch „Klimaschutz“ genannt) und zum anderen die „Anpassung“ an sich verändernde Risiken und Möglichkeiten.

Wege aus dem Problem

Die Vermeidung gelingt, indem zunächst weniger und schließlich überhaupt keine Treibhausgase mehr emittiert werden. Dabei geht es wohlgemerkt um die globalen Emissionen: Kohlendioxidmoleküle tragen keine Flaggen ihrer Herkunftsländer, und ob eines in der Mongolei oder in Schwaben freigesetzt wird, ist für das Klima unerheblich. Da diese Moleküle sehr lange in der Atmosphäre verbleiben, bestimmt schlussendlich die Gesamtmenge der seit der Industrialisierung freigesetzten Moleküle den Anstieg der globalen gemittelten Temperatur. Man spricht vom „Budgetansatz“.

Anpassung hingegen bedeutet, die Bedingungen für Ökosysteme und Menschen (zumeist regional und lokal) so zu gestalten, dass die Folgen des nicht vermiedenen Klimawandels erträglich werden. Da wir schon jetzt einen Klimawandel haben, der einer globalen Temperaturerhöhung von circa einem Grad im Vergleich zur vorindustriellen Zeit entspricht, besteht bereits heute ein Anpassungsbedarf, der bei weiterem Fortschreiten des Klimawandels noch erheblich steigen wird.

Anpassung und Vermeidung verlaufen oft sehr unterschiedlich: Die Vermeidung muss global erfolgen, denn es geht um die Summe der Emissionen in der ganzen Welt, während eine Anpassung von den Gegebenheiten und Möglichkeiten vor Ort abhängt. Eine Vermeidung muss möglichst schnell in die Wege geleitet werden, um anhaltende Wirkung zu entfalten, während Anpassung erst dann zu passieren braucht, wenn die neuen Schäden beziehungsweise Möglichkeiten konkret abgesehen werden können. In der öffentlichen Debatte geht es bei Klimaschutzpolitik praktisch nur um Vermeidung, während die Anpassung unbemerkt, aber dennoch intensiv vorbereitet wird.

Die politische Beschlusslage ist, dass der Anstieg der Temperaturen bis Ende des 21. Jahrhunderts zum Stillstand gekommen sein soll, mit einer maximalen Erwärmung von zwei Grad im globalen Mittel, besser 1,5 Grad im Vergleich zum vorindustriellen Zustand. Es wird zwar oft suggeriert, dies sei eine „wissenschaftliche“ Vorgabe; tatsächlich handelt es sich aber um einen (durchaus legitimen) politischen Wert, der Ausdruck eines (weitgehenden) Konsenses der Regierungen auf der ganzen Welt ist.
Wenn das 1,5- beziehungsweise 2-Grad-Ziel erreicht werden soll, müssen die bisher durch die Menschheit verursachten CO2-Emissionen in Höhe von jährlich 38 Milliarden Tonnen (38 Gigatonnen) binnen der etwa nächsten 30 Jahre auf null abgesenkt werden. Konkret heißt das: in den frühen 2030er Jahren eine Halbierung; nach etwa 2055 negative Emissionen durch Abtrennung und Speicherung von CO2.

Verzichtstrategien können helfen

Allerdings steigt die Summe aller Emissionen auf der Welt seit Jahrzehnten an, auch während der vergangenen Jahre. In Deutschland werden pro Jahr 0,8 Gigatonnen CO2 freigesetzt, in Europa weniger als vier Gigatonnen CO2. Hier stagnieren die Emissionen oder werden sehr langsam geringer; die Temperaturen aber steigen, solange überhaupt irgendwo auf der Welt emittiert wird. Das ist wie in der Badewanne: Der Wasserspiegel steigt, solange der Hahn nicht geschlossen ist (und zwar auch dann, wenn er kleiner gestellt wird).

Geht man davon aus, dass Europa einen Teil seiner Emissionen losgeworden ist, indem die Produktion ins Ausland verlegt wurde, dann können – großzügig gerechnet – der deutschen Industrie Emissionen in Höhe von höchstens 1,5 Gigatonnen CO2 zugerechnet werden. Insgesamt dürfte Europa wohl höchstens mit einer Reduktion um maximal sechs Gigatonnen CO2 pro Jahr beitragen – und wir reden hier wohlgemerkt von 38 Gigatonnen pro Jahr weltweit.

In diesem Zusammenhang würden Geschwindigkeitsbegrenzungen, der Verzicht auf Flugreisen, auf Fleischkonsum oder auf Einweggeschirr nur in minimalem Umfang zur CO2-Reduktion beitragen. Solche Maßnahmen können allerdings politisch sinnvoll sein, wenn sie dazu führen, dass das Problem in seiner mengenmäßigen Dimension verstanden wird – und die bis dato weitgehend symbolischen Maßnahmen durch wirksame vervollständigt werden.

Auch wenn ein vollständiges Ende der Emission von Treibhausgasen in Europa (und bei der für Europa erfolgten Produktion) gelänge, würde der Rest der Welt immer noch 32 Gigatonnen CO2 pro Jahr emittieren, wenn es dort zu keiner Reduktion kommt. Selbst wenn der Rest der Welt seine Emissionen halbieren würde, verblieben 16 Gigatonnen CO2 pro Jahr: Es liefe also immer noch eine Menge Wasser durch den Hahn in die Badewanne.

Neue Technologien gebraucht

Wenn es um Verzichtsstrategien geht oder um die Umstellung von Technologien, dann ist meist auch von einer „Vorreiterrolle“ Europas die Rede. Nach dem Motto: Wenn wir Europäer vormachen, wie man emissionsfrei Energie erzeugt, wie man durch eine Umstellung der Konsumgewohnheiten am Ende eine höhere Lebensqualität bekommt, dann wird der Rest der Welt uns folgen. Dem ist aber nicht so. Wer etwas anderes behauptet, versteht die Interessenlage in anderen Ländern der Welt nicht. Das einzig wirksame Argument lautet vielmehr: Wirtschaftlichkeit. Nicht, weil unsere vorgeblich nachhaltige Lebensweise „geil“ ist, werden unsere Vorschläge umgesetzt, sondern wegen wirtschaftlicher Vorteile.

Eine wirksame Klimaschutzpolitik wird deshalb versuchen müssen, Technologien zu entwickeln, die neben wirtschaftlichen Vorteilen auch klimatische Vorteile bringen. Das Erneuerbare-Energien-Gesetz kann da als Beispiel einen Weg weisen: Wenn wir das Klima tatsächlich „retten“ wollen, müssen wir die Verantwortung für die Welt annehmen, müssen wir altruistisch sein. Dann muss auch jeder Einzelne von uns (zumindest jeder, der es sich leisten kann) für die Entwicklung solcher Technologien zahlen – und zwar mit dem Ziel, diese Technologien zu verschenken, damit sie überall auf der Welt hilfreich sein können.

Starten wir also damit, die Speicherung von elektrischer Energie oder die Verpressung von CO2 in Böden voranzubringen, wirksame Netze zu entwickeln, die Industrieproduktion zu elektrifizieren oder treiben wir die E-Mobilität voran. Die Effekte werden dann auch in China, Russland, in den Vereinigten Staaten, Indien und Südafrika eintreten. Wenn eine solche „altruistische“ Innovationspolitik auch von anderen reichen Ländern praktiziert würde, könnte es gelingen, den weltweiten Ausstoß um deutlich größere Mengen zu reduzieren als jene sechs Gigatonnen CO2 pro Jahr. Der Anstieg des Wassers in der Badewanne könnte zum Halten gebracht werden.

„Innovationsabgabe“

Wenn jetzt in Deutschland über die Einführung einer CO2-Steuer debattiert wird, dann geht es bei diesem Ansatz darum, dass jeder Einzelne mit seinem Geldbeutel daran erinnert wird, die eigenen Emissionen klein zu halten. Mein Vorschlag sieht anders aus: Ich plädiere nicht für eine emissionsabhängige Steuer, sondern für eine „Innovationsabgabe“, die sich am individuellen Einkommen bemisst (beispielsweise in Höhe von 10 Prozent auf das 2000 Euro übersteigende Monats-Nettogehalt). Anders gesagt: Zur Kasse gebeten werden soll nicht die Hebamme, die mit ihrem Diesel-Auto auf Hausbesuche fährt – sondern der wohlsituierte Radiologe, der sich einen Tesla leisten kann. Das auf diese Weise eingesammelte Geld müsste dann in die Entwicklung technischer Innovationen investiert werden, die einen weltweiten und signifikanten Beitrag zum Klimaschutz in Aussicht stellen.

Eine solche Abgabe würde bedeuten, dass viele Bürger tatsächlich auf einen (weiteren) Teil ihres Einkommens verzichten müssten – und zwar auf Dauer. Um „Klimaretter“ zu sein, reicht dann nicht mehr aus, im Bioladen einzukaufen oder den Sommerurlaub beim Wandern in Bayern zu verbringen. Ob die Menschen dazu auch bereit wären, ist allerdings eine ganz andere Frage.

Informieren oder motivieren?

Bei der Diskussion um den menschengemachten Klimawandel ist auch die Klimaforschung selbst in Mitleidenschaft gezogen worden. Indem die Politik sich eigener Gestaltungsverantwortung verweigert und gegenüber der Öffentlichkeit auf „wissenschaftliche Vorgaben“ zum Klimaschutz verweist, begibt sie sich auf das Terrain vermeintlicher Alternativlosigkeit. Politiker erwecken den Anschein, sie hätten überhaupt keine Wahlmöglichkeiten, vielmehr gehe es nur noch darum, von der Wissenschaft „vorgegebene“ Ziele konkret umzusetzen. Mit anderen Worten: Politik wird depolitisiert, der Wissenschaft hingegen wird die Rolle der wahrheitsgeleiteten obersten Autorität zugewiesen. Das ist zutiefst undemokratisch – wobei es offen bleibt, ob „die“ Wissenschaft diese Rolle überhaupt übernehmen kann (und ob Politiker sich nur Wissenschaftler aussuchen, die der jeweiligen politischen Präferenz entsprechen).

Diese Politisierung der Wissenschaft lässt sich übrigens empirisch belegen. Ein Kollege und ich befragten junge Klimawissenschaftler in zwei europäischen „Doktorandenschulen“, worin für sie die Hauptaufgabe der Klimaforschung besteht. Zur Auswahl standen „Zusammenhänge erkennen (Attribution)“, „Lösungen erarbeiten“ sowie „Öffentlichkeit motivieren zur Aktion“. Die Befragten sprachen sich mehrheitlich nicht für den wissenschaftlichen Ansatz „Zusammenhänge erkennen“ aus – sondern für die politische Agenda „Öffentlichkeit motivieren“. Darin zeigt sich, dass viele Wissenschaftler sich als Teil einer politischen Bewegung sehen – und weniger als neugierige, ergebnisoffene und selbstkritische Betrachter und Deuter von Entwicklungen. Die Frage ist, ob der Öffentlichkeit gedient ist, wenn sie unter dem Banner vorgeblicher Objektivität bevormundet wird.

 

Dieser Text erschien in der Juli-Ausgabe des Cicero, die Sie am Kiosk oder direkt bei uns portofrei kaufen können.

 

Jetzt Ausgabe kaufen

 

 

 

Anzeige