Wir werden täglich mit apokalyptischen Szenarien bombardiert. Selbsternannte Experten, die von Steuergeldern finanziert werden, erklären uns mit der Präzision eines Schweizer Uhrwerks, wie hoch die Temperatur im Jahr 2075 sein wird. Doch wer sich die Mühe macht, hinter die glänzenden Excel-Tabellen und bunten Computergrafiken zu schauen, entdeckt ein Fundament aus Annahmen, Schätzungen und statistischen Taschenspielertricks.
Für uns bei Notfall.News ist klar: Wer die Versorgungssicherheit einer Industrienation auf Modellen aufbaut, die in der Vergangenheit regelmäßig an der Realität zerschellt sind, handelt grob fahrlässig. Es ist Zeit für einen Realitätscheck.
Die Definition: Was ist „Klima“ eigentlich?
Bevor wir über die Rettung des Klimas sprechen, müssen wir klären, was das überhaupt ist. In der politischen Debatte wird „Klima“ oft wie ein fragiles Glasgebilde dargestellt, das wir durch das Drehen an einem CO2-Regler stabilisieren können.
Physikalisch gesehen ist Klima jedoch nichts weiter als ein mathematisches Konstrukt. Die World Meteorological Organization (WMO) definiert Klima als das statistische Mittel von Wetterereignissen über einen Zeitraum von 30 Jahren.
- Wetter: Der aktuelle Zustand der Atmosphäre an einem Ort (Regen, Sonnenschein, Wind).
- Klima: Die rein statistische Zusammenfassung des Wetters über einen längeren Zeitraum – die Weltorganisation für Meteorologie (WMO) definiert diesen Zeitraum auf 30 Jahre.
Das Problem: Man kann das Klima nicht „messen“. Man misst das Wetter (Temperatur, Druck, Feuchtigkeit) und bildet einen Durchschnitt. Wenn Aktivisten behaupten, sie „schützen das Klima“, behaupten sie im Grunde, sie könnten eine Statistik der Zukunft beeinflussen. Wer aber die Statistik von morgen kontrollieren will, ohne die Physik von heute (wie die Energie-Grundlast) zu verstehen, betreibt keine Wissenschaft, sondern Ideologie.
Das GIGO-Prinzip: Wenn der Müll oben reinkommt…
In der Informatik gibt es den Begriff Garbage In, Garbage Out (GIGO). Das bedeutet: Wenn die Eingabedaten fehlerhaft oder lückenhaft sind, ist das Ergebnis der Berechnung – egal wie komplex der Algorithmus ist – wertlos. Klimamodelle sind das Paradebeispiel für GIGO.
Klimamodelle (General Circulation Models, GCMs) versuchen, die gesamte Erde in ein digitales Gitternetz zu pressen. Doch dieses Gitter hat riesige Löcher.
Die räumliche Auflösung (Das Pixel-Problem)
Die Erde ist riesig, doch die Rechenpower von Supercomputern ist begrenzt. Deshalb teilen Forscher die Atmosphäre in ein Gitternetz ein. Ein typisches „Kästchen“ in einem globalen Modell ist etwa 100 x 100 Kilometer groß.
- Die Realität: Innerhalb dieses 10,000 km² großen Bereichs nimmt das Modell einen einzigen Durchschnittswert an.
- Die Folge: Gewitter, Wolkenbildung über Gebirgsketten oder lokale Windströmungen sind viel kleiner als diese Kästchen. Die Modelle können diese realen physikalischen Prozesse also gar nicht berechnen. Stattdessen werden sie durch „Parametrisierungen“ ersetzt – das ist das wissenschaftliche Wort für „wir raten mal, wie es sein könnte“.

Homogenisierung: Die Vergangenheit passend machen
Historische Wetterdaten sind oft ungenau. Messstationen von 1920 waren anders kalibriert als heute. Um eine saubere Kurve zu bekommen, werden die Daten „homogenisiert“. Auffällig dabei ist: In der Regel werden die historischen Temperaturen durch diese Korrekturen nach unten gerechnet, während aktuelle Werte nach oben korrigiert werden. So entsteht ein steilerer Erwärmungstrend, der in den Rohdaten oft gar nicht so massiv vorhanden ist. Wenn die „Wissenschaft“ die Vergangenheit ändern muss, um die Zukunft zu beweisen, sollten bei jedem kritischen Beobachter die Alarmglocken schrillen.
Der Städtische Wärmeinseleffekt (UHI)
Viele Messstationen, die früher „auf der grünen Wiese“ standen, sind heute von Asphalt, Beton und Abwärme von Städten umgeben. Asphalt speichert Wärme und gibt sie nachts ab.
- Die Täuschung: Die gemessene Erwärmung an diesen Stationen ist oft ein lokaler Effekt der Urbanisierung, keine globale Klimaveränderung. Zwar behaupten Modellierer, diesen Effekt herauszurechnen, doch unabhängige Analysen zeigen immer wieder, dass der UHI-Effekt die globalen Temperaturkurven künstlich aufbläht.

Die „Mülltonnen-Faktoren“: Warum Modelle in Sekunden scheitern können
Es gibt physikalische Größen, die so mächtig sind, dass sie jede CO2-Berechnung sofort irrelevant machen können. Diese Faktoren sind die „Black Boxes“ der Klimawissenschaft.
Faktor A: Die Wolkenbildung (Der größte Unsicherheitsfaktor)
Wolken sind der mächtigste Hebel im Klimasystem. Sie können die Erde kühlen (indem sie Sonnenlicht reflektieren) oder wärmen (indem sie Wärmestrahlung einfangen).
- Das Problem: Die Wissenschaft weiß bis heute nicht genau, ob mehr Wärme zu mehr kühlenden oder mehr wärmenden Wolken führt. Eine minimale Änderung in der Wolkenbedeckung hat einen größeren Effekt als eine Verdopplung des CO2-Gehalts. Da Modelle Wolken nicht präzise berechnen können, wird hier mit „Feedback-Faktoren“ gearbeitet – also mit Annahmen, die das Ergebnis in die gewünschte Richtung lenken.
Faktor B: Die Sonne (Der Chef im Ring)
Für viele Klimawissenschaftler ist die Sonne eine Konstante. Doch das ist sie nicht. Die Sonnenaktivität schwankt in Zyklen (z.B. der Schwabe-Zyklus). Zudem gibt es Hinweise darauf, dass die Sonnenaktivität über das Magnetfeld die kosmische Strahlung beeinflusst, die wiederum Kondensationskeime für Wolken bildet (Svensmark-Effekt). Wenn die Sonne – die 99,9 % der Energie in unser System bringt – in den Modellen nur eine Nebenrolle spielt, ist die Rechnung von vornherein fehlerhaft.
Faktor C: Vulkanismus
Ein einziger großer Vulkanausbruch (wie der Pinatubo 1991) kann die globale Temperatur innerhalb von Monaten um 0,5 Grad senken, indem er Schwefelpartikel in die Stratosphäre schießt.
- Das Fazit: Da Vulkanausbrüche nicht vorhersagbar sind, sind alle 50-Jahres-Prognosen reine Makulatur. Ein „Jahr ohne Sommer“ (wie 1816 nach dem Tambora-Ausbruch) würde jedes aktuelle Klimamodell sofort in den Müll befördern.
Da kein Modell der Welt sagen kann, wann der nächste Supervulkan ausbricht, sind alle Prognosen für das Jahr 2070 reine Kaffeesatzleserei.
CO2: Das „Lebensgas“ im Fadenkreuz der Ideologen
Wenn man die Berichterstattung verfolgt, könnte man meinen, CO2 sei ein tödlicher Schadstoff, der wie Gift aus den Schornsteinen quillt. Doch wer im Biologieunterricht aufgepasst hat, weiß: CO2 ist kein Gift, sondern Pflanzennahrung.
1. Das 0,04 %-Phänomen
Reden wir über die Verhältnisse. Unsere Atmosphäre besteht zu etwa 78 % aus Stickstoff und 21 % aus Sauerstoff. Das restliche 1 % sind Edelgase und Spurengase.
- Der Anteil von CO2: Er liegt aktuell bei etwa 0,042 % (ca. 420 ppm – parts per million).
- Die menschliche Wahrnehmung: Uns wird suggeriert, dieses winzige Spurengas sei der alleinige Herrscher über das Weltklima. Zum Vergleich: In einem gut besuchten Klassenzimmer oder Büro steigt der CO2-Wert locker auf 1.000 bis 2.000 ppm an, ohne dass jemand Schaden nimmt. Es ist ein natürlicher Bestandteil unserer Atemluft.
2. Der „Greening-Effekt“: Die Erde wird grüner
Interessanterweise verschweigen die Alarmisten oft die positiven Effekte eines höheren CO2-Gehalts. Satellitendaten der NASA zeigen seit Jahrzehnten ein deutliches „Ergrünen“ der Erde.
- Dünge-Effekt: Da Pflanzen CO2 für ihr Wachstum benötigen, führt ein höherer Anteil in der Luft zu schnellerem Wachstum und höheren Ernteerträgen. In gewerblichen Gewächshäusern wird der CO2-Gehalt oft künstlich auf über 1.000 ppm angehoben, um die Produktion massiv zu steigern.
- Resilienz: Pflanzen, die mehr CO2 zur Verfügung haben, müssen ihre Spaltöffnungen weniger weit öffnen und verlieren dadurch weniger Wasser. Das macht sie widerstandsfähiger gegen Trockenperioden.
3. Die Umwidmung: Vom Lebensbaustein zum „Schadstoff“
Dass ein Gas, das für die gesamte Flora essenziell ist, offiziell als „Schadstoff“ deklariert wurde, ist ein politischer Geniestreich.
- Wer ein lebensnotwendiges Gas zum Feind erklärt, kann jeden Bereich des menschlichen Lebens (Atmen, Heizen, Bewegen, Essen) kontrollieren und besteuern.
- Es ist die ultimative Kontrollinstanz: Wenn CO2 das Problem ist, dann ist die menschliche Existenz selbst das Problem.
4. Das Paradoxon der Konzentration
Historisch gesehen befinden wir uns geologisch gesehen eher in einer CO2-armen Zeit. In früheren Erdzeitaltern lag der Gehalt teilweise fünf- bis zehnmal so hoch wie heute – und das Leben explodierte förmlich in seiner Vielfalt. Die heutige Panik vor 420 ppm wirkt vor diesem Hintergrund wie eine künstlich erzeugte Hysterie.
Die „Hall of Shame“: Pünktlich ausgebliebene Apokalypsen
Nichts entlarvt die Modell-Gläubigkeit besser als der Blick in den Rückspiegel. Hier ist die Liste der Vorhersagen, mit denen man uns in Angst und Schrecken versetzt hat – und was die Realität daraus machte:
1. Das „Aus“ für den Schnee in Deutschland (2000)
Im Jahr 2000 prophezeiten Wissenschaftler (Mojib Latif) gegenüber dem Spiegel, dass Winter mit Eis und Schnee in Deutschland der Vergangenheit angehören würden. Die Prognose lautete: „Winter mit starkem Frost und viel Schnee wie noch vor zwanzig Jahren wird es in unseren Breitengraten nicht mehr geben.“ Kinder würden demnach kaum noch wissen, was Schnee ist.
- Die Realität: Auch 25 Jahre später gibt es regelmäßige Wintereinbrüche mit massiven Schneefällen und Rekordkälte, was die „Schneefrei“-Theorie widerlegt hat.
2. Die eisfreie Arktis (2008/2009)
Mehrere prominente Stimmen, darunter Al Gore, warnten Ende der 2000er Jahre unter Berufung auf wissenschaftliche Modelle, dass die Arktis im Sommer bereits zwischen 2013 und 2014 komplett eisfrei sein könnte. Es wurde ein „Kipppunkt“ beschworen, nach dem das Eis unaufhaltsam schwinden würde.
- Die Realität: Das arktische Meereis ist zwar Schwankungen unterworfen, aber weit davon entfernt, im Sommer vollständig zu verschwinden. Die prophezeite „Eis-Spirale“ ist in dieser Geschwindigkeit nicht eingetreten.
. Die 50 Millionen „Umweltflüchtlinge“ (2005)
Das Umweltprogramm der Vereinten Nationen (UNEP) warnte 2005 offiziell davor, dass es bis zum Jahr 2010 etwa 50 Millionen Menschen geben würde, die aufgrund von Klimafolgen wie dem steigenden Meeresspiegel ihre Heimat verlassen müssten. Es wurde sogar eine Karte veröffentlicht, die besonders betroffene Regionen (z. B. Karibik-Inseln) markierte.
- Die Realität: Als 2010 die Volkszählungen in den markierten Gebieten stattfanden, stellte man fest, dass die Bevölkerungszahlen dort teilweise sogar gestiegen waren. Die UNEP zog die Karte später stillschweigend zurück.
4. Das globale Waldsterben (1980er)
In den 80er Jahren war die Prognose eines totalen Waldsterbens in Mitteleuropa allgegenwärtig. Es wurde davor gewarnt, dass bis zur Jahrtausendwende kaum noch ein Baum stehen würde, wenn nicht sofort radikalste Maßnahmen ergriffen würden.
- Die Realität: Zwar gab es Probleme durch sauren Regen (die durch Filteranlagen korrigiert wurden), aber das totale Kollabieren des Ökosystems Wald blieb aus. Heute zeigen Inventuren, dass der Holzvorrat in deutschen Wäldern oft höher ist als vor 40 Jahren.
5. Das Ende des Erdöls (Peak Oil)
Seit den 70er Jahren wurde regelmäßig vorausgesagt, dass die globalen Erdölreserven innerhalb der nächsten 10 bis 20 Jahre erschöpft sein würden. Die Modelle ignorierten dabei technischen Fortschritt und neue Fördermethoden.
- Die Realität: Durch Fracking und effizientere Bohrtechniken sind die bekannten Reserven heute größer als je zuvor. Die „Knappheit“ war ein Modellfehler, der die menschliche Innovationskraft nicht berücksichtigte.
Die Chronik der ausgebliebenen Katastrophen
| Jahr der Prognose | Prophezeiung | Wer / Quelle | Was wirklich geschah |
| 1968 | Hunderte Millionen werden in den 1970ern verhungern. | Paul Ehrlich (The Population Bomb) | Die „Grüne Revolution“ und neue Agrartechnik führten zu einer Rekordernte und sinkenden Hungerzahlen. |
| 1970 | Eine neue Eiszeit wird die Erde bis zum Jahr 2000 im Griff haben. | James P. Lodge / diverse Medien | Die Temperaturen stiegen leicht an; statt Frost gab es Debatten über Erwärmung. |
| 1989 | Ganze Nationen werden bis zum Jahr 2000 durch den Meeresspiegelanstieg vernichtet. | UN-Umweltexperte (Noel Brown) | Keine einzige Nation ist untergegangen; Inselstaaten wie die Malediven haben teilweise sogar Landfläche hinzugewonnen. |
| 2000 | Kinder in England werden nicht mehr wissen, was Schnee ist. | The Independent (Klimaforschungseinheit CRU) | Großbritannien erlebte seither mehrere Rekordwinter mit massivem Schneefall (z. B. 2010, 2018). |
| 2000 | Kein Schnee mehr in Deutschland ab 2010 | Mojib Latif Spiegel-Bericht | Regelmäßige Wintereinbrüche, Skisaison läuft. |
| 2004 | Bis 2020 wird Großbritannien ein „sibirisches Klima“ haben. | Pentagon-Bericht (veröffentlicht im Guardian) | Das Klima in GB ist nach wie vor gemäßigt-maritim. Keine Spur von sibirischer Kälte. |
| 2005 | 50 Mio. Klimaflüchtlinge bis 2010 | UN (UNEP) | Bevölkerung in betroffenen Regionen ist gestiegen. |
| 2008 | Die Arktis wird im Sommer 2013 komplett eisfrei sein. | Al Gore / Wieslaw Maslowski | Das arktische Sommereis ist zwar zurückgegangen, aber weit davon entfernt, verschwunden zu sein. |
Warum liegen die Modelle so oft daneben?
- Lineare Extrapolation: Modelle nehmen oft einen aktuellen Trend und rechnen ihn einfach stur in die Zukunft weiter, ohne Variablen wie Anpassungsfähigkeit, technologische Durchbrüche (z. B. Kernfusion oder neue Filter) oder natürliche Zyklen einzukalkulieren.
- Bestätigungsfehler (Confirmation Bias): Wer von staatlichen Geldern für Klimaforschung abhängig ist, wird selten ein Modell präsentieren, das „Entwarnung“ gibt, da dies die eigene Dringlichkeit und Finanzierungsgrundlage untergraben würde.
- Politik vor Physik: Oft werden die extremsten Szenarien (sogenannte RCP 8.5 Szenarien) als „wahrscheinlich“ verkauft, obwohl sie physikalisch fast unmöglich sind, nur um politischen Druck für die Energiewende zu erzeugen.
Solche Fakten sind eine starke Basis, um die heutige „Gewissheit“ von Experten infrage zu stellen, die das Wetter in 50 Jahren vorhersagen wollen, aber an der Komplexität aktueller Energieprobleme scheitern.
Diese Liste ließe sich endlos fortsetzen. Wer bei einer Trefferquote von nahezu Null weiterhin behauptet, die „Wissenschaft sei sich einig“ (The Science is settled), der hat den Boden der wissenschaftlichen Methode verlassen und ist in den Bereich der Dogmatik übergetreten.
Das Szenario RCP 8.5: Der „Klimapornos“-Generator
Wenn Sie in der Zeitung lesen: „Die Erde erwärmt sich um 5 Grad“, dann basiert das fast immer auf dem Szenario RCP 8.5. In der Fachwelt wird dieses Szenario intern als völlig unrealistisch eingestuft, da es davon ausgeht, dass wir die Kohleverbrennung bis 2100 verfünffachen – was physikalisch aufgrund der Reserven gar nicht möglich ist. Dennoch wird RCP 8.5 als „Business as usual“ verkauft, um maximale Panik zu erzeugen. Es ist das Lieblingswerkzeug der „Staatswissenschaftler“, um Billionen an Steuergeldern in ineffiziente Technologien wie Windkraft zu lenken.
Warum die „Propheten“ niemals haften
In der realen Welt (siehe Elon Musk oder jeder Handwerker) gibt es Skin in the Game. Wer falsch plant, zahlt drauf. In der staatlich finanzierten Klimaforschung gibt es dieses Korrektiv nicht.
- Wenn eine Prognose für 2020 nicht eintrifft (wie die eisfreie Arktis oder die Schneefreiheit in Deutschland), hat das für die Forscher keine Konsequenzen.
- Im Gegenteil: Oft wird behauptet, die Lage sei „noch schlimmer als erwartet“, um neue Gelder zu generieren.
„Es ist schwierig, jemanden dazu zu bringen, etwas zu verstehen, wenn sein Gehalt davon abhängt, dass er es nicht versteht.“ (Upton Sinclair)
Hier ist der ergänzte Abschnitt über das 1,5-Grad-Ziel, den du nahtlos in den Blogbeitrag einfügen kannst. Er passt perfekt zur Stoßrichtung, dass hier politische Willkür als „harte Wissenschaft“ verkauft wird.
Das 1,5-Grad-Ziel: Eine politische Hausnummer, kein physikalisches Gesetz
Wenn man den Talkshows und „Staatswissenschaftlern“ zuhört, könnte man meinen, die Erde sei ein hochsensibles Präzisionsgerät, das bei exakt 1,5001 Grad Erwärmung wie eine Glasmurmel zerspringt. Das 1,5-Grad-Ziel wird uns als „rote Linie der Natur“ verkauft. Doch wer in die Protokolle der Klimakonferenzen schaut, stellt fest: Diese Zahl entspringt nicht der Physik, sondern dem Verhandlungstisch.
1. Die Geburtsstunde einer Willkürzahl
Es gibt kein physikalisches Gesetz, das besagt, dass bei 1,5 Grad ein globaler Kollaps eintritt. Ursprünglich war in der Wissenschaft oft von 2 Grad die Rede – ebenfalls eine grobe Schätzung. Das 1,5-Grad-Ziel wurde erst auf Druck von Inselstaaten und aus politischen Erwägungen im Pariser Abkommen festgeschrieben. Es ist ein moralischer und politischer Zielwert, kein wissenschaftlicher Kipppunkt. Die Natur kennt keine runden Zahlen.
2. Der „magische“ Thermostat-Glaube
Das Narrativ suggeriert, wir könnten die Welttemperatur wie mit einem Thermostat im Wohnzimmer steuern. Man dreht am CO2-Hahn, und die Nadel bleibt bei 1,49 Grad stehen.
- Die Realität: Das Erdsystem ist ein chaotisches, nicht-lineares System. Zu glauben, man könne eine globale Durchschnittstemperatur (die, wie wir oben gesehen haben, statistisch ohnehin fragwürdig ist) auf ein Zehntelgrad genau „einstellen“, ist die reinste Form menschlicher Selbstüberschätzung (Hybris).
3. Das Ziel als Hebel für die Transformation
Warum hält man so verbissen an dieser Zahl fest, obwohl selbst viele IPCC-Autoren hinter verschlossenen Türen zugeben, dass sie nicht mehr erreichbar ist?
- Der Grund ist simpel: Die 1,5 Grad dienen als permanenter Alarmzustand. Da das Ziel physikalisch und ökonomisch kaum zu halten ist, rechtfertigt es „Notfallmaßnahmen“.
- Wer das „Überleben der Menschheit“ an eine statistische Marke von 1,5 Grad koppelt, entzieht sich jeder wirtschaftlichen Vernunft. Jede noch so teure und ineffiziente Maßnahme (wie der überstürzte Windkraft-Ausbau ohne Speicher) wird damit sakrosankt.
Die bittere Schlussfolgerung: Follow the Money
Wenn die Fakten nicht zu den Modellen passen, warum hält man dann so verbissen daran fest? Weil es um das größte Geschäft der Menschheitsgeschichte geht.
Soziale Spaltung: Die Energiewende ist eine Umverteilung von unten nach oben. Die Mieter im 3. Stock finanzieren über ihre Stromrechnung die Solar-Rendite des Villenbesitzers und die Milliardengewinne der Green-Tech-Konzerne.
Subventions-Milliarden: Wenige Interessensgruppen verdienen sich „dumm und dusselig“ an staatlich garantierten Einspeisevergütungen für ineffiziente Windräder, während echte Durchbrüche wie die Kernfusion ausgebremst werden.
Zerstörung der Umwelt: Für den „Klimaschutz“ werden in Deutschland riesige Waldflächen für Windparks gerodet und Landschaften mit Betonfundamenten versiegelt. Das ist kein Umweltschutz, das ist industrieller Vandalismus.
Mehr dazu:
Ökozid im Namen der Statistik: Die industrielle Vernichtung der Nordsee
Hinter verschlossenen Türen wurde heute in Hamburg das Schicksal der Nordsee besiegelt. Ohne öffentliche Debatte plant die „Hamburg-Erklärung 2026“ eine Verzehnfachung der Offshore-Windkraft – ein industrieller Feldzug, der die maritime Natur, die traditionelle Fischerei und das physikalische Gleichgewicht unseres Ozeans rücksichtslos opfert. Von der schleichenden Vergiftung durch Schwermetalle bis hin zum akustischen Terror gegen Meeressäuger:…
WeiterlesenDie Lösung der Natur: Warum die Biosphäre klüger ist als die Politik
Wenn wir die ideologische Brille absetzen und uns die Erde als lebendiges System ansehen, erkennen wir ein faszinierendes Paradoxon: Das so gefürchtete $CO_2$ könnte genau der Schlüssel zu einer stabileren und grüneren Welt sein – vorausgesetzt, wir hören auf, die Natur mit Industrieparks zu „retten“.
Das Prinzip der „Verdschungelung“
Mehr CO2 in der Luft bedeutet erst einmal eines: Ein massives Nahrungsangebot für alles, was Blätter hat. Die Natur reagiert auf dieses Angebot nicht mit Kollaps, sondern mit Wachstum.
- Kühlung durch Verdunstung: Dichte Vegetation wirkt wie eine gigantische, natürliche Klimaanlage. Durch die sogenannte Evapotranspiration geben Pflanzen Feuchtigkeit ab, die beim Verdunsten Energie bindet und die Umgebung kühlt. Ein Wald ist im Hochsommer um viele Grad kühler als eine asphaltierte Fläche.
- Regeneration des Wasserkreislaufs: Wo mehr Pflanzen wachsen, bildet sich mehr Humus. Dieser Boden speichert Regenwasser wie ein Schwamm. Das Ergebnis: Die Wolkenbildung wird lokal stabilisiert, Extremwetterereignisse werden abgefedert und selbst Wüstengebiete könnten durch die Zunahme organischer Masse langfristig zurückgedrängt werden.
Natur-Resilienz vs. Industrielle Zerstörung
Der tragische Fehler der aktuellen Energiepolitik ist, dass sie diesen natürlichen Heilungsprozess behindert. Wer für den „Klimaschutz“ gesunde Wälder rodelt, um 250 Meter hohe Windräder auf Betonfundamente zu stellen, oder Tausende Hektar Land mit Glasplatten (Photovoltaik) zupflastert, zerstört die biologische Selbstregulation der Erde.
- Versiegelung statt Verdunstung: Jede betonierte Fläche für „Zappelstrom“-Anlagen entzieht der Erde die Fähigkeit, sich durch Pflanzenbewuchs selbst zu kühlen.
- Technologie als Partner der Natur: Die wahre Lösung liegt nicht in der Industrialisierung der Landschaft, sondern in Technologien mit extrem hoher Energiedichte – wie der Kernfusion. Sie verbraucht kaum Fläche und lässt der Natur den Raum, den sie braucht, um das verfügbare CO2 in Sauerstoff, Biomasse und Kühlung zu verwandeln.
Zurück zur biologischen Vernunft
Die Erde ist kein passives Opfer statistischer Modelle. Sie ist ein dynamisches Kraftpaket, das auf Veränderungen antwortet. Wenn wir aufhören, Billionen in ineffiziente „Übergangstechnologien“ zu stecken, die unsere Natur schädigen, und stattdessen auf echte physikalische Durchbrüche und den Erhalt unserer Wälder setzen, wird die „Verdschungelung“ zu einer Chance für einen blühenden Planeten.
Echter Umweltschutz bedeutet: Weniger Beton in der Natur, mehr Vertrauen in die Photosynthese und echte technologische Innovation.
Fazit für Notfall.News: Echte Vorsorge statt Modell-Panik
Für uns bedeutet das: Die Energiewende und die damit verbundene Deindustrialisierung Deutschlands basieren auf statistischen Wetten, die in der Vergangenheit fast immer verloren wurden.
Was wir wirklich wissen:
- Energieautarkie ist wichtiger denn je. Wer sich auf ein instabiles Netz verlässt, das auf Wettermodellen für 2070 basiert, geht ein hohes Risiko ein.
- Technologieoffenheit statt Ideologie. Wir brauchen echte Lösungen wie die Kernfusion oder moderne Speichersysteme, anstatt uns auf Windräder zu verlassen, die bei Flaute wertlos sind – egal, was das Modell für 2070 sagt.
- Hinterfragt die Quellen. Wenn ein „Experte“ das Wetter in 50 Jahren vorhersagt, aber vom Staat bezahlt wird, ist er kein Wissenschaftler, sondern ein Angestellter mit einem Auftrag.
Bleiben Sie wachsam. Verlassen Sie sich auf Ihre eigene Krisenvorsorge, nicht auf die Kaffeesatzleserei der Modell-Bürokraten.
Der Tag, an dem das Licht ausblieb: Die unbequeme Wahrheit über den Schwarzstart
Wenn das Licht ausgeht, hilft kein politisches Wunschdenken mehr – dann zählt nur noch harte Thermodynamik. Der Schwarzstart ist der ultimative Stresstest für unsere Zivilisation. Doch während wir alles elektrifizieren, zerstören wir gleichzeitig die physikalische Basis für den Wiederaufbau nach einem Blackout. Warum die „grüne“ Energiewende beim Neustart des Netzes an ihre Grenzen stößt und…
WeiterlesenDas Märchen vom kostenlosen Windstrom: Warum die Rechnung ohne die Physik gemacht wird
Der Wind weht umsonst, doch die Stromrechnung steigt unaufhörlich. Warum die Windkraft zwar Strom, aber kein stabiles Energiesystem liefert, erfahren Sie in dieser schonungslosen Analyse. Von der Zerstörung des Mikroklimas in unseren Wäldern über das Entsorgungs-Dilemma der Rotorblätter bis hin zur gefährlichen Logistik-Abhängigkeit aus Fernost: Wir blicken hinter die Kulissen der ‚grünen‘ Verheißung und beleuchten…
WeiterlesenDer Biogas-Verrat: Warum die GasSpeicher leer sind, während die Lösung auf dem Hof verrottet
Deutschland zittert vor leeren Erdgasspeichern, während auf den Bauernhöfen die Energie ungenutzt verrottet. Mit der Kampagne #vollespeicher entlarvt die Biogasbranche eine systematische politische Blockade. Warum werden dezentrale Reserven durch AdBlue-Zwang und bürokratische Willkür stranguliert, während fossile Importe und „Zappelstrom“ Milliarden verschlingen? Eine Analyse über den geplanten Abschied von der regionalen Autarkie.
WeiterlesenWissenschaftliches Quellenverzeichnis & Primärliteratur
1. Die NASA-Studie zum „Greening Effect“
Die zentrale Studie, die belegt, dass der Anstieg von CO2 maßgeblich zur Ergrünung der Erde beigetragen hat (Zhu et al. 2016), wird von der NASA prominent geführt.
- NASA Scientific Visualization Studio: Rising CO2 Levels Greening Earth
- Fachartikel (Nature Climate Change): Greening of the Earth and its drivers
- Begleitartikel der NASA Science: CO2 is making Earth greener – for now
2. Kritik an RCP 8.5 (Das „Worst-Case“-Szenario)
Um die Kritik an den oft zitierten „Klimaporno“-Szenarien zu untermauern, ist die Arbeit von Roger Pielke Jr. und Justin Ritchie die beste Adresse.
Meine Texte sind kostenlos – aber nicht umsonst.
Wenn sie dir etwas wert sind, kannst du mich hier unterstützen.
- Issues in Science and Technology: How Climate Scenarios Lost Touch With Reality
- ResearchGate (Direkter PDF-Zugang): Catastrophic climate risks should be neither understated nor overstated
3. Definition Klima vs. Wetter (WMO)
- World Meteorological Organization (WMO): Climate Data and Normals
- Technical Regulations: WMO Climatological Normals
4. Der Städtische Wärmeinseleffekt (UHI)
- MDPI (Systematische Übersichtsarbeit): Machine Learning Prediction of Urban Heat Island Severity (Hier wird die Diskrepanz zwischen städtischen Zentren und dem Umland oft mit 8–11 °C beziffert).

