Sag’s dem Lesch

Der von mir früher (als er noch – als gelernter Astrophysiker naheliegend – des Nächtens Astrophysik erklärt hat) hochgeschätze Harald Lesch, der inzwischen zu einem typischen links-grünen Pseudo-Umweltaktivist mutiert ist und ins Horn “Klimakatastrophe kommt und ist fürchterlich, aber die Lösung Kernenergie müssen wir leider ausschließen weil böse” bläst, hat neulich im ZDF, wo er aus mir unerfindlichen Gründen für seine Propaganda reichlich Sendezeit bekommt, eine Frage gestellt und um eine Antwort gebeten. Dem will ich gerne nachkommen.

Ich denke es war in “Leschs Kosmos”, als es natürlich wieder um die dräuende Klimakatastrophe ging. Der Satz ging ungefähr so: “Wer jetzt als Lösung Kernenergie vorschlägt, muss auch sagen, wie die Lösung für die Endlagerung aussieht.” Es wird Professor Lesch sicher schockieren (oder auch nicht, als Wissenschaftler hat er sich ja sicherlich intensiv mit der Materie auseinandergesetzt und kennt die Sachlage vielleicht sogar so gut wie ich, führt die Zuseher aber lieber in die Irre): Ich kann da sogar mit drei Lösungen dienen.

Lösung 1 ist, das Zeugs einfach in tiefen geologisch stabilen Schichten zu verbuddeln. Die Finnen haben das in die Tat umgesetzt, in Deutschland scheitert das seit den 80ern an ewiger Bedenkenträgerei- denn aus geologischer Sicht ist ein unberührter Salzstock, wie er in der norddeutschen Tiefebene reichlich vorkommt, nahezu optimal. Nur Katastrophenspezialisten, die sowohl 100%ige Sicherheit gegen Meteoriteneinschläge sowie die zu erwartenden kilometerdicken Eispanzer der kommendem Eiszeit (war nicht gerade noch Klimaerwärmung?), haben an dieser Lösung etwas auszusetzen. Mein Vorschlag wäre ja, den Abfall aus kerntechnischen Anlagen ganz normal gemäß seiner Giftigkeit mit dem restlichen Giftmüll endzulagern, aber soviel Pragmatismus werde ich zu meinen Lebzeiten wohl nicht mehr erleben. Noch ein Tipp zur Erkennung üblicher Propagandatricks: gerne wird das Versuchsbergwerk Asse mit einem unberührten Salzstock in einen Topf geworfen. Weil beides ja irgendwie Salz. Und dann wird der unwissenschaftliche Aktivismus von Herrn König und Co von einer gründurchseuchten Behörde als Beweis genommen, dass es bei den Sanierungsplänen rund um die Asse um die dringende Bekämpfung eines tödlichen Risikos geht. Aber ich schweife ab.

Lösung 2 ist die Nachbearbeitung des Abfalls durch Separation (in den “abgebrannten” Brennelementen steckt noch jede Menge Uran und auch spaltbares Plutonium drin, aus dem man noch viele Jahrzehnte viel Energie gewinnen kann) und Transmutation in Reaktoren mit entsprechendem Neutronenspektrum. Das führt zum einen zur besseren Nutzung des Brennstoffes, und zum anderen zu einem Abfall, der nur etwa 500 Jahre gelagert werden muss, um auf ein ungefährliches Niveau endgültig zu zerfallen. Also ungefähr auf das Niveau von Natururan, das bekanntlich überall rumliegt und auch im Trinkwasser vorkommt. Für die Lagerung reicht also ein Bunker in einer trockenen Gegend. Durch ein paar Meter Beton versiegeln und fertig – für die typischen Schreckgespenster “wir müssen das Lager bis zum Ende der Menschheit bewachen, das kostet Unmengen an Geld” der Antiatomschwurbler gab es sowieso nie eine sachliche Basis, aber an diesem Beispiel wird das auch den intellektuell eher einfach strukturierten Menschen klar.

Lösung drei ist “Nach einem Jahrhundert Lagerung im Zwischenlager: verdünnen und ab ins Meer”. Klingt erst mal nach Umweltsauerei. Ist aber bei näherer Betrachtung kein tatsächliches Problem: die Ozeane sind riesig und selbst radioaktiv. Der zusätzliche Eintrag an Radioaktivität wäre nicht relevant. Zumal die radioaktiven Bestandteile mit kurzer Halbwertszeit bereits lange bei ihrem stabilen Isotop in der Zerfallsreihe angekommen sind. Ebenfalls hilfreich: durch die immense Energiedichte sind die Abfallmengen extrem klein. Nun kann man natürlich aus prinzipiellen Gründen gegen die Entsorgung von Abfall im Meer sein – so wie man gegen die Entsorgung von CO2 und Schadstoffen in die Atmosphäre sein kann. Aber man sollte nicht Minimalrisiken zur absurd übersteigerten Gefahr für Leib und Leben aufblasen.

Noch ein Wort zum Bedrohungsszenario “Terroristen kommen an den Müll ran und bauen eine schmutzige Bombe”: “schmutzige Bomben” sind, wenn sie auf der Verteilung von radioaktivem Material basieren, ein typisches Hypochonderproblem wie damals die radioaktiven Wildschweine im bayrischen Wald nach der Reaktorkatastrophe von Tschernobyl: die Menge an Radioaktivität, der der einzelne selbst theoretisch ausgesetzt werden könnte, ist weit unter dem, mit dem der Mensch nachweislich prima (und tendenziell lebensverlängernd – siehe “Radiation Hormesis”) leben kann. Grüße nach Colorado, nach Ramsar und in den Schwarzwald. Und im Angesicht der drei vorgeschlagenen Lösungen sowieso eine höchst theoretische Angelegenheit: sollten Terroristen die technischen und finanziellen Fähigkeiten haben, durch den dicken Beton eines Bunkers, durch tausend Meter Deckgebirge eines Endlagers oder durch die Wand eines CASTOR-Behälters zu bohren – warum würden solche Terroristen nicht lieber gleich eine echte Atombombe bauen? Oder das radioaktive Material anderweitig beschaffen oder produzieren?

Bonusdenkanregung für Aufgeweckte, deren Hirn noch nicht von der Antiatomschwurbler-Propaganda verödet wurde: wenn beispielsweise Plutonium ein solch gefährlicher Stoff ist, wäre dann nicht der beste Platz für Plutonium ein laufender Kernreaktor?

Am Ende noch der obligatorische Hinweis: wer gegen Kernenergie ist (und insbesondere für die Abschaltung und den Rückbau von einwandfrei funktionierenden Kernkraftwerken), behauptet implizit gleichzeitig, dass CO2-Ausstoß in Wahrheit kein Problem ist. Jede kWh Strom aus Kernenergie spart eine kWh aus Kohle ein – zumindest in Deutschland. Und das noch für sehr sehr lange Zeit.

Unwort des Jahres: “Sanierungsstau”

Ich will nicht über marode Autobahnbrücken, den Digitalisierungsstand unserer Behörden oder den Zustand des Schienensystems der Deutschen Bahn referieren. Denn dort wäre es ja eine zutreffende Beschreibung der Misere. Nein, die oftmalig irreführende Verwendung im Bereich der Wohngebäude soll das Thema sein.

Gerne erwähnt wird der “Sanierungsstau” in Propagandaartikeln rund um die energetische Sanierung und die Energiewende – gerade habe ich es in einem Artikel zum Thema Immobilienpreise gelesen. Was, noch keine Wärmepumpe eingebaut? Sanierungsstau! Was, noch nicht die Fenster getauscht und die Sparrendämmung durch die Aufdachdämmung ersetzt? Sanierungsstau! Was, noch keine Fußbodenheizung? Sanierungsstau! Man könnte fast meinen, dass “Sanierung” etwas ist, was der Hausbesitzer gerne und häufig macht. Oder zumindest machen sollte. Weil…ja, warum eigentlich?

Für einige Zeitgenossen scheint es Hobby und Berufung gleichzeitig zu sein, möglichst viel Geld (und wenn es geht auch noch Zeit) zu verschwenden. Gerne auch das Geld und die Zeit anderer Leute. Für unsereins hingegen – die wenigen übriggebliebenen Vertreter der Fraktion lebt-nicht-von-Steuergeld-und-schlechten-Ratschlägen – sollten sich solche Maßnahmen auch irgendwann mal rechnen. Vorzugsweise zu unseren Lebzeiten. Also: Bleistift raus, Überschlagsrechnung steht an.

Nehmen wir ein fiktives kleines Häuschen. Bewohnt von 3 Personen, 200qm Wohnfläche, aus der Zeit der ersten Wärmeschutzverordnung. Also Anfang bis Mitte der 80er ungefähr. Bisher unsaniert was die Dämmung angeht, noch mit der Original-Ölheizung drin. Nicht mal Brennwerttechnik, sondern Niedertemperatur. Normale Heizkörper im ganzen Haus, und natürlich die guten damals “state-of-the-art”-doppelverglasten Fenster. Wärmebedarf im Jahr unter 25000kWh. Davon zu Heizzwecken vermutlich um die 20000kWh. Verursacht nach derzeitigem Heizölpreis ungefähr 2000€ Heizkosten pro Jahr.

Der durchschnittliche Energieberater (also jemand von der Fraktion lebt-weitgehend-von-Steuergeld-sinnlosen-Gesetzen-und-schlechten-Ratschlägen) wird jetzt das Standardprogramm vorschlagen. Aufdachdämmung, Fenster tauschen, Fassadendämmung. Auf keinen Fall unter 100000€ zu haben. Und wir reden hier noch nicht von einer wärmepumpengeeigneten Sanierung, da müsste man nochmal nachlegen – größere Heizkörper oder eine Fußbodenheizung, um die Vorlauftemperatur senken zu können beispielsweise. Und natürlich eine Wärmepumpe kaufen.

100000€ kann man gerade konservativ anlegen und 3500€ Zinsen im Jahr dafür bekommen, bleiben nach Steuern rund 2500€ netto übrig (den Freibetrag hat der sparsame Schwabe natürlich schon mit anderen Zinseinkünften abgefrühstückt, deshalb geht der hier nicht in meine Vergleichsrechnung ein). Mit anderen Worten: die Maßnahmen amortisieren sich niemals. Dafür gibt es zuhause zum Ausgleich eine längere Baustelle, das Änderungsrisiko von Schimmelbildung bis unfähigen Handwerkern und ein Sparpotenzial von real 1000€ bis 1500€ im Jahr. Zuzüglich Zeitaufwand natürlich, denn noch nie lief eine Sanierungsmaßnahme ohne Zutun des Hausbesitzers ab.

Unterm Strich bleibt die Erkenntnis, dass in den letzten 40 Jahren bei dieser Ausgangssituation nur komplette Idioten, die nicht rechnen können, so ein Häuschen saniert hätten. Clevere Subventionsjäger haben vielleicht eine hauptsächlich vom Staat finanzierte Pellet-Heizung zwischendrin abgestaubt, das hat Chancen auf Amortisation, wenn der Pellet-Preis mitspielt. Oder jemand hat die noch vor wenigen Jahren den alternden Ölbrenner durch eine kompakte Gastherme ersetzt und so das Tanklager in einen Hobbyraum umgewandelt. Das sind jetzt aber die einzigen Szenarien, die mögliche Amortisation zu Lebzeiten versprechen. “Dämmung” gehört jedenfalls – bei diesen Baujahren und später – niemals dazu.

Es lebe der Sanierungsstau. Der einzige Stau, der sich finanziell und zeitlich auszahlt.

Nachtrag 2024-03-24

Besonders weltfremd sind übrigens die Stimmen, die “Sanierung” empfehlen um den Wiederverkaufswert einer Immobilie zu stabilisieren. Kompletter Schwachsinn, denn der nächste Besitzer kann z.B. lieber eine Holzhackschnitzelheizung wollen oder kommt preiswert an Brennholz und will den Kachelofen stattdessen viel stärker nutzen. Oder würde das Dach gerne mit Photovoltaik zupflastern und die Wärme per Heizstab mit Überschussstrom erzeugen. Oder kann Wärmedämmung viel preiswerter in Eigenleistung erledigen. Es ist wie bei Sonderausstattung im Auto: beim Wiederverkauf wird einem nur ein viel zu kleiner Bruchteil des Neupreises bezahlt. Nichtsanierung ist finanziell gesehen fast immer die richtige Entscheidung.

Herzliche Grüße übrigens an alle, die sich vor zehn Jahren eine Wärmepumpe aufschwätzen haben lassen und nun zum halben Preis eine viel bessere Jahresleistungszahl bekommen könnten. Oder die, die in eine leider nicht optimal feuerhemmende Fassadendämmung investiert haben und nun einen saftigen Aufpreis bei der Gebäudeversicherung hinnehmen dürfen. Oder die, die dank “Solarpflicht” in unserem südwestlichen Lieblingsbundesland sich Solarthermie aufs Dach geschraubt haben, um dann rauszufinden, dass das während der kalten Wintermonate wirklich kaum Unterstützung für die Heizung liefert und die Dachfläche besser für eine PV-Anlage genutzt werden würde.

Presseenttäuschungen zum Jahresende

Ergänzung 2023-12-29 – siehe unten

Immer, wenn ich diverse Presseerzeugnisse querlese oder Zeuge von anderen qualitätsjournalistischen Kapitalverbrechen werde, denke ich “ich müsste jeden einzelnen Schreibfehler, jede falsch oder irreführend zitierte Quelle, jeden logischen Fehlschluss in einem Blogartikel aufgreifen”. Aber dann erkenne ich: das würde täglich mehrere hundert Stunden Arbeit bedeuten, nur um nachzuweisen, dass die Journaille beim Niveaulimbo problemlos Jahr für Jahr ein gutes Stück tiefer rutscht. Was inzwischen eh jeder weiß, bei dem die Chance besteht, dass er Wahrheit und Lüge voneinander überhaupt unterscheiden kann.

Heute belasse ich es, ohne Namen zu nennen, bei den folgenden Beobachtungen: die einen schreiben Sylvester (der Kater aka “Mietzekatze” von Tweety) und meinen Silvester (den letzten Tag des Jahres im gregorianischen Kalender und nach Papst Silvester benannt). Die anderen können nicht mal den Vornamen von Wolfgang Schäuble buchstabengetreu in einer Überschrift unterbringen. Und dann gibt es noch die, die den VW-Diesel-Abgasskandal auf gefälschte CO2-Werte zurückführen.

“Professioneller” Journalismus ist Vergangenheit. Kann weg. Keine Sorgfalt, keine Qualität, kein Hintergrundwissen, keine Faktentreue, kein Mehrwert – mehr Kosten als Nutzen, mehr Schein als Sein, mehr Propaganda als Berichterstattung. Die wenigen rühmlichen Ausnahmen bestätigen die Regel.

Ergänzung vom 2023-12-29

Den größten mir bekannten Presse-Fail des Jahres 2023 habe ich doch jetzt glatt vergessen. War schon Ende November/Anfang Dezember, ich erinnere mich nicht mehr präzise. Jedenfalls hat unsere Lokalzeitung groß mit Bild aufgemacht, sinngemäß unter dem Titel “Planungen für die WM in Stuttgart” und ich dachte so – cool, eine Weltmeisterschaft, welche Sportart haben sie denn da – endlich mal wieder nach der legendären Leichtathletik-WM 1993 – ins Ländle geholt. Dann fiel mein Blick auf das Bild, und das war İlkay Gündoğan im DFB-Dress. Watt? Ich lese den Text dazu, und da steht tatsächlich und wahrhaftig “Fußball-Weltmeisterschaft 2024 in Deutschland”. Diese Mischung aus Gleichgültigkeit, Nichtwissen und Dummheit kann einen wirklich in den Wahnsinn treiben. Presse: kann weg.

Mehr Kindergarten wagen

Weil gerade CDU und FDP im Thüringer Landtag ein höchst sinnvolles Vorhaben zur Steuersenkung für die dortigen Bürger gegen die Minderheitsregierung durchgesetzt haben – und dieses nur mit den Stimmen der AfD tun konnte, was die versammelte Journaille nebst Linksaußenpolitiker vorhersehbar kräftig in Wallung brachte – kommt mir wieder ein altes “Handelsblatt Morning Briefing” in den Sinn, vom 2023-07-26 wenn meine Notizen stimmen. Darin wird folgende Kindergarten-Strategie im parlamentarischen Umgang mit der AfD vorgeschlagen: “Was Kretschmer allerdings nicht erwähnt: Es gibt durchaus Alternativen zum „Wir sind dagegen, weil die AfD dafür ist“. Etwa, indem die anderen Parteien bei unstrittigen Anträgen der AfD einen eigenen, inhaltlich gleichen Antrag einbringen, anstatt dem der AfD zuzustimmen.”

Das ist natürlich ein Weltklasse-Vorschlag und richtungsweisende Strategie im Umgang mit Aussätzigen – die ärgerlicherweise ja auch noch eine nicht unerhebliche Zahl an Wählern repräsentieren, aber da muss man der Demokratie eben Grenzen setzen, bei allem was Recht ist! Denn der Vorschlag trägt alle Merkmale moderner Politik, ist somit optimal kompatibel zur heutigen Zeit, vereinigt er doch Aufwandsmaximierung, rein symbolische Handlung, sinnloses virtue signalling und Verachtung des Wählers. Leisen Bedenken der letzten rational denkenden Menschen, dass es doch eigentlich egal sein müsste, von wem der Antrag formell eingereicht wird, sondern dass es mehr auf die Inhalte ankommen – dieser Häresie muss natürlich mit aller Entschiedenheit entgegengetreten werden, erfordert den unverbrüchlichen Schulterschluss aller aufrechten Demokraten.

Dieselben Journalisten werden morgen dann wieder die Politikverdrossenheit der Bürger beklagen und Strategien empfehlen, um dagegen anzugehen. Und sie werden nicht in der Lage sein, das eigene Brett vor dem Kopf zu erkennen. Unempfindlichkeit gegen kognitive Dissonanz ist neben Dyskalkulie und Rechtschreibschwäche schließlich die vermutlich wichtigste Voraussetzung, um den Journalistenberuf heutzutage zu ergreifen.

Die Pointe der ganzen Sache ist natürlich, dass die CDU in Thüringen im Prinzip der Empfehlung des Handelsblatt-Journalisten gefolgt ist. Über eine Empfehlung des Journalisten, wie dann mit einem etwaigen Erfolg eines Antrags umzugehen ist, dem dann frecherweise die AfD einfach zustimmt, ist noch nichts bekannt. Der Ausschuss für Political Correctness hält wahrscheinlich noch seine diesbezügliche Krisensitzung ab.

 

Der tägliche KI-Hype

Kaum etwas nervt so sehr wie die neue Sau, die durchs Dorf getrieben wird. Egal ob der Abgesang auf die deutsche Automobilindustrie (gerne angestimmt seit den 70ern), KI (erster Hype – 60er/70er), der-Computer-wird-alle-Arbeitsplätze-vernichten (Grüne und SPD in den 80ern), oder in jüngerer Zeit die Blockchain, eine phantastische Technologie die noch immer ihre erste sinnvolle Anwendung sucht.

Daher ein paar kurze Einordnungen zum derzeit allgegenwärtigen KI-Hype. Auslöser war ChatGPT, ein typisches Artefakt der heutigen Big-Data-Anwendungen. Wenn man nur genug Trainingsdaten in ein neuronales Netz reinsteckt, kann man für diverse Anwendungen in Kombination mit ausgefuchsten Algorithmen durchaus brauchbare Ergebnisse erzielen. DeepL ist ein gutes Beispiel dafür, kann es doch in oft akzeptabler Qualität Texte in bestimmten (aber nicht alle) Sprachen in andere Sprachen übersetzen. Und das ist vermutlich das wirklich Beeindruckende an ChatGPT: dass natürliche Sprache recht gut “verstanden” wird, und daraus wiederum plausibel klingende Sätze aus einer sehr großen Datenbasis formuliert werden können.

Leider endet da das Beeindruckende. Nach wie vor ist nicht erkennbar, dass diese KI (wenn man etwas, das ganz offensichtlich keine Intelligenz im eigentlichen Sinne besitzt, so nennen will) tatsächlich versteht, was gefragt wird. Und ebensowenig den Wahrheitsgehalt seiner Daten-und-Fakten-Sammlung, aus der sie ihre Antworten generiert, prüfen kann. Damit sind die so generierten Antworten zwar schön zu lesen (“der Vortrag war zumindest flüssig”), aber letztlich nutzlos, weil unzuverlässig.

Und damit ist die heutige beste Generation von KI leider immer noch nicht in der Lage, scheinbar simple Dinge wie “Auto fahren” auch nur einigermaßen akzeptabel hinzukriegen – siehe das beständige Scheitern der Bemühungen von Multi-Milliarden-Konzernen von Google über Tesla bis GM am doch eigentlich simplen Problem.

Damit soll jetzt nicht gesagt sein, dass viele typische Jobs heutzutage nicht jetzt oder in naher Zukunft durch KI ersetzt werden können. Bei Diversitätsbeauftragten, Call-Center-Mitarbeitern, Journalisten oder Politikern liegt die Latte derart niedrig, dass schon heutige KI überqualifiziert wirkt.

Bezüglich des oft beschworenen Fachkräftemangels, der ja eher ein Arbeitswilligenmangel ist, sind das eigentlich auch gute Nachrichten: beispielsweise in der Gastronomie wird ja händeringend Personal gesucht, das bei schlechter Bezahlung und ungünstiger Arbeitszeit echte Arbeit verrichtet. Ersatz durch KI nicht absehbar. Ein optimales Einsatzgebiet für die durch KI ersetzten Arbeitskräfte.

Trotzdem ist natürlich die Entwicklung rund um die KI im Auge zu behalten. Ein Indikator, der auf einen Qualitätssprung schließen ließe, wäre die Verfügbarkeit einer Autokorrektur im Smartphone (oder der Textverarbeitung meiner Wahl), die tatsächlich zuverlässig meine Fehler korrigiert anstatt neue oder ähnlich klingende Wörter zu verwenden, die ich auf keinen Fall gemeint habe. Oder die Verwendung einer KI in der Politik, die in der Lage ist, einem Robert Habeck unsinnige Gesetze auszureden, indem sie einfach nur die Fakten so zusammenstellt und präsentiert, dass sogar ein Grüner sie versteht – wobei, da verlange ich vielleicht zu viel, weil das schon theoretisch gar nicht möglich ist.

Der Zusammenhang zwischen Leistung, Energie, Kapazität und Qualitätsjournalismus

Ein Ärgernis seit vielen Jahrzehnten ist die komplette Unfähigkeit von Journalisten, beim Thema Stromversorgung die Parameter “Leistung” und “Energie” auseinanderzuhalten. Meist äußert sich das im wilden Durcheinanderwerfen von Watt und Wattstunden, im Kraftwerksmaßstab also meist MW und kWh.

So auch das Pioneer Hauptstadt-Briefing vom Freitag, wo folgende Aussagen im Rahmen des völlig berechtigten Hinweises “ohne Speicher funktioniert die deutsche Energiewende nicht” getätigt wurden: “Bis 2030 gehen etwa die Forscher vom Fraunhofer ISE von einem Bedarf für Batteriekapazitäten in Höhe von rund 50 Gigawatt aus.” und “Mit der aktuellen Geschwindigkeit aber würden bis dahin keine zehn Gigawatt erreicht werden” und “Kyon ist der deutsche Marktführer für den Bau und Betrieb von Batteriegroßspeichern. Und dabei, die Marke von einem Gigawatt Speicherkapazität zu überspringen.” Die drei Zitate sind zusammengenommen ungefähr so dumm, wie wenn man bei einem Windpark schreibt “versorgt 50000 Haushalte” – in Wahrheit versorgt ein Windpark in Ermangelung von Stromspeichern genau 0 Haushalte.

All das zeigt, dass Journalisten nicht mal den Wissensstand von Mittelstufen-Physik (8. Klasse) verinnerlicht haben. Was per se schon traurig wäre, selbst wenn sie nicht Artikel über Themen der Energiewende und der Stromversorgung schreiben würden. So ist es höchst ärgerlich und zeigt die Dringlichkeit, den Durchschnittsjournalisten endlich durch einen KI-Bot zu ersetzen. Denn schlechter kann die Qualität nicht werden, egal ob es um Faktentreue oder logische Zusammenhänge oder Rechtschreibung und Grammatik geht.

Damit die Leser hierzublogs noch wenigstens ein paar gewinnbringende Erkenntnisse außer dem wohlbekannten “Presse und Rundfunk sind qualitativ großer Mist und kann weg” mitnehmen kann, hier mal ein paar Größenordnungen und Überschlagsrechnungen zum Thema Strom.

Ein wichtiger Parameter des Stromverbrauchs hierzulande ist die Lastspitze. Man muss regelmäßig mit einem Bedarf von rund 75 GW Leistung rechnen, man braucht also in Summe konventionelle Kraftwerke, die diese 75 GW stemmen können – denn bei der gefürchteten Dunkelflaute machen PV und Windkraft bekanntlich synchron schlapp, auch wenn inzwischen dank der irrsinnigen Subventionen die installierte Leistung (die Summe aller Erzeugungskapazitäten) in Deutschland bei inzwischen 220 GW liegt – zu schlechten Zeitpunkten wie “bewölkter Schwachwindtag” oder “schwacher Wind nach Sonnenuntergang” ist es kein seltenes Ereignis, dass die summarische Produktion aus PV und Wind unter 2 GW liegt – 2 GW aus 220 GW, Respekt. Bezüglich Netzstabilität: die einigermaßen zuverlässigen Erzeuger Steinkohle, Braunkohle, Gas, Öl, Wasser und Biomasse liegen in Summe bei 85 GW, zusammen mit der Netzkopplung im europäischen Verbundnetz mit etwa 30 GW Potenzial sind wir hier also noch auf der sicheren Seite. Übrigens ist die Spitzenlast über die Jahrzehnte deutlich gesunken, Mitte der 90er galt “95 GW” als Worst-Case-Winterabend-Spitze noch als Maßstab. Heute hat man im Tagesverlauf überwiegend eine Mittagsspitze zwischen 11:00h und 14:00h, und im Herbst bis Frühjahr eine Abendspitze von etwa 17:00h bis 19:00h. Wie sich das in Zukunft mit Weiterverbreitung von Wärmepumpen, Klimaanlagen und Elektroautos entwickelt ist schwer vorherzusagen. Wenn 20 Millionen Elektroautos über Nacht am Strom hängen, braucht man schon ein vernünftiges Lastmanagement, und auf Schnellladung sollte verzichtet werden – selbst an einer mickrigen 11kW-Wallbox, die bei heute gängigen Akkugrößen schon 6h zum Vollladen braucht, würde sich der Leistungsbedarf im Netz im Szenario “alle wollen laden” auf 220GW summieren. Gott sei Dank ist die durchschnittliche tägliche Fahrleistung nur bei knapp 40km, also müssen nur – je nach Fahrzeug – irgendwas zwischen 6 und 10 kWh nachgeladen werden.

Ein weiterer wichtiger Parameter ist der Jahresstromverbrauch. In den 80ern rechnete man noch mit in Summe 650 TWh, inzwischen bewegt sich das eher in Richtung 500 TWh (Deindustrialisierung sei Dank, und auch LED-Leuchten statt Glühlampen haben einen nicht zu verachtenden Anteil). Tendenz gleichzeitig steigend und sinkend – steigend wegen Wärmepumpe (aka “Heizen mit Strom”) und Elektromobilität, sinkend wegen der Abwanderung der industriellen Produktion.

Welchen Beitrag leisten die erneuerbaren Energien PV und Windkraft, die ja in Zukunft das Rückgrat der Stromversorgen bilden sollen? Es schwankt. An einem typischen Sommertag liegt Windkraft irgendwo zwischen 1 GW und 35 GW, PV zwischen 0 GW und 45 GW (wenn es sonnig ist) bzw. 15 GW (wenn es bewölkt ist). Kurz gesagt: man braucht Speicher, oder weiterhin einen kompletten konventionellen Kraftwerkspark und verabschiedet sich von der CO2-Neutralität, die hierzulande ja je nachdem wen man fragt zwischen 2040 und 2050 Realität sein soll. Auch wichtig zu wissen: 2022 lag die installierte Leistung aller PV-Anlagen in Deutschland bei rund 60 GW, die der Windkraftanlagen (onshore und offshore) ebenfalls. Wer sich jetzt wundern, warum wir nicht viele Tage im Jahr haben, wo Wind und Sonne unseren kompletten Strombedarf decken können: das hängt mit dem miserablen Jahresnutzungsgrad dieser Anlagen zusammen. Das Jahr hat bekanntlich 8760h, und bei PV-Anlagen liegt die Zahl der sogenannten Jahresvolllaststunden nur bei 1000, bei Wind etwa bei 2000 (offshore etwas mehr, aber wir haben in Deutschland einen deutlichen Onshore-Überhang).

Schlagen wir den Bogen zurück zum Ausgangspunkt – Stromspeicherung in großen Batteriespeichern. Beispielsweise gibt es da schlüsselfertige Anlagen mit dem schönen Namen “Megapack” von Tesla, wo jeder auf der Homepage nachlesen kann, was denn so ein Dingens so kostet. Speichert etwa 4 MWh und schafft je nach Konfiguration eine Leistung von 1 MW oder 2 MW. Anschaffung: grob 1,8 Mio US$ netto pro Stück (inklusive Installation in Kalifornen – Alaska ist “etwas” teurer, für Europa kenne ich keine Zahlen), wenn man gleich mal 100 Stück ordert. Lebenserwartung 20 Jahre. Mit Wartungsverpflichtung zu 0,5 Mio US$ jährlich. Machen wir eine kurze Überschlagsrechnung und gehen wir davon aus, dass wir nur auf Tagesebene puffern müssen und keinerlei Redundanz vorhalten wollen. Erst mal die Netzlast absichern: 75 GW kosten dann rund 70 Mrd. US$. Das kauft gleichzeitig eine Speicherkapazität von etwa 150 GWh. Bei 500 TWh im Jahr liegt der Tagesverbrauch bei gemittelt 1,4 TWh – oops, das wird dann wohl nicht reichen, also nochmal Faktor 10 draufschlagen (und das ist eine wichtige Erkenntnis – Leistung ist nicht unser Problem, sondern Kapazität bzw. Energie). 700 Mrd. US$. Speicherwirkungsgrad ist auch noch zu berücksichtigen, der liegt natürlich nicht bei 100%, Tesla gibt etwa 90% an (für den gesamten Lade-Entladezyklus – ob dabei der Stromverbrauch des Akkutemperaturmanagements schon inkludiert ist, weiß ich nicht). In der Praxis ist das Problem natürlich viel größer, denn es gibt durchaus Wochen im Jahr, wo Wind und Sonne kombiniert sehr wenig Ertrag bringen – grob gesagt zwei Wochen Stromverbrauch sollte so ein Stromspeicher deutschlandweit schon puffern können, denn den Mittelwert abzudecken bringt bei einem Stromnetz naturgemäß nichts, man muss leider für den Worst Case gewappnet sein. 10 Billionen US$ ist doch mal eine runde Summe, aber ob die reicht – unklar. Müsste man mal eine anständige Simulation mit den Erzeugerwerten der letzten 20 Jahre durchführen. Ein wenig abgemildert wird die Misere immerhin durch Biomasse und Wasserkraft, aber nicht wesentlich. Es sei denn, man will die “Vermaisung der landwirtschaftlichen Nutzfläche” extrem ausweiten und damit alle Bemühungen um Umwelt- und Naturschutz in den Wind schlagen. Und wer will schon Nahrungsmittel anbauen, Energiepflanzen sind doch viel wichtiger.

Jetzt verbinden wir die Erkenntnis “Kosten Stromspeicherung” noch mit “Jahresvolllaststunden PV und Wind”. Selbst ohne Speicher, und wenn wir mal Wind mit 2000 Volllaststunden ansetzen und alles durch Wind abdecken wollen – 500 TWh – also 500000 GWh – müssen eben allermindestens erzeugt werden. Macht eine installierte Leistung von 250 GW Windkraftanlagen. Wie gesagt: gerade sind wir bei etwa 60 GW, und die guten Standorte sind ja weitgehend belegt. Da gewinnt der Satz von der “Verspargelung der Landschaft” doch gleich eine gewisse Nachdrücklichkeit. Konsequent weitergerechnet bräuchte es demzufolge 500 GW installierte PV um dasselbe Ergebnis zu erreichen. Man hofft instinktiv, dass Deutschland in Zukunft seinen Strom hauptsächlich aus dem Ausland beziehen wird. Verschiedene Szenarien bezüglich Deutschlands zukünftiger Stromversorgung gehen übrigens von schlappen 200 TWh Stromimport aus – warum wohl.

Ich will nicht mit weiteren Überschlagsrechnungen langweilen, es sollte inzwischen klar geworden sein: es wird teuer. Sauteuer. Noch viel viel teurer als es jetzt schon ist. So teuer, dass ein Irrsinn wie das Habeck’sche Heizungsgesetz wie ein unbedeutendes preiswertes Kleinkleckerleswerk aussieht. Es sollte sich nun keiner mehr wundern, dass der Rest der Welt hauptsächlich auf wahlweise Klimaschutz-Lippenbekenntnisse oder Kernenergie setzt.

Die gute Nachricht: weil es so irrsinnig teuer wird, ist es recht unwahrscheinlich, dass wir 2040 tatsächlich 500 TWh Stromverbrauch haben werden. Durch die dann zwingend erfolgte großflächige Verarmung der Bevölkerung und der Vernichtung von Industrie und Dienstleistungssektor werden 200 TWh sicher reichen – willkommen in der dritten Welt, Deutschland. Oder um ein wahres Wort nochmal aufzuwärmen: “Das Tolle an der Energiewende ist, dass der letzte nicht mal das Licht ausmachen muss.”

Eine neue Definition von Marktdominanz

Lange erwartet, endlich da: ein Artikel von mir, der gleichzeitig die Themen “Elektromobilität” und “Qualitätsjournalismus” aufgreift.

Anlass: eine Infografik im Pioneer Briefing (Business Class Edition) vom 2023-07-19, überschrieben mit “Tesla: Dominanz im deutschen Markt”. Es geht um die Zulassungszahlen im ersten Halbjahr 2023, und ich wurde ob der Überschrift hellhörig. Der Abgesang auf die deutsche Autoindustrie ist ja quasi ein Klassiker des Qualitätsjournalismus und anderer Unkenrufer von der linksgrünen bis zur liberalen Fraktion. Was hat die deutsche Autoindustrie nicht schon alles angeblich verschlafen: den Trend zum preiswerten Kleinwagen, zum Vollhybridfahrzeug, zum Diesel mit Partikelfilter, zum Direkteinspritzerbenziner, zum Elektroauto, zum Plug-In-Hybrid – kein Trend, den nicht irgendjemand irgendwann ausgerufen hat und den die deutsche Automobilindustrie verschlafen hat. Als Vorreiter wurden so ziemlich alle Konkurrenten über die Jahre identifiziert: Italiener, Franzosen, Japaner, Koreaner, Chinesen, und zuletzt vor allem Tesla. Und jetzt war es dann wohl so weit: selbst auf dem traditionell von deutschen Herstellern beherrschten heimischen Automarkt hat Tesla das Kommando übernommen! Also: Faktencheck.

Ich zitiere mal die Zahlen bezüglich des Marktanteils diverser Automarken, um die Absurdität der gewählten Überschrift von der Marktdominanz auch schwarz auf weiß festzuhalten: Tesla 16,5% (ja, richtig gelesen – nicht 80%, nicht 70%, sondern tatsächlich weniger als 20%), VW 15,6%, Mercedes 7,7%, Audi 6,5% (auch VW-Konzern, aber wenn man einen Pseudo-Punkt machen will, ist eine Aufsplittung nach Marken statt nach Firmen in diesem Falle vorteilhaft – der beschreibende Text der Infografik “nach Hersteller” wird so zwar beinahe zur Lüge, aber was soll’s), BMW 5,8%, Hyundai 5,5%, Fiat 4%, Smart 3,8%, MG ROEWE 3,5%, Skoda 3,5% (hoppla, nochmal VW-Konzern), Opel 3,2%, Seat 2,7% (VW-Konzern strikes again), Renault 2,7%.

Wir halten fest: 16,5% Marktanteil gilt heutzutage schon als “Marktdominanz”, selbst wenn die Konkurrenz vom VW-Konzern auf 28,3% kommt, also fast den doppelten Marktanteil. Eine äquivalente Theorie in der IT besagt, dass Apple die Marktdominanz bei Mobiltelefonen inne hat und auch bei Desktop-Betriebssystemen.

Nebenbemerkung: Renault war lange Zeit in Europa Pionier der Elektromobilität, mit dem Zoe als erstem halbwegs bezahlbarem E-Auto und dem Twizy als innovativem, wenn auch gescheitertem Versuch eine neue Fahrzeugklasse zu begründen. Heute: 2,7% Marktanteil. Zeigt mal wieder, dass die Pioniere im Markt schon nach wenigen Jahren keineswegs einen Vorteil haben – es scheint also gar nicht so schlecht zu sein, den einen oder anderen Trend einfach mal zu “verschlafen” und dann den Markt von hinten aufzurollen. The early bird catches the worm, but it is the second mouse that gets the cheese.

Nun liegt es mir fern, Gabor Steingart und seine Bemühungen rund um sein “Pioneer”-Projekt madig zu machen. Unter den ganzen Newslettern, die ich lese, ist man mit dem PioneerBriefing mit Abstand am besten informiert. Aber leider eben nicht frei von Bias und Spin. Schade.

Auch liegt es mir fern, die Elektroautobemühungen der deutschen Automobilindustrie schönzureden. Nach wie vor fehlen bezahlbare und vernünftige Elektroautos, aber die fehlen halt quer durch alle Hersteller. Wenn ein Tesla Model 3 nach gefühlt zehn verkündeten Preissenkungen im Basismodell heute in Deutschland immer noch über 40000€ kostet (ursprünglich ging man mal mit 32000€ Zielpreis ins Rennen, wobei das auch der qualitätsjournalistischen Fehlberichterstattung hierzulande zu verdanken war, weil man US$ nach EUR ohne Berücksichtigung von so Kleinigkeiten wie “Umsatzsteuer” und “Transportkosten” umgerechnet hatte). VW mit dem ID.3 oder Opel mit dem E-Astra liegen auch nicht günstiger, und wir reden hier von kaum alltagstauglichen Kisten mit viel zu wenig Platz und Reichweite gemessen an einem Standard-Benziner. Selbst ein Kleinstwagen wie der VW eUp liegt noch bei 30000€, was den Wahnsinn der E-Mobilität für Brot-und-Butter-Käufer nochmal ins Gedächtnis brennt.

Und das erklärt dann auch, warum weltweit, sobald staatliche Förderungen für E-Autos wegfallen und der Grundbedarf für Käufer mit geeignetem Nutzungsprofil (hauptsächlich Kurzstrecke, Nutzung als Zweitwagen und/oder Pendlerauto, Lademöglichkeit zuhause nach Möglichkeit mit PV-Überschussstrom) gedeckt ist, die Verkäufe drastisch einbrechen. So derzeit auch in Deutschland zu beobachten. Wobei hierzulande auch die extrem langen Lieferzeiten ein Bestellhindernis waren – die Entwicklung bei den Elektroautos geht ja doch noch mit etwas höherem Tempo voran als bei Benzinern oder Dieseln, wer will da 15 Monate auf ein Fahrzeug warten, dass dann bei Auslieferung schon halb veraltet ist. Jedenfalls sind die Prognosen nicht rosig: Für 2023 werden gerade mal knapp 500.000 verkaufte Elektroautos erwartet, ein Marktanteil von knapp über 20% – man könnte sagen: weit entfernt vom Marktdurchbruch. Für 2024 wird gar nur noch ein Marktanteil von 14% erwartet. Hauptgründe: steigende Strompreise und vermutlich wegfallende staatliche Förderung.

Man kann ja mal kurz überschlagen – die kWh Strom kostet heute zwischen 30ct (“zuhause mit Netzstrom laden”) und 80ct (Schnellladung z.B. an der Autobahn), je nach Modell braucht man für 100km real 15-20 kWh, also mindestens 4,50€, aber bis zu 16€. Ein entsprechender Benziner, mit heute üblichen 6l/100km, kommt bei 1,70€/l auf rund 10€. Spart man mit dem Stromer also höchstens 5€ auf 100km, bei einem Mehrpreis bei Anschaffung von mindestens 10000€ (entspricht also naiv gerechnet 200000km bis zum break even). Und das war jetzt sehr freundlich gerechnet für das E-Auto. Günstiger wird es nur, wenn man konsequent zuhause mit PV-Überschuss lädt, weil die Einspeisung heutzutage ja bei neuen Anlagen weniger als 10ct/kWh bringt. Nur: von Herbst bis Frühjahr dürfte es nur selten über ausreichende Zeit diese Überschüsse geben, um die tägliche Pendelstrecke nachzuladen. Bleiben also die Wenigfahrer im Home-Office mit großer PV-Anlage auf dem Dach als Zielgruppe – klingt nicht nach einem Erfolgsrezept für die breite Masse. Und das berücksichtigt nicht mal die gravierenden Nachteile wie geringe Reichweite/lange Standzeiten bei leerem Akku/kein ausreichend dichtes Ladenetz, die seit langem bekannt sind.

Niemand Vernünftiges zahlt eben mehr Geld für weniger Nutzwert.

Hochsprung und Qualitätsjournalismus

Vorgestern im Handelsblatt Morning Briefing: Dick Fosbury ist gestorben. Jeder Leichtathletik-Interessierte kennt Dick Fosbury als Olympiasieger im Hochsprung von Mexiko-City 1968, neben Bob Beamon im Weitsprung (8,90m) die zweite Legende dieser Olympischen Spiele. Nicht aufgrund eines legendären Weltrekords wie im Falle von Beamon, sondern aufgrund seiner revolutionären Technik, die als “Fosbury-Flop” in die Geschichte einging – auch wenn er wohl nicht der Erfinder der Technik war, das wird einem recht erfolglosen Österreicher zugeschrieben.

So weit, so bekannt (zumindest für die Sport-Nerds). Wo ist die Verbindung zum Qualitätsjournalismus? Ich zitiere aus dem Text des Handelsblatts: “Er war der erste Athlet, der die Hochsprungstange in Rückenlage mit dem Kopf voran überquerte. Bis dahin waren die Athleten meist in der Frontalhocke über die Stange gesprungen.” Äh, nein. Frontalhocke, das war ganz ganz früher und gilt als vielleicht älteste Technik. Im 20. Jahrhundert hat das vernünftigerweise keiner mehr verwendet, schon im 19. Jahrhundert wurde weithin der “Schersprung”, auch “Scherenschlag” genannt, genutzt. Und kurz darauf sprang die ganze Welt im “Straddle” bäuchlings über die Latte. Auch nach Fosbury war das noch lange Zeit gängig, erst Anfang der 80er setzte sich der Fosbury-Flop auf ganzer Linie durch. Die Älteren erinnern sich vielleicht noch an den Zehnkämpfer Christian Schenk, der regelmäßig die größte Höhe im Hochsprung im Rahmen des Zehnkampfes erzielte, mit 2,27m lange Zeit Rekordhalter und letzter Straddle-Springer im Spitzensport – immerhin bis in die 90er hinein.

Und ja, solche Dinge hat man früher im Rahmen des Sportunterrichts an allgemeinbildenden Gymnasien gelernt. Heute könnte man sie auch einfach auf Wikipedia nachlesen. Wenn verstehendes Lesen und Lust auf Recherche und Bewusstsein für eigenes Nichtwissen noch notwendige Merkmale für Journalisten heutzutage wäre. Besonders peinlich, wenn solche Qualitätsmängel bei eigentlich themenfremden Randbemerkungen zutage treten. Man hofft, dass bei den wichtigen Themen solider recherchiert wird. Und zweifelt gleichzeitig dran, weil einfach bei allen Themen, bei denen man gut Bescheid weiß, dieselbe Misere zutage tritt.

Aufruhr bei ARD und RBB

Es stehen ein paar Vorwürfe im Raum. In Richtung Vorteilsnahme, Bestechlichkeit, Verschwendung, unseriöses Geschäftsgebaren, mit der (mittlerweile zurückgetretenen) RBB-Intendantin Schlesinger als zentrale Person.

Die ARD hat in den Tagesthemen vorgestern einen vorsichtigen Versuch der Annäherung in Richtung Beginn einer Aufarbeitung (nicht unähnlich der Koch’schen “brutalstmöglichen Aufklärung”, die Älteren werden sich erinnern) gemacht. Eins ist mir im Gedächtnis geblieben.

Der ARD-Chef so (sinngemäß, ich will nicht Zeit verschwenden mit Mediathek-Recherche): Man dürfe aber nicht die tausenden Mitarbeiter der Rundfunkanstalten vergessen, die Tag für Tag eine hervorragende Arbeit leisten.

Ich so: Zeigt mir halt mal wenigstens einen einzigen. Und wenigstens ein Beispiel für “gute” Arbeit, die muss nicht mal hervorragend sein.

Aus meiner Sicht ist der Öffentlich-rechtliche Rundfunk komplett überflüssig. Kann weg. Braucht kein Mensch. Seinen Auftrag erfüllt er nicht (dazu bitte alle schmutzigen Details bei Danisch nachlesen, ich wiederhole das nicht hier nochmal), und er ist unglaublich teuer. Insbesondere auch bezüglich des Preis-Leistungsverhältnisses im internationalen Vergleich. Im Management-Sprech würde man von einem “Ultra-Low-Performer” sprechen. Und echte Kontrolle existiert nicht, die politischen Kontrollgremien sind schlicht wirkungslos, Gebührenanpassungen werden durchgewunken, Prüfungen ob der grundgesetzliche Auftrag überhaupt erfüllt wird finden nicht statt.

Aber es hat sich daraus nun doch noch etwas sehr Amüsantes ergeben: die ARD bzw. die Rundfunkanstalten seien besorgt, dass die Glaubwürdigkeit gefährdet sei. Da kann ich alle beruhigen: die Glaubwürdigkeit ist schon sehr lange komplett weg (außer vielleicht bei “Bares für Rares” oder dem “ZDF Sommergarten”), da kann es nicht weiter abwärts gehen. Das ist das Schöne an einer Talsohle.

Confirmation Bias am einfachen Beispiel illustriert

Ich hatte es in einem früheren Beitrag schon mal vom Thema “Confirmation Bias” und “Inselbegabung”. Beides findet man häufig in Blogbeiträgen von Menschen, die sich in bestimmten Teilbereichen sehr gut auskennen (und deshalb zurecht hohe Glaubwürdigkeit besitzen), aber auch über andere Themen schreiben, von denen sie nachweislich überhaupt keine Ahnung haben. Bei letzteren Themen kann man dann gut beobachten, dass die politische Grundeinstellung zuverlässig gewisse Meldungen auswählt, ohne objektiv in der Lage zu sein, mit 2 Minuten eigener Recherche Dinge zu verifizieren.

Fefe gestern so: “Der TÜV findet, unsere Atomkraftwerke seien in “exzellentem” Zustand und könnten eigentlich direkt wieder hochgefahren werden”. Wer dem Link folgt, stellt fest: der TÜV äußert sich zu den Ende letzten Jahres abgeschalteten Kernkraftwerken Brokdorf, Grohnde und Gundremmingen C. Unter Kernkraftexperten gelten diese Kraftwerke als zuverlässige Arbeitstiere, minimale Störanfälligkeit, mindestens 20 Jahre zu früh abgeschaltet.

Fefe heute so: “AKW Unterweser: Kontaminiertes Wasser tritt aus Leck aus” – und er stellt direkt den Zusammenhang zur gestrigen TÜV-Einschätzung her.

Für die nicht-ganz-so-erfahrenen-Antiatomschwurbler-Durchschauer: Das Kernkraftwerk Unterweser wurde 2011 nach Fukushima abgeschaltet und befindet sich seit 2018 im Rückbau. Hat also nun wirklich gar nichts mit der TÜV-Einschätzung zu den drei kürzlich abgeschalteten Kraftwerke und schon gar nichts mit den drei noch laufenden Kraftwerken zu tun. Zusatzinfo: “kontaminiertes Wasser ausgetreten” ist eine Nullinformation. Wichtig ist die INES-Einstufung. Und siehe da: Stufe 0. Also nun wirklich kein Problem. Eine Meldung der Qualität “CO2 aus Schornstein eines Kohlekraftwerks ausgetreten”.

Bestimmt verkauft Fefe das wieder als Medienkompetenzübung, wenn ein Leser ihn auf diese Unschärfe hinweist.

Goldene Regel: vertraue niemandem. Prüfe alles nach. Gehe davon aus, dass jeder eine Agenda hat, und Dich bewusst oder unbewusst anlügen will, oder es ihm zumindest nix ausmacht, Lügenmultiplikator zu sein. Niemand, der zu Thema A glaubwürdig ist, ist deshalb auch zu den Themen B bis Z glaubwürdig.