Presseenttäuschungen zum Jahresende

Ergänzung 2023-12-29 – siehe unten

Immer, wenn ich diverse Presseerzeugnisse querlese oder Zeuge von anderen qualitätsjournalistischen Kapitalverbrechen werde, denke ich “ich müsste jeden einzelnen Schreibfehler, jede falsch oder irreführend zitierte Quelle, jeden logischen Fehlschluss in einem Blogartikel aufgreifen”. Aber dann erkenne ich: das würde täglich mehrere hundert Stunden Arbeit bedeuten, nur um nachzuweisen, dass die Journaille beim Niveaulimbo problemlos Jahr für Jahr ein gutes Stück tiefer rutscht. Was inzwischen eh jeder weiß, bei dem die Chance besteht, dass er Wahrheit und Lüge voneinander überhaupt unterscheiden kann.

Heute belasse ich es, ohne Namen zu nennen, bei den folgenden Beobachtungen: die einen schreiben Sylvester (der Kater aka “Mietzekatze” von Tweety) und meinen Silvester (den letzten Tag des Jahres im gregorianischen Kalender und nach Papst Silvester benannt). Die anderen können nicht mal den Vornamen von Wolfgang Schäuble buchstabengetreu in einer Überschrift unterbringen. Und dann gibt es noch die, die den VW-Diesel-Abgasskandal auf gefälschte CO2-Werte zurückführen.

“Professioneller” Journalismus ist Vergangenheit. Kann weg. Keine Sorgfalt, keine Qualität, kein Hintergrundwissen, keine Faktentreue, kein Mehrwert – mehr Kosten als Nutzen, mehr Schein als Sein, mehr Propaganda als Berichterstattung. Die wenigen rühmlichen Ausnahmen bestätigen die Regel.

Ergänzung vom 2023-12-29

Den größten mir bekannten Presse-Fail des Jahres 2023 habe ich doch jetzt glatt vergessen. War schon Ende November/Anfang Dezember, ich erinnere mich nicht mehr präzise. Jedenfalls hat unsere Lokalzeitung groß mit Bild aufgemacht, sinngemäß unter dem Titel “Planungen für die WM in Stuttgart” und ich dachte so – cool, eine Weltmeisterschaft, welche Sportart haben sie denn da – endlich mal wieder nach der legendären Leichtathletik-WM 1993 – ins Ländle geholt. Dann fiel mein Blick auf das Bild, und das war İlkay Gündoğan im DFB-Dress. Watt? Ich lese den Text dazu, und da steht tatsächlich und wahrhaftig “Fußball-Weltmeisterschaft 2024 in Deutschland”. Diese Mischung aus Gleichgültigkeit, Nichtwissen und Dummheit kann einen wirklich in den Wahnsinn treiben. Presse: kann weg.

Mehr Kindergarten wagen

Weil gerade CDU und FDP im Thüringer Landtag ein höchst sinnvolles Vorhaben zur Steuersenkung für die dortigen Bürger gegen die Minderheitsregierung durchgesetzt haben – und dieses nur mit den Stimmen der AfD tun konnte, was die versammelte Journaille nebst Linksaußenpolitiker vorhersehbar kräftig in Wallung brachte – kommt mir wieder ein altes “Handelsblatt Morning Briefing” in den Sinn, vom 2023-07-26 wenn meine Notizen stimmen. Darin wird folgende Kindergarten-Strategie im parlamentarischen Umgang mit der AfD vorgeschlagen: “Was Kretschmer allerdings nicht erwähnt: Es gibt durchaus Alternativen zum „Wir sind dagegen, weil die AfD dafür ist“. Etwa, indem die anderen Parteien bei unstrittigen Anträgen der AfD einen eigenen, inhaltlich gleichen Antrag einbringen, anstatt dem der AfD zuzustimmen.”

Das ist natürlich ein Weltklasse-Vorschlag und richtungsweisende Strategie im Umgang mit Aussätzigen – die ärgerlicherweise ja auch noch eine nicht unerhebliche Zahl an Wählern repräsentieren, aber da muss man der Demokratie eben Grenzen setzen, bei allem was Recht ist! Denn der Vorschlag trägt alle Merkmale moderner Politik, ist somit optimal kompatibel zur heutigen Zeit, vereinigt er doch Aufwandsmaximierung, rein symbolische Handlung, sinnloses virtue signalling und Verachtung des Wählers. Leisen Bedenken der letzten rational denkenden Menschen, dass es doch eigentlich egal sein müsste, von wem der Antrag formell eingereicht wird, sondern dass es mehr auf die Inhalte ankommen – dieser Häresie muss natürlich mit aller Entschiedenheit entgegengetreten werden, erfordert den unverbrüchlichen Schulterschluss aller aufrechten Demokraten.

Dieselben Journalisten werden morgen dann wieder die Politikverdrossenheit der Bürger beklagen und Strategien empfehlen, um dagegen anzugehen. Und sie werden nicht in der Lage sein, das eigene Brett vor dem Kopf zu erkennen. Unempfindlichkeit gegen kognitive Dissonanz ist neben Dyskalkulie und Rechtschreibschwäche schließlich die vermutlich wichtigste Voraussetzung, um den Journalistenberuf heutzutage zu ergreifen.

Die Pointe der ganzen Sache ist natürlich, dass die CDU in Thüringen im Prinzip der Empfehlung des Handelsblatt-Journalisten gefolgt ist. Über eine Empfehlung des Journalisten, wie dann mit einem etwaigen Erfolg eines Antrags umzugehen ist, dem dann frecherweise die AfD einfach zustimmt, ist noch nichts bekannt. Der Ausschuss für Political Correctness hält wahrscheinlich noch seine diesbezügliche Krisensitzung ab.

 

Der tägliche KI-Hype

Kaum etwas nervt so sehr wie die neue Sau, die durchs Dorf getrieben wird. Egal ob der Abgesang auf die deutsche Automobilindustrie (gerne angestimmt seit den 70ern), KI (erster Hype – 60er/70er), der-Computer-wird-alle-Arbeitsplätze-vernichten (Grüne und SPD in den 80ern), oder in jüngerer Zeit die Blockchain, eine phantastische Technologie die noch immer ihre erste sinnvolle Anwendung sucht.

Daher ein paar kurze Einordnungen zum derzeit allgegenwärtigen KI-Hype. Auslöser war ChatGPT, ein typisches Artefakt der heutigen Big-Data-Anwendungen. Wenn man nur genug Trainingsdaten in ein neuronales Netz reinsteckt, kann man für diverse Anwendungen in Kombination mit ausgefuchsten Algorithmen durchaus brauchbare Ergebnisse erzielen. DeepL ist ein gutes Beispiel dafür, kann es doch in oft akzeptabler Qualität Texte in bestimmten (aber nicht alle) Sprachen in andere Sprachen übersetzen. Und das ist vermutlich das wirklich Beeindruckende an ChatGPT: dass natürliche Sprache recht gut “verstanden” wird, und daraus wiederum plausibel klingende Sätze aus einer sehr großen Datenbasis formuliert werden können.

Leider endet da das Beeindruckende. Nach wie vor ist nicht erkennbar, dass diese KI (wenn man etwas, das ganz offensichtlich keine Intelligenz im eigentlichen Sinne besitzt, so nennen will) tatsächlich versteht, was gefragt wird. Und ebensowenig den Wahrheitsgehalt seiner Daten-und-Fakten-Sammlung, aus der sie ihre Antworten generiert, prüfen kann. Damit sind die so generierten Antworten zwar schön zu lesen (“der Vortrag war zumindest flüssig”), aber letztlich nutzlos, weil unzuverlässig.

Und damit ist die heutige beste Generation von KI leider immer noch nicht in der Lage, scheinbar simple Dinge wie “Auto fahren” auch nur einigermaßen akzeptabel hinzukriegen – siehe das beständige Scheitern der Bemühungen von Multi-Milliarden-Konzernen von Google über Tesla bis GM am doch eigentlich simplen Problem.

Damit soll jetzt nicht gesagt sein, dass viele typische Jobs heutzutage nicht jetzt oder in naher Zukunft durch KI ersetzt werden können. Bei Diversitätsbeauftragten, Call-Center-Mitarbeitern, Journalisten oder Politikern liegt die Latte derart niedrig, dass schon heutige KI überqualifiziert wirkt.

Bezüglich des oft beschworenen Fachkräftemangels, der ja eher ein Arbeitswilligenmangel ist, sind das eigentlich auch gute Nachrichten: beispielsweise in der Gastronomie wird ja händeringend Personal gesucht, das bei schlechter Bezahlung und ungünstiger Arbeitszeit echte Arbeit verrichtet. Ersatz durch KI nicht absehbar. Ein optimales Einsatzgebiet für die durch KI ersetzten Arbeitskräfte.

Trotzdem ist natürlich die Entwicklung rund um die KI im Auge zu behalten. Ein Indikator, der auf einen Qualitätssprung schließen ließe, wäre die Verfügbarkeit einer Autokorrektur im Smartphone (oder der Textverarbeitung meiner Wahl), die tatsächlich zuverlässig meine Fehler korrigiert anstatt neue oder ähnlich klingende Wörter zu verwenden, die ich auf keinen Fall gemeint habe. Oder die Verwendung einer KI in der Politik, die in der Lage ist, einem Robert Habeck unsinnige Gesetze auszureden, indem sie einfach nur die Fakten so zusammenstellt und präsentiert, dass sogar ein Grüner sie versteht – wobei, da verlange ich vielleicht zu viel, weil das schon theoretisch gar nicht möglich ist.

Der Zusammenhang zwischen Leistung, Energie, Kapazität und Qualitätsjournalismus

Ein Ärgernis seit vielen Jahrzehnten ist die komplette Unfähigkeit von Journalisten, beim Thema Stromversorgung die Parameter “Leistung” und “Energie” auseinanderzuhalten. Meist äußert sich das im wilden Durcheinanderwerfen von Watt und Wattstunden, im Kraftwerksmaßstab also meist MW und kWh.

So auch das Pioneer Hauptstadt-Briefing vom Freitag, wo folgende Aussagen im Rahmen des völlig berechtigten Hinweises “ohne Speicher funktioniert die deutsche Energiewende nicht” getätigt wurden: “Bis 2030 gehen etwa die Forscher vom Fraunhofer ISE von einem Bedarf für Batteriekapazitäten in Höhe von rund 50 Gigawatt aus.” und “Mit der aktuellen Geschwindigkeit aber würden bis dahin keine zehn Gigawatt erreicht werden” und “Kyon ist der deutsche Marktführer für den Bau und Betrieb von Batteriegroßspeichern. Und dabei, die Marke von einem Gigawatt Speicherkapazität zu überspringen.” Die drei Zitate sind zusammengenommen ungefähr so dumm, wie wenn man bei einem Windpark schreibt “versorgt 50000 Haushalte” – in Wahrheit versorgt ein Windpark in Ermangelung von Stromspeichern genau 0 Haushalte.

All das zeigt, dass Journalisten nicht mal den Wissensstand von Mittelstufen-Physik (8. Klasse) verinnerlicht haben. Was per se schon traurig wäre, selbst wenn sie nicht Artikel über Themen der Energiewende und der Stromversorgung schreiben würden. So ist es höchst ärgerlich und zeigt die Dringlichkeit, den Durchschnittsjournalisten endlich durch einen KI-Bot zu ersetzen. Denn schlechter kann die Qualität nicht werden, egal ob es um Faktentreue oder logische Zusammenhänge oder Rechtschreibung und Grammatik geht.

Damit die Leser hierzublogs noch wenigstens ein paar gewinnbringende Erkenntnisse außer dem wohlbekannten “Presse und Rundfunk sind qualitativ großer Mist und kann weg” mitnehmen kann, hier mal ein paar Größenordnungen und Überschlagsrechnungen zum Thema Strom.

Ein wichtiger Parameter des Stromverbrauchs hierzulande ist die Lastspitze. Man muss regelmäßig mit einem Bedarf von rund 75 GW Leistung rechnen, man braucht also in Summe konventionelle Kraftwerke, die diese 75 GW stemmen können – denn bei der gefürchteten Dunkelflaute machen PV und Windkraft bekanntlich synchron schlapp, auch wenn inzwischen dank der irrsinnigen Subventionen die installierte Leistung (die Summe aller Erzeugungskapazitäten) in Deutschland bei inzwischen 220 GW liegt – zu schlechten Zeitpunkten wie “bewölkter Schwachwindtag” oder “schwacher Wind nach Sonnenuntergang” ist es kein seltenes Ereignis, dass die summarische Produktion aus PV und Wind unter 2 GW liegt – 2 GW aus 220 GW, Respekt. Bezüglich Netzstabilität: die einigermaßen zuverlässigen Erzeuger Steinkohle, Braunkohle, Gas, Öl, Wasser und Biomasse liegen in Summe bei 85 GW, zusammen mit der Netzkopplung im europäischen Verbundnetz mit etwa 30 GW Potenzial sind wir hier also noch auf der sicheren Seite. Übrigens ist die Spitzenlast über die Jahrzehnte deutlich gesunken, Mitte der 90er galt “95 GW” als Worst-Case-Winterabend-Spitze noch als Maßstab. Heute hat man im Tagesverlauf überwiegend eine Mittagsspitze zwischen 11:00h und 14:00h, und im Herbst bis Frühjahr eine Abendspitze von etwa 17:00h bis 19:00h. Wie sich das in Zukunft mit Weiterverbreitung von Wärmepumpen, Klimaanlagen und Elektroautos entwickelt ist schwer vorherzusagen. Wenn 20 Millionen Elektroautos über Nacht am Strom hängen, braucht man schon ein vernünftiges Lastmanagement, und auf Schnellladung sollte verzichtet werden – selbst an einer mickrigen 11kW-Wallbox, die bei heute gängigen Akkugrößen schon 6h zum Vollladen braucht, würde sich der Leistungsbedarf im Netz im Szenario “alle wollen laden” auf 220GW summieren. Gott sei Dank ist die durchschnittliche tägliche Fahrleistung nur bei knapp 40km, also müssen nur – je nach Fahrzeug – irgendwas zwischen 6 und 10 kWh nachgeladen werden.

Ein weiterer wichtiger Parameter ist der Jahresstromverbrauch. In den 80ern rechnete man noch mit in Summe 650 TWh, inzwischen bewegt sich das eher in Richtung 500 TWh (Deindustrialisierung sei Dank, und auch LED-Leuchten statt Glühlampen haben einen nicht zu verachtenden Anteil). Tendenz gleichzeitig steigend und sinkend – steigend wegen Wärmepumpe (aka “Heizen mit Strom”) und Elektromobilität, sinkend wegen der Abwanderung der industriellen Produktion.

Welchen Beitrag leisten die erneuerbaren Energien PV und Windkraft, die ja in Zukunft das Rückgrat der Stromversorgen bilden sollen? Es schwankt. An einem typischen Sommertag liegt Windkraft irgendwo zwischen 1 GW und 35 GW, PV zwischen 0 GW und 45 GW (wenn es sonnig ist) bzw. 15 GW (wenn es bewölkt ist). Kurz gesagt: man braucht Speicher, oder weiterhin einen kompletten konventionellen Kraftwerkspark und verabschiedet sich von der CO2-Neutralität, die hierzulande ja je nachdem wen man fragt zwischen 2040 und 2050 Realität sein soll. Auch wichtig zu wissen: 2022 lag die installierte Leistung aller PV-Anlagen in Deutschland bei rund 60 GW, die der Windkraftanlagen (onshore und offshore) ebenfalls. Wer sich jetzt wundern, warum wir nicht viele Tage im Jahr haben, wo Wind und Sonne unseren kompletten Strombedarf decken können: das hängt mit dem miserablen Jahresnutzungsgrad dieser Anlagen zusammen. Das Jahr hat bekanntlich 8760h, und bei PV-Anlagen liegt die Zahl der sogenannten Jahresvolllaststunden nur bei 1000, bei Wind etwa bei 2000 (offshore etwas mehr, aber wir haben in Deutschland einen deutlichen Onshore-Überhang).

Schlagen wir den Bogen zurück zum Ausgangspunkt – Stromspeicherung in großen Batteriespeichern. Beispielsweise gibt es da schlüsselfertige Anlagen mit dem schönen Namen “Megapack” von Tesla, wo jeder auf der Homepage nachlesen kann, was denn so ein Dingens so kostet. Speichert etwa 4 MWh und schafft je nach Konfiguration eine Leistung von 1 MW oder 2 MW. Anschaffung: grob 1,8 Mio US$ netto pro Stück (inklusive Installation in Kalifornen – Alaska ist “etwas” teurer, für Europa kenne ich keine Zahlen), wenn man gleich mal 100 Stück ordert. Lebenserwartung 20 Jahre. Mit Wartungsverpflichtung zu 0,5 Mio US$ jährlich. Machen wir eine kurze Überschlagsrechnung und gehen wir davon aus, dass wir nur auf Tagesebene puffern müssen und keinerlei Redundanz vorhalten wollen. Erst mal die Netzlast absichern: 75 GW kosten dann rund 70 Mrd. US$. Das kauft gleichzeitig eine Speicherkapazität von etwa 150 GWh. Bei 500 TWh im Jahr liegt der Tagesverbrauch bei gemittelt 1,4 TWh – oops, das wird dann wohl nicht reichen, also nochmal Faktor 10 draufschlagen (und das ist eine wichtige Erkenntnis – Leistung ist nicht unser Problem, sondern Kapazität bzw. Energie). 700 Mrd. US$. Speicherwirkungsgrad ist auch noch zu berücksichtigen, der liegt natürlich nicht bei 100%, Tesla gibt etwa 90% an (für den gesamten Lade-Entladezyklus – ob dabei der Stromverbrauch des Akkutemperaturmanagements schon inkludiert ist, weiß ich nicht). In der Praxis ist das Problem natürlich viel größer, denn es gibt durchaus Wochen im Jahr, wo Wind und Sonne kombiniert sehr wenig Ertrag bringen – grob gesagt zwei Wochen Stromverbrauch sollte so ein Stromspeicher deutschlandweit schon puffern können, denn den Mittelwert abzudecken bringt bei einem Stromnetz naturgemäß nichts, man muss leider für den Worst Case gewappnet sein. 10 Billionen US$ ist doch mal eine runde Summe, aber ob die reicht – unklar. Müsste man mal eine anständige Simulation mit den Erzeugerwerten der letzten 20 Jahre durchführen. Ein wenig abgemildert wird die Misere immerhin durch Biomasse und Wasserkraft, aber nicht wesentlich. Es sei denn, man will die “Vermaisung der landwirtschaftlichen Nutzfläche” extrem ausweiten und damit alle Bemühungen um Umwelt- und Naturschutz in den Wind schlagen. Und wer will schon Nahrungsmittel anbauen, Energiepflanzen sind doch viel wichtiger.

Jetzt verbinden wir die Erkenntnis “Kosten Stromspeicherung” noch mit “Jahresvolllaststunden PV und Wind”. Selbst ohne Speicher, und wenn wir mal Wind mit 2000 Volllaststunden ansetzen und alles durch Wind abdecken wollen – 500 TWh – also 500000 GWh – müssen eben allermindestens erzeugt werden. Macht eine installierte Leistung von 250 GW Windkraftanlagen. Wie gesagt: gerade sind wir bei etwa 60 GW, und die guten Standorte sind ja weitgehend belegt. Da gewinnt der Satz von der “Verspargelung der Landschaft” doch gleich eine gewisse Nachdrücklichkeit. Konsequent weitergerechnet bräuchte es demzufolge 500 GW installierte PV um dasselbe Ergebnis zu erreichen. Man hofft instinktiv, dass Deutschland in Zukunft seinen Strom hauptsächlich aus dem Ausland beziehen wird. Verschiedene Szenarien bezüglich Deutschlands zukünftiger Stromversorgung gehen übrigens von schlappen 200 TWh Stromimport aus – warum wohl.

Ich will nicht mit weiteren Überschlagsrechnungen langweilen, es sollte inzwischen klar geworden sein: es wird teuer. Sauteuer. Noch viel viel teurer als es jetzt schon ist. So teuer, dass ein Irrsinn wie das Habeck’sche Heizungsgesetz wie ein unbedeutendes preiswertes Kleinkleckerleswerk aussieht. Es sollte sich nun keiner mehr wundern, dass der Rest der Welt hauptsächlich auf wahlweise Klimaschutz-Lippenbekenntnisse oder Kernenergie setzt.

Die gute Nachricht: weil es so irrsinnig teuer wird, ist es recht unwahrscheinlich, dass wir 2040 tatsächlich 500 TWh Stromverbrauch haben werden. Durch die dann zwingend erfolgte großflächige Verarmung der Bevölkerung und der Vernichtung von Industrie und Dienstleistungssektor werden 200 TWh sicher reichen – willkommen in der dritten Welt, Deutschland. Oder um ein wahres Wort nochmal aufzuwärmen: “Das Tolle an der Energiewende ist, dass der letzte nicht mal das Licht ausmachen muss.”

Eine neue Definition von Marktdominanz

Lange erwartet, endlich da: ein Artikel von mir, der gleichzeitig die Themen “Elektromobilität” und “Qualitätsjournalismus” aufgreift.

Anlass: eine Infografik im Pioneer Briefing (Business Class Edition) vom 2023-07-19, überschrieben mit “Tesla: Dominanz im deutschen Markt”. Es geht um die Zulassungszahlen im ersten Halbjahr 2023, und ich wurde ob der Überschrift hellhörig. Der Abgesang auf die deutsche Autoindustrie ist ja quasi ein Klassiker des Qualitätsjournalismus und anderer Unkenrufer von der linksgrünen bis zur liberalen Fraktion. Was hat die deutsche Autoindustrie nicht schon alles angeblich verschlafen: den Trend zum preiswerten Kleinwagen, zum Vollhybridfahrzeug, zum Diesel mit Partikelfilter, zum Direkteinspritzerbenziner, zum Elektroauto, zum Plug-In-Hybrid – kein Trend, den nicht irgendjemand irgendwann ausgerufen hat und den die deutsche Automobilindustrie verschlafen hat. Als Vorreiter wurden so ziemlich alle Konkurrenten über die Jahre identifiziert: Italiener, Franzosen, Japaner, Koreaner, Chinesen, und zuletzt vor allem Tesla. Und jetzt war es dann wohl so weit: selbst auf dem traditionell von deutschen Herstellern beherrschten heimischen Automarkt hat Tesla das Kommando übernommen! Also: Faktencheck.

Ich zitiere mal die Zahlen bezüglich des Marktanteils diverser Automarken, um die Absurdität der gewählten Überschrift von der Marktdominanz auch schwarz auf weiß festzuhalten: Tesla 16,5% (ja, richtig gelesen – nicht 80%, nicht 70%, sondern tatsächlich weniger als 20%), VW 15,6%, Mercedes 7,7%, Audi 6,5% (auch VW-Konzern, aber wenn man einen Pseudo-Punkt machen will, ist eine Aufsplittung nach Marken statt nach Firmen in diesem Falle vorteilhaft – der beschreibende Text der Infografik “nach Hersteller” wird so zwar beinahe zur Lüge, aber was soll’s), BMW 5,8%, Hyundai 5,5%, Fiat 4%, Smart 3,8%, MG ROEWE 3,5%, Skoda 3,5% (hoppla, nochmal VW-Konzern), Opel 3,2%, Seat 2,7% (VW-Konzern strikes again), Renault 2,7%.

Wir halten fest: 16,5% Marktanteil gilt heutzutage schon als “Marktdominanz”, selbst wenn die Konkurrenz vom VW-Konzern auf 28,3% kommt, also fast den doppelten Marktanteil. Eine äquivalente Theorie in der IT besagt, dass Apple die Marktdominanz bei Mobiltelefonen inne hat und auch bei Desktop-Betriebssystemen.

Nebenbemerkung: Renault war lange Zeit in Europa Pionier der Elektromobilität, mit dem Zoe als erstem halbwegs bezahlbarem E-Auto und dem Twizy als innovativem, wenn auch gescheitertem Versuch eine neue Fahrzeugklasse zu begründen. Heute: 2,7% Marktanteil. Zeigt mal wieder, dass die Pioniere im Markt schon nach wenigen Jahren keineswegs einen Vorteil haben – es scheint also gar nicht so schlecht zu sein, den einen oder anderen Trend einfach mal zu “verschlafen” und dann den Markt von hinten aufzurollen. The early bird catches the worm, but it is the second mouse that gets the cheese.

Nun liegt es mir fern, Gabor Steingart und seine Bemühungen rund um sein “Pioneer”-Projekt madig zu machen. Unter den ganzen Newslettern, die ich lese, ist man mit dem PioneerBriefing mit Abstand am besten informiert. Aber leider eben nicht frei von Bias und Spin. Schade.

Auch liegt es mir fern, die Elektroautobemühungen der deutschen Automobilindustrie schönzureden. Nach wie vor fehlen bezahlbare und vernünftige Elektroautos, aber die fehlen halt quer durch alle Hersteller. Wenn ein Tesla Model 3 nach gefühlt zehn verkündeten Preissenkungen im Basismodell heute in Deutschland immer noch über 40000€ kostet (ursprünglich ging man mal mit 32000€ Zielpreis ins Rennen, wobei das auch der qualitätsjournalistischen Fehlberichterstattung hierzulande zu verdanken war, weil man US$ nach EUR ohne Berücksichtigung von so Kleinigkeiten wie “Umsatzsteuer” und “Transportkosten” umgerechnet hatte). VW mit dem ID.3 oder Opel mit dem E-Astra liegen auch nicht günstiger, und wir reden hier von kaum alltagstauglichen Kisten mit viel zu wenig Platz und Reichweite gemessen an einem Standard-Benziner. Selbst ein Kleinstwagen wie der VW eUp liegt noch bei 30000€, was den Wahnsinn der E-Mobilität für Brot-und-Butter-Käufer nochmal ins Gedächtnis brennt.

Und das erklärt dann auch, warum weltweit, sobald staatliche Förderungen für E-Autos wegfallen und der Grundbedarf für Käufer mit geeignetem Nutzungsprofil (hauptsächlich Kurzstrecke, Nutzung als Zweitwagen und/oder Pendlerauto, Lademöglichkeit zuhause nach Möglichkeit mit PV-Überschussstrom) gedeckt ist, die Verkäufe drastisch einbrechen. So derzeit auch in Deutschland zu beobachten. Wobei hierzulande auch die extrem langen Lieferzeiten ein Bestellhindernis waren – die Entwicklung bei den Elektroautos geht ja doch noch mit etwas höherem Tempo voran als bei Benzinern oder Dieseln, wer will da 15 Monate auf ein Fahrzeug warten, dass dann bei Auslieferung schon halb veraltet ist. Jedenfalls sind die Prognosen nicht rosig: Für 2023 werden gerade mal knapp 500.000 verkaufte Elektroautos erwartet, ein Marktanteil von knapp über 20% – man könnte sagen: weit entfernt vom Marktdurchbruch. Für 2024 wird gar nur noch ein Marktanteil von 14% erwartet. Hauptgründe: steigende Strompreise und vermutlich wegfallende staatliche Förderung.

Man kann ja mal kurz überschlagen – die kWh Strom kostet heute zwischen 30ct (“zuhause mit Netzstrom laden”) und 80ct (Schnellladung z.B. an der Autobahn), je nach Modell braucht man für 100km real 15-20 kWh, also mindestens 4,50€, aber bis zu 16€. Ein entsprechender Benziner, mit heute üblichen 6l/100km, kommt bei 1,70€/l auf rund 10€. Spart man mit dem Stromer also höchstens 5€ auf 100km, bei einem Mehrpreis bei Anschaffung von mindestens 10000€ (entspricht also naiv gerechnet 200000km bis zum break even). Und das war jetzt sehr freundlich gerechnet für das E-Auto. Günstiger wird es nur, wenn man konsequent zuhause mit PV-Überschuss lädt, weil die Einspeisung heutzutage ja bei neuen Anlagen weniger als 10ct/kWh bringt. Nur: von Herbst bis Frühjahr dürfte es nur selten über ausreichende Zeit diese Überschüsse geben, um die tägliche Pendelstrecke nachzuladen. Bleiben also die Wenigfahrer im Home-Office mit großer PV-Anlage auf dem Dach als Zielgruppe – klingt nicht nach einem Erfolgsrezept für die breite Masse. Und das berücksichtigt nicht mal die gravierenden Nachteile wie geringe Reichweite/lange Standzeiten bei leerem Akku/kein ausreichend dichtes Ladenetz, die seit langem bekannt sind.

Niemand Vernünftiges zahlt eben mehr Geld für weniger Nutzwert.

Hochsprung und Qualitätsjournalismus

Vorgestern im Handelsblatt Morning Briefing: Dick Fosbury ist gestorben. Jeder Leichtathletik-Interessierte kennt Dick Fosbury als Olympiasieger im Hochsprung von Mexiko-City 1968, neben Bob Beamon im Weitsprung (8,90m) die zweite Legende dieser Olympischen Spiele. Nicht aufgrund eines legendären Weltrekords wie im Falle von Beamon, sondern aufgrund seiner revolutionären Technik, die als “Fosbury-Flop” in die Geschichte einging – auch wenn er wohl nicht der Erfinder der Technik war, das wird einem recht erfolglosen Österreicher zugeschrieben.

So weit, so bekannt (zumindest für die Sport-Nerds). Wo ist die Verbindung zum Qualitätsjournalismus? Ich zitiere aus dem Text des Handelsblatts: “Er war der erste Athlet, der die Hochsprungstange in Rückenlage mit dem Kopf voran überquerte. Bis dahin waren die Athleten meist in der Frontalhocke über die Stange gesprungen.” Äh, nein. Frontalhocke, das war ganz ganz früher und gilt als vielleicht älteste Technik. Im 20. Jahrhundert hat das vernünftigerweise keiner mehr verwendet, schon im 19. Jahrhundert wurde weithin der “Schersprung”, auch “Scherenschlag” genannt, genutzt. Und kurz darauf sprang die ganze Welt im “Straddle” bäuchlings über die Latte. Auch nach Fosbury war das noch lange Zeit gängig, erst Anfang der 80er setzte sich der Fosbury-Flop auf ganzer Linie durch. Die Älteren erinnern sich vielleicht noch an den Zehnkämpfer Christian Schenk, der regelmäßig die größte Höhe im Hochsprung im Rahmen des Zehnkampfes erzielte, mit 2,27m lange Zeit Rekordhalter und letzter Straddle-Springer im Spitzensport – immerhin bis in die 90er hinein.

Und ja, solche Dinge hat man früher im Rahmen des Sportunterrichts an allgemeinbildenden Gymnasien gelernt. Heute könnte man sie auch einfach auf Wikipedia nachlesen. Wenn verstehendes Lesen und Lust auf Recherche und Bewusstsein für eigenes Nichtwissen noch notwendige Merkmale für Journalisten heutzutage wäre. Besonders peinlich, wenn solche Qualitätsmängel bei eigentlich themenfremden Randbemerkungen zutage treten. Man hofft, dass bei den wichtigen Themen solider recherchiert wird. Und zweifelt gleichzeitig dran, weil einfach bei allen Themen, bei denen man gut Bescheid weiß, dieselbe Misere zutage tritt.

Aufruhr bei ARD und RBB

Es stehen ein paar Vorwürfe im Raum. In Richtung Vorteilsnahme, Bestechlichkeit, Verschwendung, unseriöses Geschäftsgebaren, mit der (mittlerweile zurückgetretenen) RBB-Intendantin Schlesinger als zentrale Person.

Die ARD hat in den Tagesthemen vorgestern einen vorsichtigen Versuch der Annäherung in Richtung Beginn einer Aufarbeitung (nicht unähnlich der Koch’schen “brutalstmöglichen Aufklärung”, die Älteren werden sich erinnern) gemacht. Eins ist mir im Gedächtnis geblieben.

Der ARD-Chef so (sinngemäß, ich will nicht Zeit verschwenden mit Mediathek-Recherche): Man dürfe aber nicht die tausenden Mitarbeiter der Rundfunkanstalten vergessen, die Tag für Tag eine hervorragende Arbeit leisten.

Ich so: Zeigt mir halt mal wenigstens einen einzigen. Und wenigstens ein Beispiel für “gute” Arbeit, die muss nicht mal hervorragend sein.

Aus meiner Sicht ist der Öffentlich-rechtliche Rundfunk komplett überflüssig. Kann weg. Braucht kein Mensch. Seinen Auftrag erfüllt er nicht (dazu bitte alle schmutzigen Details bei Danisch nachlesen, ich wiederhole das nicht hier nochmal), und er ist unglaublich teuer. Insbesondere auch bezüglich des Preis-Leistungsverhältnisses im internationalen Vergleich. Im Management-Sprech würde man von einem “Ultra-Low-Performer” sprechen. Und echte Kontrolle existiert nicht, die politischen Kontrollgremien sind schlicht wirkungslos, Gebührenanpassungen werden durchgewunken, Prüfungen ob der grundgesetzliche Auftrag überhaupt erfüllt wird finden nicht statt.

Aber es hat sich daraus nun doch noch etwas sehr Amüsantes ergeben: die ARD bzw. die Rundfunkanstalten seien besorgt, dass die Glaubwürdigkeit gefährdet sei. Da kann ich alle beruhigen: die Glaubwürdigkeit ist schon sehr lange komplett weg (außer vielleicht bei “Bares für Rares” oder dem “ZDF Sommergarten”), da kann es nicht weiter abwärts gehen. Das ist das Schöne an einer Talsohle.

Confirmation Bias am einfachen Beispiel illustriert

Ich hatte es in einem früheren Beitrag schon mal vom Thema “Confirmation Bias” und “Inselbegabung”. Beides findet man häufig in Blogbeiträgen von Menschen, die sich in bestimmten Teilbereichen sehr gut auskennen (und deshalb zurecht hohe Glaubwürdigkeit besitzen), aber auch über andere Themen schreiben, von denen sie nachweislich überhaupt keine Ahnung haben. Bei letzteren Themen kann man dann gut beobachten, dass die politische Grundeinstellung zuverlässig gewisse Meldungen auswählt, ohne objektiv in der Lage zu sein, mit 2 Minuten eigener Recherche Dinge zu verifizieren.

Fefe gestern so: “Der TÜV findet, unsere Atomkraftwerke seien in “exzellentem” Zustand und könnten eigentlich direkt wieder hochgefahren werden”. Wer dem Link folgt, stellt fest: der TÜV äußert sich zu den Ende letzten Jahres abgeschalteten Kernkraftwerken Brokdorf, Grohnde und Gundremmingen C. Unter Kernkraftexperten gelten diese Kraftwerke als zuverlässige Arbeitstiere, minimale Störanfälligkeit, mindestens 20 Jahre zu früh abgeschaltet.

Fefe heute so: “AKW Unterweser: Kontaminiertes Wasser tritt aus Leck aus” – und er stellt direkt den Zusammenhang zur gestrigen TÜV-Einschätzung her.

Für die nicht-ganz-so-erfahrenen-Antiatomschwurbler-Durchschauer: Das Kernkraftwerk Unterweser wurde 2011 nach Fukushima abgeschaltet und befindet sich seit 2018 im Rückbau. Hat also nun wirklich gar nichts mit der TÜV-Einschätzung zu den drei kürzlich abgeschalteten Kraftwerke und schon gar nichts mit den drei noch laufenden Kraftwerken zu tun. Zusatzinfo: “kontaminiertes Wasser ausgetreten” ist eine Nullinformation. Wichtig ist die INES-Einstufung. Und siehe da: Stufe 0. Also nun wirklich kein Problem. Eine Meldung der Qualität “CO2 aus Schornstein eines Kohlekraftwerks ausgetreten”.

Bestimmt verkauft Fefe das wieder als Medienkompetenzübung, wenn ein Leser ihn auf diese Unschärfe hinweist.

Goldene Regel: vertraue niemandem. Prüfe alles nach. Gehe davon aus, dass jeder eine Agenda hat, und Dich bewusst oder unbewusst anlügen will, oder es ihm zumindest nix ausmacht, Lügenmultiplikator zu sein. Niemand, der zu Thema A glaubwürdig ist, ist deshalb auch zu den Themen B bis Z glaubwürdig.

Neuer Meilenstein im Verbotsmarathon

Das EU-Parlament hat mit dem geplanten “Verbrenner-Verbot für PKW” ab 2035 im seit bestimmt 50 Jahren währenden Verbotsmarathon eine neue, signifikante Zwischenmarke gesetzt.

Die Idiotie des Verbots an sich ist ja die eine Sache. Viel bedenklicher ist allerdings, welche Reaktionen in der Presse dazu veröffentlicht werden.

Es wird z.B. argumentiert, dass das Verbot ja faktisch gar nichts ausmacht, weil ja 2035 kein normal denkender Mensch mehr einen PKW mit Verbrenner kaufen wollen würde – weil die batterieelektrischen Autos ja so super sind. Dann ist so ein Verbot natürlich besonders dumm – deutlich intelligenter wäre es, sich das Verbot dann einfach zu sparen, wenn es sowieso nichts am Ergebnis ändert und sich stattdessen mit etwas Sinnvollem zu befassen, das tatsächlich etwas bewirkt.

Auch gerne gelesen: synthetische Kraftstoffe sind böse, weil ihre Herstellung so viel Energie verbraucht. Je nach Kommentator ist die Energiebilanz zwischen Faktor 3 und 4 schlechter als bei direkter Nutzung des Stroms für Elektroautos (bezogen auf die Gesamtkette Produktion bis Verbrauch, nicht für die Produktion allein natürlich). Diese Position ignoriert gleich viele Fakten auf einmal: erstens ist es nicht abzusehen, dass es für einige wichtige Mobilitätsformen wie Schiffe, Flugzeuge, und schwere LKWs jemals batterieelektrische Lösungen geben wird. Zweitens sind synthetische Kraftstoffe eine relativ elegante Möglichkeit, große Sektoren wie Raumwärmebedarf (Öl, Gas) und Bestandsfahrzeuge (Diesel, Benzin) mit möglichst wenig Aufwand (Umweltschwurbler würden jetzt “möglichst nachhaltig” sagen) klimaneutral zu bekommen. Drittens sehen die diversen Szenarien zur Energiewende in der Stromproduktion vor, mal locker 400 bis 500 GW installierte Leistung an Wind und PV zu haben und einen großen Anteil des zur falschen Zeit erzeugten Stroms in flüssige und/oder gasförmige Kohlenwasserstoffe (Stichwort: “Windgas”) oder in Form von Wasserstoff zu speichern, weil elektrochemische Speicher (vulgo “Akkus”) viel zu teuer sind und es besser ist, Dinge mit niedrigem Wirkungsgrad zu nutzen als sie direkt wegzuwerfen. Viertens ist es völlig irrelevant, wie gut der Wirkungsgrad ist – siehe PV, da liegt man bei etwa 20%, oder bei Kernenergie, da liegt man unter 40% – denn letztlich ist es nur eine Frage des Preises. Wenn ich mit PV die kWh Strom für 10ct produzieren kann, mich die Produktion eines kWh-Äquivalents Flüssigkohlenwasserstoffs also vielleicht 20ct kostet, also der Liter Benzinäquivalent auf knapp 2€ kommt, so kann das trotzdem ein besseres Geschäft sein als den Strom zu vielen Zeitpunkten am Tag (Sommer, Sonne, Sonnenschein) einfach wegzuwerfen. In Wahrheit ist die Produktion signifikanter Mengen von synthetischen Kraftstoffen aller Art also unausweichlich, wenn man wirklich ernsthaft Klimaneutralität anstreben will. Und dabei ist noch gar nicht berücksichtigt, dass ferne Länder eventuell auf die Idee kommen könnten, den synthetischen Sprit per Hochtemperaturreaktor deutlich preiswerter zu erzeugen als wir Deutschen mit den eher teuren Technologien WKA und PV.

Auf FOCUS Online gab es einen Kommentar mit dem interessanten Titel „Technologieoffenheit“ statt Verbrenner-Verbot? Warum das nicht funktioniert. Dort ist fast aller Schwachsinn zu diesem Thema konzentriert aufgeschrieben, gespickt mit reichlich schlampiger Recherche. Von “Plug-In-Hybride bekommen sinnlose Subventionen, obwohl nur reine E-Autos das Gute und Schöne sind” bis zu “Diesel wird subventioniert” wegen der etwas niedrigeren Besteuerung von Diesel im Vergleich zu Benzin sind alle Klassiker am Start. Es erfordert schon galoppierenden Realitätsverlust, wenn man das Problem des nicht vorhandenen “level playing field” auf der Seite der angeblichen Subventionen für Verbrenner sieht – trotz E-Auto-Kaufprämie, trotz viel zu hoher CO2-Abgaben für Verbrenner-Autos und deren Kraftstoffen, trotz staatlich subventioniertem Ladesäulenbau, trotz indirekter Belastung der Verbrenner durch Abgasnormen usw. Sehr interessant und nicht weniger abwegig: der Tankrabatt begünstigt vor allem Besserverdienende. Da muss man erst mal drauf kommen. Immerhin weiß der Autor schon, dass synthetische Kraftstoffe die unterlegene Lösung sind. Verglichen mit was, bleibt hingegen sein Geheimnis. Auch interessant: der Autor hat ja selbst erkannt (wenn auch mit etwas Schieflage bei den Fakten), dass derzeit kein “level playing field” existiert durch allerhand Marktverzerrungen politischer Natur. Dann aber trotzdem das Verbrennerverbot zu favorisieren gegenüber den eigentlich notwendigen Anstrengungen, endlich die Subventionitis einzustellen und es dem Markt zu überlassen, die beste Lösung zu finden – Qualitätsjournalismus in einer Art und Weise, die zur Erfindung dieses Wortes geführt hat.

Es bleibt für Otto Normalverbraucher (oft mit Ottomotor-betriebenem Fahrzeug, daher wahrscheinlich die Bezeichnung) nur zu hoffen, dass dieser Verbotsirrsinn von irgendeinem EU-Mitgliedsstaat mit Restintelligenz gestoppt wird. Allzu viel Hoffnung macht ein Blick in die Vergangenheit aber leider nicht.

Landtagswahl Saarland 2022

Landtagswahlen im Saarland gehören ja zum Unwichtigsten, was die Republik politisch zu bieten hat, aber auch zum Unterhaltsamsten. Dem Wahlvolk an der Saar scheint der Schalk im Nacken zu sitzen – wie sonst wäre es erklärbar, dass dort schon Lafontaine und Maas und Kramp-Karrenbauer das Ministerpräsidentenamt bekleidet haben? Gut, vielleicht ist auch die These der Wahl des kleinsten Übels zutreffend, die jeweiligen Gegenkandidaten sind mir aber Gott sei Dank entfallen und so muss ich den Beleg dieser These schuldig bleiben.

Jedenfalls war der Ausgang 2022 auch wieder ein Knaller. Amtsbonus des Ministerpräsidenten? Nicht erkennbar. Besondere Fähigkeiten der SPD-Kandidatin? Nicht erkennbar. Auswirkungen der in Umfragen angedeuteten Bundestrends? Nicht erkennbar. Relevanz für die Bundespolitik? Nicht erkennbar. Wobei, irgendein Gewicht im Bundesrat wird sich schon wieder verschoben haben, aber seit etwa 2010 herrscht in der Bundesrepublik ja sowieso eine Art Allparteien-Koalition-ohne-AfD, und damit ist der Bundesrat ja nun eher irrelevant geworden. Man streitet bei relevanten Themen ja gar nicht mehr um “für und wider”, sondern nur um “mehr-noch mehr-wieviel davon”.

Sehr amüsant: das sehr knappe Scheitern der Grünen an der 5%-Hürde, es fehlen rund 20 Stimmen. Aber mal sehen, was das endgültige amtliche Endergebnis dann ergibt, da ist man ja vor Überraschungen nie gefeit.

Nicht mehr ganz so amüsant, weil nun doch schon oft dagewesen: das Versagen der Demoskopen. Bei Vorwahlumfragen gibt es dafür ja hinreichend Gründe, aber dass Infratest Dimap gleich zwei Parteien in der 18Uhr-Prognose im Parlament gesehen hat, die dann letztlich gescheitert sind – peinlich. Die Demoskopie ist halt keine Wissenschaft, sondern Kaffeesatzleserei unter Würfeleinsatz, und je kleiner das Wahlvolk, desto unsicherer das Ergebnis. Klassische Modellierung nach dem “garbage-in-garbage-out”-Prinzip, und darin den Klimamodellen nicht unähnlich. Nur mit deutlich niedrigerem Schadenspotenzial.

Noch ein paar Beobachtungen am Rande: Die Zugewinne der SPD (rund 40000 Stimmen) kompensieren nicht mal den Verlust der SED (rund 55000 Stimmen), wobei auch die schwächere Wahlbeteiligung (nur für den Spaß geht man wohl nicht mal im Saarland wählen) berücksichtigt werden muss beim Vergleich der absoluten Stimmenzahlen. Einige Kleinparteien haben sich auf ungefähr die Hälfte der Stimmen der SED hochgearbeitet – “Die PARTEI”, die Freien Wähler (mit mehr als einer Verdreifachung der Stimmen quasi heimlicher Wahlsieger), “die Basis”, “bunt.saar”…klangvolle Namen im Parteienspektrum. Die Tierschutzpartei hat sogar mit über 10000 Stimmen die SED fast eingeholt. Die Piratenpartei festigt mit Platz 14 ihren Nimbus als unter-ferner-liefen-Partei.

Und noch eine Detailbeobachtung zum Zustand des Qualitätsjournalismus: die taz, linkes Kampfblatt aus Tradition, stellt in den lustigen Balkendiagrammen die AfD mit der braunen Farbe dar. Konsequenterweise müssten die Grünen dann in dunkelrot eingefärbt werden, aber Logik und Stringenz waren im linken Lager ja noch nie hoch angesehen.