Eine neue Definition von Marktdominanz

Lange erwartet, endlich da: ein Artikel von mir, der gleichzeitig die Themen “Elektromobilität” und “Qualitätsjournalismus” aufgreift.

Anlass: eine Infografik im Pioneer Briefing (Business Class Edition) vom 2023-07-19, überschrieben mit “Tesla: Dominanz im deutschen Markt”. Es geht um die Zulassungszahlen im ersten Halbjahr 2023, und ich wurde ob der Überschrift hellhörig. Der Abgesang auf die deutsche Autoindustrie ist ja quasi ein Klassiker des Qualitätsjournalismus und anderer Unkenrufer von der linksgrünen bis zur liberalen Fraktion. Was hat die deutsche Autoindustrie nicht schon alles angeblich verschlafen: den Trend zum preiswerten Kleinwagen, zum Vollhybridfahrzeug, zum Diesel mit Partikelfilter, zum Direkteinspritzerbenziner, zum Elektroauto, zum Plug-In-Hybrid – kein Trend, den nicht irgendjemand irgendwann ausgerufen hat und den die deutsche Automobilindustrie verschlafen hat. Als Vorreiter wurden so ziemlich alle Konkurrenten über die Jahre identifiziert: Italiener, Franzosen, Japaner, Koreaner, Chinesen, und zuletzt vor allem Tesla. Und jetzt war es dann wohl so weit: selbst auf dem traditionell von deutschen Herstellern beherrschten heimischen Automarkt hat Tesla das Kommando übernommen! Also: Faktencheck.

Ich zitiere mal die Zahlen bezüglich des Marktanteils diverser Automarken, um die Absurdität der gewählten Überschrift von der Marktdominanz auch schwarz auf weiß festzuhalten: Tesla 16,5% (ja, richtig gelesen – nicht 80%, nicht 70%, sondern tatsächlich weniger als 20%), VW 15,6%, Mercedes 7,7%, Audi 6,5% (auch VW-Konzern, aber wenn man einen Pseudo-Punkt machen will, ist eine Aufsplittung nach Marken statt nach Firmen in diesem Falle vorteilhaft – der beschreibende Text der Infografik “nach Hersteller” wird so zwar beinahe zur Lüge, aber was soll’s), BMW 5,8%, Hyundai 5,5%, Fiat 4%, Smart 3,8%, MG ROEWE 3,5%, Skoda 3,5% (hoppla, nochmal VW-Konzern), Opel 3,2%, Seat 2,7% (VW-Konzern strikes again), Renault 2,7%.

Wir halten fest: 16,5% Marktanteil gilt heutzutage schon als “Marktdominanz”, selbst wenn die Konkurrenz vom VW-Konzern auf 28,3% kommt, also fast den doppelten Marktanteil. Eine äquivalente Theorie in der IT besagt, dass Apple die Marktdominanz bei Mobiltelefonen inne hat und auch bei Desktop-Betriebssystemen.

Nebenbemerkung: Renault war lange Zeit in Europa Pionier der Elektromobilität, mit dem Zoe als erstem halbwegs bezahlbarem E-Auto und dem Twizy als innovativem, wenn auch gescheitertem Versuch eine neue Fahrzeugklasse zu begründen. Heute: 2,7% Marktanteil. Zeigt mal wieder, dass die Pioniere im Markt schon nach wenigen Jahren keineswegs einen Vorteil haben – es scheint also gar nicht so schlecht zu sein, den einen oder anderen Trend einfach mal zu “verschlafen” und dann den Markt von hinten aufzurollen. The early bird catches the worm, but it is the second mouse that gets the cheese.

Nun liegt es mir fern, Gabor Steingart und seine Bemühungen rund um sein “Pioneer”-Projekt madig zu machen. Unter den ganzen Newslettern, die ich lese, ist man mit dem PioneerBriefing mit Abstand am besten informiert. Aber leider eben nicht frei von Bias und Spin. Schade.

Auch liegt es mir fern, die Elektroautobemühungen der deutschen Automobilindustrie schönzureden. Nach wie vor fehlen bezahlbare und vernünftige Elektroautos, aber die fehlen halt quer durch alle Hersteller. Wenn ein Tesla Model 3 nach gefühlt zehn verkündeten Preissenkungen im Basismodell heute in Deutschland immer noch über 40000€ kostet (ursprünglich ging man mal mit 32000€ Zielpreis ins Rennen, wobei das auch der qualitätsjournalistischen Fehlberichterstattung hierzulande zu verdanken war, weil man US$ nach EUR ohne Berücksichtigung von so Kleinigkeiten wie “Umsatzsteuer” und “Transportkosten” umgerechnet hatte). VW mit dem ID.3 oder Opel mit dem E-Astra liegen auch nicht günstiger, und wir reden hier von kaum alltagstauglichen Kisten mit viel zu wenig Platz und Reichweite gemessen an einem Standard-Benziner. Selbst ein Kleinstwagen wie der VW eUp liegt noch bei 30000€, was den Wahnsinn der E-Mobilität für Brot-und-Butter-Käufer nochmal ins Gedächtnis brennt.

Und das erklärt dann auch, warum weltweit, sobald staatliche Förderungen für E-Autos wegfallen und der Grundbedarf für Käufer mit geeignetem Nutzungsprofil (hauptsächlich Kurzstrecke, Nutzung als Zweitwagen und/oder Pendlerauto, Lademöglichkeit zuhause nach Möglichkeit mit PV-Überschussstrom) gedeckt ist, die Verkäufe drastisch einbrechen. So derzeit auch in Deutschland zu beobachten. Wobei hierzulande auch die extrem langen Lieferzeiten ein Bestellhindernis waren – die Entwicklung bei den Elektroautos geht ja doch noch mit etwas höherem Tempo voran als bei Benzinern oder Dieseln, wer will da 15 Monate auf ein Fahrzeug warten, dass dann bei Auslieferung schon halb veraltet ist. Jedenfalls sind die Prognosen nicht rosig: Für 2023 werden gerade mal knapp 500.000 verkaufte Elektroautos erwartet, ein Marktanteil von knapp über 20% – man könnte sagen: weit entfernt vom Marktdurchbruch. Für 2024 wird gar nur noch ein Marktanteil von 14% erwartet. Hauptgründe: steigende Strompreise und vermutlich wegfallende staatliche Förderung.

Man kann ja mal kurz überschlagen – die kWh Strom kostet heute zwischen 30ct (“zuhause mit Netzstrom laden”) und 80ct (Schnellladung z.B. an der Autobahn), je nach Modell braucht man für 100km real 15-20 kWh, also mindestens 4,50€, aber bis zu 16€. Ein entsprechender Benziner, mit heute üblichen 6l/100km, kommt bei 1,70€/l auf rund 10€. Spart man mit dem Stromer also höchstens 5€ auf 100km, bei einem Mehrpreis bei Anschaffung von mindestens 10000€ (entspricht also naiv gerechnet 200000km bis zum break even). Und das war jetzt sehr freundlich gerechnet für das E-Auto. Günstiger wird es nur, wenn man konsequent zuhause mit PV-Überschuss lädt, weil die Einspeisung heutzutage ja bei neuen Anlagen weniger als 10ct/kWh bringt. Nur: von Herbst bis Frühjahr dürfte es nur selten über ausreichende Zeit diese Überschüsse geben, um die tägliche Pendelstrecke nachzuladen. Bleiben also die Wenigfahrer im Home-Office mit großer PV-Anlage auf dem Dach als Zielgruppe – klingt nicht nach einem Erfolgsrezept für die breite Masse. Und das berücksichtigt nicht mal die gravierenden Nachteile wie geringe Reichweite/lange Standzeiten bei leerem Akku/kein ausreichend dichtes Ladenetz, die seit langem bekannt sind.

Niemand Vernünftiges zahlt eben mehr Geld für weniger Nutzwert.

Hochsprung und Qualitätsjournalismus

Vorgestern im Handelsblatt Morning Briefing: Dick Fosbury ist gestorben. Jeder Leichtathletik-Interessierte kennt Dick Fosbury als Olympiasieger im Hochsprung von Mexiko-City 1968, neben Bob Beamon im Weitsprung (8,90m) die zweite Legende dieser Olympischen Spiele. Nicht aufgrund eines legendären Weltrekords wie im Falle von Beamon, sondern aufgrund seiner revolutionären Technik, die als “Fosbury-Flop” in die Geschichte einging – auch wenn er wohl nicht der Erfinder der Technik war, das wird einem recht erfolglosen Österreicher zugeschrieben.

So weit, so bekannt (zumindest für die Sport-Nerds). Wo ist die Verbindung zum Qualitätsjournalismus? Ich zitiere aus dem Text des Handelsblatts: “Er war der erste Athlet, der die Hochsprungstange in Rückenlage mit dem Kopf voran überquerte. Bis dahin waren die Athleten meist in der Frontalhocke über die Stange gesprungen.” Äh, nein. Frontalhocke, das war ganz ganz früher und gilt als vielleicht älteste Technik. Im 20. Jahrhundert hat das vernünftigerweise keiner mehr verwendet, schon im 19. Jahrhundert wurde weithin der “Schersprung”, auch “Scherenschlag” genannt, genutzt. Und kurz darauf sprang die ganze Welt im “Straddle” bäuchlings über die Latte. Auch nach Fosbury war das noch lange Zeit gängig, erst Anfang der 80er setzte sich der Fosbury-Flop auf ganzer Linie durch. Die Älteren erinnern sich vielleicht noch an den Zehnkämpfer Christian Schenk, der regelmäßig die größte Höhe im Hochsprung im Rahmen des Zehnkampfes erzielte, mit 2,27m lange Zeit Rekordhalter und letzter Straddle-Springer im Spitzensport – immerhin bis in die 90er hinein.

Und ja, solche Dinge hat man früher im Rahmen des Sportunterrichts an allgemeinbildenden Gymnasien gelernt. Heute könnte man sie auch einfach auf Wikipedia nachlesen. Wenn verstehendes Lesen und Lust auf Recherche und Bewusstsein für eigenes Nichtwissen noch notwendige Merkmale für Journalisten heutzutage wäre. Besonders peinlich, wenn solche Qualitätsmängel bei eigentlich themenfremden Randbemerkungen zutage treten. Man hofft, dass bei den wichtigen Themen solider recherchiert wird. Und zweifelt gleichzeitig dran, weil einfach bei allen Themen, bei denen man gut Bescheid weiß, dieselbe Misere zutage tritt.

Aufruhr bei ARD und RBB

Es stehen ein paar Vorwürfe im Raum. In Richtung Vorteilsnahme, Bestechlichkeit, Verschwendung, unseriöses Geschäftsgebaren, mit der (mittlerweile zurückgetretenen) RBB-Intendantin Schlesinger als zentrale Person.

Die ARD hat in den Tagesthemen vorgestern einen vorsichtigen Versuch der Annäherung in Richtung Beginn einer Aufarbeitung (nicht unähnlich der Koch’schen “brutalstmöglichen Aufklärung”, die Älteren werden sich erinnern) gemacht. Eins ist mir im Gedächtnis geblieben.

Der ARD-Chef so (sinngemäß, ich will nicht Zeit verschwenden mit Mediathek-Recherche): Man dürfe aber nicht die tausenden Mitarbeiter der Rundfunkanstalten vergessen, die Tag für Tag eine hervorragende Arbeit leisten.

Ich so: Zeigt mir halt mal wenigstens einen einzigen. Und wenigstens ein Beispiel für “gute” Arbeit, die muss nicht mal hervorragend sein.

Aus meiner Sicht ist der Öffentlich-rechtliche Rundfunk komplett überflüssig. Kann weg. Braucht kein Mensch. Seinen Auftrag erfüllt er nicht (dazu bitte alle schmutzigen Details bei Danisch nachlesen, ich wiederhole das nicht hier nochmal), und er ist unglaublich teuer. Insbesondere auch bezüglich des Preis-Leistungsverhältnisses im internationalen Vergleich. Im Management-Sprech würde man von einem “Ultra-Low-Performer” sprechen. Und echte Kontrolle existiert nicht, die politischen Kontrollgremien sind schlicht wirkungslos, Gebührenanpassungen werden durchgewunken, Prüfungen ob der grundgesetzliche Auftrag überhaupt erfüllt wird finden nicht statt.

Aber es hat sich daraus nun doch noch etwas sehr Amüsantes ergeben: die ARD bzw. die Rundfunkanstalten seien besorgt, dass die Glaubwürdigkeit gefährdet sei. Da kann ich alle beruhigen: die Glaubwürdigkeit ist schon sehr lange komplett weg (außer vielleicht bei “Bares für Rares” oder dem “ZDF Sommergarten”), da kann es nicht weiter abwärts gehen. Das ist das Schöne an einer Talsohle.

Confirmation Bias am einfachen Beispiel illustriert

Ich hatte es in einem früheren Beitrag schon mal vom Thema “Confirmation Bias” und “Inselbegabung”. Beides findet man häufig in Blogbeiträgen von Menschen, die sich in bestimmten Teilbereichen sehr gut auskennen (und deshalb zurecht hohe Glaubwürdigkeit besitzen), aber auch über andere Themen schreiben, von denen sie nachweislich überhaupt keine Ahnung haben. Bei letzteren Themen kann man dann gut beobachten, dass die politische Grundeinstellung zuverlässig gewisse Meldungen auswählt, ohne objektiv in der Lage zu sein, mit 2 Minuten eigener Recherche Dinge zu verifizieren.

Fefe gestern so: “Der TÜV findet, unsere Atomkraftwerke seien in “exzellentem” Zustand und könnten eigentlich direkt wieder hochgefahren werden”. Wer dem Link folgt, stellt fest: der TÜV äußert sich zu den Ende letzten Jahres abgeschalteten Kernkraftwerken Brokdorf, Grohnde und Gundremmingen C. Unter Kernkraftexperten gelten diese Kraftwerke als zuverlässige Arbeitstiere, minimale Störanfälligkeit, mindestens 20 Jahre zu früh abgeschaltet.

Fefe heute so: “AKW Unterweser: Kontaminiertes Wasser tritt aus Leck aus” – und er stellt direkt den Zusammenhang zur gestrigen TÜV-Einschätzung her.

Für die nicht-ganz-so-erfahrenen-Antiatomschwurbler-Durchschauer: Das Kernkraftwerk Unterweser wurde 2011 nach Fukushima abgeschaltet und befindet sich seit 2018 im Rückbau. Hat also nun wirklich gar nichts mit der TÜV-Einschätzung zu den drei kürzlich abgeschalteten Kraftwerke und schon gar nichts mit den drei noch laufenden Kraftwerken zu tun. Zusatzinfo: “kontaminiertes Wasser ausgetreten” ist eine Nullinformation. Wichtig ist die INES-Einstufung. Und siehe da: Stufe 0. Also nun wirklich kein Problem. Eine Meldung der Qualität “CO2 aus Schornstein eines Kohlekraftwerks ausgetreten”.

Bestimmt verkauft Fefe das wieder als Medienkompetenzübung, wenn ein Leser ihn auf diese Unschärfe hinweist.

Goldene Regel: vertraue niemandem. Prüfe alles nach. Gehe davon aus, dass jeder eine Agenda hat, und Dich bewusst oder unbewusst anlügen will, oder es ihm zumindest nix ausmacht, Lügenmultiplikator zu sein. Niemand, der zu Thema A glaubwürdig ist, ist deshalb auch zu den Themen B bis Z glaubwürdig.

Neuer Meilenstein im Verbotsmarathon

Das EU-Parlament hat mit dem geplanten “Verbrenner-Verbot für PKW” ab 2035 im seit bestimmt 50 Jahren währenden Verbotsmarathon eine neue, signifikante Zwischenmarke gesetzt.

Die Idiotie des Verbots an sich ist ja die eine Sache. Viel bedenklicher ist allerdings, welche Reaktionen in der Presse dazu veröffentlicht werden.

Es wird z.B. argumentiert, dass das Verbot ja faktisch gar nichts ausmacht, weil ja 2035 kein normal denkender Mensch mehr einen PKW mit Verbrenner kaufen wollen würde – weil die batterieelektrischen Autos ja so super sind. Dann ist so ein Verbot natürlich besonders dumm – deutlich intelligenter wäre es, sich das Verbot dann einfach zu sparen, wenn es sowieso nichts am Ergebnis ändert und sich stattdessen mit etwas Sinnvollem zu befassen, das tatsächlich etwas bewirkt.

Auch gerne gelesen: synthetische Kraftstoffe sind böse, weil ihre Herstellung so viel Energie verbraucht. Je nach Kommentator ist die Energiebilanz zwischen Faktor 3 und 4 schlechter als bei direkter Nutzung des Stroms für Elektroautos (bezogen auf die Gesamtkette Produktion bis Verbrauch, nicht für die Produktion allein natürlich). Diese Position ignoriert gleich viele Fakten auf einmal: erstens ist es nicht abzusehen, dass es für einige wichtige Mobilitätsformen wie Schiffe, Flugzeuge, und schwere LKWs jemals batterieelektrische Lösungen geben wird. Zweitens sind synthetische Kraftstoffe eine relativ elegante Möglichkeit, große Sektoren wie Raumwärmebedarf (Öl, Gas) und Bestandsfahrzeuge (Diesel, Benzin) mit möglichst wenig Aufwand (Umweltschwurbler würden jetzt “möglichst nachhaltig” sagen) klimaneutral zu bekommen. Drittens sehen die diversen Szenarien zur Energiewende in der Stromproduktion vor, mal locker 400 bis 500 GW installierte Leistung an Wind und PV zu haben und einen großen Anteil des zur falschen Zeit erzeugten Stroms in flüssige und/oder gasförmige Kohlenwasserstoffe (Stichwort: “Windgas”) oder in Form von Wasserstoff zu speichern, weil elektrochemische Speicher (vulgo “Akkus”) viel zu teuer sind und es besser ist, Dinge mit niedrigem Wirkungsgrad zu nutzen als sie direkt wegzuwerfen. Viertens ist es völlig irrelevant, wie gut der Wirkungsgrad ist – siehe PV, da liegt man bei etwa 20%, oder bei Kernenergie, da liegt man unter 40% – denn letztlich ist es nur eine Frage des Preises. Wenn ich mit PV die kWh Strom für 10ct produzieren kann, mich die Produktion eines kWh-Äquivalents Flüssigkohlenwasserstoffs also vielleicht 20ct kostet, also der Liter Benzinäquivalent auf knapp 2€ kommt, so kann das trotzdem ein besseres Geschäft sein als den Strom zu vielen Zeitpunkten am Tag (Sommer, Sonne, Sonnenschein) einfach wegzuwerfen. In Wahrheit ist die Produktion signifikanter Mengen von synthetischen Kraftstoffen aller Art also unausweichlich, wenn man wirklich ernsthaft Klimaneutralität anstreben will. Und dabei ist noch gar nicht berücksichtigt, dass ferne Länder eventuell auf die Idee kommen könnten, den synthetischen Sprit per Hochtemperaturreaktor deutlich preiswerter zu erzeugen als wir Deutschen mit den eher teuren Technologien WKA und PV.

Auf FOCUS Online gab es einen Kommentar mit dem interessanten Titel „Technologieoffenheit“ statt Verbrenner-Verbot? Warum das nicht funktioniert. Dort ist fast aller Schwachsinn zu diesem Thema konzentriert aufgeschrieben, gespickt mit reichlich schlampiger Recherche. Von “Plug-In-Hybride bekommen sinnlose Subventionen, obwohl nur reine E-Autos das Gute und Schöne sind” bis zu “Diesel wird subventioniert” wegen der etwas niedrigeren Besteuerung von Diesel im Vergleich zu Benzin sind alle Klassiker am Start. Es erfordert schon galoppierenden Realitätsverlust, wenn man das Problem des nicht vorhandenen “level playing field” auf der Seite der angeblichen Subventionen für Verbrenner sieht – trotz E-Auto-Kaufprämie, trotz viel zu hoher CO2-Abgaben für Verbrenner-Autos und deren Kraftstoffen, trotz staatlich subventioniertem Ladesäulenbau, trotz indirekter Belastung der Verbrenner durch Abgasnormen usw. Sehr interessant und nicht weniger abwegig: der Tankrabatt begünstigt vor allem Besserverdienende. Da muss man erst mal drauf kommen. Immerhin weiß der Autor schon, dass synthetische Kraftstoffe die unterlegene Lösung sind. Verglichen mit was, bleibt hingegen sein Geheimnis. Auch interessant: der Autor hat ja selbst erkannt (wenn auch mit etwas Schieflage bei den Fakten), dass derzeit kein “level playing field” existiert durch allerhand Marktverzerrungen politischer Natur. Dann aber trotzdem das Verbrennerverbot zu favorisieren gegenüber den eigentlich notwendigen Anstrengungen, endlich die Subventionitis einzustellen und es dem Markt zu überlassen, die beste Lösung zu finden – Qualitätsjournalismus in einer Art und Weise, die zur Erfindung dieses Wortes geführt hat.

Es bleibt für Otto Normalverbraucher (oft mit Ottomotor-betriebenem Fahrzeug, daher wahrscheinlich die Bezeichnung) nur zu hoffen, dass dieser Verbotsirrsinn von irgendeinem EU-Mitgliedsstaat mit Restintelligenz gestoppt wird. Allzu viel Hoffnung macht ein Blick in die Vergangenheit aber leider nicht.

Landtagswahl Saarland 2022

Landtagswahlen im Saarland gehören ja zum Unwichtigsten, was die Republik politisch zu bieten hat, aber auch zum Unterhaltsamsten. Dem Wahlvolk an der Saar scheint der Schalk im Nacken zu sitzen – wie sonst wäre es erklärbar, dass dort schon Lafontaine und Maas und Kramp-Karrenbauer das Ministerpräsidentenamt bekleidet haben? Gut, vielleicht ist auch die These der Wahl des kleinsten Übels zutreffend, die jeweiligen Gegenkandidaten sind mir aber Gott sei Dank entfallen und so muss ich den Beleg dieser These schuldig bleiben.

Jedenfalls war der Ausgang 2022 auch wieder ein Knaller. Amtsbonus des Ministerpräsidenten? Nicht erkennbar. Besondere Fähigkeiten der SPD-Kandidatin? Nicht erkennbar. Auswirkungen der in Umfragen angedeuteten Bundestrends? Nicht erkennbar. Relevanz für die Bundespolitik? Nicht erkennbar. Wobei, irgendein Gewicht im Bundesrat wird sich schon wieder verschoben haben, aber seit etwa 2010 herrscht in der Bundesrepublik ja sowieso eine Art Allparteien-Koalition-ohne-AfD, und damit ist der Bundesrat ja nun eher irrelevant geworden. Man streitet bei relevanten Themen ja gar nicht mehr um “für und wider”, sondern nur um “mehr-noch mehr-wieviel davon”.

Sehr amüsant: das sehr knappe Scheitern der Grünen an der 5%-Hürde, es fehlen rund 20 Stimmen. Aber mal sehen, was das endgültige amtliche Endergebnis dann ergibt, da ist man ja vor Überraschungen nie gefeit.

Nicht mehr ganz so amüsant, weil nun doch schon oft dagewesen: das Versagen der Demoskopen. Bei Vorwahlumfragen gibt es dafür ja hinreichend Gründe, aber dass Infratest Dimap gleich zwei Parteien in der 18Uhr-Prognose im Parlament gesehen hat, die dann letztlich gescheitert sind – peinlich. Die Demoskopie ist halt keine Wissenschaft, sondern Kaffeesatzleserei unter Würfeleinsatz, und je kleiner das Wahlvolk, desto unsicherer das Ergebnis. Klassische Modellierung nach dem “garbage-in-garbage-out”-Prinzip, und darin den Klimamodellen nicht unähnlich. Nur mit deutlich niedrigerem Schadenspotenzial.

Noch ein paar Beobachtungen am Rande: Die Zugewinne der SPD (rund 40000 Stimmen) kompensieren nicht mal den Verlust der SED (rund 55000 Stimmen), wobei auch die schwächere Wahlbeteiligung (nur für den Spaß geht man wohl nicht mal im Saarland wählen) berücksichtigt werden muss beim Vergleich der absoluten Stimmenzahlen. Einige Kleinparteien haben sich auf ungefähr die Hälfte der Stimmen der SED hochgearbeitet – “Die PARTEI”, die Freien Wähler (mit mehr als einer Verdreifachung der Stimmen quasi heimlicher Wahlsieger), “die Basis”, “bunt.saar”…klangvolle Namen im Parteienspektrum. Die Tierschutzpartei hat sogar mit über 10000 Stimmen die SED fast eingeholt. Die Piratenpartei festigt mit Platz 14 ihren Nimbus als unter-ferner-liefen-Partei.

Und noch eine Detailbeobachtung zum Zustand des Qualitätsjournalismus: die taz, linkes Kampfblatt aus Tradition, stellt in den lustigen Balkendiagrammen die AfD mit der braunen Farbe dar. Konsequenterweise müssten die Grünen dann in dunkelrot eingefärbt werden, aber Logik und Stringenz waren im linken Lager ja noch nie hoch angesehen.

Klimaschutz und Kernenergie

Schon in verschiedenen Beiträgen in diesem Blog habe ich mich dem Thema Klimawandel sowie mit der Kernenergie beschäftigt. Gerne auch in Kombination, weil mir die Idiotie der Argumentation “Klimakatastrophe – größtes Problem der Menschheit” in Verbindung mit “Kernenergie darf nicht Teil der Lösung sein” regelmäßig ins Auge springt. Im Aufgalopp zu “Glasgow”, der neuesten Auflage des allseits bekannten und beliebten “Klimagipfels”, dessen erste weithin bekannte Inkarnation “Kyoto” mit dem beinahe ebenso bekannten “Kyoto-Protokoll” endete, gab es nun wieder Rauschen im Blätterwald, weil sich einige – inklusive des sonst hochheiligen IPCC – doch tatsächlich erdreisteten, zur Bekämpfung des nahenden Klimatods eine technische Lösung namens “Kernenergie” ins Spiel zu bringen. Für Deutschland als Kernenergieaussteigernation Nr. 1 natürlich besonders brisant, gibt es hierzulande doch noch ein paar völlig problemlos laufende, preiswerte, abgeschriebene und noch verhältnismäßig junge Kernkraftwerke, die man ja doch relativ problemlos weiterbetreiben könnte, um z.B. damit Kohlestrom zu substituieren.

Ich will mich an zwei Exemplaren von Berichterstattung durch typische Kernenergie-Contra-Argumente kämpfen und vor allem damit den Stand der Sachdiskussion betrauern, der seit “Tschernobyl – wir werden alle sterben” zumindest in Deutschland unverändert zu sein scheint.

Beweisstück 1: SPIEGEL Online veröffentlichte im Bereich “Wissenschaft” ein reines Meinungs- und Propagandapamphlet mit dem schon die Erwartungshaltung bezüglich der Neutralität des Artikels absteckenden Titel “Atomkraft? Nein, danke, wirklich nicht”. Basis dieses Artikels ist ein “Diskussionsbeitrag” genanntes fast 100 Seiten starkes Pamphlet der selbstverständlich in der Sache völlig neutralen Forschungsgruppe der “Scientists for Future”. Eine der Autoren ist die allseits bekannte EE-Propagandistin Claudia Kemfert, die über die Jahre ausreichend unter Beweis gestellt hat, dass man sie zu Sachfragen besser nicht befragen sollte – wobei, ihre Diskussionsbeiträge sind dahingehend wertvoll, dass man mit einiger Sicherheit davon ausgehen kann, dass das glatte Gegenteil ihrer Behauptungen richtig ist. Wer den Bericht in voller Schönheit konsumieren will – hier ist die Zusammenfassung, hier die Langversion.

Was also sind diese Murmeltiertag-Argumente, die immer wieder in die Diskussion eingebracht werden?

Punkt 1: die Sicherheit. Klar, da werden die Klassiker “Three Mile Island”, “Tschernobyl” und “Fukushima” aufgefahren. Abgesehen von der Tatsache, dass ganze drei seriöse Unfalle in 60 Jahren Kernenergienutzung doch für ein unglaublich hohes Sicherheitsniveau sprechen, und auch die offiziellen Statistiken wie die “Lost Workers Per Day” eindeutig sagen, dass von allen Energieerzeugungsarten inklusive Windkraft und Photovoltaik die Kernenergie die mit Abstand sicherste ist, lohnt es sich, die drei Unfälle im Detail anzuschauen. Die Teilkernschmelze im Reaktor 2 in Harrisburg kannte nämlich nur einen Geschädigten: den Betreiber. Außerhalb des Kraftwerks passierte genau gar nichts. Oh, da haben wir aber Angst: einer der drei schlimmsten Reaktorunfälle aller Zeiten forderte genau 0 Todesopfer. Der nebenan stehende Reaktor 1 lieferte noch vier weitere Jahrzehnte Strom. Blick auf Fukushima, den Auslöser einer neuen Hysteriewelle gegen die Kernenergie hierzulande inklusive sofortiger Abschaltung diverser Kraftwerke und Einsetzen einer “Ethikkomission”, die den Ausstiegsbeschluss unterfütterte: hier ist es wichtig, die Auswirkungen des Reaktorunfalls ins Verhältnis zu setzen mit den Auswirkungen des den Unfall auslösenden Ereignisses: ein starkes Erdbeben gefolgt von einem Tsunami. Todesopfer des Tsunami: vermutlich 20000. Todesopfer des Reaktorunfalls: 2 Arbeiter. Vermutete langfristige Opfer der freigesetzten Strahlung: 0 – die am stärksten strahlenbelasteten Menschen waren Arbeiter des Kraftwerks, mit einer Strahlendosis von wenigen hundert Millisievert. Zum Zeitpunkt des Tsunami war der Platz innerhalb des Kraftwerks der Sicherste im Bereich der Küste. Wir halten fest: Fukushima zeigt uns, dass selbst bei Schlamperei des Betreibers (Schutzmaßnahmen gegen Tsunamis vorhersehbarer Größe unzureichend) und bei einem wirklich uralten Reaktors (GE BWR Mark I – Design aus den 60ern) selbst eine dramatische Naturkatastrophe kein wirkliches Problem darstellt. Weiterer Beweis in der Sache: die Reaktorblöcke des benachbarten Kernkraftwerks Fukushima Daini haben diese Naturkatastrophe unbeschadet überstanden und hätten, wenn die Politik nicht anders entschieden hätte, direkt nach Erdbeben und Tsunami den Betrieb weiterführen können. Blickt man leidenschaftslos auf den Tsunami-induzierten Reaktorunfall von Fukushima, kann man schlussfolgern, dass selbst bei einem alten Reaktor, der an einer ungünstigen Stelle steht, der mit sehr knappen Notstromreserven ausgestattet ist, dessen Notstromgeneratoren nicht ausreichend verbunkert sind, der weder mit heute üblichen (und bei den meisten Kernkraftwerken, insbesondere allen deutschen KKWs nachgerüsteten) katalytischen Rekombinatoren zur Vermeidung der Ansammlung von Wasserstoff oder gefilterter Ventilationsmöglichkeit zur Druckentlastung des Sicherheitsbehälters ausgestattet ist, das Risiko einer erheblichen Freisetzung des radioaktiven Inventars extrem gering ist.

Bleibt also Tschernobyl. Zweifellos ein seriöser Reaktorunfall – wenn auch mit insgesamt überschaubaren Auswirkungen was Leib und Leben angeht, vermutlich wird die Opferzahl auch langfristig im vierstelligen Bereich bleiben – allerdings unter besonderen Bedingungen, die man bei der Bewertung der Gefahren der Kernenergie berücksichtigen sollte. Man stellt ja auch den PKW-Verkehr nicht ein, nur weil ein Trabbi sehr wenig Schutz für die Insassen und Fußgänger bietet und einen sehr langen Bremsweg hat. Und da hat der havarierte RBMK-Reaktor von Tschernobyl einige unglückselige Alleinstellungsmerkmale wie den positiven Dampfblasenkoeffizient, das Fehlen entscheidender Schnellabschalteinrichtungen, die Moderation durch (brennbares) Graphit, das Fehlen eines Sicherheitsbehälters, ein unzureichendes Containment…die Liste ist lang. Dazu kam das von höchster politischer Stelle beauftragte Reaktorexperiment, das eine geschulte und geübte Bedienmannschaft, wie sie in Reaktoren westlicher Bauart und vor allem in Deutschland vorausgesetzt werden kann, niemals so durchgeführt hätte. Garniert wird die Reaktorkatastrophe noch durch den menschenverachtenden Charakter des zentral gesteuerten Marxismus Moskauer Prägung, der die Auswirkungen der Katastrophe nochmals schlimmer machte. Keine zeitnahe Evakuierung, keine Katastrophenvorsorge, kein Plan für den Ernstfall. Unterm Strich bleibt also eine Katastrophe aufgrund einer um Größenordnungen unsicherer Reaktorbauart im Verbund mit gnadenloser Menschenverachtung eines alles kontrollierenden Staatswesens ohne wirksame Risikovorsorge. Wenn es jemals eine Unvergleichbarkeit von technischen Konzepten gegeben hat, dann “RBMK” vs. “Leichtwasserreaktor westlicher Bauart”.

Wichtig ist aber auch: selbst unter Berücksichtigung des Tschernobyl-Unfalls bleibt die Kernenergie eine ungeschlagen sichere und saubere Art der Stromerzeugung. Kernenergie ist vermutlich die einzige Technologie, die nicht mal der Kommunismus durch dramatisches Unterbieten von sinnvollen Mindeststandards im Durchschnitt ins Minus bringen konnte.

Bezüglich der Sicherheit wird auch die alte Schimäre “Proliferationsrisiko” bemüht. Hintergrund ist, dass für die Produktion atomwaffenfähigen Materials zwar prinzipiell Kernreaktoren geeignet sind. Schaut man aber näher ins Detail, fallen zwei Dinge ins Auge: erstens die Entstehung der ersten Kernwaffen der fünf initialen Atomwaffenstaaten USA, UdSSR, Großbritannien, Frankreich und China. Keiner der Staaten verwendete kommerzielle Leistungsreaktoren, um sein Uran oder Plutonium für Atombomben zu erzeugen, sondern entweder reine Urananreicherung (so auch später Pakistan und Indien, und so wird es auch der Iran machen) oder spezielle Reaktoren, die darauf ausgelegt sind, tatsächlich möglichst reines Plutonium-239 zu erbrüten ohne die hässliche Eigenschaft von Leichtwasserreaktoren, die Chose mit reichlich Plutonium-240 zu verunreinigen, das den Isotopenmischmasch für den Bombenbau unbrauchbar macht. Oder anders ausgedrückt: gängige Reaktoren zur Stromerzeugung sind ganz ganz schlecht zur Erzeugung von waffenfähigem Material geeignet. Wen da wirklich noch Restzweifel beschleichen, der stellt interessierten Staaten einfach den kompletten Brennstoffkreislauf zur Verfügung und lässt vor Ort nur die Reaktoren betrieben, damit ist dieses Schreckensszenario endgültig mit einer Wahrscheinlichkeit von unter 0 zu bewerten. Oder mal die Kanadier fragen – deren CANDU-Reaktoren benötigen nicht mal angereichertes Uran, sondern laufen mit Natururan, so dass sogar dieses Minimalrisiko ausgeschlossen werden kann.

Natürlich darf auch die angeblich ungelöste Endlagerung im bunten Reigen der Pseudo-Argumente nicht fehlen. Ein Problem, das andernorts – z.B. in Finnland – bekanntlich längst gelöst ist, prinzipiell sehr einfach lösbar ist wenn man Kernenergie-Abfälle einfach gemäß ihrer Gefährlichkeit wie anderen konventionellen Giftmüll behandeln würde, oder alternativ endlich schnelle Reaktoren zur Verwertung dieses “Abfalls” bauen würde. Da sind uns inzwischen sogar die Russen voraus, nachdem wir in Deutschland zwar einen geeigneten schnellen Brutreaktor fertig gebaut haben, aber dann vorsichtshalber nicht in Betrieb genommen haben. Auch in Deutschland hat man ja ein sehr gutes Endlagerkonzept – wenn man auf “direkte Endlagerung” steht – und noch niemand konnte schlüssig begründen, warum der Salzstock in Gorleben (oder praktisch jeder andere unberührte Salzstock in Deutschland oder die zahlreichen Granitgesteinsformationen ähnlich der finnischen Lösung) kein geeignetes Endlager sein soll, aber es wird politisch seit Jahrzehnten verhindert, weil die Anti-Kernkraft-Lobby natürlich eines ihrer Hauptargumente in Gefahr sieht. Nicht, dass ein paar Castorbehälter in einer Lagehalle a la Zwischenlager Gorleben oder Ahaus ein Problem wären – ja dann stehen die halt ein paar Jahrhunderte dort drin, wen kümmert das schon? Gegenüber der Endlagerung von dauerhaft giftigen Stoffen hat der atomare Abfall immerhin den Charme, dass er über die Zeit sehr viel weniger gefährlich wird.

Zuletzt natürlich auch noch das Versicherungsargument – angeblich sind die Schäden aus einem Kraftwerksunfall ja so groß, dass gar keine Versicherung dagegen möglich oder denkbar ist. Dubios, denn gerade in Deutschland sind die Schäden eines hypothetischen Unfalls selbstverständlich versichert, weltweit wäre das aufgrund des sehr seltenen Ereignisses “Kraftwerksunfall mit Außenwirkung” natürlich auch kein Problem, aber allerorten verhindern staatliche Regulierungen eine solche marktwirtschaftliche Lösung. Weltweit agierende (Rück-)Versicherer haben ganz andere Risiken abgesichert, dagegen ist ein Unfall Marke “Three Mile Island” oder “Fukushima” ein Kleinkleckerlesbetrag. Und wenn man sieht, wieviel CO2 durch die Kernenergie bisher schon vermieden wurde, wird die finanzielle Haben-Seite der Kernenergie selbst im Angesicht eines jährlich stattfindenden schwerwiegenden Unfalls immer noch erklecklich sein. Wenn man dann noch bedenkt, wieviel sicherer moderne Kernkraftwerke gegenüber ihren schon sehr sicheren und zuverlässigen Geschwistern der Baujahre 1960 bis 1990 sind, bleibt nur die Erkenntnis, dass Sicherheits- und Kostenerwägungen ganz sicher nicht gegen die Kernenergie sprechen.

Warum der Spiegelartikel auch noch behauptet, dass die neue Generation der SMRs (“Small Modular Reactors”) keinen relevanten Sicherheitsgewinn bringen würden, obwohl diese allesamt so konstruiert sind, dass ein Unfall mit Freisetzung radioaktiver Stoffe physikalisch ausgeschlossen ist – vermutlich schlägt hier die Relotius-Ader des Blattes wieder durch. Eine schändlichere Lüge wurde selten zu Buchstaben geformt. Oder steckt dahinter in Wahrheit die Erkenntnis, dass auch heute betrieben konventionelle Leichtwasserreaktoren bereits sehr sicher sind, und es deshalb gar keinen signifikanten Sicherheitsgewinn zu geben braucht und geben kann?

Wenn man den Sicherheitsaspekt mal auf die Frage verengt, ob Deutschland seine vorhandenen Reaktoren einfach 30-50 Jahre weiterbetreiben soll oder wie geplant aussteigen soll, stellt sich schnell die Erkenntnis ein: weiterbetreiben ist die einzig sinnvolle Entscheidung. Das Endlagerproblem, selbst wenn es existiert, wird dadurch nicht schlimmer. Das Proliferationsrisiko ist bei Reaktoren unserer Bauart nicht mal denkbar. Die Sicherheitshistorie der deutschen Reaktoren ist makellos, ihre Zuverlässigkeit vorbildlich. Bedenken gegen den Weiterbetrieb sind allesamt hypothetischer Natur, ähnlich einer Ablehnung der Windkraft mit dem Hinweis, dass es ja nicht auszuschließen sei, dass ab morgen in Deutschland nur noch sehr schwacher Wind wehen wird. Oder die Ablehnung der Photovoltaik mit der Befürchtung, dass ab morgen immer dunkel ist.

Kommen wir zu Punkt 2 – die Wirtschaftlichkeit. Zunächst lügt der Artikel sich zusammen, dass Kernenergie niemals wirtschaftlich war. Das stimmt insoweit, wenn man es mit Braun- oder Steinkohlekraftwerken vergleicht. Da wir ja aber den Klimawandel im Auge haben wollen, müssen wir die Kernenergie ja mit erneuerbaren Energien vergleichen, und da kann jeder an seiner Stromrechnung ablesen, was Sache ist: Kernenergie ist die einzig wirtschaftliche CO2-freie Stromerzeugungstechnologie, selbst heute, nachdem der Staat wirklich alles versucht hat, um mit überbordendem Regulierungsdrang die Kernenergie möglichst teuer zu machen. Wenn man sich anschaut, welche immensen Kosten durch die diversen Regulierungsbehörden wie die NRC in den USA entstehen – und das ohne merklichen Gewinn für die Sicherheit – wäre die Klimaschutzmaßnahme Nummer 1, endlich mal den ganzen Genehmigungsprozess für Kernreaktoren zu verschlanken und wieder auf ein Maß wie in den 70ern oder 80ern, der großen und erfolgreichen Zeit der preisgünstigen Reaktorneubauten, zurückzufahren. Früher konnte man einen GW-Reaktorblock für weniger als eine Milliarde Mark bauen und in Betrieb nehmen, heute wird eher der zehn- bis zwanzigfache Betrag fällig. Wenn jemand Angst vor Inflation hat, sollte er hier besser nicht so genau hinschauen. Und dennoch ist auch heute ein Neubau eines Kernkraftwerks unter entsprechenden Bedingungen ein gutes Geschäft, wenn man es mit CO2-freien Alternativen vergleicht.

Der Unterpunkt “aber die unbekannten Kosten für Rückbau und Endlagerung” wird natürlich auch immer gerne genommen, ist aber keinesfalls valide. Bezüglich Rückbau hat insbesondere Deutschland reichlich Erfahrung, weil wir bereits die Altlasten des real existierenden Sozialismus im Osten des Landes komplett zurückgebaut haben, und das war alles andere als teuer, wenn man es vergleicht mit dem Wert des erzeugten Stroms, selbst zu damaligen niedrigen Marktpreisen in Konkurrenz zur schmutzigen Braunkohle sozialistischer Prägung. Zur Endlagerfrage gilt das oben gesagte – nimmt man den einzig vernünftigen Weg der Nutzung des “Atommülls” als Brennstoff für schnelle Reaktoren, hat dieser Müll sogar einen Wert und verursacht gar keine Endlagerkosten. Bevorzugt man die direkte Endlagerung ohne Nutzung, sind aufgrund der sehr geringen Mengen die Kosten geradezu lächerlich niedrig, selbst bei pessimistischer Rechnung deutlich unter 1 ct/kWh bei Endlagerung nach Greenpeace-Standard.

Und verengen wir die Wirtschaftlichkeitsdebatte wieder auf die Frage, ob Deutschland seine vorhandenen Reaktoren einfach 30-50 Jahre weiterbetreiben soll oder wie geplant aussteigen soll, so kann die Antwort nur lauten “weiterlaufen lassen”. Die Kraftwerke stehen schon, der Betrieb ist äußerst kostengünstig, und weder für Rückbau noch für Endlagerung fallen bei einer Betriebszeit von 60-80 Jahren signifikant höhere Kosten an als bei einer Betriebszeit von etwa nur 34 Jahren wie im Falle von Neckarwestheim 2.

Punkt 3 – die Behauptung, ein Ausbau der Kernenergie käme zu spät für die Lösung der Klimawandelproblematik – ist besonders pikant. Seit Jahrzehnten versuchen Anti-Kernkraft-Lobbyisten, Sand ins Getriebe zu streuen. Jede Menge politische Entscheidungen wurden getroffen und Gerichtsverfahren angestrengt, um den Erfolg der Kernenergie zu verhindern. Man hat also das jetzt Kritisierte im Prinzip selbst verursacht und bejammert es jetzt. Scheinheiliger geht es ja gar nicht. Aber davon abgesehen ist die Aussage selbst im heutigen weitgehend totregulierten Kernreaktorbereich nicht die Wahrheit. Wenn man heute einen großen Kernreaktor ordert, egal ob in Russland, Südkorea, Japan oder USA, kann man – wenn man der juristischen Verzögerungstaktik der Feinde des Fortschrittes einen Riegel vorschieben kann – sich problemlos in 5-10 Jahren an einem neuen Reaktor erfreuen. Und mit jedem weiteren neuen Reaktor geht es schneller.

Ein praktisches Beispiel: die Vereinigten Arabischen Emirate haben quasi aus dem Stand – also bei gleichzeitigem Aufbau der Regulierungsbehörde und Schaffung aller Voraussetzungen für den Betrieb wie Ausbildung des Personals – mit Beginn 2012 bis Ende 2021/Anfang 2022 vier große Reaktorblöcke südkoreanischer Herkunft (KEPCO APR-1400) erfolgreich gebaut und in Betrieb genommen, zu je 1,4 GW elektrischer Leistung und einer vorgesehenen Betriebsdauer von je 60 Jahren. Und man erinnere sich zurück an den großen nuklearen Ausbau in Frankreich in den 80ern – eine Vielzahl von Reaktoren, die bis heute problemlos betrieben werden, haben Frankreich unter den Industrienationen zu der Nation gemacht, die den niedrigsten pro-Kopf-Ausstoß von CO2 hat. Warum sollte das heute nicht auch möglich sein? Der Einwand, man käme eh zu spät, ist derart unlogisch, dass nur ein verqueres Antiatomschwurblerhirn darauf kommen kann. Zumal man ja immer vergleichen muss mit der Alternative. Frankreich schaffte in den 80ern 12 große Druckreaktoren (Baubeginn 1980 bis 1982, Inbetriebnahme 1982 bis 1990), die Vereinigten Arabischen Emirate innerhalb von 10 Jahren 4 große Druckreaktoren – das entspricht einer Stromerzeugung von etwa 44 TWh pro Jahr zuverlässige Deckung der Grundlast, für die nächsten 60 Jahre. Wenn man wirklich will, geht es also, und das nachgewiesenermaßen. Hingegen ist eine zuverlässige und halbwegs bezahlbare Stromversorgung allein mit erneuerbaren Energien immer noch Wolkenkuckucksheim, und Subventionsweltmeister Deutschland hat es in 20 Jahren auf gerade mal dieselbe Stromerzeugung aus Photovoltaik gebracht – rund 40 TWh von Strom “wann immer gerade die Sonne scheint”. Zu dramatisch höheren Kosten als den vier Reaktorneubauten in den Emiraten versteht sich. Und das liegt nicht zuletzt an der Energie- und Rohstoffintensität der Herstellung von PV-Anlagen. Warum also gleichzeitig der schnelle Ausbau der Kernenergie unmöglich sein sollte während der Ausbau von Windkraft und Photovoltaik nebst notwendigen Backups – die sich einigermaßen kostenfreundlich noch nicht mal auf dem Reißbrett abzeichnen – gar kein Problem sein sollen, auch dafür braucht man wohl verqueres Antiatomschwurblerdenken mit zuverlässiger Plausibilitätsprüfungsunterdrückung.

Für die Zukunft ist natürlich zu hoffen, dass die Kerntechnische Industrie tatsächlich mal den großen Worten Taten folgen lässt und kleine kompakte Kernkraftwerke in Serie produziert. Die jetzigen großen Kraftwerke sind ja ein wandelndes Investitionsrisiko in Anbetracht staatlicher Neigung zum grundlosen Eingriff in Bau und Inbetriebnahme, und es sind quasi alles Einzelstücke, weil handgedengelt auf die jeweiligen lokalen Befindlichkeiten der Behörden. Wer sich wundert, warum man in den 60ern einen so rasanten Ausbau der Kernenergie vorausgesagt hatte und warum das gescheitert ist: das ist der Grund. Kleinstaaterei bei den Anforderungen und Genehmigungen, Regulierung so gestaltet dass die Kraftwerke, um kostendeckend zu sein, riesig und damit teuer und komplex sein mussten. Die US-amerikanische NRC beispielsweise hat lange Zeit für jeden zu genehmigenden Reaktor den gleichen Aufwand und die gleiche Summe berechnet – egal ob ein Riesenreaktor mit 1,4 bis 1,6 GW (typischer PWR ab Mitte der 80er) oder schmaler 80 MW-Microreaktor. Ein kleiner Reaktor hat vielerlei Vorteile: er kann eher im Lastfolgebetrieb arbeiten, er ist relativ einfach mit völliger passiver Sicherheit konstruierbar, weil die Restwärmeproblematik über passive Abführung derselben gelöst werden kann. Er muss nicht “on site” gebaut werden, sondern kann in der Fabrik in Serie gefertigt werden und vormontiert an seinen Standort transportiert werden. Er kann modular zugebaut werden je nach Bedarf. Er kann dezentral installiert werden und so auch zur Nahwärmeversorgung oder für Prozesswärmenutzung zur Verfügung stehen. Ja, denkt man an die schöne neue Welt der Elektroautos, würde so ein NuScale Power Module mit knapp 80 MWe perfekt zu einer Schnellladestation an einer Autobahnraststätte passen. Bei grob 300 kW pro Ladestation wäre das eine angemessene Größenordnung. Der geneigte Leser mag sich vorstellen, welche PV-Fläche für so ein Unterfangen notwendig wäre und wie viele Batterien man für den Fall “Nacht oder wolkig” als Backup vorhalten müsste, um dieselbe Leistung dieses kleinen, kompakten NPM zu erzielen.

Und nur zur Übung verengen wir auch für Punkt 3 mal den Blick auf die Entscheidung in Deutschland “vorhandenen Reaktoren einfach 30-50 Jahre weiterbetreiben” oder “wie geplant aussteigen” – die deutschen Kraftwerke sind schon da und gebaut, also in Nullzeit verfügbar. Sie stillzulegen und auszusteigen ist in diesem Kontext wohl die dümmstmögliche Entscheidung.

Kommen wir zu Punkt 4, der letztlich der Grund ist, warum ich die Anti-Atom-Bewegung für eine neulinke Bewegung von Ökomarxisten halte (denn, man erinnere sich, die Marxisten, Leninisten und Stalinisten alter Prägung waren ja allesamt für den technischen Fortschritt und damit unweigerlich auch Befürworter der Kernenergie): die Kernenergie verhindert die notwendigen Transformationsprozesse hin zu einer klimaneutralen Stromerzeugung. Das ist nun eine so enddämliche Aussage, da weiß man gar nicht wo man anfangen soll. Nehmen wir an, ich habe eine beliebige Menge Geld zur Verfügung (und das muss man ja annehmen, sonst kann die Energiewende deutscher Prägung ja gar nicht stattfinden). Meine derzeitige Stromproduktion besteht immer noch zu einem großen Teil aus Kohlekraftwerken. Warum sollte eine Technologie A, die preiswerter ist als eine Technologie B, aber genauso CO2-frei ist, einen Transformationsprozess hin zu CO2-freier Stromerzeugung verhindern? So dumm kann man doch gar nicht sein. Und deshalb vermute ich dahinter Kalkül: der feuchte Traum der neulinken Ökomarxisten ist eine energetisch verarmte Bevölkerung, ohne jeden Komfort und Luxus, der nur noch der Nomenklatura zur Verfügung steht. Nur dann machen die Aussagen halbwegs Sinn. Wer Kernenergie als Lösungsmöglichkeit der angeblich so tödlichen Klimakrise ablehnt, auch wenn aus unerfindlichen Gründen sie nur 50% der Lösung sein kann, ist schlicht ein Menschenfeind. Oder er glaubt in Wahrheit gar nicht an die Klimakrise und will nur eine Ideologie von Hunger und Armut für alle (auch als “Sozialismus” bekannt) durchsetzen und sieht in sinnloser Geldverschwendung in erneuerbare Energien ein geeignetes Vehikel.

Soweit der traurige Abriss zum Artikel in SPIEGEL Online. Das Relotius-Blatt in Hochform, Respekt. Selten so viele Lügen und Falschaussagen mit so wenig Text geschafft. Die Autorin Viola Kiel sollte hoffen, dass sie unter einem Pseudonym veröffentlicht, und dass sie nun dank des Feedbacks auch der Kommentatoren bei SPON gelernt hat, dass es manchmal von Vorteil sein kann, von einer Sache, über die man schreibt, wenigstens so viel Ahnung zu haben, dass man Propagandapapiere wie das von der “Scientists For Future” wenigstens kritisch hinterfragen sollte.

Nun zu Beweisstück 2, vom SPON-Konkurrenten Focus Online mit dem Titel “Vor- und Nachteile von Atomstrom” publiziert, ebenso irreführend platziert unter der Rubrik “Praxistipp”. Immerhin hat man sich dort bemüht, nicht nur die Nachteile, sondern auch die Vorteile der Kernenergie aufzulisten. So weit, so lobenswert – verfolgt man die deutsche Medienlandschaft, ist es ja quasi unmöglich, mal über einen Beitrag zu stolpern, der tatsächlich Vorteile von Kernenergie zu behaupten wagt. Die genannten Vorteile jedenfalls sind valide und halten auch näherer Betrachtung stand. Aber bei den aufgelisteten Nachteilen werden leider wieder die schon tausendmal widerlegten Behauptungen aus der Mottenkiste des Ökomarxismus herausgeholt. Die oben schon widerlegten Behauptungen in Punkto Sicherheit, Proliferation und Abfall/Endlagerung lasse ich mal aus, denn es folgen noch zwei nicht minder populäre Argumente aus der Antiatomschwurblerszene.

Da ist zum einen die behauptete Inflexibilität von Kernkraftwerken, die angeblich nicht in eine “dynamisches Energiesystem” passen, um die “gewissen Schwankungen” der Einspeisung erneuerbarer Quellen wie Wind, Wasser und Sonne auszuregeln. Liebe Antiatomschwurbler, was ihr hier beschreibt ist ein gravierender Nachteil von Erneuerbaren Energien, aber die Kernenergie könnte trotzdem euren Arsch retten, weil die Reaktoren keineswegs prinzipbedingt immer “volle Power” laufen müssen. Nein, man ist völlig frei darin, sie als zuverlässige Grundlastbereitsteller zu nutzen (was naheliegt, weil die Investitionskosten relativ hoch sind und die Betriebskosten relativ niedrig, jedenfalls niedriger als für alle anderen regelbaren Formen der Stromerzeugung), oder im Lastfolgebetrieb um den Zappelstrom aus den dargebotsabhängigen Quellen auszuregeln. Moderne Kernkraftwerke sind nämlich ausgezeichnet regelbar, mit sehr steilen Leistungsgradienten. Da kann man innerhalb von Minuten von 50% auf 100% und wieder zurück regeln ohne mit der Wimper zu zucken. Dazu der netzstabilisierende Faktor “rotierende Massen” durch die großen Turbinen. Bleibt natürlich die Frage, warum man überhaupt die zum Betrieb eines stabilen Stromnetzes problematischen Windkraft- und Photovoltaik-Anlagen noch haben will, wenn man ausreichend Kernkraftwerke zur Verfügung hat, die in wirklich allen Belangen den “Renewables” – im englischen Sprachraum oft auch als “Unreliables” bezeichnet – vorzuziehen sind. Masochismus?

Dann kommt noch das für erfahrene Kerntechnik-Befürworter ebenso erwartbare wie falsche Argument der Endlichkeit des Kernbrennstoffs. Ja, Uran ist endlich. Thorium auch. Irgendwann wird unsere Sonne zum roten Riesen und sowohl Windkraft als auch Photovoltaik werden keinen Strom mehr erzeugen. Ja, Beton und Stahl und was-auch-immer sind ebenfalls endlich. Aber die entscheidende Frage ist doch: wann ist Schicht im Schacht? Für Uran ist das noch nicht mal am Horizont abzusehen. Die statische Reichweite (also als zu derzeitigen Marktpreisen gesichert abbaubare Reserven) beträgt derzeit rund 50 Jahre, wie schon seit den 70ern des letzten Jahrhunderts. Damals hat man einfach die Exploration eingestellt, weil man einfach überall auf der Welt Uran gefunden hat. Die Japaner haben es sogar noch weiter getrieben und haben die Extraktion von Uran aus Meerwasser zur Marktreife gebracht – verdoppelt sich der Natururanpreis (was auf den aus Kernenergie erzeugten Strom kostentechnisch sich quasi gar nicht auswirkt, weil der Preis von Natururan nur im einstelligen Prozentbereich zu den Stromgestehungskosten beiträgt), wird deren Methode schon kostendeckend, und der Nachschub von Uran im Meerwasser ist quasi-unendlich. Nicht zu vergessen die Möglichkeit, mit Brutreaktoren neues spaltbares Material aus Thorium-232 oder Uran-238 zu erzeugen. Und natürlich den riesigen Reserven, die in unserem “Atommüll” stecken und nur darauf warten gehoben zu werden. Mit der WAA Wackersdorf und dem SNR in Kalkar hatte Deutschland das perfekte Konzept für einen geschlossenen Brennstoffkreislauf – aber die Anti-Atom-Lobby der Pseudo-Ökos konnte natürlich eine Lösung für das Endlagerproblem nicht zulassen und malte den Teufel der Plutoniumwirtschaft an die Wand.

Aber selbst wenn man jetzt mal alle Brutreaktoren dieser Welt außer Acht lässt, den deutschen Atommüll unbedingt unangetastet lassen will und postuliert, dass der Rest der Welt uns kein frisches Uran mehr liefern will – selbst dann könnte man mit den bekannten Uran-Lagerstätten den kompletten deutschen Bedarf für eine Energievollversorgung locker decken. Mit anderen Worten: zumindest für eine noch zu bauende neue Kernkraftwerksgeneration gäbe es mehr als genug einheimischen Brennstoff. Warum sollte uns die Situation in 100 oder 200 Jahren bezüglich der Uran-Versorgungssituation kümmern, wo uns das Klima doch angeblich heute oder zumindest in allernächster Zukunft um die Ohren fliegt? Warum eine Lösung ablehnen, die uns im schlechtesten Falle “nur” 100 Jahre Zeit verschafft? Wie alle Antiatomschwurblerargumente ergibt auch das vom knappen Uran einfach überhaupt gar keinen Sinn.

Ebenfalls erwähnen will ich einen exklusiv im/für den Focus Online-Artikel mit außerordentlicher Kreativität erfundener, nahezu einzigartiger Nachteil von Kernkraftwerken: sie können tatsächlich – im Gegensatz zu allen anderen Energieerzeugern wie Windkraftanlagen, Wasserkraftwerken oder Photovoltaikanlagen – nicht unendlich lange laufen sondern müssen irgendwann ersetzt werden. Skandal! So ein Kraftwerk aus den 70ern oder 80ern muss doch tatsächlich nach 60 bis 80 Betriebsjahren stillgelegt werden! Nicht zu fassen. Ganz im Gegensatz zu den allseits bekannten Windkraftanlagen, die meisten davon bekanntlich seit dem Mittelalter oder sogar noch von den alten Römern gebaut. Was bleibt einem bei so einer Argumentationsqualität übrig außer Ironie und Sarkasmus?

Kommen wir zum Abschluss zum Bereich “Glaskugel”. Ich halte den Ausstieg aus der Kernenergie hierzulande für nicht aufzuhalten, da mögen alle guten Argumente der Welt für einen Weiterbetrieb der letzten 6 Kernkraftwerke sprechen. Ich glaube sogar, dass das Anti-Atom-Denken in Deutschland so erfolgreich über die Jahrzehnte eingetrichtert wurde, dass selbst großflächige Stromausfälle in Zukunft niemals auf den Ausstiegsbeschluss zurückgeführt würden oder gar der Ausstieg wehmütig bedauert werden würde. Am Deutschen Wesen soll schließlich die Welt genesen, und Konsequenz nach Deutschem Muster heißt, auch einen Holzweg zu Ende zu gehen.

International hingegen ist die Renaissance der Kernenergie langsam im Kommen. China hat die letzten 20 Jahre Reaktor um Reaktor gebaut, Länder wie die Vereinigten Arabischen Emirate sind neu eingestiegen, in den USA haben Reaktorneubauten durch die explodierenden Gaspreise und die CO2-Bepreisung inzwischen wieder reelle Chancen, und in UK wird nach dem Brexit wieder ernsthaft über die Kernenergieoption nachgedacht – auch wenn dort die Mühlen eher langsam arbeiten, und der Weg zu den Reaktorneubauten dort eher lang ist. Ob die Ausbaupläne im Rest von Europa wie z.B. in Polen oder in Tschechien tatsächlich kommen werden – da bin ich unsicher. Durch die unbegrenzte Gelddruckerei der EZB sind auch absurd kapitalintensive Unterfangen wie Windkraftanlagen oder Photovoltaik zusammen mit den reichlich fließenden Subventionen ein risikoarmes Investment, so dass die EU eher weiter in Richtung Deindustrialisierung und Auslagerung der Produktion in ferne Länder fortschreiten wird.

Knackpunkt für eine echte Renaissance der Kernenergie sind meines Erachtens tatsächlich in der Praxis erprobte kleine modulare Reaktoren zwischen 50 und 500 MW. Die kann man überall netzverträglich integrieren, die sind inhärent sicher, die sind CO2-neutral, und wenn sie in Serie produziert werden auch preislich attraktiv. Vielleicht ist das US-Militär der notwendige Katalysator für diese Technologie, denn im IT-Zeitalter wird die zuverlässige und vor allem netzunabhängige Stromversorgung von Militärbasen immer wichtiger, und was könnte da einfacher, kompakter, sicherer und eleganter sein als ein kleines Reaktormodul, dass sich mit dem LKW oder gar per Hubschrauber an den Einsatzort transportieren lässt. Ob diese kleinen Reaktoren dann von NuScale oder TerraPower oder GEH oder Terrestrial Energy oder X-energy oder Rolls-Royce oder von allen genannten und ungenannten – vor allem chinesischen – Anbietern kommen, scheint erst mal sekundär. First-of-a-kind bauen, Betriebserfahrung sammeln, Serienproduktion starten. So, wie man es zur Anfangszeit der kommerziellen Leistungsreaktoren auch gemacht hat – mit dem Vorteil, dass man heute nichts mehr über Kernreaktionen dazulernen muss und auf vorhandene 60jährige Betriebserfahrung mit Leistungsreaktoren zurückgreifen kann.

Stand der Medienqualität

In zeitlicher Korrelation zum von Jörg Schönenborn vor etwa 10 Jahren geprägten Begriff der “Demokratie-Abgabe” für die monatliche “Zwangsgeldentrichtung ohne Anspruch auf Mehrwert”, wie der Rundfunkbeitrag besser heißen sollte, stelle ich ein rapides Absinken der Qualität der Berichterstattung in den klassischen Medien fest. Schon früher haben sich Journalisten ja durch gravierende Falschaussagen, dämliche Berichterstattung und blankes Nichtwissen um ihren einstmals – auf was auch immer begründeten – guten Ruf gebracht. Aber das erschien mehr punktuell als prinzipiell. Aber seit etwa 10 Jahren befindet sich das Qualitätsniveau in derart freiem Fall, dass man sich täglich fragt, wie denn das jetzt erreichte Niveau wohl noch unterboten werden kann. Am nächsten Tag weiß man es dann.

Nun gibt es seit einiger Zeit ja von der verpönten Seite des politischen Spektrums konkurrierende Begrifflichkeiten zu “Qualitätsmedien”, wie sich diverse Zeitungen und der öffentlich-rechtliche Rundfunk gerne nennen. Lügenpresse, Lückenpresse, Systemmedien, gesteuerte Presse, Regierungsfunk, Staatsfunk – die Liste ist lang. Vertreter dieser Medien machen seit ebenso langer Zeit gerne deutlich, dass sie natürlich völlig unabhängig agieren und niemals Weisungen oder auch nur Hinweise von staatlicher oder politischer Seite in ihre Propaganda ääääähhh Berichterstattung einarbeiten würden.

Gehen wir für einen kurzen Moment davon aus, dass unsere Qualitätsmedien an dieser einen Stelle tatsächlich die Wahrheit und nichts als die Wahrheit verkünden würden. Man braucht also eine alternative Erklärung dafür, dass Regierungshandeln zumindest in einigen Bereichen nicht kritisch begleitet, sondern meist wohlwollend berichtet und kommentiert wird, und stattdessen zuvorderst der einzigen echten Opposition das Leben schwer gemacht wird. Und tatsächlich: nach nur wenigen Minuten leichtem Nachdenken kommt man auf eine solche alternative Erklärung. Denn es gibt ein unabhängiges, aber gemeinsames Element zwischen Regierung, weiten Teilen der Politik und der Medien: abgrundtiefe Dummheit. Ja, das muss es sein. Die Regierung muss die Medien gar nicht steuern, und wäre auch viel zu blöd dazu. Mangels ausreichender geistiger Fähigkeiten ist es vielmehr ganz natürlich, dass die Medien die Arbeit von Regierung und Politik ganz dufte finden.

Gut, dass wir das geklärt haben. Aber seien wir ehrlich: am Endergebnis ändert das nichts. Denn das “race to the bottom” bezüglich der Qualität der Berichterstattung geht unvermindert weiter. Und bei einem existierenden Zwangssystem wie dem Rundfunkbeitrag, wo ein Korrektiv sei es demokratischer oder richterlicher Natur nicht mal in weiter Ferne in Sicht ist, ist die Hoffnung auf Besserung unbegründet. Mal sehen, ob wenigstens die Printmedien in Ruhe sterben dürfen oder ob der Staat noch ein paar neue Zwangssysteme erfindet, um diese Zombies am Leben zu halten. Steuern und Abgaben sind ja der letzte Hort politischer Kreativität.

Die geklaute Zukunft

Neulich in der Mittagspause: ich sitze gemütlich beim Steakhouse meines Vertrauens auf der Sonnenterasse, und es kommt der Demonstrationszug von “Fridays For Future” vorbei. Nur ein versprengter kleiner Haufen (Ferien – da ist die freitägliche Demoteilnahme natürlich nicht so attraktiv wie zur Schulzeit), mit einigen Teilnehmern bei denen man hofft dass sie ihre Schulzeit schon sehr lange hinter sich haben, aber um den bekannten Schlachtruf dem geneigten, aber unbeteiligten Zuhörer darzubieten reicht auch diese sparsame Anzahl: “Wir sind hier, wir sind laut, weil Ihr uns die Zukunft klaut!”

Zunächst muss ich bewundern, wie clever dieser Schlachtruf gewählt ist. Nicht nur gemäß des universellen Wahlslogans der Legende Dr. Udo Brömme (“Zukunft ist gut für uns alle”), auch weil der Spruch für jedes beliebige Thema taugt, nicht nur “Zukunft” – der Reim steckt schließlich woanders.

Nach einigem Nachdenken muss ich allerdings sagen: ja, der Jugend von heute wird tatsächlich von Politikern und ihren willigen Helfern allüberall in der Republik und dem Rest der Welt die Zukunft geklaut.

Beispiel EZB. Durch die fatale Nullzinspolitik wird nicht nur eine sichere Altersvorsorge stark erschwert, sondern auch die Marktwirtschaft unterhöhlt. Wenn Risiken nicht adäquat in Krediten abgebildet sind, wenn Staaten sich quasi grenzenlos verschulden können, versündigt man sich an der Jugend (und dem Steuerzahler) – denn die Schulden von heute sind die Steuern von morgen. Oder der Bankrott.

Beispiel Energiewende. Wenn man tatsächlich Klimaschutz betreiben will, dann sollte man Instrumente wählen, die eine möglichst effiziente CO2-Reduzierung ermöglichen. Das genaue Gegenteil ist der Fall: ineffiziente Technologien werden subventioniert, CO2-freie und preiswerte Kraftwerke werden zwangsweise stillgelegt, Ergebnis sind horrende Kosten und quasi Stillstand bei der CO2-Reduzierung.

Beispiel Ausbildung. Durch das Anbieten von zahllosen Studienplätzen für Orchideenfächer ohne Chance auf spätere Mehrwertgenerierung wird ein großer Teil der nachwachsenden Generation zu dauerhaft zu subventionierenden staatsabhängigen Idioten ausgebildet. Dafür fehlt es an ausgebildeten Arbeitskräften in den für die Gesellschaft wirklich entscheidenden Bereichen, vom Handwerker über medizinische Berufe bis zum Ingenieur. Dazu die absurd hohe Abitursquote nebst Studienquote, was generell (siehe auch das Gejammer über die angeblich furchtbar schweren Mathe-Abi-Aufgaben, die doch gemessen an dem, was noch in den 90ern des vorigen Jahrhunderts gefordert wurde, eher unterkomplex wirken) zu einem sinkenden Ausbildungsniveau führt.

Beispiel Regulierungsdichte. Die katastrophal hohe Staatsquote in Deutschland ist auch den überkomplexen Regulierungen geschuldet. Jedes Gesetz verursacht Kosten, sowohl bei denen, die sich daran halten müssen, als auch bei denen, die die Einhaltung überwachen müssen. Dazu die daraus erwachsenden Schmarotzerbranchen, die man ohne diese Gesetze gar nicht bräuchte – von den Juristen bis zu den Beratern – und die sich dann stattdessen produktiveren Dingen widmen könnten.

Beispiel Rentenversicherung. Die Politik war da auf einem nicht allzu schlechten Pfad, nach den wegweisenden Reformen ab Mitte der Neunziger bis zu Franz Münteferings “Rente mit 67”. Aber seither gab es nur noch ultrateure Katastrophenreformen, von der abschlagsfreien Rente mit 63 über die Mütterrente mit ihren sehr merkwürdigen Regeln für wen sie gelten sollen bis zum jüngsten Projekt “Respektrente”. Hier werden gigantische Kostenblöcke für die Zukunft aufgebaut, die von der jungen Generation aufgrund der Demographie und der mangelhaften Ausbildung in der Breite schlicht nicht bedient werden können.

Beispiel Umwelt. Während beginnend in den 70ern des vorigen Jahrhunderts hauptsächlich sinnvolle Dinge vorangebracht wurden – Abgasreinigung bei Fahrzeugen und Kraftwerken, Abwasserreinigung zum Sauberhalten unserer Gewässer, Müllverbrennung statt Deponierung – scheint man jetzt hauptsächlich teure Pseudo-Umweltschutz-Maßnahmen zu favorisieren. Man schaue sich den – nicht zuletzt von der Politik herbeisubventionierten – Trend zur Bio-Landwirtschaft an. Komplett kontraproduktiv, weil aufgrund höherer Flächenintensität schlecht für Naturschutz, Insekten und CO2-Bilanz. Dazu dank merkwürdiger Vorschriften zu Düngung und Pflanzenschutz ebenfalls katastrophal für Naturschutz, Insekten, Grundwasser und so weiter.

Grund für Optimismus sehe ich derzeit nicht. Im Fokus der Debatte scheinen CO2-Reduktion (gegen den Klimawandel – hält man ihn denn für problematisch und bekämpfenswert – wird weder Deutschland noch die EU alleine nichts tun können, und wir werden nicht als leuchtendes Vorbild dienen für die Hauptverursacher China, Indien und USA – diese Vorbild-Idee ist auch schon bei Windkraft und Photovoltaik nachhaltig gescheitert), Plastikvermeidung, Reduzierung der Massentierhaltung, Schutz von Insekten und Bio-Landwirtschaft. Schlechte und teure Lösungen für doch vergleichsweise kleine Probleme. Ich würde sie allesamt für politische Ablenkungsmanöver halten, weil es schon immer in der Natur der Politik lag, plakative Lösungen für Nicht-Probleme zu propagieren. Leider fehlt es an der entsprechenden Medienlandschaft, um das Treiben der Politik hier kritisch zu begleiten. Leider scheint das Problem der Bildungsmisere im Journalismus als erstes angekommen zu sein.

5G und autonomes Fahren

Jede Zeit hat ihre Hypes. Aus meiner Sicht gibt es momentan ein paar ganz gewaltige Hypes, die weitgehend unkritisch und unreflektiert von den Qualitätsmedien in die Welt hinausposaunt werden. Digitalisierung, Industrie 4.0, Klimakatastrophe, Elektroautos. Zwei will ich hier verbindend unter die Lupe nehmen: “5G”, der kommende Mobilfunkstandard, der vor allem deutlich schnellere Datenübertragung ermöglichen soll, und “autonomes Fahren”, worunter ich ausschließlich “Level 5” verstehe – Level 1 bis 2 haben wir eh schon, Level 3 bis 4 sind zwar schön aber nicht besonders viel nützlicher, und quasi alle Vorteile, aller Nutzen dieser Technologie wird erst bei Level 5 zur Verfügung stehen. Wer sich unter diesen Levels nichts vorstellen kann: hier der Wikipedia-Artikel, Abschnitt “Autonomiestufen” lesen.

Wann immer in der letzten Zeit – aber natürlich vor allem im Zusammenhang mit Trumps Huawei-Geschichte, manchmal aber auch beim Feststellen der diversen dramatischen Infrastrukturmängel bezüglich mobilen Internets in Deutschland und Europa – von 5G die Rede war, wurde fast immer im selben Atemzug darauf hingewiesen, dass 5G quasi die Basistechnologie für die Zukunft sei, insbesondere auch für das autonome Fahren.

Nichts könnte beunruhigender sein.

Wenn ernsthaft das Vorhandensein von 5G die Voraussetzung für autonomes Fahren sein soll, dann heißt es: niemals in so ein Auto steigen. Absolute Vorsicht ist geboten (vor allem natürlich in Deutschland, wo man nicht mal 2G flächendeckend zur Verfügung hat).

Warum ist das so? Autonomes Fahren ist letztlich eine Aufgabe für KI, für “künstliche Intelligenz”. Dazu bedarf es einer ausreichenden Sensorik, um ein “Bild” von den Geschehnissen außerhalb des Fahrzeugs, vor allem natürlich in Fahrtrichtung, zu haben. Spurverlauf, Hindernisse, Kreuzungen, Verkehrsschilder, Lichtsignalanlagen, andere Verkehrsteilnehmer.

So weit, so kompliziert. Man denke an Schlechtwettersituationen, an die üblichen Spontanbaustellen mit sich widersprechenden Spurkennzeichnungen, optimistische Verkehrsteilnehmer, spielende Kinder. Immer im Kopf behalten: wir reden von Level 5, also ohne Eingriffsmöglichkeit der Mitfahrer, man hat das Lenkrad und andere notwendigen Steuerelemente ja schon aus dem Fahrzeug verbannt. Und vielleicht hat ja nicht mal ein Mitfahrer einen Führerschein.

Nun kommt die KI ins Spiel: dieses “Bild” muss man nun “verstehen”. Welche Spur führt wohin. Welche Ampel gehört zu welcher Spur. Blinkt das Fahrzeug vor mir nur zum Spaß oder wechselt es die Spur. Auf welche Spur muss ich wechseln um zum Ziel zu gelangen, auch wenn der direkte Weg vielleicht durch eine Umleitung versperrt ist. Gibt es da ein Hindernis auf meiner Fahrspur, obwohl die Ampel grün zeigt. Will der Fußgänger am Rande des Zebrastreifens diesen auch benutzen oder geht er vorbei. Darf ich hier parken. Steht die Fähre schon da und kann ich drauffahren. Ist diese Lücke groß genug für einen gefahrlosen Spurwechsel. Wird das Kind gleich seinem Ball auf die Straße folgen.

Quizfrage: für welche dieser Aufgaben braucht es – zwingend, wie es gerne von den Qualitätsjournalisten suggeriert wird – eine Vernetzung zwischen Verkehrsteilnehmern, eine Datenverbindung zu irgendwelchen Servern? Hoffentlich keine einzige – denn sonst müssten ja bei einem Ausfall dieser Vernetzung sofort alle autonom fahrenden Fahrzeuge stehenbleiben, in Bereichen ohne 5G-Abdeckung könnten solche Fahrzeuge niemals fahren.

Mit anderen Worten: die Verknüpfung von “5G” und “autonomem Fahren” ist Mumpitz. Das eine hat mit dem anderen rein gar nichts zu tun. Außer, dass man eine vage Hoffnung haben kann, dass beides möglichst schnell in der Realität zur Verfügung steht. Während ich bei 5G da für die nächsten 10 Jahre zumindest für die Ballungsräume keine größeren Hindernisse sehe (es sei denn, die “Strahlenangst” in der Bevölkerung nimmt demnächst ähnliche Ausmaße an wie die Klimaangst), bin ich bei “Autonomes Fahren Level 5” extrem skeptisch. Tesla hat “2020” als Zieltermin aufgerufen, das halte ich für völlig absurd, innerhalb von einem Jahr von “recht schlecht funktionierendes Level 1-2” auf “immer funktionierendes Level 5” zu springen. Gefühlsmäßig ist Level 5 etwa 10x schwerer als Level 4, und Level 4 etwa 2x schwerer als Level 2. Angesichts der 20 Jahre, die es von prä-Level 1 auf Level 2 gedauert hat, bräuchte es schon mehrere disruptive Durchbrüche, vermutlich sowohl bei Rechenleistung als auch Sensorik als auch KI, um das in sagen wir den nächsten 50 Jahren für die breite Masse bezahlbar hinzukriegen.

Es bleibt spannend.