Klimaschutz und Kernenergie

Schon in verschiedenen Beiträgen in diesem Blog habe ich mich dem Thema Klimawandel sowie mit der Kernenergie beschäftigt. Gerne auch in Kombination, weil mir die Idiotie der Argumentation “Klimakatastrophe – größtes Problem der Menschheit” in Verbindung mit “Kernenergie darf nicht Teil der Lösung sein” regelmäßig ins Auge springt. Im Aufgalopp zu “Glasgow”, der neuesten Auflage des allseits bekannten und beliebten “Klimagipfels”, dessen erste weithin bekannte Inkarnation “Kyoto” mit dem beinahe ebenso bekannten “Kyoto-Protokoll” endete, gab es nun wieder Rauschen im Blätterwald, weil sich einige – inklusive des sonst hochheiligen IPCC – doch tatsächlich erdreisteten, zur Bekämpfung des nahenden Klimatods eine technische Lösung namens “Kernenergie” ins Spiel zu bringen. Für Deutschland als Kernenergieaussteigernation Nr. 1 natürlich besonders brisant, gibt es hierzulande doch noch ein paar völlig problemlos laufende, preiswerte, abgeschriebene und noch verhältnismäßig junge Kernkraftwerke, die man ja doch relativ problemlos weiterbetreiben könnte, um z.B. damit Kohlestrom zu substituieren.

Ich will mich an zwei Exemplaren von Berichterstattung durch typische Kernenergie-Contra-Argumente kämpfen und vor allem damit den Stand der Sachdiskussion betrauern, der seit “Tschernobyl – wir werden alle sterben” zumindest in Deutschland unverändert zu sein scheint.

Beweisstück 1: SPIEGEL Online veröffentlichte im Bereich “Wissenschaft” ein reines Meinungs- und Propagandapamphlet mit dem schon die Erwartungshaltung bezüglich der Neutralität des Artikels absteckenden Titel “Atomkraft? Nein, danke, wirklich nicht”. Basis dieses Artikels ist ein “Diskussionsbeitrag” genanntes fast 100 Seiten starkes Pamphlet der selbstverständlich in der Sache völlig neutralen Forschungsgruppe der “Scientists for Future”. Eine der Autoren ist die allseits bekannte EE-Propagandistin Claudia Kemfert, die über die Jahre ausreichend unter Beweis gestellt hat, dass man sie zu Sachfragen besser nicht befragen sollte – wobei, ihre Diskussionsbeiträge sind dahingehend wertvoll, dass man mit einiger Sicherheit davon ausgehen kann, dass das glatte Gegenteil ihrer Behauptungen richtig ist. Wer den Bericht in voller Schönheit konsumieren will – hier ist die Zusammenfassung, hier die Langversion.

Was also sind diese Murmeltiertag-Argumente, die immer wieder in die Diskussion eingebracht werden?

Punkt 1: die Sicherheit. Klar, da werden die Klassiker “Three Mile Island”, “Tschernobyl” und “Fukushima” aufgefahren. Abgesehen von der Tatsache, dass ganze drei seriöse Unfalle in 60 Jahren Kernenergienutzung doch für ein unglaublich hohes Sicherheitsniveau sprechen, und auch die offiziellen Statistiken wie die “Lost Workers Per Day” eindeutig sagen, dass von allen Energieerzeugungsarten inklusive Windkraft und Photovoltaik die Kernenergie die mit Abstand sicherste ist, lohnt es sich, die drei Unfälle im Detail anzuschauen. Die Teilkernschmelze im Reaktor 2 in Harrisburg kannte nämlich nur einen Geschädigten: den Betreiber. Außerhalb des Kraftwerks passierte genau gar nichts. Oh, da haben wir aber Angst: einer der drei schlimmsten Reaktorunfälle aller Zeiten forderte genau 0 Todesopfer. Der nebenan stehende Reaktor 1 lieferte noch vier weitere Jahrzehnte Strom. Blick auf Fukushima, den Auslöser einer neuen Hysteriewelle gegen die Kernenergie hierzulande inklusive sofortiger Abschaltung diverser Kraftwerke und Einsetzen einer “Ethikkomission”, die den Ausstiegsbeschluss unterfütterte: hier ist es wichtig, die Auswirkungen des Reaktorunfalls ins Verhältnis zu setzen mit den Auswirkungen des den Unfall auslösenden Ereignisses: ein starkes Erdbeben gefolgt von einem Tsunami. Todesopfer des Tsunami: vermutlich 20000. Todesopfer des Reaktorunfalls: 2 Arbeiter. Vermutete langfristige Opfer der freigesetzten Strahlung: 0 – die am stärksten strahlenbelasteten Menschen waren Arbeiter des Kraftwerks, mit einer Strahlendosis von wenigen hundert Millisievert. Zum Zeitpunkt des Tsunami war der Platz innerhalb des Kraftwerks der Sicherste im Bereich der Küste. Wir halten fest: Fukushima zeigt uns, dass selbst bei Schlamperei des Betreibers (Schutzmaßnahmen gegen Tsunamis vorhersehbarer Größe unzureichend) und bei einem wirklich uralten Reaktors (GE BWR Mark I – Design aus den 60ern) selbst eine dramatische Naturkatastrophe kein wirkliches Problem darstellt. Weiterer Beweis in der Sache: die Reaktorblöcke des benachbarten Kernkraftwerks Fukushima Daini haben diese Naturkatastrophe unbeschadet überstanden und hätten, wenn die Politik nicht anders entschieden hätte, direkt nach Erdbeben und Tsunami den Betrieb weiterführen können. Blickt man leidenschaftslos auf den Tsunami-induzierten Reaktorunfall von Fukushima, kann man schlussfolgern, dass selbst bei einem alten Reaktor, der an einer ungünstigen Stelle steht, der mit sehr knappen Notstromreserven ausgestattet ist, dessen Notstromgeneratoren nicht ausreichend verbunkert sind, der weder mit heute üblichen (und bei den meisten Kernkraftwerken, insbesondere allen deutschen KKWs nachgerüsteten) katalytischen Rekombinatoren zur Vermeidung der Ansammlung von Wasserstoff oder gefilterter Ventilationsmöglichkeit zur Druckentlastung des Sicherheitsbehälters ausgestattet ist, das Risiko einer erheblichen Freisetzung des radioaktiven Inventars extrem gering ist.

Bleibt also Tschernobyl. Zweifellos ein seriöser Reaktorunfall – wenn auch mit insgesamt überschaubaren Auswirkungen was Leib und Leben angeht, vermutlich wird die Opferzahl auch langfristig im vierstelligen Bereich bleiben – allerdings unter besonderen Bedingungen, die man bei der Bewertung der Gefahren der Kernenergie berücksichtigen sollte. Man stellt ja auch den PKW-Verkehr nicht ein, nur weil ein Trabbi sehr wenig Schutz für die Insassen und Fußgänger bietet und einen sehr langen Bremsweg hat. Und da hat der havarierte RBMK-Reaktor von Tschernobyl einige unglückselige Alleinstellungsmerkmale wie den positiven Dampfblasenkoeffizient, das Fehlen entscheidender Schnellabschalteinrichtungen, die Moderation durch (brennbares) Graphit, das Fehlen eines Sicherheitsbehälters, ein unzureichendes Containment…die Liste ist lang. Dazu kam das von höchster politischer Stelle beauftragte Reaktorexperiment, das eine geschulte und geübte Bedienmannschaft, wie sie in Reaktoren westlicher Bauart und vor allem in Deutschland vorausgesetzt werden kann, niemals so durchgeführt hätte. Garniert wird die Reaktorkatastrophe noch durch den menschenverachtenden Charakter des zentral gesteuerten Marxismus Moskauer Prägung, der die Auswirkungen der Katastrophe nochmals schlimmer machte. Keine zeitnahe Evakuierung, keine Katastrophenvorsorge, kein Plan für den Ernstfall. Unterm Strich bleibt also eine Katastrophe aufgrund einer um Größenordnungen unsicherer Reaktorbauart im Verbund mit gnadenloser Menschenverachtung eines alles kontrollierenden Staatswesens ohne wirksame Risikovorsorge. Wenn es jemals eine Unvergleichbarkeit von technischen Konzepten gegeben hat, dann “RBMK” vs. “Leichtwasserreaktor westlicher Bauart”.

Wichtig ist aber auch: selbst unter Berücksichtigung des Tschernobyl-Unfalls bleibt die Kernenergie eine ungeschlagen sichere und saubere Art der Stromerzeugung. Kernenergie ist vermutlich die einzige Technologie, die nicht mal der Kommunismus durch dramatisches Unterbieten von sinnvollen Mindeststandards im Durchschnitt ins Minus bringen konnte.

Bezüglich der Sicherheit wird auch die alte Schimäre “Proliferationsrisiko” bemüht. Hintergrund ist, dass für die Produktion atomwaffenfähigen Materials zwar prinzipiell Kernreaktoren geeignet sind. Schaut man aber näher ins Detail, fallen zwei Dinge ins Auge: erstens die Entstehung der ersten Kernwaffen der fünf initialen Atomwaffenstaaten USA, UdSSR, Großbritannien, Frankreich und China. Keiner der Staaten verwendete kommerzielle Leistungsreaktoren, um sein Uran oder Plutonium für Atombomben zu erzeugen, sondern entweder reine Urananreicherung (so auch später Pakistan und Indien, und so wird es auch der Iran machen) oder spezielle Reaktoren, die darauf ausgelegt sind, tatsächlich möglichst reines Plutonium-239 zu erbrüten ohne die hässliche Eigenschaft von Leichtwasserreaktoren, die Chose mit reichlich Plutonium-240 zu verunreinigen, das den Isotopenmischmasch für den Bombenbau unbrauchbar macht. Oder anders ausgedrückt: gängige Reaktoren zur Stromerzeugung sind ganz ganz schlecht zur Erzeugung von waffenfähigem Material geeignet. Wen da wirklich noch Restzweifel beschleichen, der stellt interessierten Staaten einfach den kompletten Brennstoffkreislauf zur Verfügung und lässt vor Ort nur die Reaktoren betrieben, damit ist dieses Schreckensszenario endgültig mit einer Wahrscheinlichkeit von unter 0 zu bewerten. Oder mal die Kanadier fragen – deren CANDU-Reaktoren benötigen nicht mal angereichertes Uran, sondern laufen mit Natururan, so dass sogar dieses Minimalrisiko ausgeschlossen werden kann.

Natürlich darf auch die angeblich ungelöste Endlagerung im bunten Reigen der Pseudo-Argumente nicht fehlen. Ein Problem, das andernorts – z.B. in Finnland – bekanntlich längst gelöst ist, prinzipiell sehr einfach lösbar ist wenn man Kernenergie-Abfälle einfach gemäß ihrer Gefährlichkeit wie anderen konventionellen Giftmüll behandeln würde, oder alternativ endlich schnelle Reaktoren zur Verwertung dieses “Abfalls” bauen würde. Da sind uns inzwischen sogar die Russen voraus, nachdem wir in Deutschland zwar einen geeigneten schnellen Brutreaktor fertig gebaut haben, aber dann vorsichtshalber nicht in Betrieb genommen haben. Auch in Deutschland hat man ja ein sehr gutes Endlagerkonzept – wenn man auf “direkte Endlagerung” steht – und noch niemand konnte schlüssig begründen, warum der Salzstock in Gorleben (oder praktisch jeder andere unberührte Salzstock in Deutschland oder die zahlreichen Granitgesteinsformationen ähnlich der finnischen Lösung) kein geeignetes Endlager sein soll, aber es wird politisch seit Jahrzehnten verhindert, weil die Anti-Kernkraft-Lobby natürlich eines ihrer Hauptargumente in Gefahr sieht. Nicht, dass ein paar Castorbehälter in einer Lagehalle a la Zwischenlager Gorleben oder Ahaus ein Problem wären – ja dann stehen die halt ein paar Jahrhunderte dort drin, wen kümmert das schon? Gegenüber der Endlagerung von dauerhaft giftigen Stoffen hat der atomare Abfall immerhin den Charme, dass er über die Zeit sehr viel weniger gefährlich wird.

Zuletzt natürlich auch noch das Versicherungsargument – angeblich sind die Schäden aus einem Kraftwerksunfall ja so groß, dass gar keine Versicherung dagegen möglich oder denkbar ist. Dubios, denn gerade in Deutschland sind die Schäden eines hypothetischen Unfalls selbstverständlich versichert, weltweit wäre das aufgrund des sehr seltenen Ereignisses “Kraftwerksunfall mit Außenwirkung” natürlich auch kein Problem, aber allerorten verhindern staatliche Regulierungen eine solche marktwirtschaftliche Lösung. Weltweit agierende (Rück-)Versicherer haben ganz andere Risiken abgesichert, dagegen ist ein Unfall Marke “Three Mile Island” oder “Fukushima” ein Kleinkleckerlesbetrag. Und wenn man sieht, wieviel CO2 durch die Kernenergie bisher schon vermieden wurde, wird die finanzielle Haben-Seite der Kernenergie selbst im Angesicht eines jährlich stattfindenden schwerwiegenden Unfalls immer noch erklecklich sein. Wenn man dann noch bedenkt, wieviel sicherer moderne Kernkraftwerke gegenüber ihren schon sehr sicheren und zuverlässigen Geschwistern der Baujahre 1960 bis 1990 sind, bleibt nur die Erkenntnis, dass Sicherheits- und Kostenerwägungen ganz sicher nicht gegen die Kernenergie sprechen.

Warum der Spiegelartikel auch noch behauptet, dass die neue Generation der SMRs (“Small Modular Reactors”) keinen relevanten Sicherheitsgewinn bringen würden, obwohl diese allesamt so konstruiert sind, dass ein Unfall mit Freisetzung radioaktiver Stoffe physikalisch ausgeschlossen ist – vermutlich schlägt hier die Relotius-Ader des Blattes wieder durch. Eine schändlichere Lüge wurde selten zu Buchstaben geformt. Oder steckt dahinter in Wahrheit die Erkenntnis, dass auch heute betrieben konventionelle Leichtwasserreaktoren bereits sehr sicher sind, und es deshalb gar keinen signifikanten Sicherheitsgewinn zu geben braucht und geben kann?

Wenn man den Sicherheitsaspekt mal auf die Frage verengt, ob Deutschland seine vorhandenen Reaktoren einfach 30-50 Jahre weiterbetreiben soll oder wie geplant aussteigen soll, stellt sich schnell die Erkenntnis ein: weiterbetreiben ist die einzig sinnvolle Entscheidung. Das Endlagerproblem, selbst wenn es existiert, wird dadurch nicht schlimmer. Das Proliferationsrisiko ist bei Reaktoren unserer Bauart nicht mal denkbar. Die Sicherheitshistorie der deutschen Reaktoren ist makellos, ihre Zuverlässigkeit vorbildlich. Bedenken gegen den Weiterbetrieb sind allesamt hypothetischer Natur, ähnlich einer Ablehnung der Windkraft mit dem Hinweis, dass es ja nicht auszuschließen sei, dass ab morgen in Deutschland nur noch sehr schwacher Wind wehen wird. Oder die Ablehnung der Photovoltaik mit der Befürchtung, dass ab morgen immer dunkel ist.

Kommen wir zu Punkt 2 – die Wirtschaftlichkeit. Zunächst lügt der Artikel sich zusammen, dass Kernenergie niemals wirtschaftlich war. Das stimmt insoweit, wenn man es mit Braun- oder Steinkohlekraftwerken vergleicht. Da wir ja aber den Klimawandel im Auge haben wollen, müssen wir die Kernenergie ja mit erneuerbaren Energien vergleichen, und da kann jeder an seiner Stromrechnung ablesen, was Sache ist: Kernenergie ist die einzig wirtschaftliche CO2-freie Stromerzeugungstechnologie, selbst heute, nachdem der Staat wirklich alles versucht hat, um mit überbordendem Regulierungsdrang die Kernenergie möglichst teuer zu machen. Wenn man sich anschaut, welche immensen Kosten durch die diversen Regulierungsbehörden wie die NRC in den USA entstehen – und das ohne merklichen Gewinn für die Sicherheit – wäre die Klimaschutzmaßnahme Nummer 1, endlich mal den ganzen Genehmigungsprozess für Kernreaktoren zu verschlanken und wieder auf ein Maß wie in den 70ern oder 80ern, der großen und erfolgreichen Zeit der preisgünstigen Reaktorneubauten, zurückzufahren. Früher konnte man einen GW-Reaktorblock für weniger als eine Milliarde Mark bauen und in Betrieb nehmen, heute wird eher der zehn- bis zwanzigfache Betrag fällig. Wenn jemand Angst vor Inflation hat, sollte er hier besser nicht so genau hinschauen. Und dennoch ist auch heute ein Neubau eines Kernkraftwerks unter entsprechenden Bedingungen ein gutes Geschäft, wenn man es mit CO2-freien Alternativen vergleicht.

Der Unterpunkt “aber die unbekannten Kosten für Rückbau und Endlagerung” wird natürlich auch immer gerne genommen, ist aber keinesfalls valide. Bezüglich Rückbau hat insbesondere Deutschland reichlich Erfahrung, weil wir bereits die Altlasten des real existierenden Sozialismus im Osten des Landes komplett zurückgebaut haben, und das war alles andere als teuer, wenn man es vergleicht mit dem Wert des erzeugten Stroms, selbst zu damaligen niedrigen Marktpreisen in Konkurrenz zur schmutzigen Braunkohle sozialistischer Prägung. Zur Endlagerfrage gilt das oben gesagte – nimmt man den einzig vernünftigen Weg der Nutzung des “Atommülls” als Brennstoff für schnelle Reaktoren, hat dieser Müll sogar einen Wert und verursacht gar keine Endlagerkosten. Bevorzugt man die direkte Endlagerung ohne Nutzung, sind aufgrund der sehr geringen Mengen die Kosten geradezu lächerlich niedrig, selbst bei pessimistischer Rechnung deutlich unter 1 ct/kWh bei Endlagerung nach Greenpeace-Standard.

Und verengen wir die Wirtschaftlichkeitsdebatte wieder auf die Frage, ob Deutschland seine vorhandenen Reaktoren einfach 30-50 Jahre weiterbetreiben soll oder wie geplant aussteigen soll, so kann die Antwort nur lauten “weiterlaufen lassen”. Die Kraftwerke stehen schon, der Betrieb ist äußerst kostengünstig, und weder für Rückbau noch für Endlagerung fallen bei einer Betriebszeit von 60-80 Jahren signifikant höhere Kosten an als bei einer Betriebszeit von etwa nur 34 Jahren wie im Falle von Neckarwestheim 2.

Punkt 3 – die Behauptung, ein Ausbau der Kernenergie käme zu spät für die Lösung der Klimawandelproblematik – ist besonders pikant. Seit Jahrzehnten versuchen Anti-Kernkraft-Lobbyisten, Sand ins Getriebe zu streuen. Jede Menge politische Entscheidungen wurden getroffen und Gerichtsverfahren angestrengt, um den Erfolg der Kernenergie zu verhindern. Man hat also das jetzt Kritisierte im Prinzip selbst verursacht und bejammert es jetzt. Scheinheiliger geht es ja gar nicht. Aber davon abgesehen ist die Aussage selbst im heutigen weitgehend totregulierten Kernreaktorbereich nicht die Wahrheit. Wenn man heute einen großen Kernreaktor ordert, egal ob in Russland, Südkorea, Japan oder USA, kann man – wenn man der juristischen Verzögerungstaktik der Feinde des Fortschrittes einen Riegel vorschieben kann – sich problemlos in 5-10 Jahren an einem neuen Reaktor erfreuen. Und mit jedem weiteren neuen Reaktor geht es schneller.

Ein praktisches Beispiel: die Vereinigten Arabischen Emirate haben quasi aus dem Stand – also bei gleichzeitigem Aufbau der Regulierungsbehörde und Schaffung aller Voraussetzungen für den Betrieb wie Ausbildung des Personals – mit Beginn 2012 bis Ende 2021/Anfang 2022 vier große Reaktorblöcke südkoreanischer Herkunft (KEPCO APR-1400) erfolgreich gebaut und in Betrieb genommen, zu je 1,4 GW elektrischer Leistung und einer vorgesehenen Betriebsdauer von je 60 Jahren. Und man erinnere sich zurück an den großen nuklearen Ausbau in Frankreich in den 80ern – eine Vielzahl von Reaktoren, die bis heute problemlos betrieben werden, haben Frankreich unter den Industrienationen zu der Nation gemacht, die den niedrigsten pro-Kopf-Ausstoß von CO2 hat. Warum sollte das heute nicht auch möglich sein? Der Einwand, man käme eh zu spät, ist derart unlogisch, dass nur ein verqueres Antiatomschwurblerhirn darauf kommen kann. Zumal man ja immer vergleichen muss mit der Alternative. Frankreich schaffte in den 80ern 12 große Druckreaktoren (Baubeginn 1980 bis 1982, Inbetriebnahme 1982 bis 1990), die Vereinigten Arabischen Emirate innerhalb von 10 Jahren 4 große Druckreaktoren – das entspricht einer Stromerzeugung von etwa 44 TWh pro Jahr zuverlässige Deckung der Grundlast, für die nächsten 60 Jahre. Wenn man wirklich will, geht es also, und das nachgewiesenermaßen. Hingegen ist eine zuverlässige und halbwegs bezahlbare Stromversorgung allein mit erneuerbaren Energien immer noch Wolkenkuckucksheim, und Subventionsweltmeister Deutschland hat es in 20 Jahren auf gerade mal dieselbe Stromerzeugung aus Photovoltaik gebracht – rund 40 TWh von Strom “wann immer gerade die Sonne scheint”. Zu dramatisch höheren Kosten als den vier Reaktorneubauten in den Emiraten versteht sich. Und das liegt nicht zuletzt an der Energie- und Rohstoffintensität der Herstellung von PV-Anlagen. Warum also gleichzeitig der schnelle Ausbau der Kernenergie unmöglich sein sollte während der Ausbau von Windkraft und Photovoltaik nebst notwendigen Backups – die sich einigermaßen kostenfreundlich noch nicht mal auf dem Reißbrett abzeichnen – gar kein Problem sein sollen, auch dafür braucht man wohl verqueres Antiatomschwurblerdenken mit zuverlässiger Plausibilitätsprüfungsunterdrückung.

Für die Zukunft ist natürlich zu hoffen, dass die Kerntechnische Industrie tatsächlich mal den großen Worten Taten folgen lässt und kleine kompakte Kernkraftwerke in Serie produziert. Die jetzigen großen Kraftwerke sind ja ein wandelndes Investitionsrisiko in Anbetracht staatlicher Neigung zum grundlosen Eingriff in Bau und Inbetriebnahme, und es sind quasi alles Einzelstücke, weil handgedengelt auf die jeweiligen lokalen Befindlichkeiten der Behörden. Wer sich wundert, warum man in den 60ern einen so rasanten Ausbau der Kernenergie vorausgesagt hatte und warum das gescheitert ist: das ist der Grund. Kleinstaaterei bei den Anforderungen und Genehmigungen, Regulierung so gestaltet dass die Kraftwerke, um kostendeckend zu sein, riesig und damit teuer und komplex sein mussten. Die US-amerikanische NRC beispielsweise hat lange Zeit für jeden zu genehmigenden Reaktor den gleichen Aufwand und die gleiche Summe berechnet – egal ob ein Riesenreaktor mit 1,4 bis 1,6 GW (typischer PWR ab Mitte der 80er) oder schmaler 80 MW-Microreaktor. Ein kleiner Reaktor hat vielerlei Vorteile: er kann eher im Lastfolgebetrieb arbeiten, er ist relativ einfach mit völliger passiver Sicherheit konstruierbar, weil die Restwärmeproblematik über passive Abführung derselben gelöst werden kann. Er muss nicht “on site” gebaut werden, sondern kann in der Fabrik in Serie gefertigt werden und vormontiert an seinen Standort transportiert werden. Er kann modular zugebaut werden je nach Bedarf. Er kann dezentral installiert werden und so auch zur Nahwärmeversorgung oder für Prozesswärmenutzung zur Verfügung stehen. Ja, denkt man an die schöne neue Welt der Elektroautos, würde so ein NuScale Power Module mit knapp 80 MWe perfekt zu einer Schnellladestation an einer Autobahnraststätte passen. Bei grob 300 kW pro Ladestation wäre das eine angemessene Größenordnung. Der geneigte Leser mag sich vorstellen, welche PV-Fläche für so ein Unterfangen notwendig wäre und wie viele Batterien man für den Fall “Nacht oder wolkig” als Backup vorhalten müsste, um dieselbe Leistung dieses kleinen, kompakten NPM zu erzielen.

Und nur zur Übung verengen wir auch für Punkt 3 mal den Blick auf die Entscheidung in Deutschland “vorhandenen Reaktoren einfach 30-50 Jahre weiterbetreiben” oder “wie geplant aussteigen” – die deutschen Kraftwerke sind schon da und gebaut, also in Nullzeit verfügbar. Sie stillzulegen und auszusteigen ist in diesem Kontext wohl die dümmstmögliche Entscheidung.

Kommen wir zu Punkt 4, der letztlich der Grund ist, warum ich die Anti-Atom-Bewegung für eine neulinke Bewegung von Ökomarxisten halte (denn, man erinnere sich, die Marxisten, Leninisten und Stalinisten alter Prägung waren ja allesamt für den technischen Fortschritt und damit unweigerlich auch Befürworter der Kernenergie): die Kernenergie verhindert die notwendigen Transformationsprozesse hin zu einer klimaneutralen Stromerzeugung. Das ist nun eine so enddämliche Aussage, da weiß man gar nicht wo man anfangen soll. Nehmen wir an, ich habe eine beliebige Menge Geld zur Verfügung (und das muss man ja annehmen, sonst kann die Energiewende deutscher Prägung ja gar nicht stattfinden). Meine derzeitige Stromproduktion besteht immer noch zu einem großen Teil aus Kohlekraftwerken. Warum sollte eine Technologie A, die preiswerter ist als eine Technologie B, aber genauso CO2-frei ist, einen Transformationsprozess hin zu CO2-freier Stromerzeugung verhindern? So dumm kann man doch gar nicht sein. Und deshalb vermute ich dahinter Kalkül: der feuchte Traum der neulinken Ökomarxisten ist eine energetisch verarmte Bevölkerung, ohne jeden Komfort und Luxus, der nur noch der Nomenklatura zur Verfügung steht. Nur dann machen die Aussagen halbwegs Sinn. Wer Kernenergie als Lösungsmöglichkeit der angeblich so tödlichen Klimakrise ablehnt, auch wenn aus unerfindlichen Gründen sie nur 50% der Lösung sein kann, ist schlicht ein Menschenfeind. Oder er glaubt in Wahrheit gar nicht an die Klimakrise und will nur eine Ideologie von Hunger und Armut für alle (auch als “Sozialismus” bekannt) durchsetzen und sieht in sinnloser Geldverschwendung in erneuerbare Energien ein geeignetes Vehikel.

Soweit der traurige Abriss zum Artikel in SPIEGEL Online. Das Relotius-Blatt in Hochform, Respekt. Selten so viele Lügen und Falschaussagen mit so wenig Text geschafft. Die Autorin Viola Kiel sollte hoffen, dass sie unter einem Pseudonym veröffentlicht, und dass sie nun dank des Feedbacks auch der Kommentatoren bei SPON gelernt hat, dass es manchmal von Vorteil sein kann, von einer Sache, über die man schreibt, wenigstens so viel Ahnung zu haben, dass man Propagandapapiere wie das von der “Scientists For Future” wenigstens kritisch hinterfragen sollte.

Nun zu Beweisstück 2, vom SPON-Konkurrenten Focus Online mit dem Titel “Vor- und Nachteile von Atomstrom” publiziert, ebenso irreführend platziert unter der Rubrik “Praxistipp”. Immerhin hat man sich dort bemüht, nicht nur die Nachteile, sondern auch die Vorteile der Kernenergie aufzulisten. So weit, so lobenswert – verfolgt man die deutsche Medienlandschaft, ist es ja quasi unmöglich, mal über einen Beitrag zu stolpern, der tatsächlich Vorteile von Kernenergie zu behaupten wagt. Die genannten Vorteile jedenfalls sind valide und halten auch näherer Betrachtung stand. Aber bei den aufgelisteten Nachteilen werden leider wieder die schon tausendmal widerlegten Behauptungen aus der Mottenkiste des Ökomarxismus herausgeholt. Die oben schon widerlegten Behauptungen in Punkto Sicherheit, Proliferation und Abfall/Endlagerung lasse ich mal aus, denn es folgen noch zwei nicht minder populäre Argumente aus der Antiatomschwurblerszene.

Da ist zum einen die behauptete Inflexibilität von Kernkraftwerken, die angeblich nicht in eine “dynamisches Energiesystem” passen, um die “gewissen Schwankungen” der Einspeisung erneuerbarer Quellen wie Wind, Wasser und Sonne auszuregeln. Liebe Antiatomschwurbler, was ihr hier beschreibt ist ein gravierender Nachteil von Erneuerbaren Energien, aber die Kernenergie könnte trotzdem euren Arsch retten, weil die Reaktoren keineswegs prinzipbedingt immer “volle Power” laufen müssen. Nein, man ist völlig frei darin, sie als zuverlässige Grundlastbereitsteller zu nutzen (was naheliegt, weil die Investitionskosten relativ hoch sind und die Betriebskosten relativ niedrig, jedenfalls niedriger als für alle anderen regelbaren Formen der Stromerzeugung), oder im Lastfolgebetrieb um den Zappelstrom aus den dargebotsabhängigen Quellen auszuregeln. Moderne Kernkraftwerke sind nämlich ausgezeichnet regelbar, mit sehr steilen Leistungsgradienten. Da kann man innerhalb von Minuten von 50% auf 100% und wieder zurück regeln ohne mit der Wimper zu zucken. Dazu der netzstabilisierende Faktor “rotierende Massen” durch die großen Turbinen. Bleibt natürlich die Frage, warum man überhaupt die zum Betrieb eines stabilen Stromnetzes problematischen Windkraft- und Photovoltaik-Anlagen noch haben will, wenn man ausreichend Kernkraftwerke zur Verfügung hat, die in wirklich allen Belangen den “Renewables” – im englischen Sprachraum oft auch als “Unreliables” bezeichnet – vorzuziehen sind. Masochismus?

Dann kommt noch das für erfahrene Kerntechnik-Befürworter ebenso erwartbare wie falsche Argument der Endlichkeit des Kernbrennstoffs. Ja, Uran ist endlich. Thorium auch. Irgendwann wird unsere Sonne zum roten Riesen und sowohl Windkraft als auch Photovoltaik werden keinen Strom mehr erzeugen. Ja, Beton und Stahl und was-auch-immer sind ebenfalls endlich. Aber die entscheidende Frage ist doch: wann ist Schicht im Schacht? Für Uran ist das noch nicht mal am Horizont abzusehen. Die statische Reichweite (also als zu derzeitigen Marktpreisen gesichert abbaubare Reserven) beträgt derzeit rund 50 Jahre, wie schon seit den 70ern des letzten Jahrhunderts. Damals hat man einfach die Exploration eingestellt, weil man einfach überall auf der Welt Uran gefunden hat. Die Japaner haben es sogar noch weiter getrieben und haben die Extraktion von Uran aus Meerwasser zur Marktreife gebracht – verdoppelt sich der Natururanpreis (was auf den aus Kernenergie erzeugten Strom kostentechnisch sich quasi gar nicht auswirkt, weil der Preis von Natururan nur im einstelligen Prozentbereich zu den Stromgestehungskosten beiträgt), wird deren Methode schon kostendeckend, und der Nachschub von Uran im Meerwasser ist quasi-unendlich. Nicht zu vergessen die Möglichkeit, mit Brutreaktoren neues spaltbares Material aus Thorium-232 oder Uran-238 zu erzeugen. Und natürlich den riesigen Reserven, die in unserem “Atommüll” stecken und nur darauf warten gehoben zu werden. Mit der WAA Wackersdorf und dem SNR in Kalkar hatte Deutschland das perfekte Konzept für einen geschlossenen Brennstoffkreislauf – aber die Anti-Atom-Lobby der Pseudo-Ökos konnte natürlich eine Lösung für das Endlagerproblem nicht zulassen und malte den Teufel der Plutoniumwirtschaft an die Wand.

Aber selbst wenn man jetzt mal alle Brutreaktoren dieser Welt außer Acht lässt, den deutschen Atommüll unbedingt unangetastet lassen will und postuliert, dass der Rest der Welt uns kein frisches Uran mehr liefern will – selbst dann könnte man mit den bekannten Uran-Lagerstätten den kompletten deutschen Bedarf für eine Energievollversorgung locker decken. Mit anderen Worten: zumindest für eine noch zu bauende neue Kernkraftwerksgeneration gäbe es mehr als genug einheimischen Brennstoff. Warum sollte uns die Situation in 100 oder 200 Jahren bezüglich der Uran-Versorgungssituation kümmern, wo uns das Klima doch angeblich heute oder zumindest in allernächster Zukunft um die Ohren fliegt? Warum eine Lösung ablehnen, die uns im schlechtesten Falle “nur” 100 Jahre Zeit verschafft? Wie alle Antiatomschwurblerargumente ergibt auch das vom knappen Uran einfach überhaupt gar keinen Sinn.

Ebenfalls erwähnen will ich einen exklusiv im/für den Focus Online-Artikel mit außerordentlicher Kreativität erfundener, nahezu einzigartiger Nachteil von Kernkraftwerken: sie können tatsächlich – im Gegensatz zu allen anderen Energieerzeugern wie Windkraftanlagen, Wasserkraftwerken oder Photovoltaikanlagen – nicht unendlich lange laufen sondern müssen irgendwann ersetzt werden. Skandal! So ein Kraftwerk aus den 70ern oder 80ern muss doch tatsächlich nach 60 bis 80 Betriebsjahren stillgelegt werden! Nicht zu fassen. Ganz im Gegensatz zu den allseits bekannten Windkraftanlagen, die meisten davon bekanntlich seit dem Mittelalter oder sogar noch von den alten Römern gebaut. Was bleibt einem bei so einer Argumentationsqualität übrig außer Ironie und Sarkasmus?

Kommen wir zum Abschluss zum Bereich “Glaskugel”. Ich halte den Ausstieg aus der Kernenergie hierzulande für nicht aufzuhalten, da mögen alle guten Argumente der Welt für einen Weiterbetrieb der letzten 6 Kernkraftwerke sprechen. Ich glaube sogar, dass das Anti-Atom-Denken in Deutschland so erfolgreich über die Jahrzehnte eingetrichtert wurde, dass selbst großflächige Stromausfälle in Zukunft niemals auf den Ausstiegsbeschluss zurückgeführt würden oder gar der Ausstieg wehmütig bedauert werden würde. Am Deutschen Wesen soll schließlich die Welt genesen, und Konsequenz nach Deutschem Muster heißt, auch einen Holzweg zu Ende zu gehen.

International hingegen ist die Renaissance der Kernenergie langsam im Kommen. China hat die letzten 20 Jahre Reaktor um Reaktor gebaut, Länder wie die Vereinigten Arabischen Emirate sind neu eingestiegen, in den USA haben Reaktorneubauten durch die explodierenden Gaspreise und die CO2-Bepreisung inzwischen wieder reelle Chancen, und in UK wird nach dem Brexit wieder ernsthaft über die Kernenergieoption nachgedacht – auch wenn dort die Mühlen eher langsam arbeiten, und der Weg zu den Reaktorneubauten dort eher lang ist. Ob die Ausbaupläne im Rest von Europa wie z.B. in Polen oder in Tschechien tatsächlich kommen werden – da bin ich unsicher. Durch die unbegrenzte Gelddruckerei der EZB sind auch absurd kapitalintensive Unterfangen wie Windkraftanlagen oder Photovoltaik zusammen mit den reichlich fließenden Subventionen ein risikoarmes Investment, so dass die EU eher weiter in Richtung Deindustrialisierung und Auslagerung der Produktion in ferne Länder fortschreiten wird.

Knackpunkt für eine echte Renaissance der Kernenergie sind meines Erachtens tatsächlich in der Praxis erprobte kleine modulare Reaktoren zwischen 50 und 500 MW. Die kann man überall netzverträglich integrieren, die sind inhärent sicher, die sind CO2-neutral, und wenn sie in Serie produziert werden auch preislich attraktiv. Vielleicht ist das US-Militär der notwendige Katalysator für diese Technologie, denn im IT-Zeitalter wird die zuverlässige und vor allem netzunabhängige Stromversorgung von Militärbasen immer wichtiger, und was könnte da einfacher, kompakter, sicherer und eleganter sein als ein kleines Reaktormodul, dass sich mit dem LKW oder gar per Hubschrauber an den Einsatzort transportieren lässt. Ob diese kleinen Reaktoren dann von NuScale oder TerraPower oder GEH oder Terrestrial Energy oder X-energy oder Rolls-Royce oder von allen genannten und ungenannten – vor allem chinesischen – Anbietern kommen, scheint erst mal sekundär. First-of-a-kind bauen, Betriebserfahrung sammeln, Serienproduktion starten. So, wie man es zur Anfangszeit der kommerziellen Leistungsreaktoren auch gemacht hat – mit dem Vorteil, dass man heute nichts mehr über Kernreaktionen dazulernen muss und auf vorhandene 60jährige Betriebserfahrung mit Leistungsreaktoren zurückgreifen kann.

Stand der Medienqualität

In zeitlicher Korrelation zum von Jörg Schönenborn vor etwa 10 Jahren geprägten Begriff der “Demokratie-Abgabe” für die monatliche “Zwangsgeldentrichtung ohne Anspruch auf Mehrwert”, wie der Rundfunkbeitrag besser heißen sollte, stelle ich ein rapides Absinken der Qualität der Berichterstattung in den klassischen Medien fest. Schon früher haben sich Journalisten ja durch gravierende Falschaussagen, dämliche Berichterstattung und blankes Nichtwissen um ihren einstmals – auf was auch immer begründeten – guten Ruf gebracht. Aber das erschien mehr punktuell als prinzipiell. Aber seit etwa 10 Jahren befindet sich das Qualitätsniveau in derart freiem Fall, dass man sich täglich fragt, wie denn das jetzt erreichte Niveau wohl noch unterboten werden kann. Am nächsten Tag weiß man es dann.

Nun gibt es seit einiger Zeit ja von der verpönten Seite des politischen Spektrums konkurrierende Begrifflichkeiten zu “Qualitätsmedien”, wie sich diverse Zeitungen und der öffentlich-rechtliche Rundfunk gerne nennen. Lügenpresse, Lückenpresse, Systemmedien, gesteuerte Presse, Regierungsfunk, Staatsfunk – die Liste ist lang. Vertreter dieser Medien machen seit ebenso langer Zeit gerne deutlich, dass sie natürlich völlig unabhängig agieren und niemals Weisungen oder auch nur Hinweise von staatlicher oder politischer Seite in ihre Propaganda ääääähhh Berichterstattung einarbeiten würden.

Gehen wir für einen kurzen Moment davon aus, dass unsere Qualitätsmedien an dieser einen Stelle tatsächlich die Wahrheit und nichts als die Wahrheit verkünden würden. Man braucht also eine alternative Erklärung dafür, dass Regierungshandeln zumindest in einigen Bereichen nicht kritisch begleitet, sondern meist wohlwollend berichtet und kommentiert wird, und stattdessen zuvorderst der einzigen echten Opposition das Leben schwer gemacht wird. Und tatsächlich: nach nur wenigen Minuten leichtem Nachdenken kommt man auf eine solche alternative Erklärung. Denn es gibt ein unabhängiges, aber gemeinsames Element zwischen Regierung, weiten Teilen der Politik und der Medien: abgrundtiefe Dummheit. Ja, das muss es sein. Die Regierung muss die Medien gar nicht steuern, und wäre auch viel zu blöd dazu. Mangels ausreichender geistiger Fähigkeiten ist es vielmehr ganz natürlich, dass die Medien die Arbeit von Regierung und Politik ganz dufte finden.

Gut, dass wir das geklärt haben. Aber seien wir ehrlich: am Endergebnis ändert das nichts. Denn das “race to the bottom” bezüglich der Qualität der Berichterstattung geht unvermindert weiter. Und bei einem existierenden Zwangssystem wie dem Rundfunkbeitrag, wo ein Korrektiv sei es demokratischer oder richterlicher Natur nicht mal in weiter Ferne in Sicht ist, ist die Hoffnung auf Besserung unbegründet. Mal sehen, ob wenigstens die Printmedien in Ruhe sterben dürfen oder ob der Staat noch ein paar neue Zwangssysteme erfindet, um diese Zombies am Leben zu halten. Steuern und Abgaben sind ja der letzte Hort politischer Kreativität.

Die geklaute Zukunft

Neulich in der Mittagspause: ich sitze gemütlich beim Steakhouse meines Vertrauens auf der Sonnenterasse, und es kommt der Demonstrationszug von “Fridays For Future” vorbei. Nur ein versprengter kleiner Haufen (Ferien – da ist die freitägliche Demoteilnahme natürlich nicht so attraktiv wie zur Schulzeit), mit einigen Teilnehmern bei denen man hofft dass sie ihre Schulzeit schon sehr lange hinter sich haben, aber um den bekannten Schlachtruf dem geneigten, aber unbeteiligten Zuhörer darzubieten reicht auch diese sparsame Anzahl: “Wir sind hier, wir sind laut, weil Ihr uns die Zukunft klaut!”

Zunächst muss ich bewundern, wie clever dieser Schlachtruf gewählt ist. Nicht nur gemäß des universellen Wahlslogans der Legende Dr. Udo Brömme (“Zukunft ist gut für uns alle”), auch weil der Spruch für jedes beliebige Thema taugt, nicht nur “Zukunft” – der Reim steckt schließlich woanders.

Nach einigem Nachdenken muss ich allerdings sagen: ja, der Jugend von heute wird tatsächlich von Politikern und ihren willigen Helfern allüberall in der Republik und dem Rest der Welt die Zukunft geklaut.

Beispiel EZB. Durch die fatale Nullzinspolitik wird nicht nur eine sichere Altersvorsorge stark erschwert, sondern auch die Marktwirtschaft unterhöhlt. Wenn Risiken nicht adäquat in Krediten abgebildet sind, wenn Staaten sich quasi grenzenlos verschulden können, versündigt man sich an der Jugend (und dem Steuerzahler) – denn die Schulden von heute sind die Steuern von morgen. Oder der Bankrott.

Beispiel Energiewende. Wenn man tatsächlich Klimaschutz betreiben will, dann sollte man Instrumente wählen, die eine möglichst effiziente CO2-Reduzierung ermöglichen. Das genaue Gegenteil ist der Fall: ineffiziente Technologien werden subventioniert, CO2-freie und preiswerte Kraftwerke werden zwangsweise stillgelegt, Ergebnis sind horrende Kosten und quasi Stillstand bei der CO2-Reduzierung.

Beispiel Ausbildung. Durch das Anbieten von zahllosen Studienplätzen für Orchideenfächer ohne Chance auf spätere Mehrwertgenerierung wird ein großer Teil der nachwachsenden Generation zu dauerhaft zu subventionierenden staatsabhängigen Idioten ausgebildet. Dafür fehlt es an ausgebildeten Arbeitskräften in den für die Gesellschaft wirklich entscheidenden Bereichen, vom Handwerker über medizinische Berufe bis zum Ingenieur. Dazu die absurd hohe Abitursquote nebst Studienquote, was generell (siehe auch das Gejammer über die angeblich furchtbar schweren Mathe-Abi-Aufgaben, die doch gemessen an dem, was noch in den 90ern des vorigen Jahrhunderts gefordert wurde, eher unterkomplex wirken) zu einem sinkenden Ausbildungsniveau führt.

Beispiel Regulierungsdichte. Die katastrophal hohe Staatsquote in Deutschland ist auch den überkomplexen Regulierungen geschuldet. Jedes Gesetz verursacht Kosten, sowohl bei denen, die sich daran halten müssen, als auch bei denen, die die Einhaltung überwachen müssen. Dazu die daraus erwachsenden Schmarotzerbranchen, die man ohne diese Gesetze gar nicht bräuchte – von den Juristen bis zu den Beratern – und die sich dann stattdessen produktiveren Dingen widmen könnten.

Beispiel Rentenversicherung. Die Politik war da auf einem nicht allzu schlechten Pfad, nach den wegweisenden Reformen ab Mitte der Neunziger bis zu Franz Münteferings “Rente mit 67”. Aber seither gab es nur noch ultrateure Katastrophenreformen, von der abschlagsfreien Rente mit 63 über die Mütterrente mit ihren sehr merkwürdigen Regeln für wen sie gelten sollen bis zum jüngsten Projekt “Respektrente”. Hier werden gigantische Kostenblöcke für die Zukunft aufgebaut, die von der jungen Generation aufgrund der Demographie und der mangelhaften Ausbildung in der Breite schlicht nicht bedient werden können.

Beispiel Umwelt. Während beginnend in den 70ern des vorigen Jahrhunderts hauptsächlich sinnvolle Dinge vorangebracht wurden – Abgasreinigung bei Fahrzeugen und Kraftwerken, Abwasserreinigung zum Sauberhalten unserer Gewässer, Müllverbrennung statt Deponierung – scheint man jetzt hauptsächlich teure Pseudo-Umweltschutz-Maßnahmen zu favorisieren. Man schaue sich den – nicht zuletzt von der Politik herbeisubventionierten – Trend zur Bio-Landwirtschaft an. Komplett kontraproduktiv, weil aufgrund höherer Flächenintensität schlecht für Naturschutz, Insekten und CO2-Bilanz. Dazu dank merkwürdiger Vorschriften zu Düngung und Pflanzenschutz ebenfalls katastrophal für Naturschutz, Insekten, Grundwasser und so weiter.

Grund für Optimismus sehe ich derzeit nicht. Im Fokus der Debatte scheinen CO2-Reduktion (gegen den Klimawandel – hält man ihn denn für problematisch und bekämpfenswert – wird weder Deutschland noch die EU alleine nichts tun können, und wir werden nicht als leuchtendes Vorbild dienen für die Hauptverursacher China, Indien und USA – diese Vorbild-Idee ist auch schon bei Windkraft und Photovoltaik nachhaltig gescheitert), Plastikvermeidung, Reduzierung der Massentierhaltung, Schutz von Insekten und Bio-Landwirtschaft. Schlechte und teure Lösungen für doch vergleichsweise kleine Probleme. Ich würde sie allesamt für politische Ablenkungsmanöver halten, weil es schon immer in der Natur der Politik lag, plakative Lösungen für Nicht-Probleme zu propagieren. Leider fehlt es an der entsprechenden Medienlandschaft, um das Treiben der Politik hier kritisch zu begleiten. Leider scheint das Problem der Bildungsmisere im Journalismus als erstes angekommen zu sein.

5G und autonomes Fahren

Jede Zeit hat ihre Hypes. Aus meiner Sicht gibt es momentan ein paar ganz gewaltige Hypes, die weitgehend unkritisch und unreflektiert von den Qualitätsmedien in die Welt hinausposaunt werden. Digitalisierung, Industrie 4.0, Klimakatastrophe, Elektroautos. Zwei will ich hier verbindend unter die Lupe nehmen: “5G”, der kommende Mobilfunkstandard, der vor allem deutlich schnellere Datenübertragung ermöglichen soll, und “autonomes Fahren”, worunter ich ausschließlich “Level 5” verstehe – Level 1 bis 2 haben wir eh schon, Level 3 bis 4 sind zwar schön aber nicht besonders viel nützlicher, und quasi alle Vorteile, aller Nutzen dieser Technologie wird erst bei Level 5 zur Verfügung stehen. Wer sich unter diesen Levels nichts vorstellen kann: hier der Wikipedia-Artikel, Abschnitt “Autonomiestufen” lesen.

Wann immer in der letzten Zeit – aber natürlich vor allem im Zusammenhang mit Trumps Huawei-Geschichte, manchmal aber auch beim Feststellen der diversen dramatischen Infrastrukturmängel bezüglich mobilen Internets in Deutschland und Europa – von 5G die Rede war, wurde fast immer im selben Atemzug darauf hingewiesen, dass 5G quasi die Basistechnologie für die Zukunft sei, insbesondere auch für das autonome Fahren.

Nichts könnte beunruhigender sein.

Wenn ernsthaft das Vorhandensein von 5G die Voraussetzung für autonomes Fahren sein soll, dann heißt es: niemals in so ein Auto steigen. Absolute Vorsicht ist geboten (vor allem natürlich in Deutschland, wo man nicht mal 2G flächendeckend zur Verfügung hat).

Warum ist das so? Autonomes Fahren ist letztlich eine Aufgabe für KI, für “künstliche Intelligenz”. Dazu bedarf es einer ausreichenden Sensorik, um ein “Bild” von den Geschehnissen außerhalb des Fahrzeugs, vor allem natürlich in Fahrtrichtung, zu haben. Spurverlauf, Hindernisse, Kreuzungen, Verkehrsschilder, Lichtsignalanlagen, andere Verkehrsteilnehmer.

So weit, so kompliziert. Man denke an Schlechtwettersituationen, an die üblichen Spontanbaustellen mit sich widersprechenden Spurkennzeichnungen, optimistische Verkehrsteilnehmer, spielende Kinder. Immer im Kopf behalten: wir reden von Level 5, also ohne Eingriffsmöglichkeit der Mitfahrer, man hat das Lenkrad und andere notwendigen Steuerelemente ja schon aus dem Fahrzeug verbannt. Und vielleicht hat ja nicht mal ein Mitfahrer einen Führerschein.

Nun kommt die KI ins Spiel: dieses “Bild” muss man nun “verstehen”. Welche Spur führt wohin. Welche Ampel gehört zu welcher Spur. Blinkt das Fahrzeug vor mir nur zum Spaß oder wechselt es die Spur. Auf welche Spur muss ich wechseln um zum Ziel zu gelangen, auch wenn der direkte Weg vielleicht durch eine Umleitung versperrt ist. Gibt es da ein Hindernis auf meiner Fahrspur, obwohl die Ampel grün zeigt. Will der Fußgänger am Rande des Zebrastreifens diesen auch benutzen oder geht er vorbei. Darf ich hier parken. Steht die Fähre schon da und kann ich drauffahren. Ist diese Lücke groß genug für einen gefahrlosen Spurwechsel. Wird das Kind gleich seinem Ball auf die Straße folgen.

Quizfrage: für welche dieser Aufgaben braucht es – zwingend, wie es gerne von den Qualitätsjournalisten suggeriert wird – eine Vernetzung zwischen Verkehrsteilnehmern, eine Datenverbindung zu irgendwelchen Servern? Hoffentlich keine einzige – denn sonst müssten ja bei einem Ausfall dieser Vernetzung sofort alle autonom fahrenden Fahrzeuge stehenbleiben, in Bereichen ohne 5G-Abdeckung könnten solche Fahrzeuge niemals fahren.

Mit anderen Worten: die Verknüpfung von “5G” und “autonomem Fahren” ist Mumpitz. Das eine hat mit dem anderen rein gar nichts zu tun. Außer, dass man eine vage Hoffnung haben kann, dass beides möglichst schnell in der Realität zur Verfügung steht. Während ich bei 5G da für die nächsten 10 Jahre zumindest für die Ballungsräume keine größeren Hindernisse sehe (es sei denn, die “Strahlenangst” in der Bevölkerung nimmt demnächst ähnliche Ausmaße an wie die Klimaangst), bin ich bei “Autonomes Fahren Level 5” extrem skeptisch. Tesla hat “2020” als Zieltermin aufgerufen, das halte ich für völlig absurd, innerhalb von einem Jahr von “recht schlecht funktionierendes Level 1-2” auf “immer funktionierendes Level 5” zu springen. Gefühlsmäßig ist Level 5 etwa 10x schwerer als Level 4, und Level 4 etwa 2x schwerer als Level 2. Angesichts der 20 Jahre, die es von prä-Level 1 auf Level 2 gedauert hat, bräuchte es schon mehrere disruptive Durchbrüche, vermutlich sowohl bei Rechenleistung als auch Sensorik als auch KI, um das in sagen wir den nächsten 50 Jahren für die breite Masse bezahlbar hinzukriegen.

Es bleibt spannend.

Über die EU und Europa

Im Aufgalopp zur Europawahl (warum eigentlich nicht “Wahl zum EU-Parlament”? Diese ständige Vermischung der Begrifflichkeiten “EU” und “Europa” ist höchst irritierend) kurz vor Annahmeschluss noch ein paar unsortierte Gedanken.

Medial ist die Begleitmusik wieder höchst eindimensional. Vor allem im Öffentlich-Rechtlichen Fernsehen ist die Berichterstattung frei von kritischen Tönen zum Thema “EU”. Dabei gäbe es wahrlich genügend Anknüpfungspunkte.

Beispielsweise die insgesamt merkwürdige Konstruktion mit EU-Kommission, Europarat und Europaparlament. Ein Parlament ohne Möglichkeit zur Gesetzesinitiative? Ein Parlament ohne das “Königsrecht”, die Abstimmung über Budgetfragen? Wild zusammengewürfelte Fraktionen? Ausschließlich Listenwahl und keine Persönlichkeitswahl? Merkwürdige Stimmgewichtung, die einem Wähler auf Malta ein deutlich höheres Stimmgewicht gibt als einem Wähler in Deutschland? Die EU macht es möglich. Alle typischen Kriterien, die ein Parlament in einer parlamentarischen Demokratie normalerweise so auszeichnet – hier werden sie weit verfehlt.

Dann das merkwürdige Konzept des “Spitzenkandidaten”. Der ist zwar für die Wahl zum Parlament aufgestellt, soll aber dann doch Präsident der EU-Kommission werden, also einer gänzlich anderen Veranstaltung. Das Parlament schlägt aber den Präsidenten gar nicht vor, der wird von den Regierungen der Mitgliedsstaaten ausgekungelt und darf dann vom Parlament abgenickt werden. Absurd.

Dann die aus meiner Sicht entscheidende Frage der Subsidiarität. Es gibt starke Kräfte in der EU, die eine immer engere EU favorisieren, immer mehr Regulierung EU-weit durchsetzen wollen, für eine stärkere Integration bis hin zu Militär, Außenpolitik und Steuern. Natürlich ohne entsprechende Anpassung der Rahmenbedingungen.

Die Frage “von der Einstimmigkeit zu mehr Mehrheitsbeschlüssen” hat auch in der Diskussion im Vorfeld der Wahl eigentlich keine Rolle gespielt, obwohl das doch von zentraler Bedeutung sein sollte. Welche Partei steht hier für was? Es wurde nicht berichtet.

Fragen der Migration und der Wirtschaftsflüchtlinge – vermutlich DAS zentrale Thema der letzten drei Jahre – wurden ebenfalls bestenfalls am Rande behandelt. Vermutlich, um “den rechtsradikalen Parteien keine Munition zu liefern”. Ein gutes Beispiel, warum die heutige mediale Berichterstattung so verabscheuungswürdig ist. Die Fortsetzung des Nannystaates und der Volkserziehung wie damals im seligen Sozialismus.

Versöhnlich stimmen könnte mich, wenn die EU den scheinbar sehnlichsten Wunsch vieler Deutscher ernst nehmen würde und eine Höchstgrenze des Pro-Kopf-CO2-Ausstoßes festlegen würde und gleichzeitig – wenn schon Regulierung, dann richtig – vorschreiben würde, dass das durch verstärkten Einsatz der Kernenergie zu geschehen habe. Also ähnlich der jetzigen Festlegung auf Elektroautos als Lösung aller Verkehrsprobleme. Vermutlich die einzige Möglichkeit, das deutsche Wahlvolk von seiner kollektiven EU-Besoffenheit nachhaltig zu kurieren.

Mit welchen Fragen man sich – auch medial – hauptsächlich beschäftigt, wird unter anderem klar, wenn man die 38 Fragen des Wahl-o-mats anschaut. “In allen Mitgliedsstaaten soll eine Lkw-Maut auf Fernstraßen eingeführt werden.” – da fehlt nur noch das Gruselwort “einheitlich” zum perfekten Beispiel für eine Regelung, die ganz bestimmt nicht auf EU-Ebene getroffen werden muss. “In anderen EU-Staaten sollen weiterhin Atomkraftwerke betrieben werden dürfen.” – warum diese Frage auf EU-Ebene überhaupt diskutiert werden sollte, ist völlig unklar. Oder diese: “Für die Besteuerung von Unternehmen soll es einen EU-weiten Mindestsatz geben.” Gruselige Vorstellung, das Ende des Steuerwettbewerbs und ein weiterer Schritt zu einer tieferen Integration – und letztlich auch noch wertlos, weil ein Mindestsatz ja über die tatsächlich fällige Steuer gar nichts aussagt, wie das deutsche Steuerrecht täglich unter Beweis stellt. “Die EU soll sich dafür einsetzen, dass alle Mitgliedsstaaten die gleichgeschlechtliche Ehe einführen.” – warum sollte das EU-weit einheitlich geregelt werden? “Mitgliedsstaaten, die die EU-Regeln zur Begrenzung der Staatsverschuldung verletzen, sollen konsequent bestraft werden.” – um Gottes Willen, lasst die Budgethoheit bei den nationalen Parlamenten, und spart Euch einfach die europäischen Rettungsaktionen – wer sich die Suppe einbrockt, soll sie auch selbst auslöffeln. Und ja, das bedeutet, dass die EZB ganz dringend von ihrer suizidalen Nullzinspolitik nebst Staatsanleihenaufkäufen dringend abrücken muss. Außerdem riecht der Punkt stark nach der inzwischen auch schon üblichen Vermischung zwischen Themen der Eurozone und EU-Themen. Und es lässt vermuten, dass das langfristige Ziel der EU-Oberen und Propagandisten der immer engeren Integration innerhalb der EU der “Euro für alle EU-Mitglieder” ein nicht allzu fernes sein soll. “In allen EU-Mitgliedsstaaten sollen Plastikverpackungen besteuert werden.” – das entscheidet natürlich über Wohl und Wehe des Planeten. Oder ist doch nur “yet another tax” wie die legendäre Sektsteuer zur Finanzierung der kaiserlichen Marine. “Die EU soll sich für die Einführung eines nationalen Mindestlohns in allen Mitgliedsstaaten einsetzen.” – hier ist schon unklar, was denn “einsetzen” heißen soll – eine EU-Richtlinie, oder doch nur eine unverbindliche Quasselrunde im Europaparlament? Klar ist nur: es sollte die EU einen Scheißdreck angehen.

Am Ende erschreckt mich fast jede der 38 Fragen, weil sie meiner Ansicht nach nicht von der EU entschieden werden sollte. Aber ich scheine da eine Minderheit zu sein. Und was ich in dieser Position wählen soll, ist auch völlig unklar. Eigentlich sollte es doch eine liberale Partei geben, die eine lockere EU als Freihandelszone mit Minimierung nichttarifärer Handelshemmnisse UND SONST NICHTS anstrebt. Gibt es aber nicht. Also zumindest nicht in einem Bereich, der ein Wahlergebnis höher als 0,5% erwarten lässt, die LKR könnte eventuell eine solche sein. Allerdings nur dem Namen nach – schaut man die Antworten auf die Wahl-o-mat-Fragen an, ist es auch schnell aus mit der Idee, hier könnte es sich um eine “liberale” Partei handeln. Wie kann man es wagen, sich liberal zu nennen, und gleichzeitig für eine vorrangige Förderung von Bio-Landwirtschaft eintreten? Die Detailbegründung ist sogar noch erschreckender, als das “stimme zu” zunächst den Anschein hat – der geneigte Leser darf durchaus gerne selbst recherchieren. Es ist übrigens durchaus empfehlenswert, sich die Detailbegründungen der einzelnen Parteien anzuschauen, das hat deutlich mehr Aussagekraft als “ja/nein/neutral” und zeigt oft recht genau, wie die jeweilige Partei tickt.

Nichtwählen oder Protestwählen scheinen die einzigen sinnvollen Alternativen zu sein. Eine Schande.

Apropos Wahl-o-mat: ich habe, bevor der Gerichtsentscheid zum Wahl-o-mat erging, das Dingens genutzt und dachte lange, dass das Problem daran sei, warum man denn nur eine maximale Anzahl von acht Parteien miteinander vergleichen kann. Das war aber offenbar gar nicht das Problem, denn der jetzt wieder freigeschaltete Wahl-o-mat hat immer noch dasselbe kreuzdämliche “Feature”. Aus meiner Sicht aber völlig unverständlich – ich will das Ergebnis doch nicht auf einer DIN-A5-Seite ausdrucken können, sondern habe im Browser die “endlose Seite” – warum nicht alle Parteien auf einmal vergleichen? Warum, wenn man schon auswählen muss, eine Höchstgrenze von 8? Warum nicht 6? oder 12? Absurd.

Übrigens – die Berichterstattung zum Wahl-o-mat-Problem erweckte lange den Anschein, dass dort nur insgesamt 8 bestimmte Parteien miteinander verglichen werden konnten und das eine Benachteiligung kleinerer Parteien darstellen würde. Das war natürlich nie der Fall, und nur ein weiteres Beispiel für die äußerst schlampige Berichterstattung unserer Qualitätsmedien.

Brexit-Update

Mein letzter ausführlicher Artikel zum Thema Brexit stammt vom Juni 2016 – Zeit für ein Update.

Seither hat sich einiges getan. Ein Austrittsabkommen wurde zwischen Briten und EU verhandelt und vom britischen Unterhaus – wenig überraschend, wenn man sich die Inhalte des Abkommens im Detail anschaut – mit überwältigender Mehrheit abgelehnt. Besonders die Regelungen rund um Nordirland waren derart absurd, dass eine Zustimmung vom Abkommen einer Aufgabe der nationalen Souveränität gleichgekommen wäre. Die Zeichen stehen also momentan auf “No-Deal-Brexit”, sprich dem Austritt der Briten aus der EU ohne spezifisches Austrittsabkommen.

Die Qualitätspresse ist sich weitestgehend einig, dass das zu absolutem Chaos und schweren wirtschaftlichen Problemen auf der Insel führen wird. Ich muss gestehen, dass ich da ganz anderer Meinung bin. Die Außenhandelsbilanz der Briten zeigt, dass relativ wenig in die EU exportiert wird und relativ viel aus EU-Ländern (vor allem Deutschland) importiert wird. Es steht also eher zu befürchten, dass Deutschland härter vom Brexit getroffen wird als die Briten. Auch wichtig zu wissen: “No Deal” bedeutet Rückfall auf die WTO-Regeln im internationalen Handel. Also das, was Deutschland bzw. die EU grob mit USA, Kanada, China, Russland und Japan hat. Da ist jetzt so spontan kein riesiges Problem zu sehen. Ganz im Gegenteil haben die Briten die Chance, ohne die schwerfällige EU deutlich zügiger und unkomplizierter Freihandelsabkommen mit dem Rest der Welt zu schließen und natürlich die alten Commonwealth-Connections wiederzubeleben.

Allerdings setzt dieser Optimismus voraus, dass die Briten zu einer insgesamt pragmatischen, marktwirtschaftlichen und deregulierenden Wirtschaftspolitik zurückkehren. Möglicherweise zu optimistisch gedacht, wenn man das jetzige politische Personal sich anschaut.

Immer wieder wirft die Qualitätspresse die Frage auf, warum ein halbwegs vernünftiger Mensch denn überhaupt aus der EU austreten wollen würde. Meines Erachtens hat der Austrittsprozess der Briten nach der Volksabstimmung sehr viele neue Argumente für einen Austritt geliefert. Ich hätte es nicht für möglich gehalten, wie schäbig sich die Vertreter der EU bei den Verhandlungen verhalten haben – man schien immer nur darauf bedacht zu sein, an den Briten ein Exempel zu statuieren, schon um anderen EU-Ländern zu signalisieren, dass so ein Austritt gar keine gute Idee ist – bestrafe einen, erziehe alle. Zum Schämen, und ganz klar wider die Interessen der verbleibenden Mitgliedsstaaten. Gleichzeitig ein Armutszeugnis, dass das Gebilde EU offenbar nur durch Zwang und Angst zusammengehalten werden kann.

Witzig fand ich, wie oft betont wurde, dass ein Austrittsabkommen keinesfalls “Rosinenpickerei” sein dürfe – das ist ja nichts anderes als das Eingeständnis, dass die EU voller Regelungen ist, die nicht zum Vorteil (“Rosinen”) seiner Mitgliedsstaaten sind, sondern zum Nachteil. Warum gibt es diese Regelungen dann? Zeit, sie abzuschaffen. Leider hat mit dem Abschied der Briten nun die Regulierungs- und Geldverbrennerfraktion in der EU ein noch deutlicheres Übergewicht bekommen. Ich wage die Prognose, dass auch Deutschland noch zu meinen Lebzeiten die EU verlassen wird, wenn diese sich nicht gravierend reformiert. Dazu wird es aber eine künftige Generation von Politikern geben müssen, die pragmatisch und nicht ideologisch geprägt sind – nun gut, jetzt wo ich es so formuliere, ist meine Prognose wohl eher als vage Hoffnung meinerseits zu verstehen.

Herr Özdemir hielt eine Rede

Ist schon ein paar Tage her, als die Meldung durch die Nachrichten geisterte. Cem Özdemir, unser grüner Lieblingsschwabe, hat eine Auszeichnung erhalten. “Rede des Jahres 2018”, verliehen durch das Rhetorikseminar der Universität Tübingen. Hier ein Bericht des SWR über diesen Sachverhalt. Olaf Kramer, Rhetorik-Professor in Tübingen, sprach von einem “herausragenden Debattenbeitrag” und von “Emotionalität mit starken Argumenten unterbaut”. Als ich zum ersten Mal die Meldung im Radio hörte, wurden auch ein paar Ausschnitte der Rede gesendet. Die fand ich nun ausgesprochen peinlich, von Argumenten keine Spur, es klang eher so nach beleidigtem Kleinkind im Kindergartenstreit. Naja, Medien halt, wahrscheinlich die falschen, dafür plakativen Ausschnitte der Rede gesendet – ich nahm mir vor, die gesamte Rede im Zusammenhang nochmal nachzuhören und -lesen.

Aber: ich bin (mal wieder) zu spät dran. Die fleißigen Blogger von ScienceFiles.org haben den Job schon erledigt, die Rede in ihrer ganzen Tiefe (oder besser: Flachheit) zu analysieren – hier nachzulesen.

Früher, als Wörter noch eine festgelegte und allgemein akzeptierte Bedeutung hatten, wäre die Rede vielleicht mit “Thema verfehlt”, “vollständige Abwesenheit von Argumenten”, “voller wilder Anschuldigungen ohne Begründung”, “außerordentlich schlecht strukturiert” oder “peinliches Rumgeplärre” kommentiert worden. Mir scheint, der Neusprech hat sich endgültig durchgesetzt. Ohne die seltenen Stimmen der Vernunft in den Weiten des Internets müsste man glatt verzweifeln.

Eine solche Rede auszuzeichnen ist äquivalent zu einer Auszeichnung einer reinen Lügengeschichte mit einem Preis für die beste Reportage. Oh stimmt ja. Der Fall Relotius. Ist ja schon passiert. Na ist doch schön, dass die Medien im Gleichklang in den Untergang marschieren. Danke an Claas Relotius, der wie kein anderer die “Fake News” des Jahrzehnts enttarnte: nämlich das der SPIEGEL angeblich eine Recherche- und Dokumentationsabteilung unterhält, die Fakten gegenprüft, bevor ein Artikel erscheint. Haltung ist eben wichtiger als Inhalt. Weiter so. Deutschland schafft sich ab, und der Qualitätsjournalismus geht mit gutem Beispiel voran.

Die FAZ schreibt über Softwarelizenzen

Die Situation: ich lese gemütlich auf dem Kindle die FAZ vom 18.4.2018. Im Wirtschaftsteil stutze ich – der Titel des Artikels: “Risiken offener Software”. Nicht gerade FAZ-Kernkompetenz, das könnte interessant werden. Ich lese den Artikel unter immer heftigerem Kopfschütteln bis zum Ende. Geschrieben hat ihn ein Jurist namens Hendrik Schöttle – alle meine Vorurteile über die meisten Juristen waren wieder bestätigt. Ich lege den Fall zu den Akten.

Heute vernetzten sich ein paar Neuronen dahingehend, dass mir der Artikel wieder ins Bewusstsein geriet. Ich recherchierte über den Autor und stellte erstaunt fest, dass dieser durchaus schon ein paar Artikel zu Softwarelizenzen und den rechtlichen Konsequenzen dieser veröffentlicht hat, u.a. im Linux-Magazin. Hier 2011 bei Golem.de wird über einen Vortrag von Herrn Schöttle auf dem Linuxtag berichtet, dort spricht ja auch nicht Hinz und Kunz. Der Artikel ist aber doch sehr unscharf und dritte Hand, so dass ich daraus keine Rückschlüsse über die Qualität des Vortrags ziehen will.

Leider ist der aktuelle FAZ-Artikel nicht online verfügbar (ich habe ihn zumindest nicht gefunden), und so muss meine Kritik ohne Referenzen auf das Original auskommen. Was schade ist, ich bin mir sicher dass nur das Lesen des Originals im Zusammenhang mein zunehmendes Kopfschütteln vollwertig erklären kann. Aber genug der Vorrede.

Schon die Hinführung zum Thema irritiert. Es wird eine letztens (wann? wer?) vor Gericht ausgetragene Auseinandersetzung wegen Verstoß gegen die GPL beschrieben – der Beklagte hatte wohl etwas Linux-basiertes verkauft, aber die GPL nicht mitgeliefert. Also ein klassischer Anfängerfehler. Wie man das als Aufhänger für irgendwas außer “manche Leute können nicht lesen” nehmen kann, erschließt sich auch im weiteren Verlauf des Artikels nicht.

Stattdessen wird direkt mal “GPL” und “Open Source” quasi synonym verwendet – unverzeihlich. Dann erzählt der Autor, dass die meisten Lizenzen aus den späten 80ern und frühen 90ern stammen würden und deshalb aus nicht näher ausgeführten Gründen nicht in die Welt des WWW oder der Smartphones passen. Sie würden nicht “skalieren” – auch eine merkwürdige Verwendung dieses Wortes. Laut Autor sind jedenfalls die Pflichten aus den Lizenzen (offenbar sind jetzt also mehrere, wenn auch ungenannt bleibende Lizenzen jenseits der GPL ebenfalls gemeint) “in der heutigen Welt komplexer IT-Systeme aber kaum noch zu bewältigen”. Eine interessante Hypothese, die aber doch mindestens eines schlagenden Beispieles bedurft hätte – ich kenne alle möglichen Lizenzen, aber die allermeisten OSI-approved Open Source-Lizenzen kennen keine solchen kaum zu bewältigenden Pflichten.

Ohne weitere Umschweife springt der Autor zum Thema “unklare Anforderungen der Lizenzen”. Wieder scheint der Autor nur die GPL im Blick zu haben, wirft dann noch “Linux” in die Debatte ein ohne auch nur im Mindesten sich darum zu kümmern, was genau er denn nun mit “Linux” meint – nur der Kernel, oder auch noch was drumrum. Es lässt sich entfernt erahnen, denn es ist dann von “Dutzenden unterschiedliche Lizenzen” die Rede, die sich auf “mehr als 60000 Dateien verteilen”. Aha. Was das im Einzelnen für die Einhaltung der GPL jetzt bedeutet, bleibt weiterhin im Dunkel. Und ja, die GPL ist durchaus unklar, leider vertieft der Autor das aber nicht weiter. Allein die Abgrenzung zwischen “derived/combined work” und “mere aggregation” könnte Bände füllen, die FSF eiert da ja übel herum.

Und so geht es weiter. Unklare Begrifflichkeiten wechseln sich ab mit merkwürdigen Hypothesen (die Ausführungen zum angeblich von der GPL zwingend verlangten Haftungsausschluss sind da fast schon eine Erholung, weil sofort ersichtlich komplett falsch, siehe z.B. GPLv2 2.c)), die nicht weiter begründet werden. Eine Kostprobe: die Weitergabe aller erforderlichen Informationen und Dokumente sei oft unwirtschaftlich. Nun kann man sich schon Fälle vorstellen, in denen das tatsächlich der Fall sein mag, aber “oft”? Also so wie in “die Mehrzahl der Fälle”? Insbesondere, wenn man Software baut, die Open-Source-Komponenten nutzt – und jetzt stelle ich mal die unbelegte Hypothese auf, dass das die übergroße Mehrzahl der Open-Source-Nutzung darstellt – ist diese Weitergabe ja wohl völlig problemlos möglich. Sieht der Autor aber anders – “für den Mittelstand sind solche Anforderungen schlichtweg nicht zu stemmen.”

Nachdem also alle möglichen Probleme, die so oder ähnlich angeblich “oft” das Befolgen von Anforderunen von Open-Source-Lizenzen verunmöglichen, beschrieben wurde, kommt der Autor mit einer brillianten Idee um die Ecke: anstatt sinnlos Aufwand in das Befolgen von Open-Source-Lizenzbedingungen zu stecken, soll man diesen Aufwand doch stattdessen in Softwareentwicklung stecken, und zwar in Software der Geschmacksrichtung “Public Domain”. Hier wird es nun völlig abstrus – “Public Domain” ist in der Welt der Software einer der am schlechtesten definierten Begriffe, und lizenzrechtlich ganz schwierig zu behandeln. Ganz abgesehen von der irrigen Idee, dass man relevant komplexe Softwarebibliotheken mal schnell als “Public Domain” aus dem Boden stampft, für Kosten die niedriger liegen sollen als die Herstellung von Compliance z.B. zur BSD-Lizenz. Oder APL. Oder EPL. Oder <insert favourite open source licence here>. Man fasst es nicht. Insbesondere – mit den Worten des Autors – “in der heutigen Welt komplexer IT-Systeme” – ist diese Idee so absurd, man kann es nicht in Worte fassen.

Unbeantwortet lässt der Autor auch die interessante Frage, inwieweit Kaufsoftware, die für eigene Software und/oder Hardware eingesetzt wird, dieses Problem lösen soll – dort wimmelt es von halbgaren Lizenzbestimmungen, die nicht einen Deut so gut verstanden sind wie die Open-Source-Lizenzen. Da bleibt wohl nur “do it yourself” – angefangen beim Betriebssystem natürlich.

Schlussbemerkung: ich will damit nicht behaupten, dass “Compliance” bezüglich der Lizenzsituation einfach wäre. Aber es ist handhabbar, insbesondere wenn man sich von der GPL fernhält. Eine Lizenz, die derart unklar formuliert ist und derart komplexe Auswirkungen auf damit “verbundene” Software hat, sollte man einfach meiden. Problem gelöst.

Und warum steht dieser mein Artikel nun im Politikblog und nicht im IT-Blog? Weil es hier schon die Kategorie “Qualitätsjournalismus” gab. Weil ich im IT-Blog nur Fachzeitschriften kritisiere. Wobei das manchmal auch im RISC OS-Blog passiert.

Wofür Meltdown und Spectre gut sind

Die IT-Welt ist gerade in heller Aufregung, seit die Sicherheitslücken mit den illustren Namen “Spectre” und “Meltdown” bekannt wurden.

Nun ist das hier mein Politik-Blog und nicht mein IT-Blog, deshalb soll es nicht um technische Details dieser Beinahe-Katastrophe für die IT-Sicherheit von uns allen gehen. Zumal die Fachpresse einen ganz guten Job macht, die Probleme zu beleuchten.

Nein, man soll ja bei allem das Gute sehen. Und tatsächlich: Gut an solchen Technik-Katastrophen ist, dass man die Glaubwürdigkeit der Massenmedien anhand eines Themas beurteilen kann, bei dem ich mich recht gut auskenne. Exemplarisch empfehle ich diesen Artikel in der FAZ, nicht etwa auf der dortigen Satire- oder Humor-Seite sondern im Wirtschaftsteil. Also vermutlich ernst gemeint. Kurzzusammenfassung: für alle vom Fach ist das beste Satire. Es sind derart viele Details dort so falsch dargestellt, dass nicht mal das Gegenteil richtig ist. Blog-Kollege Danisch hat das sehr süffisant kommentiert, dem habe ich wenig hinzuzufügen.

Nur vielleicht noch ein falsches Detail aufgegriffen: ARM ist kein Chiphersteller. Und er ist auch nicht auf Smartphones spezialisiert. Und die Sicherheitslücken unter “Chipskandal bei Intel” zu subsummieren ist so weit weg von der Realität, dass es fast schmerzt.

Unterm Strich: man sollte den Massenmedien kein Wort ungeprüft glauben. Bei keinem Thema dieser Welt. Guter Journalismus ist – außerhalb der spezialisierten Fachpresse – tot. Lest mehr Blogs, aber Hirn einschalten nicht vergessen. Das hilft immer beim Medienkonsum. Auch wenn es häufig Schmerzen verursacht.

Prozentrechnen für Anfänger

Seit einigen Tagen arbeite ich (selten, immer mal wieder) an einem Artikel, den ich mit “Auffrischungskurs Grundrechenarten” betitelt habe. Dort versuche ich nachzuweisen, dass offenbar in breiten Teilen der Bevölkerung mit einer ziemlichen Häufung bei Journalisten die einfachsten mathematischen Grundlagen in Vergessenheit geraten sind. Niemand scheint in der Lage, simpelste Behauptungen einfach mal mit gesundem Menschenverstand und den vier Grundrechenarten nachzuprüfen.

Jetzt habe ich aber gerade bei Focus Online dieses Machwerk gelesen, weshalb der Themenkomplex “Prozentrechnen” noch vor den Grundrechenarten in meinen Focus (haha) rückt. Ganz abgesehen von den schwachsinnigen Ideen einer inkompetenten Umweltministerin, von denen der Artikel berichtet – der laxe Umgang mit dem Thema Prozentrechnen erschüttert mich immer noch zutiefst (vermutlich aber nur, weil ich allen Journalisten eine Restintelligenz zubillige – eine Vermutung meinerseits, deren Erhärtung wohl zu meinen Lebzeiten nicht mehr gelingen wird), obwohl er bei fast jeder Diskussion über Wahlergebnisse beobachtet werden kann. Noch häufiger gibt es wohl nur die Verwechslung von Leistung und Energie bei den üblichen Energietechnikdiskussionen.

Liebe Journalisten, es gibt einen gewaltigen Unterschied zwischen Prozent und Prozentpunkten. Man schaue sich die Abbildung 1a im Artikel an. Zunächst das kleinere Problem: wenn eine Spalte mit “Rückgang” überschrieben ist, sollte man bei einem tatsächlichen Rückgang sich doch bitte das zusätzliche Minus vor der Zahl sparen. Oder stattdessen “Veränderung” drüberschreiben. Nein, die Zahlen sind auch noch offensichtlich komplett falsch, weil Prozent verwendet wird für einen Wert, der eigentlich Prozentpunkte ausdrückt. Wenn der Dieselanteil bei Toyota von 16% auf 6% gesunken ist, dann handelt es sich eben um einen Rückgang von 10 Prozentpunkten, oder anders ausgedrückt um einen Rückgang von 62,5%. Besonders witzig: für den Artikel hätten größere Zahlen ja sogar genau ins Konzept gepasst, aber der Journalist war dank Mathematikagnostik zu blöd diesen Elfmeter zu verwandeln.

Und nein, die Tatsache, dass die Grafik womöglich aus einer anderen Quelle stammt (sollte man Quellenangaben trauen, die von solch einem Qualitätsjournalisten stammen?), ist keine Entschuldigung. Ein Minimum an Eigenleistung sollte doch immer noch möglich sein, auch bei einem werbefinanzierten Online-Medium mit zu Recht schlechtem Ruf.