Brexit-Update

Mein letzter ausführlicher Artikel zum Thema Brexit stammt vom Juni 2016 – Zeit für ein Update.

Seither hat sich einiges getan. Ein Austrittsabkommen wurde zwischen Briten und EU verhandelt und vom britischen Unterhaus – wenig überraschend, wenn man sich die Inhalte des Abkommens im Detail anschaut – mit überwältigender Mehrheit abgelehnt. Besonders die Regelungen rund um Nordirland waren derart absurd, dass eine Zustimmung vom Abkommen einer Aufgabe der nationalen Souveränität gleichgekommen wäre. Die Zeichen stehen also momentan auf „No-Deal-Brexit“, sprich dem Austritt der Briten aus der EU ohne spezifisches Austrittsabkommen.

Die Qualitätspresse ist sich weitestgehend einig, dass das zu absolutem Chaos und schweren wirtschaftlichen Problemen auf der Insel führen wird. Ich muss gestehen, dass ich da ganz anderer Meinung bin. Die Außenhandelsbilanz der Briten zeigt, dass relativ wenig in die EU exportiert wird und relativ viel aus EU-Ländern (vor allem Deutschland) importiert wird. Es steht also eher zu befürchten, dass Deutschland härter vom Brexit getroffen wird als die Briten. Auch wichtig zu wissen: „No Deal“ bedeutet Rückfall auf die WTO-Regeln im internationalen Handel. Also das, was Deutschland bzw. die EU grob mit USA, Kanada, China, Russland und Japan hat. Da ist jetzt so spontan kein riesiges Problem zu sehen. Ganz im Gegenteil haben die Briten die Chance, ohne die schwerfällige EU deutlich zügiger und unkomplizierter Freihandelsabkommen mit dem Rest der Welt zu schließen und natürlich die alten Commonwealth-Connections wiederzubeleben.

Allerdings setzt dieser Optimismus voraus, dass die Briten zu einer insgesamt pragmatischen, marktwirtschaftlichen und deregulierenden Wirtschaftspolitik zurückkehren. Möglicherweise zu optimistisch gedacht, wenn man das jetzige politische Personal sich anschaut.

Immer wieder wirft die Qualitätspresse die Frage auf, warum ein halbwegs vernünftiger Mensch denn überhaupt aus der EU austreten wollen würde. Meines Erachtens hat der Austrittsprozess der Briten nach der Volksabstimmung sehr viele neue Argumente für einen Austritt geliefert. Ich hätte es nicht für möglich gehalten, wie schäbig sich die Vertreter der EU bei den Verhandlungen verhalten haben – man schien immer nur darauf bedacht zu sein, an den Briten ein Exempel zu statuieren, schon um anderen EU-Ländern zu signalisieren, dass so ein Austritt gar keine gute Idee ist – bestrafe einen, erziehe alle. Zum Schämen, und ganz klar wider die Interessen der verbleibenden Mitgliedsstaaten. Gleichzeitig ein Armutszeugnis, dass das Gebilde EU offenbar nur durch Zwang und Angst zusammengehalten werden kann.

Witzig fand ich, wie oft betont wurde, dass ein Austrittsabkommen keinesfalls „Rosinenpickerei“ sein dürfe – das ist ja nichts anderes als das Eingeständnis, dass die EU voller Regelungen ist, die nicht zum Vorteil („Rosinen“) seiner Mitgliedsstaaten sind, sondern zum Nachteil. Warum gibt es diese Regelungen dann? Zeit, sie abzuschaffen. Leider hat mit dem Abschied der Briten nun die Regulierungs- und Geldverbrennerfraktion in der EU ein noch deutlicheres Übergewicht bekommen. Ich wage die Prognose, dass auch Deutschland noch zu meinen Lebzeiten die EU verlassen wird, wenn diese sich nicht gravierend reformiert. Dazu wird es aber eine künftige Generation von Politikern geben müssen, die pragmatisch und nicht ideologisch geprägt sind – nun gut, jetzt wo ich es so formuliere, ist meine Prognose wohl eher als vage Hoffnung meinerseits zu verstehen.

Herr Özdemir hielt eine Rede

Ist schon ein paar Tage her, als die Meldung durch die Nachrichten geisterte. Cem Özdemir, unser grüner Lieblingsschwabe, hat eine Auszeichnung erhalten. „Rede des Jahres 2018“, verliehen durch das Rhetorikseminar der Universität Tübingen. Hier ein Bericht des SWR über diesen Sachverhalt. Olaf Kramer, Rhetorik-Professor in Tübingen, sprach von einem „herausragenden Debattenbeitrag“ und von „Emotionalität mit starken Argumenten unterbaut“. Als ich zum ersten Mal die Meldung im Radio hörte, wurden auch ein paar Ausschnitte der Rede gesendet. Die fand ich nun ausgesprochen peinlich, von Argumenten keine Spur, es klang eher so nach beleidigtem Kleinkind im Kindergartenstreit. Naja, Medien halt, wahrscheinlich die falschen, dafür plakativen Ausschnitte der Rede gesendet – ich nahm mir vor, die gesamte Rede im Zusammenhang nochmal nachzuhören und -lesen.

Aber: ich bin (mal wieder) zu spät dran. Die fleißigen Blogger von ScienceFiles.org haben den Job schon erledigt, die Rede in ihrer ganzen Tiefe (oder besser: Flachheit) zu analysieren – hier nachzulesen.

Früher, als Wörter noch eine festgelegte und allgemein akzeptierte Bedeutung hatten, wäre die Rede vielleicht mit „Thema verfehlt“, „vollständige Abwesenheit von Argumenten“, „voller wilder Anschuldigungen ohne Begründung“, „außerordentlich schlecht strukturiert“ oder „peinliches Rumgeplärre“ kommentiert worden. Mir scheint, der Neusprech hat sich endgültig durchgesetzt. Ohne die seltenen Stimmen der Vernunft in den Weiten des Internets müsste man glatt verzweifeln.

Eine solche Rede auszuzeichnen ist äquivalent zu einer Auszeichnung einer reinen Lügengeschichte mit einem Preis für die beste Reportage. Oh stimmt ja. Der Fall Relotius. Ist ja schon passiert. Na ist doch schön, dass die Medien im Gleichklang in den Untergang marschieren. Danke an Claas Relotius, der wie kein anderer die „Fake News“ des Jahrzehnts enttarnte: nämlich das der SPIEGEL angeblich eine Recherche- und Dokumentationsabteilung unterhält, die Fakten gegenprüft, bevor ein Artikel erscheint. Haltung ist eben wichtiger als Inhalt. Weiter so. Deutschland schafft sich ab, und der Qualitätsjournalismus geht mit gutem Beispiel voran.

Von Bienen und Hummeln

Wem ist der Fauxpas in der Überschrift direkt aufgefallen? In der Wikipedia ist nachzulesen, dass die Hummel schlicht Gattung aus der Familie der „Echten Bienen“ ist. Typisch im Sprachgebrauch (und auch im Sachkundeunterricht in der Grundschule, wenn mich mein Gedächtnis nach dieser langen Zeit nicht trügt) scheint aber zu sein, dass mit der Biene eher nur die klassische Honigbiene gemeint ist (die ihrerseits so klassisch gar nicht ist – dazu später mehr), während die Hummel ähnlich der Hornisse oder der Wespe eher separat gesehen werden – und wieder ein Fauxpas: die Hornisse ist schlicht eine Wespenart. Gar nicht so einfach mit der Biologie und ihrer Systematik, die oft genug ja auch revidiert werden muss, wenn man sich die Genome dieser Viecher mal genauer anschaut.

2018 war ja ähnlich wie schon 2017 voll von Berichten zum Bienensterben, manchmal auch allgemeiner zum Insektensterben. Bemerkenswert fand ich immer die nahezu vollständige Abwesenheit nachvollziehbarer Fakten, insbesondere was denn genau zu den üblicherweise benannten Schuldigen (intensive Landwirtschaft, übermäßiger Pestizideinsatz speziell von Neonicotinoiden und natürlich von Glyphosat, Zersiedelung und Bodenversiegelung, Monokulturen, Klimawandel) an wissenschaftlich aussagekräftigem Material vor allem statistischer Natur zugrunde gelegt wird. Bei näherer Recherche konnte ich nicht mal aussagekräftige Quellen zur Aussage „Rückgang der Insektenanzahl“ oder „Rückgang der Artenvielfalt“ finden – zu windig die kümmerlichen Versuche, Insektenpopulationen auch nur annähernd quantitativ zu erfassen. In die immer lesenswerte Unstatistik des Monats hat es das Insektensterben gleich zweimal geschafft – August 2017 und Oktober 2017. Aus mickrigen Stichproben lassen sich auch mit noch so kreativer Mathematik nun mal keine validen und seriösen Erkenntnisse ableiten. Rein intuitiv würde ich vermuten, dass es bei der „Bienengesundheit“ sehr viele Einflussfaktoren gibt, beispielsweise vor allem das Wetter, das nicht unerheblich andere mögliche Faktoren überlagert oder sogar dominiert. In diesem Zusammenhang könnte der vermutete Klimawandel in Europa mit den damit einhergehenden milderen Wintern sogar ein Segen für die Bienen sein.

Stellt man sich mal ganz dumm, kann man ja mal von Helmut Kohls Weisheit „Wichtig ist, was hinten rauskommt“ ausgehen. Würde es einen merklichen Rückgang in der Bienenpopulation geben, müsste es doch anderweitig erfasste Kennzahlen geben, in denen sich das niederschlägt (bzw. wenn es sich nicht niederschlägt – muss es „uns“ denn dann überhaupt interessieren?). Ich denke da an landwirtschaftlichen Ertrag, Obst- und Gemüsepreise, Zahl der Bienenvölker, Honigproduktion – irgendwas. Ich habe recht ausführlich recherchiert, und in keiner dieser Kennzahlen etwas Stichhaltiges gefunden, was auch nur annähernd auf ein Problem hinweisen könnte. Gesichert scheint nur zu sein, dass die Honigbiene weltweit genau drei Probleme hat: die Varroamilbe, die Varroamilbe und die Varroamilbe. Dabei handelt es sich um einen vermutlich aus Asien eingeschleppten Parasiten, der vor allem die in Europa verbreiteten Honigbienenarten stark dezimieren kann. Aber selbst dieser Parasit hat es nicht geschafft, bleibenden Eindruck in irgendeiner der genannten Kennzahlen zu hinterlassen. Obwohl es im Moment kein Patentrezept gegen den Befall durch die Varroamilbe gibt, scheint man durch verschiedene Maßnahmen die Seuche ganz gut im Griff zu haben.

Nun gibt es die oft zitierte Hypothese, dass die Honigbiene durch verschiedene „Stressfaktoren“ besonders anfällig für den Befall durch die Varroamilbe ist. Klimawandel, Pestizide, Rückgang der Artenvielfalt, Monokulturen, man kann fast sagen die üblichen Verdächtigen aus dem Repertoire der Öko-Verirrten. Ich habe dazu nicht mal einen erhärteten Verdacht gefunden. Insbesondere die Tatsache, dass diverse andere Honigbienenzuchtlinien wie die östliche Honigbiene, die afrikanisierte Honigbiene oder russische Stämme (Primorski-Bienen) eher resistent sind, scheinen der Hypothese zu widersprechen. Ebenso natürlich die Tatsache, dass es über die verschiedenen Regionen hinweg keine Korrelationen zu Klimaänderungen zu geben scheint, die über „Wetter“ hinausgehen. Man wird das Problem also besser wissenschaftlich angehen – mal sehen, ob es hier in Zukunft durch Einkreuzungen gelingt, resistente Arten zu züchten. Oder gar durch Einsatz von Gentechnik? Das würde unseren Öko-Verirrten natürlich gar nicht schmecken. Gene! Im Honig! Man kann sich den Aufschrei schon jetzt ausmalen.

In Deutschland gab es übrigens tatsächlich über einige Jahre hinweg einen Rückgang bei der Zahl der Bienenvölker (hier ein interessanter Blogbeitrag eines Stadtimkers, allerdings weist er auch völlig zurecht auf die fragliche Qualität der Statistik der FAO hin, es gibt dazu weitere Beiträge, die nahelegen, dass die Zahlen genauso gut ausgewürfelt sein könnten). Das korrelierte allerdings hervorragend mit dem Rückgang der Imker. Seit die Zahl der Imker wieder steigt, steigt auch wieder die Zahl der Bienenvölker. In den USA, die bei der Industrialisierung der Landwirtschaft schon ein etwas fortgeschritteneres Stadium erreicht haben, sind die Imker übrigens üblicherweise gewöhnliche Dienstleister für die Farmer. Was ja auch irgendwie Sinn ergibt – wenn die Zahl der Bienen über Wohl und Wehe der Menschheit entscheidet (anders kann man Titel wie „Bienensterben – Wann kippt unser Ökosystem endgültig?“ im bekanntlich hochseriösen Öffentlich-Rechtlichen Fernsehen (Sendung „Hart aber fair“ von 2017) wohl kaum deuten) – wie könnte man dann die Bienenhaltung und -zucht ein paar Hobby-Imkern überlassen? Auch das scheint mir ein Hinweis zu sein, dass es die behauptete Dramatik der Situation nicht ansatzweise gibt.

Ein interessanter Punkt bei den Bienen ist der Vergleich Honigbiene gegen Wildbiene. Die Honigbiene ist ja eine optimierte Züchtung, um Nektarsammelleistung, Bestäubungsleistung, Robustheit und Größe des Bienenvolkes zu optimieren. Zu den Wildbienen wiederum gehört beispielsweise die Hummel. Hier interessant: entgegen dem Eindruck, den der Volksmund mit der „fleißigen Biene“ erweckt, ist die Hummel ein viel effizienterer Bestäuber – die Hummel fängt morgens früher an, hört abends später auf, ist schneller von Blüte zu Blüte unterwegs, kann schon ab 2 Grad Außentemperatur zum Bestäubungsflug aufbrechen (die Honigbiene startet erst so bei 10-12 Grad) und ist viel unempfindlicher gegen schlechtes Wetter. Zudem gibt es Blüten, die aufgrund ihrer Struktur nur durch die langrüsseligen Hummelarten bestäubt werden können. Ja, es gibt eine Menge Details zu wissen bei dieser ganzen Problematik…inzwischen werden spezielle Zuchthummelvölker, meist Abkömmlinge der Dunklen Erdhummel, für Bestäubungszwecke vor allem in Gewächshäusern eingesetzt. Weil die Hummel halt bestäubungstechnisch die bessere Honigbiene ist. Nur für die Honigproduktion taugt sie natürlich nicht.

Amüsantes Detail am Rande: das im Biolandbau besonders gerne eingesetzte Pestizid Kupfersulfat (ist ja irgendwie „natürlich“ und deshalb aus mir unerfindlichen Gründen trotz erwiesener Schädlichkeit für allerlei Lebewesen inklusive Menschen im Biolandbau zulässig) gilt als besonders bienenschädlich. Ein klassisches Eigentor, das bevorzugt dann fällt, wenn Ideologie über Fakten steht.

Und ein weiteres Detail: sollten tatsächlich Monokulturen das Problem sein, empfehle ich den sofortigen Stopp des Biomasseanbaus zum Zwecke der Rettung unseres Klimas. Die „Vermaisung der Landschaft“ scheint mir ein relativ naheliegender Grund für einen eventuellen Rückgang bei Wildbienenarten und anderen Insekten zu sein. Laut dieser Quelle dienten bereits 2010 ganze 18% der Ackerfläche dem Biomasseanbau. Man stelle sich vor, welches Natur- und damit Insektenparadies Deutschland wäre, wenn diese 18 Prozent renaturierte Flächen wären. Und wenn man dann noch den Biolandbau zugunsten des viel weniger flächenintensiven konventionellen Landbau aufgeben würde (je nach Quelle ist der Hektarertrag von Biolandbau nur etwa halb so groß wie beim konventionellen Landbau – diesen extremen Flächennachteil kann die teils artenvielfaltschonendere extensive Landwirtschaft nicht kompensieren)…aber nicht vergessen: nicht zu viel renaturieren, denn wenn man in Deutschland eine nahezu beliebige Fläche Natur sich selbst überlässt, steht dort nach spätestens 50 Jahren nur Wald. Wald ist aber ein vergleichsweise artenarmer Naturraum, und für unsere Bienchen blüht dort entschieden zu wenig.

Um mal plakativ einen Strich drunter zu formulieren: Pseudo-Umweltschutz in Form von Biolandbau und Biomasse-Produktion ist der Biene wahrer Todfeind. Damit gilt weiterhin die alte Weisheit: gut gemeint ist das Gegenteil von gut gemacht.

Als positiven Fingerzeig für unsere Zukunft nehme ich mal mit, dass es sich beim Bienensterben, sollte es in nennenswertem Umfang existieren, wenigstens um ein potenziell seriöses Problem handelt, auch wenn man politisch zumindest in Deutschland nicht gewillt scheint, daraus die naheliegenden Konsequenzen zu ziehen, sondern eher als Thema nutzt, um auf die alten Feindbilder einzuprügeln. Auf alle Fälle wären hier Lösungen sinnvoller als für Pseudoprobleme wie CO2-Ausstoß, Spuren von Feinstaub oder Tod durch Stickoxide.

Wer ein paar Informationen und Meinungen jenseits des Mainstreams „wir werden alle sterben“ lesen will, kann einen interessanten Artikel von Georg Keckl hier nachlesen. Wie überhaupt zu biologischen und agrarischen Themen die Homepage von Georg Keckl oft interessante Artikel bietet. Der Mainstream wird eher von Filmen wie „Silence Of The Bees“ und „More Than Honey“ (oft irrtümlicherweise in der Rubrik „Dokumentarfilm“ verortet, sind es maximal Dokumentationen über clevere Propagandatricks von ähnlichem Kaliber wie die beliebten Schülerquäl- und -desinformationswerke „Silent Spring“, „Super Size Me“, „An Inconvenient Truth“, „Bowling For Columbine“ oder „Limits Of Growth“) repräsentiert. Einer näheren Betrachtung halten solche Machwerke nie stand, dazu sind die Fakten, die unzweifelhaft in homöopathischen Dosen durchaus vorkommen, zu einseitig dargestellt und durch geschickte Auslassung und fehlende Differenzierung bis zur Unkenntlichkeit verzerrt. Propaganda eben.

Der falsche Film

Immer häufiger komme ich mir vor wie im falschen Film. Es wird über Randprobleme berichtet und diese zum Weltproblem hochstilisiert. Es wird über politische Entscheidungen berichtet, die keine andere Zielrichtung mehr zu kennen scheinen als die Einschränkung der persönlichen Freiheit, oft unter dem Deckmantel des Umweltschutzes. Es ist zum Verzweifeln.

Wahllos herausgegriffen ein paar Themen der letzten Tage.

Von Julia Klöckner, unser aller Ernährungs- und Verbraucherschutzministerin, wird berichtet, dass demnächst der große Durchbruch bei der Sicherstellung der gesunden Ernährung der Bevölkerung bevorsteht. Natürlich steckt wieder staatliche Regulierungsabsicht dahinter, weil man ja auf keinen Fall so ein entscheidendes Thema wie „Essen“ der freien Entscheidung des Einzelnen überlassen kann. Nein, man muss haarklein der Industrie vorschreiben, was wo und wie in Fertiggerichten landen darf. Wie alle wissen, sind Zucker, Fett und Salz des Teufels und müssen dringend im Zaum gehalten werden. Auch die teuflischen zuckerhaltigen nichtalkoholischen Getränke werden zukünftig rund 15% weniger Zucker enthalten müssen. Wie genau in Zukunft verhindert werden soll, dass der Bürger beim Selbstkochen unerlaubte Zutaten verwendet – vermutlich bekommt jeder seine staatliche Nanny zugeteilt, oder das Haus wird kameraüberwacht. Bezugsscheine für eine gewisse maximale Anzahl von Kalorien im Monat scheinen auch schon in Reichweite – wo kämen wir hin, wenn hier jeder macht was er will? Wer bisher dachte, die angedachte Lebensmittelampel wäre der Gipfel des denkbaren Unsinns, muss bereits jetzt umdenken.

Gäbe es noch Reste von gesundem Menschenverstand, man würde einfach alle Inhaltsstoffe in allen Nahrungsmitteln präzise auflisten und dem mündigen Bürger die Entscheidung überlassen. Bei etwas so Simplem wie der Einführung einer Impfpflicht, wo Uneinsichtige Leib und Leben der Schwächsten unserer Gesellschaft einfach aus Jux und Dollerei durch Impfverweigerung gefährden, sieht man verfassungsrechtliche Probleme wegen des Eingriffs in die Entscheidungsfreiheit des Einzelnen. Bei der Ernährung scheint es solche Bedenken nicht zu geben, obwohl hier von Fehlentscheidungen des Einzelnen keinerlei Gefährdung von anderen ausgeht.

Die Tabakindustrie soll verpflichtet werden, eine neue Abgabe zu leisten, mit der beispielsweise die Reinigung von Straßen und Plätzen finanziert werden soll. Weil Zigaretten ja „Einwegwaren“ sind, und diese Vermüllung der Umwelt damit die Schuld des Produzenten ist. Die Konsumenten hingegen sind ja quasi gezwungen, die Kippen irgendwo in die Landschaft zu werfen, Alternativen scheint es nicht zu geben. Die Idee ist ungefähr intellektuell auf einem Niveau, einem Kettensägenhersteller die Abholzung des tropischen Regenwalds zur Last zu legen (ironischerweise gab es das auch schon – im Bereich der Pseudo-Umweltschützer gibt es eben besonders viele intellektuell herausgeforderte und eher einfach strukturierte Menschen).

Gäbe es noch Vernunft in der Politik, man würde einfach das Wegwerfen von Müll (und damit auch von Zigarettenkippen) mit empfindlichen Strafen belegen, und das Problem hätte sich ganz einfach nach dem Verursacherprinzip erledigt.

Die EU hat neue CO2-Grenzwerte für PKWs beschlossen. Mal eben eine reale Verbrauchsreduzierung gegenüber den für 2021 verbindlichen Grenzwerten (die auch schon eher ambitioniert sind) von schlappen 37,5% peilt man für 2030 an. Flottenverbrauch versteht sich, wehe also dem Hersteller, dessen Kunden sich vermehrt für große, schwere,leistungsstarke Fahrzeuge entscheiden. Und gut für die Hersteller, die ihre Kunden für mehr Elektroautos begeistern können, denn das E-Auto wird natürlich als CO2-frei geführt – der Auspuff steht schließlich woanders. Natürlich jammert die Automobilindustrie darüber, wer lässt sich schon gerne Firmenstrategie und Modellpolitik von der Politik vorschreiben – aber bezahlen wird es selbstverständlich der Endkunde. Den preiswerten, nicht ins Letzte verbrauchsoptimierten kleinen Benziner für den Wenigfahrer, der aber trotzdem uneingeschränkt langstreckentauglich ist für den Fall der Fälle, den wird es schlicht nicht mehr geben. Der PKW, die individuelle Mobilität, wird zum Luxusgut werden – etwas, das die Pseudo-Umweltschützer von den Grünen ja schon seit Jahrzehnten planen (siehe auch „5 Mark für den Liter Benzin“ – man hat daraus gelernt und geht nun viel subtiler vor). Der ÖPNV wird mangels Konkurrenz dann noch schlechter und teurer werden, falls das überhaupt noch möglich ist. Naja, vielleicht bleiben die Oldtimer von der Regulierungswut vorübergehend noch verschont, dann könnten wir uns es in einem „kubanischen Szenario“ noch mit einer gewissen Restgemütlichkeit einrichten. Und die wenigen verbliebenen Wohlhabenden werden sich freuen, wenn der Pöbel nicht mehr die Straßen verstopft.

Würde jemand halbwegs Intelligentes auch nur fünf Minuten darüber nachdenken, würde man schlicht den Treibstoff nach seiner CO2-Intensität besteuern und dem Markt die Entscheidung und Optimierung überlassen. Wer viel fährt, würde viel bezahlen müssen. Wer wenig fährt, wenig. Wer viel fährt, würde in Hochtechnologie zur Verbrauchsreduzierung investieren, weil es sich lohnt. Wer wenig fährt, müsste nicht unsinnig Geld für nutzlose Technologie ausgeben, die dann ineffizient in der Gegend rumsteht. Und wer ordentlich Gas gibt, würde auch ordentlich zur Kasse gebeten werden. Wir hätten einen echten Wettstreit der Technologien – Benziner, Diesel, Autogas, Erdgas, Biotreibstoffe, elektrisch betriebene Fahrzeuge, oder Hybride aus verschiedenen Technologien – nur regulierungswütige, besonders dumme Politiker glauben schon heute zu wissen, welche Technologie die „beste“ (für wen? Für welches Ziel?) sein wird.

Gäbe es noch Restintelligenz bei den Wahlbürgern, man würde dieses Politikerpack einfach zum Teufel jagen. Was uns in den letzten dreißig Jahren schon alles unter dem Deckmantel von Umwelt- und Gesundheitsschutz verkauft wurde, ist eine lange und trauriger Aneinanderreihung von sinnlosen und teils kontraproduktiven Verboten, Subventionen und Regulierungen. Der alte Spruch von Ronald Reagan über die drei Phasen des staatlichen Handelns, nie war er aktueller: „If it moves, tax it. If it keeps moving, regulate it. If it stops moving, subsidize it.“

Ich kann kaum ausdrücken, wie sehr mich dieser Nannystaat anwidert. Ich kann nur hoffen, dass sich der Rest der Welt diesem Irrsinn noch zumindest während meiner Lebzeiten widersetzt, so dass es noch valide Auswanderungsziele gibt. Wenn bis dahin Auswanderung überhaupt noch zugelassen wird. Mit Mauerbau haben wir ja auch reichlich Erfahrung, und die Geschwindigkeit staatlicher Freiheitsbeschränkungen lässt nicht ausschließen, dass man das alsbald für eine gute Idee halten wird.

Gedanken zum Klima

Es ist mal wieder Klimakonferenz, und die Gazetten sind voll mit Berichten, Prognosen und Horrormeldungen rund um die kommende (oder schon im vollen Gange sich befindliche) Klimakatastrophe. Zeit, mal ein paar Nägel zum Thema reinzuhauen. Denn die alarmistische Fraktion der Klimawandelgläubigen hat ihre tollen Tage. Anno 2017 habe ich mich in leicht anderem Kontext schon einmal dazu geäußert, an der Sachlage hat sich eigentlich nichts geändert. Auch dieser Artikel von Peter Heller hat an Aktualität nichts eingebüßt.

Bevor ich starte – meine eigene Position ist die des „Lukewarmers“ auf der Skeptikerseite. Im Detail: skeptisch ob der angekündigten Katastrophe, sicher ob der strahlenphysikalischen Eigenschaften von CO2, skeptisch ob des Outputs der Klimamodelle, skeptisch ob der Genauigkeit derzeitiger und vergangener Messungen der Temperaturen, skeptisch ob der kommenden Mehrkosten aufgrund des menschengemachten Klimawandels, skeptisch ob der Höhe des menschlichen Beitrags zur Klimaerwärmung, verzweifelt ob der medialen Darstellung des Stands der Wissenschaft.

Meine eigene „Klimareise“ begann Mitte der 1990er mit einem Workshop im Rahmen meines Energietechnik-Nebenfachstudiums unter dem Oberthema „Derzeitige und zukünftige Energieversorgung und Umweltbelastung in der BRD“ – jeder Student bereitete eine ausführliche Präsentation zu einem bestimmten Teilthema vor, meines war „Treibhausproblematik und CO2“. Weil ich das Thema recht spannend fand, las ich damals den kompletten IPCC-Bericht von 1995 („Second Assessment Report“) durch. Drei große Wälzer (ja! In echt gedruckt!) mit zusammen wenn ich mich recht erinnere über 2000 Seiten.

Aus meiner Sicht hat sich auf der wissenschaftlichen Seite seit damals nicht viel Fortschritt ergeben. Man hat eine Menge Aufwand in die ständige Verfeinerung diverser Klimamodelle gesteckt, die aber leider qualitativ immer noch unter aller Sau sind – und weiterhin einer sauberen Validierung und Verifikation harren, ein für mich als Softwareentwickler unbegreiflicher Vorgang. Ebenso unbegreiflich, dass es immer noch unzählige gefrickelte Modelle gibt, deren Output sich munter widerspricht, und keiner versucht mal, weltweit die besten Köpfe zusammenzustecken und mit höchster Qualität ein verifizier- und validierbares Modell zu bauen. Wir reden hier doch über das angeblich größte Problem der Menschheit, und wenn man entscheiden will, welche Maßnahmen zu treffen sind, braucht man zwingend ein brauchbares Vorhersagemodell, was diese Maßnahmen denn bringen im Vergleich zu ihren Kosten. Und man sollte ein auf regionaler Ebene einigermaßen präzises Modell haben, denn die Klimaerwärmung bringt ja nicht nur potenziell Nachteile, sondern auch Vorteile, und die müssen abgewogen werden.

Was weiß man denn heute mit Sicherheit (Vorsicht: diverse Die-Hard-Skeptiker werden auch das, was ich jetzt als „sicher“ bezeichne, rundweg verneinen – deshalb werden auch gerne diese unwissenschaftlichen Die-Hard-Skeptiker zitiert, um alle nicht-Alarmisten zu diskreditieren. „Guilt by association“ ist so ein typischer Argumentationsstrohmann, der die Diskussionen oft so unerquicklich macht)?

  • CO2 ist ein Treibhausgas.
  • Die menschengemachten CO2-Emissionen sind weit überwiegend für die Erhöhung der CO2-Konzentration der Atmosphäre verantwortlich.
  • Die strahlenphysikalische Wirkung von CO2 ist geklärt
  • Eine Verdoppelung der CO2-Konzentration der Atmosphäre erhöht die Durchschnittstemperatur der Erde um etwa 0,8 Grad.
  • Seit Ende des 19. Jahrhunderts steigen weltweit die Temperaturen, dabei gab es zwei starke Erwärmungsphasen (grob 1880-1945 und 1970-20xx), wovon nur die zweite Erwärmungsphase etwas mit CO2 zu tun haben kann (während der ersten Phase war der menschengemachte CO2-Ausstoß schlicht viel zu gering)
  • Schäden aus wetterbedingten Naturkatastrophen sind höher als in der Vergangenheit (unklar hingegen, ob das nicht nur am höheren Wohlstand und bereitwilligem Eingehen von vermeidbaren Risiken liegt)

Was weiß man heute mit ziemlicher Sicherheit?

  • Ein weiteres wichtiges Treibausgas ist Wasserdampf – da warme Luft mehr Feuchtigkeit aufnehmen kann, ist es sehr wahrscheinlich, dass es einen Rückkopplungseffekt gibt und durch vermehrten Wasserdampf in der Atmosphäre es bei einer 0,8-Grad-Erwärmung durch CO2 zu einer zusätzlichen Erwärmung von etwa 0,4 Grad aufgrund des zusätzlichen Wasserdampfs kommt

Was ist weitgehend strittig?

  • Wie präzise sind die Klimarekonstruktionen der Vergangenheit? Inwiefern ist die Validität der diversen Proxys (Baumringe, Sedimente, Eisbohrkerne) gesichert?
  • Sorgen steigende Temperaturen für eine größere Wahrscheinlichkeit von wetterbedingten Naturkatastrophen (Stürme, Überflutungen, Starkregen etc.)
  • Welcher Anstieg des Meeresspiegels ist zu erwarten?
  • Ist Anpassung an Klimaerwärmung preiswerter als CO2-Minderung?
  • Was sind preiswerte Maßnahmen zur CO2-Minderung?
  • Wie sind die Rückkopplungseffekte durch die Wolkenbildung – negative oder positive Rückkopplung?
  • Gibt es Rückkopplungseffekte auf oder durch die diversen großen Meeresströmungen und die Ozeane?
  • Verändern sich bisher stabile Wettermuster in Richtung Instabilität?
  • Wie werden sich regionale Wettermuster insbesondere bezüglich Niederschlagsmenge und -häufigkeit ändern?
  • Sind die Rückkopplungseffekte durch die CO2-induzierte Erwärmung positiv oder negativ?
  • Wie entwickelt sich zukünftig die Sonnenaktivität und was sind die Auswirkungen auf unser Klima?
  • Was führte zur ersten Phase der Erwärmung nach dem Ende der „kleinen Eiszeit“?
  • Woran werden wir erkennen, wann die nächste Eiszeit vor der Tür steht?

Und das waren jetzt nur die Punkte, die mir so spontan eingefallen sind. In Summe könnte man auch sagen: nix genaues weiß man nicht. Was es besonders schwer macht, die richtigen Maßnahmen zu ergreifen – im Angesicht dieser Unsicherheit ist man ja fast gezwungen, ausschließlich auf „no-regret-Maßnahmen“ zurückzugreifen, will man dramatische Fehlallokationen vermeiden. Denn wenn man teure Maßnahmen zur CO2-Reduktion ergreift, diese aber aus welchem Grund auch immer nicht zu einem gewünschten Aufhalten des Klimawandels führt (beispielsweise weil der Rest der Welt keine Reduktionsmaßnahmen ergreift, weil die CO2-Sensitivität doch niedriger als gedacht ist etc.), steht dieses Geld nicht mehr für notwendige Anpassungen an das geänderte Klima zur Verfügung.

Nun verfolge ich die Diskussion und Forschung nicht mehr ganz so leidenschaftlich wie Mitte der Nullerjahre, es ist also nicht auszuschließen, dass es inzwischen das perfekte Modell gibt, wir endlich wissen welche Maßnahmen kosteneffektiv sind und wir die Klimasensitivität genau bestimmen konnten. Wer mehr weiß, darf mir gerne mailen.

Es ist ja auch so, dass es Stand heute genau eine großtechnische und weitestgehend kostenneutrale Möglichkeit gibt, CO2 einzusparen: die Nutzung der Kernspaltung. Mal als grober Anhaltspunkt: Frankreich und die Schweiz haben gemessen am BIP nur den halben pro-Kopf-Ausstoß von CO2 gegenüber Deutschland. Weil Frankreich eben viel Kernenergie und recht viel Wasserkraft, die Schweiz viel Wasserkraft und recht viel Kernenergie nutzt, Deutschland hingegen viel Kohle (und demnächst die letzten Kernkraftwerke abschalten wird, was diese Bilanz noch deutlich zu unseren Ungunsten verändern wird). Deshalb irritiert es mich maßlos, wenn dieselben Personen einerseits den menschengemachten Klimawandel als das entscheidende Problem der Menschheit darstellen, gleichzeitig aber den Ausbau der Kernenergie rundweg ablehnen. Das ist kognitive Dissonanz vom allerfeinsten. Oder man kann daraus schließen, dass die Sache mit dem Klimawandel offenbar doch nicht so schlimm sein kann, wenn man nicht mal bereit ist so etwas komplett harmloses wie die Kernenergie als Lösung ins Auge zu fassen.

Wenn man es ernst meint mit der Reduktion von CO2-Emissionen, dann schlage ich folgenden verhältnismäßig preiswerten Weg vor: konsequenter Ausbau der Kernenergie und Nutzung derselben sowohl für Strom- als auch Wärme- und Treibstoffproduktion. Entwicklung kleiner, transportabler Reaktoren, um beispielsweise Meerwasserentsalzung für Trinkwasseraufbereitung und Bewässerungszwecke weltweit einfach und preiswert zur Verfügung stellen zu können. Scheint mir doch relativ einfach und übersichtlich zu sein, man müsste nur aufhören den Panikmachern der Anti-Kernkraft-Fraktion zuzuhören und wieder einen rationalen Diskurs beginnen. Aber vermutlich wird jetzt wieder jemand mit der ungelösten Endlagerfrage kommen – abgesehen davon, dass diese Frage schon lange gelöst ist, zeigt das sehr eindrucksvoll, wie klein in den Augen dieser Menschen doch das Problem des Klimawandels zu sein scheint, wenn eine mögliche, sehr unwahrscheinliche lokale Gefährdung einiger weniger Menschen in sehr ferner Zukunft als wichtiger dargestellt wird als die Verhinderung einer kommenden Klimakatastrophe, die ja angeblich das größte Problem der Menschheit sein soll.

Vorwahlprognosen zu Bayern

Ich habe ein gemischtes Verhältnis zur Demoskopie. Es gibt da durchaus eine saubere statistische Grundlage, wissenschaftlich abgesichert. Aber dann gibt es da die Umfrageinstitute, die „längerfristige Überzeugungen“ von Wählern bzw. Befragten berücksichtigen und dadurch ein undurchschaubares Geflecht an Einflussfaktoren nach Gutdünken in die statistische Grundlage einfließen lassen. Dazu die unterschiedlichen Befragungsarten – wie präzise kann eine Telefonumfrage sein, wenn man eine kleine Stichprobe hat und immer mehr Menschen sich einen Spaß daraus machen, absurde und bewusst falsche Angaben zu machen? Und warum werden in den Medien eigentlich nicht die essentiell wichtigen Fehlermargen berichtet? OK, rhetorische Frage – weder der durchschnittliche Leser noch der durchschnittliche Journalist versteht genug von Statistik, um zu verstehen, warum das eigentlich essentiell ist. Siehe auch „Klimamodelle“ – aber ich schweife ab.

Nun kann man dank wahlrecht.de ja übersichtlich sämtliche Umfragen der einschlägigen Meinungsforschungsinstitute begutachten, auch in ihrem zeitlichen Verlauf. Nach dem Fiasko der Meinungsforscher bei Trump und Brexit ist die Glaubwürdigkeit ja durchaus angeschlagen, und so nehme ich mir die Freiheit eine „Gegenprognose“ zu machen – so rein aus Bauchgefühl, Jux und Dollerei.

Hier kann man die Sonntagsfragenergebnisse für die bayrische Landtagswahl nachlesen. In den aktuellsten Umfragen der Institute sieht man die CSU bei 33-35%, die Grünen bei 16-19%, die AfD bei 10-14%, die SPD bei 10-12%, die Freien Wähler bei 10-12%, die FDP bei 5-6% und die SED bei 4-5% (mit klarer Tendenz zu „nicht im Landtag“).

Mein Bauchgefühl ist: CSU unterschätzt, AfD unterschätzt, Grüne überschätzt, Rest könnte passen. Die „Sonstigen“ taxiere ich mal auf 4%, und so lautet meine Prognose: CSU 37%, AfD 15%, Grüne 14%, FW 11%, SPD 11%, FDP 5%, SED 3%.

Das würde nach meiner Einschätzung auf eine Regierung CSU + FW + ggf. falls als Mehrheitsbeschaffer noch notwendig FDP rauslaufen. Für CSU + Grüne reicht meine Phantasie nicht, die bayrischen Grünen sind eine seltsame Ansammlung linksradikaler Ideologen ohne einen Sympathieträger wie Kretschmann in B-W, und die nicht endenden Auftritte vom Hofreiters Toni im bayrischen Wahlkampf muss eigentlich die bürgerlichen Grünen-Wähler nachhaltig abschrecken. Frau Schulze ist auch eher schwer vermittelbar, aber Grünen-Wähler waren mir andererseits immer ein Rätsel. Die CSU schätze ich höher ein als die Umfragen weil ich viele Unentschlossene für „eigentlich-CSU-aber-vielleicht-ein-Denkzettel-aber-so-schlecht-sind-wir-mit-denen-nicht-gefahren“-Wähler halte, die letztlich in der Wahlkabine vielleicht auch zähneknirschend ihr Kreuz doch wieder bei der CSU machen werden. Allerdings dachte das die BaWü-CDU auch schon mal.

Ich bin gespannt, ob ich näher dranliege als die Demoskopen. Die letzte Landtagswahl war (gerundet) CSU 48%, SPD 21%, FW 9%, Grüne 9%, FDP 3%, SED 2%, sonstige 9%(!). Ich prognostiziere also die übliche Wählerwanderung „alle verlieren etwas an die AfD“, dazu etwas „Grüne statt SPD“ weil niemand gerne Verlierer wählt und die SPD in einem Abwärtsstrudel sondersgleichen steckt, „FW bzw. FDP statt CSU weil man nicht AfD wählen will aber auf keinen Fall CSU-Grüne will“ und „Linke statt SPD und Sonstige“. Nach meiner Prognose schrumpft das linke Lager ziemlich, eben weil die AfD nicht nur von der CSU Wähler zieht, sondern von allen Parteien.

OK, jetzt habe ich doch viele Begründungen für meine Prognose geliefert – scheint also doch nicht nur Bauchgefühl, Jux und Dollerei zu sein. Aber vielleicht habe ich ja auch nur die Zahlen ausgewürfelt und hinterher oberschlaue Begründungen dafür gefunden? Sonntag Abend werden wir schlauer sein. Und ich bin sicher, hinterher finden die Qualitätsmedien wieder sehr gute Erklärungen, warum man das Ergebnis schon vorher hätte wissen können wenn nicht müssen.

Die Sache mit dem Freihandel

Seit US-Präsident Trump ein paar Strafzölle für einige wenige Waren aus der EU angekündigt hat, scheint die EU plötzlich wieder ihre Liebe für den Freihandel zu entdecken. Auch die Medien stellen die Sache häufig so dar, als ob die USA nun plötzlich den freien Warenverkehr torpedieren will, nachdem doch vorher alle einträchtig in Abwesenheit von Zöllen und Regulierungen miteinander Handel getrieben hätten.

Nichts könnte ferner der Wahrheit liegen. Die EU verschanzt sich seit Jahrzehnten hinter extrem hohen Handelsbarrieren vor allem im Agrarbereich, um die heimische Landwirtschaft zu „schützen“, vor was auch immer. Geschützt wird aber nur der Endverbraucher vor preiswerten Lebensmitteln aus dem Ausland. Vor allem die ärmeren Länder der Welt würden liebend gerne ihre Produkte in der EU anbieten, dürfen aber nicht. Aus allen möglichen fadenscheinigen Gründen, vom Einsatz harmloser Pflanzenschutzmittel bis zum Einsatz ebenso harmloser per Gentechnik (natürlich nur per böser gezielter Gentechnik, nicht etwa per guter Gentechnik wie radioaktiver Breitbandbestrahlung als klassiche Züchtungsmethode) optimierter Pflanzensamen.

Fast vergessen scheint, dass die EU ja lange Zeit recht lustlos an TTIP rumverhandelt hat und das Abkommen letztlich platzen ließ – das wäre ein umfassendes Freihandelsabkommen mit Nordamerika gewesen, aber man wollte nicht. Wegen aller möglicher unsinniger Details wie den berühmten Chlorhähnchen. Und ich kann mich an keinen Politiker erinnern, der sich zur Verteidigung von TTIP aufgeschwungen hätte oder eine für den Freihandel noch bessere Alternative propagiert hätte – nein, im Grunde sind unsere Politiker alles Protektionisten der ganz alten Schule. Aber seit nun Trump in dasselbe Horn stößt, ist es plötzlich höchst verwerflich und „Zölle schaden letztlich allen“ und „es droht ein Handelskrieg“ und dergleichen verlogener Statements mehr.

Man schaue sich einfach mal die derzeit geltenden Zölle an, und man wird feststellen, dass für die allermeisten Produkte die EU deutlich höhere Zölle verlangt als die USA. Die nun aber aus unerfindlichen Gründen der böse Bube des Welthandels sind. Auch die Tatsache, dass die EU nicht etwa den dafür vorgesehenen Weg der WTO zur Anfechtung der Strafzölle gehen will, sondern direkt die Einführung eigener Strafzölle auf US-Waren favorisiert, zeigt dass die Äußerungen um die Sorge um den Freihandel bloße Lippenbekenntnisse sind.

Wie ich heute der Presse entnehme, favorisiert Deutschland nun aber plötzlich eine Art „TTIP light“, um die Strafzölle quasi in letzter Sekunde zu verhindern. Als Gesprächsangebot an die USA. Sehr interessant. Es könnte Trumps jüngster Erfolg werden. In den USA gibt es ja einige interessante Blogs, die Trumps Talent als „Dealmaker“ genauer verfolgen und beschreiben, z.B. der Blog von Scott Adams http://blog.dilbert.com/, vielen bekannt als der Erfinder von Dilbert. Empfehle ich jedem als ausgleichende Lektüre gegenüber den Trump-hassenden Medien hierzulande.

Wes Geistes Kind die EU bezüglich Freihandel ist, ließ sich ja auch schön bei den ersten Verhandlungen zum Brexit sehen, oder bei der Behandlung von europäischen Nicht-EU-Nachbarn wie der Schweiz. „Bullying“ ist der passende englische Begriff dafür. Beschämend. Dass Frankreichs Präsident Macron auch noch gleich den Ausstieg der USA aus dem Pariser Klimaschutzabkommens als Handelsnachteil für die EU-Wirtschaft mit in die Zoll- und Freihandelsfrage eingerührt hat – naja, warum sollen die Franzosen bessere Politiker haben als wir.

Lebenszeichen von den Totgesagten

Derzeit ist das Elektroauto bekanntlich in aller Munde. Ein klassischer Hype. Viel zu teuer, viel zu leistungsschwach, aber ein Lieblingskind der Politik, die es mit Subventionen überschüttet und ständig die Privatwirtschaft (und die Autokäufer) für ihre Zurückhaltung bei dieser angeblichen Zukunftstechnologie rügt. Man fragt sich, womit es zusammen hängt, dass die Politik so oft die Rohrkrepierertechnologie favorisiert (siehe auch „Energiewende“). Vermutlich, weil sie mit dem Geld anderer Leute hantiert und nicht mit dem eigenen, das trübt den Blick für selbst einfachste wirtschaftliche Zusammenhänge und verhindert faktenbasierte Einschätzungen eines Preis-Leistungs-Verhältnisses. Wer glaubt, die Politik könne Zukunftstechnologien besser identifizieren als die Marktwirtschaft sollte noch mal die Geschichte der DDR studieren.

Aber das Elektroauto soll nicht das Thema sein. Auf dem diesjährigen Wiener Motorensymposium gab es interessante Meldungen zu dieser ewiggestrigen, aber funktionierenden Technologie namens „Verbrennungsmotor“.

Bosch hat die sofortige Verfügbarkeit einer optimierten Diesel-Abgasreinigung angekündigt – mit viel Fein- und Detailarbeit (das ist das, was Ingenieure tun, liebe Politiker – sie warten nicht auf die Wundertechnologie die alle Probleme löst, sondern entwickelt iterativ immer bessere Lösungen) ist es gelungen, auf Basis bekannter und bewährter Bauteile die realen Abgaswerte auf sensationell niedrigen Stand zu drücken. Dank der Verfügbarkeit bezahlbarer Messinstrumente für die Abgasmessung jenseits von Prüfständen konnte man das nun erreichen. Man spricht von knapp einem Zehntel der laut neuester Abgasnorm zulässigen Emissionen.

VW hat den breiten Serieneinsatz einer einfachen Mild-Hybrid-Technik auf Basis des 48V-Bordnetzes mit Startergenerator in der neuen Golf-Generation 2019 angekündigt. Erhebliche Verbrauchseinsparungen sind zu erwarten, bei marginalen Mehrkosten. Kleiner LiIon-Akku (man spricht von einer Kapazität von nur 1 kWh) ersetzt den Bleiakku, er versorgt sowohl das 48V-Bordnetz als auch den althergebrachten 12V-Zweig mittels DC-DC-Konverter. Der Startergenerator ersetzt den klassischen Anlasser und die Lichtmaschine. Man muss also keine teuren Komponenten dem Baukasten hinzufügen, sondern ersetzt alte durch neue, die nicht wesentlich teurer sind.

Ebenfalls von VW kommt die Ankündigung des neuen 1.5 TGI evo, einem Erdgasmotor mit einem Turbolader mit variabler Turbinengeometrie und Miller-Zyklus. Bekanntlich ist heute schon der Betrieb mit Erdgas in der Gesamtbetrachtung umweltfreundlicher als alle anderen Antriebsarten, sowohl was CO2-Ausstoß als auch was Schadstoffausstoß angeht. Und selbst die Verfechter der erneuerbaren Energien können sich damit anfreunden, weil letztlich ja die „Windgas“-Technik sowas wie der einzige Rettungsanker bezüglich EE-Vollversorgung als Speichertechnologie zur Verfügung steht. Warum also nicht gleich Fahrzeuge mit dem ohnehin anfallenden Windgas betreiben.

Ginge es alleine nach den Fakten – der Siegeszug des Elektroautos wäre vielleicht zuende, bevor er auch nur ansatzweise begonnen hat. Mittels synthetisch hergestellter Kohlenwasserstoffe ist es möglich, den Verbrennungsmotor CO2-neutral zu machen. Der Schadstoffausstoß ist schon heute keine Rede wert, und das beim Verbrennen von vergleichsweise schmutzigem Diesel – kann man den Kraftstoff „designen“ wie bei GtL oder BtL einfach möglich, wird die Verbrennung noch sauberer und die notwendige Abgasnachbehandlung deutlich leichter und preiswerter. Am Ende könnte das einzig sinnvolle Elektroauto ein Plug-In-Hybrid sein, der Kurzstrecken rein elektrisch fahren und gleichzeitig durch seinen konventionellen Antriebsstrang weiterhin bezüglich Reichweite und Tankdauer alle Ansprüche befriedigen kann. Die deutlich preiswertere und leistungsfähigere Variante gegenüber dem reinen akkugestützten Elektroauto.

Leider versucht die Politik weltweit, ihr eigenes Süppchen zu kochen – ob aus reiner Industriefeindlichkeit wie hierzulande oder als halbprotektionistische Maßnahme wie in China, am Ende sind es allesamt Marktverzerrungen, die die Durchsetzung der besten Lösung verhindern zugunsten von politisch erwünschten (oder oft genug auch unerwünschten – die „law of unintended consequences“ wird von der Politik ja mit Hingabe ignoriert), auf jeden Fall aber für den Verbraucher teureren „Lösungen“. Die übliche Asozialpolitik eben. Gott schütze uns vor politischem Gestaltungswillen. Der Wohlstandsverlust durch die politikverursachten Auswirkungen des Dieselskandals (eigentlich ein eigenständiger Dieselskandal, ich denke dazu muss ich auch noch einen Beitrag verfassen) spricht Bände.

Weidmann For President

Ab 2019 kann man vorsichtig Hoffnung schöpfen. Der Totengräber des Euro, Mario Draghi, wird die Kommandobrücke der EZB verlassen. Er hinterlässt einen Trümmerhaufen – er hat es geschafft, innerhalb weniger Jahre durch seine Nullzinspolitik die Sparer zu enteignen, gleichzeitig diversen Pleitestaaten weitere billige Verschuldung zu ermöglichen, die eigentlich verbotene Staatsfinanzierung durch die Hintertür (Aufkäufe von am Markt wenig werthaltigen Staatsanleihen mit frisch gedruckten Euros) einzuführen und letztlich den Zins als Indikator für Knappheit und Risiko komplett abzuschaffen. Und damit hat er ganze Geschäftsmodelle, einstmals solide, gegen die Wand gefahren – das wird uns noch viel Kopfzerbrechen bereiten. Von den Kapitallebensversicherungen bis zu den Altersrückstellungen bei Krankenversicherungen oder generell allen kapitalgedeckten Systemen. Aber am Ende wird es auch die umlagefinanzierten Systeme übel treffen.

Durch die beliebige Verfügbarkeit von Euros bei gleichzeitig niedrigstem Zinsniveau ist Draghi ebenfalls verantwortlich für die blasenartig steigenden Immobilienpreise und damit auch für einen Teil der gestiegenen Mieten.

Nun wäre Jens Weidmann als Zentralbänker alter (Bundesbank-)Schule ein möglicher Nachfolger. Einer, dem Wertstabilität wichtig ist. Einer, der versteht, warum es Zinsen geben muss, und warum es auch im Euroraum für Staatsanleihen sowohl unterschiedliche Zinssätze als auch ein echtes Ausfallriskiko geben muss. Kurz: ein vernünftiger Mann.

Vermutlich wird er aber genau deshalb nicht EZB-Chef werden. Die Bundesregierung macht jedenfalls keinerlei Anstalten, ihn als Draghi-Nachfolger zu positionieren oder gar zu forcieren. D.h. die Wahrscheinlichkeit, dass es ausgeht wie damals bei Trichet oder Draghi, wo sich die südländische Laissez-Faire-Zentralbankidee manifestierte, ist extrem hoch.

Und ich habe den Eindruck, dass der Bundesregierung das alles letztlich sehr recht ist. Angeblich hat Schäuble über die Jahre seit der Staatsschuldenkrise 2007 um die 200 Mrd. Euro allein an Zinsen gespart – wie sonst hätte man auch bei ansonsten besinnungsloser Ausweitung der Staatsausgaben eine „schwarze Null“ hinbekommen können? Und die Politik feiert sich auch noch dafür (und ein anderer Teil der Politik fordert gar eine Abkehr von diesem Ziel und noch weitere Ausweitung der Staatsausgaben), und keiner weist mal vorsichtig darauf hin, dass es keine besonders tolle Leistung ist, bei immer stärker sprudelnden Steuereinnahmen und Nullzinsen gerade mal einen ausgeglichenen Haushalt hinzubekommen. Nein, es ist eine dramatische Fehlleistung. Selbst Keynes hatte gefordert, die in schlechten Zeiten aufgelaufenen Schulden in guten Zeiten zurückzuführen. Wenn man sich die Staatshaushalte aber anschaut, scheinen sich nur die schlechten Zeiten mit den sehr schlechten Zeiten abzuwechseln. Aber den Wähler scheint es nicht zu kratzen, offenbar ist das Verständnis der Grundrechenarten noch weiter zurückgegangen.

Meine Hoffnung: Weidmann schafft es an die Spitze der EZB. Meine Befürchtung: ein Draghi-artiger Nachfolger wird uns stattdessen noch tiefer in die Grütze reiten.

Die FAZ schreibt über Softwarelizenzen

Die Situation: ich lese gemütlich auf dem Kindle die FAZ vom 18.4.2018. Im Wirtschaftsteil stutze ich – der Titel des Artikels: „Risiken offener Software“. Nicht gerade FAZ-Kernkompetenz, das könnte interessant werden. Ich lese den Artikel unter immer heftigerem Kopfschütteln bis zum Ende. Geschrieben hat ihn ein Jurist namens Hendrik Schöttle – alle meine Vorurteile über die meisten Juristen waren wieder bestätigt. Ich lege den Fall zu den Akten.

Heute vernetzten sich ein paar Neuronen dahingehend, dass mir der Artikel wieder ins Bewusstsein geriet. Ich recherchierte über den Autor und stellte erstaunt fest, dass dieser durchaus schon ein paar Artikel zu Softwarelizenzen und den rechtlichen Konsequenzen dieser veröffentlicht hat, u.a. im Linux-Magazin. Hier 2011 bei Golem.de wird über einen Vortrag von Herrn Schöttle auf dem Linuxtag berichtet, dort spricht ja auch nicht Hinz und Kunz. Der Artikel ist aber doch sehr unscharf und dritte Hand, so dass ich daraus keine Rückschlüsse über die Qualität des Vortrags ziehen will.

Leider ist der aktuelle FAZ-Artikel nicht online verfügbar (ich habe ihn zumindest nicht gefunden), und so muss meine Kritik ohne Referenzen auf das Original auskommen. Was schade ist, ich bin mir sicher dass nur das Lesen des Originals im Zusammenhang mein zunehmendes Kopfschütteln vollwertig erklären kann. Aber genug der Vorrede.

Schon die Hinführung zum Thema irritiert. Es wird eine letztens (wann? wer?) vor Gericht ausgetragene Auseinandersetzung wegen Verstoß gegen die GPL beschrieben – der Beklagte hatte wohl etwas Linux-basiertes verkauft, aber die GPL nicht mitgeliefert. Also ein klassischer Anfängerfehler. Wie man das als Aufhänger für irgendwas außer „manche Leute können nicht lesen“ nehmen kann, erschließt sich auch im weiteren Verlauf des Artikels nicht.

Stattdessen wird direkt mal „GPL“ und „Open Source“ quasi synonym verwendet – unverzeihlich. Dann erzählt der Autor, dass die meisten Lizenzen aus den späten 80ern und frühen 90ern stammen würden und deshalb aus nicht näher ausgeführten Gründen nicht in die Welt des WWW oder der Smartphones passen. Sie würden nicht „skalieren“ – auch eine merkwürdige Verwendung dieses Wortes. Laut Autor sind jedenfalls die Pflichten aus den Lizenzen (offenbar sind jetzt also mehrere, wenn auch ungenannt bleibende Lizenzen jenseits der GPL ebenfalls gemeint) „in der heutigen Welt komplexer IT-Systeme aber kaum noch zu bewältigen“. Eine interessante Hypothese, die aber doch mindestens eines schlagenden Beispieles bedurft hätte – ich kenne alle möglichen Lizenzen, aber die allermeisten OSI-approved Open Source-Lizenzen kennen keine solchen kaum zu bewältigenden Pflichten.

Ohne weitere Umschweife springt der Autor zum Thema „unklare Anforderungen der Lizenzen“. Wieder scheint der Autor nur die GPL im Blick zu haben, wirft dann noch „Linux“ in die Debatte ein ohne auch nur im Mindesten sich darum zu kümmern, was genau er denn nun mit „Linux“ meint – nur der Kernel, oder auch noch was drumrum. Es lässt sich entfernt erahnen, denn es ist dann von „Dutzenden unterschiedliche Lizenzen“ die Rede, die sich auf „mehr als 60000 Dateien verteilen“. Aha. Was das im Einzelnen für die Einhaltung der GPL jetzt bedeutet, bleibt weiterhin im Dunkel. Und ja, die GPL ist durchaus unklar, leider vertieft der Autor das aber nicht weiter. Allein die Abgrenzung zwischen „derived/combined work“ und „mere aggregation“ könnte Bände füllen, die FSF eiert da ja übel herum.

Und so geht es weiter. Unklare Begrifflichkeiten wechseln sich ab mit merkwürdigen Hypothesen (die Ausführungen zum angeblich von der GPL zwingend verlangten Haftungsausschluss sind da fast schon eine Erholung, weil sofort ersichtlich komplett falsch, siehe z.B. GPLv2 2.c)), die nicht weiter begründet werden. Eine Kostprobe: die Weitergabe aller erforderlichen Informationen und Dokumente sei oft unwirtschaftlich. Nun kann man sich schon Fälle vorstellen, in denen das tatsächlich der Fall sein mag, aber „oft“? Also so wie in „die Mehrzahl der Fälle“? Insbesondere, wenn man Software baut, die Open-Source-Komponenten nutzt – und jetzt stelle ich mal die unbelegte Hypothese auf, dass das die übergroße Mehrzahl der Open-Source-Nutzung darstellt – ist diese Weitergabe ja wohl völlig problemlos möglich. Sieht der Autor aber anders – „für den Mittelstand sind solche Anforderungen schlichtweg nicht zu stemmen.“

Nachdem also alle möglichen Probleme, die so oder ähnlich angeblich „oft“ das Befolgen von Anforderunen von Open-Source-Lizenzen verunmöglichen, beschrieben wurde, kommt der Autor mit einer brillianten Idee um die Ecke: anstatt sinnlos Aufwand in das Befolgen von Open-Source-Lizenzbedingungen zu stecken, soll man diesen Aufwand doch stattdessen in Softwareentwicklung stecken, und zwar in Software der Geschmacksrichtung „Public Domain“. Hier wird es nun völlig abstrus – „Public Domain“ ist in der Welt der Software einer der am schlechtesten definierten Begriffe, und lizenzrechtlich ganz schwierig zu behandeln. Ganz abgesehen von der irrigen Idee, dass man relevant komplexe Softwarebibliotheken mal schnell als „Public Domain“ aus dem Boden stampft, für Kosten die niedriger liegen sollen als die Herstellung von Compliance z.B. zur BSD-Lizenz. Oder APL. Oder EPL. Oder <insert favourite open source licence here>. Man fasst es nicht. Insbesondere – mit den Worten des Autors – „in der heutigen Welt komplexer IT-Systeme“ – ist diese Idee so absurd, man kann es nicht in Worte fassen.

Unbeantwortet lässt der Autor auch die interessante Frage, inwieweit Kaufsoftware, die für eigene Software und/oder Hardware eingesetzt wird, dieses Problem lösen soll – dort wimmelt es von halbgaren Lizenzbestimmungen, die nicht einen Deut so gut verstanden sind wie die Open-Source-Lizenzen. Da bleibt wohl nur „do it yourself“ – angefangen beim Betriebssystem natürlich.

Schlussbemerkung: ich will damit nicht behaupten, dass „Compliance“ bezüglich der Lizenzsituation einfach wäre. Aber es ist handhabbar, insbesondere wenn man sich von der GPL fernhält. Eine Lizenz, die derart unklar formuliert ist und derart komplexe Auswirkungen auf damit „verbundene“ Software hat, sollte man einfach meiden. Problem gelöst.

Und warum steht dieser mein Artikel nun im Politikblog und nicht im IT-Blog? Weil es hier schon die Kategorie „Qualitätsjournalismus“ gab. Weil ich im IT-Blog nur Fachzeitschriften kritisiere. Wobei das manchmal auch im RISC OS-Blog passiert.