Der Pulsschlag der Statistik

8. Mai 2020

In einem Blog des Robert-Koch-Instituts wird unter dem Titel »Der Puls der Nation« eine Karte mit dem durchschnittlichen Ruhepuls in Landkreisen und Städten veröffentlicht. Es wird unter anderem folgendes behauptet:

Ruhepuls in Deutschland: ca. 61,17 Schläge pro Minute

Das darf man mit sehr guten Gründen bezweifeln. Die Messung der Daten erfolgt mit Fitness-Armbändern, die in ihrer modernsten Generation in professionellen Tests einen Fehler von mindestens 5 % aufweisen. Ältere Geräte sind noch ungenauer.

Dazu kommt, dass die Geräte nicht im professionellen Testbetrieb messen, sondern im täglichen Leben. Die durchschnittliche Abweichung wird also deutlich über 5% liegen.

Doch selbst unter optimalen Messbedingungen mit modernsten Fitnessarmbändern wäre die Aussage »Der Ruhepuls in Deutschland beträgt ca. 61,17 Schläge pro Minute« nicht richtig. Erstens vermittelt die Angabe die sprichwörtliche »Illusion der Präzision«. Zweitens geht es nicht um die Deutschen, sondern allenfalls um die Probanden, deren Daten auswertbar waren.

Unter den realen Bedingungen dieser Datenerhebung ist die Aussage noch weniger wert. Richtig wäre: Der mittlere Ruhepuls der Probanden liegt irgendwo in der Nähe von 62 Schlägen pro Minute – vielleicht sind es aber auch 56 oder 68 Schläge pro Minute.


Die Autoren schränken unter ihrer vollmundigen Aussage zum mittleren deutschen Ruhepuls von 61,17 Schlägen pro Minute großzügig ein:

Hierbei muss man natürlich berücksichtigen, dass die Gemeinschaft der Spender:innen nicht repräsentativ für alle Bürger:innen ist.

und stellen dann über ihrer Karte eine zweite Behauptung auf:

Die folgende Karte zeigt den durchschnittlichen Ruhepuls in allen deutschen Stadt- und Landkreisen – berechnet aus den über mehrere Wochen gemittelten Daten der Spender:innen in dem jeweiligen Stadt- bzw. Landkreis.

Wenn die Daten für Deutschland nicht repräsentativ sind, dann sind sie es erst recht nicht für einzelne Landkreise und Städte. Die Verteilung der Probanden ist zudem sehr unterschiedlich. In manchen Regionen haben sich weit weniger als zwei von tausend Menschen beteiligt, in anderen Regionen fast elf von tausend Menschen. Trotzdem behaupten die Autoren:

In dieser Karte wird sichtbar, dass der landkreisgemittelte Ruhepuls regional unterschiedlich ist. Die Unterschiede sind klein, aber systematisch und nicht zufällig. Zum Beispiel ist der mittlere Ruhepuls in urbanen Landkreisen systematisch niedriger als in ländlichen Gebieten. Wir sehen auch im Osten Deutschlands tendenziell höhere Werte in der Fläche.

Die Werte schwanken laut Karte zwischen 60 und 65 Schlägen pro Minute, der Mittelwert der erhobenen Werte soll laut RKI-Angaben bei etwa 61 Schlägen pro Minute liegen. Berücksichtigt man die Fehlerquote der Messwerte, stellt man fest: Dieser Unterschied zwischen 60 und 65 Schlägen pro Minute sagt gar nichts aus.


Die Probanden haben sich selbst ausgewählt. Eine Verteilung über die Geschlechter, Altersgruppen und sozialen Milieus wurde vom RKI nicht offengelegt. Ebensowenig eine Verteilung anhand des Gesundheitszustands. Wir können anhand des Mittelwerts nur vermuten, dass die meisten Probanden mit Fitnesstracker im Schnitt mittleren Alters und gesundheitsbewusster als der Durchschnitt sind.

Denn der medizinisch bekannte Normalwert des Ruhepulses steigt im Alter wieder an und liegt bei Senioren (der Risikogruppe für schwere Corona-Fälle) bei 80 Schlägen je Minute. Auch bei Erwachsenen zwischen dem jungen Erwachsenenalter und dem Eintritt ins Seniorenalter liegt er bei 70 Schlägen pro Minute.

Fazit: Die Darstellung auf der Karte zeigt also die Verteilung eines ungenau gemessenen Wertes, der bei sehr unregelmäßig verteilten Probanden gemessen wurde. Die Aussagekraft ist schon für die Probanden nahe Null, für die Bevölkerung der Landkreise und Städte erst recht.


Die Autoren des RKI-Blogs behaupten, dass man an einem regional gehäuft erhöhten Ruhepuls erkennen könne, wo die Pandemie wieder verstärkt ausbricht: Corona führe zu Fieber, Fieber könnte zu höherem Puls führen, den höheren Puls könne man anhand der Daten erkennen.

Wenn man sich aber überlegt, was noch alles zu Fieber führen und einen höheren Ruhepuls auslösen kann, scheint diese Idee ziemlich verwegen. Es gibt neben Corona etliche Ursachen für Fieber, es gibt neben Fieber auch etliche Ursachen für einen veränderten Ruhepuls.

Wenn jemand schwere Corona-Symptome bekommt, dann sollte er wohl besser gleich beim Gesundheitsamt anrufen. Und bei der lokalen Corona-Ambulanz. Die registrieren ihn dann auch.


Quellen:

Verteilung der Probanden laut RKI in: https://corona-datenspende.de/science/reports/users/
[Abruf am 08.05.2020, 21.00Uhr]

Der Puls der Nation: https://corona-datenspende.de/science/reports/pulse/
[Abruf am 08.05.2020, 21.00Uhr]

Werbung

Viel Alkohol und wenig verlässliche Zahlen

10. April 2020

Anfang April machte eine Pressemitteilung die Runde, in der die Deutsche Hauptstelle für Suchtfragen (DHS) auf den Alkoholkonsum der Deutschen im vorletzten Jahr einging.

Viele Medien übernahmen diese Pressemitteilung sinngemäß, manche schmückten die Angaben noch mit einer zuspitzenden Überschrift aus. Niemand hinterfragte, wie die Zahlen zustande gekommen sind. Der Deutschlandfunk titelte und berichtete so:

»Die Deutschen konsumieren im Schnitt eine Badewanne voll Bier, Wein und Spirituosen«

Der Gesamtverbrauch an alkoholischen Getränken in Deutschland stieg im Jahr 2018 um 0,3 auf 131,3 Liter je Einwohner. Diese Menge entspreche in etwa einer Badewanne an Bier, Wein, Schaumwein und Spirituosen, heißt es. [Quelle DLF-Nachrichten und Quelle der Pressemitteilung]

Der Deutschlandfunk hält sich dabei eng an die Pressemitteilung der Deutschen Hauptstelle für Suchtfragen. Auch die zuspitzende Schlagzeile geht auf diese Pressemitteilung zurück. Eigentlich hätte die DHS die Nachricht gleich selbst schreiben können.

Öffentlich-rechtliche Medien sind aber nicht dazu da, die Pressemitteilungen von Interessenverbänden, Parteien oder Unternehmen zu verbreiten. Sie sollen Informationen prüfen und einordnen.

Die in den Schlagzeilen verbreitete Zahl ist falsch und nutzlos. Sie ist falsch, weil sie eine fatale Illusion der Präzision vermittelt – die zugrundeliegenden Daten sind bei weitem nicht so sicher. Sie ist nutzlos, weil sie dem Problem der Alkoholgefährdung nicht ansatzweise gerecht wird.


Eine falsche Bezugsgröße …

Die Urheber der Statistik rechnen mit einer sehr groben Schätzung der Alkoholmenge und beziehen sie dann auf 82 Millionen Menschen. Aber Kinder trinken gar keinen Alkohol. Ein Teil der Jugendlichen und Erwachsenen trinkt keinen oder sehr wenig Alkohol. Die Bezugsgröße 82 Millionen Menschen ist also mit Sicherheit nicht richtig. Der Alkoholkonsum verteilt sich auf einige Millionen Menschen weniger.

… und eine falsche Gesamtmenge alkoholischer Getränke …

Als nächstes soll gezeigt werden, warum auch die Menge des getrunkenen Alkohols nur sehr grob geschätzt werden kann.

Die am 08.04.2020 veröffentlichten Zahlen stammen vom Bundesverband der Deutschen Spirituosen-Industrie und -Importeure e. V. (BSI). Sie beziehen sich auf das Jahr 2018. Grundlage ist die importierte oder in Deutschland erzeugte Menge alkoholischer Getränke. Der Export wird ebenfalls berücksichtigt, so dass der BSI jeweils auf einen bestimmtem Jahresverbrauch an Bier, Spirituosen, Wein und Schaumwein kommt.

Die reine abgegebene Menge an alkoholischen Getränken ist aus den Verbandsangaben näherungsweise bekannt. Sie wird aber nicht nur von Bundesbürgern konsumiert. Sie wird auch von ausländischen Touristen und Geschäftsreisenden getrunken – ebenso trinken Bundesbürger im Ausland als Touristen und Geschäftsreisende Alkohol.

Der Verbrauch von Alkohol bei der Herstellung von Lebensmitteln in der Wirtschaft und in den Haushalten (etwa Likör zum Backen oder Wein für feine Saucen) ist ebenfalls nicht berücksichtigt.

… ergeben eine nutzlose Kennzahl!

Für Bier gibt der Verband als Gesamtangebot auf dem Markt eine Menge von umgerechnet 17.008.000.000 Flaschen zu je einem halben Liter an. Diese Gesamtmenge an Bier wird durch alle 82 Millionen Bundesbürger geteilt und man erhält rund 102 Liter Pro-Kopf-Verbrauch allein an Bier.

In ähnlicher Form wird auch der Pro-Kopf-Verbrauch für Wein, Spirituosen und Schaumwein berechnet. Die Summe dieser Pro-Kopf-Verbräuche beträgt 131,3 Liter pro Kopf – auch wenn man sich die Mischung als sehr unappetitlich und die Addition so unterschiedlicher Getränke als ziemlich nutzlos vorstellen muss.

In dem veröffentlichten Pro-Kopf-Verbrauch von 131,3 Litern stecken also zwei große Unsicherheiten: Die von Bundesbürgern getrunkene Menge an alkoholischen Getränken und die Anzahl der Alkohol trinkenden Bundesbürger. Wenn man im Zähler und im Nenner so große Unsicherheiten hat, dann ist gesamte Kennzahl grober Unfug und die Illusion der Präzision kommt noch hinzu.


Selbst wenn der Pro-Kopf-Verbrauch alkoholischer Getränke exakt zu berechnen wäre: Diese Kennzahl ist schon von Natur aus nicht hilfreich bei der Alkoholprävention. Denn die Anzahl der Menschen mit Alkoholabhängigkeit und Alkoholmissbrauch wird auf etwa 3 Millionen Menschen geschätzt. Die restlichen Bundesbürger trinken entweder gar keinen Alkohol oder sie trinken ihn nur in Maßen.

Die Deutsche Hauptstelle für Suchtfragen e.V. (DHS) ist ein Zusammenschluss der in der Suchthilfe und Suchtprävention tätigen Verbände. Sie ist also keine staatliche Einrichtung, sondern eine Interessenvertretung. Es ist aus Sicht der Interessenvertretung natürlich sehr willkommen, dass die Medien ihre Zahlen ungeprüft übernehmen und an die Medienkonsumenten weitergeben. Aufgabe der Medien wäre aber eigentlich das Einordnen und Hinterfragen der Zahlen.


Quellen:

Zahlen des Bundesverbands der Deutschen Spirituosen-Industrie und -Importeure e. V. (BSI)

Zahlen der Deutschen Hauptstelle für Suchtfragen


Ergänzung [11.04.2020]: In ihrer Pressemitteilung gibt die DHS auch einen Verbrauch an reinem Alkohol an:

»10,5 Liter Reinalkohol trank jede/-r Bundesbürger/-in im Alter ab 15 Jahren …«

Wie kommt diese Zahl zustande? Der BSI veröffentlicht die Mengen an reinem Alkohol aufgrund einer groben Schätzung. Man nimmt einfach an, dass Spirituosen im Schnitt 33,0 %, Wein 11,0 %, Schaumwein 11,0 % und Bier 4,8 % enthalten.

Auf der Grundlage unsicherer Durchschnittswerte kommt der BSI aus den oben beschriebenen unsicheren Pro-Kopf-Verbrauchszahlen auf einen Gesamtverbrauch an reinem Alkohol pro Kopf. Dieser bezieht sich aber wieder auf alle Bundesbürger.

Die DHS hat nun offensichtlich einen Dreisatz angewendet und ausgerechnet, wie sich dieser Pro-Kopf-Verbrauch auf alle Bundesürger ab 15 Jahren verteilen würde. Hier werden also ohnehin grobe Annahmen noch einmal vergröbert.



Die AfD ist im Osten stark, aber sie wäre auch ohne den Osten in den Bundestag gekommen

2. Oktober 2017

Die nackten Zahlen zum Abschneiden der AfD in Ostdeutschland und Westdeutschland zeigen: Die AfD hat im Osten doppelt so viel Zuspruch wie im Westen. Im Westen sind es ca. 11 Prozent, im Osten ca. 22 Prozent.

Tatsache ist aber auch, dass die AfD ohne eine einzige Ost-Stimme in den Bundestag gekommen wäre. Dafür hätten allein die im Westen erzielten Stimmen gereicht.

Um das zu zeigen, muss man nur die Anzahl der gültigen AfD-Stimmen im Westen ins Verhältnis zur Anzahl der gesamtdeutschen gültigen Stimmen setzten.

Die AfD hat deutschlandweit etwa 5,9 Millionen gültige Stimmen bekommen, davon etwa vier Millionen im Westen und etwa 1,9 Millionen im Osten. Insgesamt wurden 46,4 Millionen gültige Stimmen abgegeben.

Bezieht man nun die vier Millionen gültigen AfD-Stimmen im Westen auf die Gesamtzahl der gültigen Stimmen, erhält man einen Anteil von etwa 8,7 Prozent.

Damit ist bewiesen, dass die AfD auch ohne eine einzige Zweitstimme aus dem Osten in den Deutschen Bundestag eingezogen wäre. Und daraus ergibt sich, dass man in beiden Landesteilen nach Ursachen suchen sollte.


Ein Klick auf das Bild vergrößert die Ansicht:


Datenquelle zum Anklicken: Bundeswahlleiter/Bundestagswahl 2017



Kritik an der linken »Mitte-Studie« (Teil 2)

17. Juni 2016

In den letzten beiden Tagen haben sich einige Fragen zu der Studie angesammelt. In diesem kurzen Artikel geht es um die Repräsentativität.


Repräsentativität

Eine repräsentative Studie soll die Teilnehmer so auswählen, dass sie wesentliche Merkmale der Bevölkerung repräsentieren. In dieser Studie wurden z. B. als wesentlich angesehen:

  • Geschlecht
  • Altersgruppe
  • Einkommen
  • Bildungsabschluss
  • Wohnort Ost/West

Im Gegensatz zu anderen Kritikern der Studie sehe ich in der Auswahl der Merkmale kein Problem. Bei einer so großen Befragung muss man sich auf einige Merkmale konzentrieren.

Idealerweise würde die Stichprobe also 50 % Frauen und Männer enthalten. Sie würde die Altersstruktur und den Bildungsstand der Bevölkerung repräsentieren. Es wären Menschen mit hohem, mittleren und niedrigen Einkommen entsprechend ihren Anteilen an der Bevölkerung enthalten.

Die Meinungsforscher stellen ein Konzept auf, um diese Stichprobe aus der Bevölkerung auszuwählen. In der Studie wird auf den Seiten 25 und 26 erläutert, auf welche Weise die Befragung konzipiert wurde. Das Konzept umfasste 4.902 Personen.

Eine Stichprobe kann niemals so perfekt zusammengesetzt sein, dass alle Eigenschaften in der Stichprobe gleichwertig abgebildet sind. Das betrifft jede Studie. Man kann es dieser Studie nicht anlasten, wenn die Stichprobe nicht perfekt ist.

Auf S. 27 ist die soziodemografische Beschreibung der Stichprobe mit den tatsächlichen Teilnehmerinnen und Teilnehmern dargestellt. Es fällt ins Auge, dass Frauen deutlich überrepräsentiert sind: 55,3 % sind Frauen und 44,7 % sind Männer. Es stimmen auch einige andere Anteile nicht mit den Anteilen in der gesamten Bevölkerung überein.

Das liegt daran, dass von den ursprünglich 4.902 Personen nur 2.420 Personen bereit waren, an der Studie teilzunehmen. Die Befragung war vermutlich richtig konzipiert, aber dann haben z. B. weniger verheiratete Männer im mittleren Alter daran teilgenommen. Ergebnis: sie sind unterrepräsentiert.

Leider erfahren wird nicht, wie viele Personen von vornherein abgelehnt haben und wie viele Personen die Befragung abgebrochen haben. Wir müssen die Daten also so nehmen, wie sie sind. Bessere Daten sind nicht greifbar.

Ich sehe die Repräsentativität nicht als den größten Schwachpunkt der Studie. Viel größere Schwachpunkte ergeben sich aus der Voreingenommenheit der Ersteller der Studie und aus ihrem ideologisch geprägten Weltbild. Darauf soll der dritte Artikel eingehen.



Kritik an der linken »Mitte-Studie« (Teil 1)

16. Juni 2016

In der Deutschlandfunk-Sendung »Das war der Tag« wurde heute die einzige substantielle Kritik an der »Mitte-Studie« der drei linken Stiftungen und eines Instituts der Uni Leipzig gesendet.

Alle anderen Medien haben in ihren Sendungen und in den sozialen Netzwerken nur Schaubilder mit herausgegriffenen Zahlen verbreitet. Im Artikel möchte ich darauf eingehen und einige eigene Anmerkungen zur Studie machen.


Vorbemerkung 1: Auftraggeber der Studie sind: die Otto-Brenner-Stiftung, die Heinrich-Böll-Stiftung und die Rosa-Luxemburg-Stiftung.

An dieser Stelle ist ein Fehler zu korrigieren: Nur die beiden letzteren Stiftungen sind politische Stiftungen linker Parteien, die aus Steuereinnahmen üppig finanziert werden und ein Eigeninteresse an der Studie haben.

Beginn der Ergänzung

Informationen zum Haushalt der Otto-Brenner-Stiftung sowie zum Leitbild und zu den Kooperationspartnern der Otto-Brenner-Stiftung finden Sie unter den folgenden Links:
Leitbild
Kooperationspartner
Geschäftsbericht 2011 bis 2015

Zitat aus dem Geschäftsbericht:

Im Berichtszeitraum hatte die Otto Brenner Stiftung (ohne HSI) Einnahmen in Höhe von 5,25 Millionen Euro zu verzeichnen. Davon stammen 4,9 Millionen Euro aus Erträgen für Wertpapiere, 19.600 Euro sind Zinserträge, 219.500 Euro kamen von Spendern, 100.000 Euro waren sonstigen Erträgen zuzuordnen.

Ende der Ergänzung

Persönliche Ergänzung: Ich bedaure die ursprüngliche Darstellung, dass auch die Otto-Brenner-Stiftung aus Steuereinnahmen finanziert wird. An dieser Stelle ist mir ein Fehler unterlaufen, den ich mit der Richtigstellung nun korrigiert habe.


Vorbemerkung 2: Die Studienteilnehmer wurden laut Aussage der Ersteller der Studie repräsentativ ausgewählt. Aber die Studie kann statistisch nicht repräsentativ für die AfD-Wähler, die Linken-Wähler oder die Wähler einer anderen politischen Partei sein. Wer für diese Teilgruppen eine repräsentative Befragung durchführen will, müsste eine neue repräsentative Auswahl zusammenstellen. Je kleiner die Teilgruppe, desto weniger repräsentativ sind die Aussagen.


Prof Schröder beginnt seine Stellungnahme im Interview mit Kritik am Titel »Die enthemmte Mitte«: Dieser Titel überzeichne, er sei reißerisch und durch die Ergebnisse der Studie nicht gedeckt. Die Studie »mache die Mitte nieder, ohne fundierte Belege«.

Der Moderator der DLF-Sendung Dirk-Oliver Heckmann wendet ein: »Aber die Zahlen sind doch erschreckend«.

Daraufhin zeigt Prof. Schröder, dass es im Hauptteil der Studie eigentlich um rechtsextreme Einstellungen ginge. Die tatsächlichen Zustimmungsraten zum Rechtsextremismus seien sehr gering: Nur sehr wenige Menschen stimmten einer Verharmlosung der NS-Diktatur oder anderen harten rechtsextremen Einstellungen zu. Die Zustimmungswerte lägen fast alle im einstelligen Bereich.

Prof. Schröder übt außerdem Kritik an der Frage-Methodik: In der Studie würden suggestive Fragen gestellt. Ich habe die Beispiele, die er nannte, im Wortlaut aus der Studie herausgesucht.

Wir sollten endlich wieder Mut zu einem starken Nationalgefühl haben.

Was unser Land heute braucht, ist ein hartes und energisches Durchsetzen deutscher Interessen gegenüber dem Ausland.

Das oberste Ziel deutscher Politik sollte es sein, Deutschland die Macht und Geltung zu verschaffen, die ihm zusteht.


Persönliche Anmerkung: Würde man die Fragen bei gleichem Inhalt etwas weniger »geladen« formulieren, könnte sie vermutlich eine Mehrzahl der Franzosen, Polen oder US-Amerikaner mit Ja beantworten.

Würde man mich mit diesen Formulierungen befragen, dann würde ich spätestens an dieser Stelle abbrechen, weil die Formulierungen schlicht unverschämt sind.

Formuliert man diese Fragen in sachlicher Form, wird schnell klar: Jedes Land setzt seine Interessen durch und sehr viele Bürger der EU-Staaten um uns herum haben ein natürlich auch ein Nationalgefühl.

Entscheidend sind die Taten: Setzt ein Land seine Interessen mit Diplomatie und Entwicklungshilfe durch oder führt es Aggressionskriege? Leiten die Bürger aus ihrem Nationalstolz ein verantwortungsbewusstes Verhalten oder die Verachtung anderer Völker ab?


Zurück zum Interview. Typisch für die Suggestion ist laut Prof. Schröder die Frage:

Die Ausländer kommen nur hierher, um unseren Sozialstaat auszunutzen.

Wenn Befragte derart pauschale, generalisierende Fragen vorgelegt bekämen, hätten sie keine Möglichkeit zum Differenzieren. Die meisten Menschen würden differenzierter antworten, wenn sie genauer befragt würden.

Prof. Schröder betont nochmals: Wir haben etwa 5% der Befragten, die als rechtsextrem eingestuft werden. Das sei der geringste Wert, der bei diesen Forschern jemals ermittelt wurde.  – Haben Sie davon in der »Tagesschau« etwas gehört? Oder in den Schlagzeilen zur Studie? Ich nicht.


Dann geht es im Interview um die Muslime. Unter dem Eindruck der Anschläge von Islamisten und auch der Zuwanderung sehr vieler Muslime seien die Vorbehalte sicher gewachsen und es gäbe in Teilen der Bevölkerung eine Überforderung.

Aber auch hier bringt Prof. Schröder einen interessanten Einwand: Die Studie differenziert gar nicht zwischen Muslimen und Islamisten. Hier sind die konkreten Fragen, die in der Studie gestellt wurden:

Muslimen sollte die Zuwanderung nach Deutschland untersagt werden.

Durch die vielen Muslime hier fühle ich mich manchmal wie ein Fremder im eigenen Land.

Die beiden Begriffe »islamistisch« und »Islamismus« sind in der Studie nicht zu finden – und genau diese beiden Begriffe braucht man zum Differenzieren zwischen einem friedlichen Ausüben des islamischen Glaubens und dem gewalttätigen Islamismus. Das zeigt: Differenzierung ist gar nicht gewollt.


In einem weiteren Teil des Interviews geht es um die Gewaltbereitschaft. Dort weist Prof. Schröder auf seine eigene Studien zum Linksextremismus hin. Dabei fällt auf: Jeder Bezug zum Linksextremismus oder zum Linksradikalismus fehlt in der Studie, obwohl man doch bei repräsentativer Auswahl auch auf solche Einstellungen hätte stoßen müssen …


Mein Bericht über das Interview ist nicht vollständig, weil ich mich in der Studie festgelesen habe. Dabei ist mir deutlich geworden, dass sie noch mehr problematische Inhalte hat und deutliche Voreingenommenheit zeigt. Dazu später mehr.

Ich habe die Sendung heute Nacht mitgeschnitten, um die wichtigsten Aussagen wiederzugeben und zu kommentieren. Sie ist aber auch beim DLF zum Nachhören verfügbar. Bleibt nur eine Frage: Warum wird ein solches Interview kurz vor Mitternacht gesendet? Warum hört man dieses Interview nicht in den Informationen am Morgen?


Link zur Studie [bei der Parteistiftung der Linken]

Update 1: Das Interview ist in schriftlicher Form abrufbar. Danke an den DLF!

Update 2: Es gibt jetzt zu diesem Thema auch einen Artikel von Don Alphonso in den FAZ-Blogs.




Wie das BKA einmal eine Statistik zur Kriminalität erstellte und wir sie nicht lesen sollten

9. Juni 2016

In der Bundespressekonferenz haben Journalisten nach der Entwicklung der Kriminalität gegen Ausländer und unter Ausländern gefragt. Die Bundesregierung erstellte dazu nach eigener Aussage »presseoffene Kernaussagen«. Herr Dr. Plate vom BMI sagt dazu in der Bundespressekonferenz:

Den [Bericht] kann ich leider als solchen als Vollfassung nicht zur Verfügung stellen, da der eingestuft ist, das hängt ein bisschen auch mit dem Prozedere zusammen, wie der erstellt wird unter Berücksichtigung der Daten aus den Ländern, weil überwiegend handelt es sich ja um Straftaten, die einen Charakter haben, dass sie nicht in Bundeszuständigkeit ermittelt werden sondern in Zuständigkeit der Länder, sodass man das (etwas umgangssprachlich gesagt) einsammeln muss. [Quelle: BPK-Video]


Diese »Kernaussagen« kann man in schöner großer Schrift und in zum Teil sehr einfachen Formulierungen beim BKA finden und als PDF-Datei lesen. Ein Beispiel:

Gemessen am Anteil an der Zuwanderungszahl traten Algerier, Marokkaner, Georgier, Serben und Tunesier deutlich überproportional als Tatverdächtige auf.

Syrer, Afghanen und Iraker weisen hohe absolute Fallzahlen auf. Jedoch war die Zahl der Tatverdächtigen dieser Nationalitäten – gemessen an ihrem Anteil an der Zuwanderungszahl – deutlich unterproportional.

Konkrete Zahlen? Fehlanzeige. Das BMI wirft den Journalisten einige stark vereinfachte Kernaussagen vor die Füße und die Journalisten müssen daraus einen Artikel fabrizieren. Das ist ein Job, um den ich niemanden beneide. Das Ergebnis sieht dann so wie dieser FAZ-Artikel aus, der den stark vereinfachten BKA-Bericht eben noch mal mit eigenen Worten zusammenfasst.

Da die Kernaussagen so völlig unkonkret sind, lässt sich auch jede Meinung damit begründen. Lesen Sie dazu diesen Kommentar aus der WELT, der sich auf Zahlen bezieht, die in dem Bericht gar nicht konkret benannt sind.

In beiden Zeitungen wird nicht erwähnt, dass der BKA-Bericht unter Verschluss ist und natürlich wird der BKA-Bericht dort auch nicht verlinkt. Die Leser werden in dem Glauben gelassen, dass die Journalisten die Zahlen kennen. Sie haben aber nur die »Kernaussagen«, die man leider zum großen Teil auch als »Nichtaussagen« bezeichnen könnte.


Im weiteren Verlauf wurde in der Bundespressekonferenz von Journalisten nach der Beteiligung der einzelnen Bundesländer gefragt. Herr Dr. Plate vom BMI kann dazu hier nachgehört werden:

Also es ist grundsätzlich richtig, ohne dass ich einzelne Länder jetzt gerade nennen kann, dass nicht alle Länder zu allen Berichten beigetragen haben und dass auch die Datenbasis nicht bei allen 16 Bundesländern einheitlich gewesen ist und dass das Bundeskriminalamt sozusagen prozesshaft versucht hat, das immer weiter anzugleichen, und mehr und mehr Länder ins Boot zu holen. Ob jetzt aber für die vierte Lageübersicht bereits alle 16 dabei sind mit gleicher Datenbasis, bin ich für den Moment überfragt.

Ein Journalist fragt nach: »Das heißt aber auch: Dann wäre die Vergleichbarkeit der unterschiedlichen Erhebungen nicht gegeben?«

Ja, na ja, gut … vergleichen … da sind wir schon wieder beim Thema Äpfel mit Birnen vergleichen, das ist halt so die Frage, inwieweit das sozusagen Äpfel und Birnen sind. Es ist eine gewisse Vergleichbarkeit gegeben, weil es nie nur zwei Bundesländer waren, sondern ich glaube, zuletzt waren es irgendwie 12 oder 13 und das hat schon eine gewisse Repräsentativität, aber eine absolute sozusagen zahlenscharfe wissenschaftliche Vergleichbarkeit, haben Sie völlig recht, ist nicht gegeben, wenn der Kreis der Bundesländer sich, und sei es auch nur geringfügig, geändert hat, von einer zur anderen Übersicht.

Ich darf zusammenfassen: Der eigentliche Bericht ist unter Verschluss und die aufeinander folgenden Lagebilder sind nicht vergleichbar. Geben Sie mir bitte per E-Mail Bescheid, wenn Sie in Ihrer Tageszeitung etwas darüber gelesen oder im Radio etwas darüber gehört haben. Es interessiert mich wirklich, welches Medium sich traut, darüber offen zu berichten.


Ergänzung: Der Bundesrichter Fischer hat sich in der ZEIT ebenfalls mit solchen Statistiken befasst. Sein bitteres Fazit:

Erste Aufgabe und Voraussetzung einer kritischen Presse ist es, die Dinge zu verstehen. […] Wann ist in der deutschen Presse der letzte Bericht erschienen, der die Zahlen und Ergebnisse der PKS unter methodenkritischem, kriminologischem Blickwinkel infrage stellte? Was sind das für »kritische Medien«, die nur noch nach personalisierbaren »Skandalen« suchen, aber den Skandal im Gewöhnlichen nicht bemerken? [Quelle]



Eine Studie zur »Entlohnung in Startups«

12. Mai 2016

Eine Studie über die Entlohnung der Mitarbeiter in Berliner Startups scheint zu beweisen, dass Frauen bei diesen Unternehmen sehr viel weniger Geld verdienen. Ich möchte zeigen, warum die Schlussfolgerungen in diesem SPON-Artikel statistisch nicht untermauert sind.

Die Autoren der Studie haben ihre Daten auf folgende Weise gewonnen: Zwischen April 2013 und Januar 2016 konnten sich Besucher der Seite »Jobspotting« an einer anonymen Umfrage beteiligen. Das sind fast drei Jahre (in denen sich Gehälter und Positionen verändern).

In dieser Zeit haben sich (nach Bereinigung der Daten) 3.388 Beschäftigte an der Befragung beteiligt [Quelle: Berlin Startup Salary Report, S. 10/11].

Es gibt keinen Hinweis darauf, dass die Beteiligten registriert sein mussten oder dass ihre Angaben verifiziert wurden. 60 % der Nutzer gaben an, in Berlin zu wohnen [S. 6]. Auch diese Angabe wurde offenbar nicht verifiziert. Später wird angegeben, dass 2.026 Personen tatsächlich in Berlin arbeiten [S. 12].

Bereits hier sind sehr starke Zweifel an der Aussagekraft der Studie geboten: Die Art der Umfrage (anonym, nicht verifiziert) und die Art der Auswahl der Beteiligten (es war eine Selbstauswahl auf einer Job-Plattform, die gar nicht jeder aus der Branche besuchen muss).


Laut Aussage der Autoren waren 80 % der Beteiligten »non-german«, wobei unklar bleibt, ob sich das auf die Staatsangehörigkeit oder auf die Herkunft bezieht [S. 6/7]. In den Berliner Startups arbeiten aber nur 49 % »non-germans«. Selbst wenn wir die ersten beiden sehr starken Einwände fallen lassen würden, kann die Studie also die Beschäftigten der Berliner Startups nicht repräsentieren.

Nach einer Aussage der Studie arbeiten nur etwa 63 % der Befragten überhaupt in Startups, was die Aussagekraft noch weiter einschränkt [Diagramm S. 16 oben, die Bildunterschrift ist in der Reihenfolge verkehrt]. Von den Befragten aus Berlin arbeiten 75 % in einem Startup.


Die Geschlechterverteilung M/W in der Studie betrug 70/30 % und speziell für Berlin 66/34 %. Viele Beteiligte der Umfrage kamen aus dem Ausland nach Berlin. Das sind vorwiegend sehr gut ausgebildete Männer mit Hochschulabschluss. Eine (Arbeits)Migration von gleich gut ausgebildeten jungen Frauen gibt es nicht.

Mit dieser Verteilung der ohnehin schon nicht repräsentativen und nicht geprüften Daten ist die Schlussfolgerung auf eine Lücke zwischen den Geschlechtern von exakt 25 % (wie SPON das titelt) absolut nicht sinnvoll. Aus der Studie geht noch nicht einmal sicher hervor, wie viele Frauen aus Berliner Startups überhaupt teilgenommen haben.

Das Berechnen von Korrelationskoeffizienten zum Zusammenhang zwischen Geschlecht und Gehalt aus derart ungesicherten und nicht repräsentativen Daten ist ein Zahlenspiel – aber mehr auch nicht. Somit kann der Artikel in den Datenmüll entsorgt werden. Er hat statistisch keinen Wert.

Bonus: Je detaillierter die Auswertungen [ab S. 28] zum Verhältnis männlicher und weiblicher Gehälter im Anschluss sind (Altersgruppen, Positionen etc.), desto größer wird der Unsinn. Denn für diese Teilgruppen kann die Umfrage natürlich erst recht nicht repräsentativ sein.



So täuscht man mit Statistik

21. März 2016

Ein »Mediendienst Integration« hat heute zwei Kennzahlen zur Flüchtlingskrise ausgewählt und in grafischer Darstellung veröffentlicht: die Anzahl der Asylbewerber pro 1.000 Einwohner und die Anzahl der Flüchtlinge in ausgewählten Ländern.

Eine dieser Zahlen ist irrelevant und die andere ist schon lange nicht mehr aktuell. Beide Zahlen sind zwar für sich genommen nicht falsch. Sie sind aber irreführend, denn sie verschleiern die Folgen der Flüchtlingskrise.

Online-Leitmedien wie die ZEIT bringen diese irreführenden Zahlen in ihren Artikeln, viele Aktivisten geben sie bei Twitter weiter. Morgen werden sie gedruckt in manchen Zeitungen stehen.


Die Anzahl der Asylbewerber pro 1.000 Einwohner

Zur Darstellung der Zahl der Aufgenommenen pro 1.000 Einwohner wird lediglich die Anzahl der Asylanträge im Jahr 2015 herangezogen. Damit hätte Deutschland in der Tat »nur« 5 Flüchtlinge pro 1.000 Bürger aufgenommen. Ich habe schon heute Mittag auf den gröbsten Fehler in dieser Darstellung hingewiesen:

.@MDIntegration Das ist falsch, weil »Aufnahme« nicht gleich »Asylanträge« ist. 400.000 Menschen durften 2015 gar keinen Antrag stellen.

Es ist gesichert, dass im Jahr 2015 etwa 400.000 Menschen registriert und versorgt wurden, die gar keinen Asylantrag stellen durften – weil das Amt überlastet ist. Hintergrund: Die Laufzeit der Asylverfahren beginnt erst, wenn das BAMF zur Entgegennahme eines Antrags bereit ist.

Meine Quelle für diese Zahlen ist die F.A.Z. von Ende November. Man darf also konservativ mit 400.000 Menschen mehr rechnen, die Deutschland aufgenommen hat, wie auch aus einem sehr aktuellen Artikel der F.A.Z zu den Asylanträgen hervorgeht.

Addiert man die Zahl dieser Menschen zu den 477.000 registrierten Asylbewerbern, kommt man bei 80.000.000 Deutschen auf mehr als 10 Aufgenommene pro 1.000 Einwohner. Somit ist die Grafik des Mediendienstes eine grobe Irreführung, denn man ignoriert darin fast die Hälfte der tatsächlich Aufgenommenen.


Die Flüchtlingsbevölkerung weltweit

Auch die zweite grafisch aufbereitete Kennzahl ist für den März 2016 irrelevant und irreführend. Es handelt sich um die Säulengrafik der Flüchtlingsbevölkerung unten im »Mediendienst«-Artikel.

Jeder weiß, dass die wirklich große Menge der Flüchtlinge erst im zweiten Halbjahr nach Deutschland kam und dass dafür viele Flüchtlinge andere sichere Staaten verließen.

Eine Grafik aus dem ersten Halbjahr 2015 ist heute völlig irrelevant, wenn etwa eine Million Menschen noch im zweiten Halbjahr 2015 das Land gewechselt haben und die meisten davon nach Deutschland kamen.

In den beiden Zahlen in meiner Berechnung im oberen Teil sind die nicht registrierten, illegalen Migranten noch gar nicht enthalten. Viele von ihnen enthalten vermutlich Hilfe von Freiwilligen.


Der Rest des Artikels komplettiert die Verwirrung. Der Artikel ist zwar in einem betont nüchternen Ton gehalten. Beispiel:

Will man allerdings die Auswirkung der Flüchtlingsmigration auf die Gesellschaft messen, muss man die Asylbewerberzahlen im Verhältnis zur Größe der Bevölkerung betrachten. Hier ändert sich das Ranking deutlich: Dann steht Deutschland mit seinen 81 Millionen Einwohnern im europäischen Vergleich lediglich auf Platz sechs.

Aber die Zahlen klären nicht auf, weil sie einen sehr wichtigen Teil der Realität ausblenden. Hier noch ein Zitat, das ebenfalls ungeprüft weiterverbreitet wird:

2015 erhielten hier lediglich 141.000 Menschen einen Schutzstatus, weil ihr Antrag bewilligt wurde. Das entspricht ungefähr der Hälfte aller Anträge, die gestellt wurden.

Die verlinkten Artikel aus der F.A.Z. zeigen, wie irrelevant diese Zahlen sind: 400.000 Menschen sind 2015 noch nicht einmal bis zur Antragstellung vorgedrungen. Erst danach kann man entscheiden, ob sie einen Schutzstatus erhalten. Außerdem liegen über 300.000 Anträge unerledigt im BAMF.

Damit wären wir bei der entscheidenden Frage: Warum redet man die großartige humanitäre Leistung unseres Landes im Jahr 2015 klein? Wir haben nicht nur die Antragsteller im Land – wir haben insgesamt über eine Million Menschen aufgenommen und versorgt. Warum macht man unser Land schlechter, als es ist?


Aktualisierung 1: Ich darf natürlich nicht Don Alphonsos Artikel aus dem FAZ-Blog zu diesem Thema unterschlagen.



Schafe zählen

25. Januar 2016

Stellen Sie sich eine Schafherde mit 1.000 Schafen vor. Wir wissen: In der Schafherde sind 90 % weiße und 10 % schwarze, 50% weibliche und 50 % männliche, 50 % junge und 50 % ältere Schafe. Um Anfragen vorzubeugen: Die Schafe sind natürlich BIO, werden artgerecht gehalten, und nur mit zartesten Händen geschoren.

Jedes Schaf trägt einen mit WLAN versehenen Transponder, auf dem seine Eigenschaften Identifikationsnummer, Farbe, Geschlecht und Geburtsdatum gespeichert sind. Aus dem Geburtsdatum kann einfach die Altersklasse berechnet werden.

Der Schäfer hat auf seiner Weide ein WLAN und ein Notebook. Eine Stichprobe aus dieser Schafherde kann mithilfe einer Abfrage der Transponder im Statistikprogramm ausgewählt werden. Die Transponder der ausgewählten Schafe leuchten auf, und man kann sie für die Untersuchung aus der Herde entnehmen.

Wenn der Schäfer eine wirklich repräsentative Stichprobe seiner Schafe auswählen will [1], dann muss die Stichprobe entsprechend den oben genannten Anteilen weiße und schwarze, männliche und weibliche, junge und alte Schafe enthalten. In einer Stichprobe von 50 Schafen wären dann z. B. 25 Schafe weiblich, 25 aus der jüngeren Generation, 45 weiß und 5 schwarz.

Welche Möglichkeiten einer Auswahl der Schafe für die Stichprobe scheiden also aus? Der Schäfer kann nicht einfach die ersten oder die letzten 50 Schafe aus der Herde auswählen. Er kann die Auswahl auch nicht den Schafen selbst überlassen.

Der Schäfer muss die Schafe so auswählen, dass die Stichprobe mit einer Kombination aus Vorüberlegung und Zufall gebildet wird. Mit einem Zufallsgenerator und einer systematischen Zusammensetzung der Stichprobe ist das kein Problem. Die Daten liegen ja auf den Transpondern vor.

Es gibt nun einen weit verbreiteten Irrtum über Stichproben: Wenn der Anzahl der untersuchten Schafe nur groß genug sei, dann müssten doch die Ergebnisse desto genauer werden. Ein Anteil der ersten 30 % oder der letzten 40 % an der ziehenden Herde müsse doch immer den Rest repräsentieren.

Warum stimmt das nicht? Unter den ersten 30 % der Herde könnten sich sehr viele junge Schafe befinden, weil sie schneller laufen. Es könnten dort auch überproportional viele weibliche Schafe laufen, weil sie vielleicht zuerst in den Ställen sein wollen. Unter den letzten 40 % der Herde könnten sich wiederum alle schwarzen (oder nur weiße) Schafe befinden – was die Stichprobe zweifellos auch verfälschen würde.

Eine Stichprobe muss also immer nach den Maßgaben der Statistik ausgewählt werden. Es gibt zwar eine Mindestgröße, aber ohne die Beachtung der Herdenstruktur und ohne das Zufallsprinzip wird die Stichprobe nicht belastbar sein. Eine relativ große Stichprobe, die nicht systematisch zusammengestellt wurde, ist für die Statistik wertlos.


(Ergänzung): Es gibt noch einen weit verbreiteten Irrtum über Stichproben: Man könne aus Teilmengen der Stichprobe etwas über die Teilmengen der Gesamtheit erfahren. Warum ist das ein Irrtum?

1. Die Stichprobe dient immer einem bestimmten Zweck. Ein Schäfer will vielleicht den Zustand der Wolle oder das Gewicht der Schafe testen. Dafür wählt er die Schafe repräsentativ aus.

2. Die Anzahl der stichprobenartig ausgewählten Schafe aus den Teilmengen »weiblich«, »jünger« oder »schwarz« ist in der Regel zu gering, um sie als repräsentativ für ihre Teilmenge ansehen zu können. Je kleiner die Teilmenge, desto größer ist der Einfluss des Zufalls.

Deshalb ist es eine gute Faustregel, bei allen Annahmen über Teilgruppen sehr vorsichtig zu sein. Wenn es interessante Vermutungen über die Teilgruppe gibt, sollte eine Stichprobe nur aus der Teilgruppe untersucht werden.


[<- Anmerkung 1]
Dabei setze ich stillschweigend voraus, dass die Eigenschaften der Schafe (Alter, Geschlecht, Farbe) für das Forschungsziel der Stichprobe relevant sind. So ist es ja analog bei Stichproben in der Wahlforschung auch: Ältere und Jüngere, Frauen und Männer (…) sollen gleichermaßen repräsentiert sein.


Wer das Wesen von Stichproben verstanden hat, der weiß nun auch, warum dieses Beispiel nichts taugt: Die ersten 442.000 von 1.100.000 Flüchtlingen können nicht repräsentativ für alle sein.




Warum man Studien über Anleger nicht blind vertrauen sollte

7. Oktober 2015

Wenn Sie heute oder morgen Ihre Lokalzeitung aufschlagen, werden Sie vielleicht folgende Überschrift lesen:

Dresdner Männer sind bundesweit die schlechtesten Privatanleger

Diese Idee für eine Überschrift halten Sie im Moment vielleicht noch für pure Phantasie eines Bloggers – bis Sie das Original aus einer aktuellen Pressemitteilung der ING DiBa lesen:

Privatanlegerstudie: Hamburger Seniorinnen sind die erfolgreichsten Privatanleger in Deutschland


Vielleicht erinnern Sie sich an diesen Artikel aus der »Sächsischen Zeitung«, in dem es 2013 hieß:

Dresdner legen ihr Geld am cleversten an

Der Analyse einer Direktbank zufolge erzielen sie bundesweit die höchste Rendite – und gehen dafür höhere Risiken ein.

Nur zwei Jahre später sind die Dresdner das weit abgeschlagene Schlusslicht derselben Studie und die Sachsen sind Vorletzter. Man darf also gespannt sein, welches Ergebnis die Dresdner im Jahr 2017 erzielen: Erster, Letzter oder Mittelfeld? Und man darf sich fragen: Waren die Dresdner 2013 besonders clever oder sind sie 2015 besonders dumm?


Die ING DiBa hat für die Presse in dieser PDF-Datei einige Zahlen zusammengefasst. Diese Zahlen sind für eine seriöse Bewertung des Anlageerfolgs der Dresdner oder der Hamburgerinnen, der Bayern oder der Hessen, der Jungen oder der Alten weitgehend wertlos.

Die Bank hat nach eigener Aussage etwa 584.000 Wertpapierdepots ausgewertet und man darf davon ausgehen, dass sie Geschlecht, Wohnort und Anlageerfolg richtig zusammengefasst hat. Das Problem sind nicht die Zahlen. Das Problem sind die Schlussfolgerungen, die aus den Zahlen gezogen werden.

Warum ist bei der Veröffentlichung von Schlussfolgerungen aus der Studie größte Vorsicht angebracht? Die ING DiBa veröffentlicht eine Zusammenfassung, ohne die zugrunde liegenden Daten zu veröffentlichen. Daraus ergeben sich die folgenden statistischen Einwände:

  1. Die Größe der Stichprobe lässt keinen Rückschluss auf ihre Repräsentativität zu.
  2. Die Zusammensetzung der Stichprobe nach den Merkmalen Wohnort, Alter und Geschlecht ist der Öffentlichkeit unbekannt.

Allein aus diesen beiden Gründen sind Rückschlüsse auf Dresden oder Hamburg nicht seriös: Wir wissen nicht, wie sich die Depots nach Geschlecht, Wohnort oder Alter verteilen. Und die Teilnehmer der Studie wurden nicht regulär repräsentativ ausgewählt, sondern per Selbstauswahl zusammengestellt.


Schon der Rückschluss auf die Anlageerfolge der Frauen und der Männer (wie in diesem Artikel) erscheint mir sehr gewagt – erst recht das Ableiten eines Trends aus den Studien 2013 und 2015. Absolut spekulativ sind aber Schlussfolgerungen auf Kombinationen aus mehreren statistischen Merkmalen:

In der Schlagzeile »Hamburger Seniorinnen sind die erfolgreichsten Privatanleger in Deutschland« stecken drei Merkmale, deren Verteilung wir nicht kennen: Wohnort, Geschlecht, Alter. Es ist völlig spekulativ, daraus eine Spitzenleistung bei der Geldanlage abzuleiten – obwohl es natürlich für Hamburg eine schöne Schlagzeile gibt.


Liebe Journalistinnen und Journalisten in Hamburg: Verkneift Euch Jubelmeldungen über den Anlageerfolg Eurer Einwohner. Liebe Dresdner Männer: Lasst Euch nicht die Laune verderben. Es ist ein Zahlenspiel ohne jede gesellschaftliche Relevanz.

Und liebe Verschwörungstheoretiker: Mit der #Pegida, den Chemtrails, der Klimaerwärmung, den Russen oder der deutschen Teilung haben die Ergebnisse auch nichts zu tun.

Es ist reine PR – denn mit den Berichten über die Studie kommt der Name der Bank in die Zeitung. Mehr steckt nicht dahinter …


Ergänzung: Wenn zu einer Studie keine Rohdaten veröffentlicht werden, ist sowieso immer Misstrauen angebracht. Die Zusammenfassung in Form bunter Folien und Diagramme ist schön und einfach – aber ohne zugrunde liegende Daten kann man weder die Diagramme noch die Rangfolgen beurteilen.



Zum Krankenstand bei Frauen und Männern

5. Oktober 2015

Die Gleichberechtigung von Frauen und Männern im Berufsleben ist ein hohes Gut. Eine zweifelhafte Auslegung von Statistiken kann aber kein Argument für mehr Berufstätigkeit von Frauen sein.


Am Ende der vergangenen Woche hat meine Lokalzeitung DNN eine Pressemitteilung der BARMER GEK verarbeitet. Die journalistische Leistung beschränkte sich dabei wie so oft auf das Kürzen und Umformulieren der Pressemitteilung – aber das soll nicht Gegenstand der Kritik sein.

Frauenpower für die Wirtschaft
Barmer GEK: Vollzeitbeschäftigung als Mittel gegen die Auswirkungen des demografischen Wandels


Meine Statistik-Sensoren reagierten auf folgenden Abschnitt:

Sachsen_AU_Detail

Ausriss: DNN, 01. Oktober 2015, Seite 4


Es schien sich um Rosinenpickerei zu handeln: Das Argument der höheren Lebenserwartung ist ganz sicher ein Null-Argument – weil die Lebenserwartung beider Geschlechter ohnehin weit jenseits des Rentenalters liegt. Entscheidend ist doch für die Beschäftigung: Wer geht real eher in Rente?

Und ausgerechnet die Anzahl der Tage pro Krankschreibung heranzuziehen – das schien mir dann doch sehr außergewöhnlich. Normalerweise sind andere statistische Kennzahlen wichtiger: Der Krankenstand für die Arbeitgeber und die Ausfälle bezogen auf die Versicherungsjahre für die Krankenkassen.


Nachdem ich die Daten im Gesundheitsreport der Barmer GEK überprüft hatte, stellte ich am Montagvormittag auf Twitter diese Frage:

Statistik-Übung: Was ist an den Aussagen zur Gesundheit und Berufstätigkeit von Frauen statistisch zweifelhaft? [Link zum Tweet]

Die Diskussion war kurz und interessant: Sehr schnell wurde klar, dass es letztlich nicht auf die Daten ankommt, die in der Pressemitteilung und im Artikel der DNN (gedruckte Ausgabe) hervorgehoben wurden.


Im Gesundheitsreport der Barmer GEK stehen die wirklich relevanten Daten, hier für 2014 und 2013:

Sachsen_AU_breit

Ausriss: Gesundheitsreport der Barmer GEK, 2015, Seite 8


Diese Daten zeigen, dass sowohl in der Pressemitteilung als auch im Zeitungsartikel Rosinenpickerei betrieben wurde. In fast allen Kennzahlen (bis auf eine) sind die Männer »besser« als die Frauen.

Insgesamt sieht man aber in keiner der Kennzahlen einen wirklich relevanten »Vorsprung« eines Geschlechts. Und der einzelne Arbeitgeber stellt ohnehin keine Kennzahl ein, sondern einen Mann oder eine Frau.

Hinweis: Das Demaskieren dieses statistischen Tricks hat nichts damit zu tun, dass die Gleichberechtigung von Frauen und Männern im Berufsleben selbstverständlich ist.

Dieser Artikel richtet sich in keiner Weise gegen berufstätige Frauen, sondern nur gegen schlechte Interpretationen der Statistik und gegen schlechten Journalismus …



Getötete Fahrradfahrer

30. September 2015

Jeder Verkehrstote ist ein Toter zu viel. Wer sich mit der Statistik der Verkehrstoten befasst, sollte deshalb besondere Vorsicht walten lassen und alle Quellen prüfen. Der folgende Beitrag handelt von groben Fehlern, die dabei im Journalismus auftreten.


Die Zeitung »Die Welt« schreibt in der Überschrift eines aktuellen Artikels:

Zahl getöteter Radfahrer steigt dramatisch

Erschreckende Studie: Seit 2005 ist die Zahl getöteter Radfahrer im Straßenverkehr um die Hälfte gestiegen.

Um es kurz zu machen und um den Fahrradfahrern unter uns den Schrecken zu nehmen: Die Angabe in der Überschrift und in der Zusammenfassung des Artikels ist völlig falsch. Im Jahr 2014 kamen deutlich weniger Fahrradfahrer ums Leben als im Jahr 2005.


Im Text der »WELT« wird dann auch gar nicht mehr über die Anzahl geschrieben, sondern es wird eine ganz andere statistische Kennzahl dargestellt:

»Unter den Toten im Straßenverkehr ist der Anteil der Fahrradfahrer in den vergangenen zehn Jahren um 50 Prozent gestiegen.«

Diese Angabe ist zwar richtig, aber ebenso irreführend. Denn während der letzten zehn Jahre (2005 bis 2014) ist sowohl die Anzahl der Verkehrstoten als auch die Anzahl der getöteten Radfahrer gesunken. Nur der Anteil der Radfahrer ist gestiegen. Es ist statistisch immer zweifelhaft, mit Anstiegen von Anteilen zu operieren, ohne die absoluten Zahlen zu betrachten.


Quelle der Zahlen ist eine Pressemitteilung über eine Studie des GDV (genauer gesagt: der Unfallforschung des Gesamtverbands der Deutschen Versicherungswirtschaft). In dieser Studie geht es nicht primär um die Gesamtheit der getöteten Radfahrer, sondern um den Anteil, der bei Unfällen mit Autos ums Leben kam. Der GDV schreibt:

Bei mehr als einem Drittel der getöteten Radfahrer und bei fast der Hälfte der schwerverletzten Radfahrer war der Unfallgegner ein Auto.

Die WELT hat die Zahlen also richtig aus der Pressemitteilung übernommen. Aber auch der GDV verschweigt die tatsächlichen absoluten Zahlen: Im Jahr 2005 wurden in Deutschland 575 Radfahrer getötet, im Jahr 2014 waren es 395. Diese Zahlen können Journalisten, Blogger und Leser beim Statistischen Bundesamt finden: Zweiradunfälle im Straßenverkehr (2014), S. 24.

In der Zusammenfassung der Studie sind interessante Ausführungen zu den Fahrradunfällen mit Autos zu finden. Ich will die Studie als solche in keiner Weise schlechtreden. Trotzdem muss man dem GDV den Vorwurf des Rosinenpickens machen: Wenn die Anteile statistisch nicht eingeordnet sind, führen sie die Leser in die Irre.


Die Zahlen des GDV sollen eine Forderung der Versicherungswirtschaft unterstützen: Autos sollen mit Sicherheitseinrichtungen ausgestattet werden, um Radfahrer besser erkennen zu können und sie zu schützen. Deren »Weiterentwicklung und Serieneinführung« sollen beschleunigt werden

Das kann aus Sicht der Versicherungswirtschaft eine berechtigte Forderung sein, denn sie muss die Verbesserungen nicht bezahlen, könnte aber davon einen Nutzen haben.

Es gibt aber auch andere Maßnahmen: bessere Verkehrsplanung, Senkung der Höchstgeschwindigkeit in der Stadt, mehr wirklich gute separate Radwege oder ein Verkehrssicherheitstraining für Radfahrer.


Ergänzung 1: Jede der genannten Maßnahmen muss auf der Grundlage der richtigen statistischen Kennzahlen geplant werden. Dafür hat die Presse eine Mitverantwortung – und wir als Leserinnen und Leser brauchen Kompetenz in Sachen Statistik.


Ergänzung 2: Die Dresdner Zeitung DNN bringt heute auf der letzten Seite einen recht guten Beitrag zum Thema. Sie haben direkt bei den Unfallforschern nachgefragt oder von dort detailliertere Ergebnisse erhalten. Technisch gesehen ist der Artikel in der DNN dem Artikel in der WELT um Längen voraus.

Aus Sicht der Statistik kann ich den Artikel in der DNN mit einer Note 2 bewerten. Es wird nicht ausgesagt, dass die Anzahl der getöteten Fahrradfahrer in den letzten 10 Jahren deutlich zurückgegangen ist. Immerhin steht aber im Artikel, dass die Anzahl der Verkehrstoten insgesamt gesunken ist und dass sich die Anteile der Autofahrer, Radfahrer und Fußgänger verschoben haben.


Ergänzung 3: Den nächsten Fehler leistet sich der WDR. Er postuliert in diesem Artikel:

Tendenz steigend: Die Zahl der getöteten Radfahrer hat in den vergangenen zehn Jahren um 50 Prozent zugenommen, so der Gesamtverband der Deutschen Versicherungswirtschaft (GDV).

Könnte dir Redaktion damit etwas verantwortungsbewusster umgehen? Wer dort arbeitet, muss sich viel weniger Sorgen als die Mitarbeiter in der freien Presse machen, denn das Gebührengeld fließt immer.


Ergänzung 4: Auch die Süddeutsche Zeitung hat eine falsche Überschrift, immerhin stimmt der Text im Link und der Rest des Artikels ist auch nicht zu beanstanden.



Zwei Karten und eine große Fehlinterpretation

10. August 2015

Bei Twitter ist gerade dieser Tweet mit zwei Kartenausschnitten in den Trends. Der Tweet soll zeigen, dass Deutschlands Rüstungsexporte 2014 zu den Flüchtlingsströmen 2015 geführt haben sollen.

Erster Kritikpunkt: Es gibt für beide Karten keine Quelle. Es ist ja wohl das Mindeste, dass man seine Angaben belegt. Zweiter Kritikpunkt: Es gibt keine Zahlen zur Dimension der Flüchtlingsströme und zur Dimension der Waffenexporte.


Viele Kriegsflüchtlinge kommen aus dem Irak und aus Syrien. Sie werden ganz sicher nicht mit deutschen Waffen vertrieben. Die Assad-Diktatur hat 2014 keine Rüstungsexporte aus Deutschland bekommen und der »Islamische Staat« auch nicht. Die Kurden wurden mit Verteidigungswaffen gestützt, als sie die Yesiden und die Stadt Kobane verteidigt haben. Der irakische Staat hat Rüstungsgüter bekommen, um den IS zu bekämpfen.

Im Fall Algerien wurde 2014 offiziell die Ausfuhr einer Radpanzerfabrik genehmigt [Quelle: Rüstungsexportbericht der Bundesregierung, Bericht: Merkur]. Aufgrund dieser Genehmigung war das Volumen des Rüstungsexports nach Algerien 2014 relativ hoch. Die Fabrik kann aber noch gar nicht fertig sein und sie kann noch keine Radpanzer produziert haben. Außerdem steht in der oberen Karte »algerische Route« und nicht »Flüchtlinge aus Algerien«.

Über einen legalen Waffenexport in den Sudan oder Südsudan konnte ich auch auf rüstungskritischen Seiten (wie hier bei Amnesty International) nichts finden. Illegal mögen Waffen auf nicht kontrollierbaren Wegen dorthin gelangt sein – das hat aber mit dem deutschem Rüstungsexport des Jahres 2014 nichts zu tun.

Ägypten bekam in der Vergangenheit (vor 2014) Waffen und Waffenteile, es wurden von deutschen Unternehmen auch Lizenzen zur Produktion von Waffen vergeben. Aufgrund der zeitweisen Instabilität des Landes gab es 2014 gar keine Rüstungsexporte, sondern nur Genehmigungen [Quelle: Interaktive Karte des SPIEGEL.]. Genehmigungen führen nicht zu Flucht und Vertreibung.

Zu Israel: Waffenexporte (vor allem von U-Booten) nach Israel sollen die Existenz des Landes und das Leben der israelischen Bürger sichern. Das gehört zu den Grundsätzen unserer Außenpolitik. Die U-Boote dienen der Abschreckung, sie wurden noch nie aktiv in einem Krieg eingesetzt.

Saudi-Arabien und der Jemen bekämpfen Terroristen. Der Kampf gegen den Terror führt auch zu Flucht und Vertreibung. Aber ob Saudi-Arabien deutsche Waffen für die Luftangriffe gegen die islamistischen Terroristen im Jemen einsetzt, ist nicht belegt. Bodentruppen sind nicht im Einsatz. Der Jemen bekam laut diesem SPIEGEL-Artikel nur 0.01 Millionen Euro Rüstungsgüter.


Fazit: Die beiden Karten taugen nicht als Beweis für eine Ursache-Wirkungs-Beziehung zwischen den deutschen Rüstungsexporten des Jahres 2014 und den Fluchtbewegungen des Jahres 2015. Sie sind ein Beispiel für schlechten Journalismus.



Narrative und Statistiken

30. Juli 2015

In Lobbyarbeit und PR werden oft plakative Zahlen verwendet. Diese Zahlen werden mit Informationsgrafiken oder Diagrammen visualisiert. Obwohl die Zahlen oft nicht stimmen oder falsch interpretiert sind, erzielen die Grafiken doch ihre Wirkung.

Wie kann man sich als vernünftiger Mensch dagegen immunisieren?

  1. Nach den Interessen fragen.
  2. Nach den Quellen fragen.
  3. Der Aussage methodisch auf den Grund gehen.

Frauen re-investieren im Vergleich mit Männern mehr als doppelt so viel in ihre Familien. Diese Behauptung hört man immer wieder. Beispiel:

#Women reinvest 90% of their income back into their families, men only 30%-40%. Imagine what #equalpay could do.
[Quelle]


1. Das Interesse

Hinter dem Tweet steckt eine Organisation, die den Einkommensunterschied zwischen Frauen und Männern kritisiert. Sie will mit den Zahlen das Argument untermauern: Frauen gehen besser und nachhaltiger mit Geld um. Lässt sich nachweisen, ob das Argument stimmt?


2. Die Quelle

Das Problem: Es gibt für diese Behauptung keine Quelle. Welchen Anteil ihres Einkommens Frauen in Investitionen in die eigene Familie stecken (90% oder 80%), ließ sich zunächst bis zu diesem Artikel zurückverfolgen.

Es wird dort eine mündlich überlieferte Zahl genannt, die Jackie VanderBrug von der Organisation U.S.-Trust zugeschrieben wird. Es ließ sich aber keine Statistik oder Studie nachweisen, in der diese Zahl hergeleitet wurde.

Ich habe dann nach der Urheberin des Zitats gesucht. Sie hat ihre Behauptung in diesem Artikel mit einem Link zu belegen versucht.

Reinvestment: In emerging markets, women reinvest a staggering 90 cents of every additional dollar of income in “human resources” — their families’ education, health, nutrition (compared, by the way, to 30-40% for men. Think of women’s increased income and assets as a gender dividend driving family, community and country wellbeing.

Interessant: Hier geht es nur noch um zusätzlich verdiente Dollars. Im Original-Tweet ging es um das gesamte Einkommen. Außerdem geht es um »emerging markets«, also nicht um Frauen in den Industriestaaten wie Deutschland, Großbritannien oder USA.

Die verlinkte Seite der US-Regierung ist nicht mehr erreichbar. Nur unter archive.org konnte ich die Seite finden. Die US-Regierung verwies damals auf Dokumente der Weltbank:

The World Bank published a series of major studies, including „Engendering Development“, and „Gender Equality as Smart Economics“, highlighting gender equality as a critical foundation for development investment. Their reports note that investments in women and girls strengthen countries’ ability to grow, reduce poverty, and govern effectively. They show that women and girls reinvest an average of 90 percent of their income in their families, compared to a 30 to 40 percent reinvestment rate for men.

Anhand der Titel der Weltbank-Dokumente habe ich weiter recherchiert. Das erste Dokument ist 13 Jahre alt und hat fast 400 Seiten. Ich habe darin u. a. nach den Schlüsselwörtern »invest«, »family« und »families« gesucht, um nach den Quellen für die Zahlen zu suchen. Kein Ergebnis.

Das zweite Dokument ist neun Jahre alt, hat nur 29 Seiten und enthält überhaupt keine Informationen über Unterschiede zwischen Männern und Frauen beim (Re)-Investieren. Weitere Quellen sind nicht auffindbar. Kennt jemand zitierfähige Studien zu diesem Thema?


3. Die Methodik

Die US-Regierung und die Equal-Pay-Bewegung behaupten, dass Frauen (in aufstrebenden Entwicklungsländern) 80 bis 90 % des eingenommenen Geldes in ihre Familien investieren, Männer dagegen nur 40 %. Diese beiden Kennzahlen sind erstens eine unzulässige Generalisierung und sie lassen sich zweitens mit sauberen Methoden der Statistik überhaupt nicht herleiten.

Eine unzulässige Generalisierung liegt vor, weil man die Entwicklungsländer nicht gleichsetzen kann. In den Entwicklungsländern gibt es so unterschiedliche Kulturen, Rechtssysteme und Wirtschaftssysteme, dass deren weibliche Gesamtbevölkerung keine sinnvoll abgegrenzte Grundgesamtheit bildet. Also sind auch zusammenfassende Aussagen wie »Frauen investieren 90 % ihrer Einkünfte in …« nicht zulässig.

Sinnvoll abgegrenzt wäre z. B. die Menge aller Frauen in Namibia oder die Menge aller Frauen in Bangladesh, aber nicht die Menge aller Frauen in diesen beiden und noch Dutzenden anderen Staaten. Um saubere statistische Methoden anwenden zu können, braucht man eine sinnvoll abgegrenzte Grundgesamtheit, man muss die Verteilung der Einkommen beachten und vieles andere mehr …


Fazit: Lobby-Organisationen, die sich für den »equal pay day« einsetzen, berücksichtigen bewusst nicht, dass es unterschiedliche Arbeitszeiten, Arbeitsrisiken, Qualifikationen und Leistungen gibt. Dem »equal pay day« fehlt somit jede sinnvolle statistische Grundlage. Weil das inzwischen vielen informierten Leserinnen und Lesern bekannt ist, versuchen sie es mit Hilfsargumenten, denen offenbar ebenfalls die Grundlage fehlt. Kurz gesagt: Was da verbreitet wird, ist ein Narrativ – aber keine Statistik.



Von Frauenquoten und Statistik …

20. November 2014

Kristin Rose-Möhring ist Gleichstellungsbeauftragte des Ministeriums im Bundesministerium für Familie, Senioren, Frauen und Jugend (BMFSFJ). Sie wurde dadurch bekannt, dass sie gegen ihre eigenen Ministerinnen Kristina Schröder und Manuela Schwesig klagte: Ministerin Schröder hatte es doch trotz einer Frauenquote bei Führungskräften von über 50% nicht etwa gewagt, einen Mann als Pressesprecher zu wählen.

All das wäre keinen Beitrag wert, wenn Frau Rose-Möhring nicht eine einflussreiche Frau innerhalb der Lobby der Gleichstellungsbürokratie wäre. Aus dem Ministerium von Frau Schwesig kommen politische Entwürfe, wonach die Anzahl der bürokratischen Posten (exklusiv für Frauen) als Gleichstellungsbeauftragte drastisch erhöht werden soll. Aus einem Artikel des SPIEGEL (31/2014):

Für Ärger sorgt auch die Forderung nach mehr Gleichstellungsbeauftragten. Das Verteidigungsministerium hat ausgerechnet, dass es dafür die Stellen von 100 auf 200 verdoppeln müsste. Der Staatsbetrieb Deutsche Bahn kalkuliert für die Tochterfirmen mit mindestens 960 neuen Stellen.

Noch werden diese Entwürfe in der #Groko entschärft. Aber auch in der entschärften Form kosten sie immer noch sehr viel Geld und bringen eher Schaden als Nutzen.


Kristin Rose-Möhring bloggt zur Zeit sehr offenherzig über Statistik für Gleichstellungsbeauftragte. Wenn ich mir diese Blogbeiträge nur mit dem gesunden Menschenverstand anschaue, muss ich mich sehr zurückhalten, um nicht sarkastisch zu werden. Hier passt das Zitat: »Hätte sie geschwiegen, wäre sie Philosophin geblieben …«.

Bereits in der ersten Folge ihrer Serie zur Statistik stellt Frau Rose-Möhring eine Behauptung auf, die sehr tief blicken lässt. Sie postuliert:

Zahlenwerke und Statistiken werden der Gleichstellungsbeauftragten vor allem dann entgegengehalten, wenn es gilt, Fortschritte und Gleichstellungserfolge in der Dienststelle zu untermauern oder ihre Forderungen abzuschmettern. Das soll überzeugend, wissenschaftlich und unangreifbar wirken und die Gleichstellungsbeauftragte mundtot oder zumindest leiser machen.

Frau Rose-Möhring begreift Statistik also nicht etwa als wissenschaftliches Instrument, sondern in erster Linie als eine Art Werkzeug der Gegnerinnen und Gegner ihrer Gleichstellungsbürokratie. Sie hält aber tapfer dagegen:

Mit ein bisschen gesundem Frauenverstand können wir schnell lernen, grundsätzliche Fehler in der Erstellung dieser Zahlenwerke und die Fragwürdigkeit von deren Interpretation zu erkennen.


Frau Rose-Möhrings Artikelserie scheint zwei Ziele zu haben: Sie möchte andere Gleichstellungsbürokratinnen über Statistik aufklären und sie möchte ihre Aufklärung mit Rechenbeispielen untermauern. In beidem scheitert sie grandios.

Einerseits bemüht sie sich, die Statistik als eine Art Orakel darzustellen, dem man jede beliebige Antwort entlocken kann. Andererseits bringt sie Rechenbeispiele, die schon die Schüler einer 7. oder 8. Klasse als falsch erkennen sollten. Charakteristisch ist diese Aussage aus Teil 3:

Soll also manipuliert werden, muss „man“ die Stellschräubchen an den zu berücksichtigenden Zahlen und anzuwendenden Methoden einfach ein bisschen drehen, bis das Ergebnis dem Mensch am Computer passt. Das dürfte auch für einen Statistikbanausen nicht allzu schwer sein. Hat er noch ein paar Fachkenntnisse, vereinfacht das die Sache noch.

Im Klartext: Wenn ohnehin alles »gedreht« werden kann, können auch alle Ergebnisse von Statistiken als Manipulation denunziert werden.


Im Teil 3 ihrer Serie schreibt Frau Rose-Möhring, dass sie als Studentin mit einem Kommilitonen ins Gespräch gekommen sei, der ihr von »23 anderen Arten angeblich gängiger Verteilungskurven« erzählt habe. Und weiter:

Und es sollte noch viele weitere Arten geben, einen Mittel- oder Durchschnittswert zu bestimmen (für mich und sicher auch viele andere Lai/inn/en ist das dasselbe). Die Ergebnisse, so wurde ich belehrt, seien so unterschiedlich, dass sie nur von der angewandten Methode abhingen. Für mich jedenfalls war es das – ich klinkte mich geistig aus.

Wenn Frau Rose-Möhring anderen Frauen die Statistik erklären möchte, dann sollte sie sich nicht schon bei den Mittelwerten geistig ausklinken. Das wirkt dann doch etwas unglaubwürdig.


Ich war natürlich auch gespannt auf die Methoden, mit denen Frau Rose-Möhring uns den »gesunden Frauenverstand« rechnerisch beibringen möchte. In mehreren Beiträgen ihrer Serie wird klar, dass Frau Rose-Möhring schon an der Prozentrechnung scheitert. Beispiel aus Beitrag 1:

Auch hier macht ein Beispiel deutlich, um was es geht: In einer Dienststelle mit ursprünglich 1.000 Beschäftigten und einem Frauenanteil von 10%, also 900 Männern und 100 Frauen können 5% mehr weibliche Mitarbeiter verschiedenes bedeuten:

  • jetzt insgesamt 15% Frauen, also 150 Frauen und 850 Männer;
  • oder der Anteil der 100 Frauen hat sich um 5% erhöht, also jetzt 105 Frauen und 895 Männer;
  • oder – da über Männer eigentlich nichts gesagt wird – der Anteil der Frauen hat sich um 5% auf 105 und der Anteil der Männer sagen wir um 10% auf 990 bei jetzt 1095 Beschäftigten erhöht […];

Es gibt hier keine zwei Möglichkeiten. Die Aussage »5% mehr weibliche Mitarbeiter« muss sich auf einen festen Grundwert beziehen. Wenn es vorher 100 Mitarbeiterinnen gab, dann sind es nach einer Steigerung um 5% natürlich 105 Mitarbeiterinnen. Ob sich dabei auch der Frauenanteil in der Belegschaft erhöht hat, hängt von der neuen Gesamtzahl der Beschäftigten ab.

In Frau Rose-Möhrings erstem Anstrich müsste es heißen: »Der Anteil der Frauen an der Belegschaft hat sich um fünf Prozentpunkte von 10% auf 15% erhöht.« Den Unterschied zwischen »Prozent« und »Prozentpunkt« sollte man kennen, bevor man sich anschickt, über Statistik zu schreiben.

Im dritten Anstrich bringt sie »Anteil« und »Anzahl« so schlimm durcheinander, dass es beim Lesen fast schon physische Schmerzen erzeugt.


Ein didaktisch ähnlich schwaches Beispiel bringt Frau Rose-Möhring im zweiten Teil ihrer Serie:

Wenn Sie hören, dass es einem Personalchef gelungen sei, in 4 von 5 Abteilungen den Frauenanteil im letzten Jahr um 20% zu steigern, kann das auch bedeuten, dass vorher in jeder Abteilung nur 5 Frauen beschäftigt waren und er vor der Erhebung aus einer Abteilung 4 Frauen auf die anderen Abteilungen umgesetzt hat, wo die Erhöhung von 5 auf 6 jetzt 20% Steigerung ausmacht.

Der Personalchef steigert hier nicht den Frauenanteil, sondern die Anzahl der Frauen (von 5 auf 6). Über den Anteil kann gar keine Aussage getroffen werden, da man die Gesamtzahl der Beschäftigten im ersten und zweiten Jahr nicht kennt. Im dritten Teil konterkariert Frau Rose-Möhring ihr eigenes Beispiel:

50 Neueinstellungen mit 5 Frauen gegenüber 40 Neueinstellungen mit 4 Frauen im letzten Jahr zeigt gleichstellungspolitische Stagnation auf Steinzeitniveau. Aufbereitet zu einer Steigerung der Neueinstellung von Frauen um 20% (von 4 auf 5) ist es dann aber schon fast ein Durchbruch, soweit dies nicht weiter hinterfragt wird.

Eine Steigerung von 4 auf 5 Neueinstellungen ergibt nicht 20% Steigerung, sondern 25%. Zumindest nach meinem Männerverstand …


Zum Schluss noch eine Perle aus dem Rose-Möhringschen Lehrblog der »Statistik für Gleichstellungsbeauftragte«:

Computer sind im Grunde ehrliche und wahrheitsliebende Kerle. Sie rechnen im Rahmen der Programmierung unermüdlich alles und das richtig. Sie kümmern sich nicht darum, ob die Daten richtig erhoben wurden, ob die verglichenen Zeiträume stimmig sind, ob Äpfel mit Birnen verglichen werden oder ein Zahlenverhältnis überhaupt etwas Vernünftiges aussagt.

Das könnte man nach der Lektüre der ersten drei Artikel über die Autorin auch vermuten.


Der Teil 4 ist offenbar für den kommenden Montag vorbereitet, aber ich habe ihn durch Zufall in der Suche schon gefunden. Im ersten Absatz heißt es:

Der Zeitpunkt ist gekommen, sich um den interpretatorischen Teil der Statistik zu kümmern. Die Systematikerinnen unter Ihnen werden vielleicht einwenden, dies sei auch schon in den anderen Teilen enthalten gewesen […]

Der gesunde Menschenverstand sagt mir: Nein. War er nicht. Es war ja noch nicht mal fehlerfreie Prozentrechnung enthalten. Es bleibt nur zu hoffen, dass es Frauen mit Kenntnissen der Statistik gibt, die den Mut haben, Frau Rose-Möhring zu erklären, was sie da für eine Leistung abgeliefert hat …


Quellen: »Statistik für Gleichstellungsbeauftragte« von Kristin Rose-Möhring.

Teil 1
Teil 2
Teil 3
Teil 4

(Abgerufen am 20. November 2014.)



Was wissen wir über Grünen-Wähler, die gern fliegen?

14. November 2014

Am Morgen kam mir ein Link zu einem Artikel bei Focus-Online in die Quere: Etwas schadenfroh schrieb jemand, dass die Grünen-Wähler laut diesem Artikel sehr gern in ein Flugzeug steigen – jedenfalls häufiger als andere Wähler. Die Überschrift:

Ökofreunde im Kerosinrausch
Studie zeigt: Grünen-Wähler fliegen am häufigsten

Der FOCUS bezieht sich interessanterweise auf einen Artikel von SPIEGEL-online (Nebenbemerkung: Früher waren diese beiden Illustrierten noch Nachrichtenmagazine und hatten den Ehrgeiz, eigene Recherche zu leisten). In der Einleitung bei FOCUS heißt es:

Die Grünen kämpfen politisch seit langem gegen den umweltschädlichen Luftverkehr – vor allem die Steuerprivilegien bei Kerosin- und Mehrwertsteuer sind der Ökopartei ein Dorn im Auge. Die Grünen-Wähler sehen das offenbar anders, wie eine unveröffentlichte Studie zeigt, über die „Spiegel Online“ berichtete. Diese zeige nämlich, dass die Anhänger der Partei bei weitem am häufigsten fliegen.

Eine unveröffentlichte Studie sollte für uns als aufgeklärte Bürger grundsätzlich irrelevant sein: Wenn man die Daten nicht selbst prüfen kann, ist man auf die PR oder auf den Qualitätsjournalismus angewiesen.


Lassen wir das so stehen und wechseln zu SPON. Dort ist als Überschrift zu lesen:

Reiseverhalten von Grünen-Wählern: Bahn predigen, Business fliegen

Man leistet sich bei SPON sogar eine Fotostrecke mit Säulendiagrammen.

Als Essenz der Überschriften aus SPON und FOCUS bleibt: »Die Grünen-Wähler fliegen im Kerosinrausch häufig Business-Class«.

Und jetzt zeige ich Ihnen, warum an diesen Artikeln größte Zweifel angebracht sind.


Die Zahlen stammen von der renommierten Forschungsgruppe Wahlen, die auch die Wahlprognosen für das ZDF erstellt. Am Ende des Artikels heißt es:

Für die Umfrage wurden im September insgesamt 1032 Menschen interviewt. Darunter waren 77 Befragte, die sich als Grünen-Wähler bezeichneten.

Rechnen wir nach: Bei einer unterstellten Wahlbeteiligung von 75% und einem Grünen-Anteil von 10% sind rein zufällig 77 Befragte Grünen-Wähler. Also liegt die Vermutung nahe, dass den Befragten einfach im Rahmen der repräsentativen Umfrage zur Wahl noch einige Fragen zur Luftfahrt gestellt wurden.

Das ist auch absolut legitim. Die Ergebnisse einer solchen Befragung sind aber dann nur repräsentativ für die Grundgesamtheit. Die Teilnehmer der Stichprobe werden ja so ausgesucht, dass die deutschen Wählerinnen und Wähler so gut wie möglich repräsentiert werden: Einkommen, Alter, Geschlecht, regionale Verteilung …

Aber die 77 Befragten, die sich als Grünen-Wähler bezeichneten, sind keinesfalls repräsentativ für alle Grünen-Wähler. Wenn man die Einstellung der Grünen-Wähler zum Fliegen und allgemein zum Reiseverhalten erheben will, muss man eine repräsentative Stichprobe aus Grünen-Wählern zusammenstellen. Wiederum nach Einkommen, Alter, Geschlecht und regionaler Verteilung.


Noch eine letzte Anmerkung: FOCUS und SPIEGEL weisen wenigstens auf den Auftraggeber der Studie hin – auch das ist in der heutigen Zeit keine Selbstverständlichkeit mehr. Aber der Auftraggeber ist hier irrelevant. Entscheidend ist die Boulevard-Orientierung der beiden Illustrierten, die mal Nachrichtenmagazine gewesen sind. Es geht nur noch um die knallige Überschrift und überhaupt nicht mehr um die Sache.



Die glücklichen Dresdner und ihre glückliche Oberbürgermeisterin …

12. Oktober 2014

In der Diskussion über die Sperrung der historischen Augustusbrücke hat der Grünen-Stadtrat Thomas Löser von der Gefahr einer »Stadt ohne Visionen« gesprochen. Eine Stadt ohne Visionen sei eine traurige Stadt. Nun gibt es ja unterschiedliche Arten von Visionen, aber ganz unrecht hat er nicht.


Die Dresdner Oberbürgermeisterin Helma Orosz stieg sofort nach dem Debattenbeitrag in freier, unvorbereiteter Rede auf die Aussage Lösers ein. Hier ist mein Transkript aus dem Video Nr. 3 etwa ab Minute 15:00.

Orosz: Herr Löser, eine Korrektur erlaube ich mir zu Ihrer Formulierung »eine Stadt ohne Visionen ist eine traurige Stadt«. Ich weiß nicht, von welcher Stadt Sie sprechen.

Es gab eine aktuelle Umfrage in einer Zeitung hier in Dresden, vor kurzem, zum wiederholten Male, dass über zwei Drittel der Dresdner Bevölkerung glücklich sind in Dresden – ich weiß nicht, von welcher Stadt Sie sprechen.

kurze Pause mit Zwischenrufen

Das müssen Sie einfach nur zur Kenntnis nehmen!

Zwischenrufe (offenbar Einwände zur Umfrage)

Ja, jetzt, jaaaa – die Journalisten haben das falsch gemacht, und überhaupt, und alles, aber irgendwann müssen Sie es doch mal zur Kenntnis nehmen.


Selbst wenn die Umfrage der »Sächsischen Zeitung« statistisch seriös wäre (was sie nicht ist), zeigt der Beitrag von Frau Orosz aus meiner Sicht, warum sich die CDU nach einer Nachfolgerin oder einem Nachfolger umschauen sollte:

  1. Wir haben eine Oberbürgermeisterin, die ihre politischen Einsichten aus plakativ aufbereiteten Umfragen einer Lokalzeitung bezieht.
  2. Wir haben eine Oberbürgermeisterin, die nicht in der Lage ist, auf einen sachlichen Einwand eine sachliche Antwort zu geben.

Ich will im folgenden kurz erklären, warum jeder politische Bezug auf die Ergebnisse der Glücksumfrage der »Sächsischen Zeitung« äußerst fragwürdig ist.


Problem 1: Die Selbstauswahl

Diese Umfrage beruhte auf dem Prinzip der Selbstauswahl. Die Leserinnen und Leser hatten drei Möglichkeiten: Sie konnten an der Umfrage überhaupt nicht, einmal oder mehrfach teilnehmen.

Um sich für eine der drei Möglichkeiten zu entscheiden, mussten sie natürlich erst einmal wissen, dass die Umfrage stattfindet. Sie mussten auch in der Lage sein, im Web oder auf dem Papier an der Umfrage teilzunehmen. Allein anhand dieser Voraussetzungen wird schon eine Vorauswahl getroffen.

Dazu kommt: Das Verbreitungsgebiet der Sächsischen Zeitung entspricht nicht der Fläche des Freistaats. Es gibt zwei große Gebiete mit anderen flächendeckend verbreiteten Zeitungen. Die Umfrage kann also nicht »Glückliche Sachsen« heißen, sondern allenfalls »Glückliche Sachsen im Verbreitungsgebiet der Sächsischen Zeitung«.

Selbst wenn wir davon ausgingen, dass alle erwachsenen Bürger Sachsens von der Umfrage erfahren hätten: Eine Umfrage, bei der sich die Teilnehmer aus eigener Entscheidung einmal oder mehrfach einbringen können, ist aus Sicht der Politik und aus Sicht der Sozialwissenschaft wertlos. Eine Stichprobe, die durch völlig unkontrollierte Selbstauswahl (auch noch teilweise online) gebildet wird, kann nicht repräsentativ sein.

Problem 2: Die Auswertung der Ergebnisse

Selbst bei einer wissenschaftlich korrekten und für alle Sachsen repräsentativen Umfrage wäre es statistisch falsch, die Ergebnisse auch noch nach dem Wohnort der Befragten auszuwerten. Denn für die Wohnorte der Befragten ist so eine Umfrage eben nicht automatisch repräsentativ. Profis wissen das – und gehen bei der Auswertung entsprechend sorgfältig zu Werke.

Noch weniger Sinn hat also eine Aufteilung der Ergebnisse der Glücksumfrage auf die einzelnen Städte und Kreise des Verbreitungsgebiets der Zeitung. Der größte anzunehmende Unsinn ist eine Aufteilung auf einzelne Stadtteile und Ortschaften der Stadt Dresden. Selbst davor ist die Zeitung nicht zurückgeschreckt.

Die Berichterstattung über die Umfrage zog sich in der Sächsischen Zeitung über viele Ausgaben hin. Hier ist eine Auswahl der Überschriften:

  • Freunde und Geld machen Sachsen glücklich
  • Beim Liebesleben oft nur Durchschnitt
  • Familie ist das größte Glück der Riesaer
  • Den Bautzenern fehlt was zu ihrem Glück
  • Der Osten nimmt Abschied von der Ostalgie

Alle diese Überschriften kann man so, wie sie sind, in die Blaue Papiertonne werfen. Keine davon hat einen statistischen, politischen oder sozialwissenschaftlichen Wert.

Wir werden in den nächsten Jahren in der Stadt große Probleme zu bewältigen haben. Es tut mir leid für das bürgerliche Lager in Dresden, aber eine Oberbürgermeisterin, die sich von solchen Umfragen politisch beeinflussen und beeindrucken lässt, ist hier völlig fehl am Platze.


Quellen und weiterführende Links



Lebensmittelvernichtung? – Die Unstatistik des Tages (08.09.2014)

8. September 2014

In einem Bericht auf der Hochschulseite der »Sächsischen Zeitung« über studentische Lebensmittelretter wird heute folgendes Zahlenspiel veröffentlicht:

Deutschlandweit werden jedes Jahr mehrere Tonnen Lebensmittel weggeworfen. Allein gerechnet auf die deutschen Privathaushalte landen pro Jahr genießbare Speisen im Wert von 22 Milliarden Euro im Müll. Tendenz steigend. [Quelle]

Vermutlich hat die Autorin gemeint: Eine Anzahl Tonnen mit ganz vielen Nullen. Denn »mehrere Tonnen« kann ja offensichtlich nicht stimmen. Aber wen interessieren schon Zehnerpotenzen?

Über die Zahl von 22 Milliarden Euro scheint sich die Autorin dagegen ganz sicher zu sein – auch wenn sie dafür keine Quellenangabe bereitstellt. Wieder einmal gilt: Wer in unserer Qualitätspresse nicht nur wilde Zahlen konsumieren will, sollte sich informieren. Diese Zahl ist unter anderem auf der Website der Organisation »Foodsharing« zu finden, zu der die Dresdner Studenten gehören – aber ohne Quellenangabe und ohne Berechnungsgrundlage.


Es gibt zweifellos eine vermeidbare Verschwendung von Lebensmitteln in Deutschland – aber es gibt auch begründete Zweifel an den Zahlen, die solche Organisationen verbreiten. Zuerst habe ich mich daran erinnert, dass es schon mal eine Unstatistik des Monats gab, in der Walter Krämer sich mit diesem Thema befasst hat. Er schrieb unter anderem:

Bei näherem Hinsehen entpuppt sich aber auch ein großer Teil dieser verbleibenden Prozentsätze wie auch der von den Kirchen beklagten weggeworfenen 83 Kilogramm als unvermeidbarer oder teilweise unvermeidbarer Abfall wie beispielsweise Brotrinden oder Apfelschalen. So schätzt die Studie, auf die sich die Meldungen der Kirchen beziehen, dass nur 38 Kilogramm der von den Verbrauchern weggeworfenen Lebensmittel definitiv vermeidbar waren.

Also gibt es bereits ein großes Intervall, in dem die tatsächlich weggeworfene Lebensmittelmenge liegen könnte. Wenn aber schon die Menge so unsicher ist und wenn mit dem Preis eine weitere Unsicherheit hinzukommt, dann kann die Zahl von 22 Milliarden Euro nur hanebüchener Unsinn sein.


In der Unstatistik des Monats zu den Lebensmittelabfällen ist eine Studie im Auftrag der Bundesregierung verlinkt, auf die sich die Aktivisten offenbar beziehen. Dort wird im Abschnitt 2.4.4 zu den privaten Haushalten ganz offen festgestellt, dass darüber im Grunde überhaupt nichts Sicheres bekannt ist:

  1. Der Anteil an Lebensmittelabfällen deutschlandweit sei nicht bekannt.
  2. Der Anteil an Lebensmittelabfällen aus Haushalten in der Biotonne sei nur in Ansätzen vorhanden.
  3. Es seien keine Daten über den Anteil der Lebensmittelabfälle an der Mittel- und Feinfraktion in der Biotonne vorhanden.
  4. Daten zur Zusammensetzung der Lebensmittelabfälle (im Restmüll) nach Vermeidbarkeit seien nicht existent.
  5. Die Menge an Lebensmittelabfällen, die nicht ins kommunale Sammelsystem entsorgt werden, sondern eigenkompostiert, an Haustiere verfüttert oder in die Kanalisation eingebracht werden, seien nicht bekannt.

Wenn man schon nicht ansatzweise weiß, wie viele Kilogramm ein Haushalt wegwirft und wenn man erst recht nicht den Wertanteil dieser Lebensmittel kennt – wie will man dann den Gesamtwert der weggeworfenen Lebensmittel benennen? Man kann es einfach nicht! Trotzdem wird in der Studie ohne Quelle, Herleitung oder Rechenweg die folgende Behauptung aufgestellt:

Die Menge vermeidbarer und teilweise vermeidbarer Lebensmittelabfälle aus Haushalten in Deutschland entspricht einem Geldwert von 16,6 bis 21,6 Milliarden EUR pro Jahr bzw. rund 200 bis 260 EUR pro Kopf und Jahr. Für einen durchschnittlichen Vier-Personen Haushalt bedeutet das, dass pro Jahr vermeidbare und teilweise vermeidbare Lebensmittelabfälle im Wert von rund 935 EUR in Restmüll, Biotonne und Kanalisation entsorgt, eigenkompostiert oder an Haustiere verfüttert werden.

Und auf diese völlig aus der Luft gegriffenen Zahlen beziehen sich dann: Aktivisten, Qualitätspresse – und alle Zeitungsleser, die nicht nachprüfen, was sie da angeboten bekommen. Das letzte Wort sei Walter Krämer überlassen:

Fast noch bedenklicher aus ethischer Warte erscheint aber der kaum beklagte Umstand, dass allein in Deutschland jedes Jahr über 4 Millionen Tonnen Lebensmittel zu Kfz-Treibstoff verarbeitet werden.



Ist der weiße heterosexuelle Hai ein Sexist?

5. September 2014

Am Morgen machte eine Meldung aus dem Telegraph die Runde: Haifische töten neunmal mehr Männer als Frauen. Die amerikanische Publizistin Christina Hoff Sommers twitterte daraufhin ironisch:

The gendered choices of sharks.

Schon die Einleitung des Artikels legt den Verdacht nahe, dass es sich hier um eine Unstatistik handelt. Es wird eine einzige Kennzahl aus einer komplexen Studie in den Mittelpunkt gestellt – und diese Kennzahl eignet sich ganz zufällig für eine reißerische Schlagzeile.

Sharks nine times more likely to kill men than women, study says

Im Artikel wird dann behauptet:

Men are targeted in 84 per cent of all unprovoked shark attacks, and make up 89 per cent of all shark bite fatalities – which means that women are statistically more likely to survive a shark attack.


Was steht fest? 84 Prozent der Verletzten und 89 Prozent der Toten in den registrierten Fällen unprovozierter Hai-Attacken waren Männer. Kann man daraus ableiten, dass Frauen eine größere Chance haben, diese Hai-Attacken zu überleben? Dazu muss man die Gesamtzahl der Fälle kennen.

Im Artikel sind die drei Küstenregionen mit den häufigsten tödlichen Hai-Attacken aufgeführt. Dort wurden insgesamt 1.072 nicht provozierte Attacken registriert, bei denen 85 Menschen starben. Da die Datenbasis der Studie noch nicht veröffentlicht wurde, rechne ich mit diesen Zahlen weiter.

Australia topped the leader-board for fatalities, with the highest number of shark attack deaths of any nation over the period. It recorded 171 shark attacks, 32 of which were fatal, compared with South Africa’s 132 bites and 28 fatalities, and the United States, which recorded 769 bites but only 25 fatalities.


Wenn Frauen einen Anteil von 16% an den Opfern aller Angriffe haben, sind das 172 Fälle. Wenn Frauen einen Anteil von 11 % an den Todesopfern haben, sind bei diesen Angriffen 9 Frauen gestorben. Somit beträgt die Überlebensquote der Frauen 94.8 %.

Bei den restlichen 900 Angriffen starben 76 Männer. Damit haben die Männer eine Überlebensquote von 91.6 %. Also hat die Zeitung rein mathematisch recht: Frauen haben eine geringfügig höhere Überlebensquote.


Aber hat das Geschlecht wirklich einen Einfluss auf die Überlebensquote? Das darf bezweifelt werden. Erstens ist der Anteil der Frauen an der Gesamtzahl der Fälle viel zu gering, um daraus substantielle Schlüsse ziehen zu können.

Zweitens ist der Unterschied der Überlebensquoten sehr gering. Beide liegen deutlich über 90 % – was wohl vor allem auf die gute medizinische Versorgung sowie auf fähige und gut ausgerüstete Rettungskräfte in den USA zurückzuführen ist. An den anderen beiden Küsten möchte ich lieber nicht von einem Hai angegriffen werden.

Drittens haben auf die Überlebensquote außer dem Geschlecht viele andere Faktoren Einfluss: Wie weit haben sich die Personen vom Ufer entfernt? Wie lange dauerte es bis zum Eintreffen der Rettungskräfte? Wie weit war der Weg bis zum nächsten Krankenhaus?


Artikel: Sharks nine times more likely to kill men than women


PS: Thomas Pauli wies auf Twitter darauf hin, dass das Geschlecht der angreifenden Haifische in der Studie offenbar vernachlässigt wurde. Wir sollten unbedingt die Gender-Beauftragte informieren. Vermutlich wird bei der Untersuchung herausgefunden, dass 100 % der angreifenden Haifische männlich waren, denn weibliche Haifische würden ja niemals auf die Idee kommen …



Tödliches Wachstum?

21. August 2014

In einer Diskussion auf Twitter kam man wieder einmal auf die Behauptung zu sprechen, dass das Wirtschaftswachstum mit der tödlichen Krankheit Krebs zu vergleichen sei (hier ist der Beginn des Gesprächs). Am Ende twitterte @entdinglichung:

Merkel sollte also auch öfter Wucherung statt Wachstum sagen.


Man hört immer wieder von dieser Parallele und es gibt kaum eine pseudo-kritische Behauptung, die auf so viel Zustimmung stößt. Es scheint ja auch logisch: Ein unkontrolliertes Wachstum kann böse Folgen haben.

Aber gilt das auch für das Wirtschaftswachstum? Wächst die deutsche Wirtschaft wie Krebs und wird sie damit alle Lebensgrundlagen in diesem Land zerstören?

Es gibt in der Natur und in der Wirtschaft zwei Arten des Wachstums: lineares Wachstum und exponentielles Wachstum. Das Wuchern eines Tumors ist ein Beispiel für exponentielles Wachstum in der Natur. Das Schneeballsystem der Wirtschaftskriminellen ist ein Beispiel für exponentielles Wachstum ökonomischer Zahlen.

Schließlich kennt man auch das uralte Gleichnis mit dem Schachbrett: Auf dem ersten Feld liegt ein Reiskorn, auf jedem weiteren Feld die doppelte Menge. Folglich liegen auf dem letzten Feld 2^63=9.223.372.036.854.775.808 Reiskörner. Das ist exponentielles Wachstum.

Wächst unsere Wirtschaft genauso schnell? Das normale Wirtschaftswachstum eines entwickelten Industriestaats im 21. Jahrhunderts kann man grundsätzlich als lineares Wachstum beschreiben. Die Wirtschaft der Bundesrepublik wächst seit ihrer Gründung im Mittel immer linear. Hier sind die Zahlen von 1991 bis 2013 in einem Diagramm dargestellt (Klick vergrößert):


BIP_original


Das ist beileibe keine exponentielle Entwicklung. Dazu kommt: Ein Teil der Wirtschaftsleistung wird in Deutschland in die Erhaltung der Natur gesteckt. Somit ist das Wachstum also nicht zwangsläufig umweltzerstörend, sondern es kommt zu einem gewissen Teil auch durch Umweltauflagen und Umweltmaßnahmen zustande.

Nicht zu vergessen: Die wachsenden Wirtschaftszweige »Greenwashing« und »Whitewashing« – also Branchen, die vorwiegend der Beschäftigung der Menschen mit sich selbst und der Beruhigung ihres Gewissens gewidmet sind. Ihr Anteil am BIP darf nicht unterschätzt werden ;-)

Deutschland ist ein reifes, entwickeltes Land. In Staaten mit einem großen Nachholebedarf wächst die Wirtschaft schneller. Aber es tritt eine Sättigung ein, wenn ein bestimmter Lebensstandard erreicht ist.

Deshalb halte ich den Vergleich des linearen Wirtschaftswachstums mit dem exponentiellen Krebswachstum grundsätzlich für links-esoterische Ideologie. Wir können das Wirtschaftswachstum steuern und in einem liberalen und rechtsstaatlichen Ordnungsrahmen halten. Die wichtigsten beiden Maßnahmen sind dabei: Die Überschuldung zu stoppen und die Geldmenge unter Kontrolle zu behalten.


Datenquelle: https://www.destatis.de/DE/ZahlenFakten/GesamtwirtschaftUmwelt/VGR/Inlandsprodukt/Inlandsprodukt.html