Die AfD ist im Osten stark, aber sie wäre auch ohne den Osten in den Bundestag gekommen

2. Oktober 2017

Die nackten Zahlen zum Abschneiden der AfD in Ostdeutschland und Westdeutschland zeigen: Die AfD hat im Osten doppelt so viel Zuspruch wie im Westen. Im Westen sind es ca. 11 Prozent, im Osten ca. 22 Prozent.

Tatsache ist aber auch, dass die AfD ohne eine einzige Ost-Stimme in den Bundestag gekommen wäre. Dafür hätten allein die im Westen erzielten Stimmen gereicht.

Um das zu zeigen, muss man nur die Anzahl der gültigen AfD-Stimmen im Westen ins Verhältnis zur Anzahl der gesamtdeutschen gültigen Stimmen setzten.

Die AfD hat deutschlandweit etwa 5,9 Millionen gültige Stimmen bekommen, davon etwa vier Millionen im Westen und etwa 1,9 Millionen im Osten. Insgesamt wurden 46,4 Millionen gültige Stimmen abgegeben.

Bezieht man nun die vier Millionen gültigen AfD-Stimmen im Westen auf die Gesamtzahl der gültigen Stimmen, erhält man einen Anteil von etwa 8,7 Prozent.

Damit ist bewiesen, dass die AfD auch ohne eine einzige Zweitstimme aus dem Osten in den Deutschen Bundestag eingezogen wäre. Und daraus ergibt sich, dass man in beiden Landesteilen nach Ursachen suchen sollte.


Ein Klick auf das Bild vergrößert die Ansicht:


Datenquelle zum Anklicken: Bundeswahlleiter/Bundestagswahl 2017


Advertisements

Kritik an der linken »Mitte-Studie« (Teil 2)

17. Juni 2016

In den letzten beiden Tagen haben sich einige Fragen zu der Studie angesammelt. In diesem kurzen Artikel geht es um die Repräsentativität.


Repräsentativität

Eine repräsentative Studie soll die Teilnehmer so auswählen, dass sie wesentliche Merkmale der Bevölkerung repräsentieren. In dieser Studie wurden z. B. als wesentlich angesehen:

  • Geschlecht
  • Altersgruppe
  • Einkommen
  • Bildungsabschluss
  • Wohnort Ost/West

Im Gegensatz zu anderen Kritikern der Studie sehe ich in der Auswahl der Merkmale kein Problem. Bei einer so großen Befragung muss man sich auf einige Merkmale konzentrieren.

Idealerweise würde die Stichprobe also 50 % Frauen und Männer enthalten. Sie würde die Altersstruktur und den Bildungsstand der Bevölkerung repräsentieren. Es wären Menschen mit hohem, mittleren und niedrigen Einkommen entsprechend ihren Anteilen an der Bevölkerung enthalten.

Die Meinungsforscher stellen ein Konzept auf, um diese Stichprobe aus der Bevölkerung auszuwählen. In der Studie wird auf den Seiten 25 und 26 erläutert, auf welche Weise die Befragung konzipiert wurde. Das Konzept umfasste 4.902 Personen.

Eine Stichprobe kann niemals so perfekt zusammengesetzt sein, dass alle Eigenschaften in der Stichprobe gleichwertig abgebildet sind. Das betrifft jede Studie. Man kann es dieser Studie nicht anlasten, wenn die Stichprobe nicht perfekt ist.

Auf S. 27 ist die soziodemografische Beschreibung der Stichprobe mit den tatsächlichen Teilnehmerinnen und Teilnehmern dargestellt. Es fällt ins Auge, dass Frauen deutlich überrepräsentiert sind: 55,3 % sind Frauen und 44,7 % sind Männer. Es stimmen auch einige andere Anteile nicht mit den Anteilen in der gesamten Bevölkerung überein.

Das liegt daran, dass von den ursprünglich 4.902 Personen nur 2.420 Personen bereit waren, an der Studie teilzunehmen. Die Befragung war vermutlich richtig konzipiert, aber dann haben z. B. weniger verheiratete Männer im mittleren Alter daran teilgenommen. Ergebnis: sie sind unterrepräsentiert.

Leider erfahren wird nicht, wie viele Personen von vornherein abgelehnt haben und wie viele Personen die Befragung abgebrochen haben. Wir müssen die Daten also so nehmen, wie sie sind. Bessere Daten sind nicht greifbar.

Ich sehe die Repräsentativität nicht als den größten Schwachpunkt der Studie. Viel größere Schwachpunkte ergeben sich aus der Voreingenommenheit der Ersteller der Studie und aus ihrem ideologisch geprägten Weltbild. Darauf soll der dritte Artikel eingehen.



Kritik an der linken »Mitte-Studie« (Teil 1)

16. Juni 2016

In der Deutschlandfunk-Sendung »Das war der Tag« wurde heute die einzige substantielle Kritik an der »Mitte-Studie« der drei linken Stiftungen und eines Instituts der Uni Leipzig gesendet.

Alle anderen Medien haben in ihren Sendungen und in den sozialen Netzwerken nur Schaubilder mit herausgegriffenen Zahlen verbreitet. Im Artikel möchte ich darauf eingehen und einige eigene Anmerkungen zur Studie machen.


Vorbemerkung 1: Auftraggeber der Studie sind: die Otto-Brenner-Stiftung, die Heinrich-Böll-Stiftung und die Rosa-Luxemburg-Stiftung.

An dieser Stelle ist ein Fehler zu korrigieren: Nur die beiden letzteren Stiftungen sind politische Stiftungen linker Parteien, die aus Steuereinnahmen üppig finanziert werden und ein Eigeninteresse an der Studie haben.

Beginn der Ergänzung

Informationen zum Haushalt der Otto-Brenner-Stiftung sowie zum Leitbild und zu den Kooperationspartnern der Otto-Brenner-Stiftung finden Sie unter den folgenden Links:
Leitbild
Kooperationspartner
Geschäftsbericht 2011 bis 2015

Zitat aus dem Geschäftsbericht:

Im Berichtszeitraum hatte die Otto Brenner Stiftung (ohne HSI) Einnahmen in Höhe von 5,25 Millionen Euro zu verzeichnen. Davon stammen 4,9 Millionen Euro aus Erträgen für Wertpapiere, 19.600 Euro sind Zinserträge, 219.500 Euro kamen von Spendern, 100.000 Euro waren sonstigen Erträgen zuzuordnen.

Ende der Ergänzung

Persönliche Ergänzung: Ich bedaure die ursprüngliche Darstellung, dass auch die Otto-Brenner-Stiftung aus Steuereinnahmen finanziert wird. An dieser Stelle ist mir ein Fehler unterlaufen, den ich mit der Richtigstellung nun korrigiert habe.


Vorbemerkung 2: Die Studienteilnehmer wurden laut Aussage der Ersteller der Studie repräsentativ ausgewählt. Aber die Studie kann statistisch nicht repräsentativ für die AfD-Wähler, die Linken-Wähler oder die Wähler einer anderen politischen Partei sein. Wer für diese Teilgruppen eine repräsentative Befragung durchführen will, müsste eine neue repräsentative Auswahl zusammenstellen. Je kleiner die Teilgruppe, desto weniger repräsentativ sind die Aussagen.


Prof Schröder beginnt seine Stellungnahme im Interview mit Kritik am Titel »Die enthemmte Mitte«: Dieser Titel überzeichne, er sei reißerisch und durch die Ergebnisse der Studie nicht gedeckt. Die Studie »mache die Mitte nieder, ohne fundierte Belege«.

Der Moderator der DLF-Sendung Dirk-Oliver Heckmann wendet ein: »Aber die Zahlen sind doch erschreckend«.

Daraufhin zeigt Prof. Schröder, dass es im Hauptteil der Studie eigentlich um rechtsextreme Einstellungen ginge. Die tatsächlichen Zustimmungsraten zum Rechtsextremismus seien sehr gering: Nur sehr wenige Menschen stimmten einer Verharmlosung der NS-Diktatur oder anderen harten rechtsextremen Einstellungen zu. Die Zustimmungswerte lägen fast alle im einstelligen Bereich.

Prof. Schröder übt außerdem Kritik an der Frage-Methodik: In der Studie würden suggestive Fragen gestellt. Ich habe die Beispiele, die er nannte, im Wortlaut aus der Studie herausgesucht.

Wir sollten endlich wieder Mut zu einem starken Nationalgefühl haben.

Was unser Land heute braucht, ist ein hartes und energisches Durchsetzen deutscher Interessen gegenüber dem Ausland.

Das oberste Ziel deutscher Politik sollte es sein, Deutschland die Macht und Geltung zu verschaffen, die ihm zusteht.


Persönliche Anmerkung: Würde man die Fragen bei gleichem Inhalt etwas weniger »geladen« formulieren, könnte sie vermutlich eine Mehrzahl der Franzosen, Polen oder US-Amerikaner mit Ja beantworten.

Würde man mich mit diesen Formulierungen befragen, dann würde ich spätestens an dieser Stelle abbrechen, weil die Formulierungen schlicht unverschämt sind.

Formuliert man diese Fragen in sachlicher Form, wird schnell klar: Jedes Land setzt seine Interessen durch und sehr viele Bürger der EU-Staaten um uns herum haben ein natürlich auch ein Nationalgefühl.

Entscheidend sind die Taten: Setzt ein Land seine Interessen mit Diplomatie und Entwicklungshilfe durch oder führt es Aggressionskriege? Leiten die Bürger aus ihrem Nationalstolz ein verantwortungsbewusstes Verhalten oder die Verachtung anderer Völker ab?


Zurück zum Interview. Typisch für die Suggestion ist laut Prof. Schröder die Frage:

Die Ausländer kommen nur hierher, um unseren Sozialstaat auszunutzen.

Wenn Befragte derart pauschale, generalisierende Fragen vorgelegt bekämen, hätten sie keine Möglichkeit zum Differenzieren. Die meisten Menschen würden differenzierter antworten, wenn sie genauer befragt würden.

Prof. Schröder betont nochmals: Wir haben etwa 5% der Befragten, die als rechtsextrem eingestuft werden. Das sei der geringste Wert, der bei diesen Forschern jemals ermittelt wurde.  – Haben Sie davon in der »Tagesschau« etwas gehört? Oder in den Schlagzeilen zur Studie? Ich nicht.


Dann geht es im Interview um die Muslime. Unter dem Eindruck der Anschläge von Islamisten und auch der Zuwanderung sehr vieler Muslime seien die Vorbehalte sicher gewachsen und es gäbe in Teilen der Bevölkerung eine Überforderung.

Aber auch hier bringt Prof. Schröder einen interessanten Einwand: Die Studie differenziert gar nicht zwischen Muslimen und Islamisten. Hier sind die konkreten Fragen, die in der Studie gestellt wurden:

Muslimen sollte die Zuwanderung nach Deutschland untersagt werden.

Durch die vielen Muslime hier fühle ich mich manchmal wie ein Fremder im eigenen Land.

Die beiden Begriffe »islamistisch« und »Islamismus« sind in der Studie nicht zu finden – und genau diese beiden Begriffe braucht man zum Differenzieren zwischen einem friedlichen Ausüben des islamischen Glaubens und dem gewalttätigen Islamismus. Das zeigt: Differenzierung ist gar nicht gewollt.


In einem weiteren Teil des Interviews geht es um die Gewaltbereitschaft. Dort weist Prof. Schröder auf seine eigene Studien zum Linksextremismus hin. Dabei fällt auf: Jeder Bezug zum Linksextremismus oder zum Linksradikalismus fehlt in der Studie, obwohl man doch bei repräsentativer Auswahl auch auf solche Einstellungen hätte stoßen müssen …


Mein Bericht über das Interview ist nicht vollständig, weil ich mich in der Studie festgelesen habe. Dabei ist mir deutlich geworden, dass sie noch mehr problematische Inhalte hat und deutliche Voreingenommenheit zeigt. Dazu später mehr.

Ich habe die Sendung heute Nacht mitgeschnitten, um die wichtigsten Aussagen wiederzugeben und zu kommentieren. Sie ist aber auch beim DLF zum Nachhören verfügbar. Bleibt nur eine Frage: Warum wird ein solches Interview kurz vor Mitternacht gesendet? Warum hört man dieses Interview nicht in den Informationen am Morgen?


Link zur Studie [bei der Parteistiftung der Linken]

Update 1: Das Interview ist in schriftlicher Form abrufbar. Danke an den DLF!

Update 2: Es gibt jetzt zu diesem Thema auch einen Artikel von Don Alphonso in den FAZ-Blogs.




Wie das BKA einmal eine Statistik zur Kriminalität erstellte und wir sie nicht lesen sollten

9. Juni 2016

In der Bundespressekonferenz haben Journalisten nach der Entwicklung der Kriminalität gegen Ausländer und unter Ausländern gefragt. Die Bundesregierung erstellte dazu nach eigener Aussage »presseoffene Kernaussagen«. Herr Dr. Plate vom BMI sagt dazu in der Bundespressekonferenz:

Den [Bericht] kann ich leider als solchen als Vollfassung nicht zur Verfügung stellen, da der eingestuft ist, das hängt ein bisschen auch mit dem Prozedere zusammen, wie der erstellt wird unter Berücksichtigung der Daten aus den Ländern, weil überwiegend handelt es sich ja um Straftaten, die einen Charakter haben, dass sie nicht in Bundeszuständigkeit ermittelt werden sondern in Zuständigkeit der Länder, sodass man das (etwas umgangssprachlich gesagt) einsammeln muss. [Quelle: BPK-Video]


Diese »Kernaussagen« kann man in schöner großer Schrift und in zum Teil sehr einfachen Formulierungen beim BKA finden und als PDF-Datei lesen. Ein Beispiel:

Gemessen am Anteil an der Zuwanderungszahl traten Algerier, Marokkaner, Georgier, Serben und Tunesier deutlich überproportional als Tatverdächtige auf.

Syrer, Afghanen und Iraker weisen hohe absolute Fallzahlen auf. Jedoch war die Zahl der Tatverdächtigen dieser Nationalitäten – gemessen an ihrem Anteil an der Zuwanderungszahl – deutlich unterproportional.

Konkrete Zahlen? Fehlanzeige. Das BMI wirft den Journalisten einige stark vereinfachte Kernaussagen vor die Füße und die Journalisten müssen daraus einen Artikel fabrizieren. Das ist ein Job, um den ich niemanden beneide. Das Ergebnis sieht dann so wie dieser FAZ-Artikel aus, der den stark vereinfachten BKA-Bericht eben noch mal mit eigenen Worten zusammenfasst.

Da die Kernaussagen so völlig unkonkret sind, lässt sich auch jede Meinung damit begründen. Lesen Sie dazu diesen Kommentar aus der WELT, der sich auf Zahlen bezieht, die in dem Bericht gar nicht konkret benannt sind.

In beiden Zeitungen wird nicht erwähnt, dass der BKA-Bericht unter Verschluss ist und natürlich wird der BKA-Bericht dort auch nicht verlinkt. Die Leser werden in dem Glauben gelassen, dass die Journalisten die Zahlen kennen. Sie haben aber nur die »Kernaussagen«, die man leider zum großen Teil auch als »Nichtaussagen« bezeichnen könnte.


Im weiteren Verlauf wurde in der Bundespressekonferenz von Journalisten nach der Beteiligung der einzelnen Bundesländer gefragt. Herr Dr. Plate vom BMI kann dazu hier nachgehört werden:

Also es ist grundsätzlich richtig, ohne dass ich einzelne Länder jetzt gerade nennen kann, dass nicht alle Länder zu allen Berichten beigetragen haben und dass auch die Datenbasis nicht bei allen 16 Bundesländern einheitlich gewesen ist und dass das Bundeskriminalamt sozusagen prozesshaft versucht hat, das immer weiter anzugleichen, und mehr und mehr Länder ins Boot zu holen. Ob jetzt aber für die vierte Lageübersicht bereits alle 16 dabei sind mit gleicher Datenbasis, bin ich für den Moment überfragt.

Ein Journalist fragt nach: »Das heißt aber auch: Dann wäre die Vergleichbarkeit der unterschiedlichen Erhebungen nicht gegeben?«

Ja, na ja, gut … vergleichen … da sind wir schon wieder beim Thema Äpfel mit Birnen vergleichen, das ist halt so die Frage, inwieweit das sozusagen Äpfel und Birnen sind. Es ist eine gewisse Vergleichbarkeit gegeben, weil es nie nur zwei Bundesländer waren, sondern ich glaube, zuletzt waren es irgendwie 12 oder 13 und das hat schon eine gewisse Repräsentativität, aber eine absolute sozusagen zahlenscharfe wissenschaftliche Vergleichbarkeit, haben Sie völlig recht, ist nicht gegeben, wenn der Kreis der Bundesländer sich, und sei es auch nur geringfügig, geändert hat, von einer zur anderen Übersicht.

Ich darf zusammenfassen: Der eigentliche Bericht ist unter Verschluss und die aufeinander folgenden Lagebilder sind nicht vergleichbar. Geben Sie mir bitte per E-Mail Bescheid, wenn Sie in Ihrer Tageszeitung etwas darüber gelesen oder im Radio etwas darüber gehört haben. Es interessiert mich wirklich, welches Medium sich traut, darüber offen zu berichten.


Ergänzung: Der Bundesrichter Fischer hat sich in der ZEIT ebenfalls mit solchen Statistiken befasst. Sein bitteres Fazit:

Erste Aufgabe und Voraussetzung einer kritischen Presse ist es, die Dinge zu verstehen. […] Wann ist in der deutschen Presse der letzte Bericht erschienen, der die Zahlen und Ergebnisse der PKS unter methodenkritischem, kriminologischem Blickwinkel infrage stellte? Was sind das für »kritische Medien«, die nur noch nach personalisierbaren »Skandalen« suchen, aber den Skandal im Gewöhnlichen nicht bemerken? [Quelle]



Eine Studie zur »Entlohnung in Startups«

12. Mai 2016

Eine Studie über die Entlohnung der Mitarbeiter in Berliner Startups scheint zu beweisen, dass Frauen bei diesen Unternehmen sehr viel weniger Geld verdienen. Ich möchte zeigen, warum die Schlussfolgerungen in diesem SPON-Artikel statistisch nicht untermauert sind.

Die Autoren der Studie haben ihre Daten auf folgende Weise gewonnen: Zwischen April 2013 und Januar 2016 konnten sich Besucher der Seite »Jobspotting« an einer anonymen Umfrage beteiligen. Das sind fast drei Jahre (in denen sich Gehälter und Positionen verändern).

In dieser Zeit haben sich (nach Bereinigung der Daten) 3.388 Beschäftigte an der Befragung beteiligt [Quelle: Berlin Startup Salary Report, S. 10/11].

Es gibt keinen Hinweis darauf, dass die Beteiligten registriert sein mussten oder dass ihre Angaben verifiziert wurden. 60 % der Nutzer gaben an, in Berlin zu wohnen [S. 6]. Auch diese Angabe wurde offenbar nicht verifiziert. Später wird angegeben, dass 2.026 Personen tatsächlich in Berlin arbeiten [S. 12].

Bereits hier sind sehr starke Zweifel an der Aussagekraft der Studie geboten: Die Art der Umfrage (anonym, nicht verifiziert) und die Art der Auswahl der Beteiligten (es war eine Selbstauswahl auf einer Job-Plattform, die gar nicht jeder aus der Branche besuchen muss).


Laut Aussage der Autoren waren 80 % der Beteiligten »non-german«, wobei unklar bleibt, ob sich das auf die Staatsangehörigkeit oder auf die Herkunft bezieht [S. 6/7]. In den Berliner Startups arbeiten aber nur 49 % »non-germans«. Selbst wenn wir die ersten beiden sehr starken Einwände fallen lassen würden, kann die Studie also die Beschäftigten der Berliner Startups nicht repräsentieren.

Nach einer Aussage der Studie arbeiten nur etwa 63 % der Befragten überhaupt in Startups, was die Aussagekraft noch weiter einschränkt [Diagramm S. 16 oben, die Bildunterschrift ist in der Reihenfolge verkehrt]. Von den Befragten aus Berlin arbeiten 75 % in einem Startup.


Die Geschlechterverteilung M/W in der Studie betrug 70/30 % und speziell für Berlin 66/34 %. Viele Beteiligte der Umfrage kamen aus dem Ausland nach Berlin. Das sind vorwiegend sehr gut ausgebildete Männer mit Hochschulabschluss. Eine (Arbeits)Migration von gleich gut ausgebildeten jungen Frauen gibt es nicht.

Mit dieser Verteilung der ohnehin schon nicht repräsentativen und nicht geprüften Daten ist die Schlussfolgerung auf eine Lücke zwischen den Geschlechtern von exakt 25 % (wie SPON das titelt) absolut nicht sinnvoll. Aus der Studie geht noch nicht einmal sicher hervor, wie viele Frauen aus Berliner Startups überhaupt teilgenommen haben.

Das Berechnen von Korrelationskoeffizienten zum Zusammenhang zwischen Geschlecht und Gehalt aus derart ungesicherten und nicht repräsentativen Daten ist ein Zahlenspiel – aber mehr auch nicht. Somit kann der Artikel in den Datenmüll entsorgt werden. Er hat statistisch keinen Wert.

Bonus: Je detaillierter die Auswertungen [ab S. 28] zum Verhältnis männlicher und weiblicher Gehälter im Anschluss sind (Altersgruppen, Positionen etc.), desto größer wird der Unsinn. Denn für diese Teilgruppen kann die Umfrage natürlich erst recht nicht repräsentativ sein.



So täuscht man mit Statistik

21. März 2016

Ein »Mediendienst Integration« hat heute zwei Kennzahlen zur Flüchtlingskrise ausgewählt und in grafischer Darstellung veröffentlicht: die Anzahl der Asylbewerber pro 1.000 Einwohner und die Anzahl der Flüchtlinge in ausgewählten Ländern.

Eine dieser Zahlen ist irrelevant und die andere ist schon lange nicht mehr aktuell. Beide Zahlen sind zwar für sich genommen nicht falsch. Sie sind aber irreführend, denn sie verschleiern die Folgen der Flüchtlingskrise.

Online-Leitmedien wie die ZEIT bringen diese irreführenden Zahlen in ihren Artikeln, viele Aktivisten geben sie bei Twitter weiter. Morgen werden sie gedruckt in manchen Zeitungen stehen.


Die Anzahl der Asylbewerber pro 1.000 Einwohner

Zur Darstellung der Zahl der Aufgenommenen pro 1.000 Einwohner wird lediglich die Anzahl der Asylanträge im Jahr 2015 herangezogen. Damit hätte Deutschland in der Tat »nur« 5 Flüchtlinge pro 1.000 Bürger aufgenommen. Ich habe schon heute Mittag auf den gröbsten Fehler in dieser Darstellung hingewiesen:

.@MDIntegration Das ist falsch, weil »Aufnahme« nicht gleich »Asylanträge« ist. 400.000 Menschen durften 2015 gar keinen Antrag stellen.

Es ist gesichert, dass im Jahr 2015 etwa 400.000 Menschen registriert und versorgt wurden, die gar keinen Asylantrag stellen durften – weil das Amt überlastet ist. Hintergrund: Die Laufzeit der Asylverfahren beginnt erst, wenn das BAMF zur Entgegennahme eines Antrags bereit ist.

Meine Quelle für diese Zahlen ist die F.A.Z. von Ende November. Man darf also konservativ mit 400.000 Menschen mehr rechnen, die Deutschland aufgenommen hat, wie auch aus einem sehr aktuellen Artikel der F.A.Z zu den Asylanträgen hervorgeht.

Addiert man die Zahl dieser Menschen zu den 477.000 registrierten Asylbewerbern, kommt man bei 80.000.000 Deutschen auf mehr als 10 Aufgenommene pro 1.000 Einwohner. Somit ist die Grafik des Mediendienstes eine grobe Irreführung, denn man ignoriert darin fast die Hälfte der tatsächlich Aufgenommenen.


Die Flüchtlingsbevölkerung weltweit

Auch die zweite grafisch aufbereitete Kennzahl ist für den März 2016 irrelevant und irreführend. Es handelt sich um die Säulengrafik der Flüchtlingsbevölkerung unten im »Mediendienst«-Artikel.

Jeder weiß, dass die wirklich große Menge der Flüchtlinge erst im zweiten Halbjahr nach Deutschland kam und dass dafür viele Flüchtlinge andere sichere Staaten verließen.

Eine Grafik aus dem ersten Halbjahr 2015 ist heute völlig irrelevant, wenn etwa eine Million Menschen noch im zweiten Halbjahr 2015 das Land gewechselt haben und die meisten davon nach Deutschland kamen.

In den beiden Zahlen in meiner Berechnung im oberen Teil sind die nicht registrierten, illegalen Migranten noch gar nicht enthalten. Viele von ihnen enthalten vermutlich Hilfe von Freiwilligen.


Der Rest des Artikels komplettiert die Verwirrung. Der Artikel ist zwar in einem betont nüchternen Ton gehalten. Beispiel:

Will man allerdings die Auswirkung der Flüchtlingsmigration auf die Gesellschaft messen, muss man die Asylbewerberzahlen im Verhältnis zur Größe der Bevölkerung betrachten. Hier ändert sich das Ranking deutlich: Dann steht Deutschland mit seinen 81 Millionen Einwohnern im europäischen Vergleich lediglich auf Platz sechs.

Aber die Zahlen klären nicht auf, weil sie einen sehr wichtigen Teil der Realität ausblenden. Hier noch ein Zitat, das ebenfalls ungeprüft weiterverbreitet wird:

2015 erhielten hier lediglich 141.000 Menschen einen Schutzstatus, weil ihr Antrag bewilligt wurde. Das entspricht ungefähr der Hälfte aller Anträge, die gestellt wurden.

Die verlinkten Artikel aus der F.A.Z. zeigen, wie irrelevant diese Zahlen sind: 400.000 Menschen sind 2015 noch nicht einmal bis zur Antragstellung vorgedrungen. Erst danach kann man entscheiden, ob sie einen Schutzstatus erhalten. Außerdem liegen über 300.000 Anträge unerledigt im BAMF.

Damit wären wir bei der entscheidenden Frage: Warum redet man die großartige humanitäre Leistung unseres Landes im Jahr 2015 klein? Wir haben nicht nur die Antragsteller im Land – wir haben insgesamt über eine Million Menschen aufgenommen und versorgt. Warum macht man unser Land schlechter, als es ist?


Aktualisierung 1: Ich darf natürlich nicht Don Alphonsos Artikel aus dem FAZ-Blog zu diesem Thema unterschlagen.



Schafe zählen

25. Januar 2016

Stellen Sie sich eine Schafherde mit 1.000 Schafen vor. Wir wissen: In der Schafherde sind 90 % weiße und 10 % schwarze, 50% weibliche und 50 % männliche, 50 % junge und 50 % ältere Schafe. Um Anfragen vorzubeugen: Die Schafe sind natürlich BIO, werden artgerecht gehalten, und nur mit zartesten Händen geschoren.

Jedes Schaf trägt einen mit WLAN versehenen Transponder, auf dem seine Eigenschaften Identifikationsnummer, Farbe, Geschlecht und Geburtsdatum gespeichert sind. Aus dem Geburtsdatum kann einfach die Altersklasse berechnet werden.

Der Schäfer hat auf seiner Weide ein WLAN und ein Notebook. Eine Stichprobe aus dieser Schafherde kann mithilfe einer Abfrage der Transponder im Statistikprogramm ausgewählt werden. Die Transponder der ausgewählten Schafe leuchten auf, und man kann sie für die Untersuchung aus der Herde entnehmen.

Wenn der Schäfer eine wirklich repräsentative Stichprobe seiner Schafe auswählen will [1], dann muss die Stichprobe entsprechend den oben genannten Anteilen weiße und schwarze, männliche und weibliche, junge und alte Schafe enthalten. In einer Stichprobe von 50 Schafen wären dann z. B. 25 Schafe weiblich, 25 aus der jüngeren Generation, 45 weiß und 5 schwarz.

Welche Möglichkeiten einer Auswahl der Schafe für die Stichprobe scheiden also aus? Der Schäfer kann nicht einfach die ersten oder die letzten 50 Schafe aus der Herde auswählen. Er kann die Auswahl auch nicht den Schafen selbst überlassen.

Der Schäfer muss die Schafe so auswählen, dass die Stichprobe mit einer Kombination aus Vorüberlegung und Zufall gebildet wird. Mit einem Zufallsgenerator und einer systematischen Zusammensetzung der Stichprobe ist das kein Problem. Die Daten liegen ja auf den Transpondern vor.

Es gibt nun einen weit verbreiteten Irrtum über Stichproben: Wenn der Anzahl der untersuchten Schafe nur groß genug sei, dann müssten doch die Ergebnisse desto genauer werden. Ein Anteil der ersten 30 % oder der letzten 40 % an der ziehenden Herde müsse doch immer den Rest repräsentieren.

Warum stimmt das nicht? Unter den ersten 30 % der Herde könnten sich sehr viele junge Schafe befinden, weil sie schneller laufen. Es könnten dort auch überproportional viele weibliche Schafe laufen, weil sie vielleicht zuerst in den Ställen sein wollen. Unter den letzten 40 % der Herde könnten sich wiederum alle schwarzen (oder nur weiße) Schafe befinden – was die Stichprobe zweifellos auch verfälschen würde.

Eine Stichprobe muss also immer nach den Maßgaben der Statistik ausgewählt werden. Es gibt zwar eine Mindestgröße, aber ohne die Beachtung der Herdenstruktur und ohne das Zufallsprinzip wird die Stichprobe nicht belastbar sein. Eine relativ große Stichprobe, die nicht systematisch zusammengestellt wurde, ist für die Statistik wertlos.


(Ergänzung): Es gibt noch einen weit verbreiteten Irrtum über Stichproben: Man könne aus Teilmengen der Stichprobe etwas über die Teilmengen der Gesamtheit erfahren. Warum ist das ein Irrtum?

1. Die Stichprobe dient immer einem bestimmten Zweck. Ein Schäfer will vielleicht den Zustand der Wolle oder das Gewicht der Schafe testen. Dafür wählt er die Schafe repräsentativ aus.

2. Die Anzahl der stichprobenartig ausgewählten Schafe aus den Teilmengen »weiblich«, »jünger« oder »schwarz« ist in der Regel zu gering, um sie als repräsentativ für ihre Teilmenge ansehen zu können. Je kleiner die Teilmenge, desto größer ist der Einfluss des Zufalls.

Deshalb ist es eine gute Faustregel, bei allen Annahmen über Teilgruppen sehr vorsichtig zu sein. Wenn es interessante Vermutungen über die Teilgruppe gibt, sollte eine Stichprobe nur aus der Teilgruppe untersucht werden.


[<- Anmerkung 1]
Dabei setze ich stillschweigend voraus, dass die Eigenschaften der Schafe (Alter, Geschlecht, Farbe) für das Forschungsziel der Stichprobe relevant sind. So ist es ja analog bei Stichproben in der Wahlforschung auch: Ältere und Jüngere, Frauen und Männer (…) sollen gleichermaßen repräsentiert sein.


Wer das Wesen von Stichproben verstanden hat, der weiß nun auch, warum dieses Beispiel nichts taugt: Die ersten 442.000 von 1.100.000 Flüchtlingen können nicht repräsentativ für alle sein.