Kürzlich stieß ich dann auf diesen Artikel von Tom Chivers, der mir das Dilemma zwischen der Schwierigkeit mündiger Selbstinformation und dem Vertrauensproblem gegenüber Experten vor Augen führte.
Der Artikel behandelt die Bedeutung des Satzes von Bayes für Coronatests mit Fehlerquote. Der Satz von Bayes beschreibt die Wahrscheinlichkeit eines Ereignisses A unter der Bedingung eines eingetretenen Ereignisses B. Also: Wie wahrscheinlich ist A, wenn B eingetreten ist. Dies wird für gewöhnlich mit einem senkrechten Strich „|“ notiert. Die Wahrscheinlichkeit von A bei Beobachtung von B notiert man also: p(A|B).
Quintessenz für Corona: Wird eine Person mit einem fehleranfälligen Test getestet und der Test fällt positiv aus, dann ist die Wahrscheinlichkeit für eine Infektion nicht mit der Genauigkeit des Tests identisch. Jene kann man erst ermitteln, wenn man zusätzlich die a priori Wahrscheinlichkeit einer Infektion kennt. Das wäre in diesem Fall der Anteil der Infizierten an der Bevölkerung.
Um das zu verdeutlichen, ein Rechenbeispiel für die Wahrscheinlichkeit einer Infektion bei positivem Test anhand der Werte, die Chivers in seinem Artikel verwendet. Er geht von einer Testgenauigkeit von 95% aus und einem Anteil von 3% Infizierter an der Bevölkerung (Der Artikel ist vom 7. April).
Das bedeutet: p(B|A) entspricht der Testgenauigkeit, ist also 0,95. p(A) entspricht dem Anteil der Infizierten an der Bevölkerung ist also 0,03. p(B), die a priori Wahrscheinlichkeit eines positiven Tests, ist ein klein wenig komplizierter. Es entspricht der Wahrscheinlichkeit eines positiven Tests bei einem Infizierten mal dem Anteil der Infizierten (0,95*0,03) plus der Wahrscheinlichkeit eines positiven Tests bei einem Nichtinfizierten mal dem Anteil der Nichtinfizierten an der Bevölkerung (0,05*0,97). Die Wahrscheinlichkeit einer Infektion bei positivem Test ist also 0,95* 0,03/(0,05*0,97+0,95*0,03) = 0,3701.
37%, obwohl die Testgenauigkeit 95% betrug. Das heißt umgekehrt: Wenn man bei 3% Infizierten die gesamte Bevölkerung mit Testkits testet, die zu 95% richtig liegen, dann wird man zu 63% Nichtinfizierte positiv testen. Bei verschwindend geringen Infektionszahlen des Virus, zu Beginn der Verbreitung, würde man ein Zwanzigstel des Landes in Quarantäne stecken müssen, um eine Handvoll Infizierter zu erwischen. Und bald darauf ein Zwanzigstel der Übriggebliebenen, weil ja auch einige Infizierte durch die Lappen gegangen sind.
Für die Bewertung politischen Handelns in der Coronakrise bedeutet dies zweierlei: Erstens war die Entscheidung, zu Beginn keine Massentests durchzuführen, sondern nur zu testen, wenn Symptome vorlagen oder Kontakt zu einem Infizierten bestand (wodurch die a priori Wahrscheinlichkeit einer Infektion drastisch erhöht wird) durchaus zu rechtfertigen. Ein endgültiges Urteil will ich hier nicht abgeben.
Zweitens, darum geht es Tom Chivers vor allem, ist die Idee, Immunitätsausweise zu verteilen, um Personen wieder auf die Straße zu lassen, die bereits eine Immunität erworben haben, gefährlich, wenn am Ende die meisten positiven Tests auf Testfehlern beruhen.
Ich möchte hier jetzt aber nicht weiter über die Auswirkung dieses Sachverhaltes auf die Coronakrise laiensimpeln sondern etwas Grundsätzliches behandeln.
Als ich über Entscheidungen unter Unsicherheit in der Coronakrise schrieb, da war mir prinzipiell sowohl der Satz von Bayes, als auch die Tatsache bekannt, daß die massenhaft durchführbaren Coronatests eine Fehlerquote haben. Trotzdem habe ich nicht eine Sekunde an den oben erklärten Zusammenhang gedacht.
Das war ein Amateurfehler. Der Fehler von jemandem der, wie ich mir einbilde, durchaus in der Lage ist, die Problematiken eines ihm neuen Gebiets zu verstehen, aber nicht über die Sicherheit im Umgang verfügt, um mögliche Fehlerquellen zuverlässig zu erkennen. Das ist eine Fähigkeit, die sich erst mit der Erfahrung auf einem Forschungsgebiet einstellt, die man über Jahre, nicht über Tage erwirbt. Sie beruht auf einer Kombination von Routine und auswendig gelerntem Wissen.
Die Vorstellung, man müsse in Zeiten des Internets nur recherchieren können und über eine gewisse Intelligenz verfügen, dann könne man sich zu allem eine informierte Meinung bilden, ist nicht so falsch, daß das Gegenteil wahr wäre. Aber diese Wikipediaideologie steht unter der großen Einschränkung, daß der Laie sehr leicht einen, oder mehr als einen wichtigen Faktor übersehen kann. Ausdrücklich gilt dies nicht nur für die mathematisierten Wissenschaften. Mathematik ist bloß streng genug, daß sie einem unabweislich einen Fehler aufzeigt, wo man anderswo noch darauf beharren könnte, eine Meinung zu vertreten.
Dieses Problem stellt das Ideal des mündigen Bürgers prinzipiell infrage. Zumal selbst Medien mit Qualitätsanspruch nicht willens und wohl auch nicht in der Lage sind, brauchbare Problemzusammenfassungen oder gar Gegenüberstellungen verschiedener wissenschaftlicher Ansichten jenseits eines argumentativen Gotchaspiels von geringem Informationsgehalt zu präsentieren.
Die enorme Schwierigkeit der Selbstinformation macht Vertrauen in und Vertrauenswürdigkeit der Experten zu einem Zentralproblem komplexer Gemeinwesen. Experten leben weder in einem persönlichen, noch in einem sozialen Vakuum. Auch wenn der unter Fernsehinterviews eingespielte Text das Gegenteil suggeriert: Es gibt auf der ganzen Welt niemanden, der einfach nur Experte für irgendwas ist.
Persönliche Idiosynkrasien könne auch einen Dr. Sonstwas zum öffentlichen Vertreter des größten Unfuges machen. Aus diesem Grund sind Abweichler von der Mehrheitsmeinung mit akademischem Titel nicht notwendigerweise Verfechter der Wahrheit gegen ein nur (!) durch gesellschaftlichen Druck aufrechterhaltenes Dogma.
Doch dieser gesellschaftliche Druck besteht trotzdem und untergräbt die Vertrauenswürdigkeit des Expertenkonsenses. Das menschliche Gehirn ist nicht primär dazu entwickelt, einer abstrakten Wahrheit nachzujagen, sondern dazu, mit anderen in einem sozialen Verband zusammenzuleben. Das bedeutet, daß wir uns nicht einmal bewußt an Anreizen, wie beruflichen Vorteilen oder gar an Drohungen orientieren müssen, um Meinungen zu verbreiten und sogar selbst zu glauben, die in unserer Gruppe verbreitet sind. Das gilt vor allem dann, wenn eine Meinung ein soziales Distinktionsmerkmal ist. Also ein Merkmal, anhand dessen sich in einer spezifischen Situation Gruppen voneinander abgrenzen.
Ein veganer IB-Aktivist beschwerte sich mir gegenüber einmal darüber, daß er im rechten Lager öfters wegen seiner Diät angefeindet wird. Warum ist das so? Fleischkonsum ist kein logisch notwendiger Bestandteil des Patriotismus. Aber vegane Ernährung, ist heute ein soziales Erkennungsmerkmal des grünen Hipstertums. Deshalb und nur deshalb reagieren viele Rechte instinktiv mit Häme bis Feindschaft darauf.
Dieselben sozialen Mechanismen funktionieren auch in der Wissenschaft. Bereits im akademischen Alltag, in Fragen, die außerhalb des Elfenbeinturms niemanden interessieren, gibt es Lagerbildungen und Lagerkämpfe und das berühmte Diktum gilt, daß sich ein neues Paradigma nicht durch Überzeugung durchsetzt, sondern dadurch, daß der letzte Anhänger des alten verstirbt.
Politische Bedeutung eines Forschungsgegenstandes verschärft diese sozialen Mechanismen um ein Vielfaches. Das führt zu einem unauflösbaren Dilemma, denn sie abzuschalten ist weder möglich, noch überhaupt sinnvoll. Sinnvoll deshalb nicht, weil Identitätsbildung notwendig ist, um von der Erkenntnis zum Handeln zu gelangen. Eine Erkenntnis ist nur dann politisch nutzbar, wenn sie durch eine Gruppe angeeignet wird. Wenn sie von der Erkenntnis zum Programm wird.
Damit aus dem Forschungsergebnis, ein menschengemachter Klimawandel bedrohe die Erde die zu seiner Abwendung erforderlichen Handlungen erfolgen, war es notwendig, daß aus der bloßen Forschung jenes soziale Phänomen wurde, das wir heute als Klimabewegung und Klimapolitik kennen. Dadurch entstand unvermeidlich ein enormer Druck, der auf die Forschung zurückwirkt. Nicht bloß Bedenken über die eigenen Einstellbarkeit, wenn man als Klimaforscher den Klimawandel hinterfragt, sondern bereits der subkutan wahrgenommene Konsens der Kollegen, der Politik und der Presse, führt dazu daß, angenommen die Lehre vom menschengemachten Klimawandel wäre falsch, sich dennoch kaum ein Forscher dagegen ausspräche.
Das heißt nicht im Umkehrschluß, daß der Klimawandel nicht stattfinde, oder nicht menschengemacht sei! Es heißt, daß durch die Umsetzung der Forschungsergebnisse zum Klimawandel in Politik zunächst eine Umsetzung dieser Ergebnisse in öffentliches Bewußtsein und zwar nicht nur bei der sogenannten Masse, sondern auch und zunächst in der wissenschaftlichen Gemeinschaft erforderlich war. Dies entwertet den berühmten 97% Konsens zum Klimawandel, weil er so oder so zustande käme. Der Laie, der sich unmöglich selbst eine qualifizierte Meinung zum Thema bilden kann, kann sich selbst auf einen beinahe-Konsens der Experten nicht mehr verlassen, weil von seinem Wissensstand aus, das Vorhandensein dieses Konsensen keinen Informationsgehalt über den strittigen Sachverhalt besitzt.
Ein Expertenkonsens kann ihn nur dann informieren, wenn sein Vorhandensein deutlich unwahrscheinlicher wäre, wenn er nicht dem Stand einer möglichst objektiven Forschung entspräche. Je größer die Bedeutung eines Themas, desto weniger ist diese Grundbedingung des Vertrauens in Experten gegeben.
Das unvermeidbare Problem ist: Sind komplexe Themen für das praktische Leben der Gemeinschaft von Bedeutung, dann kann das einfache Mitglied der Gemeinschaft sich kaum selbst ein Urteil darüber anmaßen. Notwendig wäre eine Kombination aus kompetenter Information durch Experten und Vertrauen in diese Experten. Aber die Bedeutung des Themas selbst macht das erste zweifelhaft uns zerstört dadurch das zweite.
quarz
"Wenn man bei 3% Infizierten die gesamte Bevölkerung mit Testkits testet, die zu 95% richtig liegen, dann wird man zu 63% Nichtinfizierte positiv testen. "
Verzeihung, wenn ich beckmessere, aber die "Testgenauigkeit" gibt es nicht unabhängig von der Infizierungsvoraussetzung. Daraus, dass bei einem Infizierten der Test zu 95% positiv ausfällt, kann man nicht schließen, dass er bei einem Nichtinfizierten zu 5% positiv ausfällt. Die Wahrscheinlichkeiten für ein korrektes Testergebnis bei Nichtinfektion sind von denen bei Infektion unabhängige und deshalb eigens zu ermittelnde Größen.
Das ändert allerdings nichts an der richtigen und wichtigen Einsicht, dass man aus dem Umstand, dass Infizierte (sofern getestet) meist positiv getestet werden, nicht schließen kann, dass hinter einem positiven Test meist ein Infizierter steckt.