H. Bosch
aus derStandard, 29. August 2017, 19:01
US-Experte:
John Ioannidis fordert auf Kongress in Wien höheren Signifikanzwert als erste Gegenmaßnahme
Wien – Medizin, Biologie und viele andere "Life Sciences" umgeben sich gern mit dem Nimbus einer abgesicherten exakten Wissenschaft. Doch sehr oft sollte es besser heißen: "Nix is fix". Dies geht aus dem Keynote-Vortrag des in Fachkreisen bekannten US-Biostatistikers John Ioannidis (Stanford University) beim Internationalen Biometrie- und Biopharmazie-Statistik-Kongress (CEN ISBS) in Wien hervor.
"Das Leben quantifizieren. Die Forschung voranbringen. Entscheidungen ermöglichen", lautet das Motto der Veranstaltung mit knapp 700 Experten im Wiener AKH (bis 1. September). Doch so klar und einfach ist die Sache nicht. Kongress-Co-Organisator Martin Posch, Professor für Medizinische Statistik an der MedUni Wien, entschuldigte sich Dienstagvormittag in seinem Eröffnungsstatement ironisch für die simplen Balkengrafiken, mit denen er die thematische Verteilung der rund 400 Vorträge für das Auditorium darzustellen versuchte.
Herausforderungen der Biostatistik
Genau das ist das Problem. Mathematische Modelle, Kurven und Grafiken verleiten allein schon durch ihre Bildlichkeit zu dem Schluss, "alles sei eine ausgemachte Sache", Forschungsergebnisse präzise, klar und eindeutig. MedUni-Wien-Rektor Markus Müller, selbst klinischer Pharmakologe und somit notwendigerweise auch Statistik-firm, sagte: "Die Biostatistik ist mit einer Reihe von Herausforderungen konfrontiert." Das seien die Reproduzierbarkeit, wenige Patienten (in einer Studie; Anm.), seltene Erkrankungen und ähnliche Randbedingungen.
Zu den meistzitierten Wissenschaftern auf diesem Gebiet gehört John Ioannidis (Stanford University/USA). Er hat mit seiner im Jahr 2005 im medizinischen Fachjournal "PLoS Medicine" veröffentlichten, kontroversiellen Arbeit "Warum die meisten publizierten Forschungsergebnisse falsch sind" eine breite Diskussion über die Reproduzierbarkeit und den Wert der herkömmlichen empirischen Forschung ausgelöst.
Nur ein Drittel reproduzierbar
"Ist es Wissenschaft oder Fake News? Wir haben da ein Problem", sagte Ioannidis. Bei der Wiederholung von Experimenten in den Life Sciences, also Biowissenschaften, hätten fast regelmäßig die erzielten Ergebnisse deutlich von den Resultaten der ursprünglichen wissenschaftlichen Arbeit unterschieden. Der zunächst so eindeutig erscheinende Befund weichte sich auf. "Zwei Drittel der Studien und Ergebnisse ließen sich nicht reproduzieren", sagte Ioannidis.
Dabei sind die Konsequenzen schließlich anzuzweifelnder Studien gerade in der Medizin womöglich von enormer Bedeutung: Immerhin entscheiden sie, ob zum Beispiel neue Wirkstoffe zu Arzneimitteln weiterentwickelt werden, alte Substanzen vielleicht in neuen Anwendungsgebieten erprobt werden. Der US-Forscher nannte ein Beispiel: Statistisch an Labormäusen eindeutig belegt worden ist, dass das Uralt-Medikament Cimetidin, welches die Magensäureproduktion hemmt, einen Krebs-verhindernden Effekt haben sollte. "Aber viele Millionen Menschen haben Cimetidin eingenommen. Da hätte man doch eine solche Wirkung sehen müssen", sagte Ioannidis.
Statistische Signifikanz neu definieren
Der Wissenschafter und sein Team analysierten 50 Millionen Zusammenfassungen (Abstracts) von wissenschaftlichen Studien aus Medizin und Life Sciences. Sie stießen auf Erstaunliches: "96 Prozent der Studien ergaben ein statistisch signifikantes Ergebnis." Im Grunde genommen sei das extrem unwahrscheinlich und spreche gegen das bisher verwendete Konzept der statistischen Signifikanz, die traditionell dann gegeben ist, wenn die Chance, dass ein Resultat auf Zufall beruht, unter fünf Prozent liegt (sogenannter p-Wert kleiner 0,05). "Vielleicht sollten wir als ersten Damm gegen Fehler die statistische Signifikanz neu definieren und einen p-Wert von 0,005 als Erfordernis festsetzen", sagte Ioannidis. Das müsste bereits 90 Prozent der bisherigen Fehlerquoten beseitigen.
Freilich, vom Ansatz her ist es mit einer solchen einfachen Festlegung nicht getan. Der US-Wissenschafter listete häufig vorliegende Rahmenbedingungen in der Wissenschaft auf, die leicht zu nicht reproduzierbaren oder falschen Ergebnissen führen: "Ein Wissenschafter, der in einem 'Silo' arbeitet, geringe Probanden/Probenanzahl, eine Hypothese für eine Studie, die besonders leicht zu einem bestimmten Ergebnis führt, Analysen erst nach den Experimenten, der p-Wert von 0,05, wissenschaftliches Arbeiten ohne Datenaustausch und ohne Wiederholung der Experimente." Man müsse bei alldem auch den einzelnen Wissenschafter und Menschen einrechnen, der mit begrenzten Ressourcen auskommen muss und es gar nicht gerne sieht, wenn seine Studie kein verwertbares Ergebnis bringt. (APA, 29.8.2017)
Nota. - Wissenschaft ist öffentliches Wissen; nämlich indem es öffentlich wurde, unterliegt ipso facto allgemeiner Kritik, und die trennt sie Spreu vom Weizen. - Trennt sie sie? Natürlich nur, wenn die veröffentlichten Experimente von andern Forschern nachgestellt und gegebenenfalls widerlegt werden; und dann ist alles in Ordnung.
Aber daran hapert es eben: Für eigene Forschungen werden - mühsam genug - Fördergelder eingeworben. Doch wer investiert schon in eine Forschung, die gar keine eigenen Resultate erbringen, sondern nur anderer Leute Versuche überprüfen soll? Nicht einmal die Fachjournale wollen sie publizieren.
In den Sozialwissenschaften, namentlich der Psychologie, ist das Problem bekannt. Dass es aber in der naturwissenschaftlichen Biologie nicht minder akut ist, lässt es einem kalt den Rücken runterlaufen.
JE