Direkt zum Hauptbereich

Posts

Lesetipp: Medical reversal – ein Update

Leider ein weit verbreitetes Phänomen: Neue Behandlungs- und Untersuchungsmethoden werden voller Euphorie und Hype in die Gesundheitsversorgung gebracht, obwohl sie unzureichend untersucht sind. Werden dann endlich mal ordentliche Studien gemacht, stellt sich nicht selten heraus: Die Maßnahmen waren doch nicht so hilfreich wie gedacht oder richten manchmal sogar mehr Schaden an, als sie nutzen.

Für dieses Phänomen haben Vinay Prasad und Adam Cifu den Begriff „medical reversal“ geprägt und sogar ein ganzes Buch zum Thema geschrieben. Das hatte ich bereits hier besprochen.

Die Grundlage des Buches bildete eine Analyse aus dem Jahr 2013. Die haben die Autoren mit einem größeren Team jetzt erweitert und aktualisiert. Für den Artikel haben die Wissenschaftler*innen drei große medizinische Fachzeitschriften (JAMA, Lancet, NEJM) systematisch durchsucht. Die Zeiträume umfassten für JAMA und Lancet 2003 bis 2017, im NEJM (in Ergänzung der vorherigen Analyse) die Jahre 2011 bis 2013. Eingeschl…

Lesetipp: Wenn es gefälschte Daten in Meta-Analysen schaffen

Ordentlich gemachte systematische Reviews haben ganz zu Recht einen guten Ruf: Fassen sie doch die Studienlage zu einer bestimmten Fragestellung zusammen und leuchten auch aus, wie es um die Qualität der Evidenz bestimmt ist. Oft sind auch quantitative Zusammenfassungen der Studiendaten, also Meta-Analysen enthalten.

Was aber, wenn sich im Nachhinein herausstellt, dass ein Teil der Daten gefälscht war? Das ist zwar glücklicherweise nicht allzu häufig, kommt im Wissenschaftsbetrieb aber leider immer wieder vor. Ein Research Letter, der im März in JAMA Int Med erschienen ist, hat sich das anhand der ARISTOTLE-Studie mit Apixaban einmal genauer angesehen.

Das Forschungsteam hat dazu nach Meta-Analysen gesucht, in die mindestens eine Publikation der Studie eingeflossen ist, und hat 22 gefunden. Die Analysen wurden nachgerechnet und dabei die gefälschten Daten weggelassen. Danach änderten sich bei knapp der Hälfte der Analysen die Schlussfolgerungen. Die 22 Meta-Analysen bestanden aus ins…

Lesetipp: Wie Spin in Nachrichten die Wahrnehmung beeinflusst

Dass die Ergebnisse von Studien in News-Meldungen nicht immer richtig wiedergegeben werden, ist keine Neuigkeit. Zu oft ist da von "Durchbrüchen" oder "Sensationen" die Rede, obwohl vielleicht nur ein Tierversuch dahinter steckt oder nur eine winzige Untersuchung mit einer Handvoll Probanden. Dennoch haben solche Meldungen mit Spin das Potenzial, bei Patient*innen und ihren Angehörigen die Wahrnehmung zu beeinflussen.

Zu diesem Ergebnis kommen drei RCT, die jeweils zwei Versionen einer News-Meldung getestet haben. Dazu hat das Autoren-Team jeweils Original-Meldungen genutzt, die über die Ergebnisse einer Studie berichtete und dabei irreführende Darstellungen benutzten, z.B. die Wirksamkeit übertrieben oder Nebenwirkungen herabspielten Diese Meldungen schrieb das Autorenteam dann um, so dass sie besser den tatsächlichen Studienergebnissen entsprachen.

Rekrutiert wurden die Teilnehmenden der RCTs auf einer großen Online-Patienten-Plattform. In den Untersuchungen wur…

Lesetipp: Systematisch oder schnell?

Eine gründliche systematische Übersichtsarbeit braucht Zeit. So verwundert es nicht, dass die Erstellung von Cochrane Reviews leicht ein bis zwei Jahre dauert, manchmal sogar mehr. In manchen Fällen braucht man jedoch auch schnelle Zusammenfassungen, etwa wenn in einer gesundheitlichen Krise schnell politische Entscheidungen gefällt werden müssen. In den letzten Jahren sind deshalb sogenannte „Rapid Reviews“ in den Mittelpunkt der Aufmerksamkeit gerückt. Das Ziel ist es, den Review-Prozess zu beschleunigen. Welche Methoden dafür angewendet werden, ist sehr divers. Dazu gehören etwa Automatisierungstechniken bei der Literatursuche oder Datenextraktion, aber auch Abkürzungen bei der Methodik.

Sind Rapid Reviews deshalb unzuverlässiger als die herkömmlichen systematischen Reviews? Diese Frage wird derzeit intensiv beforscht. So ist im Mai eine Arbeit im Journal of Clinical Epidemiology erschienen (open access!), die die Konsequenzen der möglichen Abkürzungen systematisch untersucht hat.…

Evidenz-Geschichten: Große Zusammenhänge

Der Kardiologe Franz Messerli ist einer ganz großen Sache auf der Spur: Je mehr Schokolade in einem Land gegessen wird, desto mehr Nobelpreise werden an seine Bürgerinnen und Bürger verliehen. Wenn da nur nicht die Sache mit der Korrelation und der Kausalität wäre ...

Die vollständigen ShowNotes findet ihr wie immer auf der Podcast-Seite bei Podigee oder noch einfacher, wenn ihr im Player auf das kleine "i" klickt.

Podcast Evidenzbasierte Pharmazie: Ausgabe April 2019

Gerade ist eine neue Episode des Podcasts Evidenzbasierte Pharmazie erschienen. Darin stelle ich neue Evidenzaufarbeitungen vor: zu Zeckenstichen, Blasenentzündung und einem homöopathischen Mittel gegen Diabetes.

Die ShowNotes findet ihr auf der Podcast-Seite bei Podigee.

Twitter-Tipp: Von Mäusen, Ratten und relativen Risiken

Zu den größten Ärgernissen in der Berichterstattung über neue Forschungserkenntnisse gehört es, wenn Schlagzeilen suggerieren, dass es sich um Studien an Menschen handelt - und in Wirklichkeit waren es doch nur Ratten oder Mäuse. Oder genauso beliebt: "XY erhöht das Krebsrisiko" - und wenn man genau hinschaut, sind die beeindruckenden Zahlen eine relative Risikoerhöhung, die sich in absoluten Zahlen eher bescheiden liest.

Seit letzter Woche gibt es drei Twitter-Accounts, die solche Schlagzeilen aufspießen und mit lapidaren Kommentaren versehen: "in mice" - "in rats" - "relative to what?"

Das Ganze begann, als sich James Heathers (einer der Hosts des Everything Hertz-Podcasts) so ärgerte, dass er @justsaysinmice aufsetzte - die Geschichte könnt ihr übrigens hier nachlesen. Das inspirierte David Nunan (vom CEBM Oxford) zu @justsaysinrats und @Relative_2_What Legt man die rasch wachsende Zahl an Followern als Maßstab an (@justsaysinmice ist inzwis…