Aus dem Risiko, dem sich
Patienten in klinischen Interventionsstudien aussetzen, ergibt sich
die ethische Verpflichtung, Daten aus diesen Studien zu
veröffentlichen und auch anderen Forschern für weitere
wissenschaftliche Auswertungen zugänglich zu machen („Data
Sharing“) – diese Auffassung vertritt u.a. das
„International Committee of Medical Journal Editors“
(ICMJE; 1, 2). Das ICMJE ist eine Arbeitsgruppe, zu deren
Mitgliedern leitende Redakteure renommierter medizinischer
Fachzeitschriften gehören, darunter N. Engl. J. Med., Lancet,
Deutsches Ärzteblatt, The British Medical Journal (BMJ) und PLOS
Medicine. In den beiden letztgenannten Zeitschriften ist die
Bereitschaft zum Data Sharing seit 2013 eine Voraussetzung für
eine Publikation von randomisierten, kontrollierten Studien (RCT) zu
Arzneimitteln und Medizinprodukten. Nun wurde von einer Gruppe um
John Ioannidis in einer Untersuchung geprüft, ob die Daten aus
den publizierten Studien in der Praxis auch tatsächlich
verfügbar gemacht werden und ob die Ergebnisse der Publikationen
reproduzierbar sind (2).
Eingeschlossen wurden
alle Publikationen zu RCT, die im BMJ und bei PLOS Medicine nach
Einführung der Regeln zum „Data Sharing“ eingereicht
und veröffentlicht wurden. Primärer Endpunkt der
Untersuchung war die Verfügbarkeit der Daten auf Nachfrage bei
den Autoren, definiert als die Weitergabe von ausreichend Daten, um
den primären Endpunkt der eingeschlossenen Studien zu
reproduzieren. Außerdem wurden u.a. die Zeitdauer bis zum
Vorliegen der Daten erhoben sowie gegebenenfalls Gründe, warum
die Daten nicht verfügbar gemacht wurden.
Insgesamt wurden
37 Studien eingeschlossen, von denen 26 einen
nicht-kommerziellen Sponsor hatten. 20 Studien untersuchten
pharmakologische Interventionen, 9 komplexe Interventionen (z.B.
psychotherapeutische Programme) und 8 Medizinprodukte.
Von 19 Studien
erhielten die Autoren Daten nach im Median 4 Tagen (Spannweite
0-191 Tage). Allerdings lagen nur bei 17 Studien genügend
Daten vor, um den primären Endpunkt zu reanalysieren (17/37 =
46%). Ein Studienteam von zwei weiteren Publikationen derselben
Forschergruppe hätte seine Daten nur gegen Entgelt (694 €)
zur Verfügung gestellt. Dies lehnten die Autoren ab, um keine
Ungleichbehandlung entstehen zu lassen. Ein anderes Forschungsteam
war zwar im Prinzip bereit, die Daten verfügbar zu machen –
sie lagen allerdings bis zum Ende der Datenerhebungsphase nach
7 Monaten immer noch nicht vor. Bei den verbleibenden 15 Studien
antworteten die Autoren nicht (n = 9) oder sie lehnten
„Data Sharing“ ab (n = 6). Als Grund für
die Ablehnung wurde u.a. angegeben, dass man die Ziele der
vorliegenden Untersuchung nicht unterstütze oder es wurden
persönliche Gründe wie Krankheit angeführt.
Von den 17 Studien,
zu denen genügend Daten für eine Reanalyse vorlagen,
konnten bei 14 alle primären Endpunkte reproduziert werden
(14/17 = 82%). Bei einer fehlten im Methodenteil
ausreichende Angaben, um die Ergebnisse nachvollziehen zu können,
bei zwei weiteren fielen kleinere Abweichungen auf. Insgesamt ergaben
sich bei der Reanalyse keine Ergebnisse, die der initialen
Publikation widersprachen, weder hinsichtlich der Größe
des Effekts noch hinsichtlich der statistischen Signifikanz. Als
Hauptschwierigkeiten für das „Data Sharing“ erwiesen
sich Probleme bei der Kontaktaufnahme mit den korrespondieren Autoren
und deren fehlende Ressourcen bei der Erstellung der Datensätze.
In einem begleitenden
Editorial führt Milton Packer diese nicht optimalen Ergebnisse
auf fehlendes Vertrauen zurück (4). Packer vertritt die folgende
Position: Ein Wissenschaftler, der Studien mit Menschen durchführt,
stimmt implizit einem Vertrag mit der Gesellschaft zu, der auch die
Verantwortung einschließt, die Rohdaten für die
Untersuchung verfügbar zu machen. Er sollte daher bereit sein,
Studiendaten zur Prüfung und erneuten Analyse zur Verfügung
zu stellen.
Fazit:
Die gemeinsame Nutzung von Studiendaten („Data Sharing“)
soll Wissenschaftlern ermöglichen, die Ergebnisse von Studien zu
reproduzieren oder neue Erkenntnisse zu gewinnen. Sie wird inzwischen
von vielen Institutionen gefordert (z.B. WHO, EMA; 5, 6) und ist
bei führenden medizinischen Fachzeitschriften Voraussetzung für
eine Veröffentlichung. Eine Untersuchung von publizierten RCT in
zwei dieser Zeitschriften ergab, dass bei weniger als der Hälfte
der RCT tatsächlich die Daten für eine Reanalyse der
Ergebnisse zur Verfügung gestellt wurden. Wurden Daten verfügbar
gemacht, deckten sich die Ergebnisse der Reanalyse weitgehend mit den
Ergebnissen in der initialen Publikation. Um „Data Sharing“
zu fördern, müssen Ressourcen und wissenschaftliche Anreize
geschaffen sowie Standards für den Austausch der Daten etabliert
werden.
Literatur
- Taichmann,
D.B., et al.: Dtsch. Arztebl. Int. 2017, 114,
401.
-
http://www.icmje.org/

- Naudet,
F., et al.: BMJ 2018, 360,
k400.
- Packer,
M.: BMJ 2018, 360,
k510.
- Krumholz,
H.: BMJ 2015, 350,
h599.
-
AMB
2014, 48,
79.

|