Ist Liebe nur eine chemische Reaktion im Gehirn? Während Vertreter anderer Disziplinen Neurowissenschaftler unter anderem für diese reduzierte Sicht kritisieren, geloben diese nun Besserung. Auch zweifelhafte Studienergebnisse sollen in Zukunft weniger werden.

Liebe ist nichts anderes als eine Reaktion des Belohnungssystems im Gehirn; Jugendliche handeln impulsiv, weil ihr Stirnhirn noch nicht ausgereift ist; und psychische Störungen beruhen auf einem Ungleichgewicht an Botenstoffen. Mit Aussagen wie diesen einiger Hirnforscher sind die Neurowissenschaften in den letzten Jahren immer wieder in die Kritik geraten. Vor allem Psychologen und Philosophen bemängelten eine allzu platte Reduktion komplexer Phänomene auf das Geschehen im Gehirn. Doch mittlerweile kommt die Kritik auch verstärkt aus den eigenen Reihen.

 

Vergangene Woche wurden die Ergebnisse einer Konferenz vorgestellt, in der sich Ende vergangenen Jahres Hirnforscher, Mediziner, Psychiater und Philosophen zusammen fanden. Thema der Tagung „Mind the Brain!“ in der Berlin School of Mind and Brain der Humboldt-Universität waren die Schwachstellen in der neurowissenschaftlichen Forschung, und wie man sie am besten beheben könnte. „Wir ertrinken förmlich in falschen Befunden.“ Mit diesen Worten beschrieb Ulrich Dirnagl von der Berliner Charité die Situation der Biomedizin und der Neurowissenschaften.

Für den Neurologen liegen die Probleme auf der Hand. „Vielfach werden in der Biomedizin und den Neurowissenschaften die wissenschaftlichen Standards nicht eingehalten.“ Falsche Befunde seien daher nicht die Ausnahme, sondern die Regel. Wird beispielsweise eine neue Behandlung einer neurologischen Störung getestet, gibt es eigentlich einige Mindestanforderungen: Neben einer Testgruppe, die die Behandlung bekommt, sollten Probanden in einer Kontrollgruppe lediglich eine Scheinbehandlung erhalten. Doch in der Realität gibt es oftmals keine Vergleichsgruppe. In der Folge kann sich eine Behandlung als wirksam erweisen, die unter strengeren Bedingungen vielleicht gar keine oder nur eine schwache Wirkung offenbart hätte. „Vermutlich lassen sich nur zehn bis 20 Prozent der Befunde in nachfolgenden Studien bestätigen“, sagte Dirnagl.

Geringe statistische Aussagekraft von Studien

Die Zuverlässigkeit und Wiederholbarkeit von Forschungsergebnissen ist in der Tat ein wunder Punkt in den Neurowissenschaften. Das liegt auch an der teilweise geringen statistischen Aussagekraft der Studien. Das machte eine Untersuchung der Psychologin Katherine Button von der University of Bristol deutlich, die in Fachkreisen für Aufsehen sorgte. In einer Metaanalyse im Fachblatt „Nature Reviews Neuroscience“ hatte sie mit Kollegen mehrere hundert neurowissenschaftliche Einzelstudien unter die Lupe genommen. Darunter waren genetische Untersuchungen und auch solche mit bildgebenden Verfahren. Bei den von Katherine Button untersuchten Studien lag die statistische Aussagekraft im Schnitt bei mageren 20 Prozent.

Hat eine Studie eine geringe statistische Aussagekraft, liefert sie viel eher unzuverlässige Ergebnisse. Sie übersieht leichter einen echten Zusammenhang, etwa den zwischen einer bestimmten Genvariante und einer psychischen Störung. Umgekehrt stößt sie viel eher auf vermeintliche Zusammenhänge, die in Wahrheit lediglich ein Produkt des Zufalls sind.

Grund für die schwache Aussagekraft ist ein Manko so mancher neurowissenschaftlicher Studie: die Zahl der Probanden ist schlicht zu klein. Katherine Button stellte daher den Untersuchungen aus der Hirnforschung ein schlechtes Zeugnis aus: „Viele dieser Studien können gar nicht eindeutige Antworten auf die Fragen geben, die sie untersuchen.“ Erschwerend kommt dann noch hinzu, dass neurowissenschaftliche Studien nicht immer das realistisch abbilden, was sie eigentlich untersuchen wollen. Ein anschauliches Beispiel nimmt Ulrich Dirnagl aus der Schlaganfall-Forschung. Bevor neue Wirkstoffe in klinischen Untersuchungen am Menschen getestet werden, müssen sie sich zunächst bei Tieren bewähren. Vornehmlich bei Mäusen versuchen Wissenschaftler die Erkrankung nachzubilden. Doch Modell und Wirklichkeit klaffen oft weit auseinander, wie Dirnagl betont. „Die Modellmäuse leben unter kontrollierten Laborbedingungen; zudem sind sie meist jung, männlich, genetisch identisch und gesund.“

Probleme, Ergebnisse aus dem Labor an den Patienten zu bringen

Das hat mit der Realität von Patienten mit einem Schlaganfall oft nur wenig gemein: Sie unterscheiden sich selbstverständlich genetisch erheblich und leiden oft unter weiteren Erkrankungen wie Diabetes. Außerdem sind sie in aller Regel ältere Menschen und unter ihnen befinden sich natürlich auch Frauen.

Ulrich Dirnagl überrascht es daher nicht sonderlich, dass zwar viele potentielle Behandlungen von Schlaganfällen bei Tieren erfolgreich waren – beim Menschen aber fast durch die Bank weg scheiterten. „Wir haben im Falle von neurologischen Erkrankungen insgesamt große Probleme, die Dinge, die wir so schön im Labor entwickeln, effektiv an den Patienten zu bringen.“

Die Berliner Tagung „Mind the Brain!“ Ende vergangenen Jahres setzte an einigen dieser Kritikpunkte an. Gemeinsam erarbeiteten Forscher wie Ulrich Dirnagl und der Neurologe Arno Villringer vom Max-Planck-Institut für Kognitions- und Neurowissenschaften in Leipzig konstruktive Vorschläge, um die Qualität der neurowissenschaftlichen Forschung zu verbessern. Zu Beginn einer Studie solle etwa die für die jeweilige Fragestellung notwendige Zahl an Probanden berechnet werden. Außerdem sollte in Zukunft viel mehr Wert auf Replikationsstudien gelegt werden, um frühere Befunde zu bestätigen oder eben zu widerlegen.

Die Vorschläge sind sicherlich nicht ganz neu. Aber Arno Villringer und Ulrich Dirnagl wollen mit gutem Beispiel vorangehen. Sie möchten sich freiwillig und nachprüfbar striktere Kriterien wissenschaftlicher Arbeit auferlegen als bisher. Dirnagl beispielsweise lässt seine eigene Forschungsabteilung von externen Experten daraufhin prüfen, ob sie die Richtlinien guter wissenschaftlicher Praxis erfüllt. Anhand eines elektronischen Laborbuchs kann man etwa jederzeit nachvollziehen, wann in seinem Forscherteam welche Daten unter welchen Bedingungen erhoben wurden. „Wir hoffen auf eine Art Schneeballeffekt“, sagte Arno Villringer. „Im Idealfall macht unser Beispiel unter Kollegen Schule.“