Konferenz Komma an der richtigen Stelle

Eva Wolfangel, 30.07.2012 07:00 Uhr

Stuttgart - Wenn Sie den folgenden Satz lesen, werden Sie verwirrt sein: „Peter verspricht, Annika zu arbeiten.“ Das falsche Komma veranlasst das Gehirn zu Höchstleistungen. Aber schon wenige Millisekunden später hat es den Fehler entlarvt: das Komma muss weg. Oder der Satz muss anders enden: „Peter verspricht, Annika zu helfen.“

Karsten Steinhauer, Lehrstuhlinhaber für Neurolinguistik an der McGill University in Montreal, hat Probanden Sätze wie diese vorgelegt und dabei ihre Gehirnströme gemessen. Seine Ergebnisse stellte er am Samstag in Stuttgart auf der internationalen Konferenz „Labphon“ mehr als 200 Wissenschaftlern aus dem Gebiet der experimentellen Phonetik vor – und warb damit auch für die Hirnforschung, deren Bedeutung in der Sprachwissenschaft wachsen werde, so seine Prognose.

Denn die Frage, wie wichtig ein Komma oder eine entsprechende kurze Pause beim Reden für das unmittelbare Satzverständnis sind, beschäftigt Linguisten schon lange. Erst Hirnforscher konnten nachweisen, dass das Gehirn auf falsche Pausen unmittelbar reagiert. „Damit liefern wir eine wissenschaftliche fundierte Begründung für sinnvolle Kommasetzung“, sagt Steinhauer. Richtige Satzzeichen helfen beim Verständnis. Oder: Menschen, die Kommaregeln durcheinanderbringen, haben mehr Missverständnisse beim Lesen, wie ihre Hirnströme zeigten. Das hilft, Lesestörungen besser zu verstehen.

Dennoch kämpft die Hirnforschung um Anerkennung in der Sprachwissenschaft. „Erst jetzt gewinnt unsere Forschung in linguistischen Konferenzen an Bedeutung“, sagt Carsten Eulitz, Neurolinguist und Prorektor der Uni Konstanz. Dabei verspreche sie neue Einblicke in die Sprachverarbeitung und die Möglichkeit, „live dabei zu sein, wenn Sprache verarbeitet wird“. Hypothesen können so schneller bestätigt oder verworfen werden als bei klassischen Experimenten.

Auch auf einem zweiten Gebiet wollen die Organisatoren der Stuttgarter Labphon neue Methoden vorantreiben. „Wir haben die Computersimulation als großes Thema in diese Konferenz eingeführt“, sagt Grzegorz Dogil, vom Stuttgarter Institut für ­maschinelle Sprachverarbeitung. Während Beiträge zu diesem Thema auf Phonetikkongressen bisher nur ein bis zwei Prozent ausmachten, ist die Simulation in Stuttgart eines von vier Schwerpunktthemen. Einer der renommiertesten Forscher hierbei ist Bruce Hayes, Linguist an der Universität von Kalifornien. Die Lautstruktur, Basis der Sprache, sei viel zu wenig erforscht, erklärt Hayes. Das zeige unter anderem die miserable Qualität von Dialogsystemen. Was bewirkt, dass Sprache für uns „natürlich“ klingt? „Die Mathematik gibt uns machtvolle Instrumente in die Hand, um dies zu erforschen.“

Hayes hat ein Computermodell entwickelt, das erkennt, welche Wörter natürlich klingen und damit vermutlich Bestandteil von Sprache sind. Grundlage dafür sind Regeln für Lautkombinationen. Ein Beispiel für Deutsch: Kombinationen von K und L sind wahrscheinlich, T und L stehen nicht hintereinander. Mit Fantasieworten überprüft er, wie treffsicher sein System ist – und kommt so den komplizierteren Mechanismen der Sprache auf die Spur. „Es ist erstaunlich, in welch kurzer Zeit Babys lernen, welche Laute in ihrer Muttersprache existieren und wie sie zusammenpassen“, sagt er. Sein Traum ist das perfekte Computersystem, das Sprache lernt wie ein Kind: „Das ist noch ein weiter Weg, aber damit werden wir die Theorien der Linguistik beweisen können.“

Auch für Erforschung der Sprachevolution ist die Simulation wichtig, betont der Kognitionswissenschaftler Andrew Wedel aus Arizona: „Wir brauchen neue Methoden, um unsere Hypothesen zu entwickeln und zu testen.“ Er erforscht, wie sich Laute über Jahrhunderte hinweg verändern. Er ist auf sein Computermodell angewiesen: „Ein Forscherleben ist nicht lang genug, um so etwas experimentell zu erforschen.“