Dimensionen der Semantik: Lexikologie
Sprachen neigen ganz generell zu mehr syntaktischer Komplexität als für die Kommunikation tatsächlich notwendig ist. Wie gerade das Chinesische zeigt, wird in der Regel auch eine sehr einfache Syntax verstanden. Damit unsere in Schallwellen gepackten Gedanken richtig beim Empfänger ankommen, muss im Rahmen einer Grammatik neben der Form aber auch die inhaltliche Dimension geklärt werden. Dies ist das große Thema der Semantik. Ihr grundlegendster Aspekt ist die Lexikologie, die sich der konkreten Bedeutung einzelner Morpheme und Wörter widmet.
Das Wort „Baum“ lässt sich beispielsweise als „eine verholzte, langlebige Pflanze mit einem hochgewachsenen Stamm und belaubten Zweigen beschreiben. Um „Baum“ verstehen zu können, muss im Empfängergehirn eine neuronale Repräsentation des Begriffs vorhanden sein. Verholzt, langlebig, belaubt und verzweigt trifft allerdings auch auf Repräsentationen zu, die keine Bäume sind. Das, was einen Baum von anderen Gewächsen offenbar unterscheidet, scheint die Form des Stamms zu sein. Obwohl wir ein intuitives Verständnis von diesem Unterschied haben, gibt es keine allgemeingültige Definition wie lang oder dick der Stamm sein muss, damit eine Pflanze ein Baum und kein Strauch ist. Entsprechend noch schwieriger ist es daher, abstrakte Begriffe wie „Freiheit“, „Gleichheit“ oder „Brüderlichkeit“ einzufangen.
Die Bedeutung von „Bedeutung“
Das grundlegende theoretische Problem der Semantik ist es, die Bedeutung des Begriffs „Bedeutung“ zu klären. Als vielversprechendster (wenn auch nicht unumstrittener) Ansatz gilt heute eine Idee, die auf den Logiker und Mathematiker Gottlob Frege zurückgeht, den Begründer der modernen Sprachphilosophie. Für Frege steht der Wahrheitsgehalt eines Begriffs im Mittelpunkt: Die Bedeutung eines Satzes ist dann geklärt, wenn man angeben kann, ob der Satz in einer gegebenen Situation wahr oder falsch ist.
Dies lässt sich auf zwei Arten überprüfen: Einerseits anhand einer logischen Beweisführung, wie wir sie etwa für mathematische Sätze kennen. Wenn Paul grösser als Peter ist und Peter grösser als Stefan, dann ist die Aussage wahr, dass Paul auch grösser als Stefan ist. Die zweite Möglichkeit ist eine Überprüfung anhand von Erfahrungstatsachen, ein Vorgehen, das in der Mathematik der Axiomatik entspricht. Der Wahrheitsgehalt muss nicht bewiesen werden, sondern offenbart sich dem „gesunden Menschenverstand“ – beispielsweise, wenn wir unmittelbar sehen können, dass Paul Stefan überragt.[i] Mit seiner logischen Verknüpfung von Bedeutung und Wahrheit schuf Frege die Grundlage einer semantischen Theorie, die zumindest auf Aussagesätze angewendet werden kann. Frege verdanken wir auch die Unterscheidung zwischen Bedeutung und Sinn. Während die Bedeutung die „Extension“, den „Umfang“ eines Begriffs festlegt, beschreibt der Sinn die „Intension“, seinen „Inhalt“ oder seine „Tiefe“.
Gibt es sprachliche Eindeutigkeit?
Mit diesem philosophischen Rüstzeug lassen sich semantische Phänomene wie Synonyme, Konnotationen und Mehrdeutigkeiten praktisch beleuchten. Synonyme bezeichnen verschiedene Wörter mit gleicher Bedeutung. Frege nennt als Beispiel Morgenstern und Abendstern, die beide den Planeten Venus meinen.[ii] Die beidem Begriffe haben zwar dieselbe Bedeutung, aber einen anderen Sinn. Morgenstern und Abendstern sind mögliche Ausprägungen des verifizierbaren Begriffsumfangs, mit dem sich der Planet Venus beschreiben lässt – beide beziehen sich auf dasselbe Objekt. Der Sinn der beiden Wörter ist jedoch jeweils ein anderer, weil beide Begriffe mit einer anderen Vorstellung, einer anderen gedanklichen Repräsentation verbunden sind, nämlich der des hellsten Sterns, der jeweils morgens und abends zu sehen ist. Letztlich bedeutet dies, dass es keine echten Synonyme gibt. Jedes Wort löst in unserem neuronalen Netzwerk eine andere Assoziation aus: Der Morgenstern ist nicht der Abendstern, eine Orange ist keine Apfelsine und ein Tischler ist kein Schreiner.
Es schwingt immer etwas mit
Von den Synonymen ist es nicht weit zu den Konnotationen. Pferd, Ross, Gaul, Klepper und Mähre bezeichnen allesamt dasselbe Tier und sind damit in Freges Logik Ausprägungen derselben Bedeutung mit unterschiedlichem Sinn. Konnotationen haben im Gegensatz zu Synonymen aber noch Nebenbedeutungen, die dem Begriff noch bestimmte weitere Eigenschaften zuweisen. Ein Ross ist eben kein Gaul. Konnotierte Wörter zeugen oftmals von Sprachwandel: Begriffe wie „Mähre (ursprünglich einfach nur ein weibliches Pferd), „brav“ (ursprünglich ein Wort für tapfer), oder Propaganda (ursprünglich lediglich die Verbreitung einer Botschaft) sind Beispiele für solche Bedeutungsänderungen. Häufig lässt sich beobachten, dass Wörter mit Konnotationen, die als negativ oder diskriminierend empfunden werden, durch Euphemismen oder „politisch korrekte“ Formulierungen ersetzt werden. Dann wird aus einem militärischen Rückzug eine „Frontbegradigung“, aus einer Massenentlassung eine „Restrukturierung“, aus Eskimos werden „Inuit“, aus Zigeunern „Sinti und Roma“ (oder im Behördendeutsch gar eine „mobile ethnische Minderheit“.)[iii]
Mehrdeutigkeiten
Die Semantik beschäftigt sich aber auch mit dem umgekehrten Fall, nämlich, dass Wörter und Sätze mehrdeutig sein können. Ein Baum kann auch Teil eines Segelschiffs sein und ein Ross eine Schachfigur. Das ist vor allem aus logischer Sicht ein Problem, denn eine eindeutige Sprache kann zwar mit Synonymen leben, nicht aber mit Vieldeutigkeit. Frege bemerkt zudem, dass es auch Begriffe gibt, die keinerlei Bedeutung haben, etwa „Der Wille des Volkes“[iv]
Das alles zeigt, dass nicht nur wir etwas mit den Wörtern machen – die Wörter machen auch etwas mit uns. Es ist uns, wie erwähnt, nicht gleich, ob wir von einem Chirurgen mit 90%iger Überlebenswahrscheinlichkeit oder von seinem Kollegen mit 10%iger Sterbewahrscheinlichkeit operiert werden. Wir denken Sprache, aber was wir denken, wirkt auch auf unser Verhalten zurück.
Unser semantischer Rahmen
Betrachten wir die vielen Voraussetzungen, die gegeben sein müssen, damit Kommunikation zwischen Menschen funktioniert – Vorhandensein neuronaler Repräsentationen, gemeinsamer Zeichenvorrat, gemeinsame Interpretation von Zeichen, Kontext, Synonymen, Konnotationen, Mehrdeutigkeiten, Betonungen, Tonhöhenverlauf und Stilebenen – ist es eigentlich erstaunlich, dass sprachliche Kommunikation nicht zu noch mehr Missverständnissen führt. Warum die Verständigung meistens trotz aller Widrigkeiten klappt, versucht die von Charles Fillmore begründete und von Marvin Minsky weiterentwickelte „Frame-Semantik“ zu erklären: Wir können Gedanken, Gefühle und Wünsche nur deshalb verstehen, weil in unserem Gedächtnis Wissenseinheiten („Frames“, „Rahmen“) über die Welt abgelegt sind, die das zugrundeliegende Bezugssystem klären: Das Verb „kaufen“ beschreibt etwa einen Vorgang, der einen Käufer und einen Verkäufer voraussetzt, und bei dem etwas gegen Geld den Besitzer wechselt.
Rahmen enthalten definierte Standardsituationen mit Teilnehmern und Requisiten, die an bestimmte Situationen angepasst werden können: „Hans kauft ein Buch von Maria“ identifiziert in diesem Fall Käufer, Verkäufer und Ware. Da alle Beteiligten, einschließlich des Lesers, ein gemeinsames Verständnis des Rahmens „kaufen“ haben, wird der Satz verstanden, ohne dass das Verb zuerst definiert werden muss.
Wie mathematisch ist Sprache?
Minsky war kein Linguist, sondern wie Frege Mathematiker und in den 1970er Jahren einer der Pioniere der Erforschung künstlicher Intelligenz. Sein Frame-Konzept ging aus dem Versuch hervor, Wissen in stereotype Teilstrukturen aufzulösen, die maschinell erlernt und ausgeführt werden können. Die Frage, ob menschliche Intelligenz artifiziell nachgebaut werden kann, ist so alt wie die Computerwissenschaften. Dass wir 50 Jahre nach Minskys Idee vom Ziel einer dem menschlichen Denken vergleichbaren künstlichen Intelligenz noch immer weit entfernt sind, liegt vor allem daran, dass selbstlernende Programme heute nach wie vor nicht in der Lage sind, ihre Erkenntnisse auf analoge andere Situationen zu übertragen.[v]
Pragmatik: Bitte nicht wörtlich nehmen!
Unser Sprachgebrauch macht es den Maschinen zugegebenermaßen auch nicht gerade leicht. Denn wir sagen gerne und durchaus absichtsvoll, nicht immer das, was wir meinen. Wir müssen dabei nicht einmal an den bitterbösen Sarkasmus eines Jonathan Swift denken, der in seiner 1729 erschienenen Satire „A Modest Proposal“ vorschlug, dass die verarmten Iren ihre zahlreichen Kinder als Nahrungsmittel an reiche Engländer verkaufen sollten.
Die Wahrheitswerkzeuge der Semantik stoßen bereits sehr viel früher an ihre Grenzen. John F. Kennedys „Ich bin ein Berliner“ besagt gemäß semantischer Analyse entweder, dass der amerikanische Präsident ein Einwohner Berlins ist oder – der Doppeldeutigkeit des Satzobjekts geschuldet – sich für eine Süßigkeit aus frittiertem Hefeteig hält. Tatsächlich aber war das berühmte Bekenntnis eine Solidaritätsadresse des mächtigsten Staats der Erde an eine isolierte Stadt. Während diese Aussage von Kennedys Zuhörern sofort verstanden wurde, tun sich die Algorithmen der künstlichen Intelligenz nach wie vor außerordentlich schwer, über rein semantische Bedeutung hinausgehende kommunikative Sinnzusammenhänge zu erkennen. Kennedys Äußerung ist nur mit Hilfe von menschlichem Weltwissen im Kontext eines spezifischen Aspekts des Ost-West-Konflikts verständlich.
Der nichtwörtliche Gebrauch von Sprache ist Gegenstand einer weiteren linguistischen Teildisziplin, der Pragmatik. Nicht nur Swifts Sarkasmus oder Kennedys Metaphorik entzieht sich mathematischer Beschreibbarkeit. Auch unsere Alltagssprache ist voller hintergründiger Anspielungen, Doppeldeutigkeiten, offener oder versteckter Ironie. Pragmatik ist alles, was jenseits der semantischen Ebene kommuniziert wird. Sie macht einmal mehr deutlich, wie außerordentlich vielschichtig und komplex menschliche Sprache ist.
Wer mehr wissen will:
McWhorter, John (2004): „The Story of Human Language”, Vorlesungsskript.
Frege, Gottlob (1993): „Logische Untersuchungen“, Vandenhoeck und Ruprecht.
Frege, Gottlob (1892): „Über Sinn und Bedeutung“, Zeitschrift für Philosophie und philosophische Kritik, NF 100, S. 25-50.
Minsky, Marvin (2006): The Emotion Machine: Commonsense Thinking, Artificial Intelligence, and the Future of the Human Mind, Simon & Schuster
Pinker, Steven (2012): “Wie das Denken im Kopf entsteht”, Fischer.
Bildnachweise:
[i] Vgl. Frege (1993) S.32 f.
[ii] Vgl. Frege (1892) S. 25 ff.
[iii] Der kanadisch-amerikanische Psychologe und Linguist Steven Pinker hat darauf hingewiesen, dass der Versuch, Dinge durch Euphemismen zu „beschönigen“ früher oder später dazu führt, dass der neue Begriff die negative Konnotation des alten Ausdrucks übernimmt.
[iv] Frege (1892) S.41.
[v] 1950 hatte der britische Informatik-Pionier Alan Turing einen später nach ihm benannten Test entworfen. Ein Maschinen-Algorithmus besteht den Test dann, wenn wir nicht mehr unterscheiden können, ob wir uns anonym gerade mit einem Menschen oder einer Maschine unterhalten. Aktuelle KI Lösungen wie ChatGPT bestehen diesen Test heute problemlos.