Emotionale Prosodie - Emotional prosody

Emotionale Prosodie oder affektive Prosodie sind die verschiedenen nonverbalen Aspekte der Sprache , die es Menschen ermöglichen, Emotionen zu vermitteln oder zu verstehen . Es umfasst den Tonfall einer Person in der Sprache , der durch Änderungen in Tonhöhe , Lautstärke , Klangfarbe , Sprechgeschwindigkeit und Pausen vermittelt wird . Es kann von semantischen Informationen isoliert werden und interagiert mit verbalen Inhalten (zB Sarkasmus ).

Emotionale Prosodie in der Sprache wird etwas schlechter wahrgenommen oder dekodiert als Mimik, aber die Genauigkeit variiert je nach Emotionen. Wut und Traurigkeit werden am leichtesten wahrgenommen, gefolgt von Angst und Freude, wobei Ekel am schlechtesten wahrgenommen wird.

Produktion von stimmlichen Emotionen

Studien haben ergeben, dass manche Emotionen wie Angst, Freude und Wut häufiger dargestellt werden als Emotionen wie Traurigkeit.

  • Wut : Wut kann in zwei Arten unterteilt werden: „Wut“ und „heiße Wut“. Im Vergleich zu neutraler Sprache wird Wut mit einer niedrigeren Tonhöhe, höherer Intensität, mehr Energie (500 Hz) über die Vokalisierung, einem höheren ersten Formant (erster erzeugter Ton) und schnelleren Attack-Zeiten bei Stimmbeginn (dem Beginn der Sprache) erzeugt. "Heiße Wut" hingegen wird mit einer höheren, abwechslungsreicheren Tonhöhe und noch größerer Energie (2000 Hz) erzeugt.
  • Ekel : Im Vergleich zur neutralen Sprache wird Ekel mit einer tieferen, nach unten gerichteten Tonhöhe, mit Energie (500 Hz), einem niedrigeren ersten Formanten und schnellen Attack-Zeiten ähnlich der Wut erzeugt. Weniger Variation und kürzere Laufzeiten sind auch Merkmale von Ekel.
  • Angst : Angst kann in zwei Arten unterteilt werden: "Panik" und "Angst". Im Vergleich zu neutraler Sprache haben ängstliche Emotionen eine höhere Tonhöhe, geringe Variation, geringere Energie und eine schnellere Sprechgeschwindigkeit mit mehr Pausen.
  • Traurigkeit : Im Vergleich zu neutraler Sprache werden traurige Emotionen mit einer höheren Tonhöhe, weniger Intensität, aber mehr Stimmenergie (2000 Hz), längerer Dauer mit mehr Pausen und einem niedrigeren ersten Formanten erzeugt.

Wahrnehmung stimmlicher Emotionen

Die Dekodierung von Emotionen in der Sprache umfasst drei (3) Phasen: das Bestimmen akustischer Merkmale, das Herstellen sinnvoller Verbindungen mit diesen Merkmalen und das Verarbeiten der akustischen Muster in Bezug auf die hergestellten Verbindungen. In der Verarbeitungsphase werden Zusammenhänge mit emotionalem Grundwissen separat in assoziationsspezifischen Gedächtnisnetzen gespeichert. Diese Assoziationen können verwendet werden, um eine Grundlage für zukünftige emotionale Äußerungen zu bilden. Emotionale Bedeutungen von Sprache werden implizit und automatisch registriert, nachdem die Umstände, die Bedeutung und andere umgebende Details eines Ereignisses analysiert wurden.

Im Durchschnitt sind Hörer in der Lage, beabsichtigte Emotionen, die ihnen gezeigt werden, deutlich besser als zufällig wahrzunehmen (Zufall = ca. 10 %). Allerdings sind auch die Fehlerquoten hoch. Dies ist teilweise auf die Beobachtung zurückzuführen, dass Zuhörer bei der emotionalen Schlussfolgerung aus bestimmten Stimmen genauer sind und einige Emotionen besser wahrnehmen als andere. Stimmliche Äußerungen von Wut und Traurigkeit werden am leichtesten wahrgenommen, Angst und Freude werden nur mäßig wahrgenommen und Ekel ist gering wahrnehmbar.

Das Gehirn in stimmlichen Emotionen

Sprache kann in zwei Komponenten unterteilt werden: den verbalen und den vokalen Kanal. Der verbale Kanal ist der semantische Inhalt der vom Sprecher gewählten Worte. Im verbalen Kanal bestimmt der semantische Inhalt der Wörter des Sprechers die Bedeutung des Satzes. Die Art und Weise, wie ein Satz gesprochen wird, kann jedoch seine Bedeutung ändern, die der Stimmkanal ist. Dieser Sprachkanal vermittelt Emotionen des Sprechers und gibt uns als Zuhörern eine bessere Vorstellung von der beabsichtigten Bedeutung. Nuancen in diesem Kanal werden durch Intonation, Intensität, einen Rhythmus, der für Prosodie kombiniert wird, ausgedrückt . Normalerweise vermitteln diese Kanäle die gleiche Emotion, aber manchmal unterscheiden sie sich. Sarkasmus und Ironie sind zwei Formen des Humors, die auf diesem inkongruenten Stil basieren.

Neurologische Prozesse, die verbale und vokale (prosodische) Komponenten integrieren, sind relativ unklar. Es wird jedoch davon ausgegangen, dass verbale Inhalte und Vokale in verschiedenen Hemisphären des Gehirns verarbeitet werden . Verbale Inhalte aus syntaktischen und semantischen Informationen werden in der linken Hemisphäre verarbeitet . Syntaktische Informationen werden hauptsächlich in den Frontalregionen und einem kleinen Teil des Schläfenlappens des Gehirns verarbeitet, während semantische Informationen hauptsächlich in den Schläfenregionen verarbeitet werden, wobei ein kleinerer Teil der Frontallappen integriert ist. Im Gegensatz dazu wird die Prosodie hauptsächlich auf dem gleichen Weg wie der verbale Inhalt verarbeitet, jedoch in der rechten Hemisphäre . Neuroimaging-Studien mit funktionellen Magnetresonanztomographen (fMRT) bieten weitere Unterstützung für diese Hemisphärenlateralisierung und temporo-frontale Aktivierung. Einige Studien zeigen jedoch, dass die Prosodie-Wahrnehmung nicht ausschließlich auf die rechte Hemisphäre lateralisiert ist und mehr bilateral sein kann. Es gibt Hinweise darauf, dass auch die Basalganglien eine wichtige Rolle bei der Wahrnehmung der Prosodie spielen können.

Beeinträchtigung der Emotionserkennung

Defizite im Ausdruck und Verständnis der Prosodie, die durch Läsionen der rechten Hemisphäre verursacht werden, werden als Aprosodien bezeichnet . Diese können sich in unterschiedlichen Formen und in verschiedenen psychischen Erkrankungen oder Erkrankungen manifestieren . Aprosodie kann auch durch Schlaganfall und Alkoholmissbrauch verursacht werden . Zu den Arten von Aprosodie gehören: motorisch (die Unfähigkeit, eine stimmliche Beugung hervorzubringen), ausdrucksstark (wenn Einschränkungen des Gehirns und nicht motorische Funktionen die Ursache für diese Unfähigkeit sind) und rezeptiv (wenn eine Person die emotionale Sprache nicht entziffern kann).

Es hat sich gezeigt, dass es mit zunehmendem Alter immer schwieriger wird, stimmliche Gefühlsäußerungen zu erkennen . Ältere Erwachsene haben etwas mehr Schwierigkeiten, stimmliche Gefühlsausdrücke, insbesondere Traurigkeit und Wut, zu benennen als junge Erwachsene, haben jedoch viel größere Schwierigkeiten, stimmliche Emotionen und entsprechende Gesichtsausdrücke zu integrieren. Eine mögliche Erklärung für diese Schwierigkeit ist, dass die Kombination zweier Emotionsquellen eine stärkere Aktivierung von Emotionsbereichen des Gehirns erfordert, in denen Erwachsene ein vermindertes Volumen und Aktivität aufweisen. Eine andere mögliche Erklärung ist, dass ein Hörverlust zu einem Fehlhören von Stimmausdrücken geführt haben könnte. Hochtonschwerhörigkeit tritt bekanntermaßen ab dem 50. Lebensjahr auf, insbesondere bei Männern.

Da die rechte Gehirnhälfte mit Prosodie verbunden ist, haben Patienten mit Läsionen der rechten Gehirnhälfte Schwierigkeiten, Sprachmuster zu variieren, um Emotionen zu vermitteln. Ihre Sprache kann daher eintönig klingen. Darüber hinaus wurde untersucht, dass Menschen mit einer Schädigung der rechten Hemisphäre beeinträchtigt sind, wenn es darum geht, die Emotion in intonierten Sätzen zu identifizieren.

Schwierigkeiten bei der Entschlüsselung sowohl der syntaktischen als auch der affektiven Prosodie finden sich auch bei Menschen mit Autismus-Spektrum-Störung und Schizophrenie , bei denen "Patienten Defizite in einer Vielzahl von Funktionsbereichen haben, einschließlich sozialer Fähigkeiten und sozialer Kognition. Diese sozialen Beeinträchtigungen bestehen aus Schwierigkeiten beim Wahrnehmen und Verstehen". , antizipieren und reagieren auf soziale Hinweise, die für eine normale soziale Interaktion entscheidend sind." Dies wurde in mehreren Studien festgestellt, wie beispielsweise der Studie von Hoekert et al. zur emotionalen Prosodie bei Schizophrenie aus dem Jahr 2017, die zeigte, dass mehr Forschung betrieben werden muss, um den Zusammenhang zwischen der Krankheit und der emotionalen Prosodie vollständig zu bestätigen. Menschen mit Schizophrenie haben jedoch kein Problem damit, nicht-emotionale Prosodie zu entziffern.

Nicht-linguistische emotionale Prosodie

Emotionale Zustände wie Glück, Traurigkeit, Wut und Ekel können allein anhand der akustischen Struktur eines nichtsprachlichen Sprechaktes bestimmt werden. Diese Handlungen können Grunzen, Seufzen , Ausrufe usw. sein. Es gibt einige Forschungen, die die Vorstellung unterstützen, dass diese nichtsprachlichen Handlungen universell sind und die gleichen Annahmen sogar bei Sprechern verschiedener Sprachen hervorrufen.

Darüber hinaus wurde nachgewiesen, dass Emotionen in nichtsprachlichen Vokalisationen anders ausgedrückt werden können als in Sprache. Wie Lauka et al. Zustand: Sprache erfordert eine hochpräzise und koordinierte Bewegung der Artikulatoren (zB Lippen , Zunge und Kehlkopf ), um sprachliche Informationen zu übertragen, während nichtsprachliche Vokalisationen nicht durch linguistische Codes eingeschränkt sind und daher keine so präzisen Artikulationen erfordern. Dies hat zur Folge, dass nichtsprachliche Vokalisationen für viele akustische Merkmale größere Reichweiten aufweisen können als prosodische Ausdrücke.

In ihrer Studie wurden Schauspieler angewiesen, eine Reihe verschiedener Emotionen ohne Worte auszusprechen. Die Studie zeigte, dass Zuhörer eine breite Palette positiver und negativer Emotionen über dem Zufall erkennen konnten. Gefühle wie Schuld und Stolz waren jedoch weniger leicht zu erkennen.

In einer Studie von Verena Kersken, Klaus Zuberbühler und Juan-Carlos Gomez aus dem Jahr 2015 wurden Erwachsenen nicht-sprachliche Vokalisationen von Säuglingen präsentiert, um zu sehen, ob die Erwachsenen von Säuglingsvokalisationen unterscheiden konnten, die Hilferufe, das Zeigen auf einen Gegenstand oder ein Ereignis anzeigten . Säuglinge zeigen unterschiedliche prosodische Elemente beim Weinen, je nachdem, wonach sie weinen. Sie haben auch unterschiedliche Ausbrüche für positive und negative emotionale Zustände. Es wurde festgestellt, dass die Entzifferungsfähigkeit dieser Informationen kulturübergreifend und unabhängig von der Erfahrung des Erwachsenen mit Säuglingen anwendbar ist.

Geschlechtsunterschiede

Männer und Frauen unterscheiden sich sowohl in ihrem Sprachgebrauch als auch in ihrem Verständnis. Es ist bekannt, dass es einen Unterschied in der Sprechgeschwindigkeit, dem Tonhöhenbereich und der Sprechdauer sowie der Tonhöhensteigung gibt (Fitzsimmons et al.). Zum Beispiel: "In einer Studie über die Beziehung zwischen spektralen und prosodischen Zeichen wurde festgestellt, dass die Abhängigkeit von Tonhöhe und Dauer bei Männern und Frauen, die die Sätze in bejahender und neugieriger Intonation äußern, unterschiedlich ist. Sprachtempo, Tonhöhenbereich und Tonhöhensteilheit unterscheiden sich zwischen den Geschlechtern" (Nesic et al.). Ein Beispiel dafür ist, dass Frauen eher schneller sprechen, die Enden von Wörtern verlängern und die Tonhöhe am Ende von Sätzen erhöhen.

Frauen und Männer unterscheiden sich auch darin, wie sie emotionale Prosodie neurologisch verarbeiten. In einer fMRT-Studie zeigten Männer eine stärkere Aktivierung in mehr kortikalen Bereichen als weibliche Probanden bei der Verarbeitung der Bedeutung oder Art eines emotionalen Satzes. In der Art-Aufgabe hatten Männer mehr Aktivierung in den bilateralen mittleren Schläfengyri . Bei Frauen war nur der rechte hintere Kleinhirnlappen von Bedeutung . Männliche Probanden in dieser Studie zeigten eine stärkere Aktivierung im präfrontalen Kortex und benötigten im Durchschnitt eine längere Reaktionszeit als weibliche Probanden. Dieses Ergebnis wurde so interpretiert, dass Männer bewusst Rückschlüsse auf die Handlungen und Absichten des Sprechers ziehen müssen, während Frauen dies unbewusst tun können. Daher mussten Männer linguistische Semantik und emotionale Absicht "auf einer höheren Stufe als der semantischen Verarbeitungsstufe" integrieren.

Überlegungen

Die meisten Forschungen zum stimmlichen Ausdruck von Emotionen wurden durch die Verwendung von synthetischer Sprache oder Darstellungen von Emotionen durch professionelle Schauspieler untersucht. Mit spontanen, "natürlichen" Sprachproben wurde wenig geforscht. Diese künstlichen Sprachproben wurden als nah an natürlicher Sprache angesehen, aber insbesondere Darstellungen durch Schauspieler können Stereotypen des emotionalen Stimmausdrucks beeinflussen und können verstärkte Merkmale der Sprache aufweisen, die die Wahrnehmung der Zuhörer verzerrt. Eine weitere Überlegung liegt in der individuellen Wahrnehmung der Zuhörer. Studien nehmen in der Regel den Durchschnitt der Antworten, aber nur wenige untersuchen individuelle Unterschiede in großer Tiefe. Dies kann einen besseren Einblick in den stimmlichen Ausdruck von Emotionen geben.

Siehe auch

Verweise