Lippenlesen - Lip reading

Lippenlesen , auch bekannt als speechreading , ist eine Technik der Verständnis Rede durch visuelle Interpretation der Bewegungen der Lippen, des Gesichts und der Zunge , wenn der normale Ton nicht verfügbar ist. Es stützt sich auch auf Informationen, die durch den Kontext, Sprachkenntnisse und eventuelles Resthörvermögen bereitgestellt werden. Obwohl das Lippenlesen am häufigsten von gehörlosen und schwerhörigen Menschen verwendet wird, verarbeiten die meisten Menschen mit normalem Hörvermögen einige Sprachinformationen aus dem Anblick des sich bewegenden Mundes.

Verfahren

Obwohl die Sprachwahrnehmung als auditive Fähigkeit angesehen wird, ist sie intrinsisch multimodal, da die Sprachproduktion vom Sprecher Bewegungen von Lippen, Zähnen und Zunge erfordert, die in der Kommunikation von Angesicht zu Angesicht oft sichtbar sind. Informationen von Lippen und Gesicht unterstützen das Hörverstehen und die meisten fließend zuhörenden Hörer einer Sprache reagieren empfindlich auf gesehene Sprechhandlungen (siehe McGurk-Effekt ). Das Ausmaß, in dem Menschen gesehene Sprachhandlungen nutzen, variiert mit der Sichtbarkeit der Sprachhandlung und dem Wissen und Können des Wahrnehmenden.

Phoneme und Viseme

Das Phonem ist die kleinste nachweisbare Lauteinheit in einer Sprache, die dazu dient, Wörter voneinander zu unterscheiden. /pit/ und /pik/ unterscheiden sich durch ein Phonem und beziehen sich auf unterschiedliche Konzepte. Gesprochenes Englisch hat etwa 44 Phoneme. Beim Lippenlesen ist die Anzahl visuell unterscheidbarer Einheiten – Viseme – viel kleiner, so dass mehrere Phoneme auf wenige Viseme abgebildet werden. Dies liegt daran, dass viele Phoneme in Mund und Rachen produziert werden und nicht gesehen werden können. Dazu gehören Stimmlippenkonsonanten und die meisten Gesten der Zunge. Stimmhafte und stimmlose Paare sehen identisch aus, wie [p] und [b], [k] und [g], [t] und [d], [f] und [v] und [s] und [z]; ebenso für Nasalisierung (zB [m] vs. [b]). Homophene sind Wörter, die beim Lippenlesen ähnlich aussehen, aber unterschiedliche Phoneme enthalten. Da es im Englischen etwa dreimal so viele Phoneme wie Viseme gibt, wird oft behauptet, dass nur 30 % der Sprache von den Lippen gelesen werden können. Homophene sind eine entscheidende Quelle für falsches Lippenlesen.

Die Legende zu diesem Rätsel lautet: "Hier ist eine Klasse von einem Dutzend Jungen, die, als sie aufgerufen wurden, ihre Namen zu nennen, durch den augenblicklichen Vorgang fotografiert wurden, gerade als jeder begann, seinen eigenen Namen auszusprechen. Die zwölf Namen waren Oom, Alden , Eastman, Alfred, Arthur, Luke, Fletcher, Matthew, Theodore, Richard, Shirmer und Hisswald Nun scheint es nicht möglich zu sein, jedem der zwölf Jungen den richtigen Namen zu geben, aber wenn man die Liste noch einmal übt für jeden wird es keine schwierige Aufgabe sein, für jeden der Jungen den richtigen Namen zu finden."

Mitartikulation

Viseme können als Standbilder aufgenommen werden, aber Sprache entfaltet sich mit der Zeit. Die sanfte Artikulation von Sprachlauten in Folge kann bedeuten, dass Mundmuster durch ein benachbartes Phonem „geformt“ werden können: Der „th“-Laut in „Zahn“ und „Zähne“ erscheint aufgrund des vokalen Kontexts sehr unterschiedlich . Dieses Merkmal des dynamischen Sprachlesens beeinflusst das Lippenlesen „jenseits des Visems“.

Wie kann es mit so wenigen Visemen „funktionieren“?

Die statistische Verteilung von Phonemen innerhalb des Lexikons einer Sprache ist ungleichmäßig. Während es Wortgruppen gibt, die einander phonemisch ähnlich sind ('lexikalische Nachbarn', wie spucken/sip/sit/stick...usw.), sind andere anders als alle anderen Wörter: die Verteilung ihrer Phoneme ('Regenschirm' könnte ein Beispiel sein). Geübte Sprachanwender bringen dieses Wissen beim Dolmetschen von Sprache ein, so dass es im Allgemeinen schwieriger ist, ein gehörtes Wort mit vielen lexikalischen Nachbarn zu identifizieren als eines mit wenigen Nachbarn. Wendet man diese Erkenntnis auf gesehene Sprache an, können einige Wörter in der Sprache eindeutig von den Lippen gelesen werden, selbst wenn sie nur wenige Mundbilder enthalten - einfach weil keine anderen Wörter möglicherweise "passen".

Variation in Lesbarkeit und Geschick

Viele Faktoren beeinflussen die Sichtbarkeit eines sprechenden Gesichts, einschließlich Beleuchtung, Bewegung des Kopfes/der Kamera, Bildrate des bewegten Bildes und Entfernung zum Betrachter (siehe zB). Eine Kopfbewegung, die die normale Sprache begleitet, kann auch das Lippenlesen verbessern, unabhängig von mündlichen Handlungen. Wenn jedoch Lippenlesen verbundene Sprache , das Wissen des Betrachters der gesprochenen Sprache, die Vertrautheit mit dem Sprecher und Sprachstil und Kontext der Lippen abzulesen Materialien sind ebenso wichtig wie die Sichtbarkeit des Sprechers. Während die meisten Hörenden empfindlich auf gesehene Sprache reagieren, gibt es große Unterschiede in der individuellen Sprachlesefähigkeit. Gute Lippenleser sind oft genauer als schlechte Lippenleser bei der Identifizierung von Phonemen aus visueller Sprache.

Ein einfaches visemisches Maß für die „Lipplesbarkeit“ wurde von einigen Forschern in Frage gestellt. Das Maß „Phonem-Äquivalenzklasse“ berücksichtigt die statistische Struktur des Lexikons und kann auch individuelle Unterschiede in der Lippenlesefähigkeit berücksichtigen. Dementsprechend wird exzellentes Lippenlesen oft mit umfassenderen kognitiven Fähigkeiten in Verbindung gebracht, einschließlich allgemeiner Sprachkenntnisse, exekutiver Funktionen und Arbeitsgedächtnis .

Lippenlesen und Sprachenlernen bei hörenden Säuglingen und Kindern

Die ersten Monate

Das Sehen des Mundes spielt eine Rolle bei der frühen Sprachsensibilität des Kleinkindes und bereitet es darauf vor, mit 1 – 2 Jahren Sprecher zu werden. Um zu imitieren, muss ein Baby lernen, seine Lippen entsprechend den Geräuschen zu formen, die es hört; den Sprecher zu sehen, kann ihnen dabei helfen. Neugeborene imitieren Mundbewegungen von Erwachsenen wie das Herausstrecken der Zunge oder das Öffnen des Mundes, was eine Vorstufe für weitere Nachahmung und späteres Sprachenlernen sein könnte. Säuglinge sind gestört, wenn die audiovisuelle Sprache eines vertrauten Sprechers desynchronisiert ist, und neigen dazu, bei der Zuordnung zu (aufgezeichneten) Stimmen andere Aussehensmuster für bekannte als für unbekannte Gesichter zu zeigen. Säuglinge reagieren empfindlich auf McGurk-Illusionen, Monate bevor sie sprechen gelernt haben. Diese und viele weitere Studien weisen auf eine Rolle des Sehens bei der Entwicklung der Sensibilität für (auditive) Sprache im ersten Lebenshalbjahr hin.

Die nächsten sechs Monate; eine Rolle beim Erlernen einer Muttersprache

Bis zum Alter von etwa sechs Monaten sind die meisten hörenden Säuglinge sensibel für eine Vielzahl von Sprachgesten - einschließlich solcher, die am Mund zu sehen sind -, die später Teil der Phonologie ihrer Muttersprache sein können oder nicht . Aber in den zweiten sechs Lebensmonaten zeigt der hörende Säugling eine Wahrnehmungsverengung für die phonetische Struktur seiner eigenen Sprache - und kann die frühe Sensibilität für Mundmuster verlieren, die nicht nützlich sind. Die Sprachlaute /v/ und /b/, die im Englischen, aber nicht im kastilischen Spanisch visämisch unterscheidbar sind, werden bei spanisch-exponierten und englisch-exponierten Babys bis zum Alter von etwa 6 Monaten genau unterschieden. Allerdings verlieren ältere, spanisch-exponierte Säuglinge die Fähigkeit, diese Unterscheidung zu „sehen“, während sie für englisch-exponierte Säuglinge beibehalten wird. Solche Studien legen nahe, dass die multimodale Verarbeitung eher die Regel als die Ausnahme in der (Sprach-)Entwicklung des kindlichen Gehirns ist, als dass sich Hören und Sehen im Säuglingsalter unabhängig voneinander entwickeln.

Frühe Sprachproduktion: ein bis zwei Jahre

Angesichts der vielen Studien, die auf eine Rolle des Sehvermögens bei der Sprachentwicklung beim prälingualen Säugling hinweisen, sind die Auswirkungen der angeborenen Blindheit auf die Sprachentwicklung überraschend gering. 18 Monate alte lernen neue Wörter leichter, wenn sie sie hören, und lernen sie nicht, wenn ihnen die Sprechbewegungen ohne Gehör gezeigt werden. Von Geburt an blinde Kinder können jedoch /m/ und /n/ in ihrer eigenen frühen Produktion von englischen Wörtern verwechseln – eine Verwechslung, die bei sehenden hörenden Kindern selten vorkommt, da /m/ und /n/ sichtbar unterscheidbar, aber auditiv verwechselbar sind. Die Rolle des Sehens bei Kindern im Alter von 1 bis 2 Jahren kann für die Produktion ihrer Muttersprache weniger entscheidend sein, da sie in diesem Alter die Fähigkeiten erworben haben, die sie benötigen, um Sprachlaute zu erkennen und zu imitieren. Das Hören einer nicht-muttersprachlichen Sprache kann jedoch die Aufmerksamkeit des Kindes auf die visuelle und auditive Beteiligung durch Lippenlesen und Hören lenken, um Sprache zu verarbeiten, zu verstehen und zu produzieren.

In der Kindheit

Studien mit prälingualen Säuglingen und Kindern verwenden indirekte, nonverbale Maßnahmen, um die Empfindlichkeit gegenüber gesehener Sprache anzuzeigen. Explizites Lippenlesen kann bei hörenden Vorschulkindern zuverlässig getestet werden, indem man sie auffordert, „laut zu sagen, was ich leise sage“. Bei Kindern im Schulalter kann das Lippenlesen von vertrauten geschlossenen Wörtern wie Zahlenwörtern leicht ausgelöst werden. Individuelle Unterschiede in der Fähigkeit zum Lippenlesen, die getestet werden, indem das Kind gebeten wird, „das Wort zu sprechen, das Sie von den Lippen gelesen haben“, oder indem eine Lippenlese-Äußerung einem Bild zugeordnet wird, zeigen einen Zusammenhang zwischen der Lippenlesefähigkeit und dem Alter.

Bei hörenden Erwachsenen: Überlegungen zur Lebensdauer

Während das Ablesen von stummer Sprache für die meisten Hörenden eine Herausforderung darstellt, verbessert das Hinzufügen der Sicht des Sprechers zu der gehörten Sprache die Sprachverarbeitung unter vielen Bedingungen. Die Mechanismen dafür und die genaue Art und Weise, wie das Lippenlesen hilft, sind Thema aktueller Forschung. Den Sprecher zu sehen hilft auf allen Ebenen der Sprachverarbeitung, von der phonetischen Merkmalsunterscheidung bis zur Interpretation pragmatischer Äußerungen. Die positiven Auswirkungen des Hinzufügens von Sehkraft zu gehörter Sprache sind in lauten Umgebungen größer als in ruhigen Umgebungen, wo durch die Erleichterung der Sprachwahrnehmung das Sehen des Sprechers kognitive Ressourcen freisetzen kann, was eine tiefere Verarbeitung von Sprachinhalten ermöglicht.

Da das Hören im Alter weniger zuverlässig wird, neigen Menschen dazu, sich mehr auf das Lippenlesen zu verlassen und werden dazu ermutigt. Ein stärkeres Vertrauen auf das Lippenlesen kann jedoch die Auswirkungen des altersbedingten Hörverlusts nicht immer ausgleichen. Einem kognitiven Rückgang im Alter kann ein messbarer Hörverlust vorausgehen und/oder damit verbunden sein. Daher kann das Lippenlesen möglicherweise nicht immer die kombinierten Hör- und kognitiven altersbedingten Abnahmen vollständig kompensieren.

In bestimmten (hörenden) Bevölkerungsgruppen

Eine Reihe von Studien berichtet über Anomalien des Lippenlesens bei Bevölkerungsgruppen mit ausgeprägten Entwicklungsstörungen. Autismus : Menschen mit Autismus können ein reduziertes Lippenlesen und eine reduzierte Abhängigkeit vom Sehvermögen bei der audiovisuellen Sprachwahrnehmung aufweisen. Dies kann bei diesen Menschen mit Anomalien des Blicks ins Gesicht verbunden sein. Williams-Syndrom : Menschen mit Williams-Syndrom zeigen einige Defizite beim Sprachlesen, die unabhängig von ihren visuell-räumlichen Schwierigkeiten sein können. Spezifische Sprachbehinderung : Bei Kindern mit SLI wird ebenso wie bei Personen mit Legasthenie berichtet, dass sie eine verringerte Empfindlichkeit beim Lippenlesen aufweisen .

Taubheit

Über die Rolle des Lippenlesens („ Oralismus “) im Vergleich zu anderen Kommunikationsmethoden (zuletzt die totale Kommunikation ) in der Erziehung gehörloser Menschen wird seit Hunderten von Jahren debattiert . Inwieweit der eine oder andere Ansatz von Vorteil ist, hängt von einer Reihe von Faktoren ab, darunter der Grad des Hörverlusts der gehörlosen Person, das Alter des Hörverlusts, die Beteiligung der Eltern und die Sprache(n) der Eltern. Dann stellt sich die Frage nach den Zielen der gehörlosen Person und ihrer Gemeinschaft und ihrer Betreuer. Ist es das Ziel der Bildung, die Kommunikation im Allgemeinen zu verbessern, die Gebärdensprache als Erstsprache zu entwickeln oder Fähigkeiten in der gesprochenen Sprache der Hörgemeinschaft zu entwickeln? Die Forscher konzentrieren sich nun darauf, welche Aspekte von Sprache und Kommunikation mit welchen Mitteln und in welchen Kontexten angesichts des Hörstatus des Kindes und seiner Familie und ihrer Bildungspläne am besten vermittelt werden können. Bimodale Zweisprachigkeit (Kompetenz sowohl in der Sprache als auch in der Gebärdensprache) ist ein vorherrschender gegenwärtiger Ansatz in der Spracherziehung für gehörlose Kinder.

Gehörlose Menschen sind oft bessere Lippenleser als Menschen mit normalem Hörvermögen. Einige Gehörlose praktizieren als professionelle Lippenleser, zum Beispiel im forensischen Lippenlesen . Bei gehörlosen Menschen mit einem Cochlea -Implantat kann das Lippenlesen vor der Implantation die Sprachverarbeitung nach der Implantation (auditiv oder audiovisuell) vorhersagen. Vielen Gehörlosen kann der Zugang zur gesprochenen Kommunikation erleichtert werden, wenn eine gesprochene Nachricht über einen ausgebildeten, professionellen Lippensprecher übermittelt wird .

Im Zusammenhang mit dem Lippenlesen und der Lese- und Schreibfähigkeit weisen gehörlos geborene Kinder typischerweise eine verzögerte Entwicklung der Lese- und Schreibfähigkeiten auf, die Schwierigkeiten beim Erwerb von Elementen der gesprochenen Sprache widerspiegeln kann. Insbesondere für gehörlose Kinder kann eine zuverlässige Phonem-Graphem-Zuordnung schwieriger sein, da sie erfahrene Sprachleser sein müssen, um diesen notwendigen Schritt des Alphabetisierungserwerbs zu meistern. Die Fähigkeit zum Lippenlesen wird bei gehörlosen Erwachsenen und Kindern mit Lese- und Schreibfähigkeiten in Verbindung gebracht, und das Training im Lippenlesen kann zur Entwicklung von Lese- und Schreibfähigkeiten beitragen.

Cued Speech verwendet Lippenlesen mit begleitenden Handformen, die die visemische (konsonante) Lippenform eindeutig machen. Es wird gesagt, dass hörende Eltern leichter zu lernen sind als eine Gebärdensprache, und Studien, vor allem aus Belgien, zeigen, dass ein gehörloses Kind, das im Säuglingsalter mit Stichworten konfrontiert wird, beim Erlernen einer gesprochenen Sprache effizientere Fortschritte machen kann als durch das bloße Lippenlesen. Der Einsatz von Cued Speech bei der Cochlea-Implantation bei Taubheit ist wahrscheinlich positiv. Ein ähnlicher Ansatz, bei dem Handformen verwendet werden, die gesehene Sprache begleiten, ist Visual Phonics , das von einigen Pädagogen verwendet wird, um das Erlernen von geschriebener und gesprochener Sprache zu unterstützen.

Lehre und Ausbildung

Ziel des Lehrens und Trainierens im Lippenlesen ist es, ein Bewusstsein für die Natur des Lippenlesens zu entwickeln und Möglichkeiten zur Verbesserung der Sprachwahrnehmung „mit den Augen“ zu üben. Lippenlesen-Kurse, oft auch Lippenlesen und Hörverlust-Behandlung genannt , richten sich hauptsächlich an Erwachsene mit Hörverlust. Der höchste Anteil der Erwachsenen mit Hörverlust hat einen altersbedingten oder lärmbedingten Verlust ; Bei beiden Formen von Hörverlust gehen zuerst die hochfrequenten Töne verloren. Da viele der Konsonanten in der Sprache hochfrequente Töne sind, wird die Sprache verzerrt. Hörgeräte helfen, können dies jedoch nicht heilen. In britischen Studien, die von der Wohltätigkeitsorganisation Action on Hearing Loss (2012) in Auftrag gegeben wurden, haben sich Lippenlesekurse als nützlich erwiesen .

Trainer erkennen, dass das Lippenlesen eine ungenaue Kunst ist. Die Schüler lernen, die Lippen-, Zungen- und Kieferbewegungen zu beobachten, dem Stress und dem Rhythmus der Sprache zu folgen, ihr Restgehör mit oder ohne Hörgerät zu nutzen, den Ausdruck und die Körpersprache zu beobachten und ihre Fähigkeit zu folgern und zu folgern . Ihnen wird das Alphabet der Lippenleser beigebracht, Gruppen von Lauten, die auf den Lippen gleich aussehen (Viseme) wie p, b, m oder f, v. Das Ziel ist es, das Wesentliche zu verstehen, um das Selbstvertrauen zu haben, sich in ein Gespräch einzubringen und vermeiden Sie die schädliche soziale Isolation, die oft mit Hörverlust einhergeht. Lippenlesen-Kurse werden für alle empfohlen, die Schwierigkeiten haben, im Lärm zu hören, und helfen, sich an einen Hörverlust anzupassen. ATLA (Association for Teaching Lipreading to Adults) ist der britische Berufsverband für qualifizierte Lippenleselehrer.

Tests

Die meisten Tests zum Lippenlesen wurden entwickelt, um individuelle Unterschiede bei der Ausführung bestimmter Sprachverarbeitungsaufgaben zu messen und Leistungsänderungen nach dem Training zu erkennen. Lippenlesetests wurden bei relativ kleinen Gruppen in experimentellen Umgebungen oder als klinische Indikatoren bei einzelnen Patienten und Klienten verwendet. Das heißt, Lippenlesetests haben bisher eine begrenzte Aussagekraft als Marker für die Fähigkeit des Lippenlesens in der allgemeinen Bevölkerung.

Lippenlesen und Lippensprechen maschinell

Automatisiertes Lippenlesen ist ein Thema von Interesse sowohl in der Computertechnik als auch in Science-Fiction-Filmen . Der Computeringenieur Steve Omohundro war unter anderem Pionier bei der Entwicklung. Bei der Gesichtsanimation geht es darum, realistische Gesichtsbewegungen, insbesondere Mundbewegungen, zu erzeugen, die menschliche Sprachhandlungen simulieren. Computeralgorithmen, um Bilder von Gesichtern zu verformen oder zu manipulieren, können durch gehörte oder geschriebene Sprache gesteuert werden. Systeme können auf detaillierten Modellen basieren, die aus Gesichtsbewegungen abgeleitet werden ( Motion Capture ); zur anatomischen Modellierung von Kiefer-, Mund- und Zungenbewegungen; oder auf der Abbildung bekannter Visemphonem-Eigenschaften. Gesichtsanimationen wurden im Sprachlesetraining verwendet (um zu demonstrieren, wie verschiedene Geräusche "aussehen"). Diese Systeme sind eine Teilmenge der Sprachsynthesemodellierung, die darauf abzielt, zuverlässige "Text-in-(Gesehen)-Sprache"-Ausgaben zu liefern. Ein komplementäres Ziel – die Umkehrung der Bewegung von Gesichtern in der Sprache – ist die Entwicklung von Computeralgorithmen, die realistische Sprachinterpretationen (dh ein schriftliches Transkript oder eine Audioaufzeichnung) aus natürlichen Videodaten eines Gesichts in Aktion liefern können: dies ist die Gesichtsspracherkennung. Auch diese Modelle können aus einer Vielzahl von Daten stammen. Die automatische visuelle Spracherkennung aus Video war recht erfolgreich bei der Unterscheidung verschiedener Sprachen (von einem Korpus von gesprochenen Sprachdaten). Demonstrationsmodelle, die Algorithmen des maschinellen Lernens verwenden, hatten einen gewissen Erfolg beim Lippenlesen von Sprachelementen, wie etwa bestimmten Wörtern, aus Videos und zum Identifizieren von schwer lippenlesbaren Phonemen aus visemisch ähnlichen gesehenen Mundbewegungen. Maschinenbasiertes Sprachlesen verwendet nun erfolgreich neuronale Netz-basierte Algorithmen, die große Datenbanken von Sprechern und Sprachmaterial verwenden (nach dem erfolgreichen Modell der auditiven automatischen Spracherkennung ).

Anwendungen für das maschinelle Lippenlesen könnten das automatisierte Lippenlesen von reinen Videoaufzeichnungen, das automatisierte Lippenlesen von Sprechern mit beschädigten Stimmbändern und die Sprachverarbeitung in Face-to-Face-Video (dh aus Bildtelefondaten) umfassen. Automatisiertes Lippenlesen kann bei der Verarbeitung von lauter oder unbekannter Sprache helfen. Automatisiertes Lippenlesen kann zur biometrischen Personenidentifikation beitragen und die passwortbasierte Identifikation ersetzen.

Das Gehirn

Nach der Entdeckung, dass auditive Gehirnregionen , einschließlich des Heschl-Gyrus , durch gesehene Sprache aktiviert werden, wurde gezeigt, dass die neuronalen Schaltkreise für das Sprachlesen supramodale Verarbeitungsregionen umfassen, insbesondere Sulcus temporalis superior (alle Teile) sowie posterior inferiore occipital-temporale Regionen einschließlich Regionen, die auf die Verarbeitung von Gesichtern und biologischen Bewegungen spezialisiert sind . In einigen, aber nicht allen Studien wird eine Aktivierung des Broca-Areals beim Sprachlesen berichtet, was darauf hindeutet, dass artikulatorische Mechanismen beim Sprachlesen aktiviert werden können. Studien zum zeitlichen Verlauf der audiovisuellen Sprachverarbeitung zeigten, dass das Sehen von Sprache auditive Verarbeitungsregionen vor dem akustischen Signal vorbereiten kann. Besseres Lippenlesen ist bei hörenden Menschen mit einer stärkeren Aktivierung im Sulcus temporalis superior (links) und in den angrenzenden temporalen (visuellen) Regionen inferior verbunden. Bei gehörlosen Menschen scheint die dem Sprachlesen gewidmete Schaltung dem bei hörenden Menschen sehr ähnlich zu sein, mit ähnlichen Assoziationen von (links) überlegener zeitlicher Aktivierung und Lippenlesefähigkeit.

Verweise

Literaturverzeichnis

  • D. Stork und M. Henneke (Hrsg.) (1996) Speechreading by Human and Machines: Models Systems and Applications. Nato ASI Reihe F Informatik und Systemwissenschaften Vol. 150. Springer, Berlin Deutschland
  • E.Bailly, P.Perrier und E.Vatikiotis-Bateson (Hrsg.)(2012) Audiovisual Speech Processing, Cambridge University Press, Cambridge UK
  • Hören mit dem Auge (1987) , B. Dodd und R. Campbell (Hrsg.), Erlbaum Asstes, Hillsdale NJ, USA; Hearing by Eye II , (1997) R. Campbell, B. Dodd und D. Burnham (Hrsg.), Psychology Press, Hove UK
  • DW Massaro (1987, Nachdruck 2014) Sprachwahrnehmung nach Gehör und Auge , Lawrence Erlbaum Associates, Hillsdale NJ

Weiterlesen

Externe Links