Künstliche Empathie - Artificial empathy

Künstliche Empathie ( AE ) oder rechnerische Empathie ist die Entwicklung von KI - Systeme - wie Begleiter Roboter oder virtuelle Agenten - die in der Lage sind zu erkennen und reagieren auf menschliche Emotionen in einer empathischen Art und Weise. Obwohl die Technologie von vielen Menschen als beängstigend oder bedrohlich empfunden wird, könnte die Technologie laut Wissenschaftlern auch in Berufen, die traditionell in emotionalen Rollenspielen wie dem Gesundheitswesen verwickelt sind, einen erheblichen Vorteil gegenüber Menschen haben. Aus der Sicht des Pflegepersonals beispielsweise führt emotionale Arbeit, die über die Anforderungen der Erwerbsarbeit hinausgeht, oft zu chronischem Stress oder Burnout und der Entwicklung eines Gefühls der Desensibilisierung gegenüber den Patienten. Es wird jedoch argumentiert, dass das emotionale Rollenspiel zwischen dem Pfleger und einem Roboter tatsächlich zu einem positiveren Ergebnis führen kann, indem es Bedingungen für weniger Angst und Sorge um die eigene missliche Lage schafft, die am besten durch den Satz veranschaulicht wird: "wenn es Ist nur ein Roboter, der sich um mich kümmert, kann es nicht so kritisch sein." Wissenschaftler diskutieren das mögliche Ergebnis einer solchen Technologie aus zwei unterschiedlichen Perspektiven. Entweder könnte die AE bei der Sozialisierung von Pflegekräften helfen oder als Vorbild für emotionale Distanz dienen.

Eine weiter gefasste Definition von künstlicher Empathie ist „die Fähigkeit von nichtmenschlichen Modellen, den inneren Zustand einer Person (z Reaktion einer Person (einschließlich, aber nicht beschränkt auf innere Zustände), wenn sie einem bestimmten Satz von Reizen ausgesetzt ist (z. B. Gesichtsausdruck, Stimme, Gestik, Grafik, Musik usw.)".

Forschungsbereiche

Es gibt eine Vielzahl von philosophischen, theoretischen und anwendungsbezogenen Fragen im Zusammenhang mit AE. Zum Beispiel:

  1. Welche Bedingungen müssten erfüllt sein, damit ein Roboter kompetent auf eine menschliche Emotion reagieren kann?
  2. Welche Empathiemodelle können oder sollen auf die Soziale und Assistive Robotik angewendet werden?
  3. Muss die Interaktion des Menschen mit Robotern die affektive Interaktion zwischen Menschen imitieren?
  4. Kann ein Roboter der Wissenschaft helfen, etwas über die affektive Entwicklung des Menschen zu lernen?
  5. Würden Roboter unvorhergesehene Kategorien unauthentischer Beziehungen schaffen?
  6. Welche Beziehungen zu Robotern können als wirklich authentisch bezeichnet werden?

Beispiele aus AE-Forschung und -Praxis

Menschen kommunizieren und treffen Entscheidungen oft auf der Grundlage der Rückschlüsse auf die inneren Zustände anderer (z. B. emotionale, kognitive und körperliche Zustände) aus den verschiedenen Signalen, die von der Person ausgesendet werden, wie z. B. Gesichtsausdruck, Körpergeste, Stimme und Worte. Im Großen und Ganzen konzentriert sich die Domäne der AE auf die Entwicklung nicht-menschlicher Modelle, um ähnliche Ziele unter Verwendung der von Menschen emittierten oder gezeigten Daten zu erreichen.

Ströme der AE-Forschung

Das Konzept der AE wurde in verschiedenen Forschungsdisziplinen angewendet, darunter künstliche Intelligenz und Wirtschaft. Insbesondere gab es zwei Hauptforschungsrichtungen in diesem Bereich: erstens die Verwendung nichtmenschlicher Modelle zur Vorhersage des inneren Zustands einer Person (z , Geste); zweitens die Verwendung nichtmenschlicher Modelle zur Vorhersage der Reaktion einer Person, wenn sie einem bestimmten Satz von Reizen ausgesetzt ist (z. B. Gesichtsausdruck, Stimme, Gestik, Grafik, Musik usw.).

Die Forschung zu affektivem Computing , wie emotionale Spracherkennung und Gesichtsausdruckserkennung , fällt in den ersten Strom der AE. Zu den untersuchten Kontexten gehören mündliche Interviews, die Interaktion zwischen Mensch und Computer im Callcenter, Verkaufsgespräche und Finanzberichte. Der zweite Strom von AE wurde mehr in Marketingkontexten untersucht, wie Werbung, Branding, Kundenbewertungen, In-Store-Empfehlungssysteme, Filme und Online-Dating.

AE-Anwendungen in der Praxis

Mit der zunehmenden Menge an Bild-, Audio- und Textdaten im Handel gibt es viele Geschäftsanwendungen, die AE verwenden. So analysiert Affectiva beispielsweise die Mimik von Zuschauern aus Videoaufnahmen, während diese Video-Werbung sehen, um die inhaltliche Gestaltung von Video-Werbung zu optimieren. HireVue, ein Recruiting-Intelligence-Unternehmen, unterstützt Unternehmen bei Einstellungsentscheidungen, indem es die Audio- und Videoinformationen aus den Videointerviews der Kandidaten analysiert. Lapetus Solutions entwickelt ein Modell, um die Langlebigkeit, den Gesundheitszustand und die Krankheitsanfälligkeit einer Person anhand eines Gesichtsfotos abzuschätzen. Ihre Technologie wurde in der Versicherungsbranche eingesetzt.

Künstliche Empathie und menschliche Dienste

Obwohl KI noch nicht gezeigt hat, dass sie Sozialarbeiter selbst ersetzt, hat die Technologie in diesem Bereich begonnen, Wellen zu schlagen. Social Work Today veröffentlichte 2017 einen Artikel, in dem die an der Florida State University durchgeführten Forschungsarbeiten beschrieben wurden. Die Forschung umfasste die Verwendung von Computeralgorithmen, um Gesundheitsdaten zu analysieren und Kombinationen von Risikofaktoren zu erkennen, die auf einen zukünftigen Selbstmordversuch hinweisen könnten. In dem Artikel heißt es: „Maschinelles Lernen – eine zukünftige Grenze für künstliche Intelligenz – kann mit einer Genauigkeit von 80 bis 90 % vorhersagen, ob jemand in zwei Jahren einen Selbstmordversuch unternehmen wird. Die Algorithmen werden sogar noch genauer als der Selbstmordversuch einer Person rückt näher. Beispielsweise steigt die Genauigkeit eine Woche vor einem Suizidversuch auf 92 %, wenn sich die künstliche Intelligenz auf Allgemeinkrankenhauspatienten konzentriert.“

Künstliche Intelligenz ist derzeit noch nicht in der Lage, Sozialarbeiter vollständig zu ersetzen, aber algorithmische Maschinen wie die oben beschriebenen können für Sozialarbeiter unglaubliche Vorteile haben. Soziale Arbeit basiert auf einem Zyklus von Engagement, Bewertung, Intervention und Bewertung mit den Klienten. Diese Technologie kann die Einschätzung des Suizidrisikos zu früheren Interventionen und Prävention führen und somit Leben retten. Die Forscher hoffen, dass die Technologie in unserem modernen Gesundheitssystem Einzug hält. Das System würde Risikofaktoren lernen, analysieren und erkennen und den Kliniker auf den Selbstmordrisiko-Score eines Patienten aufmerksam machen (der dem kardiovaskulären Risiko-Score eines Patienten entspricht). An diesem Punkt könnten Sozialarbeiter für weitere Bewertungen und präventive Interventionen einspringen.

Siehe auch

Verweise