Silvia Wirth

KI & Emotionen: Wenn Maschinen Menschen verstehen

Seit ChatGPT für die breite Öffentlichkeit zugänglich ist, ist das Thema Künstliche Intelligenz (KI) omnipräsent. KI automatisiert nicht mehr nur Prozesse, durch die neuen Sprachmodelle werden unsere Interaktionen mit Maschinen denen mit Menschen immer ähnlicher. KI-Expertin Kenza Ait Si Abbou erklärt, wie diese neue emotionale Künstliche Intelligenz unser Leben verändert.

Du beschäftigst dich mit der Interaktion von Mensch und Maschine und sprichst in diesem Zusammenhang von emotionaler Künstlicher Intelligenz (KI). Was verbirgt sich dahinter?

Es geht darum, dass Maschinen die Fähigkeit haben, menschliche Emotionen zu erkennen und darauf zu reagieren. Das geht auf verschiedenen Wegen, zum Beispiel mit hochauflösenden Kameras oder Sensoren, die unsere Mimik und Gestik auslesen. Aber auch unser Tonfall oder unsere Wortwahl bei schriftlichen Texten transportiert unsere Gefühle und lässt sich durch KI analysieren.

Wo begegnet uns emotionale KI jetzt schon im Alltag?

In Chatbots wird emotionale KI bereits eingesetzt, ChatGPT setzt zum Beispiel darauf. Anhand der sogenannten „Sentiment Analysis“ (englisch für Stimmungserkennung) wird ausgewertet, ob eine in Texten geäußerte Haltung positiv, negativ oder neutral ist. Für Menschen ist es ein Kinderspiel, das zu erkennen, aber es ist harte Arbeit für Programmierer, eine Maschine darauf zu trainieren.

Nutzerinnen und Nutzer müssen verstehen, dass der Chatbot durch Lernen keinen eigenen Charakter entwickelt.

KI-Expertin Kenza Ait Si Abbou bei der Podcast-Aufzeichnung der Reihe "TechVisite" im Gespräch mit TK-Vorstand Dr. Jens Baas

Wie kann es konkret beim Thema Gesundheit helfen, wenn Maschinen unsere Emotionen lesen können?

Da gibt es spannende Ansätze, das Potenzial ist riesig. Emotionale KI kann psychische oder neurologische Erkrankungen im Frühstadium diagnostizieren. Parkinson äußert sich beispielsweise in einer abnehmenden Mimik, die zu maskenhaften Gesichtszügen führt. Diese Symptome kann KI frühzeitig in Gesichtern erkennen und das mit einer sehr hohen Trefferquote. Für autistische Kinder gibt es spezielle Brillen, die ihnen helfen, die Emotionen ihres Gegenübers am Gesichtsausdruck zu deuten. Die Brille blendet den Kindern im Sichtfeld ein, ob die Person, mit der sie gerade sprechen, sich freut, traurig oder wütend ist. Das hilft den Kindern sich in sozialen Situationen sicherer zu fühlen.

Je besser KI darin wird, menschliches Verhalten nachzuahmen, desto mehr neigen wir dazu, Chatbots wie ChatGPT menschliche Eigenschaften und Emotionen zu unterstellen. Müssen wir lernen, KI wie Excel oder Word zu betrachten, sie als rein technische Hilfsmittel zu sehen?

Menschen neigen dazu, Technik – ob nun den Staubsaugerroboter, Chatbots oder auch Autos – als Lebewesen zu betrachten und ihr Charaktereigenschaften zuzuschreiben. Während Corona ist etwa die Nutzung von Konversations-Chatbots enorm gestiegen. Menschen haben das Bedürfnis zu kommunizieren und tun dies auch mit KI. Es ist aber wichtig, dass uns bewusst ist, dass wir nicht mit einem echten Menschen sprechen. Nutzerinnen und Nutzer müssen verstehen, dass der Chatbot durch Lernen keinen eigenen Charakter entwickelt und freundlich oder unhöflich antwortet. Die Antworten spiegeln lediglich wider, mit welchen Inhalten die KI gefüttert wurde.

Du spielst an auf die Fälle, in denen Chatbots in der Vergangenheit aus dem Ruder gelaufen sind. So musste zum Beispiel Microsofts Chatbot Tay nach kurzer Zeit abgeschaltet werden, weil er rassistische und sexistische Äußerungen postete. Er hat von den X (ehemals Twitter)-Usern gelernt und deren Sprache übernommen.

Ein gutes Beispiel für das KI-Dilemma. Denn die KI lernt von uns und wiederholt unser Verhalten, sowohl das positive als auch das negative. Deshalb muss man den Input, auf dessen Basis ein Chatbot lernt, prüfen und kuratieren. Man muss ständig nachsteuern und unpassende Inhalte selektieren, damit ein Chatbot höflich bleibt. In Gesprächssituationen, die eskalieren, ist es dann ein Nachteil, wenn Chatbots selbstständig lernen und keinerlei Kontrollmechanismen greifen.

Kann man KI Moral oder Werte beibringen?

Nur eingeschränkt. Man kann KI auf der Basis von Texten trainieren, die den gesellschaftlichen Werten und Normen eines Landes entsprechen, und bestimmte moralische Rahmen definieren. Aber je nach Kultur unterscheiden diese sich natürlich. Es gibt kein universales Verständnis über ethisches Verhalten. Deshalb ist es schwierig für digitale Tools, die weltweit genutzt werden, einen weltweiten ethischen Standard zu definieren. Moralische Werte sind schwer in Zahlen zu übersetzen, damit eine KI damit arbeiten kann. Deshalb setzen große Digitalkonzerne immer mehr auf diverse Teams, die Expertise in Ethik haben. Außerdem wird bei der Filterung der Inhalte aus den sozialen Netzwerken oft nicht nur auf KI, sondern auf sogenannte, in der Regel schlecht bezahlte, „Clickworker“ gesetzt, die in Drittweltländern leben und beispielsweise pornografische Inhalte oder Gewaltdarstellungen selektieren.

Zur Person

Die 1981 geborene und in Berlin lebende, mehrfach ausgezeichnete Ingenieurin Kenza Ait Si Abbou ist Expertin für Künstliche Intelligenz und Robotik.  In ihrem neuen Buch „Menschenversteher – Wie Künstliche Intelligenz unseren Alltag erobert“ schreibt sie über die wachsende Bedeutung und den Einfluss von Künstlicher Intelligenz bei der Erkennung und Nutzung menschlicher Emotionen. Gemeinsam mit TK-Vorstand Dr. Jens Baas spricht sie im Podcast „TechVisite – Zukunft Digitale Gesundheit“ über den Einfluss von KI auf Robotik und Big Data im Gesundheitssystem.



Lesen Sie hier weiter

Johanna Küther Johanna Küther
Jessica Kneißler Jessica Kneißler
Schwangere bestätigt per App Portraitbild Nicole Nicole Knabe

Kommentieren Sie diesen Artikel

Lädt. Bitte warten...

Der Kommentar konnte nicht gespeichert werden. Bitte überprüfen Sie Ihre Eingaben.