DeuAq.com >> Leben >  >> Elektronik

Kann KI wirklich emotional intelligent sein?

Von Vaughn Highfield

Ist emotionale KI wirklich die nächste Grenze für künstliche Intelligenz?

Kann KI wirklich emotional intelligent sein?

In Träumen Androiden von elektrischen Schafen , stellt der Autor Philip K Dick die Vorstellung in Frage, dass ein künstliches Gehirn jemals in der Lage sein könnte, Emotionen zu verstehen. Kann eine Maschine wirklich jemals eine emotionale Verbindung zu einem Menschen haben, wenn sie sich nicht selbst einfühlen oder Emotionen ausdrücken kann?

Siehe verwandtes DeepMind von Google wendet seine virtuelle Hand an, um vorherzusagen, wann jemand sterben könnte. Dieser Neurochip verhält sich genau wie menschliche Gehirnzellen und könnte uns helfen, künstliche Köpfe zu schaffen. ertränkt sich selbst – erinnert sich an Knightscope K5

Was 1968 durchaus Science-Fiction gewesen sein mag, ist heute ein Thema, das von vielen in der Branche der künstlichen Intelligenz diskutiert wird. Während die KI-Fortschritte voranschreiten, glauben viele, dass emotionale Intelligenz der nächste Schritt für die Branche ist. Es ist das Sprungbrett, das einen virtuellen Assistenten von einem einfachen Call-and-Response-Helfer zu etwas Größerem macht – einem Begleiter, einem Assistenten, etwas mehr als nur einem Roboter.

„Die Vorstellung, dass Maschinen tatsächlich Emotionen haben, scheint im Bereich der Science-Fiction zu liegen.“

Aber gibt es wirklich so etwas wie emotionale KI, und könnte sie wirklich dazu verwendet werden, künstlichen Köpfen Emotionen zu verleihen? Dies war das Diskussionsthema bei der Tech Week-Podiumsdiskussion der Photobox Group, die von Alphr veranstaltet wurde 's eigene Redaktionsleiterin Victoria Woollaston.

„Die Vorstellung, dass Maschinen tatsächlich Emotionen haben, scheint im Bereich der Science-Fiction zu liegen“, argumentierte Voices-Technologieberater Hugh Williams. „Wenn Sie an die Eingaben denken, die zu menschlichen Emotionen führen, ist das ziemlich komplex … Diese Emotionen werden durch die Verarbeitung von Hunderten Millionen Sensoren in Ihrem Körper erzeugt. Es ist ein Produkt des Menschseins.

„Es scheint unwahrscheinlich, dass wir annähernd dieselben Ergebnisse in einer Maschine reproduzieren könnten – wenn es überhaupt Sinn macht, sie in einer Maschine zu reproduzieren.“

Wenn also die emotionale KI der KI nicht die Möglichkeit gibt, Emotionen zu nutzen, was ist es dann?

Kann KI wirklich emotional intelligent sein?

Emotionale KI verstehen

Eine Vorstellung von emotionaler KI ist der einfache Akt, den Anschein zu erwecken, als ob Roboter und KI tatsächlich menschliche Emotionen haben, obwohl dies nicht der Fall ist. Es ist ein Trick; vorgefertigte Antworten auf festgelegte Situationen, die uns Menschen das Gefühl geben, dass das Ding, mit dem wir interagieren, lebt oder in der Lage ist, uns zu verstehen.

Wie der technische Leiter von Google Assistant, Behshad Behzadi, erklärt, können Sie diesen Ansatz bereits in Google Assistant sehen. „Wenn Google Assistant etwas Falsches beantwortet, drücken sich die Leute aus, indem sie es dumm nennen, und es entschuldigt sich. Ebenso erhalten wir viele „Dankeschöns“, wenn es tut, was von ihm erwartet wird, und es entsprechend reagiert.“

Indem Google Assistant ein gewisses Maß an Persönlichkeit verleiht, z. B. die Fähigkeit, sich für einen Fehler zu entschuldigen oder sich bei Lob zu bedanken, vermittelt er den Menschen das Gefühl, dass er wirklich zuhört. Es muss zeigen, dass es sich nicht einfach um ein Robotergerät handelt, sondern etwas, das die Menschen immer wieder gerne verwenden, auch wenn diese höfliche Reaktion nicht viel weiter fortgeschritten ist als das Drücken einer Türklingel und das Hören eines Gongs.

„Anstatt dass Menschen versuchen zu verstehen, wie man mit Maschinen arbeitet, müssen wir Maschinen dazu bringen, Menschen zu verstehen.“

„Anstatt dass Menschen versuchen zu verstehen, wie man mit Maschinen arbeitet, müssen wir Maschinen dazu bringen, Menschen zu verstehen“, fährt Behzadi fort. „Hier kann die emotionale KI diese Lücke schließen. Wenn eine Maschine den emotionalen Zustand eines Benutzers verstehen kann, führt dies zu natürlicheren Reaktionen und nützlichen Interaktionen.“

Emotionale KI hat jedoch einen anderen Nutzen. Anstatt Maschinen Emotionen zu geben, mit denen sie spielen können, um Benutzer davon zu überzeugen, dass sie den menschlichen Zustand verstehen, könnte emotionales Verständnis einer KI mehr Kontext für die Handlungen eines Benutzers bieten. Wenn es weiß, dass Sie wütend sind, kann es anhand der Situation, in der Sie sich befinden, herausfinden, warum. Ebenso muss das Problem möglicherweise auf andere Weise angegangen werden, wenn dieselbe schlechte Situation eintritt, aber ein Benutzer fröhlich wirkt. P>

„Wir können noch viel mehr tun, um die unterschiedlichen emotionalen Zustände [unserer Kunden] zu erkennen und diese Regeln in unsere Produkte zu integrieren“, gab Clare Gilmartin, CEO von The Trainline, zu. „Emotionale Zustände können einen Einfluss darauf haben, wie Sie reagieren, wenn Ihr Zug Verspätung hat. Entweder kommst du spät nach Hause oder bist mit deiner schönen Zugfahrt vom Comer See nach Mailand etwas im Rückstand.“

Es besteht die Notwendigkeit, dass die von den Menschen genutzten Dienste in der Lage sind, aufzuzeichnen und darauf zu reagieren, was Sie denken und fühlen. Der Einsatz emotionaler KI in einem Dienst bedeutet, dass Sie die gewünschten Antworten und Ergebnisse zu diesem Zeitpunkt erhalten, anstatt sich selbst durch das Rauschen filtern zu müssen.

Kann KI wirklich emotional intelligent sein?

Emotional störend?

Wenn Ihnen das Konzept einer emotional bewussten KI ein paar Schauer über den Rücken laufen lässt, liegt das einfach daran, dass wir in einer Welt leben, in der virtuelle Assistenten noch nicht wirklich die Norm sind. Wie bei allem wird sich dies jedoch im Laufe der Zeit ändern.

„Wenn eine Generation mit diesen [virtuellen Assistenten] Geräten als Teil ihres täglichen Lebens aufwächst, wird die Interaktion mit ihnen viel natürlicher“, argumentiert Behzadi. Innerhalb der nächsten zehn Jahre stellt er sich eine Situation vor, in der „man immer einen Assistenten hat, mit dem man reden kann. Etwas, dem Sie vertrauen können, aber auch etwas, das Ihnen helfen kann.

„Heute vertrauen sich die Menschen ihren Geräten nur gelegentlich an, aber in Zukunft wird das viel häufiger der Fall sein.“ Das Amazon Echo for Kids beispielsweise rät Kindern, mit Erwachsenen über Probleme zu sprechen, die außerhalb ihres Zuständigkeitsbereichs liegen, wie z. B. Mobbing.

Aus Sicht von Behzadi bedeutet der Aufstieg der emotionalen KI, dass diese natürlichen Diskussionen stattfinden können. Die Welt von Spike Jonzes „Her“ ist zwar leicht beängstigend, aber plausibel – ein Ort, an dem eine emotionale Verbindung zwischen einem Menschen und einer Maschine hergestellt werden kann.

Wir sehen KI als einen beunruhigenden Bereich, teilweise weil sie in Zukunft für so viele moralische Entscheidungen verantwortlich sein wird. Williams glaubt jedoch, dass wir sehen werden, dass ein größerer Pool kreativer Einflüsse ins Spiel kommt, wenn die jüngere Generation ein besseres Verständnis dafür hat, wie KI funktioniert und welche Rolle sie in unserem täglichen Leben spielt.

Derzeit wird die kritische Entscheidungsfindung von KI von einer Reihe von Programmierern und ihrem moralischen Kompass bestimmt. Während sich dieser Bereich zu diversifizieren beginnt, ist es sicherlich ein von weißen Männern dominierter Raum, kaum allumfassende Sichtweisen darauf, wie eine KI unvoreingenommen durch die Welt navigieren kann. Williams glaubt, dass sich dies mit der Zeit ändern wird.

„Wir werden Menschen mit unterschiedlichem Hintergrund brauchen, die uns dabei helfen, KIs für die Menschheit als Ganzes zu entwickeln“

„In ein paar Jahren werden wir Leute als Soziologen und Psychologen aus der Universität kommen sehen, aber mit einem Verständnis dafür, was Technologie leisten kann“, erklärt er. „Es wird ihnen ermöglichen, tiefere Einblicke zu gewinnen als diejenigen, die vor ihnen kamen.

„Wir werden diese Leute in Zukunft neben Informatikern finden und uns dabei helfen, die Probleme rund um emotional bewusste KI anzugehen. Wir werden andere Menschen mit unterschiedlichen Hintergründen und Fähigkeiten innerhalb von Organisationen brauchen, um uns dabei zu helfen, KIs für die Menschheit als Ganzes zu entwickeln.“

Kann KI wirklich emotional intelligent sein?

Emotional gefährlich

Die Bandbreite des Verständnisses einer KI aus kultureller und gesellschaftlicher Sicht zu diversifizieren, ist natürlich fantastisch. Aber es gibt eine andere Seite der emotionalen KI, die mich etwas beunruhigt – und die trotz der besten Absichten des Gremiums nicht zufriedenstellend beantwortet werden kann:Was passiert, wenn Sie eine KI mit der Fähigkeit ausstatten, Emotionen zu verstehen, aber vor allem nicht fühlen? ? Das Erstellen einer soziopathischen KI könnte eine Katastrophe sein, die auf uns wartet.

„Wir müssen uns wirklich mit den Auswirkungen dessen befassen, was wir mit Technologie tun“, sagt Richard Orme, CTO der Photobox Group. „Die eigentliche Frage, die wir uns stellen müssen, ist nicht, ob wir etwas tun können oder nicht, sondern ob wir überhaupt etwas tun sollten.“

„Wir müssen uns wirklich mit den Auswirkungen dessen befassen, was wir mit Technologie tun“

Zugegeben, die Einstellung der Photobox Group zu emotional intelligenter KI ist nicht ganz Skynet-Levels von gruselig, es geht einfach darum, Kunden dabei zu helfen, schnell unvergessliche, maßgeschneiderte Fotoalben zu erstellen. Das Gremium ist jedoch der Ansicht, dass es entscheidend ist, die Auswirkungen auf die Kunden zu verstehen, zusammen mit den umfassenderen Auswirkungen der Anwendungen emotionaler KI, ganz gleich, woran Sie arbeiten.

„Es beginnt damit, die Auswirkungen [der emotionalen KI auf Menschen] zu verstehen und wie man diese Auswirkungen misst“, fährt Orme fort. „Die Realität ist, dass wir vielleicht keine wirklich emotional intelligenten Maschinen erzeugen, aber sie können so gestaltet werden, dass sie auf eine bestimmte Weise reagieren und eine bestimmte Art von Wirkung auf die Menschen haben, mit denen sie interagieren.“

Ormes Ansichten zum verantwortungsvollen Einsatz emotionaler KI werden von den anderen Diskussionsteilnehmern geteilt. Gilmartin glaubt beispielsweise, dass Technologieunternehmen, die Zugang zu dieser Technologie haben, wie The Trainline, Google oder Photobox Group, alle eine ethische und moralische Pflicht haben, zu verstehen, was sie mit KI bauen.

Ob Google KI einsetzt, um die Informationen der Welt zu organisieren, oder The Trainline die Technologie nutzt, um Pendler glücklich zu machen, jede Anwendung und jedes Unternehmen, das nach emotionalen KI-Systemen sucht, muss genau verstehen, was es wirklich erreichen möchte.

„Letztendlich“, erklärte Gilmartin, „muss hinter dem, was wir mit emotionaler KI tun, ein gewisser Zweck stehen.“