Die „Künstliche Emotionale Intelligenz“ ist auf dem weg: Es kommen Roboter, die wissen, ob wir traurig oder glücklich sind

von | 4. Apr 2024

Viele von uns sprechen bereits mit ihren intelligenten Geräten, als ob sie Menschen wären. In Zukunft könnten intelligente Geräte in der Lage sein, auf ähnliche Weise zu antworten und die „ähms“ und „ahhs“, das Lachen und die Seufzer sowie andere Signale zu imitieren, die auf menschliche Emotionen hinweisen, wie z. B. Melodie, Rhythmus und Klangfarbe.

✅ So befreist du dich vom Staat: 👉 zum Video

Das in New York ansässige Start-up-Unternehmen Hume AI hat eine neue „emotional intelligente“ KI-Sprachschnittstelle vorgestellt, die in verschiedene Anwendungen eingebaut werden kann, die vom Kundenservice über das Gesundheitswesen bis hin zur virtuellen und erweiterten Realität reichen.

Die Betaversion des Produkts mit dem Namen Empathic Voice Interface (EVI) wurde veröffentlicht, nachdem eine Serie-B-Finanzierungsrunde in Höhe von 50 Millionen US-Dollar unter der Leitung von EQT Ventures abgeschlossen wurde. Union Square Ventures, Nat Friedman & Daniel Gross, Metaplanet, Northwell Holdings, Comcast Ventures und LG Technology Ventures beteiligten sich ebenfalls an der Finanzierung.

Die Konversations-KI ist die erste, die darauf trainiert wurde, zu verstehen, wann der Nutzer mit dem Sprechen fertig ist, seine Vorlieben vorherzusagen und stimmliche Antworten zu generieren, die im Laufe der Zeit für die Zufriedenheit des Nutzers optimiert wurden, so Hume AI in einer Mitteilung.

„Die größte Einschränkung aktueller KI-Systeme besteht darin, dass sie sich an oberflächlichen menschlichen Bewertungen und Anweisungen orientieren, die fehleranfällig sind und das enorme Potenzial der KI nicht ausschöpfen, neue Wege zu finden, um Menschen glücklich zu machen“, sagt der Gründer des Unternehmens und ehemalige Google-Wissenschaftler Alan Cowen. „Indem wir eine KI entwickeln, die direkt vom menschlichen Glücksempfinden lernt, bringen wir ihr bei, menschliche Vorlieben von Grund auf zu rekonstruieren und dieses Wissen mit jeder neuen Person, mit der sie spricht, und jeder neuen Anwendung, in die sie eingebettet ist, zu aktualisieren.

Das Sprachmodell wurde anhand von Daten aus Millionen von menschlichen Interaktionen trainiert und basiert auf einer multimodalen generativen KI, die große Sprachmodelle (LLMs) mit Ausdrucksmessungen integriert. Hume nennt dies ein empathisches großes Sprachmodell (eLLM), das seinem Produkt hilft, die Worte und den Tonfall auf der Grundlage des Kontexts und der emotionalen Ausdrücke des Benutzers anzupassen.

Hume AI ist nicht das einzige Unternehmen, das damit experimentiert, Emotionen in die Technologie einzubringen.

Der Robotiker Hod Lipson von der Columbia University hat einen KI-gesteuerten Roboter entwickelt, der mit Hilfe neuronaler Netze menschliche Gesichter betrachtet, ihre Mimik vorhersagt und versucht, sie mit seinem eigenen Gesicht nachzuahmen.

Wissenschaftler des Ulsan National Institute of Science and Technology in Südkorea haben ebenfalls eine Gesichtsmaske entwickelt, die mit Hilfe von Sensoren verbale und nonverbale Ausdrucksdaten aufzeichnet.

Das so genannte personalisierte hautintegrierte Gesichtsschnittstellensystem (PSiFI) ermöglicht eine drahtlose Datenübertragung und damit eine Emotionserkennung in Echtzeit.

Sein Entwickler Jiyun Kim glaubt, dass das Wearable in Anwendungen wie digitalen Concierges in der virtuellen Realität eingesetzt werden könnte, die auf der Grundlage der Emotionen der Nutzer maßgeschneiderte Dienste wie Empfehlungen für Musik, Filme und Bücher anbieten.

Quelle: Activist Post

Telegram zensiert nicht! Wenn du in Kontakt bleiben möchtest, kannst du Legitim auf Telegram kostenlos abonnieren: hier anmelden (Telegram herunterladen)

Legitim-Newsletter

 

Abonniere den Newsletter,


um die wichtigsten Updates per E-Mail zu erhalten!

Du hast dich erfolgreich angemeldet - danke!