Skip to main content
European Commission logo print header

Photoreal REaltime Sentient ENTity

Article Category

Article available in the following languages:

Virtuelle Begleiter mit dem Aussehen und Verhalten von Menschen

Ein EU-finanziertes Projekt hat KI-gesteuerte digitale Wesen vorgestellt, die das Beste an visueller Qualität und emotionaler Gesprächsführung vereinen: Sie zeigen wahre Empfindungen, Wahrnehmung und Gefühle.

Digitale Wirtschaft icon Digitale Wirtschaft

Die Menschen verlassen sich im Alltag zunehmend auf Software-Agenten, sei es bei der Informationssuche oder im Chat mit einem Bot. Diese zielorientierten Computerprogramme kommen in vielen Branchen vor, um Menschen zu helfen, sich um sie zu kümmern oder sie zu unterhalten. Sprachassistenten wie Google Assistant, Siri, Cortana oder Alexa, die Sprachbefehle der Nutzenden verarbeiten, liefern spezifische Ergebnisse aus Suchmaschinen. Persönliche Gesundheitsassistenten erleichtern es Patientinnen und Patienten, sich mit Pflegekräften auszutauschen und sich selbst um ihre Gesundheit zu kümmern. Intelligente Spielagenten sorgen für reaktionsfähige und herausfordernde Spiele.

Evolution von rationalen zu fühlenden Agenten

Die aktuellen intelligenten Systeme sind rein rational ohne eine emotionale Komponente. „Intelligente persönliche Assistenten haben bewusst keine anthropomorphen Darstellungen: Ihnen mangelt es an den meisten Eigenschaften, auf denen unsere Kommunikation beruht. Wir interagieren mit ihnen über Smartphones und intelligente Lautsprecher, wobei die Kommunikation sprachbasiert und episodisch ist“, merkt Josep Blat an, der Koordinator des EU-finanzierten Projekts PRESENT. Auch können die Assistenten keine visuellen Signale verarbeiten oder affektive Beziehungen aufbauen, die wachsen könnten. „Die erweiterte und virtuelle Realität setzen auch visuelle und räumliche Daten um, doch die Systeme schaffen körperliche Barrieren, welche die Interaktion durch Verhinderung von Sinneseindrücken und Kommunikation einschränken“, ergänzt Blat. Das PRESENT-Team hat auf Fortschritten in der Schaffung von photorealistischen computergenerierten Charakteren in Echtzeit aufgebaut. In Kombination mit Emotions- und Verhaltenserkennung haben sie einen fühlenden virtuellen Agenten geschaffen. Das Aussehen und Verhalten des Agenten sind täuschend echt, und er kann mit Nutzenden auch in reichhaltigen und komplexen Umgebungen interagieren. „Die visuelle und Animationsqualität des fühlenden Agenten ist sehr hoch. Er kann einen sinnvollen Dialog aufbauen und sich dabei an die menschliche Stimmung und den Gemütszustand anpassen, um sich entsprechend dem Nutzerverhalten weiterzuentwickeln“, betont Blat.

Avatare revolutionieren das digitale Erlebnis

Die Agenten von PRESENT bieten das Beste der künstlichen Intelligenz und menschlichen Gesprächsführung. Sie verwenden verbale und nicht-verbale Signale wie Stimmlage und Gesichtsausdrücke, um die natürliche menschliche Interaktion nachzuahmen. Die realistischen Gesichtszüge, das Erscheinungsbild und die ausgeklügelte Animation der digitalen Menschen von PRESENT werden bereits in Forschungseinrichtungen sowie einigen Unternehmen im Bereich visuelle Effekte und Gesichtsanimation ausgenutzt. Der Partner CREW hat die Ergebnisse bei verschiedenen öffentlichen Vorstellungen gezeigt, darunter bei der SIGGRAPH. Der Projektpartner Framestore hat die Methoden des maschinellen Lernens ausgebaut, um das Rigging (eine Technik in der Computeranimation, mit der 3D-Charaktere mit vollständiger Skelett- und Muskeldefinition geschaffen werden) zu beschleunigen. Die bessere Darstellung digitaler Charaktere wird Filmunternehmen große Vorteile bringen, denn so können sie digitale Charaktere erzeugen, die das Publikum glauben lassen, sie wären von Menschen dargestellt. Cubic Motion arbeitet an der Verbesserung der Gesichts- und Körperanimation der Charaktere, um sie näher an die Leistung eines menschlichen Darstellenden zu bringen. Mit den fortschrittlichen Verfahren, die auf der Stereo-Rekonstruktion beruhen, können Gefühlszustände auf Gesichter projiziert werden. Brainstorm zeigte die Integration fühlender Agenten in Virtual-Studio-Lösungen für den Rundfunk. An der Universität Augsburg wurde die Interaktion der fühlenden Agenten basierend auf der Integration verschiedener sensorischer/emotionaler Signale untersucht. Inria analysierte, wie die virtuellen Charaktere in Situationen mit Interaktionen zwischen zwei oder mehr Personen mit einem Nutzenden und virtuellen Charakteren reaktions- und ausdrucksstärker gemacht werden könnten. Mittels Interaktionsfeldern versuchten die Forschenden, das kollektive Verhalten aufzuzeichnen, also die Art, wie sich ein Agent bei der Gruppenbildung, Flucht, beim Verstecken usw. in Relation zu anderen bewegt. Virtuelle Agenten für das Finanzwesen oder Gesundheitsagenten mit höheren Sicherheitsstandards und mehr Vertrauenswürdigkeit werden von den Partnern InfoCert und der Universität Pompeu Fabra erzeugt.

Schlüsselbegriffe

PRESENT, Animation, menschliche Konversation, fühlender Agent, virtueller Charakter, intelligenter persönlicher Assistent, Emotion, Gefühl, Verhaltenserkennung, Rigging

Entdecken Sie Artikel in demselben Anwendungsbereich