Neue Technologie aus Osaka: Realistische Androidgesichter schließen die Kluft zum Unheimlichen

BerlinDie Universität Osaka hat eine bahnbrechende Technik für Androiden entwickelt, die es ihnen ermöglicht, realistische Gesichtsausdrücke basierend auf unterschiedlichen Stimmungen zu zeigen. Diese Methode verbessert ältere Ansätze, indem sie spezielle Bewegungen nutzt, um Ausdrücke wie Erregung oder Müdigkeit zu erzeugen. Sie ersetzt die veraltete Technik festgelegter Bewegungsabläufe, die oft zu steifen Übergängen und unnatürlich wirkenden Emotionen führten.
Neue Technologie nutzt Wellen zur Darstellung von Gesichtsbewegungen wie Blinzeln und Gähnen. Jede Bewegung wird durch eine individuelle Welle gesteuert, die die erforderlichen Gesichtsbereiche erreicht und komplexe Ausdrücke in Echtzeit ermöglicht. Das System ist effizienter, da es auf detaillierte vorprogrammierte Aktionen verzichtet und somit nahtlosere Übergänge zwischen den Ausdrücken gewährleistet. Zudem verbessert die Wellenformmodulation das System, indem sie interne Zustände des Androiden, wie zum Beispiel Stimmungsänderungen, natürlich in den Gesichtsausdrücken sichtbar macht.
Die Hauptvorteile dieser Technologie umfassen:
- Echtzeit-Erstellung komplexer Gesichtsausdrücke.
- Verbesserte emotionale Echtheit durch Modulation der Wellenform.
- Geringerer Bedarf an vorab festgelegten Gesichtsszenarien.
- Fließendere Übergänge zur Minimierung unnatürlicher Bewegungen.
Diese Entwicklung zielt nicht nur darauf ab, die technischen Fähigkeiten von Robotern zu verbessern, sondern verändert auch die Art und Weise, wie sie mit Menschen interagieren. Indem sie realistische Gesichtsausdrücke zeigen, kann das unangenehme Gefühl verringert werden, das einige Menschen empfinden, wenn Roboter zwar fast menschlich aussehen, jedoch nicht ganz richtig, was zu angenehmeren Begegnungen führt.
Roboter entwickeln sich von einfachen Maschinen zu Wesen, die Emotionen zeigen können. Diese Entwicklung ermöglicht bessere Interaktionen zwischen Menschen und Robotern, insbesondere in Bereichen wie der Altenpflege, im Kundenservice und in der Unterhaltung. Dies entspricht dem Trend, Technologie persönlicher und zugänglicher zu gestalten. Durch die Kombination von maschinellen Funktionen mit emotionalem Verständnis könnten Roboter bald wichtige Rollen in der Gesellschaft übernehmen, in denen Verständnis und Kommunikation entscheidend sind.
Wir arbeiten daran, Androiden zu entwickeln, die menschliche Emotionen zeigen können. Diese Innovation bringt uns dem Ziel näher, diese Roboter in den Alltag zu integrieren. Künftig könnten diese Roboter mehr als nur Werkzeuge sein; sie könnten zu Gefährten werden, die Emotionen teilen und uns helfen, stärkere Verbindungen zueinander aufzubauen.
Die Studie wird hier veröffentlicht:
http://dx.doi.org/10.20965/jrm.2024.p1481und seine offizielle Zitation - einschließlich Autoren und Zeitschrift - lautet
Hisashi Ishihara, Rina Hayashi, Francois Lavieille, Kaito Okamoto, Takahiro Okuyama, Koichi Osuka. Automatic Generation of Dynamic Arousal Expression Based on Decaying Wave Synthesis for Robot Faces. Journal of Robotics and Mechatronics, 2024; 36 (6): 1481 DOI: 10.20965/jrm.2024.p1481

2. Februar 2025 · 00:28
Fernsehgewalt prägt Buben nachhaltig: Studie zu Langzeiteffekten auf aggressives Verhalten

30. Dezember 2024 · 03:47
Blitzschneller Laser-Neuron eröffnet neue Horizonte in KI und Hochleistungsrechnen
Diesen Artikel teilen

