#AiOrNotAi: lernen zu fühlen
In einer Zeit, die vom rasanten technologischen Fortschritt geprägt ist, ist die Schnittstelle zwischen Mensch und Robotik zu einem zentralen Thema geworden. Das Konzept einer menschlichen Erfahrung mit Robotern geht über die reine Funktionalität hinaus und dringt in die Bereiche Empathie, Ethik und emotionale Bindung vor. Der wissenschaftliche Fortschritt im Bereich der Robotik wird nun durch die künstliche Intelligenz vorangetrieben und wird zum Thema aktiver moralischer, psychologischer und rechtlicher Debatten über den künftigen Platz von Robotern in der Zivilgesellschaft: Wie ethisch und wie gefährlich wäre es, Roboter für harte Arbeit, Wissenschaft, Sex, Operationen und ganz allgemein auszubeuten? Es scheint eine Science-Fiction-Filmhandlung und ein Problem der fernen Zukunft zu sein, aber stellen Sie sich vor, dass neue technologische Methoden wie die multisensorische Integration Robotern relativ bald beibringen werden, menschliche Körpererfahrungen zu “spüren”.
Die multisensorische Integration ist eine wichtige kognitive Funktion für die menschliche Körpererfahrung. Die Forschung zur kognitiven Modellierung legt nahe, dass sie unter Verwendung von Vorwissen und sensorischen Informationen durchgeführt wird, um Schätzungen vorzunehmen (Bayesscher Ansatz). Die Modellierung und Simulation der multisensorischen Integration könnte dazu beitragen, Roboter menschenähnlicher zu machen und die Interaktion mit Menschen zu verbessern. Das Interesse und die Fortschritte in diesem Bereich haben zugenommen, insbesondere die Forschung zur Selbstwahrnehmung von Robotern und die Verbindungen zwischen menschlicher Körpererfahrung und Robotik. Auf der Grundlage des Bayes’schen Ansatzes haben einige neuere Arbeiten auch kognitive Modelle vorgeschlagen, bei denen die Teilnehmer durch gezielte multisensorische Stimulation künstliche Gliedmaßen als ihre eigenen wahrnehmen.
Einer der bedeutendsten jüngsten Durchbrüche in der Robotik ist die Untersuchung modularer Modellierungsrahmen, die multisensorische Integration mit kognitivem Denken und Anpassung kombiniert und eine flexible Darstellung der Körpererfahrung ermöglicht. Dieser Ansatz kommt nicht nur der Assistenzrobotik zugute, sondern verhilft auch humanoiden Robotern zu einer menschenähnlichen Körperdarstellung, was ihre Interaktionsfähigkeiten und ihre Vielseitigkeit bei der Aktionswahrnehmung verbessert.
Die Möglichkeit, Robotern eine eigene Körpererfahrung zu geben, könnte voraussetzen, dass die Roboter über Intelligenz in Bezug auf ihren Körper verfügen. Dies bedeutet, dass sie in der Lage sein müssen, sich an neue Situationen und Veränderungen in ihrer Umgebung anzupassen. Um dies zu erreichen, könnten modulare Modellierungsrahmen verwendet werden, um spezifische Algorithmen für Wahrnehmung, sensorische Integration und kognitives Denken zu integrieren. Auch könnten Lernmethoden eingesetzt werden, um das Vorwissen des Roboters zu aktualisieren. Das Ziel der Wissenschaftler besteht darin, eine künstliche Körperintelligenz zu schaffen, die sich an Veränderungen in ihrem Körper und ihrer Umgebung anpassen kann.
Philipp Beckerle, Researchgate
(Icons8, envato.com, kit8; envato.com)