iCHORES - Intuitive Kollaboration mit Robotern
Intuitive Collaboration with Household Robots inEverydaySett
Weave: Österreich - Belgien - Deutschland - Luxemburg - Polen - Schweiz - Slowenien - Tschechien
Wissenschaftsdisziplinen
Elektrotechnik, Elektronik, Informationstechnik (60%); Informatik (40%)
Keywords
-
Roboter,
Intuitive Schnittstelle,
Wahrnehmung,
Szenenverstehen
In den letzten Jahren sahen eine starke Entwicklung von Robotern, die für Service-Aufgaben eingesetzt werden sollen. Diese Roboter müssen so konzipiert sein, dass sie mit Menschen interagieren können, die wenig oder keine vorherige Erfahrung mit einem Roboter haben. Naive Benutzer müssen in der Lage sein, Roboter zu steuern und mit ihnen zusammenzuarbeiten. Daher sind weitere Forschungsarbeiten erforderlich, um die Bedürfnisse von unerfahrenen Benutzern durch intuitive Interaktionsmethoden zu erfüllen. Um diese Nische zu füllen, entwickeln wir Methoden zum besseren Verständnis der Mensch- Roboter-Interaktion durch eine kollaborative Roboterschnittstelle für humanoide Haushaltsroboter. Dabei können Benutzer durch multimodale Hinweise in Form von Sprache, Gesten und Blicken intuitiv mit dem Roboter interagieren. Das Projekt wird über den Stand der Technik hinausgehen, indem es visuelle und blickbasierte Modalitäten mit Sprache kombiniert, um die Absichten des Benutzers für eine erfolgreiche Aufgabenerfüllung zu verstehen. In einem benutzerzentrierten Ansatz mittels Benutzerstudien kreieren wir Modelle wie Menschen auf natürliche Weise Gesten und Blicke in natürlicher Kommunikation verwenden. Diese Studien werden für Szenarien durchgeführt, die verschiedene Tische und Regale sowie das Aufräumen eines ganzen Raums umfassen, um die Allgemeingültigkeit des Ansatzes zu zeigen. Die Szenarien werden sowohl in Virtual Reality (VR) als auch in realen Umgebungen entwickelt. Die VR Nachbildungen ermöglichen eine schnelle Umsetzung und eine erste Datenerfassung mit naiven Benutzern bereits in der Entwurfsphase. Anschließend werden diese Modelle in eine multimodale Schnittstelle für die Mensch-Roboter-Interaktion integriert. Zu diesem Zweck wird eine graphbasierte Darstellung visueller Szenen entwickeln, die Blickinformationen enthält und aus den gestischen Informationen extrahiert werden kann. Das Projekt zielt auf einen völlig neuen Ansatz für die Interaktion mit Robotern und anderen cyber-physischen Systemen ab. Die Idee ist, dass ein unerfahrener Benutzer mit einem Roboter über natürliche Sprache mit intuitiven Gesten und Blicken interagieren kann, im Gegensatz zu früheren kollaborativen Systemen, die programmähnliche Sprachbefehle verwenden. Die Schnittstelle wird durch die Durchführung von Nutzerstudien in einer realen Umgebung für beide Szenarien evaluiert, um die Auswirkungen des Einsatzes mehrerer Modalitäten in der Kommunikation zu untersuchen. Wir werden die Hypothesen testen, sodass die Einbeziehung von gesten- und blickbasierten Informationen in die Mensch- Roboter-Interaktion den menschlichen Benutzer in der Interaktion mit dem Roboter unterstützt das Vertrauen stärkt, dass der Mensch die Maschine sicher kontrollieren kann. Das Projekt wird von Bipin Indurkhya von der Universität Krakau geleitet, zusammen mit Michal Vavrecka, CTU Praha, und Markus Vincze von der TU Wien.
- Technische Universität Wien - 100%
- Bipin Indurkhya, Jagiellonina University - Polen
- Michal Vavrecka, Czech Technical University Prague - Tschechien
Research Output
- 44 Zitationen
- 12 Publikationen
- 1 Policies
- 1 Datasets & Models
- 1 Disseminationen
- 1 Wissenschaftliche Auszeichnungen
-
2025
Titel Unrealgensyn: a framework for generating synthetic videos of Unfrequent human events DOI 10.1007/s10055-025-01146-9 Typ Journal Article Autor Mulero-Pérez D Journal Virtual Reality Seiten 76 Link Publikation -
2025
Titel Shape-Biased Texture Agnostic Representations for Improved Textureless and Metallic Object Detection and 6D Pose Estimation DOI 10.1109/wacv61041.2025.00853 Typ Conference Proceeding Abstract Autor Hönig P Seiten 8806-8815 -
2024
Titel Challenges for Monocular 6-D Object Pose Estimation in Robotics DOI 10.1109/tro.2024.3433870 Typ Journal Article Autor Thalhammer S Journal IEEE Transactions on Robotics Seiten 4065-4084 -
2023
Titel TrackAgent: 6D Object Tracking via Reinforcement Learning DOI 10.1007/978-3-031-44137-0_27 Typ Book Chapter Autor Röhrl K Verlag Springer Nature Seiten 323-335 -
2023
Titel Erkennung transparenter Objekte für die Laborautomatisierung DOI 10.1007/s00502-023-01158-w Typ Journal Article Autor Vincze M Journal e & i Elektrotechnik und Informationstechnik Seiten 519-529 Link Publikation -
2023
Titel Open Challenges for Monocular Single-shot 6D Object Pose Estimation DOI 10.48550/arxiv.2302.11827 Typ Preprint Autor Thalhammer S -
2023
Titel Challenges for Monocular 6D Object Pose Estimation in Robotics DOI 10.48550/arxiv.2307.12172 Typ Preprint Autor Thalhammer S -
2023
Titel 3D-DAT: 3D-Dataset Annotation Toolkit for Robotic Vision DOI 10.1109/icra48891.2023.10160669 Typ Conference Proceeding Abstract Autor Suchi M Seiten 9162-9168 -
2024
Titel Human-in-the-loop error detection in an object organization task with a social robot DOI 10.3389/frobt.2024.1356827 Typ Journal Article Autor Frijns H Journal Frontiers in Robotics and AI Seiten 1356827 Link Publikation -
2023
Titel Challenges of Depth Estimation for Transparent Objects DOI 10.1007/978-3-031-47969-4_22 Typ Book Chapter Autor Weibel J Verlag Springer Nature Seiten 277-288 -
2023
Titel COPE: End-to-end trainable Constant Runtime Object Pose Estimation DOI 10.1109/wacv56688.2023.00288 Typ Conference Proceeding Abstract Autor Patten T Seiten 2859-2869 -
2023
Titel Object Change Detection for Autonomous Indoor Robots in Open-World Settings DOI 10.34726/hss.2023.111500 Typ Other Autor Langer E Link Publikation
-
2024
Titel MINT initiative der Stadt Wien Typ Participation in a guidance/advisory committee
-
2020
Titel School workshops Typ Participation in an activity, workshop or similar
-
2024
Titel Best Paper Award at Austrian Symposium on AI, Robotics, and Vision 2024 Typ Research prize Bekanntheitsgrad Continental/International