Semiautonome Quadcopter für Augmented Reality
Semi-Autonomous Aerial Vehicles for Augmented Reality
DACH: Österreich - Deutschland - Schweiz
Wissenschaftsdisziplinen
Informatik (100%)
Keywords
-
Micro Aerial Vehicles,
Augmented Reality,
Human-Computer Interaction,
Remote Collaboration
Mobile Geräte mit berührungsempfindlichen Bildschirmen ersetzen zunehmend die klassischen Desktop-Computer. Allerdings benötigen solche mobilen Geräte die Aufmerksamkeit des Benutzer, was in vielen Alltagssituationen nicht leicht zu gewährleisten ist. Daher versuchen Forscher im Bereich Augmented Reality und Wearable Computing Alternativen zu finden, welche die Wahrnehmung des Benutzers direkt in der Welt überlagern. Dies wurde bislang meist mit Datenbrillen, 3D-Tracking-Sensoren und ähnlichen Geräten umgesetzt. Die Ergebnisse lassen in Bezug auf Ergonimie, Interaktionsmöglichkeiten und Reichhaltigkeit der Daten zu wünschen übrig. Wir schlagen ein radikal neuartiges Natural User Interface (NUI) vor, welches Robotik, AR und Ubiquitous Computing kombiniert. Wir schlagen vor, ein UFO (Users Flying Organizer) zu bauen: ein semiautonomer Quadcopter, der mit Pikoprojektoren und Kameras ausgestattet ist und die Projektion von interaktiven Pixeln überall in der Umgebung des Benutzers ermöglicht. Während Quadcopter bisher meist für autonome Flugaufgaben eingesetzt wurden, schlagen wir erstmals vor, die Fluggeräte interaktiv zu machen, sodass sie in Zusammenarbeit mit dem Benutzer agieren: 1) Spontane Visualisierung von Daten wird direkt auf Oberflächen in der Umgebung des Benutzers ermöglicht, sodass die Umgegung zu einem Smart Space wird, in dem ein Benutzer ohne weiter Hilfsmittel mit graphischen Objekten interagieren kann. 2) Neue Arten von Mobile Computing gestatten es dem Benutzer, um die Ecke zu schauen oder auf normalen Wege nicht erreichbare Blickpunkte einzunehmen. Dies kann zum Beispiel bei Hilfseinsätzen Verwendung finden. 3) Neue Arten von Telekonferenzen, wo ein nicht vor Ort befindlicher Teilnehmer das UFO verwendet, um die lokale Umgebung wahrzunehmen und Informtionen in die Umgebung zu projizieren. Das Projekt zielt auf grundlegende neue Ergebnisse in Bereich der Mensch-Maschine-Schnittstelle ab. Wir konzentrieren uns auf Methoden und Untersuchungen des NUI, neuartige Algorithmen (wie etwa Gestenerkennung) und die Umsetzung dieser Algorithmen als offene Software und Hardware (wie etwa eine offene Flugplattform) sowie anspruchsvolle Anwendungen. Beide Projektleiter haben langjährige Erfahrung in den grundlegenden Arbeitsgebieten und können auf wichtige Vorarbeiten zurückgreifen. Die Anwendung der vorgeschlagenen Methoden hat grosses Potential für neue praktisch nutzbare Ansätze der Mensch-Maschine-Kommunikation.
In den vergangen Jahren wurden desktop-basierende Rechensysteme zunehmend durch mobile und touch-basierte Geräte ergänzt oder gar vollständig ersetzt. Jedoch benötigen touch-basierte Geräte die direkte physische Interaktion oder visuelle Beachtung des Benutzers, welches im Allgemeinen kritische Ressourcen bei mobilen Anwendungen sind. Langjährige Forschung auf dem Gebiet Augmented Reality (AR), in Kombination mit tragbaren Geräten, versuchte dieses Problem zu adressieren - speziell in Kombination mit alternativen Benutzerschnittstellen, welche die Wahrnehmung der Umgebung des Benutzers unterstützen. Übliche Ansätze sahen eine Instrumentierung des Benutzers durch am Kopf getragene Anzeige- und Messgeräte vor. In der Folge mussten Kompromisse bezüglich Ergonomie, Möglichkeiten zur Interaktion und Datenvielfalt in Kauf genommen werden. Durch das UFO-Projekt konnten neue, natürlichere Möglichkeiten zu Interaktion geschaffen werden, indem eine Kombination von Augmented Reality mit mobiler Robotik und Ubiquitous Computing erfolgt. In einem ersten Schritt wurde der Micro Aerial Projector (MAP) entwickelt, ein semi-autonomes Micro-Aerial Vehicle (MAV), ausgestattet mit Pico-Projekor und Kamera. Der MAP erlaubt es, entweder durch physische oder virtuelle Projektionen, interaktiven Inhalt in die Umgebung des Benutzers zu projizieren, ohne den Benutzer selbst mit zusätzlichen Geräten zu belasten. Während der Nutzen eines MAV für autonomes Fliegen im Allgemeinen bereits erforscht worden ist, konzentrierte sich dieses Projekt speziell auf die Nutzung eines MAV als flexible, hochmobile Interaktions- und Visualisierungsplattformen. Die folgenden typischen Anwendungsfälle sind als Teil des UFO-Projektes untersucht worden: 1) Die spontane Visualisierung von Daten direkt auf physikalischen Oberflächen in der Umgebung des Benutzers, um diese so in einen Ad-hoc-Smart-Space zu verwandeln, ergänzt durch kontextabhängige Projektionsflächen und Interaktionsmöglichkeiten. Das UFO ist in der Lage, sich frei in der Umgebung zu bewegen, Inhalte dort zu projizieren, wo es benötigt wird, und sich an die Umgebung anzupassen, ohne eine zusätzliche Instrumentierung eines Remote-Benutzers zu erfordern. 2) Neue Formen des mobile Computings, welche das Benutzer-Sichtfeld mit Hilfe der Projektionsfähigkeiten von UFO erweitern. So kann ein Benutzer durch Wände sehen oder an andere physisch unerreichbare Orte zu "sehen" und diese auf natürliche Weise zu erkunden. Zum Beispiel in Such-, Rettungs- oder Inspektionsszenarien bleibt der Zugriff auf digitale Informationen erhalten. Zusätzlich wurde an der TU Graz ein gänzlich neuer Research- und Designspace, der so genannte "droneSpace", geschaffen. Die Kernkomponente ist ein autonomes MAV- Flugsystem, bestehend aus einem Flugraum samt hochgenauem Motion-Tracker, einem selbst entworfenen MAV-Prototyp und einem dazugehörigen Software-Framework. In der Folge konnte eine nachhaltige Basis für multidisziplinäre Forschung aus den Bereichen Augmented Reality, Robotik und Computer Vision geschaffen werden.
- Technische Universität Graz - 100%
- Otmar Hilliges, ETH Zürich - Schweiz
Research Output
- 2518 Zitationen
- 6 Publikationen
-
2019
Titel High-Level Teleoperation System for Aerial Exploration of Indoor Environments DOI 10.3389/frobt.2019.00095 Typ Journal Article Autor Isop W Journal Frontiers in Robotics and AI Seiten 95 Link Publikation -
2016
Titel Micro Aerial Projector - Stabilizing Projected Images of an Airborne Robotics Projection Platform DOI 10.1109/iros.2016.7759826 Typ Conference Proceeding Abstract Autor Isop W Seiten 5618-5625 -
2018
Titel Drone-Augmented Human Vision: Exocentric Control for Drones Exploring Hidden Areas DOI 10.1109/tvcg.2018.2794058 Typ Journal Article Autor Erat O Journal IEEE Transactions on Visualization and Computer Graphics Seiten 1437-1446 -
2017
Titel Real-Time Motion Planning for Aerial Videography With Real-Time With Dynamic Obstacle Avoidance and Viewpoint Optimization DOI 10.1109/lra.2017.2665693 Typ Journal Article Autor Ngeli T Journal IEEE Robotics and Automation Letters Seiten 1696-1703 -
2013
Titel OctoMap: an efficient probabilistic 3D mapping framework based on octrees DOI 10.1007/s10514-012-9321-0 Typ Journal Article Autor Hornung A Journal Autonomous Robots Seiten 189-206 Link Publikation -
2014
Titel ReconstructMe - Towards a Full Autonomous Bust Generator DOI 10.15221/14.184 Typ Conference Proceeding Abstract Autor Kopf C Seiten 184-190 Link Publikation