zur Startseite

Neues moovel lab Projekt „Who Wants to Be a Self-Driving Car“

Die Welt durch die Augen eines autonom fahrenden Fahrzeugs sehen

13.10.2017 (Speed-Magazin.de) Die Welt durch die Augen eines autonom fahrenden Fahrzeugs sehen – dies ermöglicht das neue moovel lab Projekt „Who Wants to Be a Self-Driving Car“. Verschiedenste Informationen aus einer 3D-Tiefen Kamera, LIDAR Scanner und Sensoren, die auf einem unkonventionellen Fahrzeug angebracht sind, werden gebündelt und in einer Virtual Reality Brille visualisiert. Besucher der Push UX Konferenz München und des KiKK Festivals in Belgien können das neueste moovel lab Projekt testen.

Die moovel Group, eine 100% Tochtergesellschaft der Daimler AG, hat sich zum Ziel gesetzt, Mobilität zu vereinfachen. Sie arbeitet an einem “Betriebssystem für urbane Mobilität”, das Zugang bietet zu verschiedenen Mobilitätsservices. Das moovel lab ist ein interdisziplinäres dreiköpfiges Team innerhalb der moovel Group, das sich in kreativen Projekten mit Zukunfts-fragen der Mobilität und menschlichen Verhaltensweisen in städtischen Gebieten auseinandersetzt.

Neues moovel lab Projekt: Aufbau des unkonventionellen Fahrzeugs
Neues moovel lab Projekt: Aufbau des unkonventionellen Fahrzeugs
© Daimler | Zoom
Die Zukunft des Automobils liegt in den vier Bereichen Konnektivität (Connectivity), Teilen (Shared & Services), Elektrifizierung (Electric) und Autonom (Autonomous). Mit Letzterem beschäftigt sich das neueste moovel lab Projekt “Who Wants to Be a Self-Driving Car”. Wie werden autonom fahrende Fahrzeuge unsere Mobilität verändern? Wie nehmen autonome Fahrzeuge ihre Umwelt wahr? Wie stellen sich andere Verkehrsteilnehmer in Form von Fahrzeugen, Fahrradfahrer und Fußgänger dar? Und anhand welcher Informationen bewegt sich das Fahrzeug im Verkehrsgeschehen? Diese Fragestellungen liegen dem moovel lab Projekt zugrunde. Eine Annäherung an diese Fragen ermöglicht ein eigens aufgebautes, unkonventionelles Fahrzeug, welches das moovel lab Team mit Sensoren und Kameras ausgestattet hat. Das Fahrzeug wird mit Hilfe eines VR-Headset gesteuert, das durch dreidimensionales Mapping und Objekterkennung den Fahrer dabei unterstützt, zu navigieren. Der Mensch nimmt sozusagen die Rolle des selbstfahrenden Autos ein.

„Das Projekt soll als Plattform für all jene dienen, die ihre Eindrücke, Gefühle und Gedanken zu dem Zukunftsthema autonomes Fahren erleben und teilen möchten. Durch das eigene Erleben möchten wir die Komplexität dieser Thematik reduzieren, Empathie für die Technologie schaffen und zu einem Diskurs über die Zukunft der Mobilität anregen“, so Joey Lee (moovel lab), verantwortlich für das Projekt.

Über VR-Headset wird der Fahrer mit den Daten versorgt, um das Fahrzeug zu steuern

Mit “Who Wants to Be a Self-Driving Car” sollte ein Prototyp geschaffen werden, in dem der menschliche Sehsinn durch solche Sensoren ersetzt wird, wie sie in selbstfahrenden Fahrzeugen zum Einsatz kommen könnten. Bei dem Prototyp handelt es sich um ein nicht-autonomes Fahrzeug, in welchem der Computer - als Entscheidungsträger und Steuerungs-einheit - durch den Menschen ersetzt wird. Das Fahrzeug besteht aus einer Plattform mit elektrischen Radnabenmotoren und Sensoren. Zum Lenken, Beschleunigen und Anhalten des Fahrzeugs wird ein Steuergerät verwendet. Der Fahrer legt sich mit dem Kopf nach vorne ausgerichtet auf das Fahrzeug. Diese Liegeposition samt VR-Brille verstärkt das Gefühl der Immersion und erlaubt völliges Eintauchen während der Fortbewegung.

Dank Sensoren und Virtual Reality selbst in die Rolle der
Dank Sensoren und Virtual Reality selbst in die Rolle der "Steuereinheit" schlüpfen
© Daimler | Zoom
Zwei Arten von Sensoren ermöglichen das VR-Erlebnis. In der Hauptansicht werden die Daten einer 3D-Tiefen-Kamera präsentiert, um die Landschaft in Echtzeit abzubilden. Die Bild-information der 3D Kamera wird durch eine automatisierte Objekterkennung der Fahrzeug-umgebung ergänzt. Dies gibt dem Fahrer Informationen darüber, welche Objekte vom Computer erkannt werden. Schließlich sorgt ein LIDAR-Sensor (Light Detection and Ranging) für eine zusätzliche Ebene der Abstandsmessung, indem der Sensor Lichtimpulse in Richtung nahe gelegener Objekte aussendet und daraus deren Distanz ermittelt. Diese Komponenten werden im VR-Headset zusammengeführt, und versorgen den Fahrer mit den nötigen Daten, um das Fahrzeug zu steuern.

Das moovel lab stellt das Projekt im Oktober und November 2017 auf zwei Konferenzen vor: Zunächst auf der “Push UX” Konferenz am 20. und 21. Oktober in München sowie auf dem “KiKK” Festival, Europas renommierten Festival für digitale und kreative Kultur vom 2. bis 4. November im belgischen Namur.


Daimler / ND


Die Mobile-App von Speed-Magazin.de