Der japanische Autohersteller Nissan setzt bei seiner Fahrzeugdesign-Entwicklung auf VR. Hierzu kooperiert das Unternehmen mit HaptX, um durch realistische Haptik-Feedback-Technologie den Designern schneller zu neuen Iterationen zu verhelfen.
Optimierte Designentwicklung
Prototyping ist in der Fahrzeugherstellung auch deswegen sehr zeit-und kostenintensiv, da die Designer ihre 3D-Modelle während des Konstruktionsprozesses nicht spüren und haptisch erfahren können. Zwischen Modell, Prototyp und Endprodukt gehen oft einige Jahre ins Land.
Mit HaptX-Technologie sollen Nissans Fahrzeugdesigner die Möglichkeit bekommen, frühzeitig mit ihrem Entwurf auf Tuchfühlung zu gehen. Dabei fungiert der Handschuh als Werkzeug: verschiedene Fahrzeug-Komponenten wie Lenkrad oder Kupplung können vorzeitig, noch vor dem Konstruktionsprozesses, gefühlt und auf ihre Praktikabilität erprobt werden.
Auf der SXSW 2019 wurde die Kooperation zwischen Nissan und HaptX das erste Mal der Öffentlichkeit präsentiert; inzwischen konnte auf dieser Basis u.a. das Elektro-Auto Nissan Leaf entworfen werden.
Taktile Reproduktion
In dem Haptik-Handschuh sind rund 130 Haptik-Pixel verbaut, die an Innenflächen, Gelenken und Fingerspitzen sitzen. Die Haptik-Pixel sind kleine Kammern, die analog zur virtuellen Berührung mit Luft (pneumatisch) oder Flüssigkeit (mikrofluidal) gefüllt werden, auf die Haut des Users drücken bzw. diese verschieben und dadurch ein Gefühl der Berührung reproduzieren.
Die Hochleistungs-Ventile des Handschuhs steuern den Druck einzelner pneumatischer Stellglieder so präzise, dass eine ganze Bandbreite an Empfindungen erzeugt werden kann. Neben Größe und Form eines Gegenstandes sind auch Texturen fühlbar – etwa der Kunstlederbezug eines Fahrzeugsitzes. In einer weiteren Schicht können die kleinen Kanäle des Weiteren die Temperatur regulieren. Dadurch kann ein User mit HaptX-Handschuhen über seine physische Hand z.B. auch virtuell produziertes Wasser in verschiedenen Kälte-oder Wärmegraden wahrnehmen.
„What really sets HaptX Gloves apart is the unprecedented realism they deliver. Our patented microfluidic technology physically displaces the skin the same way a real object would when touched, closely replicating its texture, shape, and movement(…) Companies can touch and interact with their vehicles before they are built, radically reducing time and cost(…).“
Jake Rubin, Founder HaptX Inc.
Die im HaptX verbauten taktilen Aktuatoren (also Antriebselemente, die Signale in mechanische Reize umsetzen) konnten schließlich so angeordnet werden, dass sie die Form von weniger als zwei Millimeter dicken Gegenständen fühlbar werden lassen.
Bei in der Simulation gehaltenen Gegenständen sorgen die Aktuatoren dafür, dass Widerstandskraft (Force-Feedback) auf jeden einzelnen Finger und entsprechend Druck auf das Exoskelett-Design ausgeübt wird. Wird ein Objekt auf der Handinnenfläche simuliert, so wird die Haut des Users durch die mit Luft gefüllten Punkte verdrängt, um entsprechend ein realistisches Gefühl zu erzeugen. Dabei gibt es eine ganze Bandbreite an Lösungen hinsichtlich überzeugender Intensität von Druck und Verdrängung.
Bildeindruck und haptisches Feedback verlaufen im Rahmen der Anwendung immer synchron: Der zeitliche Abstand zwischen einer haptischen Erfahrung auf virtueller Ebene und tatsächlicher Stimulierung durch den Handschuh verläuft ohne merkbare Verzögerungszeit. Eine gute Voraussetzung, um natürliche und annähernd authentische User-Interaktionen mit dem virtuellen Gegenstand zu gewährleisten.
Fühlbar ist hier also wohl nur eines nicht: Latenz.
Submillimeter-Präzision
Vor der Anwendung des HaptX-Handschuhs wird die Hand des Users vermessen, um eine übereinstimmende, virtuelle Entsprechung zu berechnen.
Schließlich muss die Software auch erkennen können, an welchem Ort im Raum sich der User befindet. Die Hand des HaptX-Anwenders wird mit einer Genauigkeit von weniger als einem Milimeter erkannt. Daher kommen auch Tracking-Stationen zum Einsatz, die mit den Handschuhen gekoppelt sind und eine genaue Lokalisation ermöglichen. Alles läuft in der externen Steuerbox zusammen, die letztlich zwischen mechanischen Impulsen und virtuellen Vorgängen koordiniert.
Surgical Haptic Intelligence oder: Übung macht den Meister
HaptX wurde auch auf der diesjährigen American Association of Orthopaedic Surgeons präsentiert, die sich aus Fachleuten auf dem Gebiet der orthopädischen Chirurgie zusammensetzt.
Der HaptX-Handschuh wurde im Anwendungsfall einer Hüft-Endoprothetik präsentiert, also der Operation zur Einsetzung eines künstlichen Hüftgelenks.
Bei der HaptX-Demo wurde virtuelles Gewebe unter Force-Feedback manipuliert und sogar der Knochen am Rand der sog. Hüftpfanne fühlbar – wodurch umliegende Bänder besser zu lokalisieren sind.
Interessant hierbei ist der Umstand, dass sich die HaptX-Simulation für korrektes Muskeltraining eignen könnte. Es wäre nämlich möglich, dass Trainingseinheiten zwar die Beschäftigung mit einer adäquaten Lösung einfordern, auf haptischer Ebene jedoch falsches Handling korrigieren.
Jede menschliche Bewegung beginnt im Gehirn und wird an den entsprechenden Muskel weitergeleitet. Damit sich die Information auf diesem Weg nicht verliert, helfen Myelinstrukturen, das entsprechende Signal zu schützen. Durch wiederholte Bewegungen und stetes Üben sorgen wir selbst dann dafür, dass neue neuronale Schaltkreise entstehen und vermehrt Myelin gebildet werden kann. Der erlernte Vorgang geht uns schließlich in Fleisch und Blut über.
Das Präzisions-Feedback hilft angehenden Chirurgen also auch, das entsprechende Muskelgedächtnis zu stimulieren und die operativen Abläufe korrekt einzustudieren.
Haben Sie Fragen zu VR-Anwendungen und möchten ein eigenes Projekt starten? Dann sind wir der richtige Ansprechpartner für Sie:
Hier klicken für Ihr VR-Projekt
Bildrechte Titelbild: © Gorodenkoff – Adobe Stock