Gastbeitrag: Virtual Reality in der Ingenieurs-Ausbildung

Virtual Reality – kurz VR – ist mehr als nur ein Hype in der Freizeitgestaltung. Sich mit einer VR-Brille und einem Rucksack-PC in einem virtuellen Szenario zu bewegen, das gehört inzwischen zur Realität in der Ausbildung von Ingenieurinnen und Ingenieuren an der ZHAW School of Engineering.

Das Zentrum für Produkt- und Prozessentwicklung (ZPP)Virtual Reality Rucksack verfügt über ein modernes VR-Equipment. Hier ersetzt ein virtueller Raum den realen Laborplatz: Die Studierenden arbeiten nicht mehr mit teuren Laboranlagen, sondern bewegen sich durch ein virtuelles technisches Szenario. Dabei kann die komplette Ausstattung leicht an einen anderen Ort verschoben werden, was mit einem realen Labor nicht so einfach möglich wäre.

Mit wie viel Aufwand und wie realistisch sind Laborübungen, Interaktionen mit einer Maschine oder einem Automaten, Ergonomiestudien und Raumabklärungen überhaupt möglich? Dies untersuchen im Rahmen von Bachelorarbeiten Maschinenbau-Studierende (Definition des technischen Szenarios und 3D-Modellierung) und Informatik-Studierende (Realisation der virtuellen Szene und Interaction-Design).

Es gibt tausende von möglichen technischen Anwendungsfällen. Wir fokussieren uns auf folgende Szenarien und prüfen die Vorteile von virtuellen Welten:

  • Begehen eines Wagons, eines Busses, einer Werkhalle, einer technischen Anlage. Abklären von Platzverhältnissen, Design- und Planungsaspekte, Wartungs- sowie Montage-/Demontage-Simulationen inklusive Kollisions-Checks.
  • Sitzen in einem Cockpit, einem Führerstand, im neuen Elektromobil. Studien über Ergonomie, Sichtbarkeit, Erreichbarkeit, Anordnung von Steuergeräten und Displays zwecks optimaler Bedienung.
  • Interaction-Design an einer Maschine, einem Automaten zwecks Optimierung der Mensch-Maschine-Interaktion bzw. der Bedienlogik.
  • Zweckmässige Ausbildung an teuren oder gefährlichen Geräten (z.B. die Bedienung eines Gerätes mit Röntgenstrahlung, ohne dieser Strahlung ausgesetzt zu sein).
  • Visualisierung von Zusatzinformationen wie Strömungsverläufe, mechanische Spannungen, Temperatur- und Druckverhältnisse in der Szene. Hier analysieren wir die Unterschiede zwischen AR (Augmented Reality) und VR (Virtual Reality).
  • Virtuelle Operationen von Implantaten im Bereich Biomechanik.
  • Reduzierung von realen durch virtuelle Prototypen und Optimierung von Entwicklungsstunden. Weniger „trial and error“ am realen Prototyp.
  • Übungsaufgaben und Prüfungen von Studenten am VR-Modell.

Unsere bisherigen VR-Erfahrungen: Da wir uns mit einem HMD (Head mounted Display) und Backpack-PC nicht mehr vor (wie bei VR-WALL & 3D-Brille, Big-Screens) sondern in der Szene bewegen (360 Grad), ist der räumliche Eindruck und die visuelle Erfahrung sehr gut. Je nach Simulationsanforderung kann eine technische Szene nicht nur „Comic-like“ sondern in schönen fotorealistischen Renderings dargestellt werden – zum Beispiel für Anwendungen im Bereich Marketing.

Das ändern von logischen Bedienabläufen zwecks Interaktionsoptimierung muss programmiert werden (Skripts) oder man erstellt aufwändig gleich verschiedene Szenarien für verschiedene Bedienabläufe. Ein Logik-Baukasten, wo die Bedienelemente schnell neu platziert und verknüpft werden können, wäre einfacher zu handhaben.

Bei der Interaktion möchten wir nicht nur mit einem Controller auf einen HotSpot (Interaktions-Punkt) zeigen, sondern konkrete Drehschalter, Hebel, Fader, Knöpfe bedienen.

Dies funktioniert teilweise schon recht gut. Dank Leap-Motion-Controller können für die Interaktion auch die Hände in allen Details abgebildet werden. Dabei erfolgt die Bedienung  freihändig durch Gesten ohne Controller.

leap_motion_orion_blocks_demo_arm_hud-0

Falls die eigenen Füsse oder der eigene Körper auch visualisiert werden sollen, müssen am Körper weitere Targets befestigt und mit Tracking-Kameras erfasst werden. Die Simulation wird dann entsprechend aufwändiger (Rechen-Power, Kameras, Targets).

Physikalische Eigenschaften (Gewicht), Durchdringungsverhinderung bzw. Kollisions-erkennung sowie eine Änderung der Visualisierung („Damage“ – zerbrochene oder abgebrochene Teile bei allfälliger Fehlmanipulation, Kollisionsspuren, überhitzte Teile) können programmiert werden (siehe aktuelle Grafik-Games).

Bei nicht zu schnellen Bewegungen und mit aktuellem VR-Equipment (ab 2016) tritt auch der berüchtigte „Sickness-Effekt“ (Übelkeit wegen Latenz der Visualisierung) nicht mehr auf.

Eine Herausforderung für uns ist das Begehen einer technischen Szene in Gruppen. Wie bewegen sich mehrere Menschen in engen Verhältnissen nebeneinander? Ob wir hier ein
„Multi-Player-Game-Szenario“ mit VR verbinden können? Auf jeden Fall muss jede Person separat über Tracking erfasst werden. Ein realistisches Ziel ist die Interaktion zwischen zwei Menschen innerhalb eines virtuellen Raumes.

Eine gesunde Kombination von realen Prototypen mit einem virtuellen Szenario ist empfehlenswert. Die Sitzqualität (Polsterung) und die Haptik (Wahrnehmung von Oberflächen) kann heute quasi nur an einem realen Objekt erlebt werden. Virtuelle Experimente mit teurem Equipment sind im Versuchsstadium. Für Varianten, Konfigurationen, grössere Räume, bewegte Szenen eignet sich der virtuelle Prototyp bzw. das virtuelle Szenario.

Fazit: Wir glauben an den breiten Einsatz von VR im Ingenieursstudium. Die ersten Eindrücke sind faszinierend und die Studierenden sind begeistert. Liegt es am Game-Effekt? Detaillierte Studien über den Aufwand für die Erstellung von solchen Szenarien laufen derzeit. Leider ist die perfekte VR-Umgebung noch nicht erhältlich. Zur Realisierung eines technischen Szenarios verwenden wir heute mehrere Systeme wie z.B. ein 3D-CAD für das technische Modellieren, eine Render-Software für Texturen/Bilder/Materialien und eine Game-Engine (z.B. Unity) für das Szenario (Physik und Interaktionen, Logikabläufe). Wir hoffen aber, das komplette technische Szenario durch eines der neuen Releases der innovativen 3DEXPERIENCE Plattform von Dassault Systèmes bald in einem einfach zu bedienenden System zu erstellen und dann dort auch zu simulieren.

Dassault Systèmes, Virtual Labor „Never blind in VR“

Weitere Links:

Jaguar – VR-Szenario für Marketing

HTC Vive – technisches Laboratorium

VR PORTAL – Aperture Robot Repair

Bilder: Alle Rechte ZHAW

Peter Hug

Peter Hug ist Dozent für Produktentwicklung & Industriedesign an der ZHAW. Seine Forschungsschwerpunkte liegen in den Bereichen: 3DMaster & Re-Engineering Methoden, Entwickeln von Nischensoftware für 3D-Prozesse, 3D-Visualisierungen & Ergonomie/Haptikstudien. Mehr Informationen finden Sie auch hier https://www.zhaw.ch/de/ueber-uns/person/hptr/

Latest posts by Peter Hug (see all)