360°-Prototyping für Augmented-Reality- und Virtual-Reality-Anwendungen mithilfe von Unreal Blueprints

Keine Kommentare

In Projekten abseits von Augmented Reality, so wie wir sie uns derzeit vorstellen (und manchmal auch so durchführen dürfen) beginnen wir die Arbeit meist mit dem auf Wireframes basierten „Prototyping“: ein User Experience Experte konzipiert auf Basis der Produktvision, UX-Research und vorgelagerten Workshops, wie der Benutzer mit der Applikation interagieren soll. Welche grundlegenden Bedienkonzepte gibt es? Wie viele Bedienelemente gibt es und wo befinden sie sich? Und wie verhalten sie sich? Hierfür gibt es reichlich Unterstützung durch Software: Sketch, Invision, Marvel, Axure und wie sie alle heißen.

Diese Tools funktionieren im Rahmen der aktuell weit verbreiteten Bedienkonzepte (Maus, Tastatur, Touch) sehr gut, beschränken sich aber auf einen begrenzten Interaktionsraum. Mit Augmented Reality und Virtual Reality vergrößert sich aber der Interaktionsraum potentiell ins Unendliche: Plötzlich kann man virtuelle Objekte überall in der realen (oder virtuellen) Umgebung platzieren und auf verschiedene Weisen mit ihnen interagieren: schieben, heben, schlagen, schießen, darauf zeigen, teilweise reicht je nach Eingabegerät schon das bloße Ansehen um eine Interaktion einzuleiten.

Aber wie konzeptioniert man eine solche Interaktion – ohne den Aufwand in Kauf zu nehmen, sie direkt zu implementieren? Der erste Ipuls unseres Konzepters war, wieder wie früher zum Stift zu greifen. Da ist viel Geschick im perspektivischen Zeichnen gefragt. Hat auch nicht jeder. Und das Ergebnis ist wieder statisch und meist nur begrenzt räumlich. Wie visualisiert man „Der Crosshair-Cursor soll sich räumlich in der Mitte des Bildschirms befinden, und wenn der Benutzer mit dem Smartphone auf einen Hotspot zeigt, soll er darauf einschnappen (snap-in) und das auch entsprechend visualisieren“? Reden hilft, viel Reden hilft mehr, aber ein Bild sagt eben doch mehr als tausend Worte. Und in diesem Fall müsste es sogar ein bewegtes dreidimensionales Bild sein.

Also haben wir einen 3D Artist hinzugezogen, der nach unseren 2D- und mündlichen Vorgaben eine erste Animation erstellt hat. Diese Animation haben wir dann diskutiert, dann hat der 3D Artist unsere Änderungen wieder umgesetzt, wir haben wieder diskutiert und so weiter – bis die noch notwendigen Änderungen so marginal waren, dass wir uns entschieden haben, die Feinheiten nachher in der Umsetzung umzusetzen.

Bei genauerem Hinsehen hat der 3D Artist die Animation mit einer der beiden großen 3D Engines gemacht, hier mit Unreal und dort mit dem sogenannten „Blueprint Visual Scripting“. Vorab: Auch für Unity gibt es ein Community-Plugin namens „Flow Graphs“, aber wir beschränken uns hier auf die Unreal Blueprints. Unreal selbst beschreibt es so [1]:

Blueprints Visual Scripting ist ein vollständiges Gameplay-Scripting-System, das auf einem Interface mit Knoten und Verbindungen basiert. Mit ihm können Gameplay Elemente innerhalb des Unreal Editors erzeugt werden. Wie bei vielen Skriptsprachen definiert man objektorientierte Klassen oder Objekte für die Engine. Elemente, die mithilfe von Blueprint Visual Scripting erstellt wurden, werden auch kurz „Blueprints“ genannt.

Dieses System ist extrem flexibel und mächtig, da es Designern Zugriff auf nahezu alle Konzepte und Werkzeuge gibt, ohne dass sie Programmierer sein müssen. Außerdem können Entwickler die Blueprint-spezifischen Markups innerhalb der C++-Implementierung der Unreal Engine nutzen, um grundlegende Systeme zu entwickeln, die anschließend von Designern weiter bearbeitet werden können.

Blueprints sind so einfach zu verstehen, dass unsere Schülerpraktikantin innerhalb ihres 2-wöchigen Praktikums das System vollständig verstehen, eine Einführung erstellen und diese erfolgreich einem unserer UX-Experten vermitteln konnte. Ob sich dieses Konzept bei allen Projekten im Bereich AR/VR einsetzen lässt, muss sich noch zeigen. Aber es ist ein vielversprechender Ansatz, der sich für uns beim künftigen Erstellen von 360°-Prototypen im Rahmen von AR- und VR-Projekten bewähren kann.

[1] https://docs.unrealengine.com/en-us/Engine/Blueprints

Interessiert? Dann schau dir doch auch mal dies an:

https://www.codecentric.de/leistungen/loesungen/technologie-treibt-veraenderung/augmented-reality/

https://modular.codecentric.de

Christian ist seit mehr als 16 Jahren Produktmanager für Softwareanwendungen aus verschiedenen Branchen und Agilist aus Leidenschaft. Er ist Experte für große Unternehmensstrukturen und komplexe Projekte und Verfechter von Wertschöpfungsgedanken und Customer-First-Attitude. Christian führt unsere Kunden durch das gesamte codecentric-Portfolio, von der Ideengenerierung bis zum Betrieb der fertigen Lösung als partnerschaftlicher Begleiter. Seit 2017 betreut er federführend das Augmented Reality Innovationsprojekt „modulAR“.

Artikel von Christian Prison

Augmented Reality

Mixed Reality – Abwarten oder investieren?

Augmented Reality

Augmented Reality: 3D Model Supply Chain

Weitere Inhalte zu Augmented Reality

Kommentieren

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.