In Projekten abseits von Augmented Reality, so wie wir sie uns derzeit vorstellen (und manchmal auch so durchführen dürfen) beginnen wir die Arbeit meist mit dem auf Wireframes basierten „Prototyping“: ein User Experience Experte konzipiert auf Basis der Produktvision, UX-Research und vorgelagerten Workshops, wie der Benutzer mit der Applikation interagieren soll. Welche grundlegenden Bedienkonzepte gibt es? Wie viele Bedienelemente gibt es und wo befinden sie sich? Und wie verhalten sie sich? Hierfür gibt es reichlich Unterstützung durch Software: Sketch, Invision, Marvel, Axure und wie sie alle heißen.
Diese Tools funktionieren im Rahmen der aktuell weit verbreiteten Bedienkonzepte (Maus, Tastatur, Touch) sehr gut, beschränken sich aber auf einen begrenzten Interaktionsraum. Mit Augmented Reality und Virtual Reality vergrößert sich aber der Interaktionsraum potentiell ins Unendliche: Plötzlich kann man virtuelle Objekte überall in der realen (oder virtuellen) Umgebung platzieren und auf verschiedene Weisen mit ihnen interagieren: schieben, heben, schlagen, schießen, darauf zeigen, teilweise reicht je nach Eingabegerät schon das bloße Ansehen um eine Interaktion einzuleiten.
Aber wie konzeptioniert man eine solche Interaktion – ohne den Aufwand in Kauf zu nehmen, sie direkt zu implementieren? Der erste Ipuls unseres Konzepters war, wieder wie früher zum Stift zu greifen. Da ist viel Geschick im perspektivischen Zeichnen gefragt. Hat auch nicht jeder. Und das Ergebnis ist wieder statisch und meist nur begrenzt räumlich. Wie visualisiert man „Der Crosshair-Cursor soll sich räumlich in der Mitte des Bildschirms befinden, und wenn der Benutzer mit dem Smartphone auf einen Hotspot zeigt, soll er darauf einschnappen (snap-in) und das auch entsprechend visualisieren“? Reden hilft, viel Reden hilft mehr, aber ein Bild sagt eben doch mehr als tausend Worte. Und in diesem Fall müsste es sogar ein bewegtes dreidimensionales Bild sein.
Also haben wir einen 3D Artist hinzugezogen, der nach unseren 2D- und mündlichen Vorgaben eine erste Animation erstellt hat. Diese Animation haben wir dann diskutiert, dann hat der 3D Artist unsere Änderungen wieder umgesetzt, wir haben wieder diskutiert und so weiter – bis die noch notwendigen Änderungen so marginal waren, dass wir uns entschieden haben, die Feinheiten nachher in der Umsetzung umzusetzen.
Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren
YouTube immer entsperren
Bei genauerem Hinsehen hat der 3D Artist die Animation mit einer der beiden großen 3D Engines gemacht, hier mit Unreal und dort mit dem sogenannten „Blueprint Visual Scripting“. Vorab: Auch für Unity gibt es ein Community-Plugin namens „Flow Graphs“, aber wir beschränken uns hier auf die Unreal Blueprints. Unreal selbst beschreibt es so [1]:
Blueprints Visual Scripting ist ein vollständiges Gameplay-Scripting-System, das auf einem Interface mit Knoten und Verbindungen basiert. Mit ihm können Gameplay Elemente innerhalb des Unreal Editors erzeugt werden. Wie bei vielen Skriptsprachen definiert man objektorientierte Klassen oder Objekte für die Engine. Elemente, die mithilfe von Blueprint Visual Scripting erstellt wurden, werden auch kurz „Blueprints“ genannt.
Dieses System ist extrem flexibel und mächtig, da es Designern Zugriff auf nahezu alle Konzepte und Werkzeuge gibt, ohne dass sie Programmierer sein müssen. Außerdem können Entwickler die Blueprint-spezifischen Markups innerhalb der C++-Implementierung der Unreal Engine nutzen, um grundlegende Systeme zu entwickeln, die anschließend von Designern weiter bearbeitet werden können.
Blueprints sind so einfach zu verstehen, dass unsere Schülerpraktikantin innerhalb ihres 2-wöchigen Praktikums das System vollständig verstehen, eine Einführung erstellen und diese erfolgreich einem unserer UX-Experten vermitteln konnte. Ob sich dieses Konzept bei allen Projekten im Bereich AR/VR einsetzen lässt, muss sich noch zeigen. Aber es ist ein vielversprechender Ansatz, der sich für uns beim künftigen Erstellen von 360°-Prototypen im Rahmen von AR- und VR-Projekten bewähren kann.
[1] https://docs.unrealengine.com/en-us/Engine/Blueprints
Interessiert? Dann schau dir doch auch mal dies an:
https://www.codecentric.de/leistungen/loesungen/technologie-treibt-veraenderung/augmented-reality/
https://modular.codecentric.de
Weitere Beiträge
von Christian Prison
Dein Job bei codecentric?
Jobs
Agile Developer und Consultant (w/d/m)
Alle Standorte
Weitere Artikel in diesem Themenbereich
Entdecke spannende weiterführende Themen und lass dich von der codecentric Welt inspirieren.
Gemeinsam bessere Projekte umsetzen.
Wir helfen deinem Unternehmen.
Du stehst vor einer großen IT-Herausforderung? Wir sorgen für eine maßgeschneiderte Unterstützung. Informiere dich jetzt.
Hilf uns, noch besser zu werden.
Wir sind immer auf der Suche nach neuen Talenten. Auch für dich ist die passende Stelle dabei.
Blog-Autor*in
Christian Prison
Du hast noch Fragen zu diesem Thema? Dann sprich mich einfach an.
Du hast noch Fragen zu diesem Thema? Dann sprich mich einfach an.