Portfolio

Projekte während meiner beruflichen Tätigkeit bei der CREATE (2023-heute)

Während meiner Zeit bei CREATE habe ich maßgeblich an unserem Hauptprodukt, einem geräteeunabhängigen, programmierleichten Autorentool (XR-Creator), gearbeitet und es weiterentwickelt.Mein Fokus lag dabei auf der Erweiterung des XR-Creators um eine mobile Variante für Smartphones und Tablets, die ich mithilfe von ARFoundation realisiert habe.

Zusätzlich habe ich individuelle XR-Anwendungen für Kunden entwickelt

Auch auf Messen war ich vertreten und hatte direkten Kundenkontakt, um unser Produkt vorzustellen und bei technischen Fragen zu unterstützen.

Gerne kann ich im Rahmen eines persönlichen Gesprächs oder Calls mehr über meine Arbeit und die entwickelten Lösungen zeigen.

Masterarbeit:
Die Interaktion und Darstellung einer NFT-Transaktion im dreidimensionalen Raum (2022-2023)

Aufgabe:

Der Titel meiner Masterarbeit lautete „Die Interaktion und Darstellung einer NFT-Transaktion im dreidimensionalen Raum.“ Das Ziel dieser Arbeit ist es zu zeigen, wie NFTs und NFT-Transaktionen im VR-Raum repräsentiert werden können und wie die Benutzerinnen und Benutzer dabei miteinander interagieren. Die Komplexität der NFT-Technologie soll für Personen, die in der Anwendung eine Transaktion durchführen nicht erkennbar sein. Außerdem soll auch eine Möglichkeit aufgezeigt werden, wie das Benutzererlebnis in diesem Prozess aussehen kann. 

Vorgehen:

Dafür wurde zuerst die allgemeine Funktion der Blockchain erklärt. Im Anschluss wurden 4 Blockchains mit NFT-Support ausgewählt und analysiert. Danach wurden Kriterien aufgestellt, die für die Erstellung des Prototyps wichtig sind. Basierend auf dem Ergebnis der Blockchainauswahl wurde der Prototyp entworfen.

Für diesen Prototyp wurde ein Smart Contract entworfen der 5 NFTs mintet und jedem NFT einen bestimmten Preis anhängt.  Die Szene hierfür wurde in Unity aufgebaut.Das VR-Setup und alle VR-Interaktionen wurden mit Hilfe des VRTKs  (Virtual Reality Toolkit) entworfen und programmiert. Photon Network wurde für die Netzwerkkommunikation verwendet, da in dieser Anwendung zwei Parteien einen Handel durchführen. Eine Partei bekommt Ether(eine Währung) und die andere Partei das gewünschte NFT.

Durch die Platzierung des NFTs in die Snapzone, wird der Kauf initiiert. Anschließend muss dies von der anderen Partei signiert werden. Sobald das passiert ist, wird der Handel offiziell auf der Blockchain registriert. Im Laufe der gesamten Anwendung wird außerdem über ein kleines Panel auf der Hand Statusupdates angezeigt, welche den Stand der Transaktion angeben.

Sno-Ballfight (2021-2022)

Aufgabe:

Im Rahmen meines Masterstudiums ist angedacht ein großes Leuchtturmprojekt zu starten. An diesem wurde 1-2 Semester lang gearbeitet. Dabei war es uns StudentInnen überlassen, welche Idee wir umsetzen möchten.

Vorgehen:

In einer Gruppe bestehend aus 5 Studenten und Studentinnen entstand die Idee eines Schneeballspiels. Bei diesem Spiel spielen 4 Spieler gegeneinander und werfen sich gegenseitig mit Schneebällen ab. Das Ziel dieses Spiels ist es, im Laufe der 5 Minuten Spielzeit mehr Personen abzuwerfen als die anderen. Dabei verfügt jeder Spieler nach einer gewissen Zeit über eine Waffe, die er mit Schneebällen laden und andere damit abschießen kann. 

Im Rahmen dieses Projektes sollten wir Arbeit auch auslagern. Dabei wurde ein Making-Of in Auftrag gegeben inklusive Interview, der Ton in der Szene und die VR-Umgebung wurden ebenfalls ausgelagert. Ich halte es für äußerst wertvoll, dass wir im Rahmen unseres Projekts Auftraggeber hatten. Dies gestaltete das Projekt berufsorientierter und zeigte auch Probleme auf, die in der Kommunikation entstehen können.

Meine Aufgaben:

C#-Programmierung (Waffenlogik / Schneeballwurfsystem)  ||  Konzeptentwicklung 

ERC-721 Kontrakterstellung (2021)

Aufgabe:

Im Rahmen eines Workshops „Smart Contracts: Token creation with ERC20“ an der FH St. Pölten haben wir ein Gruppenprojekt gestartet. Wir als Gruppe bestehend aus 4 Personen haben es uns zur Aufgabe gemacht, NFTs zu erstellen und diese NFTs mit Metadaten auf ein selbsterstelltes Kunstwerk zu verweisen. Das ganze musste innerhalb 24 Stunden präsentiert werden.

Vorgehen:

Wir mussten zuerst in Photoshop die verschiedenen Seltenheitsgrade der NFTs designen und deren Metadaten beschreiben. Im Anschluss wurde ein Smart Contract entworfen, welcher die NFTs mit Hilfe des ERC-721 Standards erstellt (mintet), ihnen einen Seltenheitsgrad zuweist und die Metadaten übergibt. Verfasst wurde der Smartcontract auf der integrierten Web-Entwicklungsumgebung https://remix.ethereum.org Im Anschluss mussten wir die Bilder dezentral speichern. Dafür verwendeten wir Pinata, ein Tool, welches für uns den Umgang mit NFTs und deren Speichervorgängen erheblich erleichtert hat. Sobald nun der Smart Contract auf der Blockchain bereitgestellt wurde, wurden die NFTs direkt gemintet und mittels dem NFT-Marktplatz OpenSea haben wir es uns anzeigen lassen.

Meine Aufgaben:

Konzeptentwicklung    ||   Smart-Contract Entwicklung

VR-Exergame (2021)

Aufgabe:

Im Rahmen der Lehrveranstaltung „Tun Forschen Gründen“ haben wir eine VR-Anwendung entwickelt, welche  die Rehabilitation von Patienten nach Beinamputationen verbessern und unterstützen soll. Unser Team hat im Rahmen des Forschungsprojektes AVATAR einen Prototyp entwickeln dürfen, der die Belastung auf die Beinprothesen der Benutzer und Benutzerinnen erhöhen soll. Mit Hilfe von „Gamification“ soll dies umgesetzt werden.

Vorgehen:

Die Ursprungsidee war es, in einem offenen Raum zu stehen und mit Hilfe eines Laserpointers Bälle zu zerstören, die im Anschluss halbiert werden und in kleinerer Form spawnen. Nach Evaluierung dieser Idee kam heraus, dass die Protagonisten in der Szene kaum ihre Beine bewegen. Dadurch haben wir uns im Anschluss für einen Stab entschieden, mit dem man die Bälle zerschlagen muss. Des Weiteren haben wir Möglichkeiten implementiert, mit denen man die Richtung der Bälle und die Kraft, die auf die Bälle wirkt, beeinflussen kann.  Aus den Tests ging hervor, dass die Anwenderinnen und Anwender viel Spaß damit hatten. 

Meine Aufgaben:

C#-Programmieurng (Spielelogik)  ||   Ideenfindung

Particle Simulation (2021)

Aufgabe:

Es sollen computergenerierte Inhalte so realistisch wie möglich in einem echten aufgenommenen Video dargestellt werden.

Vorgehen:

Als Szenerie filmte ich die Szene in meinem Badezimmer. Da der Raum über wenige markante Stellen verfügte, platzierte ich kleine Punkte in meinem Badezimmer, um anhand dieser Punkte ein Raumtracking zu ermöglichen.

Dieses Projekt wurde mit dem 3D-Tracking und Matchmoving Tool 3DEqualizer umgesetzt. Die Partikel wurden in Maya und dem V-Ray Renderer umgesetzt. Für die Zusammenstellung des Endergebnisses wurde After-Effects verwendet.

Bitcoin-Room (2020-2021)

Aufgabe:

Die Aufgabe war es einen VR-Escape Room zu erstellen. Dabei war es uns frei überlassen, wie dieser aussehen soll und was das Ziel des Escape Rooms ist. Des Weiteren sollten wir mit Hilfe des erlernten Wissens im ersten Semester eine in sich geschlossene Anwendung präsentieren. Dazu zählte das Modellieren von allen Gegenständen und die Integration von Sound mittels WWise.

Vorgehen:

Der Escape-Room bestand aus einem L-förmigen Raum mit 2 Rätsel, die es zu lösen galt, bevor man aus dem Raum hinauskonnte. Das erste Rätsel war das Einfügen von Büchern in die richtige Reihenfolge, um das Dach zu entfernen. Im Anschluss gab es außerhalb des Raums einen zylinderförmigen Korb, in den ein Würfel hineingeworfen werden musste. Wurde dieses Ziel erreicht, öffnete sich die Ausgangstüre durch die man das Spiel beenden konnte und zurück ins Hauptmenü gelangt.

Dabei wurden alle 3D-Objekte mit dem Programm Maya selbst entworfen. Die Anwendung selbst wurde in Unity umgesetzt. Für die Skripte wurde die Programmiersprache C# verwendet.  Die Raumakustik wurde mit Wwise umgesetzt.  Dabei verändert sich beispielsweise die Akustik die der Spieler oder die Spielerin wahrnimmt, wenn das Dach verschwindet.

Bachelorarbeit:
Rekonstruktion und virtuelle Darstellung eines realen Gesichts (2020)

Aufgabe:

Die Aufgabe dieser Arbeit war es, das Gesicht einer Person realitätsnah in digitaler Form wiederzugeben.  Dabei sollen Möglichkeiten und Wege aufgezeigt werden, wie dieser Prozess aussehen kann.

Vorgehen:

Für das Erreichen dieses Ziels, habe ich zuerst eine Literaturrecherche begonnen und Möglichkeiten recherchiert die diesen Prozess angeben. Für die Umsetzung wurde eine Microsoft Kinect verwendet. Diese verfügten über mehrere Tiefensensoren die mit Hilfe von Infrarot funktionieren. Die Daten wurden anschließend in MeshLab angegeben und von dort aus bearbeitet. Aus der Literaturrecherche ging eine Möglichkeit hervor die für diesen Ansatz gut geeignet war. Demnach wurde dieser angewendet um die Rohdaten der Kinectausgabe zu einem fertigen Gesicht zu transformieren.

Zasd-Weltraumspektakel (2019-2020)

Aufgabe:

Im Rahmen einer kollaborativen Bachelorarbeit haben wir es uns zur Aufgabe gemacht, als 4er-Team gemeinsam ein Großprojekt umzusetzen. Die Idee dahinter war, die Szenen mit einer Polyskop-Apparatur zu verändern.

 

Wir wollten verschiedene Szenarien schaffen die in Form von Tafeln in den Apparat geschoben werden. Jede Tafel beschreibt eine eigene Welt die sich grundlegend von den anderen Welten unterscheidet. Das ausstehende Ziel ist es einen roten Faden zu finden, der durch die verschiedenen Szenerien durchgezogen wird + die Zusammenspielungen der  einzelnen Geschehnisse aufzeigt.Meine Szene behandelte das Thema Weltraum.

Vorgehen:

Für meine Szene habe ich zuerst die ganzen Daten zu den einzelnen Planeten die in dieser Szene verwendet wurden gesammelt. Die Planeten in der Szene bewegten sich entsprechend ihrer Werte. Werte wie beispielsweise der Durchmesser, die Gravitation oder die Form. Die Form wurde als Heightmap des Planeten abgespeichert und als Terrain gesetzt sobald ein neuer Planet mit dem Laserpointer ausgewählt wurde. Der Benutzer oder die Benutzerin steht dabei auf einer Holzplattform. Diese wurde mit Hilfe der Oculus Integration umgesetzt. Als VR-Headset für die Entwicklung und Testung wurde die Oculus Quest verwendet.

Stadt Land Fluss (2018-2019)

Aufgabe:

Innerhalb der Audio/Video Gruppe hatten wir die Aufgabe ein größeres Filmprojekt umzusetzen welches das Thema „Bilder hören“ umfasst. Dabei entstand eine Gruppe aus insgesamt 6 Personen und dabei fiel die Wahl auf einen Stop-Motion Film. Dieser soll die belebten Städte, die schönen Flüsse und die unberührten Naturflächen darstellen.

Vorgehen:

Für dieses Projekt haben wir anfangs einen Drehplan und einen Zeitplan erstellt. Diese Pläne ergaben dass wir uns in 3 Teams aufteilen und in diesen Teams Orte recherchieren die für eine Aufnahme in Frage kämen. Da unsere Klasse aus Personen aus allen Regionen in Österreich bestand, hatten wir hierfür gute Anhaltspunkte für Drehorte. Im Anschluss haben wir die Orte abgeglichen und diese gemeinsam überprüft bevor wir mit dem Filmprozess starteten. Da wir parallel die Szenen filmten brauchten wir 5 Tage um alle Szenen abgefilmt zu haben. Nun begannen wir mit der Post-produktion in Adobe Premiere. Dabei haben ein Kollege und ich die Szenen geschnitten.  Nachdem wir mehrere Feedbackschleifen durchlebt hatten, war das Endprodukt fertig und wurde auf Youtube hochgeladen.

Meine Aufgaben:

Konzeptentwicklung   ||   Kamera in der Stop-Motion Entwicklung   ||   Post-produktion