Contentious Constant II

Contentious Constant II im Planetarium Berlin
Contentious Constant II im Planetarium Berlin

 

Das Spatial Media Lab unterstützte die Stiftung Planetarium Berlin beim tontechnischen Teil der Produktion Contentious Constant II, im Zeiss-Großplanetarium in Berlin am 25.11.18.

Die Stiftung Planetarium Berlin hat das Event organisiert. Georgios Mavrikos  war zuständig für die Produktion und die Kuration. Wir teilen eine ästhetische Vision mit ihm und wir wollen zusammen neue Wege für Künstler erschliessen um im Planetarium im speziellen, und mit raumgreifenden Medien im allgemeinen zu arbeiten.

© SPB / Foto: Frank-Michael Arndt/skyart@fmarndt.de

Bei der Einrichtung des Audiosetups hat Timo Bittner alle Lautsprecher der Kuppel erneut eingemessen und mithilfe eines extra Audioprozessors (Q-Sys 510i) entzerrt und auf unseren ambisonics-basierten Ansatz angepasst.

Wir benutzen zur Zeit in erster Linie die IEM Plugin-Suite von der Kunstuniversität in Graz, da sie Open Source ist und sehr gut gepflegt wird. Wir erstellten die Konfiguration für die Kuppel mit dem AllRADecoder Plugin, um dieses dann im Simple Decoder einzusetzen und die 16-Channel 3. Order Signale welche wir zur Signalverteilung nutzen zu decodieren. Das Lautsprecherarray besteht aus 49 Lautsprechern in der Kuppel und 8 Subwoofern, welche an 4 Positionen um die Kuppel platziert sind.

Statt die Signale der Künstler nur neu zu verteilen, entschlossen wir uns zu einem  umfassenden 3D Ambisonics Workflow. Das Decoding, Mixen und Rendern der Künstlersignale haben wir auf einer X2-Maschine von XI-Machines in Echtzeit gemacht. Diese funktionierte sehr gut und hat uns ausreichend Leistungsreserven gegeben um schnell und flexibel auf sich permanent ändernde Anforderungen einzugehen. Als Audiointerface war eine Dante-Rednet-Karte von Focusrite verbaut. Die gesamte Audiosignaldistribution vom Künstler über den X2-Renderer und den Q-Sys -Core bis zum Lautsprecher wurde über ein Dante Netzwerk abgewickelt.

Screenshot vom AllraDecoder mit Planetarium Setup

Wir haben individuelle Sessions mit jedem Künstler geplant und hier und im vorhinein Wissen vermittelt, welches für den 3D-Produktionsprozess von Nöten ist, sowie die hierfür benötigten Werkzeuge erklärt und gezeigt. Reaper war die DAW der Wahl, da es bis zur 7. Ordnung Ambisonics unterstützt. Für das Encoding haben wir den Stereo- und den Multiencoder von IEM benutzt. Andrew Rahman kümmerte sich um die 3D Umsetzung von James Ginzburgs Stück Nimbes, sowie um die Komposition von Jay Glass Dubs  und unterstützte PYUR in ihrem 3D-Prozess.

Wir haben den Künstlern eine umfangreiche Dokumentation zur Verfügung gestellt und sie mit ästhetischen Tipps und Hilfestellungen unterstützt.

©Mihaly Podobni fenytkepezo.tumblr.com

Aufgrund der unterschiedlichen technischen Anforderungen, hatten wir sehr verschiedene Herausforderungen bei der Arbeit mit den Künstlern zu bewältigen. Um eine Fernsteuerung für die Positionierung der Signale in Echtzeit zu ermöglichen wurden Ipads mit diversen Lemur Setups benutzt. Diese kommunizieren über OSC mit dem X2-Renderer und geben den Künstlern die Möglichkeit in Echtzeit einzugreifen. Alexander Phleps hat im vorhinein extra angepasste Templates jeweils für Peter Kirn, Jay Glass Dubs, PYUR and Music for your plants erstellt.

Um die Liveaudioeingänge von Peter Kirn zu realisieren haben wir die analogen Signale mit einem Yamaha QL1 gewandelt, bearbeitet und dann über Dante in die X2-Maschine geroutet. Hier wurden die Live verräumlicht, zu den passenden Backingtracks.

James Ginzburgs Stück, welches extra neu gemischt wurde, musste frame-synchron zu dem dafür produzierten Video abgespielt werden. Hierzu haben wir ein LTC-Timecodesignal vom Videoserver des Planetariumsystems genutzt.

Music for your plants hat in Echtzeit gerenderte und vorgerenderte Signale gemischt und dann über eine Dante Virtual Soundcard die 16 Kanäle an den X2-Renderer geschickt.

©Mihaly Podobni fenytkepezo.tumblr.com

Auch wenn wir nur zwei Wochen Zeit hatten im Planetarium zu arbeiten – Nachts, als das Planetarium geschlossen war, um das normale Programm nicht zu stören – war die Show ausverkauft, und wir haben sehr positives Feedback von allen Seiten bekommen. Dies ist das erste Projekt in unserer Zusammenarbeit mit dem Planetarium und in der nahen Zukunft werden wir diverse weitere Workshops organisieren. Themen hierfür sind die Audioproduktion in 3D und unser nächstes großes Thema:  Echtzeit gerenderte Videos auf der Kuppel. Zur Zeit werden die Videos vorgerendert und dann abgespielt. Zwischen Februar und März planen wir dafür einen Hackathon um mögliche Vorgehen zu erforschen.

©Mihaly Podobni fenytkepezo.tumblr.com

Wir bedanken uns sehr herzlich bei Tim Florian Horn, den Direktor der Stiftung Planetarium Berlin, für die Möglichkeit unser System zu nutzen und die Unterstützung. Wir danken auch XI-Machines, welche uns den X2-Renderer zur Verfügung gestellt haben und bei der Ambion GmbH welche uns mit einem Q-Sys Core und umfangreicher Infrastruktur unterstützt haben. Ohne diesen Support wäre das Event in dieser Form nicht möglich gewesen.

Das Spatial Media Lab hat die Vision einfachere Zugänge und bessere Erlebnisse, zu und von raumgreifenden Medien auf Live-Events und Zuhause zu ermöglichen. Uns geht es nicht nur um die visionslose Erzeugung von 3D Inhalten, sondern darum zum Nachdenken anregende und interessante Erlebnisse zu schaffen, welche die technologischen Grenzen verschieben – immer mit einem starken ästhetischen Fokus.

© SPB / Foto: Frank-Michael Arndt/skyart@fmarndt.de

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.