Mit Virtual LiVe haben drei Fraunhofer-Institute vor einem größeren Publikum demonstriert, welche Vorteile immersive Audio- und Videoübertragungen haben können: Zumindest im Ansatz ist ihre Technik bereits heute in der Lage, ortsfernes Publikum so in ein Event einzubinden, dass sich das Gefühl des Live-Dabeiseins einstellen kann. Nach einem ersten InnoVisions-Interview zur Technik und dem Erfolg im Planetarium Bochum erklärt Projektleiter Weissig vom Fraunhofer HHI, warum Virtual LiVe trotzdem nur ein Testlauf gewesen sein kann und die weitere Entwicklung noch offen ist.

Hallo Herr Weissig, bevor wir auf das Projekt Virtual LiVe eingehen, möchte ich Ihnen etwas vorlesen, was mein Journalistenkollege Ludwig Kapeller vor genau 100 Jahren geschrieben hat: »Der Rundfunk von morgen wird so aussehen: ein Druck auf den Knopf und England kommt, Boxkampf in London, mit Fäustekrachen oder Amerika meldet sich mit Jazz-Band-Synkopen oder Rom mit den bunten Bildern italienischer Opern. Oder plötzlich erleben wir von der Regie irgendwo inszeniert, mit Verzweiflungsschreien, einen Untergang der Titanic.« Der Rundfunk von morgen, so prophezeit es Kapeller bereits im Jahr 1922, werde es zunehmend ermöglichen, plastische Erlebnisse so zu generieren, dass sie mit all unseren Sinnen erfasst werden können. Deshalb meine Frage: Gehören Sie und Ihr Team vom Fraunhofer-Institut für Nachrichtentechnik, Heinrich-Hertz-Institut, HHI zu den Ingenieur*innen, die dieses Erlebnis bald ermöglichen?

Das sind große Worte und große Erwartungen. Und sie sind prosaisch, vor allem wenn man sie in Bezug zu Virtual LiVE setzen will. Auch wenn es uns mit visuellen und akustischen Mitteln gelungen ist, die Atmosphäre von einem Ort an einen anderen Ort so wiederzugeben, dass wir einem Live-Dabei-Erleben recht nahegekommen sind, war das Projekt Virtual LiVe in seinen Möglichkeiten wegen der kurzen Laufzeit doch recht begrenzt. Vielmehr wurde die Basis dafür bereits in vorangegangenen Projekten geschaffen.

Sie haben ein Livekonzert vom Berliner Kesselhaus in das Planetarium Bochum übertragen …

Bei dieser prototypischen Übertragung haben wir zwar gesehen, wie erfolgreich unsere Forschungen sind, um das Konzert auch für die Bochumer und Bochumerinnen immersiv und damit auch äußerst intensiv erlebbar zu machen. Aber das, was in Ihrem Interview »Livehaftig – Wenn Orte verschmelzen« mit meinem Kollegen Dr. Louay Bassbous vom Fraunhofer FOKUS so anschaulich beschrieben wurde, war letztlich nur eine Demonstration, die erst in Folgeprojekten weiterentwickelt und in Richtung Marktreife gebracht werden muss. Aber wenn Sie mich nach einer grundsätzlichen Entwicklungslinie Richtung immersiven Medienerlebens fragen, so wie das Ihr Zitat beschreibt, war Virtual LiVe mit Sicherheit ein wichtiger Meilenstein. Nicht zuletzt, weil das öffentliche Interesse an unseren Forschungen vergleichsweise hoch war. Aber es war trotzdem nicht das Einleiten eines neuen Übertragungszeitalters, bei dem alle Sinne so angesprochen werden, als wäre man dabei gewesen. Dafür fehlt schlicht noch eine flächendeckende und robuste technische Bandbreite für die latenzarme Übertragung.

Aber das Interesse an derartigen hybriden, oder generell möglichst immersiven Rezeptionserlebnissen steigt. Deshalb scheint das Ende des Forschungsprojekts vor rund einem Jahr überraschend. Zumindest in Anbetracht der Tatsache, dass es keine Folgeprojekte gab.

Das ist ein Missverständnis. Virtual LiVE war kein Forschungsprojekt im klassischen Sinne, denn wir haben in diesen rund neun Monaten keine neuen Technologien entwickelt. Die Idee von Virtual LiVE war eher die Integration relevanter Technologien der beteiligen Institute mit dem Ziel, mit interessierten Unternehmen ins Gespräch zu kommen und gegebenenfalls gemeinsam neue Anwendungen zu entwickeln. Auch deshalb beschäftigen uns die Auswertungen und Erfahrungen durch Virtual LiVE bis heute, und tatsächlich gibt es inzwischen erste gemeinsame Initiativen, die sich daraus entwickelt haben.

Das gilt natürlich auch für Tools und das TiME Lab, die Ihr Fraunhofer HHI eingebracht hat.

Hinter dem Tomorrow‘s immersive Media Experience Lab oder eben kurz: TiME Lab verbirgt sich eine Kette von Systemen und Anwendungsfeldern, die für unsere Arbeit für Virtual LiVE ideal waren. Dank des TiME Lab sind wir in der Lage, gemeinsam mit Partnern und Partnerinnen wichtige Forschungen und Werkzeuge zu zukunftsweisenden und multisensorischen, immersiven Medientechnologien zu betreiben und zu testen. Dafür sind unter anderem auch von den Fraunhofer Instituten entwickelte Audio-Technologien und Kamerasysteme verantwortlich. Beispielsweise die OmniCam-360, die es ermöglicht, Großereignisse wie Konzerte in 360 Grad und Echtzeit zu übertragen. Auch darüber hat InnoVisions ja schon berichtet.

Wobei es – auch das wurde durch Virtual LiVE zumindest angedeutet - nicht nur um die Übertragung von Konzerten oder Sportereignissen geht, sondern auch um Möglichkeiten des Zusammenführens von entfernt agierenden Personen - so als wäre man in einem Raum. Keith Richards von den Rolling Stones hatte in einem Interview kürzlich gesagt, das größte Problem bei den Stones sei stets, alle Mitglieder zur gleichen Zeit in ein Studio zu bekommen. Denn das sei die Voraussetzung für das Entstehen von neuer Musik. Die Bandmitglieder sind mittlerweile um die 80 Jahre alt. Werden die Stones derartige Vorzüge wie ein immersives, audiovisuelles Zusammenspiel ‚Made by Fraunhofer‘ noch nutzen können?

Das hängt natürlich von der Konstitution der Stones ab. Aber eben nicht nur. Ein Flaschenhals ist die Fülle an Daten, die latenzfrei übertragen werden müsste. Bei Virtual LiVE ist es uns gelungen, zumindest die Audioinformationen mit einer ausreichend geringen Latenz zu übertragen, was für Musiker und Musikerinnen natürlich grundlegend ist. Bei den Bildern ist diese geringe Latenz noch nicht möglich, ohne zu große Bandbreiten zu benötigen. Deshalb mussten die Bildinformationen zwischen den Musikern letztlich noch mit klassischen HD-Kamerasignalen ausgetauscht werden.

Aber das war zumindest so erfolgreich, dass Sie nicht nur vermehrt in Kontakt mit KMUs gekommen sind, sondern es auch ein sehr konkretes Interesse gibt, diese Form der Übertragung weiter zu nutzen.

Da ist was dran. Wir werden die Erfahrungen nun nutzen und die Techniken weiterentwickeln, um das immersive Streaming von Live-Ereignissen in verschiedenen Planetarien zur Verfügung zu stellen. Der Oktober 1923 gilt als Geburtstag des Projektionsplanetariums. Dafür scheint uns das ein guter Anlass zu sein. Wir arbeiten deshalb mit verschiedenen Künstlern und Künstlerinnen an Konzepten, um einige dieser Planetarien gemeinsam zu bespielen und vor allem auch interaktiv zu nutzen.

(aku)

Keine Kommentare vorhanden

Das Kommentarfeld darf nicht leer sein
Bitte einen Namen angeben
Bitte valide E-Mail-Adresse angeben
Sicherheits-Check:
Zwei + = 5
Bitte Zahl eintragen!
image description
Experte
Alle anzeigen
Christian Weißig
  • Fraunhofer-Institut für Nachrichtentechnik Heinrich-Hertz-Institut HHI
Weitere Artikel
Alle anzeigen
Expo 2020 in Dubai
Vernetzte Produktion – einfach über IP
Livehaftig – Wenn Orte verschmelzen
Stellenangebote
Alle anzeigen