Künstliche Intelligenz kann Inhalte erfassen und zuordnen. Das wollen sich auch all diejenigen zunutze machen, die für Fernseh- und Videoproduktionen zuständig sind. Hier soll KI automatisiert Informationen aus einem audiovisuellen Medium extrahieren und sie all denjenigen zur Verfügung stellen, die heute vornehmlich auf einige wenige, manuell erstellte Metadaten angewiesen sind. Noch allerdings steckt die Entwicklung praxistauglicher Lösungen in den Kinderschuhen. Ein Beispiel ist das Projekt AI4MediaData, an dem auch das Fraunhofer IAIS beteiligt ist.

Hallo Herr Fisseler, Sie haben die Teamleitung Media Analysis Platforms am Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS und haben die Projektleitung im Konsortialprojekt AI4MediaData übernommen. Es gibt bereits eine Webseite, die das Projekt so erklärt: ‚AI4MediaData generiert Wissen über Medien-Inhalte und deren Nutzung, und verknüpft dazu Metadaten mit Nutzungsdaten auf einer Plattform zu Assistenzsystemen für Programmierer, Medienschaffende, Distributoren und Werbetreibende.‘ Danach folgen technische Erklärungen, die auf mich ebenfalls eher kryptisch wirken. Können Sie helfen zu verstehen, um was es bei diesem Projekt geht?

Das Projekt wird auf unserer Webseite natürlich sehr allgemein vorgestellt. Ich möchte das ein wenig konkretisieren: Letztlich untersuchen wir im AI4MediaData-Projekt, wie mithilfe Künstlicher Intelligenz Medienunternehmen bei ihrer täglichen Arbeit mit Medien unterstützt werden können. Dabei haben wir Projektpartner uns auf zwei Use Cases konzentriert, die sich an den Aufgaben von Programmplaner*innen orientieren. Beim Fraunhofer IAIS haben wir uns dabei mit einem Szenario befasst, bei dem ein Programmplaner oder eine Programmplanerin für einen bestimmten Sendeplatz nach passenden Inhalten sucht, weil auf diesem bestimmte Sendeformate bislang sehr erfolgreich waren.

 

Der »Bergdoktor«, »Terra X« oder die »Küchenschlacht«, wie sie zurzeit im ZDF gesendet werden, laufen aus. Nun sollen auf diese Programmplätze neue Formate gesetzt werden, die das Publikum weiter binden. Wäre das ein passendes Beispiel?

Dieses Beispiel geht schon in die richtige Richtung. Interessant wird der Einsatz des KI-unterstützten Auswählens von Inhalten aber vor allem bei Sendern und Programmplätzen, die nicht unbedingt so eine große Reichweite haben wie die von Ihnen genannten Programme. Ich will Ihnen eine Idee von AI4MediaData anhand von Asset Match erklären – das ist der Use Case, den wir beispielhaft durchgeführt haben. Dabei können wir gerne von Ihrer Grundannahme ausgehen, dass Programmplaner*innen dabei unterstützt werden sollen, für bestimmte Sendeplätze passende Sendungen zu finden. Unsere KI recherchiert dann anhand der Inhalte bisheriger Sendungen, die auf diesem Sendeplatz gelaufen sind, welche anderen Sendungen aus einer Datenbank sich gut eignen würden. Sinnvoll ist das vor allem für eher undankbare Sendeplätze, sagen wir Samstagvormittag oder für das Nachtprogramm. Hier ist es deutlich aufwendiger, anhand des bisher gesendeten Materials das passende Nachfolgeprogramm zu finden.

 

Was bedeutet »passend«? Meinen Sie in Bezug auf das Genre, die Schauspieler*innen und die Story? Oder erfassen sie auch Daten zu Faktoren wie Schnittgeschwindigkeit, Atmosphäre, Musikauswahl und Anspruch?

Das ist der für uns Forschende spannende Punkt: Denn es geht nicht darum, auf zwar digitale, aber relativ einfache Weise Vorschläge zu machen – ähnlich wie die Systeme auf Spotify oder Netflix das mithilfe der Metadaten tun. Dank der KI sind wir in der Lage, in Filme hineinzusehen und zuzuhören, um Inhalte zuordnen zu können. So werden beispielsweise die in einem Beitrag gesprochenen Worte und Bildinhalte analysiert, um Zusatzinformationen wie Ortsangaben, Personenangaben, Institutionen oder den Szene-Typus zu erfassen.

 

Also zum Beispiel Landschaftsaufnahmen. Oder Autofahrten. Oder Einbrüche.

Ja, aber auch beispielsweise Stadtszenen oder Innenaufnahmen. Denken Sie auch an Dokumentationen oder Filme mit historischen Persönlichkeiten. So können Interessierte später beispielsweise auch gezielt nach Inhalten suchen, die nur in einzelnen Szenen vorkommen. In den üblichen Filmbeschreibungen und Metadaten werden derartige Informationen nicht erfasst.

 

Ich kann mir allerdings nicht vorstellen, dass das für die Programmplanung tatsächlich ausschlaggebend ist.

Uns dient das Projekt dazu, die Grundlagentechnologie aufzubauen und weiterzuentwickeln. Das heißt in diesem Fall unter anderem, dass wir uns an das, was umsetzbar ist, herantasten, um dann Antworten zu finden, wie das konkret eingesetzt werden kann. Für Fraunhofer geht es bei AI4MediaData dabei vor allem um den Bereich der Videoanalyse: Wie können wir automatisiert möglichst viel an Informationen aus einem audiovisuellen Beitrag ‚herausholen‘? Hier gehen unsere Forschungen weit über das Erfassen einzelner Szenen hinaus. Wir nutzen für die Analyse beispielsweise auch Verfahren zur Gesichtsdetektion und zur Objekterkennung wie beispielsweise von Fahrzeugen, Tieren oder verschiedenen Lebensmitteln. Und wir wollen auch ganze Sequenzen detektieren und erfassen. Beispielsweise einen Kindergeburtstag oder eine Wanderung im Gebirge oder eine Situation in der Stadt. Dass wir dabei auf das Know-how und die umfangreichen Erfahrungen des Fraunhofer IAIS aus anderen Projekten zur Analyse von Mediendaten zurückgreifen können, ist ein großer Vorteil.

 

Was ist der nächste Meilenstein, denn Sie erreichen wollen?

Am Ende der Projektlaufzeit in einigen Monaten wollen wir so weit sein, dass unser KI-basiertes Verfahren einzelne Objekte in Bildern und Videos erkennt und wir prototypische Systeme vorstellen können. Dazu wird wohl zum einen das KI-erweiterte Empfehlungssystem gehören, über das wir eben gesprochen haben. Zum anderen aber wollen zwei weitere Partner auch einen Prototyp entwickeln, der inhaltliche Highlights in Fernsehsendungen erkennen kann. Eine kurze Auswahl von besonderen Szenen könnte dann beispielsweise die Produktion von Teasern erleichtern. An diesem Teil des Projekts ist das Fraunhofer IAIS allerdings kaum beteiligt.

(hen)

Keine Kommentare vorhanden

Das Kommentarfeld darf nicht leer sein
Bitte einen Namen angeben
Bitte valide E-Mail-Adresse angeben
Sicherheits-Check:
Zwei + = 11
Bitte Zahl eintragen!
image description
Interviewpartner
Alle anzeigen
Dr. Jens Fisseler
  • Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS
Weitere Artikel
Alle anzeigen
Audiosignale gekonnt optimiert
Expo 2020 in Dubai
Vernetzte Produktion – einfach über IP
Veranstaltungen
Alle anzeigen
Stellenangebote
Alle anzeigen