Muster im Medienstrom 

Wie wird im deutschen Fernsehen über das Thema Klimaschutz gesprochen? Welche Politiker*innen kamen dazu wiederholt zu Wort? Wurde bloß die Stimme eingespielt oder auch das Gesicht gezeigt? Eine vom Fraunhofer-Institut für Digitale Medientechnologie IDMT entwickelte Media Intelligence-Plattform macht solche quantitativen Analysen und Auswertungen von audiovisuellen Berichterstattungen möglich – und das automatisiert und niedrigschwellig. 

Softwarebasierte quantitative Inhaltsanalysen basieren bislang meist auf manuell erstellten Codebüchern – das sind detaillierte, engmaschige Kategorisierungen, auf deren Basis Medienbeiträge ausgewertet werden. Die eigentliche Codierung, also die Einordnung der ausgewerteten Beiträge in die vorab festgelegten Kategorien, erfolgt bislang oft per Hand nach Sichtung des Materials. Gerade im Bereich linearer und nicht-linearer audiovisueller Berichterstattungsformate, also im Fernsehen, in Videos auf Social-Media-Plattformen oder für Material in Mediatheken, ist das eine kaum zu bewältigende Aufgabe für Redakteure und Redakteurinnen, Mitarbeitende von Politikagenturen, sowie interessierte Menschen aller Art. Denn für belastbare Aussagen müssen oft hunderte bis tausende Stunden Video -und Audiomaterial ausgewertet werden – also etliche Giga- bis Terabyte an Daten. Noch dazu verbindet die audiovisuelle Berichterstattung gleich zwei Aussageebenen (Bild und Ton) miteinander, was eine händische Auswertung erheblich erschwert.  

All-In-One-Softwarelösungen, die automatisch Personen, Themen und Inhalte in Video- und Audiobeiträgen erkennen, auswerten und die Ergebnisse intuitiv erfassbar visuell aufbereiten können, gab es bisher kaum. »InsightPersona«, eine am Fraunhofer-Institut für Digitale Medientechnologie IDMT entwickelte Recherche- und Analyseplattform macht dies nun möglich. Die Plattform nutzt KI-basierte Technologien zur Analyse von Audio- und Video. Damit haben die Fraunhofer-Wissenschaftler*innen eine leistungsfähige Media Intelligence-Plattform geschaffen. Die Analysekomponenten erkennen Gesichter und Stimmen in Video- und Audiodateien, ordnen diese Personen zu und quantifizieren die Präsenz dieser Personen oder Personengruppen in der Medienberichterstattung. Auch Inhalte und Themen von Gesprächen analysiert »InsightPersona« automatisiert.  

Alle Ergebnisse werden über ein benutzerfreundliches User-Interface dargestellt. Die Nutzenden können zwischen verschiedenen Darstellungsarten wählen und sich die Häufigkeitsverteilungen über auswählbare Analysezeiträume ausgeben lassen. Einzelne Aussagen können dabei gezielt bis auf die Ebene des einzelnen Datenschnipsels, sprich Videoausschnittes, zurückverfolgt werden.  

»InsightPersona« richtet sich nicht nur an Unternehmen oder Forschungsinstitutionen, die ihre eigene oder eine fremde Medienpräsenz analysieren wollen. Auch Medienschaffende, vor allem Journalist*innen und Content Creators, profitieren von »InsightPersona« – etwa zum Fact-Checking – und sparen sich aufwändige manuelle Durchsichten audiovisueller Daten. 

Wie »InsightPersona« entstand, wie die KI-basierte Analyse dahinter funktioniert und welchen Mehrwert automatisiert arbeitende Media Intelligence-Lösungen mit sich bringen, darüber sprechen wir mit Uwe Kühhirt und Christian Rollwage vom Fraunhofer IDMT in der neuen Folge von »Fraunhofer Innovisions: Nachgeforscht«. Uwe leitet die Gruppe »Audiovisual Systems« und entwickelt visuelle Analysekomponenten. Christian leitet die Gruppe »Audiosignalverbesserung« und ist für die Sprach- und Sprecheranalyse zuständig.  

Jetzt reinhören auf:

Apple Podcasts

Soundcloud

Spotify

YouTube

(rah)


Uwe Kühhirt

Christian Rollwage

Kommentar schreiben

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert