»Hat‘s geschmeckt?«, »Hat es Ihnen gefallen?« oder »Haben Sie etwas zu beanstanden?«. Nur selten antworten wir ehrlich auf solche Fragen. Sei es aus Höflichkeit oder auch, weil wir uns und andere nicht bloßstellen wollen. Dabei sind Kritiken wertvoll. Und was im Restaurant, im Theater oder im Hotel gilt, hat auch Gültigkeit im Bereich der Produktbeurteilung. Gefällt das neue Gerät wirklich? Lässt es sich problemlos bedienen? Fragen wie diesen geht das Affective Computing nach. Nina Holzer vom Fraunhofer IIS erklärt Hintergründe und Nutzen ihres Forschungsbereichs.

Hallo Frau Holzer, in der Vorbereitung auf unser Gespräch hatte ich mir einen Satz notiert: »Wenn du wissen willst, welche Probleme es beim User Interface geben kann, dann frag doch einfach den oder die User*in!«

Ja, das ist eine gute Möglichkeit, allerdings werden bei direkten Befragungen viele, vielleicht auch unbewusste, Reaktionen des Nutzers nicht erfasst. Affective Computing geht hier noch weiter. Es versteht unter dem Terminus „Fragen“ computergestütztes Erfassen bewusst und unbewusst getroffenen Mikroverhaltens.

Sie sind Gruppenleiterin Multimodal Human Sensing am Fraunhofer-Institut für Integrierte Schaltungen IIS und suchen nach geeigneten Methoden, um menschliche Emotionen zu messen.

Uns geht es darum, Probleme von Nutzer*innen etwa im Umgang mit Geräten, Produkten oder Programmen zu erfassen, um die Anwendbarkeit zu verbessern. Und dabei spielen natürlich auch Emotionen eine wichtige Rolle.

Dafür nutzen Sie auch Künstliche Intelligenz?

Für die Auswertung, ja. Affective Computing, so wie wir es am Fraunhofer IIS verstehen, ist eine Kombination aus psychologischem und physiologischem Wissen sowie Informatik. So erhalten wir anschauliche Ergebnisse, wie ein Mensch auf einen bestimmten Stimulus wie beispielsweise eine Webseite reagiert, durch die er navigieren soll.

Das bringt mich zurück auf den Anfang unseres Gesprächs: Warum fragen Sie ihn oder sie nicht einfach?

Das wäre in der Tat naheliegend. Aber antworten Sie immer ehrlich? Ohne jemanden nahe zu treten: Als Mann mittleren Alters haben Sie vielleicht Schwierigkeiten zuzugeben, dass Sie mit dem technischen Angebot einer Soundanlage nicht so gut umgehen können, wie Sie vorgeben. Und eine versierte Autofahrerin ist sich bei einzelnen Bezeichnungen im Fahrzeugkonfigurator vielleicht doch nicht mehr sicher, ob sie alle Termini und die Handhabung sofort richtig versteht. Sie beide werden probieren und vielleicht Glück haben. Obwohl Sie die Auswahlseite der Soundanlagen unsicher macht oder der Konfigurator Nachbesserungsbedarf hat, würde man das mit Aussagen allein nur schwer feststellen.

Hinzu kommt, dass ich kaum sicher darüber Auskunft geben kann, an welchen Stellen genau die Nutzung der Webseite oder auch die Programmierung eines Gerätes mir Probleme verursacht haben.

Zumindest kurze Phasen der Irritation, des Überlegens oder der Unsicherheit sind so wenig auffällig oder klar zuordenbar, dass Proband*innen sie kaum in unserem Fragebogen verbalisieren können, den sie anschließend ausfüllen sollen. Denken Sie an das Suchen eines »Kaufen«-Buttons, den Sie nicht sofort sehen. Für eine einzelne Testperson spielt das kaum eine Rolle, für die Usability einer Website, die täglich von hunderten oder tausenden User*innen besucht werden soll, aber durchaus.

Sie setzen deshalb, und damit kommen wir zu Ihrem eigentlichen Aufgabengebiet, nicht auf Befragungen, sondern auf die Analyse der körperlichen Reaktionen bei den Proband*innen.

Befragungen spielen für uns durchaus eine wichtige Rolle. Unser Team besteht aus Psycholog*innen, Informatiker*innen und Mathematiker*innen und deckt damit ein so breites Sachgebiet ab, dass wir auf drei verschiedenen wissenschaftlichen Ebenen arbeiten können. Zum einen erfassen wir das subjektiv Erlebte, wozu wir Fragebögen oder Befragungen nutzen. Die zweite Ebene ist eine Verhaltensebene, die wir beispielsweise mit Gesichtsanalysen untersuchen: Wie bewegen sich Mund und Gesichtszüge eines oder einer Proband*in? Was lässt sich aus seiner oder ihrer Mimik insgesamt herauslesen? Wir arbeiten dafür mit der Gesichtserkennungssoftware SHORE© zu kontaktlosen Emotionsanalyse, die hier am Fraunhofer IIS entwickelt wurde. Und wir benutzen unter anderem auch klassisches Eyetracking, um die Augenbewegungen und die Größe der Pupille zu erfassen. So können wir feststellen, ob unsere Testperson gezielt vorgehen kann oder sich auf der Seite immer wieder kurz neu orientieren muss.

Und die dritte Ebene?

Die dritte Ebene ist eine physiologische. Wir nutzen die elektrischen Signale etwa von einem EEG, dass die Gehirnströme erfasst, und wir messen mit einem auf den Bauch geklebten Gurt sogar die Darmaktivität. Auch die Hauttemperatur nutzen wir, um die aktuelle Befindlichkeit eines Menschen einzuschätzen. All das zusammen ergibt ein Gesamtbild, das sehr objektiv darüber Auskunft gibt, wie User*innen bei der Bedienung eines Gerätes, eines Spiels oder von Webseiten überfordert werden, beziehungsweise wie sie damit zurechtkommen.

Ich würde mich allerdings schon vor Beginn der Testphase unwohl fühlen, weil mich die für Ihre Analyse notwendigen Verkabelungen irritieren.

Es gibt eine Gewöhnungsphase, während der wir die Probanden auf unseren Test vorbereiten. Die eigentlichen Tests können dann in einer sehr entspannten Atmosphäre stattfinden.

Trotzdem dürfte es schwierig sein, die einzelnen Testergebnisse miteinander zu vergleichen.

Wir haben dafür in speziellen Vorbereitungstests einen »Überforderungsklassifikator« entwickelt, der uns die spezifische Einordnung der Testergebnisse erleichtert. Mithilfe Künstlicher Intelligenz haben wir Algorithmen entwickelt, die einzelne Analyseergebnisse aus den drei Ebenen gewichten, um zu einem validen Gesamtergebnis zukommen. Dabei werden übrigens auch die äußeren Umstände mit einkalkuliert. Denn wenn sich beispielsweise der Lichteinfall während des Tests ändert, ändert sich natürlich auch die Pupillengröße, ohne dass das etwas mit der Usability an sich zu tun hat.

Trotzdem stelle ich es mir schwer vor, eine Vergleichbarkeit einzelner Testergebnisse zu gewährleisten.

Auch deshalb ist der Einsatz neuronaler Netze so wichtig. Wir haben sie intensiv und zum Teil wochenlang trainiert, um zu analysieren, an welcher Stelle ein Proband oder eine Probandin überfordert ist. Und die gewonnenen Daten fließen dann in weitere Trainings. Die KI wird also immer exakter. Vor allem, was die Gewichtung einzelner Parameter untereinander anbetrifft. Denn manche Testpersonen sind beispielsweise schneller aufgeregt und haben deshalb einen höheren Pulsschlag als andere. So können Messfehler entstehen, die die Künstliche Intelligenz immer besser erkennt und bereinigt.

Sie arbeiten also noch nicht an konkreten Studien in Bezug auf einzelne Geräte oder Webseiten, sondern betreiben eher eine Art Grundlagenforschung?

Wir arbeiten in der Tat eher grundsätzlich, um die KI zu trainieren und den Forschungsbereich das Affective Computing so weit zu vertiefen, dass wir einen noch deutlicheren Mehrwert im Bereich der Usability bieten können. Das schließt allerdings nicht aus, dass wir auch heute schon mit Kunden zusammenarbeiten, um Produkttests durchzuführen, um valide und auf Daten gestützte Aussagen über das »Liking eines Produktes« zu machen.

 

(aku)

Keine Kommentare vorhanden

Das Kommentarfeld darf nicht leer sein
Bitte einen Namen angeben
Bitte valide E-Mail-Adresse angeben
Sicherheits-Check:
Vier + = 8
Bitte Zahl eintragen!
image description
Interviewpartner
Alle anzeigen
Nina Holzer
  • Fraunhofer-Institut für Integrierte Schaltungen IIS
Weitere Artikel
Alle anzeigen
Plattform im Bau
Software sanieren
Mehr Effizienz für nachhaltige Perfektion
Veranstaltungen
Alle anzeigen
Stellenangebote
Alle anzeigen