Fast die Hälfte aller Internetnutzer*innen ab 16 Jahre nutzen Sprachbefehle, um mit technischen Geräten zu kommunizieren. Im privaten Umfeld sind Sprachassistenten längst allgegenwärtig – von der Smartwatch und dem Smartphone bis zur Heimelektronik und dem Auto. Am Arbeitsplatz ist Voice-Communication dagegen kaum zu finden. Der Grund: Unternehmen haben Bedenken bei Sicherheit und Datenschutz. Insbesondere, weil nahezu keine der genutzten Assistenzplattformen europäischem Recht unterliegen. Deutsche Forscher*innen entwickeln nun einen Sprachassistenten, den Unternehmen nur für sich einrichten

Zwei Hände hat der Mensch. Mehr nicht. Auch wenn er bei vielen Tätigkeiten mehr gebrauchen könnte. Am Arbeitsplatz zum Beispiel, wenn er mit beiden Händen an einem Gerät oder einer Maschine hantiert. Wer kann für ihn in der Anleitung nachsehen, welcher Handgriff als Nächstes kommt? Oder wie füllt er parallel zur Arbeit sein Arbeitsprotokoll aus? In Situationen wie diesen fehlt eine dritte Hand oder zumindest eine alternative Lösung des Problems. Und das, obwohl es diese längst gibt. Zuhause, beim Kochen zum Beispiel. In vielen Haushalten übernimmt das gesprochene Wort die Funktion einer dritten Hand. »Hey Google, lies mir das Rezept noch einmal vor«, »Alexa, schreib Eier und Mehl auf den Einkaufszettel«. Und der angesprochene Sprachassistent agiert unverzüglich und – zumindest in den meisten Fällen – auch wie ihm geheißen.

Warum aber bieten Unternehmen ihren Mitarbeiter*innen oder denen ihrer B2B-Partnerfirmen im beruflichen Umfeld nicht eine ähnlich komfortable Unterstützung? Hat die Businesswelt die technologische Entwicklung der Voice Communication gar verschlafen? »Dass Sprachassistenz Zukunft hat und mit ihr große Produktivitätspotenziale erreicht werden können, steht in den Unternehmen außer Frage. Was die Unternehmen davon abhält, Sprachassistenzsysteme in größerem Umfang einzusetzen, sind zahlreiche, immer noch offene Fragen zum Datenschutz«, sagt Johannes Fischer vom Fraunhofer-Institut für Integrierte Schaltungen IIS.

 

DSGVO-Konformität und Schutz des Unternehmenswissens

Bereits die Vorgaben der europäischen Datenschutzgrundverordnung DSGVO seien mit den im privaten Bereich so erfolgreichen Sprachassistenzsystemen für die Unternehmen nicht oder nur sehr schwer zu gewährleisten. Die Anbieter sind in den allermeisten Fällen US-amerikanische und asiatische Unternehmen und die Verarbeitung und Speicherung ihrer Cloudlösungen international vernetzt. Sprachdaten sind aber laut Gesetz immer als personenbezogene Daten anzusehen. Ein Unternehmen muss daher lückenlos kontrollieren und nachweisen können, was mit dem gesprochenen Wort ihrer Mitarbeiter*innen oder Geschäftspartner*innen geschieht. »Gegen den Einsatz der Sprachassistenten spricht aber noch ein weiterer gewichtiger Grund: Die Inhalte, über die gesprochen wird. Denn oftmals geht es um Unternehmensinterna – von der Verwaltung und Produktion bis zum Austausch mit Partnerunternehmen. Diese dürfen natürlich weder in die falschen Hände geraten noch als sogenannte ›Trainingsdaten‹ verwendet werden, mit denen Sprachassistenzsysteme ihr Sprachverständnis auch dann verbessern, wenn sie gar keine unmittelbare Aufgabe erledigen sollen«, betont Oliver Walter vom Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS.

 

Business-Sprachassistenz »Made in Germany«

Doch die Vielzahl an Bedenken, die Sprachassistenten für Unternehmen nicht besonders »ansprechend« machen, können nun ausgeräumt werden – und das mit durchgehend validen Begründungen. Denn Forscher*innen von Fraunhofer IIS und Fraunhofer IAIS entwickeln derzeit gemeinsam mit über fünfzig Unternehmen ein neuartiges Sprachassistenzsystem, das speziell auf die Anforderungen der Unternehmen und des Datenschutzes in der deutschsprachigen DACH-Region ausgerichtet ist. Im Rahmen des vom Bundesministerium für Wirtschaft und Energie geförderten Projekts »SPEAKER« soll bis zum Jahr 2023 eine neuartige Assistenzplattform entwickelt werden, mit der auch Unternehmen in der Business-to-Business-Kooperation die Vorteile der Voice-Communication bedenkenfrei nutzen können.

Wesentlich dafür ist, dass alle Komponenten des Systems in einem deutschen Rechenzentrum gehostet sind. Sämtliche Daten, die verarbeitet und gespeichert werden, bleiben also zu jeder Zeit innerhalb der Landesgrenzen. »Nur eine deutsche ›Kopie‹ der etablierten Sprachassistenzsysteme aufzubauen, würde allerdings nur einen Teil des Problems lösen«, sagt Johannes Fischer vom Fraunhofer IIS. Denn selbst wenn durch das Inland-Prinzip eine bedeutende Voraussetzung für den Datenschutz erfüllt sei, ist das unternehmenseigene Wissenskapital damit noch längst nicht sicher. Denn die etablierten Sprachassistenten verwenden die Kommunikation ihrer Nutzer*innen in der Regel auch dafür, ihre KI-Systeme ganz generell zu trainieren. Das Fachgespräch über den Bauplan einer Schaltung, der die Alleinstellung gegenüber der Konkurrenz ausmacht, oder eine exklusiv für den eigenen Support entwickelte Frage-Antwort-Steuerung könnten dadurch bald schon »in aller Munde« sein. Der Verbleib spezifischen Unternehmens-Know-hows im Unternehmen ist so also nicht zu gewährleisten.

Bei SPEAKER verfolgen die Entwickler*innen daher einen neuen, ganz anderen Ansatz: Die Plattform bietet Unternehmen nicht das eine Sprachassistenzsystem, das alle Nutzer*innen gemeinsam verwenden. »Stattdessen stellt die SPEAKER-Plattform den Unternehmen alle Technologien und Komponenten zur Verfügung, damit jedes Unternehmen ›sein‹ Assistenzsystem einrichten, trainieren und verwenden kann«, erklärt Walter.

 

KI-Training ohne Clouderfahrung

Das Problem dabei: Wie soll die Sprach-KI die Fachterminologie der verschiedenen Branchen und die Themen der Geschäftskommunikation kennen und verstehen lernen, wenn die gemeinsame Cloud mit den gesammelten Sprachdaten der Nutzer*innen wegfällt? Um dies zu ermöglichen, setzen die Forscher*innen auf ein zweistufiges Konzept. Die Basis ihres Sprachassistenten ist eine KI, die auf eine grundlegende Alltagskommunikation in deutscher Sprache bereits gut vortrainiert ist. »Mit ihr erzielen wir in vielen Bereichen sogar bessere Ergebnisse in der Voice-Communication als die großen, internationalen Plattformen«, sagt Fischer. Ein entscheidender Grund dafür sei der Umstand, dass die Wissensgraphen der KI auf die Grammatik und den Wortschatz der deutschen Sprache spezialisiert sind. Bei den internationalen Assistenzsystemen dagegen ist Deutsch nicht die Hauptsprache, sondern lediglich eine Nebensprache unter vielen.

In der zweiten Stufe lernt die allgemeine Sprach-KI zusätzlich die Branchenterminologien sowie die firmenspezifischen Begrifflichkeiten und Sachzusammenhänge eines Unternehmens. Auch dafür ist es nicht notwendig, dass die KI erst über einen längeren Zeitraum hinweg der im Unternehmen üblichen Kommunikation zuhört und dadurch schrittweise seinen Sprachschatz erweitert. Denn SPEAKER ist in der Lage, sich dieses Wissen selbst »anzulesen«. Um Begrifflichkeiten der Branche und unternehmenseigenen Produktbezeichnungen sowie deren Verwendung im Zusammenhang in die Wissensgraphen der Sprach-KI mit aufzunehmen, reichen schriftliche Aufzeichnungen. Für diesen Selbstlernprozess kann das System strukturierte und unstrukturierte Daten unterschiedlichster Art verarbeiten. »Das können PDF- oder Word-Dateien wie Gebrauchsanweisungen, Prozessdokumentationen und Fachveröffentlichungen sein, oder auch Datenbanken wie der Bauteilekatalog oder die Auftragsverwaltung«, erläutert Walter. Das Projektteam bietet den Unternehmen an, die Sprach-KI bereits im Vorfeld um domänenspezifisches Know-how zu erweitern und unterstützt bei der Integration firmenspezifischer Daten. Denn das Aufbereiten und Anbinden der heterogenen Datenquellen an die Analysealgorithmen der SPEAKER-Plattform ist derzeit – zumindest teilweise – noch eine Aufgabe, die Spezialist*innen übernehmen müssen. Das Ziel der Forscher*innen aber ist es, die dafür notwendigen Methoden und Schnittstellen so zu vereinfachen, dass Unternehmen das firmenindividuelle Anlernen der Sprach-KI eigenständig und ohne Experten-Know-how durchführen können.

 

Sprachverarbeitung auf Best-Practice-Niveau

Bei der Verarbeitung der Sprachdaten – vom Sprachverstehen bis zur Generierung der Antworten des Sprachassistenten – verknüpfen die beiden Fraunhofer-Institute ihre bereits bewährten Technologielösungen, entwickeln sie weiter und ergänzen sie um neue Verfahren. Für die Übertragung von Wort und Schrift und umgekehrt verwenden sie beispielsweise ein am Fraunhofer IAIS entwickeltes System zur Automatic Speech Recognition (ASR). Unter anderem wird das Verfahren eingesetzt, um den Inhalt von Parlamentsdebatten nahezu in Echtzeit als Untertitel wiederzugeben. Die Wiedergabe von Inhalten durch eine künstliche Stimme übernehmen Text-to-Speech-Algorithmen (TTS) vom Fraunhofer IIS. Eine gemeinsame Neuentwicklung der SPEAKER-Projektzusammenarbeit ist zum Beispiel der Dialogmanager. Er ermöglicht einem Unternehmen, eigene Dialogprozesse zu gestalten und im Sprachassistenten zu hinterlegen.

 

Private Sprachassistenz für Unternehmen und Branchen

SPEAKER bietet den Unternehmen ein Höchstmaß an Datenschutz und Privatheit. Zum Beispiel können die Unternehmen festlegen, dass jedes gesprochene Wort, das über das System ausgetauscht wird, nach der Verarbeitung durch das System nicht gespeichert wird. Außerdem erhält jede Sprach-KI einen eigenen, abgesicherten Datenraum, auf den andere Nutzer*innen keinen Zugriff haben. »Und wenn ein Unternehmen die volle Datensouveränität wünscht, richten wir auf den eigenen Firmenservern eine Kopie des Sprachassistenten inklusive aller Funktionen ein«, betont Fischer.

Gemeinsam mit den Partnerunternehmen des Projekts entwickeln die Forscher*innen derzeit erste Prototypanwendungen. »Ein mögliches Anwendungsszenario ist zum Beispiel ein sprachgesteuertes Dialogsystem, um bei der Schadensmeldung an einer Maschine dem Service alle für eine Reparatur erforderlichen Informationen mitteilen zu können«, erklärt Walter. Denkbar wäre auch ein Sprachassistenzsystem für eine einzelne Branche oder einen Unternehmensverbund. Im Bereich Hotellerie etwa könnte SPEAKER den Gästen das kontaktlose Bedienen der Haustechnik oder Services von der Abfrage von Informationen bis zur Buchung von Zusatzservices bieten. Die konkreten Anwendungen, die aus SPEAKER entstehen, können Unternehmen künftig über die Plattform »Allinga Sprachassistenzlösungen« beziehen.

(ted)

Keine Kommentare vorhanden

Das Kommentarfeld darf nicht leer sein
Bitte einen Namen angeben
Bitte valide E-Mail-Adresse angeben
Sicherheits-Check:
Sechs + = 6
Bitte Zahl eintragen!
image description
Experte
Alle anzeigen
Johannes Fischer
  • Fraunhofer-Institut für Integrierte Schaltungen IIS
Oliver Walter
  • Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS
Weitere Artikel
Alle anzeigen
Plattform im Bau
Software sanieren
Valides Liken
Stellenangebote
Alle anzeigen