Man kann sich eine künstliche Intelligenz wie einen großen, wuchtigen Rechner aus den 90er Jahren vorstellen: KIs sind unpraktisch und schwer. Mobile Geräte nutzen deshalb eine Anbindung an die Cloud, um Berechnungen nicht selbst durchführen zu lassen. Das aber erfordert eine Internetanbindung und das Akzeptieren von Abhängigkeiten von externen Dienstleistern. Was aber wäre, wenn es bald eine »smartere« Lösung gebe? Forscher am Fraunhofer HHI arbeiten an einer »KI to go«.

Neuronale Netze sind gierig. Nicht nur der von ihnen geforderte Input ist immens und der Trainingsaufwand mit oftmals Millionen Durchgängen entsprechend hoch. Auch der Anspruch an CPUs, die Grafikkarten und die Speicher ist riesig. Millionen Parameter müssen bewältigt und Gigabytes an Daten verarbeitet und gespeichert werden. Auch der Energieverbrauch ist entsprechend hoch. An das Nutzen eines neuronalen Netzwerks jenseits leistungsstarker stationärer Recheneinheiten ist also kaum zu denken. Dabei wären die Vorzüge einer KI etwa in Smartphones, in autonom agierenden Automobilen oder generell in mobilen Einheiten unbestreitbar. Zumal damit auch die Abhängigkeit von cloudbasierten Diensten deutlich reduziert würde. Man könnte schlicht »vor Ort« rechnen lassen. Allein: Wer will und kann ein neuronales Netzwerk mit »auf Tour« nehmen, das eher an einen überdimensionierten, alten Mobilfunk-»Knochen« erinnert als an ein neuronal-smartes Device?

Intelligentes Komprimieren

Ein Forscherteam um Dr. Wojciech Samek arbeitet am Fraunhofer-Institut für Nachrichtentechnik, Heinrich-Hertz-Institut, HHI in Berlin an Künstlichen Intelligenzen, die in puncto Größe und Energieverbrauch auch für den Einsatz »to go« genutzt werden können – ohne an Leistungskraft einzubüßen. Die Wissenschaftler machen sich dabei einen Ansatz zunutze, mit dem die Kollegen am rund 450 km entfernten Fraunhofer-Institut für Integrierte Schaltungen IIS in Erlangen mit MP3 Weltruhm erlangt haben: Das intelligente Komprimieren von Daten und Rechenerfordernissen.

Durch das intelligente Komprimieren von Daten und Rechenerfordernissen kann viel eingespart werden. Bild: Fraunhofer HHI

Exaktheit reduzieren und bündeln

»Neuronale Netze sind als eine Gewichtsmatrix vorstellbar, denn das Lernen erfolgt über Gewichte, die das gelernte Wissen speichern«, erklärt Samek. Die Frage sei nun, ob diese Gewichtsmatrix tatsächlich beispielsweise 10.000 mal 10.000 Einträge haben muss, um wie gewünscht zu arbeiten. Oder ob man einige Einträge auch auf »Null« setzen könne – also auf sie verzichtet. Zudem müsse man überlegen, wie genau die Zahlenwerte in den übrigen Einträgen sein müssen. »Unter Umständen ist eine Präzision bis auf die fünfte Stelle hinter dem Komma gar nicht nötig und es reicht eine Kommastelle. Oder wir brauchen gar keine Zahlen hinter dem Komma«, sagt Samek. Ähnlich wie bei der MP3-Kodierung müsse man zum einen nicht unbedingt nötiges schlicht »weglassen«.

Und zum anderen könne man die Zahl der Rechenschritte unter Umständen deutlich reduzieren, indem man die Prozesse intelligenter gestaltet. Samek denkt dabei – etwas vereinfacht ausgedrückt – an klassische mathematische Regeln: »Warum müssen wir verschiedene Werte alle erst mit ein und derselben Zahl multiplizieren, um die Ergebnisse dann zusammenzurechnen? Einfacher wäre es doch, erst die Summe über alle Zahlen zu bilden und danach nur noch ein einziges Mal zu multiplizieren!« 

Um 95 Prozent »leichter«

Doch Überlegungen wie diese sind das eine. Die Umsetzung der Ansätze ein anderes. Denn natürlich können die Forscher nicht jede Matrix und nicht jeden Prozessschritt einzeln – sozusagen »von Hand« durchsuchen. Sie nutzen deshalb die Rate-Distortion-Theorie. Mit ihrer Hilfe lässt sich das Minimum an Daten beziehungsweise Datenübertragung ermitteln, das nötig ist, um vom Empfänger noch verstanden zu werden. »Wir nutzen Methoden, die sich aus dieser Theorie ableiten, um beispielsweise automatisch ermitteln zu lassen, wie viele Informationseinheiten oder Gewichte in einem Prozess minimal verarbeitet und abgespeichert werden müssen«, erklärt Samek. Damit sei es mittlerweile gelungen, neuronale Netze um bis zu 95 Prozent zu komprimieren – ohne einen signifikanten Performance-Verlust zu erleiden. Mit diesen Forschungsergebnissen dürfte es nun bald möglich werden, neuronale Netze auch in mobilen Geräten zu nutzen und cloud-unabhängige, smarte KIs für die Hosentasche zu etablieren.

(aku)

Keine Kommentare vorhanden

Das Kommentarfeld darf nicht leer sein
Bitte einen Namen angeben
Bitte valide E-Mail-Adresse angeben
Sicherheits-Check:
Fünf + = 11
Bitte Zahl eintragen!
image description
Experte
Alle anzeigen
Dr. Wojciech Samek
  • Fraunhofer-Institut für Nachrichtentechnik Heinrich-Hertz-Institut HHI
Weitere Artikel
Alle anzeigen
Das Richtige im Blick
Fest im Griff mit maschinellem Lernen
Agenten im Dienste der Medizin
Stellenangebote
Alle anzeigen