»Mit den Ohren sieht man besser.« Dieses (zugespitzt formulierte) Ergebnis aus der Hirnforschung zeigt, dass wir Situationen oder Gegenstände erst dann umfänglich erfassen, wenn Auge und Ohr zusammen spielen. Bei der Entwicklung von Geräten dienen CAD-Programme und 3D-Drucker aber lediglich als Entscheidungshilfen für das Auge. Den späteren Klang eines Produkts berücksichtigen sie nicht. Wissenschaftler am Fraunhofer IDMT haben jetzt eine Methode erarbeitet, wie die Geräusche von Geräten und Maschinen hörbar werden, obwohl sie real noch gar nicht existieren.

Wer Geräte beurteilen will, sollte sie sehen können. Er sollte sie drehen und wenden können, er sollte sie anfassen und fühlen können. Und er sollte sich auch akustisch einen Eindruck machen können. Denn jedes dieser Produkte sieht spezifisch anders aus, fühlt sich charakteristisch an und klingt individuell. Staubsauger und Kaffeemaschinen sind ebenso alltägliche Beispiele wie elektrische Rollos oder die Fensterheber im Auto. Für Menschen ist es selbstverständlich, die drei Hauptsinne Sehen, Fühlen und Hören einzusetzen, um Geräte zu- und einzuordnen. Mittlerweile unterstützt uns dabei die Technik und erlaubt uns sogar einen (wenn auch beengten) Blick in die Zukunft eines Produkts: Über CAD-Programme, Augmented Reality oder Virtual Reality sehen wir (beziehungsweise Entwicklungsingenieure und Tester) eine Vielzahl von Produkten, noch bevor sie physisch existieren. Und dank gebastelter Modelle oder - deutlich aktueller – dem 3D-Druck können wir mehr und mehr Exemplare auch haptisch erfahren.

Wie aber steht es um den Klang?

»Bis auf den kostenintensiven und verhältnismäßig unflexiblen Modellbau eines Prototyps aus allen tatsächlich vorgesehenen Materialien gab es bislang keine Möglichkeit, den Klang eines zukünftigen Produkts bereits vor seiner Produktion zu testen«, erklärt Sandra Brix vom Fraunhofer-Institut für Digitale Medientechnologie IDMT. Vielleicht liege in diesem unzeitgemäßen Aufwand auch der Grund, warum die Akustik bei der Produktion von Geräten immer wieder vernachlässigt wird. »Ingenieure vertrauen eher darauf, dass der Klang schon irgendwie in Ordnung sein wird, statt die Akustik eines Geräts von Anfang an mit zu designen«, sagt Brix. Bestenfalls ginge es um die Reduzierung von Lärm und den Vorab-Einbau von schalldämpfenden Materialien. Das war es dann bisher aber auch. Dabei sei der Klang oft mitentscheidend oder gar entscheidend für die Wertigkeit eines Produkts. Ein Rasierer beispielsweise soll angenehm brummen, eine Spülmaschine sanft waschen, eine Kaffeemaschine vertraut gluckern und ein Staubsauger keinesfalls an einen Zahnarztbesuch erinnern. Und ein Auto, das nicht so klingt, wie es sein Charakter verspricht, würde wohl empfindliche Verkaufsverluste einfahren. 

Wellenfeldsynthese zur Auralisierung

Bei Geräten und Maschinen wie diesen sowie einer Fülle einzelner Bauteile wächst die Bedeutung, die akustischen Eigenschaften zu überprüfen, zu bewerten und gegebenenfalls auch optimieren zu können, bevor das Produkt auf dem Fließband oder als teure Einzelanfertigung produziert wird. Das Team um Sandra Brix arbeitet deshalb an Möglichkeiten, den Klang eines Geräts oder einer Maschine schon zu testen (und damit auch zu optimieren), bevor ein Prototyp gefertigt wird. »Unser Ziel ist es, dass der Sound eines Geräts schon während der virtuellen Entwicklung am Computer in Echtzeit hörbar wird und nicht nur als visuelles CAD-Modell vorliegt«, betont Brix.

Die Forscher am Fraunhofer IDMT arbeiten dafür mit der Wellenfeldsynthese. Dabei wird unter anderem für jede einzelne darzustellende Schallquelle ein eigenes Wellenfeld berechnet. Die Überlagerung aller Wellenfelder für alle abzubildenden Audioquellen ergibt das synthetisierte homogene Schallfeld. Dieses wird mit der 3D-Audiotechnologie SpatialSound Wave des Fraunhofer IDMT hörbar gemacht. (Hinweis: Zu Wellenfeldsynthese und ihrer Anwendung sind bei Fraunhofer InnoVisions bereits zahlreiche Artikel erschienen). »Mit Hilfe dieses Ansatzes ist es für uns bereits heute möglich, den Klang einfacherer Geräte, wie beispielsweise den eines Staubsaugers, realitätsnah abzubilden. Derzeit arbeiten wir gemeinsam mit Forschungspartnern daran, die akustische Wahrnehmung von virtuellen Geräten als Werkzeug für die digitale Produktentwicklung nutzbar zu machen«, sagt Brix.

AVP3

In einem Projekt zur »akustisch erweiterten Virtualisierung von Produkten und Produktionsprozessen – AVP3« arbeiten derzeit Unternehmen und Forschungsinstitute wie das Fraunhofer IDMT daran, um insbesondere für die Industrie weiterführende Methoden zu entwickeln, um bei virtuellen Prototypen das gewünschte Klangbild in Echtzeit zu erreichen. So sollen unerwünschte Geräusche und insbesondere Lärm minimiert oder gar eliminiert werden, bevor das Produkt tatsächlich produziert ist. Das Fraunhofer IDMT hat dabei die Aufgabe übernommen, die Auralisation digitaler Modelle weiterzuentwickeln und mit Hilfe verschiedener Testmethoden zu optimieren. (aku)

Weitere Informationen

Keine Kommentare vorhanden

Das Kommentarfeld darf nicht leer sein
Bitte einen Namen angeben
Bitte valide E-Mail-Adresse angeben
Sicherheits-Check:
Zwei + = 11
Bitte Zahl eintragen!
image description
Expertin
Alle anzeigen
Dr. Sandra Brix
  • Fraunhofer-Institut für Digitale Medientechnologie IDMT
Weitere Artikel
Alle anzeigen
Reibungslose Übergabe
Dünnhäutig – genau nach Plan
Verbrannte Hand? Das war gestern!
Stellenangebote
Alle anzeigen