Direkt zum Inhalt

Gefühle hören

26.02.2019

Intelligente Sprachanalyse gilt als großes Zukunftsfeld. Zu Recht, wie eine wachsende Reihe von Anwendungen zeigt. Ganz vorne mit dabei ist die Steirerin Dagmar Schuller mit ihrer Firma audEERING.

Dagmar Schuller, audEERING

Text: Mara Leicht

Was wäre, wenn man abends heimkommt, Alexa einen Befehl wie „Licht an!“ hinwirft – und sie schon an der Stimme erkennt, dass man gestresst oder niedergeschlagen ist. „Du hattest einen schweren Tag“, säuselt Alexa dann, „gönn dir doch etwas Feines. Das Massageinstitut zwei Gassen weiter hat gerade eine 40-Prozent-Aktion. Soll ich dir einen Termin reservieren?“  
Zukunftsmusik? Für Dagmar Schuller ist das ganz real. Der Part mit der Stimmungserkennung liegt bei ihr. Für die Bewerbung des Massagestudios sind andere zuständig. Schullers Firma audEERING im High-Tech-Campus Gilching-Oberpfaffenhofen bei München, dem bayerischen Silicon Valley, schafft Künstliche Intelligenzen (KI), die menschlich-emotionale Zustände erkennen. 
Wer wissen will, wie das funktioniert, dem sei das entzückende Video auf ihrer Homepage (www.audeering.com) ans Herz gelegt. Da amüsiert sich eine englischsprachige Schauspielerin in Dirndl und Zöpfen über das Wiener Dialektwort „Oida“. Ohne Sinn für die Bedeutung spricht sie es auf unterschiedliche Arten aus: belustigt, gelangweilt, gestresst, zweifelnd, verunsichert, interessiert. Die KI interpretiert über eine Skala daneben den jeweiligen Gefühlszustand – und trifft immer ins Schwarze. 
„Die Zukunft gehört dem sprachlichen Kommando“, sagt Schuller bestimmt. Befehle über Tastaturen einzutippen sei längst ausgereizt. Mit Alexa und Co gewöhnten wir uns gerade daran, Maschinen verbale Anweisungen zu geben. Und ihre KI könne die zugrunde liegende Stimmung erkennen.

Anwendungen ohne Ende

Wozu das gut ist, beantwortet ein Blick auf ihre Referenzen. Der erste Kunde, seit Jahren treu, war das Marktforschungsinstitut GfK in Deutschland. „Früher“, sagt Schuller, „gab man den Probanden für einen Produkttest einen Fragebogen. Da sollten sie ankreuzen, wie gut ihnen das Produkt gefiel.“ Doch was heißt etwa ein angekreuztes „Gut“? Hätten die Marktforscher eine akustische zweite Spur dazu, könnten sie den paralinguistischen Bereich miterfassen und die „Leidenschaftsfaktoren“ Excitement und Engagement erheben. Ein zögerndes „Gut“ bedeutet etwas anderes als ein spontanes. Dann wüssten die Marktforscher, ob es sinnvoll ist, dem Produkttester gleich ein Kaufangebot zu machen. 
Auch im Callcenter ergeben sich Anwendungsmöglichkeiten. Bekanntlich ist es teurer, Neukunden zu gewinnen als Bestandskunden zu halten. Ruft also ein Bestandskunde mit einer Reklamation an und trifft auf einen unerfahrenen Agent, könnte das seine Verärgerung, Verzweiflung oder Wut steigern. Erkennt aber die assistierende KI seinen Gemütszustand, legt sie dem Agent eine adäquate Wortwahl vor.  
Oder in der Medizin: Neurokognitive Störungen wie Parkinson, Alzheimer oder Autismus kann man „hören“, lange bevor sie herkömmlich zu diagnostizieren sind. „Parkinson erkennen wir schon, wenn jemand nur ,Aaaaaahhhhhh‘ sagt“, erklärt Schuller. Stimmkraft, Intonation, Rhythmus und Schwankung verraten es. Gemeinsam mit einem Kooperationspartner für die Augendiagnose (Parkinson lässt sich auch an den Augen erkennen) arbeitet sie gerade an einem Frühtest.    
Könnte das nicht jeder? Nein, sagt sie, denn die Kunst sei, zufällige Nebengeräusche herauszufiltern, im Fachjargon „de-noising“ genannt. Wenn jemand schnupfenbedingt eine veränderte Stimme hat, darf das die Diagnose ebenso wenig beeinflussen wie ein vorbeifahrender LKW. Und genau das beherrsche audEERING besser als jeder andere. 
Auf ihrer Kundenliste stehen inzwischen auch klingende Namen wie BMW, Huawei und das Red Bull Media House. Gerade Sportler und „Quantify me“-Jünger hatten über Wearables bisher zwar eine Menge Körperdaten zur Verfügung, aber keine akustischen. Man stelle sich eine Gruppe unterschiedlich guter Mountainbiker vor, die sich einen Berg herunterstützen. Da sind einmal ihre höchstpersönlichen Geräusche – Atmung, Herzschlag, Stöhnen, Schreie. Und die ihrer Geräte: Wie die Reifen auf der Piste aufkommen, wie sie drehen, wie lange sie in der Luft bleiben und mit welchem Druck sie landen, sagt viel über das Potenzial des jeweiligen Fahrers aus. Die Schwächeren könnten vom Besten lernen.  Und: Wer seine Daten nicht in die Cloud laden will, muss es auch nicht. Sie können genauso am Gerät bleiben.
Anwendungen gibt es also genug. Und täglich kommen neue dazu. Schnarchanalysen für Gepeinigte, die sich das nächtliche Sägen abgewöhnen wollen; Hörgeräte, die sich selbst nachjustieren; Influencer, die mehr verkaufen, wenn sie den Gefühlszustand ihrer Fans abgreifen; Autos, die auf Müdigkeitsanzeichen des Fahrers reagieren. Oder Handyhersteller, die Audiointelligenz in ihre Geräte implantieren. 

Steirischer Patriotismus

Doch warum musste Schuller dafür nach Deutschland gehen? Der Schlüssel liegt in ihrer Geschichte. Aufgewachsen nahe Weiz, zog es die heute 43-Jährige schon für die Oberstufe nach Wien. In die HTL Spengergasse, von der sie noch heute schwärmt. „Da gab es das Fach ‚Prozessregelung und Rechnerverbund‘“, erzählt sie mit einem Leuchten in den Augen. „Da wurde damals schon über KI referiert, über neuronale Netze und Fuzzy Logic.“ Ein überraschend altes Thema also, das der Klasse neben jeder Menge Prüfungsstress auch unverhoffte „Glücksmomente“ bescherte. „Wir erkannten als Einzige einen Übersetzungsfehler in Schwarzeneggers ,Terminator‘“, freut sie sich noch heute. Der stellt sich in einer Szene im englischen Original als „neuronal network“ vor. Die unkundigen Übersetzer machten daraus ein „neutrales Netzwerk“. 
WU-Studium, EY-Beratung in Wien und New York und ein paar IT- und Finance-Führungsjobs später landete sie als Lektorin an der Ludwig-Maximilians-Universität in München. An der dortigen TU lernte sie kurz nach der Jahrtausendwende ihren späteren Mann Björn Schuller kennen, der damals bereits eine Koryphäe in der intelligenten Sprachanalyse war. Das Thema wird einmal groß, erkannte die Steirerin rasch. Aber nicht auf der Uni, sondern im Unternehmen. Also gründeten sie. Von ihrem Mann Björn kommen die Grundlagenforschung – und die begabtesten Studenten jedes Jahrgangs. 50 Mitarbeiter sind es derzeit, Tendenz steigend. 2018 eröffnete sie einen zweiten Standort in Berlin.
Ob sie auch nach Österreich kommen wird? Ein Teil von ihr habe die Heimat nie verlassen, sagt sie. Die Kindergartenfreundinnen trifft sie immer noch, so wie sie aus jedem Lebensabschnitt die besten Freunde mitnahm. Österreich sei gedanklich immer präsent. Und: „Ein gewisser steirischer Patriotismus ist mir nicht abzuerkennen.“

 

Werbung

Weiterführende Themen

Die QGV präsentiert die neue Datenplattform mit Produktions- und Veterinärdaten aller heimischen Geflügelbetriebe.
Thema
13.02.2019

Die Österreichische Qualitätsgeflügelvereinigung präsentierte ihr weltweit einzigartiges Projekt: In der neuen zentralen Datenbank „Poultry Health Data” werden Produktions- und Veterinärdaten ...

Kick-Off der neuen Plattform für digitale Gebäudelösungen zur Definition der brennendsten Herausforderungen und Chancen durch Digitalisierung im Gebäudelebenszyklus am 18. Februar 2019
Aktuelles
12.02.2019

Der Kick-Off der neuen Plattform für digitale Gebbäudelösungen findet am 18. Februar 2019 statt. 

Stories
06.02.2019

Unternehmenswachstum ist auch in Zeiten der Digitalisierung das Ergebnis menschlicher Entscheidungen. Es sind die Mitarbeiter, die mit ihren Ideen und ihrem Wissen ein Unternehmen weiterentwickeln ...

Service.
06.02.2019
Ihre Fagen zum Thema BIM, beantwortet von den BIM-Baumeistern. Diesmal geht es darum, warum man BIM
...
(v.l.n.r.) DI Martin Zandonella, Dr. Martina Gaisch, Mag. Alfred Harl, Univ.-Prof. Dr. Norbert Wohlgemuth
Stories
31.01.2019

Bereits zum vierten Mal hat das Kärntner Institut für Höhere Studien im Auftrag des Fachverbands für Unternehmensberatung, Buchhaltung und Informationstechnologie (UBIT) erhoben, wie es um das ...

Werbung