Sprachassistenten & Akzente: Wie sich die Verständniskluft lösen lässt

Sprachassistenten haben Probleme mit Akzenten. Wie die Washington Post berichtet, verstehen Google Home und Amazons Alexa „Menschen aus einigen Regionen der USA deutlich schlechter als aus anderen“.

Die landesweite Untersuchung der Washington Post ergab, dass Personen mit Akzenten nicht immer die richtigen Antworten von ihren Sprachassistenten erhielten. Die größten Schwierigkeiten hatten die Assistenzsysteme mit nicht einheimischen Akzenten. Beispielsweise müssen laut Washington Post „Personen mit einem spanischen Akzent mit einer um sechs Prozent niedrigeren Verständnisquote rechnen als Menschen, die in Kalifornien oder Washington aufgewachsen sind, wo die Tech-Giganten ihren Sitz haben.“

Welche Folgen hat das perspektivisch für Sprachtechnologien?

Zum einen können Umsatzeinbußen entstehen, wenn Menschen den Eindruck erhalten, nicht repräsentiert oder verstanden zu werden. Die Ursache ist sozial begründet, denn wer nicht verstanden wird, fühlt sich isoliert, der Zugang zu Sprachassistenten bleibt quasi verwehrt. Ein zweiter, praktischerer Grund ist, dass Voice mit Mobile um die Rolle des „Klassenbesten“ ringt. Wenn Anwender sich schwer tun, mit Sprachassistenten zu interagieren, werden sie sich nur schwer von ausgereiften mobilen Anwendungen lösen, die sie kennen und lieben.

Man denke nur an die sehr beliebte und gut bewertete App von Starbucks. Warum sollten User auf die App verzichten, wenn die sprachgesteuerte Alternative keinen Mehrwert in puncto Bedienfreundlichkeit und Zuverlässigkeit zu bieten hat?

Doch weder Google noch Amazon geben klein bei, sondern haben im Gegenteil energische Schritte unternommen, um das Problem zu lösen. Im Artikel heißt es: „Die Unternehmen stellen nach eigener Aussage Ressourcen für das Eintrainieren und Testen neuer Sprachen und Akzente bereit, darunter die Entwicklung von Spielen, um mehr Stimmmaterial in unterschiedlichen Dialekten zu generieren.“

Erhöhte Nachfrage nach Voice Testing unter realen Nutzerbedingungen

Wir von Applause sehen sowohl bei Bestands- als auch bei Neukunden einen steigenden Bedarf nach Unterstützung imBereich Voice Testing, denn die Unternehmen betrachten die sprachliche Interaktion als Teil ihres Kernangebots und nicht nur als „nice to have“. Die Firmen realisieren, dass mit internen Lab-Tests einfach nicht alle erforderlichen Variablen einschließlich Sprachen, Dialekten, Geschlechtern und Endgeräten abgedeckt werden können, um Akzent-Hindernisse aufzudecken. Es wird deutlich, dass sich solche Probleme am besten durch Tests in der realen Welt mit einer Vielzahl von echten Benutzern identifizieren lassen.

Ein Paradebeispiel ist die Autoindustrie. Applause arbeitet mit sieben der zehn größten Automobilhersteller zusammen. Für die naturgemäß globale, mit ausgefeilter Elektronik ausgestattete Automobilindustrie sind Spracherkennungstechnologien wie gemacht. Im Rahmen von Tests für eines dieser Unternehmen erfuhren wir aus erster Hand, was es mit der Akzent-Problematik auf sich hat.

Das Unternehmen investierte massiv in die Integration von Spracherkennungstechnologien in seine Infotainmentsysteme. Es testete die Integration vor dem Einsatz in den Fahrzeugen intensiv im Labor und setzte die Tests dann mit neuen Fahrzeuggenerationen, dem Sprachassistenten und mobilen Geräten im Labor fort.

Durch internes Echtzeit-Monitoring wusste der Automobilhersteller, dass die Nutzungsrate recht hoch ausfiel. Dies deckte sich jedoch nicht mit der Zufriedenheit der Kunden. Die mangelnde Zufriedenheit der Fahrer wirkte sich auf die Wahrnehmung des Fahrzeugherstellers, seiner Fahrzeuge und des Assistenzsystems aus.

Mithilfe der Tester-Community von Applause und der Dialogvielfalt, die inhouse nicht abbildbar war, konnte der Kunde seine Sprachdialogtests nahtlos skalieren und so herausfinden, woher die Unzufriedenheit rührte. Wir stellten fest, dass der in die Infotainmentsysteme integrierte Sprachassistent Probleme hatte, bestimmte Akzente aus dem Süden und Mittleren Westen der USA zu verstehen. Da es sich nur um eine Untergruppe innerhalb Nordamerikas handelte, konnte das Unternehmen mithilfe des Feedbacks seine Strategie anpassen, um das Fahrerlebnis insgesamt zu verbessern und einen Plan für das weltweite Rollout auszuarbeiten.

Die Wichtigkeit von Voice Testing aus Nutzersicht

Sprachtechnologien sind eindeutig auf dem Vormarsch und werden weiter stark wachsen. Bereits jetzt gehören sie in vielen Haushalten zum Inventar. Zu berücksichtigen ist, dass die Technologie sich noch in der Entwicklung befindet und kontinuierlich neue Anwendungen hinzukommen und getestet werden.

Genau wie im Mobilbereich sind es letztlich die Verbraucher, die über die Gewinner und Verlierer unter den sprachgesteuerten Systemen entscheiden. Es ist ermutigend zu sehen, dass Unternehmen den Optimierungsbedarf erkennen und die Erlebnisse, die sie den Nutzern bieten, aktiv testen.

Erfahre mehr über unsere Testing-Lösungen von Voice Assistants und wie wir mithile unserer Tester-Community deine Alexa-Skills zu Hause, bei der Arbeit, in der Schule - überall dort, wo deine Kunden hingehen - testen können.

Möchten Sie mehr wie dies anzeigen?
Emerson Sklar
Tech Evangelist und Solution Architect
Lesedauer: 5 min

Optimierung des Kundenerlebnisses beim Laden von Elektrofahrzeugen

So geht reibungsloses Aufladen: Testen von Funktionen, Zahlungen, UX und Barrierefreiheit.

Deshalb scheitern Projekte zum maschinellen Lernen

In diesem Artikel: 5 Hauptgründe für das Scheitern von ML-Projekten und wie Unternehmen sie vermeiden.

Krypto-Wallets entwickeln: Worauf müssen Developer achten?

Kryptowährungen verzeichnen weiterhin eine steigende Popularität. Welche Features ein gelungenes Krypto-Wallet benötigt, erfahren Sie hier.

10 Tipps zur Optimierung des Nutzer-Onboardings beim Online-Glücksspiel

Wenn neue Spieler sich schnell registrieren und spielen können, gewinnen alle