Die Computer-Spracherkennung spielt in vielen Zukunftstechnologien eine wichtige Rolle. Bisher ist sie aber noch vergleichsweise fehlerbelastet, was vor allem für die Nutzer recht nervig sein kann. Entwickler bei Microsoft vermelden nun allerdings einen ersten Durchbruch auf diesem Gebiet: Sie haben eine Software entwickelt, die ähnlich gut transkribieren kann wie ein Mensch. Oder in konkreten Zahlen ausgedrückt: Bei einem professionellen Transkriptionisten liegt die Fehlerrate bei etwa 5,9 Prozent. Dieser Wert konnte nun erstmals auch von der Computer-Software erreicht werden. Möglich macht dies die Nutzung sogenannter neuronaler Netzwerke. Diese ermöglichen es der künstlichen Intelligenz selbstständig dazu zu lernen und so immer besser zu werden.


Bisher konnte der Bestwert nur unter Laborbedingungen erreicht werden

Die Wissenschaftler des Konzerns sprechen daher bereits von einer historischen Leistung. Sie wissen aber auch, dass noch jede Menge Arbeit vor ihnen liegt, um aus der Technik ein marktreifes Produkt zu machen. Denn bisher erreicht der Computer-Transkriptionist seinen Bestwert nur bei optimalen Bedingungen. In der realen Welt kommen aber auch noch Hintergrundgeräusche und ähnliche Ablenkungen hinzu. Wichtigstes Ziel der Forscher ist es daher, die Software fit zu machen für den Einsatz unter realen Bedingungen. Erst dann kann man wirklich davon sprechen, dass die Computer-Spracherkennung endgültig das Niveau des menschlichen Gehirns erreicht hat. Sprachassistenten wie Apples Siri oder Sprachcomputer wie sie bei vielen Hotlines anzutreffen sind, könnten dann deutlich effektiver agieren.


Später sollen Nutzerfragen direkt beantwortet werden können

Langfristig haben die Wissenschaftler zudem schon den nächsten Schritt im Sinn. Dann soll die Technologie gesprochene Wörter nicht nur möglichst fehlerfrei niederschreiben können, sondern auch deren Sinn sofort verstehen. So könnten Anfragen der Nutzer sofort sinnvoll beantwortet werden. Auch dabei bietet sich grundsätzlich die Arbeit mit neuronalen Netzwerken an. Microsoft hat mit dem Chatbot Tay auf diesem Gebiet allerdings auch schon schlechte Erfahrungen gemacht. Dieser war auf Twitter unterwegs und sollte durch die Interaktion mit anderen Usern immer besser werden. Tatsächlich begann der Chatbot nach einiger Zeit aber damit, rassistische Propaganda von sich zu geben – und wurde dann wieder aus dem Netz genommen.

Via: Business Insider

Teile den Artikel oder unterstütze uns mit einer Spende.
PayPal SpendeAmazon Spendenshopping

1 Kommentar

  1. Arben Rerbet

    1. März 2018 at 12:53

    Sehr interessanter Artikel, ein Veröffentlichungsdatum wäre hier super!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.