Skip to Content Skip to Mainnavigation Skip to Meta Navigation Skip to Footer
Skip to Content Skip to Mainnavigation Skip to Meta Navigation Skip to Footer

Rasante Entwicklung von Spracherkennungssystemen

Seit den 80er Jahren des letzten Jahrhunderts sind Spracherkennungssysteme auf dem Markt. IBM und Dragon Systems gehörten damals zu den ersten Herstellern, heute haben andere große Tech-Konzerne die Nase vorn.

Alexa - ein Gerät mit Spracherkennung  | © pixabay

Spracherkennungssyteme, wie Alexa, können den Alltag von Menschen mit Behinderungen erleichtern. (pixabay)

Entwickelt wurden die Systeme nicht in erster Linie für Menschen mit einer Behinderung, ihnen kommt die technische Entwicklung aber ganz besonders entgegen. Verschiedene Versionen von Spracherkennungssystemen werden heute speziell auf eine behindertengerechte Nutzung hin optimiert und erfüllen so die Anforderungen für Barrierefreiheit.

Hohe Erkennungsgenauigkeit

Software für Spracherkennung ist mittlerweile derart leistungsfähig, dass diktierte Texte bis zu 99 Prozent richtig erkannt werden. Durch den Einsatz hochwertiger Mikrofone und entsprechender Wörterbuchdateien ist die Erkennungsgenauigkeit so hoch, dass selbst anspruchsvolle Texte fehlerfrei diktiert werden können, auch wenn die Aussprache undeutlich ist.

Funktionsweise

Spracherkennungssoftware für PCs wird sprecherabhängig gesteuert. Bei den meisten Programmen muss nach der Installation zuerst die Stimme und Aussprache des jeweiligen Nutzers beziehungsweise der jeweiligen Nutzerin eingestellt werden. Dies geschieht über das Vorlesen kurzer Textpassagen und hilft dem Programm, die in seiner Datenbank abgespeicherten Vokabeln mit der individuellen Aussprache zu verbinden. Bei weiter verbesserten, neuesten Versionen von Spracherkennungssoftware ist dieser Schritt aber bereits nicht mehr nötig.

Was die Maus kann, kann auch die Stimme

Ist die Installation erfolgreich erfolgt, ist die Spracherkennungssoftware einfach und effektiv einzusetzen. Benutzerinnen und Benutzer sprechen in ein Mikrofon, und der Computer führt die Befehle aus, schreibt, korrigiert, formatiert, Mausbewegungen sind ebenso möglich wie Kontrollbefehle. Kurz gesagt: alles, was sich mit einer Tastatur oder einer Maus tun lässt, lässt sich auch mit der Stimme tun. Das Diktieren, Bearbeiten und Steuern funktioniert in allen gängigen Anwendungen, wie Microsoft Word, Outlook Express, Internet Explorer und so weiter.

Smart Speaker im Alltag

Heutzutage gibt es aber auch andere Anwendungsgebiete für solche Spracherkennungssysteme. Mithilfe sogenannter Smart Speaker sind die Nutzer*innen nicht nur in der Lage Texte zu diktieren, sondern ganze Aufgaben des Alltags an die Künstliche Intelligenz übergeben. So können nicht nur Einkaufslisten erstellt, sondern sogar ganze Online-Einkäufe per Sprachbefehl getätigt werden. Je nachdem an welche Geräte die KI gekoppelt ist, können auch beispielsweise Licht, Fernseher und Kaffeemaschine darüber gesteuert werden.

Diese smarten Geräte können einen großen Beitrag zur Vereinfachung des Alltags insbesondere von Menschen mit Behinderung leisten, jedoch gibt es auch Bedenken hinsichtlich der Datensicherheit. Denn meist werden diese Künstlichen Intelligenzen von großen Tech-Konzernen angeboten, welche großes Interesse daran haben, Daten über ihre Kund*innen zu sammeln.


Ist dieser Artikel lesenswert?

Fehler melden? Jetzt Melden.

Haben Sie eine Frage an die Community?