Apple forscht an Verbesserungsmöglichkeiten Syrien um Menschen besser zu verstehen, die mit einem Stottern sprechen, laut neuen Details, die von . geteilt wurden Das Wall Street Journal in einem Artikel darüber, wie Unternehmen Sprachassistenten im Umgang mit atypischer Sprache trainieren.
Apple hat eine Bank mit 28.000 Audioclips aus Podcasts mit Stotterern erstellt, mit denen Siri trainiert werden könnte. Die von Apple gesammelten Daten werden laut einem Apple-Sprecher Spracherkennungssysteme für atypische Sprachmuster verbessern.
Neben der Verbesserung der Funktionsweise von Siri Menschen mit atypischen Sprachmustern versteht, hat Apple außerdem eine Hold-to-Talk-Funktion für Siri mit dem Benutzer steuern können, wie lange Siri zu hören. Dies verhindert, dass Siri Benutzer mit einem Stottern zu unterbrechen, bevor sie mit dem Sprechen fertig sind.
Siri kann auch ohne Stimme alle zusammen verwendet werden, durch eine Typ-zu-Siri-Funktion das wurde erstmals in iOS 11 eingeführt.
Apple plant, seine Arbeit zur Verbesserung von Siri in einem Forschungspapier, das diese Woche veröffentlicht werden soll und in dem weitere Details zu den Bemühungen des Unternehmens enthalten sein werden.
Google und Amazon arbeiten auch daran, Google Assistant und Alexa so zu trainieren, dass sie alle Benutzer besser verstehen, auch diejenigen, die Probleme mit ihrer Stimme haben. Google sammelt atypische Sprachdaten, und Amazon hat im Dezember den Alexa Fund ins Leben gerufen, damit Menschen mit Sprachbehinderungen einen Algorithmus trainieren können, um ihre einzigartigen Stimmmuster zu erkennen.
Beliebte Beiträge