Apple-News

Apple trainiert Siri, um Menschen mit atypischer Sprache besser zu verstehen

Donnerstag, 25. Februar 2021 13:42 PST von Juli Clover

Apple forscht an Verbesserungsmöglichkeiten Syrien um Menschen besser zu verstehen, die mit einem Stottern sprechen, laut neuen Details, die von . geteilt wurden Das Wall Street Journal in einem Artikel darüber, wie Unternehmen Sprachassistenten im Umgang mit atypischer Sprache trainieren.





ios14siri-Schnittstelle
Apple hat eine Bank mit 28.000 Audioclips aus Podcasts mit Stotterern erstellt, mit denen ‌Siri‌ trainiert werden könnte. Die von Apple gesammelten Daten werden laut einem Apple-Sprecher Spracherkennungssysteme für atypische Sprachmuster verbessern.

Neben der Verbesserung der Funktionsweise von ‌Siri‌ Menschen mit atypischen Sprachmustern versteht, hat Apple außerdem eine Hold-to-Talk-Funktion für ‌Siri‌ mit dem Benutzer steuern können, wie lange ‌Siri‌ zu hören. Dies verhindert, dass ‌Siri‌ Benutzer mit einem Stottern zu unterbrechen, bevor sie mit dem Sprechen fertig sind.



‌Siri‌ kann auch ohne Stimme alle zusammen verwendet werden, durch eine Typ-zu-Siri-Funktion das wurde erstmals in iOS 11 eingeführt.

Apple plant, seine Arbeit zur Verbesserung von ‌Siri‌ in einem Forschungspapier, das diese Woche veröffentlicht werden soll und in dem weitere Details zu den Bemühungen des Unternehmens enthalten sein werden.

Google und Amazon arbeiten auch daran, Google Assistant und Alexa so zu trainieren, dass sie alle Benutzer besser verstehen, auch diejenigen, die Probleme mit ihrer Stimme haben. Google sammelt atypische Sprachdaten, und Amazon hat im Dezember den Alexa Fund ins Leben gerufen, damit Menschen mit Sprachbehinderungen einen Algorithmus trainieren können, um ihre einzigartigen Stimmmuster zu erkennen.