Barrierefreiheit

Neue iPhone-Features: Apple Personal Voice & Live Speech

Wenn der Verlust der Stimme droht, kann diese dank Apples Personal Voice künftig als Sprach­modell exis­tieren. Zudem gibt es weitere Features für physisch einge­schränkte Menschen.
Von

Im Rahmen des Welt­tags der Barrie­refrei­heit hat Apple zahl­reiche Neue­rungen bei iPhone und iPad für beein­träch­tigte Menschen enthüllt. So sollen Anwender etwa ein Sprach­modell auf Basis der eigenen Stimme erstellen können. Durch das Mobil­gerät ist man dann dazu in der Lage, trotz Einschrän­kung weiterhin mit den Mitmen­schen verbal zu kommu­nizieren.

Neben dieser Personal Voice getauften Funk­tion wird es auch Live Speech geben. Hierbei tippen User Texte während Tele­fonaten ein, welche als Sprache ausge­geben werden. Point and Speak kompen­siert wiederum Sehbe­schwerden durch das Vorlesen von Beschrif­tungen.

iPhone und iPad: Apple weitet Barrie­refrei­heit aus

Personal Voice und Live Speech in Aktion Personal Voice und Live Speech in Aktion
Bild: Apple
Viele Bürger leiden unter physi­schen Einschrän­kungen. Die daraus resul­tie­renden Alltags­pro­bleme lassen sich dank moderner Tech­nologie zumin­dest teil­weise redu­zieren. Apple hat bereits häufig durch inno­vative Features in puncto Barrie­refrei­heit auf sich aufmerksam gemacht. Jetzt gibt es dies­bezüg­lich Neuig­keiten. Via Pres­semit­tei­lung infor­miert der Hersteller über Personal Voice, Live Speech, Point and Speak sowie weitere Funk­tionen. Die Erwei­terungen sollen noch dieses Jahr für Besitzer eines iPhones und iPads ausge­rollt werden.

Personal Voice soll Menschen unter­stützen, denen krank­heits­bedingt, etwa durch Amyo­trophe Late­ral­skle­rose, der Verlust der Sprach­fähig­keit bevor­steht. Außerdem gehören Nutzer mit anderen verbalen Kompli­kationen zur Ziel­gruppe. Maschi­nelles Lernen ermög­licht es, eine künst­liche Stimme zu erzeugen, die wie die eigene klingt. Hierfür müssen Anwender Text­phrasen für eine 15-minü­tige Audio­datei vorlesen, die als Basis des Sprach­modells dient. Das Resultat ist etwa für eine weitere Neue­rung, Live Speech, nütz­lich. Über dieses Feature können bei Tele­fonaten Text­ein­gaben in Sprache umge­wan­delt werden.

Point and Speak in Lupe für Sehbe­ein­träch­tigte

Wenn es Probleme bei der visu­ellen Wahr­neh­mung gibt, kommt Point and Speek in Lupe ins Spiel. Das Feature liest Beschrif­tungen vor, beispiels­weise auf Tasten von Haus­halts­geräten und Fern­bedie­nungen. Apple reali­siert diese Erwei­terung anhand einer Kombi­nation aus Kamera, LiDAR-Scanner und maschi­nellem Lernen.

Bewegt ein Anwender seinen Finger über eine Taste, analy­siert Point and Speak in der Lupen-App bei iOS und iPadOS den Text. Anschlie­ßend wird die Beschrif­tung vorge­lesen. Zu den weiteren Neue­rungen zählt die Game-Controller-Funk­tion der Schal­ter­steue­rung für User mit moto­rischer Beein­träch­tigung.

Bei Apple Music und Karten gibt es indes neue Life­style-Features.

Mehr zum Thema Smartphone-Software