Augensteuerung ohne Zusatzgerät, Erkennen atypischer Sprache, eine Vibrationsfunktion im Takt von Musik und ein virtuelles Trackpad für iPhone und iPad: Apple kündigt im Vorfeld des Welttags der Barrierefreiheit Funktionen für iOS 18 an, die das Leben von Menschen mit Behinderungen erleichtern können. Die neuen Funktionen sollen im Lauf des Jahres 2024 auf den Markt kommen.
Im Vorfeld des Global Accessibility Awareness Day (Welttag der Barrierefreiheit) kündigte der Technologie-Riese Apple neue Funktionen für iPhones und iPads an. Das für mobile Endgeräte entwickelte Betriebssystem iOS 18 soll zahlreiche neue Funktionen umfassen. So wird es beispielsweise eine Augensteuerung geben, die keinen Einsatz zusätzlicher Hardware erfordert. Auch die Möglichkeit, einzelne Worte oder Phrasen zu hinterlegen, die beim Aussprechen Funktionen auslösen, wurde angekündigt. Mit dem Feature „atypische Sprache“ erlernen die Endgeräte die individuelle Aussprache ihrer Nutzer*innen. Zudem kann Musik künftig über Vibrationen erfahren werden.
Augensteuerung für iPad und iPhone
„Eye Tracking“ ist eine Funktion für Nutzer*innen mit körperlichen Behinderungen, mit der sich ein iPad oder iPhone mithilfe der Augen steuern lässt. Dafür ist weder zusätzliche Hardware noch Zubehör nötig. Mittels Augensteuerung können Nutzer*innen durch die Elemente einer App navigieren und die Verweilkontrolle (dwell control) verwenden, um jedes Element zu aktivieren und mithilfe ihrer Augen auf zusätzliche Funktionen wie physische Tasten, Streichen und andere Gesten zuzugreifen.
Musikerlebnis für gehörlose und schwerhörige Menschen
„Music Haptics“ bietet User*innen die Möglichkeit, Musik mit Hilfe der „Taptic Engine“ zu erleben. Die Musik wird über Vibrationen erlebbar. Ist die Funktion aktiviert, spielt die „Taptic Engine“ im iPhone Klopfgeräusche, Texturen und feine Vibrationen zum Rhythmus der Musik ab. Music Haptics funktioniert mit Millionen von Songs aus dem Apple Music Katalog und wird auch für Entwickler*innen von Apps verfügbar sein.
Vokale Kurzbefehle für individuelle Aufgaben
„Vocal Shortcuts“ ermöglichen Nutzer*innen von iPhones und iPads, Aufgaben erledigen zu lassen, indem sie ein von den Nutzer*innen ausgewähltes Geräusch erzeugen. So können mithilfe der eigenen Stimme erzeugte Kurzbefehle zuvor definierte Funktionen zum Laufen bringen.
Atypische Sprache wird vom Gerät erkannt
Die Funktion „Listen for Atypical Speech“ ermöglicht eine Spracherkennung für ein breiteres Spektrum an Sprache, indem sie das Sprachmuster der Benutzerin bzw. des Benutzers erkennt. Zielgruppe dieser Funktion sind Menschen mit erworbenen oder fortschreitenden Erkrankungen, die deren Sprache beeinträchtigen – beispielsweise Spastik, zerebrale Lähmung, Amyotrophe Lateralsklerose (ALS), Multiple Sklerose oder Schlaganfall.
Mit dem Feature “Atypical Speech” erlernen die Geräte mittels Künstlicher Intelligenz die Erkennung der Stimme und Aussprache ihrer Benutzer*innen. Damit soll erreicht werden, dass Sprachsteuerung zuverlässiger funktioniert.
Sarah Herrlinger, Senior Director of Global Accessibility Policy and Initiatives bei Apple, erklärte in einer Aussendung anlässlich der Vorstellung der neuen Barrierefreiheits-Funktionen: „Diese neuen Features werden sich auf das Leben einer Vielzahl von Nutzern auswirken und ihnen neue Möglichkeiten bieten, zu kommunizieren, ihre Geräte zu steuern und sich in der Welt zu bewegen.“
Sollten Apple-Nutzer*innen Vorschläge hinsichtlich Bedienungshilfen einbringen wollen, finden sie hier mehr Informationen: https://support.apple.com/de-de/HT209585.
Quelle: Apple