Apple möchte das iPhone-Erlebnis möglichst barrierefrei gestalten und stellt deshalb eine Reihe praktischer Bedienungshilfen bereit. Mit den neuen Funktionen für kognitive, sprachliche und visuelle Barrierefreiheit wird das Angebot demnächst um weitere Features ergänzt. Darunter auch die Möglichkeit, sich einen Text, auf den man mit dem Finger zeigt, laut vom iPhone vorlesen zu lassen.
„Point and Speak“: Neuer Erkennungsmodus hilft bei Sehproblemen
Apple hat immer auch die Bedürfnisse von Nutzern mit Einschränkungen im Blick und beweist diesen Anspruch mit einem stetig größer werdenden Angebot an Bedienungshilfen auf dem iPhone. Erst kürzlich hat der Hersteller weitere Barrierefreiheit-Features via Pressemitteilung angekündigt, die sich an Menschen mit kognitiven, visuellen, auditiven oder motorischen Einschränkungen richten.
Für Blinde und Nutzer mit eingeschränktem Sehvermögen hat Apple in diesem Zusammenhang auch eine spezielle Erkennungsfunktion in der Lupe-App namens „Point and Speak“ angekündigt. Das Feature soll helfen, besser mit physischen Objekten, die mehrere Beschriftungen haben – z. B. Haushaltsgeräte – interagieren zu können. Dafür muss nur der Finger über die Tastatur im Kamerabild bewegt werden und das iPhone sagt automatisch den Text auf jeder Taste an. Möglich macht dies ein Zusammenspiel aus Kamera-App, LiDAR-Scanner und maschinellem Lernen. Am besten schaut ihr euch dazu das nachfolgende kurze Apple-Video an.
Die neue Funktion soll sich im Übrigen auch hervorragend mit weiteren Bedienungshilfen wie VoiceOver sowie der Personenerkennung, Türerkennung und Bildbeschreibungen in der iPhone-Lupe verstehen. Wann genau „Point and Speak“ aufs iPhone kommt, ist noch nicht bekannt. Laut Apple sollen die neuen Bedienungshilfen aber noch im Laufe des Jahres eingeführt werden. Wir rechnen damit, dass es mit iOS 17 im Herbst so weit sein wird.