Apple hat heute eine Reihe neuer Funktionen zur Verbesserung der kognitiven, visuellen und verbalen Zugänglichkeit vorgestellt. Diese Tools sollen noch in diesem Jahr auf iPhones, iPads und Macs erhältlich sein. Als etablierter Marktführer im Bereich Barrierefreiheit für Mainstream-Technologie betont Apple, dass diese Tools auf der Grundlage des Feedbacks von Behindertengemeinschaften entwickelt werden.
Assistive Access, bald für iOS und iPadOS erhältlich, ist für Menschen mit kognitiven Beeinträchtigungen konzipiert. Assistive Access vereinfacht die Benutzeroberfläche von iPhone und iPad und legt dabei besonderen Wert darauf, das Sprechen mit Ihren Lieben, das Teilen von Fotos und das Hören von Musik zu erleichtern. Beispielsweise werden Telefon- und FaceTime-Apps in einem zusammengefasst.
Das Design wird außerdem durch die Integration großer Symbole, erhöhter Kontrast und klarerer Textbeschriftungen verständlicher, um die Anzeige zu vereinfachen. Der Benutzer kann diese visuellen Funktionen jedoch nach seinen Wünschen anpassen und diese Präferenzen werden über jede mit Assistive Access kompatible Anwendung übertragen.
Als Teil des vorhandenen Vergrößerungstools können blinde und sehbehinderte Benutzer ihre Telefone bereits nutzen, um in der Nähe befindliche Türen, Personen oder Schilder zu identifizieren. Apple bietet jetzt eine Funktion namens „Point and Speak“ an, die die Kamera und den LiDAR-Scanner des Geräts nutzt, um sehbehinderten Menschen die Interaktion mit physischen Objekten zu erleichtern, die viele Textbeschriftungen enthalten.

Bildnachweis: Apfel
Wenn also ein sehbehinderter Benutzer Lebensmittel in der Mikrowelle erhitzen möchte, kann er mit Point and Speak den Unterschied zwischen den Tasten „Popcorn“, „Pizza“ und „Leistungsstufe“ erkennen – wenn das Gerät diesen Text erkennt, erkennt er den Unterschied zwischen den Tasten „Popcorn“, „Pizza“ und „Leistungsstufe“. liest es laut vor. Point and Speak wird auf Englisch, Französisch, Italienisch, Deutsch, Spanisch, Portugiesisch, Chinesisch, Kantonesisch, Koreanisch, Japanisch und Ukrainisch verfügbar sein.
Ein besonders interessantes Feature der Suite ist Personal Voice, das eine Roboterstimme erzeugt, die wie Sie und nicht wie Siri klingt. Das Tool wurde für Menschen entwickelt, bei denen das Risiko besteht, dass sie aufgrund von Erkrankungen wie ALS ihre Fähigkeit zum Sprechen verlieren. Um eine persönliche Stimme zu erzeugen, muss der Benutzer etwa fünfzehn Minuten damit verbringen, zufällig ausgewählte Texte klar und deutlich in das Mikrofon vorzulesen. Anschließend wird der Ton mithilfe von maschinellem Lernen lokal auf Ihrem iPhone, iPad oder Mac verarbeitet, um Ihre ganz persönliche Stimme zu erzeugen. Es klingt ähnlich wie das, was Acapela mit seinem My Own Voice-Dienst macht, der mit anderen Hilfsgeräten funktioniert.
Es ist leicht zu erkennen, wie gefährlich ein Repository mit hochqualifizierten, einzigartigen Skriptvorlagen in den falschen Händen sein kann. Laut Apple werden diese personalisierten Audiodaten jedoch niemals an Dritte weitergegeben, auch nicht an Apple selbst. Tatsächlich sagt Apple, dass Ihre persönliche Stimme nicht mit Ihrer Apple-ID verknüpft wird, da einige Haushalte möglicherweise an der Anmeldung beteiligt sind. Stattdessen müssen sich Benutzer anmelden, wenn sie auf ihrem iPhone auf die persönlichen Audiodaten zugreifen möchten, die sie auf ihrem Mac erstellen, oder umgekehrt.
Zum Start steht Personal Voice nur englischsprachigen Personen zur Verfügung und kann nur auf Geräten mit Apple-Silizium erstellt werden.
Egal, ob Sie für Siri oder Ihre doppelte KI-gestützte Stimme sprechen, Apple erleichtert nonverbalen Menschen die Kommunikation. Live Speech ist auf allen Apple-Geräten verfügbar und ermöglicht es Menschen, das, was sie sagen möchten, einzugeben, damit es laut gesprochen werden kann. Das Tool ist im Standby-Modus auf dem Sperrbildschirm verfügbar, kann aber auch in anderen Apps wie FaceTime verwendet werden. Wenn Benutzer außerdem häufig dieselben Sätze wiederholen müssen – beispielsweise bei einer normalen Kaffeebestellung –, können sie vorgefertigte Sätze in Live Speech speichern.
Auch die bestehenden Speech-to-Text-Tools von Apple werden einem Upgrade unterzogen. Jetzt umfasst die Sprachsteuerung die Bearbeitung von Sprachtexten, sodass Menschen, die mit ihrer Stimme tippen, Fehler schneller korrigieren können. Wenn Sie also sehen, dass Ihr Computer das Wort „cool“ kopiert, Sie aber „grey“ sagen wollten, wäre es einfacher, diese Korrektur vorzunehmen. Diese Funktion, Sprachvorschläge, wird vorerst auf Englisch, Spanisch, Französisch und Deutsch verfügbar sein.

Bildnachweis: Apfel
Es wird erwartet, dass diese Barrierefreiheitsfunktionen noch in diesem Jahr für mehrere Apple-Produkte eingeführt werden. Was seine aktuellen Angebote betrifft, weitet Apple am Donnerstag den Zugang zu SignTime auf Deutschland, Italien, Spanien und Südkorea aus. SignTime stellt Benutzern On-Demand-Gebärdensprachdolmetscher für Apple Store- und Apple Support-Kunden zur Verfügung.