Apple présente les fonctionnalités d’accessibilité pour iPhone, iPad et Mac avant la WWDC

Apple présente les fonctionnalités d’accessibilité pour iPhone, iPad et Mac avant la WWDC

Apple a présenté mardi en avant-première une poignée de nouvelles fonctionnalités pour le iPhone, iPad et Mac conçu pour améliorer l’accessibilité cognitive, visuelle, auditive et de mobilité, avant Journée mondiale de sensibilisation à l’accessibilité. Les fonctionnalités devraient être déployées plus tard cette année. Cela survient alors qu’Apple se prépare pour son Conférence mondiale des développeursqui démarre le 5 juin.

accesstoolsmom

Regarde ça: Apple met une touche d’intelligence artificielle sur l’accessibilité

Une fonctionnalité, appelée Live Speech, s’adresse aux utilisateurs qui ne parlent pas ou qui ont divers modèles d’élocution ou des handicaps. Live Speech permet à quelqu’un de taper ce qu’il veut dire, puis de le faire dire à haute voix. La fonctionnalité peut être utilisée pour les conversations en personne ainsi que par téléphone et sur FaceTime. Il fonctionne sur iPhone, iPad et Mac et utilise toutes les voix d’appareils intégrés comme Siri. Vous pouvez par exemple dire “Enchanté de vous rencontrer, je suis…” et vous présenter. Vous pouvez également enregistrer des phrases préférées telles que “Puis-je, s’il vous plaît, prendre un café noir ?”

Pour aller plus loin dans cette fonctionnalité, Personal Voice, qui permet aux utilisateurs à risque de perdre la parole de créer une voix qui leur ressemble, puis de la faire parler à haute voix leurs phrases tapées. Personal Voice utilise l’apprentissage automatique sur l’appareil. Pour former la fonctionnalité, une personne passe environ 15 minutes à prononcer une série d’invites de texte à haute voix sur iPhone ou iPad.

contrôleur d'accessibilité

Regarde ça: L’accessibilité technologique est à la traîne. Voici pourquoi cela doit changer

L’application Magnifier de l’iPhone bénéficie également d’une nouvelle fonctionnalité appelée Point and Speak, qui permet aux utilisateurs malvoyants de pointer vers des objets avec des étiquettes de texte et de faire lire ce texte à haute voix par leur appareil. Par exemple, quelqu’un pourrait l’utiliser pour identifier les boutons d’un micro-ondes. Point and Speak utilise l’appareil photo de votre téléphone, le scanner lidar et l’apprentissage automatique sur l’appareil pour trouver et reconnaître du texte lorsque vous déplacez votre doigt sur différents objets. Point and Speak peut être utilisé avec d’autres fonctionnalités de la loupe telles que Détection de personnes, Détection de porte et les descriptions d’images, qui aident les utilisateurs aveugles et malvoyants à naviguer et à identifier leur environnement.

Assistive Access est conçu pour les personnes souffrant de troubles cognitifs et offre une interface d’appareil plus ciblée pour alléger la charge cognitive. Cela inclut de grandes étiquettes de texte et des boutons à contraste élevé sur l’écran d’accueil de l’iPhone et dans les appels, les messages, l’appareil photo, les photos et la musique. L’expérience peut être adaptée à différentes préférences. Par exemple, quelqu’un qui préfère la communication visuelle peut utiliser un clavier emoji uniquement dans Messages ou peut enregistrer un message vidéo à envoyer.

“Ces fonctionnalités révolutionnaires ont été conçues avec les commentaires des membres des communautés de personnes handicapées à chaque étape du processus, pour prendre en charge un ensemble diversifié d’utilisateurs et aider les gens à se connecter de nouvelles façons”, a déclaré Sarah Herrlinger, directrice principale de la politique et des initiatives d’accessibilité mondiales d’Apple, dans une déclaration.

D’autres mises à jour d’accessibilité à venir cette année incluent la possibilité de coupler Made for iPhone appareils auditifs directement sur Mac et pour ajuster plus facilement la taille du texte dans les applications Mac telles que Finder, Messages, Mail, Calendar et Notes. Voice Control ajoute également des suggestions phonétiques, afin que les utilisateurs qui tapent en utilisant leur voix puissent choisir le mot correct s’il y en a d’autres qui semblent similaires, comme do, due et dew.

Apple lance également jeudi SignTime en Allemagne, en Italie, en Espagne et en Corée du Sud, qui permet aux clients de l’Apple Store de communiquer avec le personnel via des interprètes en langue des signes. Le service est déjà disponible aux États-Unis, au Royaume-Uni, au Canada, en France, en Australie et au Japon.

Apple est l’une des nombreuses entreprises à renforcer ses offres d’accessibilité. D’autres géants de la technologie comme Google ont déployé des fonctionnalités telles que Chercher, qui aide les utilisateurs aveugles et malvoyants à identifier des objets et à lire des documents à l’aide de l’appareil photo de leur téléphone. L’année dernière, Google a ajouté une fonctionnalité appelée Cadre guidé à ses téléphones Pixel, qui utilise des signaux audio et haptiques pour donner aux utilisateurs des conseils précis pour cadrer leurs selfies.

Lire aussi  One Punch Man : World lance la préinscription avant le test bêta fermé

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick