Pomme a intégré une nouvelle fonctionnalité d’accessibilité intéressante dans la dernière version bêta d’iOS – un système qui détecte la présence et la distance des personnes en vue de la caméra de l’iPhone, afin que les utilisateurs aveugles puissent effectivement prendre une distance sociale, entre autres.

La fonctionnalité est née du ARKit d’Apple, pour lequel la société a développé «l’occlusion des personnes», qui détecte les formes des personnes et laisse passer les objets virtuels devant et derrière eux. L’équipe d’accessibilité a réalisé que, combiné aux mesures de distance précises des unités lidar sur l’iPhone 12 Pro et Pro Max, cela pouvait être un outil extrêmement utile pour toute personne ayant une déficience visuelle.

Bien sûr, pendant la pandémie, les gens pensent immédiatement à l’idée de rester à deux mètres des autres. Mais savoir où sont les autres et à quelle distance est une tâche visuelle de base que nous utilisons toujours pour planifier où marcher, quelle ligne entrer au magasin, s’il faut traverser la rue, etc.

La nouvelle fonctionnalité, qui fera partie de l’application Magnifier, utilise le lidar et la caméra grand angle des Pro et Pro Max et fournit des commentaires à l’utilisateur de différentes manières.

Le lidar de l’iPhone 12 Pro apparaît dans cette vidéo infrarouge. Chaque point représente la distance précise de ce sur quoi il réfléchit.

Tout d’abord, il indique à l’utilisateur s’il y a des personnes en vue. Si quelqu’un est présent, il indiquera à quelle distance se trouve la personne la plus proche en pieds ou en mètres, et sera mis à jour régulièrement à mesure qu’elle se rapproche ou s’éloigne. Le son correspond en stéréo à la direction dans laquelle la personne se trouve dans le champ de vision de la caméra.

LIRE  Tencent Music Entertainment soutient Wave pour apporter le divertissement virtuel en Chine

Deuxièmement, l’utilisateur peut définir des tonalités qui correspondent à certaines distances. Par exemple, s’ils définissent la distance à 6 pieds, ils entendront une tonalité si une personne est à plus de 6 pieds, une autre si elle se trouve dans cette plage. Après tout, tout le monde ne veut pas un approvisionnement régulier de distances exactes alors que tout ce qui leur importe est à deux pas.

La troisième caractéristique, peut-être particulièrement utile pour les personnes ayant une déficience visuelle et auditive, est une impulsion haptique qui accélère au fur et à mesure que la personne se rapproche.

Burden est une fonction visuelle pour les personnes qui ont besoin d’un peu d’aide pour discerner le monde qui les entoure, une flèche pointant vers la personne détectée à l’écran. Après tout, la cécité est un spectre et un certain nombre de problèmes de vision peuvent amener une personne à avoir besoin d’un peu d’aide à cet égard.

Avec ADA qui fête ses 30 ans, la technologie ne fait que commencer à aider les personnes handicapées

Le système nécessite une vue correcte sur la caméra grand angle, il ne fonctionnera donc pas dans l’obscurité totale. Et bien que la limitation de la fonctionnalité au sommet de la gamme iPhone réduit quelque peu la portée, l’utilité sans cesse croissante d’un tel appareil en tant que sorte de prothèse de vision rend probablement l’investissement dans le matériel plus acceptable pour ceux qui en ont besoin.

C’est loin d’être le premier outil comme celui-ci – de nombreux téléphones et appareils spécialisés ont des fonctions de recherche d’objets et de personnes, mais il n’est pas très courant de les intégrer par défaut.

LIRE  Netflix teste une chaîne de télévision et de cinéma linéaire programmée en France

La détection humaine devrait être disponible pour iPhone 12 Pro et Pro Max avec la version candidate d’iOS 14.2 qui vient d’être rendue disponible aujourd’hui. Des détails devraient bientôt apparaître sur le site dédié à l’accessibilité iPhone d’Apple.

Microsoft Soundscape aide les malvoyants à naviguer dans les villes