Em menos de um mês, a WWDC, Conferência Mundial de Desenvolvedores da Apple, revelará os planos da empresa para as próximas atualizações de software iOS 18 e iPadOS 18. Mas já sabemos quais recursos de acessibilidade chegarão aos iPhones e iPads ainda este ano, e muitos deles serão úteis para todos, não apenas para usuários com problemas de acessibilidade.
Em 15 de maio, a Apple apresentou seus planos para novos recursos de acessibilidade, que aproveitarão hardware e software avançados no iPhone ou iPad, como silício da Apple, inteligência artificial e aprendizado de máquina, para potencializar novas ferramentas de usabilidade para pessoas com deficiência física, condições que afetam a fala, dificuldades relacionadas à visão e até barrigas sensíveis. Mas você não precisa ter nenhuma dessas condições para ficar entusiasmado com todas as ferramentas de acessibilidade listadas abaixo.
Os desenvolvedores terão acesso aos betas do iOS 18 e iPadOS 18 em 10 de junho – o primeiro dia do WWDC24 – e terão cerca de três meses para preparar seus aplicativos para o lançamento público no outono. Isso significa que alguns dos recursos de acessibilidade abaixo estarão disponíveis em aplicativos de terceiros, não apenas em aplicativos e serviços integrados.
1. Rastreamento ocular
A ferramenta de acessibilidade mais esperada da Apple pode ter sido projetada para usuários com deficiências físicas, mas estará disponível para qualquer pessoa que queira controlar seu iPhone ou iPad usando apenas os olhos.
O Eye Tracking usa sua câmera frontal para configurar, calibrar e analisar os movimentos dos olhos com inteligência no dispositivo e sem hardware ou acessórios adicionais. Os dados coletados são mantidos de forma segura no seu dispositivo, para que você não precise se preocupar com nada enviado ou interceptado em trânsito.
O próximo recurso permitirá que você navegue em qualquer aplicativo iOS ou iPadOS usando os movimentos dos olhos. Em seguida, ele depende do Controle de Dwell, um recurso AssistiveTouch, para executar a ação quando você mantém os olhos fixos em um elemento selecionado da tela ou em uma área específica da tela.
![17 novos recursos de acessibilidade chegando ao iPhone e iPad com iOS 18 e iPadOS 18](https://i3.wp.com/img.gadgethacks.com/img/22/89/63851449301105/0/17-new-accessibility-features-coming-iphone-and-ipad-with-ios-18-and-ipados-18.w1456.jpg?ssl=1)
O Controle de Dwell é tradicionalmente usado com um mouse ou outro ponteiro e pressupõe que o usuário não pode tocar ou clicar fisicamente em nada. Quando o usuário passa o cursor sobre um elemento por um determinado período de tempo, ele simula um toque e pode até simular deslizamentos, botões físicos e outros gestos.
Eye Tracking é apenas um dos muitos novos recursos de inteligência artificial da Apple que chegarão ao iOS 18 e iPadOS 18 ainda este ano.
2. Música ao toque
Com o Music Haptics, usuários surdos ou com deficiência auditiva poderão “ouvir” a música tocada em seu iPhone graças ao Taptic Engine do dispositivo. Quando a música toca no iPhone, o mecanismo produz toques, texturas e vibrações refinadas de acordo com a batida que o usuário pode sentir. A Apple diz que o recurso funciona em milhões de músicas no Apple Music, e haverá uma API Music Haptics para que os desenvolvedores de aplicativos também possam tornar a música mais acessível aos seus usuários.
Assim como o Eye Tracking, o Music Haptics está aberto a qualquer pessoa, portanto pode adicionar outra camada à sua experiência de ouvir música.
![17 novos recursos de acessibilidade chegando ao iPhone e iPad com iOS 18 e iPadOS 18](https://i2.wp.com/img.gadgethacks.com/img/95/58/63851448067448/0/17-new-accessibility-features-coming-iphone-and-ipad-with-ios-18-and-ipados-18.w1456.jpg?ssl=1)