O iPhone pode ser ensinado a falar com a voz do usuário ou transformado no telefone da avó com ícones enormes

A Apple anunciou uma série de novas soluções de tecnologia voltadas principalmente para usuários com deficiência, mas também serão úteis para pessoas mais velhas e outros usuários. As ferramentas devem chegar ao iPhone, iPad e Mac ainda este ano. A empresa enfatiza que eles são criados levando em consideração o feedback de pessoas com deficiência visual, auditiva e de fala.

Fonte da imagem: Apple

Em breve para iOS e iPadOS, o Acesso Assistivo foi desenvolvido para pessoas com deficiências cognitivas. O recurso redesenha a interface do iPhone e do iPad com foco em facilitar a conexão com seus entes queridos, compartilhar fotos e ouvir música. Por exemplo, os aplicativos Phone e FaceTime são mesclados em um só. O design também foi simplificado com a inclusão de ícones maiores, maior contraste e rótulos de texto mais claros. Assim como os telefones da vovó. O usuário pode personalizar esses recursos visuais ao seu gosto, e essas personalizações serão aplicadas a qualquer aplicativo compatível.

Como parte da ferramenta Magnifier existente, os usuários com deficiência visual já podem usar o telefone para localizar portas, pessoas ou sinais próximos. A Apple agora está apresentando um recurso chamado Point and Speak, que usa a câmera do dispositivo e o scanner LiDAR para ajudar pessoas com deficiência visual a interagir com objetos físicos que possuem vários rótulos de texto. Assim, se um usuário com deficiência visual quiser colocar comida no micro-ondas, ele pode usar o recurso Apontar e Falar para distinguir os botões de pipoca, pizza e liga/desliga — quando o dispositivo identifica esse texto, ele o lê em voz alta. O recurso estará disponível em inglês, francês, italiano, alemão, espanhol, português, chinês, coreano, japonês e ucraniano.

Um recurso particularmente interessante desse grupo é o Personal Voice, que cria uma voz semelhante à voz do usuário. A ferramenta destina-se a pessoas que correm o risco de perder a capacidade de falar devido a doenças como a esclerose lateral amiotrófica. Para criar uma voz pessoal, o usuário deve gastar cerca de quinze minutos lendo prompts de texto selecionados aleatoriamente no microfone de um smartphone ou computador. O áudio é então processado localmente no iPhone, iPad ou Mac usando aprendizado de máquina para criar uma voz personalizada. Segundo a Apple, os dados de voz do usuário nunca serão compartilhados com terceiros, nem mesmo com a própria Apple. O Personal Voice estará disponível apenas para usuários que falam inglês.

Para pessoas com problemas de voz, a empresa lançou o recurso Live Speech, que permite falar o texto digitado no teclado. A ferramenta está disponível imediatamente na tela de bloqueio, mas também pode ser usada em outros aplicativos como o FaceTime. Além disso, se os usuários frequentemente precisam repetir as mesmas frases – por exemplo, ao pedir um café normalmente – eles podem salvar frases predefinidas no Live Speech. As ferramentas existentes de fala para texto da Apple também estão sendo atualizadas. Agora, o recurso Voice Control incluirá edição de texto fonético, o que permitirá que as pessoas que digitam com a voz corrijam erros rapidamente. O recurso estará disponível em inglês, espanhol, francês e alemão.

Espera-se que esses recursos de acessibilidade sejam lançados em vários produtos da Apple ainda este ano. Em termos de ofertas existentes, a Apple está expandindo o acesso ao SignTime na Alemanha, Itália, Espanha e Coréia do Sul. Esse recurso oferece aos usuários ferramentas para traduzir a linguagem de sinais.

avalanche

Postagens recentes

Numerosos componentes chineses foram encontrados dentro de robôs humanoides americanos, incluindo o Tesla Optimus.

O boom da inteligência artificial impulsionou o segmento de robôs humanoides, e figuras de destaque…

17 minutos atrás

A Nvidia demonstrou a tecnologia RTX Mega Geometry em The Witcher 4 — em uma RTX 5090, a demonstração técnica alcançou 80 fps em 4K com DLSS.

A Nvidia divulgou a gravação completa de sua apresentação na GDC 2026, mostrando a tecnologia…

40 minutos atrás

A OpenAI decidiu repentinamente gastar mais de cem milhões de dólares para comprar um programa de entrevistas popular.

Ao que tudo indicava, o abandono de áreas de desenvolvimento secundárias, incluindo o fim do…

4 horas atrás

A IBM está criando laços entre mainframes e arquiteturas Arm, mas parece não entender completamente o porquê.

A IBM anunciou uma colaboração estratégica com a Arm para "desenvolver um novo hardware de…

9 horas atrás