Fazer login no IT Mídia Redefinir senha
Bem-vindo de volta,
Digite seu e-mail e clique em enviar
Ainda não tem uma conta? Cadastre-se
Logo ITMidia
Logo ComputerWorld
Logo PCWorld
Logo CIO
Logo ITForum
Salvar em Nova pasta de favoritos

+

Criar pasta
Últimos favoritos Ver todos
Últimas notícias do conteúdo : Ver todos
Google mostra novidades de IA que auxilia pessoas com dificuldades de fala
Google mostra novidades de IA que auxilia pessoas com dificuldades de fala
Home > Inovação

Google mostra novidades de IA que auxilia pessoas com dificuldades de fala

Tecnologia faz parte do Project Euphonia e acaba de apresentar seus primeiros resultados

Da Redação

14/08/2019 às 15h33

Foto: Divulgação/YouTube

Em um universo com smartphones, TVs inteligentes e alto-falantes conectados, usar a voz para executar diferentes comandos é um hábito que só tende a crescer. Mas como incluir nesse espectro de consumo pessoas que, por alguma condição física, têm dificuldades com a fala?

Pensando nessa questão o Google lançou em maio o Project Euphonia, que pretende explorar os recursos de inteligência artificial para averiguar como esse recurso pode interpretar e entender de forma mais eficiente as frases ditas por pessoas cuja velocidade ou pronúncia fuja do padrão aprendido pelo software. E a iniciativa acabou de apresentar seus primeiros resultados.

A companhia apresentou o vídeo abaixo, que mostra o pesquisador russo Dimitri Kanesky, que ficou surdo quando criança, tentando (e não conseguindo) se comunicar com o alto-falante Google Home. E depois, com a ajuda de um programa chamado Parrotron, sendo capaz de interagir com a caixa inteligente:

A companhia de Mountain View também publicou um post explicando como foi realizado o trabalho atual. De acordo com o texto, um formato de reconhecimento de voz padrão foi usado como base e depois modificado de acordo com as horas de gravação recolhidas pelo time de pessoas com dificuldades de fala. Essa medida, de acordo com o comunicado, já reduziu em até um terço o número de vezes em que o sistema não entendia (ou confundia) o que era dito.

Com base nos resultados, a pesquisa também apresentou os dois erros mais comuns cometidos pelos sistemas de análise de reconhecimento automático de fala (ASR, em inglês). O primeiro é o fato de que a IA troca alguma letra (como entender ‘b’ no lugar de ‘p’) e acaba não interpretando a frase corretamente.

O segundo erro mais comum detectado pelo time acontece quando a tecnologia entende uma palavra quando o usuário na verdade falou outra. Por exemplo: ao invés de “ligue a música”, o sistema interpreta como “ligue a máquina”.

Esses são alguns dos pontos que a pesquisa deseja explorar no futuro, especialmente coletando áudios de pessoas com alguma condição diferente de fala, para treinar a IA e aprimorar o trabalho realizado.  O projeto até disponibilizou um formulário para quem desejar contribuir com os áudios, então é possível que surjam novidades em breve.

 

Junte-se a nós e receba nossas melhores histórias de tecnologia. Newsletter por e-mail Newsletter por e-mail
Vai um cookie?

A IT Mídia usa cookies para personalizar conteúdo e anúncios, para melhorar sua experiência em nosso site. Ao continuar, você aceitará o uso. Para mais detalhes veja nossa Política de Privacidade.

Este anúncio desaparecerá em:

Ir para o site