Fazer login no IT Mídia Redefinir senha
Bem-vindo de volta,
Digite seu e-mail e clique em enviar
Ainda não tem uma conta? Cadastre-se
Logo ITMidia
Logo ComputerWorld
Logo PCWorld
Logo CIO
Logo ITForum
Salvar em Nova pasta de favoritos

+

Criar pasta
Últimos favoritos Ver todos
Últimas notícias do conteúdo : Ver todos
Como os assistentes de voz estão reforçando estereótipos de gênero
Como os assistentes de voz estão reforçando estereótipos de gênero
Home > Mobilidade

Como os assistentes de voz estão reforçando estereótipos de gênero

Assistentes virtuais com vozes e nomes femininos perpetuam na sociedade comportamentos antiquados e prejudiciais contra mulheres, indica estudo da ONU

Da Redação

23/05/2019 às 8h02

Foto: Shutterstock

Siri, Alexa, Cortana... já reparou que os sistemas de assistente de voz baseados em inteligência artificial das gigantes de tecnologia têm vozes femininas por padrão? De acordo com o novo estudo publicado esta semana pela Organização das Nações Unidas (ONU), essas assistentes reforçam e perpetuam na sociedade estereótipos de gênero prejudiciais às mulheres.

Como no futuro os assistentes de voz serão cada vez mais o principal modo de interação entre hardware e software, a forma como emitimos comandos para essas inteligências podem acarretar efeitos culturais e sociais nocivos a longo prazo.

A pesquisa intitulada “Eu coraria se pudesse”, ganhou esse nome em alusão às respostas dadas por Siri, assistente virtual da Apple, quando recebe estímulos abusivos e de conotação sexual. Desenvolvido pela Organização das Nações Unidas para a Educação, a Ciência e a Cultura (UNESCO), o levantamento explora os efeitos do preconceito às mulheres na pesquisa e desenvolvimento da IA e na criação de produtos e aplicações.

Essas assistentes de voz digital são oferecidas como ajudantes subservientes, disponíveis para cumprir ordens incondicionais e atender as vontades de alguém de maneira submissa. O relatório argumenta que ao nomear suas assistentes de voz com nomes femininos, as empresas de tecnologia pré-condicionam os usuários, inclusive crianças, a recorrerem a percepções antiquadas e prejudiciais sobre as mulheres, servindo como um espelho social.

E ainda há um agravante: as empresas não estão programando essas inteligências artificiais para reagir a assédios e frases ofensivas recebidas. Em vez disso, a maioria das assistentes (Siri, Alexa, Cortana e Google Assistente) tendem a desviar da agressão com frases sutis ou até mesmo com brincadeiras.

Estereótipos de gênero perpetuados pela IA

O estudo afirma que “empresas como a Apple e a Amazon, formadas por equipes de engenharia predominantemente masculinas, criaram sistemas de inteligência artificial que fazem com que seus assistentes digitais femininos cumprimentem o abuso verbal com flertes ‘prenda-me se for capaz’”.

Ao utilizar vozes femininas, essas companhias sugerem que “as mulheres são (...) ajudantes dóceis e ansiosas para agradar, disponíveis ao toque de um botão ou com um comando de voz contundente como 'ei' ou 'OK'. O assistente não tem poder de agir além do que o usuário pede. Honra comandos e responde a perguntas, independentemente do seu tom ou hostilidade”.

O problema, de acordo com o relatório, está na falta de diversidade nas indústrias de IA e de tecnologia. O campo da pesquisa em IA é predominantemente branco e masculino, como revelou uma levantamento do AI Now Institute, divulgada em abril. Cerca de 80% dos pesquisadores de IA são homens, enquanto as mulheres representam uma minoria esmagadora entre os pesquisadores de IA no Facebook (15%) e no Google (10%).

O nome dessas assistentes foram escolhidos com base em pesquisas de mercado que reforçam ainda mais estereótipos de gênero. A Amazon optou por uma voz feminina, a Alexa, ao descobrir que ela seria recebida como "simpática" e, portanto, mais útil. A Microsoft, por outro lado, batizou sua assistente de Cortana com o nome da personagem fictícia do game Halo, mesmo assim, não há a opção de mudar para uma voz masculina. Já Siri, assistente da Apple, é um nome escandinavo que significa “linda mulher que te leva à vitória”. Por padrão, o Google também oferece uma voz feminina para sua assistente virtual.

Como solução para evitar perpetuação de estereótipos nos assistentes de voz, a UNESCO propõe a criação de vozes assistentes neutras em termos de gênero e o desenvolvimento de sistemas que desencorajem insultos baseados em gênero. Além disso, a pesquisa defende que as empresas de tecnologia não incentivem os usuários a tratarem a IA como um ser humano servil, e sim como entidades propositadamente não-humanas.

 

Junte-se a nós e receba nossas melhores histórias de tecnologia. Newsletter por e-mail Newsletter por e-mail
Vai um cookie?

A IT Mídia usa cookies para personalizar conteúdo e anúncios, para melhorar sua experiência em nosso site. Ao continuar, você aceitará o uso. Para mais detalhes veja nossa Política de Privacidade.

Este anúncio desaparecerá em:

Ir para o site