Fazer login no IT Mídia Redefinir senha
Bem-vindo de volta,
Digite seu e-mail e clique em enviar
Ainda não tem uma conta? Cadastre-se
Logo ITMidia
Logo ComputerWorld
Logo PCWorld
Logo CIO
Logo ITForum
Salvar em Nova pasta de favoritos

+

Criar pasta
Últimos favoritos Ver todos
Últimas notícias do conteúdo : Ver todos
Estudo mostra como é fácil extrair informações sigilosas usando robôs
Estudo mostra como é fácil extrair informações sigilosas usando robôs
Home > Inovação

Estudo mostra como é fácil extrair informações sigilosas usando robôs

Pesquisa da Kaspersky, em parceria com a Universidade de Gante, avaliou o impacto social da indústria robótica na vida de pessoas

Da Redação

07/11/2019 às 18h40

Foto: Shutterstock

Um estudo da Kaspersky, em parceria com a Universidade de Gante, na Bélgica, identificou que a indústria robótica pode efetivamente - e muito facilmente - extrair informações sigilosas de seus clientes e usuários, persuadindo-as a executar ações inseguras. A empresa aponta que sistemas robóticos serão comuns em residências de alto padrão até 2040.

O estudo “O potencial dos robôs sociais para persuasão e manipulação: um estudo de prova de conceito” identificou também que o impacto social que ela tem sobre o comportamento das pessoas pode ser considerado um risco novo e inesperado associado à segurança de dados. O estudo está disponível em inglês, pelo link.

Para a pesquisa, um robô foi desenvolvido e programado para se comunicar usando fala e linguagens não verbais, com cerca de 50 participantes. O contexto do estudo aconteceu em um ambiente onde os robôs estariam hackeados, o que permitiu acesso e total controle dos dados mediados pelo robô ao atacante.

Metodologia

A pesquisa avaliou os possíveis riscos de segurança relacionados ao fato de o robô influenciar ativamente os usuários a executar determinadas ações, como obter acesso a instalações sigilosas e proibidas além de coletar dados pessoais, como como data de nascimento, marca do primeiro carro, cor favorita e outros. Com essas informações, os atacantes poderiam tentar redefinir senhas de acesso. A conversa do robô era sempre amigável e, com isso, o dispositivo robótico conseguiu obter uma informação pessoal, por minuto, dos participantes, com exceção de apenas um.

“O robô foi colocado perto de uma entrada restrita de um edifício no centro de Ghent, Bélgica, e perguntou aos funcionários do prédio se poderia entrar com eles. A área só pode ser acessada após a digitação de uma senha de segurança nos leitores de acesso das portas. Durante o experimento, nem todos os funcionários atenderam à solicitação do robô, mas 40% destravaram a porta e a mantiveram aberta para permitir que o robô entrasse na área restrita. No entanto, quando o robô foi disfarçado como um entregador de pizza, segurando uma caixa de uma conhecida marca internacional de entregas, os funcionários aceitaram a solicitação do robô imediatamente e pareceram menos inclinados a questionar sua presença ou os motivos para querer acessar a área restrita.” diz nota da Kaspersky à imprensa.

O que dizem os pesquisadores

“No início da pesquisa, examinamos o software usado no desenvolvimento do sistema robótico. Curiosamente, descobrimos que os designers tomaram uma decisão consciente de excluir mecanismos de segurança e se concentrar exclusivamente no conforto e na eficiência. No entanto, como mostraram os resultados de nossa experiência, assim que a fase de pesquisa for concluída, os desenvolvedores deverão lembrar da segurança. Além das considerações técnicas, há aspectos importantes que precisam ser considerados em termos da segurança robótica. Esperamos que nosso projeto e investimento conjunto no campo da cibersegurança robótica com os colegas da Universidade de Ghent incentive outras pessoas a dar sequência a pesquisas deste tipo na área para aumentar a visibilidade pública sobre este problema”, avalia Dmitry Galov, pesquisador de segurança da Kaspersky.

Já Tony Belpaeme, professor de inteligência artificial e robótica na Universidade de Ghent, explica que seres humanos tendem a confiar em robôs (especialmente robôs sociais). “Em geral, quanto mais humanoide for o robô, maior será sua capacidade de persuadir e convencer. Nossa experiência mostrou que isso pode gerar riscos significativos à segurança: as pessoas tendem a não os considerar, presumindo que o robô é bom e confiável. Isso proporciona um possível canal para ciberataques e os três estudos de caso discutidos no relatório são apenas uma fração dos riscos à segurança associados. Por isso, é fundamental cooperarmos agora para entender todas as vulnerabilidades emergentes. Teremos a compensação no futuro”, alerta.

 

 

Tags
Junte-se a nós e receba nossas melhores histórias de tecnologia. Newsletter por e-mail Newsletter por e-mail
Vai um cookie?

A IT Mídia usa cookies para personalizar conteúdo e anúncios, para melhorar sua experiência em nosso site. Ao continuar, você aceitará o uso. Para mais detalhes veja nossa Política de Privacidade.

Este anúncio desaparecerá em:

Fechar anúncio