13 Jul
13Jul

Os Assistentes Virtuais ativados por voz são, sem dúvida, muito úteis. No entanto, também levantam algumas questões de privacidade. Por exemplo, como os alto falantes inteligentes usam palavras-chave específicas para funcionar, algumas vezes podem ser ativados inesperadamente se ouvirem algo semelhante a esses comandos. Um grupo de pesquisadores provenientes da Universidade Ruhr-Universität Bochum na Alemanha e do Instituto Max Planck encontrou mil palavras que podem acidentalmente ativar um desses equipamento inteligente que você tenha em casa.   Os pesquisadores utilizaram dispositivos que já trazem integrados a Alexa, a Siri, o Google Assistant e outros três exclusivos do mercado chinês. Colocaram-nos ligados numa sala onde havia uma TV que reproduzia séries populares como Game of Thrones, House of Cards e Modern Family. Dessa forma, enquanto elas eram exibidas, o grupo podia verificar se os Assitentes Virtuais eram ativados ou não, pois uma luz LED acendia, sempre que um deles respondia.Quando o Assistente Virtual presente num dispositivo é ativado, ele usa o software de análise local para detectar se as palavras são ditas intencionalmente com o objetivo de ativação.  Se o dispositivo concluir que as palavras foram realmente ditas para acionar o assistente, ele envia uma gravação do clipe para os servidores na cloud para análise posterior. De acordo com os pesquisadores, os programadores dos equipamentos inteligentes adicionaram inúmeras palavras chave que ativam, intencionalmente, o assistente de voz integrado e essa ativação é imediata. Segundo um dos investigadores isto pode ser alarmante, uma vez que conversas muito particulares podem acabar nos ouvidos de estranhos. Do ponto de vista da engenharia, no entanto, esta abordagem é bastante compreensível, porque os sistemas só podem ser melhorados usando esses dados. É absolutamente necessário encontrar um equilíbrio no meio disto tudo.

Comentários
* O e-mail não será publicado no site.