Erro de Software Leva Siri a Gravar Conversas Pessoais dos Utilizadores

Um bug de software na Apple levou a que Siri, o seu recurso de assistente virtual,  gravasse interações pessoais dos seus utilizadores sem o consentimento dos mesmos.

Na semana passada, a Apple reconheceu este problema gravíssimo na sua atualização mais recente, iOS 15. Segundo a própria, o assistente virtual baseado em IA gravou as conversas das pessoas, ainda que as mesmas tenham recusado tal mecanismo: “O bug ativou automaticamente a configuração Improve Siri e Dictation que dá à Apple permissão para gravar, armazenar e rever as conversas pessoais com a Siri”, reportou a ZDNet. Mais tarde, ao emitir um pedido de desculpas, a empresa norte-americana disse que corrigiu o bug para “muitos” usuários. Ainda existem muitas questões sem resposta: a declaração da empresa não esclarece, por exemplo, quantos telefones foram afetados, nem mesmo quando. “Sem transparência, não há como saber quem pode ter as suas conversas gravadas e ouvidas pelos funcionários da Apple, apesar do utilizador ter agido exatamente de forma a evitar esse cenário”, acrescentou o portal online The Verge

Especialistas em tecnologia e IA já argumentaram anteriormente a favor destas grandes empresas de tecnologia ouvirem os nossos pedidos – sobretudo de forma a ajustar as falhas na tecnologia baseada em voz. É o que diz o FAQ da Amazon sobre Alexa: “Quanto mais dados usamos para treinar esses sistemas, melhor o Alexa funciona, e treinar o Alexa com gravações de voz de diversos clientes ajuda a garantir que o Alexa funcione bem para todos”. Por outras palavras, a única maneira de melhorar a tecnologia baseada em voz, de acordo com alguns especialistas, é fazer com que as interações privadas sejam escutadas. Estima-se que, em 2020, mais de 60% dos usuários indianos usaram assistentes de voz nos seus smartphones para uma infinidade de tarefas – desde ouvir música, a definir um alarme, ou até mesmo fazer perguntas.

Florian Schaub, professor assistente da Universidade de Michigan, que estudou as percepções de privacidade das pessoas, argumenta que as pessoas tendem a personificar os seus dispositivos, o que as torna ainda mais desatentas a este tipo de questões. Nesse sentido, quando as mesmas fazem perguntas inócua para o Alexa ou Siri, elas não estão realmente a pensar a fundo sobre estas ações, no entanto, quando percebem que existe alguém a ouvir as suas conversas, sentem que o mesmo é intrusivo e uma violação da sua privacidade, estando por isso muito mais propensas a desconectarem-se destes sistemas. 

Esta é uma questão que levanta uma série de preocupações não só acerca da privacidade dos usuários, mas também sobre a extensão da retenção dos seus dados e como estes são aproveitados e usados por estas empresas. “Os VAs funcionam com base nas vozes dos usuários – é sua principal característica. Todos os VAs mencionados acima são ativados ao ouvir uma palavra-chave de ativação específica. Embora algumas das políticas afirmem que os servidores de cloud não armazenam dados/voz a menos que a palavra de ativação seja detectada, há uma troca constante de voz e dados relacionados entre os seus servidores de cloud e o dispositivo VA. Isto acaba por ser particularmente preocupante em casos de ativação falsa, quando os dados podem ser armazenados sem conhecimento real”, segundo um relatório da Internet Freedom Foundation (IFF)