Um bug de software na Apple levou a que Siri, o seu recurso de assistente virtual, gravasse interações pessoais dos seus utilizadores sem o consentimento dos mesmos.
Na semana passada, a Apple reconheceu este problema gravíssimo na sua atualização mais recente, iOS 15. Segundo a própria, o assistente virtual baseado em IA gravou as conversas das pessoas, ainda que as mesmas tenham recusado tal mecanismo: “O bug ativou automaticamente a configuração Improve Siri e Dictation que dá à Apple permissão para gravar, armazenar e rever as conversas pessoais com a Siri”, reportou a ZDNet. Mais tarde, ao emitir um pedido de desculpas, a empresa norte-americana disse que corrigiu o bug para “muitos” usuários. Ainda existem muitas questões sem resposta: a declaração da empresa não esclarece, por exemplo, quantos telefones foram afetados, nem mesmo quando. “Sem transparência, não há como saber quem pode ter as suas conversas gravadas e ouvidas pelos funcionários da Apple, apesar do utilizador ter agido exatamente de forma a evitar esse cenário”, acrescentou o portal online The Verge.
Especialistas em tecnologia e IA já argumentaram anteriormente a favor destas grandes empresas de tecnologia ouvirem os nossos pedidos – sobretudo de forma a ajustar as falhas na tecnologia baseada em voz. É o que diz o FAQ da Amazon sobre Alexa: “Quanto mais dados usamos para treinar esses sistemas, melhor o Alexa funciona, e treinar o Alexa com gravações de voz de diversos clientes ajuda a garantir que o Alexa funcione bem para todos”. Por outras palavras, a única maneira de melhorar a tecnologia baseada em voz, de acordo com alguns especialistas, é fazer com que as interações privadas sejam escutadas. Estima-se que, em 2020, mais de 60% dos usuários indianos usaram assistentes de voz nos seus smartphones para uma infinidade de tarefas – desde ouvir música, a definir um alarme, ou até mesmo fazer perguntas.
Florian Schaub, professor assistente da Universidade de Michigan, que estudou as percepções de privacidade das pessoas, argumenta que as pessoas tendem a personificar os seus dispositivos, o que as torna ainda mais desatentas a este tipo de questões. Nesse sentido, quando as mesmas fazem perguntas inócua para o Alexa ou Siri, elas não estão realmente a pensar a fundo sobre estas ações, no entanto, quando percebem que existe alguém a ouvir as suas conversas, sentem que o mesmo é intrusivo e uma violação da sua privacidade, estando por isso muito mais propensas a desconectarem-se destes sistemas.
Esta é uma questão que levanta uma série de preocupações não só acerca da privacidade dos usuários, mas também sobre a extensão da retenção dos seus dados e como estes são aproveitados e usados por estas empresas. “Os VAs funcionam com base nas vozes dos usuários – é sua principal característica. Todos os VAs mencionados acima são ativados ao ouvir uma palavra-chave de ativação específica. Embora algumas das políticas afirmem que os servidores de cloud não armazenam dados/voz a menos que a palavra de ativação seja detectada, há uma troca constante de voz e dados relacionados entre os seus servidores de cloud e o dispositivo VA. Isto acaba por ser particularmente preocupante em casos de ativação falsa, quando os dados podem ser armazenados sem conhecimento real”, segundo um relatório da Internet Freedom Foundation (IFF).
https://theswaddle.com/apples-siri-was-accidentally-recording-conversations-without-peoples-consent/