Terceirizados da Apple ouvem conversas particulares pela Siri, segundo um deles Conteúdo pode incluir sexo ou tráfico de drogas, mas prática está na política de privacidade da Apple

A Apple é a guardiã-mor da privacidade do usuário na comunicação, mas, na prática, nem a poderosa Maçã passa incólume pela falta de privacidade que é (quase) inerente à vida digital. Uma nova reportagem de The Guardian mostra bem isso.

O jornal britânico ouviu um funcionário de uma empresa contratada pela Apple para realizar análises de trechos de áudios processados pela Siri — pequenos clipes de voz gravados pela assistente dos seus usuários e enviados para análise a fim de aprimorar seu sistema de reconhecimento de fala. Pelo depoimento do empregado, o conteúdo dessas gravações passa longe de ser inofensivo ou descartável.

Segundo ele, os funcionários terceirizados frequentemente ouvem gravações altamente privativas e sensíveis dos usuários, com áudios de pessoas fazendo sexo, discutindo tratamentos com médicos, fechando negócios confidenciais ou realizando atos criminosos, como negociações de drogas. A frequência com que esses áudios são “acidentalmente” capturados pela Siri é alta, de acordo com o denunciante.

É bom notar que, como parte da estratégia de privacidade diferencial da Apple, as gravações não são acompanhadas de dados pessoais dos usuários; além disso, a Maçã deixa claro nos termos de uso da Siri que algumas das gravações capturadas pela assistente podem ser revisadas por seres humanos.

O problema aqui, adverte o funcionário, é que o caráter anônimo dessas gravações não é tão anônimo assim: em alguns casos, os trabalhadores analisam trechos de até 30 segundos de áudio, em que é possível facilmente ouvir informações pessoais do usuário e traçar um perfil dele. Além disso, a Apple não deixaria explícito o suficiente para seus clientes que a Siri pode ter falsos positivos nas suas ativações — isto é, ela pode “acordar” e começar uma gravação em um momento aleatório, sem que você a tenha chamado, simplesmente por ter capturado um áudio semelhante ao do seu comando.

Em resposta ao Guardian, a Apple reiterou que os clipes da Siri sempre são analisados de forma anônima, e uma parcela aleatória de menos de 1% das ativações da assistente é usada diariamente para conferência — a maioria dos clipes de voz tem, no máximo, alguns segundos de duração. “Todos os analisadores têm a obrigação de seguir os termos de confidencialidade rigorosos da Apple”, afirmou a empresa.

Segundo o funcionário ouvido pelo jornal, entretanto, a resposta não é suficiente — outros analisadores, mal-intencionados, poderiam muito bem usar as informações obtidas nos clipes com intenções maldosas contra os usuários da empresa. É bem verdade que as chances de isso acontecer são pequenas, mas, ainda assim, fica o lembrete: privacidade absoluta, na era digital, é uma utopia — mesmo com a Apple.

via AppleInsider

Taggeado:

Posts relacionados

Comentários