O melhor pedaço da Maçã.
Yahoo! Finance
Logo da Apple

Coalizão quer que Apple aborte recursos contra abuso infantil

Uma coalizão internacional com mais de 90 grupos de tecnologia e direitos civis publicou uma carta aberta hoje [PDF] instando que a Apple abandone seus planos de “construir recursos de vigilância em iPhones, iPads e outros produtos”, numa clara referência aos futuros recursos anunciados pela empresa para inibir o abuso e a pornografia infantil.

Publicidade

Mais precisamente, os signatários estão preocupados com o recurso que visa identificar possíveis imagens com material de abuso sexual infantil (child sexual abuse material, ou CSAM) a partir de pequenos códigos (hashes) nas fotos enviadas para o iCloud.

Embora esses recursos tenham como objetivo proteger as crianças e reduzir a disseminação de material de abuso sexual infantil (CSAM), estamos preocupados que eles sejam usados para censurar a liberdade de expressão, ameaçar a privacidade e a segurança de pessoas em todo o mundo e causar desastres consequências para muitas crianças.

A carta também pede que a Apple desista de implantar os recursos planejados para o app Mensagens nas contas familiares — cuja finalidade é identificar e borrar imagens com nudez enviadas para crianças, permitindo que essas fotos sejam visualizadas apenas se os pais/responsáveis autorizem.

Os signatários afirmam que a medida não só poderia colocar em perigo crianças em lares intolerantes ou aqueles que procuram material educacional, mas também quebraria a criptografia de ponta a ponta do iMessage.

Algoritmos projetados para detectar material sexualmente explícito são notoriamente não confiáveis. Eles estão propensos a sinalizar erroneamente arte, informações sobre saúde, recursos educacionais, mensagens de defesa e outras imagens. Os direitos das crianças de enviar e receber tais informações são protegidos pela Convenção das Nações Unidas sobre os Direitos da Criança.

Além disso, alguns signatários da carta temem que esses sistemas possam ser “subvertidos em países com sistemas jurídicos diferentes para pesquisar conteúdo político ou outro conteúdo confidencial”.

Essas imagens podem ser de abusos dos direitos humanos, protestos políticos, imagens que as empresas rotularam como “terroristas” ou de conteúdo extremista violento, ou mesmo imagens nada lisonjeiras dos próprios políticos que vão pressionar a empresa para fazer a varredura.

Entre as empresas signatárias estão instituições/organizações brasileiras ou com atuação no Brasil, entre elas o Instituto Beta: Internet & Democracia (IBIDEM), o Instituto de Referência em Internet e Sociedade (IRIS), o Instituto Liberdade Digital (ILD), o Instituto Nupef, o Instituto de Pesquisa em Direito e Tecnologia do Recife (IP.rec) e a Internet Society (ISOC Brasil).

Publicidade

Vale notar que a Apple já respondeu a muitas dessas dúvidas e aflições em um FAQ, no qual esclareceu como o recurso funcionará. No entanto, o próprio chefe de software da Maçã admitiu que o anúncio dos recursos foi feito erroneamente, uma vez que as ferramentas foram totalmente “incompreendidas”.

via Reuters

Ver comentários do post

Compartilhe este artigo
URL compartilhável
Post Ant.

Órgão antitruste da Austrália quer “abrir” lojas de aplicativos

Próx. Post

Suposto molde de case revela design do futuro iPad mini

Posts Relacionados