O melhor pedaço da Maçã.
Shutterstock.com
Cérebro de inteligência artificial

Criadores de sistema contra CSAM pedem que Apple desista da ideia

“Nós não estamos preocupados por não entender como o sistema da Apple funciona — o problema é, nós entendemos exatamente como ele funciona”

A essa altura, imagino que todos já estejam devidamente inteirados sobre os novos recursos da Apple dedicados a combater o abuso e a pornografia infantil — especialmente o mais polêmico deles, que analisará as fotos nos iPhones dos usuários (apenas caso o recurso Fotos do iCloud esteja ligado, vale notar) para detectar possível conteúdo ilegal.

Publicidade

Já trouxemos para cá uma enxurrada de críticas vindas de órgãos, grupos de privacidade digital e pessoas ligadas à área da segurança — e falamos, também, sobre a extensa defesa da Apple em relação ao recurso. Mas e quando as críticas vêm de pessoas… que criaram um sistema parecido?

Foi exatamente o que aconteceu nesse artigo de opinião publicado hoje no Washington Post. O texto é assinado por Jonathan Mayer (professor-assistente de ciências da computação na Universidade de Princeton) e Anunay Kulshrestha (pesquisador da graduação e candidato a PhD na mesma instituição).

Há cerca de dois anos, os dois pesquisadores trabalharam na criação de um sistema de detecção de imagens muito parecido com o que a Apple implementará em breve, mas se distanciaram do projeto. A razão? Considerarem a tecnologia perigosa — no sentido de abrir espaço para que seu funcionamento seja abusado por órgãos policiais e governos que queiram detectar outros elementos além de pornografia infantil.

A empresa [Apple] insiste que as críticas ao sistema são baseadas em “mal-entendidos”. Nós discordamos. Nós escrevemos a única publicação revisada por pares que descreve como construir um sistema como o da Apple, e concluímos que a tecnologia era perigosa. Nós não estamos preocupados por não entender como o sistema da Apple funciona — o problema é, nós entendemos exatamente como ele funciona.

Mayer e Kulshrestha descrevem brevemente o projeto no qual trabalharam, que começou como um sistema experimental para detectar imagens CSAM1Child sexual abuse material, ou material de abuso sexual infantil. em sistemas criptografados. A ideia era criar um meio-termo que pudesse fazer esse escaneamento sem quebrar a criptografia dos sistemas — e daí surgiu a ideia de usar o sistema de hashes comparados com bancos de dados, exatamente a tecnologia implementada pela Apple.

Os pesquisadores citam que o sistema pode ser facilmente “reposicionado” para funcionar como uma ferramenta de vigilância e censura. Eles citam exemplos anteriores nos quais governos usaram serviços populares para monitorar discurso político contrário ao vigente, como a China usando o WeChat, a Índia obrigando empresas a analisar conteúdo crítico à administração local e as multas aplicadas pela Rússia ao Google, ao Facebook e ao Twitter por não removerem materiais de protestos pró-democracia.

Publicidade

Além disso, os dois estudiosos citam o problema dos falsos-positivos (que, segundo a Apple, não chegam a um em um trilhão) e a possibilidade de usuários maliciosos entenderem o funcionamento do sistema para fazer com que pessoas inocentes sejam submetidas ao processo de análise humana.

Publicidade

Nós ficamos tão perturbados que tomamos uma atitude que nunca tínhamos visto na literatura da Ciência da Computação: passamos a contraindicar o nosso próprio sistema, pedindo que mais pesquisas fossem feitas para mitigar os sérios problemas encontrados. Planejamos discutir caminhos adiante em uma conferência acadêmica este mês.

A discussão, segundo a dupla, nunca ocorreu — pouco antes, a Apple apresentou o seu sistema de detecção CSAM, e a empresa, segundo os pesquisadores, não respondeu satisfatoriamente às dúvidas de confiabilidade trazidas pelo sistema.

Segundo Mayer e Kulshrestha, as supostas proteções implementadas pela Apple — como a análise humana e a possibilidade de auditoria externa — são furadas por conta do histórico da empresa de obstruir pesquisas de segurança. E o sistema para verificar a confiabilidade dos bancos de dados por meio de comparações “não passaria numa matéria introdutória de segurança digital”, de acordo com a dupla.

Mayer cita ainda um protocolo desenvolvido por ele próprio, que poderia ser implementado pela Apple para aumentar a confiabilidade do sistema — mas que, até o momento, não foi utilizado. Segundo os pesquisadores, no fim das contas, muitos dos riscos trazidos pela tecnologia “não têm soluções técnicas”.

Publicidade

A dupla concluiu:

A Apple está apostando que pode limitar o seu sistema para um certo tipo de conteúdo em certos países, mesmo com pressões imensas de governos. Esperamos que ela consiga proteger as crianças e continuar defendendo incentivos para uma adoção generalizada da criptografia. Mas não se enganem: a Apple está brincando com a segurança, a privacidade e a livre expressão no mundo inteiro.

Vamos ver, portanto, se a Maçã responderá essa. Opiniões?

via iMore

Notas de rodapé

  • 1
    Child sexual abuse material, ou material de abuso sexual infantil.

Ver comentários do post

Compartilhe este artigo
URL compartilhável
Post Ant.

Apple ensina a tirar fotos poderosas com o modo Retrato

Próx. Post

Promoções na App Store: Zero+, Ambliopia, Ponpu e mais!

Posts Relacionados