O melhor pedaço da Maçã.

Pesquisadores encontram falhas no algoritmo NeuralHash da Apple

Novidades da Apple contra abuso infantil

Parece que as polêmicas relacionadas ao “escaneamento” de imagens, anunciado pela Apple no início deste mês, ainda vão render por bastante tempo.

Publicidade

Ontem, Asuhariet Ygvar (um usuário do Reddit) relatou ter encontrado códigos do NeuralHash (que será usado para detectar conteúdos de pornografia infantil) na versão 14.3 do iOS, lançada há oito meses. Ele afirma que o algoritmo estava oculto entre as APIs1Application programming interfaces, ou interfaces de programação de aplicações. e seu contêiner era chamado de MobileNetV3.

Alguém encontrou o sistema Neurohash CSAM da Apple já embutido no iOS 14.3 e posterior e conseguiu exportar o modelo MobileNetV3 e reconstruí-lo em Python.
Quantos meses até que haja um GAN que crie imagens inofensivas que são detectadas como CSAM?

De acordo com Ygvar, foi possível realizar a engenharia reversa do código e reconstruir um modelo funcional na linguagem Python, que pode ser usado com algumas imagens. Segundo testes preliminares, o sistema não é enganado pelo redimensionamento ou compactação da imagem, mas detecta cortes ou rotações.

Questionado se as informações eram verídicas, ele afirmou que os arquivos achados possuem o mesmo prefixo encontrado na documentação fornecida pela Maçã e que as partes verificáveis ​​do código funcionam da mesma forma que o algoritmo descrito.

Ainda assim, nem tudo são flores, pois ataques mais significativos foram rapidamente descobertos. Um usuário do GitHub chamado, Cory Cornelius, conseguiu produzir uma colisão no algoritmo — isto é, duas imagens que geram o mesmo hash. Caso a descoberta se confirme, significará uma grave falha na criptografia do novo sistema da Apple.

Na prática, ela gera uma imagem falso-positiva que dispara os alertas mesmo não sendo um conteúdo de pornografia infantil, já que produz o mesmo hash de uma imagem presente nos bancos de dados de referência.

Mesmo assim, embora a colisão seja significativa, seriam necessários grandes esforços para explorá-la na prática e, fora isso, apenas geraria um alerta para a Apple e para o Centro Nacional para Crianças Desaparecidas e Exploradas dos EUA (National Center for Missing & Exploited Children, ou NCMEC), que facilmente identificariam as imagens como falso-positivas.

Apesar de tudo isso, as informações reveladas por esses códigos podem não representar a versão final do NeuralHash, afinal a Apple o está construindo há anos, então provavelmente a empresa já vinha testando esse sistema por um tempo. Diferentemente do que foi exposto pelo usuário, a Maçã afirmou em um de seus documentos que a análise levaria em consideração cortes e rotações nas imagens.

Quanto às versões beta do iOS 15, nenhum desenvolvedor achou referências ao algoritmo NeuralHash em seus códigos — pelo menos por enquanto. Quando isso acontecer, é bem possível que os novos dados sejam extraídos e comparados com os que foram revelados ontem.

Quem se interessar ​​em visualizar e testar o código pode encontrá-lo em um repositório no GitHub. No entanto, o trabalho pode ser em vão, dado que apenas uma parte do complexo processo feito pelo algoritmo é realizado e ele não leva em conta o sistema de vouchers ou o que ocorre no lado do servidores remotos.

A Apple ainda não cravou uma data para que seu novo recurso de detecção comece a funcionar, mas espera-se que ele seja lançado (inicialmente só nos Estados Unidos, vale lembrar) em uma versão pontual após a estreia de seus novos sistemas operacionais — que provavelmente chegarão entre setembro e outubro.

Notas de rodapé

  • 1
    Application programming interfaces, ou interfaces de programação de aplicações.

Ver comentários do post

Compartilhe este artigo
URL compartilhável
Post Ant.

Veja quais recursos não chegarão com o lançamento do iOS 15

Próx. Post

Pokémon UNITE será lançado em 22/9 no iOS, iPadOS e Android [atualizado]

Posts Relacionados