O melhor pedaço da Maçã.

Apple responde às acusações de falhas no NeuralHash

robert coolen / Shutterstock.com
Logo da Apple ao lado de uma chave e de um cadeado aberto

Hoje mais cedo, nós comentamos aqui algumas falhas encontradas no polêmico NeuralHash, o novo algoritmo que a Apple implementará em seus principais sistemas operacionais a fim de detectar conteúdos de pornografia infantil nos aparelhos.

Publicidade

Em resposta às acusações, a empresa disse ao iMore que a engenharia reversa realizada pelo usuário do Reddit não é precisa e que ela disponibilizou o NeuralHash publicamente para que pesquisadores de segurança pudessem investigá-lo.

A Maçã disse, também, que os códigos analisados fazem parte de uma versão genérica da tecnologia e não diz respeito à versão que será lançada futuramente. Além disso, a companhia alegou que os hashes perceptivos, por definição, podem ser enganados ao pensar que duas imagens diferentes são iguais, mas que a segurança da varredura CSAM1Child sexual abuse material, ou material de abuso sexual infantil. leva isso em consideração.

Ainda segundo a empresa, as colisões são esperadas e não comprometem a segurança do sistema, afinal, o banco de dados de hash CSAM presente no dispositivo é criptografado. Portanto, não seria possível para um invasor gerar colisões contra imagens já conhecidas pelo sistema.

A Apple observa que, quando o limite de materiais sensíveis é ultrapassado, um segundo algoritmo independente analisa as fotos comparando-as com os conteúdos CSAM conhecidos. Este outro algoritmo é também executado pelos servidores remotos e não está ao alcance de invasores.

Essa proteção é fundamental para garantir que as contas de usuários não sejam sinalizadas erroneamente por causa de imagens que não contenham materiais sensíveis.

Por fim, a empresa enfatizou que a detecção está sujeita à revisão humana, como já sabíamos. Mesmo que o limite mínimo de 30 imagens acione um alerta, o processo está sujeito a uma revisão humana que poderá identificar as imagens falso-positivas, caso a conta de um usuário seja incorretamente sinalizada.

Fato é: mesmo com as críticas, tudo indica que a Apple não voltará atrás e deverá lançar o novo sistema brevemente. Ainda assim, a companhia não cravou uma data para que o algoritmo comece a funcionar. Como já sabemos, ele estará disponível inicialmente apenas nos Estados Unidos, e deverá chegar em uma futura versão pontual dos novos sistemas operacionais da Maçã.

Notas de rodapé

  • 1
    Child sexual abuse material, ou material de abuso sexual infantil.

Ver comentários do post

Compartilhe este artigo
URL compartilhável
Post Ant.

Apple teve “agente duplo” na indústria de vazamentos por quase um ano

Próx. Post

China: Apple censura gravação de termos políticos em produtos

Posts Relacionados