Tecnologia

Apple testa sistema para detectar fotos de abuso infantil em Iphones

A ferramenta, ativada no Family Sharing, usa aprendizado de máquina no dispositivo para analisar anexos de imagens

9 AGO 2021 - 12h:24 Por Redação/TR
Foto: Reprodução / JD1 News

A Apple anunciou na última semana que vai começar a testar um novo sistema para, automaticamente, enviar fotos de iPhones e de contas do iCloud para um banco de dados de imagens de abuso sexual infantil, ao mesmo tempo em que alertará as autoridades conforme necessário.

O novo serviço vai transformar as fotos em um dispositivo em um conjunto ilegível de hashes — ou números complexos — armazenados nos aparelhos dos usuários, conforme explicou a empresa em uma entrevista coletiva. Esses números serão comparados com um banco de dados de hashes fornecido pelo Centro Nacional para Crianças Desaparecidas e Exploradas dos Estados Unidos.

Alguns defensores da privacidade foram rápidos ao levantar preocupações sobre a provável alteração da companhia, porém a Apple enfatizou que irá encontrar um equilíbrio entre segurança e privacidade.

Apple está substituindo seu sistema de mensagens criptografadas de ponta a ponta, padrão da indústria, por uma infraestrutura para vigilância e censura, que será vulnerável a abusos e aumento de escopo não apenas nos Estados Unidos, mas em todo o mundo", disse Greg Nojeim, co-diretor do Projeto de Segurança e Vigilância do Centro para a Democracia e Tecnologia. 

Em um post em seu site descrevendo as atualizações, a empresa disse: "O método da Apple é projetado tendo a privacidade do usuário em mente." A companhia enfatizou que a ferramenta não "escaneia" as fotos do usuário e apenas as imagens do banco de dados serão incluídas na análise. (Isso deve significar que uma foto inofensiva de um usuário de seu filho na banheira não será sinalizada.)

A Apple também disse que o dispositivo criará um "voucher de segurança" duplamente criptografado — um pacote de informações enviado aos servidores — que é codificado em fotos. Assim que houver um certo número de vouchers de segurança sinalizados, a equipe de revisão da Apple será alertada.

Em seguida, ele decodificará o voucher, desativará a conta do usuário e alertará o Centro Nacional para Crianças Desaparecidas e Exploradas, que pode informar as autoridades. Aqueles que acreditam que suas contas foram sinalizadas por engano podem entrar com um recurso para que sejam reintegradas.

O objetivo da Apple é garantir que imagens idênticas e visualmente semelhantes resultem no mesmo hash, mesmo que tenha sido ligeiramente cortado, redimensionado ou convertido de colorido para preto e branco.

Uma nova ferramenta de comunicação também avisará os usuários menores de 18 anos quando eles estão prestes a enviar ou receber uma mensagem com uma imagem explícita.

A ferramenta, que deve ser ativada no Family Sharing, usa aprendizado de máquina no dispositivo para analisar anexos de imagem e determinar se uma foto é sexualmente explícita. Os pais com filhos menores de 13 anos também podem ativar um recurso de notificação caso uma criança esteja prestes a enviar ou receber uma imagem de nudez. A Apple disse que não terá acesso às mensagens.

Essa ferramenta estará disponível como uma futura atualização de software, de acordo com a empresa.

Sarah Chaves, com informações da CNN - JD1 News

Deixe seu Comentário

Leia Também

Voltar