Em foco

Facebook remove 8,7 milhões de imagens de nudez infantil em três meses

Em nota, rede social diz que agora utiliza ferramentas baseadas em Inteligência Artificial e Machine Learning para acelerar a identificação de conteúdos.

Data: 26.10.2018

Facebook remove 8,7 milhões de imagens de nudez infantil em três meses

O Facebook revelou nesta quarta-feira, 24/10, ter removido 8,7 milhões de fotos de nudez infantil da sua plataforma nos últimos três meses. Essa é a primeira vez que a empresa revela o número de conteúdos removidos por violarem as suas políticas de nudez infantil ou exploração sexual de crianças


Para isso, a rede social contou com a ajuda de ferramentas baseadas em tecnologias emergentes como Inteligência Artificial (IA) e Machine Learning (Aprendizado de Máquina), que apontam automaticamente publicações desse tipo. 


“Além da tecnologia de identificação de fotos (photoDNA), estamos agora usando inteligência artificial e machine learning para proativamente detectar conteúdo de nudez infantil e exploração infantil previamente desconhecidos”, afirma o Facebook em comunicado sobre o assunto.


Desta forma, aponta a empresa, é possível identificar de forma mais rápida esses conteúdos, para denunciá-los, além de remover contas que se envolvam em interações potencialmente inapropriadas com crianças no Facebook. De acordo com a companhia, 99% dessas remoções aconteceram antes mesmo que alguém as denunciasse.


Em entrevista à Reuters, quando questionada sobre possíveis erros que poderiam ser cometidos com um sistema de IA neste processo, a diretora de segurança do Facebook, Antigone Davis, afirmou que “nós preferimos errar pelo lado do cuidado com as crianças”.


Por fim, aponta a agência de notícias, a companhia também revelou que atualmente explora a possibilidade de utilizar o mesmo tipo de tecnologia no Instagram.


Fonte: IDGNow!



Voltar