Tecnologia irá permitir identificar esse tipo de conteúdo antes mesmo que ele seja denunciado.
Por Reuters
/i.s3.glbimg.com/v1/AUTH_59edd422c0c84a879bd37670ae4f538a/internal_photos/bs/2019/9/f/fvELn6T0CvEYBC9BqryA/facebook-silhuetas-celulares.jpg)
Facebook anuncia tecnologia que irá permitir identificar "pornô de vingança" antes mesmo que o conteúdo seja denunciado. — Foto: Dado Ruvic/Reuters
O Facebook informou nesta sexta-feira que pretende utilizar inteligência artificial para combater a disseminação na rede social de fotos íntimas compartilhadas sem a permissão das pessoas com o intuito de ofender ou humilhar — o que às vezes chamada de 'pornografia de vingança'.
A nova tecnologia é adicional a um programa piloto que exigiu representantes treinados para rever imagens ofensivas.
"Usando o aprendizado de máquina e a inteligência artificial, agora podemos detectar proativamente imagens ou vídeos íntimos que são compartilhados sem permissão", disse o Facebook em um post no blog da empresa. "Isso significa que podemos encontrar este conteúdo antes que alguém o denuncie."
Um membro da equipe de operações da comunidade do Facebook deverá rever o conteúdo encontrado pela nova tecnologia, e se for considerada uma imagem ofensiva, irá removê-la ou desativar a conta responsável por espalhá-la, acrescentou a empresa.
A empresa tinha cerca de 15 mil pessoas trabalhando como revisoras de conteúdo, entre terceirizados e funcionários, em dezembro do ano passado.
O Facebook também lançará uma central de suporte chamada "Não Sem Meu Consentimento" (em tradução livre) em sua página do centro de segurança para pessoas cujas imagens íntimas foram compartilhadas sem o seu consentimento.
Por Reuters
/i.s3.glbimg.com/v1/AUTH_59edd422c0c84a879bd37670ae4f538a/internal_photos/bs/2019/9/f/fvELn6T0CvEYBC9BqryA/facebook-silhuetas-celulares.jpg)
Facebook anuncia tecnologia que irá permitir identificar "pornô de vingança" antes mesmo que o conteúdo seja denunciado. — Foto: Dado Ruvic/Reuters
O Facebook informou nesta sexta-feira que pretende utilizar inteligência artificial para combater a disseminação na rede social de fotos íntimas compartilhadas sem a permissão das pessoas com o intuito de ofender ou humilhar — o que às vezes chamada de 'pornografia de vingança'.
A nova tecnologia é adicional a um programa piloto que exigiu representantes treinados para rever imagens ofensivas.
"Usando o aprendizado de máquina e a inteligência artificial, agora podemos detectar proativamente imagens ou vídeos íntimos que são compartilhados sem permissão", disse o Facebook em um post no blog da empresa. "Isso significa que podemos encontrar este conteúdo antes que alguém o denuncie."
Um membro da equipe de operações da comunidade do Facebook deverá rever o conteúdo encontrado pela nova tecnologia, e se for considerada uma imagem ofensiva, irá removê-la ou desativar a conta responsável por espalhá-la, acrescentou a empresa.
A empresa tinha cerca de 15 mil pessoas trabalhando como revisoras de conteúdo, entre terceirizados e funcionários, em dezembro do ano passado.
O Facebook também lançará uma central de suporte chamada "Não Sem Meu Consentimento" (em tradução livre) em sua página do centro de segurança para pessoas cujas imagens íntimas foram compartilhadas sem o seu consentimento.