Como usamos a tecnologia para detectar conteúdo nocivo
Usamos uma abordagem multicamadas para proteger nossos usuários de conteúdo e conduta prejudiciais.
Para detectar e impedir a disseminação de certas categorias de conteúdos de imagem ilegais e prejudiciais conhecidos, utilizamos as tecnologias de correspondência de hash PhotoDNA e MD5 em imagens e vídeos compartilhados por meio dos serviços de consumo hospedados pela Microsoft e em conteúdos enviados para buscas visuais de imagens na internet. Um “hash” transforma imagens em uma série de números que podem ser facilmente comparados, armazenados e processados. Esses hashes não são reversíveis, o que significa que eles não podem ser usados para recriar as imagens originais. Confiamos na derrogação permitida pelo Regulamento da União Europeia (UE) 2021/1232, conforme necessário, para o uso de tecnologias de correspondência de hash para detectar material potencialmente sexual infantil em serviços regidos pela Diretiva da UE 2002/58/EC.
Também podemos usar tecnologias de aprendizado de máquina, como classificadores baseados em texto, classificadores de imagem e técnicas de detecção de grooming para descobrir conteúdos ou condutas compartilhadas por meio dos serviços de consumo hospedados pela Microsoft que possam ser ilegais ou violar as nossas políticas. Por fim, aproveitamos os relatórios de usuários, governos e sinalizadores confiáveis para chamar nossa atenção para possíveis violações de políticas. Essas várias técnicas são adaptadas às características e serviços nos quais são implantadas, o que significa que podemos não usar todas as tecnologias em todos os serviços ou da mesma forma em cada serviço.
Em alguns de nossos serviços, também implantamos ferramentas para detectar e deter o uso indevido das capacidades de videochamada para produzir e compartilhar imagens de exploração e abuso sexual infantil (CSEAI) por usuários de alto risco. A Microsoft usa vários sinais para identificar usuários de alto risco, incluindo histórico de comunicação direta com usuários que tenham sido suspensos ou bloqueados por compartilhar material CSEAI. Se um usuário for identificado como de alto risco e outros sinais estiverem presentes, um bot é implantado na chamada ao vivo. O bot usa inteligência artificial para determinar se uma chamada de vídeo ao vivo contém CSEAI, em tempo quase real. Se CSEAI for detectado durante a chamada, a capacidade de vídeo nessa chamada é desativada.
O que nós achamos
Trabalho terceirizado
Você acha
Revisão de conteúdo
Os revisores humanos consideram imagens, vídeo, mensagens e conteúdo.
Políticas
As políticas de conteúdo e conduta da Microsoft explicam o que não é permitido em nossos serviços.