Como utilizamos a tecnologia para detetar conteúdo prejudicial
Temos uma abordagem de várias camadas para proteger os nossos utilizadores de conteúdos e condutas prejudiciais.
Para detetar e impedir a disseminação de determinadas categorias de conteúdos de imagem ilegais e prejudiciais conhecidos, implementámos as tecnologias de correspondência de hash PhotoDNA e MD5 em imagens e conteúdos de vídeo partilhados através de serviços de consumidor alojados pela Microsoft e em conteúdos carregados para pesquisas como serviço de imagens visuais na Internet. Um "hash" transforma imagens numa série de números que podem ser facilmente comparados, armazenados e processados. Estes hashes não são reversíveis, o que significa que não podem ser utilizados para recriar as imagens originais. Contamos com a derrogação permitida pelo Regulamento da União Europeia (UE) 2021/1232, conforme necessário, para a utilização de tecnologias de correspondência de hash para detetar potencial material sexual infantil em serviços regidos pela Diretiva da UE 2002/58/CE.
Também podermos utilizar tecnologias de aprendizagem automática como classificadores baseados em texto, classificadores de imagens e técnicas de deteção de aliciamento para descobrir conteúdos ou condutas partilhadas através dos serviços de consumidor alojados pela Microsoft que podem ser ilegais ou violar as nossas políticas. Por último, tiramos partido das denúncias de utilizadores, governos e sinalizadores de confiança para nos chamar a atenção para potenciais infrações da política. Estas várias técnicas são adaptadas às funcionalidades e serviços em que são implementadas, o que significa que podemos não utilizar todas as tecnologias em todos os serviços, nem da mesma forma em todos os serviços.
Em alguns dos nossos serviços, também implementamos ferramentas para detetar e interromper a utilização indevida de capacidades de videochamada para produzir e partilhar imagens de exploração e abuso sexual de crianças (CSEAI) por utilizadores de alto risco. A Microsoft utiliza vários sinais para identificar utilizadores de alto risco, incluindo a sua comunicação direta anterior com utilizadores que foram suspensos ou bloqueados por partilharem material CSEAI. Se um utilizador for identificado como sendo de risco elevado e se existirem outros sinais, é implementado um bot na chamada em direto. O bot utiliza inteligência artificial para determinar se uma videochamada em direto contém CSEAI, quase em tempo real. Se forem detetadas CSEAI durante a chamada, a capacidade de videochamada será desativada.
Infrações que encontramos
Infrações que outras pessoas encontram
Infrações que encontra
Revisão de conteúdos
Os revisores humanos consideram imagens, vídeos, mensagens e contexto.
Políticas
As políticas de conteúdos e conduta da Microsoft explicam o que não é permitido nos nossos serviços.