Comment nous utilisons la technologie pour détecter les contenus préjudiciables
Nous utilisons une approche à plusieurs niveaux pour protéger nos utilisateurs contre les contenus et les comportements préjudiciables.
Pour détecter et arrêter la diffusion de certaines catégories d’images illégales et nuisibles, nous déployons les technologies de hachage PhotoDNA et MD5 sur les images et le contenu vidéo partagés par l’intermédiaire des services grand public hébergés par Microsoft et sur le contenu téléchargé pour les recherches d’images visuelles sur l’internet. Un « hachage » transforme les images en une série de nombres qui peuvent être facilement comparés, stockés et traités. Ces hachages ne sont pas réversibles, ce qui signifie qu’ils ne peuvent pas être utilisés pour recréer les images d’origine. Nous nous appuyons sur la dérogation autorisée par le règlement de l’Union européenne (UE) 2021/1232, selon les besoins, pour l’utilisation de technologies de comparaison de hachages afin de détecter du matériel pédopornographique potentiel dans les services régis par la directive 2002/58/CE de l'UE.
Nous pouvons également utiliser des technologies d'apprentissage automatique telles que des classificateurs basés sur le texte, des classificateurs d'images et des techniques de détection de toilettage pour découvrir des contenus ou des partages via les services grand public hébergés par Microsoft qui pourraient être illégaux ou enfreindre nos politiques. Enfin, nous nous appuyons sur les signalement des utilisateurs, des gouvernements et des signaleurs de confiance pour attirer notre attention sur d’éventuelles violations des politiques. Ces différentes techniques sont adaptées aux fonctionnalités et services sur lesquels elles sont déployées, ce qui signifie que nous ne pouvons pas utiliser toutes les technologies sur tous les services, ni de la même manière sur chaque service.
Sur certains de nos services, nous déployons également des outils pour détecter et perturber l’utilisation abusive des capacités de visioconférence pour produire et partager des images d’exploitation et d’abus sexuel d'enfants (CSEAI) par des utilisateurs à haut risque. Microsoft utilise plusieurs signaux pour identifier les utilisateurs à haut risque, y compris leur communication directe passée avec des utilisateurs qui ont été suspendus ou bloqués pour avoir partagé du matériel CSEAI. Si un utilisateur est identifié comme à haut risque, et que d'autres signaux sont présents, un bot est déployé dans l’appel en direct. Le bot utilise l’intelligence artificielle pour déterminer si un appel vidéo en direct contient du CSEAI, en quasi temps réel. Si du CSEAI est détecté pendant l’appel, la capacité vidéo de cet appel est désactivée.
Nous détectons
D’autres détectent
Vous détectez
Révision du contenu
Les réviseurs humains prennent en compte les images, les vidéos, les messages et le contexte.
Politiques
Les politiques de Microsoft en matière de contenu et de comportement expliquent ce qui n’est pas autorisé sur nos services.