This is the Trace Id: 1c8552eb98178fb5bb4eb1e808ed4678
Modération et application

Détection de contenu

Comment nous utilisons la technologie pour détecter les contenus préjudiciables

Nous utilisons une approche à plusieurs niveaux pour protéger nos utilisateurs contre les contenus et les comportements préjudiciables.

Pour détecter et arrêter la diffusion de certaines catégories d’images illégales et nuisibles, nous déployons les technologies de hachage PhotoDNA et MD5 sur les images et le contenu vidéo partagés par l’intermédiaire des services grand public hébergés par Microsoft et sur le contenu téléchargé pour les recherches d’images visuelles sur l’internet. Un « hachage » transforme les images en une série de nombres qui peuvent être facilement comparés, stockés et traités. Ces hachages ne sont pas réversibles, ce qui signifie qu’ils ne peuvent pas être utilisés pour recréer les images d’origine. Nous nous appuyons sur la dérogation autorisée par le règlement de l’Union européenne (UE) 2021/1232, selon les besoins, pour l’utilisation de technologies de comparaison de hachages afin de détecter du matériel pédopornographique potentiel dans les services régis par la directive 2002/58/CE de l'UE.

Nous pouvons également utiliser des technologies d'apprentissage automatique telles que des classificateurs basés sur le texte, des classificateurs d'images et des techniques de détection de toilettage pour découvrir des contenus ou des partages via les services grand public hébergés par Microsoft qui pourraient être illégaux ou enfreindre nos politiques. Enfin, nous nous appuyons sur les signalement des utilisateurs, des gouvernements et des signaleurs de confiance pour attirer notre attention sur d’éventuelles violations des politiques. Ces différentes techniques sont adaptées aux fonctionnalités et services sur lesquels elles sont déployées, ce qui signifie que nous ne pouvons pas utiliser toutes les technologies sur tous les services, ni de la même manière sur chaque service.

Sur certains de nos services, nous déployons également des outils pour détecter et perturber l’utilisation abusive des capacités de visioconférence pour produire et partager des images d’exploitation et d’abus sexuel d'enfants (CSEAI) par des utilisateurs à haut risque. Microsoft utilise plusieurs signaux pour identifier les utilisateurs à haut risque, y compris leur communication directe passée avec des utilisateurs qui ont été suspendus ou bloqués pour avoir partagé du matériel CSEAI. Si un utilisateur est identifié comme à haut risque, et que d'autres signaux sont présents, un bot est déployé dans l’appel en direct. Le bot utilise l’intelligence artificielle pour déterminer si un appel vidéo en direct contient du CSEAI, en quasi temps réel. Si du CSEAI est détecté pendant l’appel, la capacité vidéo de cet appel est désactivée.

Nous détectons

Nous avons investi dans et développé notre capacité de « classificateur » pour nous aider à détecter proactivement les violations de nos politiques dans certains contextes. Un « classificateur » est utilisé pour détecter et étiqueter du contenu nuisible conformément à une stratégie prédéfinie, par exemple lorsqu’il s’agit d’extrémisme violent ou de terrorisme. De plus, nous avons développé des moyens de détecter des contenus susceptibles d’être malveillants, tels que des arnaques ou des virus sur nos services.

D’autres détectent

Les signaleurs de confiance peuvent informer Microsoft de contenus, comportements ou URL potentiellement illégaux ou nuisibles sur nos services, afin que nous puissions déterminer si une action est nécessaire. Les signaleurs de confiance sont des organisations désignées qui collaborent avec Microsoft, soit dans le cadre d’un accord, soit en vertu de la législation applicable. Les signalements effectués par des signaleurs de confiance sont examinés au regard de nos conditions et de nos politiques, comme tous les autres signalements, puis font l’objet des mesures appropriées. Nous faisons de même si un gouvernement ou un organisme chargé de l’application de la loi signale une violation potentielle ou demande que nous supprimions du contenu ou des URL conformément aux lois locales.

Vous détectez

Nous vous encourageons à nous dire si vous avez vu ou expérimenté quelque chose sur un service Microsoft qui vous préoccupe. La mise à disposition d’informations détaillées sur le contenu, le comportement ou tout autre élément, y compris l’endroit où le trouver (par exemple un lien vers le contenu ou une copie d’e-mail) aide nos réviseurs à évaluer et à prendre des mesures en cas de violation de nos conditions et politiques. La plupart des produits et services proposent des options permettant de signaler des contenus ou des comportements d’autres utilisateurs. Vous pouvez également signaler des problèmes. Ce faisant, veillez à ne pas envoyer de documents illégaux. Utilisez des liens vers le contenu que vous signalez afin que nous puissions le trouver et lisez attentivement le formulaire pour vous assurer que vous fournissez toutes les informations demandées.

Révision du contenu

Les réviseurs humains prennent en compte les images, les vidéos, les messages et le contexte.

Politiques

Les politiques de Microsoft en matière de contenu et de comportement expliquent ce qui n’est pas autorisé sur nos services.