Gebruik van technologie om schadelijke inhoud te detecteren
We gebruiken een gelaagde aanpak om onze gebruikers te beveiligen tegen schadelijke inhoud en kwaadwillend gedrag.
Voor het detecteren en stoppen van de verspreiding van bepaalde categorieën bekende illegale en schadelijke beeldinhoud, passen we de hash-matchingtechnologieën PhotoDNA en MD5 toe op afbeeldingen en video-inhoud die wordt gedeeld via door Microsoft gehoste consumentenservices en op inhoud die wordt geüpload voor visuele beeldzoekopdrachten op internet. Een hash transformeert afbeeldingen in een reeks getallen die eenvoudig kunnen worden vergeleken, opgeslagen en verwerkt. Deze hashes zijn onomkeerbaar. Dit betekent dat ze niet kunnen worden gebruikt om de oorspronkelijke afbeeldingen te opnieuw creëren. We maken gebruik van de door Verordening (EU) 2021/1232 van de Europese Unie toegestane afwijking, zoals vereist, voor het gebruik van hash-matchingtechnologieën om mogelijk kinderpornomateriaal te detecteren in services die vallen onder Richtlijn 2002/58/EG van de EU.
We kunnen ook gebruikmaken van machine-learningtechnologieën zoals classificatie op basis van tekst, afbeeldingen en technieken voor het opsporen van grooming om inhoud of gedrag te ontdekken die worden gedeeld via door Microsoft gehoste consumentenservices en die mogelijk illegaal zijn of ons beleid schenden. Ten slotte gebruiken we rapporten van gebruikers, overheden en vertrouwde markeerders om potentiële beleidsschendingen onder onze aandacht te brengen. Deze verschillende technieken zijn afgestemd op de functies en services waarop ze worden gebruikt, wat betekent dat we mogelijk niet alle technologieën gebruiken op alle services en ook niet op dezelfde manier op elke service.
Op sommige van onze services zetten we ook hulpprogramma's in om misbruik van beeldmateriaal van seksueel misbruik en seksuele uitbuiting van kinderen (Child Sexual Exploitation and Abuse Imagery of CSEAI) door gebruikers met een hoog risico op te sporen en tegen te gaan. Microsoft gebruikt verschillende signalen om gebruikers met een hoog risico te identificeren, waaronder hun vroegere directe communicatie met gebruikers die werden geschorst of geblokkeerd voor het delen van CSEAI-materiaal. Als een gebruiker wordt geïdentificeerd als hoog risico en er andere signalen aanwezig zijn, wordt een bot ingezet voor het live gesprek. De bot gebruikt kunstmatige intelligentie om in bijna realtime te bepalen of een live videogesprek CSEAI bevat. Als CSEAI wordt gedetecteerd tijdens het gesprek, wordt de videomogelijkheid in dat gesprek uitgeschakeld.
Wij detecteren het
Anderen detecteren het
Jullie detecteren het
Inhoudsbeoordeling
Revisoren beoordelen afbeeldingen, video's, berichten en context.
Beleid
In Microsoft-beleid voor inhoud en gedrag wordt uitgelegd wat niet is toegestaan in onze services.