Sådan bruger vi teknologi til at registrere skadeligt indhold
Vi anvender en tilgang med flere lag, som skal beskytte vores brugere mod skadeligt indhold og krænkende opførsel.
For at opdage og stoppe spredningen af kendt ulovligt og skadeligt billedindhold implementerer vi teknologier til hash-matching såsom PhotoDNA og MD5 på foto- og videomateriale, der deles gennem Microsofts hostede forbrugertjenester, samt på indhold, som uploades til visuelle billedsøgninger på internettet. En "hash" omdanner billeder til en række tal, der nemt kan sammenlignes, gemmes og behandles. En sådan hash er ikke reversible, hvilket betyder, at den ikke kan bruges til at genskabe de originale billeder. Vi gør brug af den undtagelse, der tillades i henhold til European Union (EU)-forordningen 2021/1232 som påkrævet, for brugen af teknologier til hash-matching til registrering af potentielt seksuelt børnemateriale i tjenester, der reguleres af EU-direktiv 2002/58/EF.
Vi anvender muligvis også maskinlærings-teknologier såsom tekstbaserede klassifikatorer, billedklassifikatorer og teknikker til registrering af grooming for at identificere indhold eller adfærd, der deles gennem Microsofts hostede forbrugertjenester, og som potentielt kan være ulovlige eller i strid med vores retningslinjer. Afslutningsvist udnytter vi rapporter fra brugere, myndigheder og betroede taggere til at gøre os opmærksomme på potentielle overtrædelser af politikkerne. Disse forskellige teknikker er tilpasset de funktioner og tjenester, de er implementeret i, hvilket betyder, at vi muligvis ikke bruger alle teknologier i alle tjenester eller på samme måde i hver tjeneste.
På nogle af vores tjenester implementerer vi også værktøjer til registrering eller forhindring af misbrug af videoopkaldsfunktioner, der producerer og deler billeder af seksuel udnyttelse og misbrug af børn (CSEAI) af højrisikobrugere. Microsoft bruger flere signaler til at identificere højrisikobrugere, herunder deres tidligere direkte kommunikation med brugere, der er blevet suspenderet eller blokeret for at dele CSEAI-materiale. Hvis en bruger identificeres som højrisiko, og andre signaler er til stede, implementeres der en bot i live-opkaldet. Botten bruger kunstig intelligens til at afgøre, om et livevideoopkald indeholder CSEAI, i næsten realtid. Hvis CSEAI registreres under opkaldet, deaktiveres videofunktionen i det opkald.
Vi finder det
Andre finder det
Du finder det
Gennemsyn af indhold
Menneskelige validatorer gennemser billeder, video, beskeder og kontekst.
Politikker
Microsofts politikker for indhold og opførsel forklarer, hvad der ikke er tilladt på vores tjenester.