Slik bruker vi teknologi for å oppdage skadelig innhold
Vi bruker en strategi med flere lag for å beskytte brukerne våre mot skadelig innhold og oppførsel.
For å oppdage og stoppe spredning av enkelte kategorier av kjent ulovlig og skadelig bildeinnhold, ruller vi ut hash-matching-teknologiene PhotoDNA og MD5 på bilder og videoinnhold som deles via Microsofts forbrukertjenester, samt på innhold som lastes opp for visuelle bildesøk på internett. En «hash» omdanner et bilde til en serie med tall som enkelt kan sammenlignes, lagres og behandles. Disse hashene er ikke reversible, noe som betyr at de ikke kan brukes til å gjenskape de opprinnelige bildene. Vi baserer oss på unntaket tillatt av EU-forordning (EU) 2021/1232 etter behov, for bruk av hash-matching-teknologier til å oppdage potensielt materiale med overgrep mot barn i tjenester som reguleres av EU-direktiv 2002/58/EF.
Vi kan også bruke maskinlæringsteknologier som tekstbaserte klassifiseringsverktøy, bildegjenkjenning og metoder for å oppdage grooming for å identifisere innhold eller atferd via Microsofts forbrukertjenester som kan være ulovlig eller bryte med våre retningslinjer. Til slutt benytter vi varsler fra brukere, myndigheter og pålitelige varslere for å gjøre oss oppmerksomme på mulige brudd på retningslinjene våre. Disse ulike metodene tilpasses funksjonene og tjenestene de brukes på, noe som betyr at vi ikke nødvendigvis bruker alle teknologiene på alle tjenester, eller på samme måte i hver enkelt tjeneste.
I noen av tjenestene våre bruker vi også verktøy for å oppdage og forhindre misbruk av videosamtaler til å produsere og dele overgrepsmateriale mot barn (CSEAI) fra brukere med høy risiko. Microsoft bruker flere signaler for å identifisere brukere med høy risiko, inkludert tidligere direkte kommunikasjon med brukere som ble utestengt eller blokkert for deling av overgrepsmateriale mot barn. Hvis en bruker identifiseres som høyrisiko, og andre signaler er til stede, blir en bot implementert i den aktive samtalen. Robotprogrammet bruker kunstig intelligens til å avgjøre om en direktesendt videosamtale inneholder overgrepsmateriale mot barn, nesten i sanntid. Hvis overgrepsmateriale mot barn oppdages under samtalen, deaktiveres videofunksjonen i samtalen.
Vi finner det
Andre finner det
Du finner det
Gjennomgang av innhold
Menneskelige kontrollører vurderer bilder, video, meldinger og kontekst.
Policyer
Microsofts policyer for innhold og oppførsel beskriver hva som ikke er tillatt i tjenestene våre.