Så här använder vi teknik för att identifiera skadligt innehåll
Vi har en mångsidiga strategi för att skydda våra användare från skadligt innehåll och skadligt uppförande.
För att identifiera och stoppa spridningen av vissa kategorier av känt otillåtet och skadligt bildinnehåll distribuerar vi hashmatchningsteknikerna PhotoDNA och MD5 på bilder och videoinnehåll som delas via Microsofts värdbaserade konsumenttjänster och på innehåll som laddats upp för visuella bildsökningar på Internet. En ”hash” omvandlar bilder till en serie siffror som enkelt kan jämföras, lagras och bearbetas. Dessa ”hash-värden” kan inte användas för att återskapa originalbilderna. Vi förlitar oss på den deklaration som tillåts av EU-förordning (EU) 2021/1232 vid behov för användning av hashmatchningsteknik för att identifiera potentiellt sexuellt barnmaterial i tjänster som omfattas av EU-direktiv 2002/58/EG.
Vi kan även använda maskininlärningstekniker som textbaserade klassificerare, bildklassificerare och tekniker för att identifiera sexförbrytare för att upptäcka innehåll och uppförande som delas via Microsofts kundriktade tjänster och som kan vara olagliga eller bryta mot våra policyer. Vi använder även rapporter från användare, myndigheter och betrodda anmälare för att upptäcka potentiella överträdelser. Dessa olika tekniker är skräddarsydda för de funktioner och tjänster som de distribueras på, vilket innebär att vi kanske inte använder alla tekniker på alla tjänster eller på samma sätt på alla tjänster.
På vissa av våra tjänster distribuerar vi även verktyg för att identifiera och störa missbruket av videosamtalsfunktioner för att producera och dela bilder av sexuellt utnyttjande och missbruk av barn (CSEAI) av högriskanvändare. Microsoft använder flera signaler för att identifiera högriskanvändare, inklusive deras tidigare direkta kommunikation med användare som har stängts av eller blockerats för att dela CSEAI-material. Om en användare identifieras som hög risk och det finns andra signaler distribueras en robot till liveanropet. Roboten använder artificiell intelligens för att avgöra om ett livevideosamtal innehåller CSEAI, nästan i realtid. Om CSEAI identifieras under samtalet inaktiveras videofunktionen i samtalet.
Vi hittar det
Andra hittar det
Du hittar det
Granskning av innehåll
Mänskliga granskare tar hänsyn till bilder, videor, meddelanden och kontext.
Policyer
Microsofts policyer för innehåll och uppförande förklarar vad som inte är tillåtet på våra tjänster.