Come usiamo la tecnologia per rilevare contenuti dannosi
Adottiamo un approccio multilivello per proteggere i nostri utenti da contenuti e comportamenti dannosi.
Per rilevare e arrestare la diffusione di determinate categorie di contenuti di immagini illegali e dannosi già noti, usiamo le tecnologie di corrispondenza hash PhotoDNA e MD5 su immagini e sui video condivisi tramite i servizi consumer ospitati da Microsoft e sui contenuti caricati per ricerche visive su Internet. Un 'hash' trasforma le immagini in una serie di numeri che possono essere facilmente confrontati, archiviati ed elaborati. Questi hash non sono reversibili, il che significa che non possono essere usati per ricreare le immagini originali. Ci avvaliamo della deroga consentita dal Regolamento (UE) 2021/1232 dell'Unione Europea, ove necessario, per l'uso di tecnologie di hash-matching al fine di rilevare potenziali materiali pedopornografici nei servizi disciplinati dalla Direttiva UE 2002/58/CE.
Potremmo anche usare tecnologie di machine learning come classificatori basati su testo, classificatori di immagini e tecniche di rilevamento di grooming per individuare contenuti o attività condivisi tramite i servizi consumer ospitati da Microsoft che potrebbero essere illegali o violare le nostre politiche. Infine, ci avvaliamo dei report degli utenti, dei governi e dei segnalatori attendibili per individuare potenziali violazioni delle politiche. Queste diverse tecniche sono adattate alle funzionalità e ai servizi in cui vengono distribuite, il che significa che potremmo non usare tutte le tecnologie in tutti i servizi, né nello stesso modo in ogni servizio.
Su alcuni dei nostri servizi, implementiamo anche strumenti per rilevare e contrastare l'uso improprio delle funzionalità di videochiamata finalizzato alla produzione e condivisione di materiale relativo all'abuso e sfruttamento sessuale di minori (CSEAI) da parte di utenti ad alto rischio. Microsoft usa diversi segnali per identificare gli utenti ad alto rischio, inclusi i loro precedenti contatti diretti con utenti sospesi o bloccati per aver condiviso materiale CSEAI. Se un utente viene identificato come ad alto rischio e sono presenti altri segnali, un bot viene distribuito nella chiamata in tempo reale. Il bot usa l'intelligenza artificiale per determinare, quasi in tempo reale, se una videochiamata live contiene CSEAI. Se durante la chiamata viene rilevato CSEAI, la funzionalità video in tale chiamata viene disabilitata.
Quando Microsoft rileva le violazioni
Quando altri rilevano le violazioni
Quando tu rilevi le violazioni
Revisione dei contenuti
Immagini, video, messaggi e contesto vengono analizzati da revisori umani.
Politiche
Le politiche di Microsoft relative ai contenuti e comportamenti spiegano cosa non è consentito nei nostri servizi.