Πώς χρησιμοποιούμε την τεχνολογία για τον εντοπισμό επιβλαβούς περιεχομένου
Χρησιμοποιούμε μια πολυεπίπεδη προσέγγιση, για την προστασία των χρηστών μας από επιβλαβές περιεχόμενο και συμπεριφορά.
Για να εντοπίσουμε και να σταματήσουμε την εξάπλωση ορισμένων κατηγοριών γνωστού παράνομου και επιβλαβούς περιεχομένου εικόνας, αναπτύσσουμε τις τεχνολογίες αντιστοίχισης κατακερματισμού PhotoDNA και MD5 σε εικόνες και περιεχόμενο βίντεο που κοινοποιούνται μέσω υπηρεσιών καταναλωτών που φιλοξενούνται από τη Microsoft, καθώς και σε περιεχόμενο που ανεβαίνει για οπτική αναζήτηση εικόνων στο internet. Η τεχνική κατακερματισμού μετατρέπει εικόνες σε μια σειρά αριθμών, που μπορούν εύκολα να συγκριθούν, να αποθηκευτούν και να υποβληθούν σε επεξεργασία. Ο κατακερματισμός δεν είναι αναστρέψιμος, πράγμα που σημαίνει ότι δεν μπορεί να χρησιμοποιηθεί για τη ανασύνθεση των αρχικών εικόνων. Βασιζόμαστε στην εξαίρεση που επιτρέπει ο Κανονισμός της Ευρωπαϊκής Ένωσης (ΕΕ) 2021/1232, όπως απαιτείται, για τη χρήση τεχνολογιών αντιστοίχισης κατακερματισμού για την ανίχνευση πιθανών υλικών παιδικής σεξουαλικής εκμετάλλευσης σε υπηρεσίες που διέπονται από την Οδηγία 2002/58/ΕΚ της ΕΕ.
Μπορεί επίσης να χρησιμοποιούμε τεχνολογίες εκμάθησης μηχανής, όπως αλγόριθμους ταξινόμησης που βασίζονται σε κείμενο και σε εικόνες, και τεχνικές εντοπισμού διαδικτυακής αποπλάνησης ανηλίκων, για τον εντοπισμό περιεχομένου ή συμπεριφοράς που κοινοποιούνται μέσω υπηρεσιών καταναλωτών που φιλοξενούνται από τη Microsoft, και ενδέχεται να είναι παράνομες ή να παραβιάζουν τις πολιτικές μας. Τέλος, αξιοποιούμε αναφορές από χρήστες, κυβερνήσεις και αξιόπιστες πηγές καταγγελιών, για να επισημάνουμε πιθανές παραβιάσεις πολιτικής. Αυτές οι διάφορες τεχνικές προσαρμόζονται στις δυνατότητες και τις υπηρεσίες στις οποίες αναπτύσσονται, πράγμα που σημαίνει ότι μπορεί να μην χρησιμοποιούμε όλες τις τεχνολογίες σε όλες τις υπηρεσίες, ούτε με τον ίδιο τρόπο σε κάθε υπηρεσία.
Σε ορισμένες από τις υπηρεσίες μας, χρησιμοποιούμε επίσης εργαλεία για την ανίχνευση και διακοπή της κατάχρησης των δυνατοτήτων βιντεοκλήσεων με σκοπό την παραγωγή και κοινοποίηση υλικού σεξουαλικής εκμετάλλευσης και κακοποίησης παιδιών (CSEAI) από χρήστες υψηλού κινδύνου. Η Microsoft χρησιμοποιεί διάφορα στοιχεία για να αναγνωρίσει χρήστες υψηλού κινδύνου, συμπεριλαμβανομένης της προηγούμενης άμεσης επικοινωνίας τους με χρήστες που τέθηκαν σε αναστολή ή αποκλείστηκαν για την κοινοποίηση υλικού σεξουαλικής εκμετάλλευσης και κακοποίησης παιδιών (CSEAI). Εάν ένας χρήστης αναγνωριστεί ως υψηλού κινδύνου και υπάρχουν άλλα σήματα, αναπτύσσεται ένα bot στην ζωντανή κλήση. Το bot χρησιμοποιεί τεχνητή νοημοσύνη για να προσδιορίσει εάν μια ζωντανή βιντεοκλήση περιέχει CSEAI, σχεδόν σε πραγματικό χρόνο. Εάν ανιχνευθεί CSEAI κατά τη διάρκεια της κλήσης, η δυνατότητα βίντεο σε αυτήν την κλήση απενεργοποιείται.
Το βρίσκουμε εμείς
Το βρίσκουν άλλοι
Το βρίσκετε εσείς
Αξιολόγηση περιεχομένου
Η εξέταση του περιεχομένου γίνεται από ανθρώπους οι οποίοι εξετάζουν εικόνες, βίντεο, μηνύματα και περιβάλλον.
Πολιτικές
Το περιεχόμενο και οι πολιτικές συμπεριφοράς της Microsoft εξηγούν τι δεν επιτρέπεται στις υπηρεσίες μας.