So verwenden wir Techniken, um schädliche Inhalte zu erkennen
Mit einem mehrschichtigen Ansatz schützen wir unsere Benutzenden vor schädlichen Inhalten und Verhaltensweisen.
Um die Verbreitung bestimmter Kategorien bekannter illegaler und schädlicher Bildinhalte zu erkennen und zu beenden, stellen wir die Hashabgleichtechniken PhotoDNA und MD5 für Bilder- und Videoinhalte bereit, die über die von Microsoft gehosteten Verbraucherdienste freigegeben werden, sowie für Inhalte, die für visuelle Bildsuchen im Internet hochgeladen werden. Ein „Hash“ transformiert Bilder in eine Reihe von Ziffern, die einfach verglichen, gespeichert und verarbeitet werden können. Diese „Hashes“ sind nicht umkehrbar, d. h., sie können nicht zur Wiederherstellung der Originalbilder verwendet werden. Wir stützen uns auf die in der Verordnung 2021/1232 der Europäischen Union (EU) erlaubte Ausnahmeregelung, um Hash-Abgleichtechniken zur Erkennung potenzieller Materialien zur sexuellen Ausbeutung und zum Missbrauch von Kindern in den durch die EU-Richtlinie 2002/58/EG geregelten Diensten zu verwenden.
Wir können auch Machine Learning-Technik wie textbasierte Klassifizierer, Bildklassifizierer und Grooming-Erkennungstechniken verwenden, um über von Microsoft gehostete Verbraucherdienste freigegebene Inhalte oder Verhaltensweisen zu ermitteln, die möglicherweise illegal sind oder gegen unsere Richtlinien verstoßen. Außerdem nutzen wir Berichte von Benutzenden, Behörden und vertrauenswürdigen Hinweisgebern, die uns auf mögliche Richtlinienverstöße aufmerksam machen. Diese verschiedenen Techniken sind auf die Features und Dienste zugeschnitten, auf denen sie bereitgestellt werden. Das bedeutet, dass wir möglicherweise nicht alle Techniken für alle Dienste oder auf die gleiche Weise in jedem Dienst verwenden.
In einigen unserer Dienste stellen wir auch Tools bereit, um den Missbrauch von Videoanruf-Funktionen zur Erstellung und Verbreitung von Bildern sexueller Ausbeutung und Missbrauch von Kindern (Child Sexual Exploitation And Abuse Imagery, CSEAI) durch Benutzende, von denen eine hohes Risiko ausgeht, zu erkennen und zu unterbinden. Microsoft verwendet mehrere Signale, um Benutzende, von denen eine hohes Risiko ausgeht, zu identifizieren, einschließlich ihrer früheren direkten Kommunikation mit Benutzenden, die wegen der Freigabe von CSEAI-Material gesperrt oder blockiert wurden. Wenn ein Benutzender als hoch riskant identifiziert wird und andere Signale vorhanden sind, wird ein Bot im Live-Anruf bereitgestellt. Der Bot verwendet künstliche Intelligenz, um in nahezu Echtzeit zu bestimmen, ob ein Live-Videoanruf CSEAI enthält. Wenn während des Anrufs CSEAI erkannt wird, wird die Videofunktion in diesem Anruf deaktiviert.
Wir finden es
Andere finden es
Sie finden es
Inhaltsprüfung
Unser menschliches Prüfteam berücksichtigt Bilder, Videos, Nachrichten und Kontext.
Richtlinien
Microsoft erläutert in den Inhalts- und Verhaltensrichtlinien, was in seinen Diensten untersagt ist.