Cómo usamos la tecnología para detectar contenido perjudicial
Usamos un enfoque de varias capas para proteger a nuestros usuarios del contenido y la conducta perjudiciales.
Para detectar y detener la propagación de determinadas categorías de contenido de imágenes ilegales y perjudiciales conocido, implementamos las tecnologías de coincidencia de hash PhotoDNA y MD5 en imágenes y contenido de vídeo compartidos a través de servicios de consumidor hospedados por Microsoft y en contenido cargado para búsquedas de imágenes visuales de Internet. Un “hash” transforma las imágenes en una serie de números que se pueden comparar, almacenar y procesar fácilmente. Estos hashes no son reversibles, lo que significa que no se pueden usar para volver a crear las imágenes originales. Nos basamos en la legislación permitida por el Reglamento de la Unión Europea (EU) 2021/1232, según sea necesario, para el uso de tecnologías de coincidencia de hash para detectar posible material sexual infantil en servicios regidos por la Directiva 2002/58/EC de la EU.
También podemos usar tecnologías de aprendizaje automático como clasificadores basados en texto, clasificadores de imágenes y técnicas de detección de limpieza para detectar contenido o llevar a cabo acciones compartidas a través de servicios de consumidor hospedados por Microsoft que pueden ser ilegales o infringir nuestras directivas. Por último, aprovechamos los informes de usuarios, gobiernos y marcadores de confianza para poner en nuestra atención posibles infracciones de directivas. Estas diversas técnicas se adaptan a las características y servicios en los que se implementan, lo que significa que no podemos usar todas las tecnologías en todos los servicios ni de la misma manera en todos los servicios.
En algunos de nuestros servicios, también implementamos herramientas para detectar e interrumpir el uso incorrecto de las capacidades de videollamada para producir y compartir imágenes de abuso y explotación sexual infantil (CSEAI) por parte de usuarios de alto riesgo. Microsoft usa varias señales para identificar a los usuarios de alto riesgo, incluida su comunicación directa pasada con los usuarios que fueron suspendidos o bloqueados para compartir material de CSEAI. Si un usuario se identifica como de alto riesgo y hay otras señales presentes, se implementa un bot en la llamada en directo. El bot usa inteligencia artificial para determinar si una videollamada en directo contiene CSEAI, casi en tiempo real. Si se detecta CSEAI durante la llamada, se deshabilita la funcionalidad de vídeo en esa llamada.
Lo encontramos
Otros lo encuentran
Lo encuentra
Revisión de contenido
Los revisores humanos tienen en cuenta imágenes, vídeo, mensajes y contexto.
Directivas
Las directivas de conducta y contenido de Microsoft explican lo que no está permitido en nuestros servicios.